Você está na página 1de 2064

XXIII ENMC

ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS

28 A 30 DE OUTUBRO DE 2020
UNIVERSIDADE FEDERAL DO TOCANTINS
PALMAS - TO
XXIII Encontro Nacional de Modelagem Computacional

XI Encontro de Ciência e Tecnologia de Materiais

Anais do XXIII Encontro Nacional de Modelagem Computacional e o XI Encontro de Ciência e Tecnologia de


Materiais [recurso eletrônico], 28 a 30 de outubro de 2020, Palmas, TO, Brasil. ISSN: 2527-2357.

Disponível em: http://enmc.ccam.uesc.br/

Realizado pelo Programa de Modelagem Computacional de Sistemas da Universidade Federal do Tocantins

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
GESTÃO ADMINISTRATIVA REALIZAÇÃO

ESCOLA SUPERIOR DA
MAGISTRATURA TOCANTINENSE

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
COMISSÃO ORGANIZADORA LOCAL
Marcelo Lisboa Rocha – PPGMCS – UFT – Coordenador
David Nadler Prata – PPGMCS – UFT – Vice-Coordenador

COMISSÃO ORGANIZADORA NACIONAL


Antônio José da Silva Neto (IPRJ/UERJ)
Diego Campos Knupp (IPRJ/UERJ)
Dany Sanchez Dominguez (UESC)
Daniela Buske (UFPel)
Fran Sérgio Lobato (UFU)
Hermes Alves Filho (IPRJ/UERJ)
Ivan Napoleão Bastos (IPRJ/UERJ)
Orestes Llanes Santiago (CUJAE/CUBA)
Rafael Santos (INPE)
Simone Vasconcellos Silva (IFFluminense)

COMITÊ EDITORIAL
Ana Cristina Fontes Moreira (IPRJ/UERJ)
Diego Campos Knupp (IPRJ/UERJ)
Fábio Freitas Ferreira (UFF)
Gustavo Mendes Platt (IPRJ/UERJ)
Henrique Rego Monteiro da Hora (IFF)
Hermes Alves Filho (IPRJ/UERJ)
Ivan Napoleão Bastos (IPRJ/UERJ)
Mateus das Neves Gomes (IFPR)
Renato Simões Silva (LNCC)
Rodrigo Martins(IFFluminense)
Jader Lugon (IFFluminense)

COMITÊ CIENTÍFICO
Cristine Nunes (IFFluminense)
Eduardo Atem (UENF)
Joaquim Teixeira de Assis (IPRJ/UERJ)
Liércio André Isoldi (FURG)
Orestes Llanes Santiago (CUJAE/CUBA)
Patrick Letouze Moreira (UFT)
Paulo Cavalin (IBM)

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
APRESENTAÇÃO

Em 2020, o XXIII Encontro Nacional de Modelagem Computacional e o XI Encontro de Ciência e Tecnologia de


Materiais, foram realizados no período de 28 a 30 de outubro de 2020, pela Universidade Federal do Tocantins (UFT),
em Palmas-TO, com o objetivo de proporcionar um espaço para a interação entre pesquisadores e colaboradores
ligados a Instituições de Ensino e Pesquisa de todo o Brasil.

Durante o Evento os participantes realizaram apresentações orais de seus trabalhos e discutiram diversos temas de
interesse no âmbito do Programa de Pós-Graduação em Modelagem Computacional.Nesta edição, realizado no
formato webinar, o evento foi gerido pelo Programa de Pós-graduação em Modelagem Computacional de Sistemas
da Universidade Federal do Tocantins (UFT), com a participação de professores de várias Instituições de Ensino
Superior.

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

Análises teórica e experimental de três algoritmos para redução de profile de matrizes

L. M. Silva1 - liberio@posgrad.ufla.br
S. L. Gonzaga de Oliveira1 - sanderson@ufla.br
1 Universidade Federal de Lavras, Departamento de Ciência da Computação - Lavras, MG, Brasil

Resumo. Algoritmos para redução de profile de matrizes são utilizados principalmente na


aceleração de métodos resolutores de sistemas de equações lineares, originados de diversos
problemas cientı́ficos e de engenharia. Neste artigo, são mostradas análises de complexidades
de três desses algoritmos. As simulações computacionais fornecem suporte experimental às
análises teóricas obtidas.

Keywords: Redução de profile, matrizes esparsas, otimização combinatória, métodos heurı́sticos.

1. Introdução

Na solução numérica de problemas cientı́ficos e de engenharia, como problemas em eletro-


magnetismo, simulações de circuitos e dinâmica de fluidos computacional, é comum que haja
manipulação de matrizes de grande porte vinculadas a sistemas de equações lineares. Esses
sistemas de equações lineares são do tipo Ax = b, em que A é uma matriz esparsa de tamanho
n × n, b é o vetor de termos independentes de tamanho n, e x é o vetor de incógnitas. Uma
ordenação adequada dos vértices do grafo associado à matriz A melhora a coerência de locali-
dade de memória cache e, consequentemente, reduz o tempo de processamento de resolução de
sistemas de equações lineares por métodos iterativos [4].
Seja A = [aij ] uma matriz simétrica, n × n, associada a um grafo não-direcionado G =
(V, E), composto de um conjunto P V de vértices e um conjunto E de arestas. O profile da matriz
A é definido como prof ile(A) = ni=1 βi (A), em que βi (A) = i− min [j : aij 6= 0]. De forma
P1≤j≤i
equivalente, profile do grafo G é definido como prof ile(G) = max [|s(v) − s(u)|]. O
v∈V {v,u}∈E
problema de minimização de profile foi provado por Lin e Yuan [5] como pertencente à classe
N P-Difı́cil. Assim, por causa da conexão desse problema com diversos outros problemas
importantes em ciência e engenharia, uma grande variedade de métodos heurı́sticos foi proposta
para reordenação de linhas e colunas de matrizes esparsas, em que algoritmos de baixo custo
mais promissores foram avaliados em [4].
O algoritmo de Sloan [9] é um dos algoritmos mais conhecidos para redução de profile de
matrizes [4]. A implementação otimizada do algoritmo de Sloan [9] disponı́vel na biblioteca
Boost C++ [1] consta com complexidade O(|E|·lg(m)). A descrição dessa complexidade não é

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mostrada1 . Nossa implementação não é tão otimizada quanto essa implementação da biblioteca
Boost C++ [1]. Dessa forma, mostramos que a complexidade da nossa implementação é O(|E|·
lg(|V |)) neste trabalho.
Além de mostrar a análise de complexidade do algoritmo de Sloan [9], também apresen-
tamos as análises dos algoritmos de Snay [10] e MPG [7], ambos utilizados para redução de
profile de matrizes. Para verificar essas análises teóricas, análises computacionais desses três
algoritmos são também mostradas. O restante deste artigo está estruturado da seguinte forma.
São mostradas uma breve descrição e análise de complexidade do algoritmo de Sloan [9] na
seção 2. Uma breve descrição do algoritmo MPG [7] e sua análise de complexidade são apre-
sentadas na seção 3. São apresentadas uma breve descrição e análise de complexidade do algo-
ritmo de Snay [10] na seção 4. Análises computacionais desses algoritmos são apresentadas na
seção 5. Por fim, a conclusão é apresentada na seção 6.

2. Análise de complexidade do algoritmo de Sloan

O algoritmo para redução de profile proposto por Sloan [9] é composto de duas etapas. Na
primeira etapa, são determinados dois vértices pseudoperiféricos. Um deles é utilizado como
vétice inicial para a renumeração e o outro é utilizado na função de priorização que determina a
ordem dos vértices renumerados na segunda etapa. Nessa primeira etapa, um vértice qualquer
s do grafo a ser renumerado é escolhido. Então, gera-se a estrutura de nı́vel enraizada L (s).
Dado um vértice v ∈ V , a estrutura de nı́vel L (v) enraizada no vértice v, com profundidade
`(v), é o particionamento L (v) = {L0 (v), L1 (v), . . . , L`(v) (v)}, em que L0 (v) = {v} and
Li (v) = Adj(Li−1 (v)) − i−1
S
j=0 Lj (v), para i = 1, 2, 3, . . . , `(v), and Adj(U ) = {w ∈ V :
(u ∈ U ⊆ V ) {u, w} ∈ E}. Em particular, `(v) = max[d(v, u)] denota a excentricidade do
u∈V
vértice v e a distância d(v, u) é o menor número de arestas de v a u.
A partir da estrutura de nı́vel enraizada L (s), define-se, então, o conjunto Q, que contém
um vértice de cada grau do último nı́vel L`(s) (s) da estrutura de nı́vel enraizada L (s). Em
seguida, para cada vértice w ∈ Q, verifica-se l(w) > l(s). Caso a condição seja satisfeita para
algum vértice w, então, esse vértice passa a ser o vértice s corrente e o processo é repetido.
Caso contrário, a etapa termina e retorna o vértice s e o vértice com menor largura de nı́vel e
entre os vértices pertencentes a Q.
No algoritmo 1, é mostrado um pseudocódigo da segunda etapa do algoritmo de Sloan [9].
Nessa etapa, os vértices são numerados em ordem decrescente conforme a função de priorização
definida na linha 4 desse pseudocódigo. Para essa função, o grau de cada vértice e a sua distância
até e são considerados. Ainda, os pesos w1 e w2 são utilizados de modo a ponderar a influência
dessas caracterı́sticas no cálculo da prioridade. Sloan [9] recomendou a utilização de w1 = 1
e w2 = 2. No algoritmo de Sloan [9], uma fila de prioridades é criada a partir dos vértices
de entrada. Para a inserção de elementos na fila de prioridades, o método atribui um status a
cada vértice. Um vértice já numerado recebe o status de pós-ativo (veja a linha 21) e os demais
vértices terão status de ativo, pré-ativo ou inativo. Todo vértice ainda não numerado que seja
adjacente a um vértice pós-ativo é definido como em status de ativo. Os vértices adjacentes a
um vértice ativo são definidos como em status de pré-ativo. Já os vértices que não possuem
status de ativo, pós-ativo ou pré-ativo, são definidos como vértices inativos. Dessa forma, a fila

1
https://www.boost.org/doc/libs/1 58 0/libs/graph/doc/sloan ordering.htm.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

2
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de prioridades contém apenas vértices com status de ativo ou pré-ativo. Esse processo termina
após todos os vértices serem numerados e removidos da fila de prioridades.

Algoritmo 1: Etapa de numeração de vértices do algoritmo de Sloan [9].


Entrada: grafo conexo G = (V, A), vértices pseudoperiféricos s e e, e pesos w1 (=1) e w2 (=2).
Saı́da: renumeração S = {s(1), s(2), ..., s(|V |)}.
1 inı́cio
2 para cada ( v ∈ V (G) ) faça
3 v.status ← inativo;
4 v.prioridade ← w1 .Dist(v, e) − w2 .(Grau(v) + 1);
5 fim-para-cada
6 F ← {s};
7 s.status ← pré-ativo;
8 i ← 1;
9 enquanto ( F 6= ∅ ) faça
10 v ← RemoveV ertice(F );
11 se ( v.status = pré-ativo ) então
12 para cada ( u ∈ Adj(v) ) faça
13 u.prioridade ← u.prioridade + w2 ;
14 se ( u.status = inativo ) então
15 u.status ← pré-ativo;
16 F ← F ∪ {u};
17 fim-se
18 fim-para-cada
19 fim-se
20 s(i) ← v;
21 v.status ← pós-ativo;
22 i ← i + 1;
23 para cada ( t ∈ Adj(v) ) faça
24 se ( status = pré-ativo ) então
25 t.status ← ativo;
26 t.prioridade ← t.prioridade + w2 ;
27 para cada ( u ∈ Adj(t) ) faça
28 se ( u.status 6= pós-ativo ) então
29 u.prioridade ← u.prioridade + w2 ;
30 fim-se
31 se ( u.status = inativo ) então
32 u.status ← pré-ativo;
33 F ← F ∪ {u};
34 fim-se
35 fim-para-cada
36 fim-se
37 fim-para-cada
38 fim-enquanto
39 retornaS;
40 fim

Para a análise do pior caso, pode-se considerar um grafo em que o vértice inicial é adjacente
a todos os demais vértices do grafo. Dessa forma, a atualização na fila de prioridades passa a
ser mais dispendiosa; pois, todos os vértices são inseridos na fila de prioridades F .
No algoritmo 1, tem-se um laço de repetição da linha 2 até a linha 5. Nesse trecho do algo-
ritmo, o status inativo é atribuı́do a cada vértice do grafo, bem como as prioridades dos vértices
são inicializadas. Esse laço é executado |V | vezes. Para a determinação das prioridades inici-
ais de cada vértice do grafo, são executadas outras duas subrotinas: Dist, para a determinação
da distância do vértice v ao vértice pseudoperiférico e; e Grau, para a verificação do grau do
vértice v. Para se determinar a distância entre os vértices v e e, pode ser utilizada uma estrutura
de nı́vel enraizada no vértice e e calcula-se o nı́vel em que o vértice v consta nessa estrutura.
Dessa forma, obtém-se custo O(|E| + |V |) nessa operação. Já para a verificação do grau de
cada vértice, tem-se custo O(|E|); logo, tem-se custo O(|E| + |V |) nas |V | iterações desse laço
de repetição. Dessa forma, a linha 4, referente à inicialização das prioridades dos vértices, é
dominante no trecho de código, com custo O(|V | + |E|).
Nas linhas 6 e 7, o vértice pseudoperiférico s é inserido na fila de prioridades F e é atribuı́do
o status pré-ativo para esse vértice. Para essas linhas, assim como para a linha 8, tem-se custo
O(1). No laço de repetição das linhas 9 a 38, os vértices pertencentes à fila de prioridades F
são renumerados em ordem decrescente de prioridade. Os vértices do grafo serão numerados,
um a cada iteração no pior caso em análise aqui; portanto, o laço é executado |V | vezes.
Na linha 10, o vértice v de maior prioridade é removido da fila por meio da subrotina Re-
moveVertice. O custo para remover um vértice de uma fila de prioridades é O(1); porém, ao

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

3
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

se retirar um vértice da fila de prioridades, é necessário reformatar a heap máxima. Logo, para
|V | iterações, tem-se custo O(|V | · lg(|V |)) nessa operação. Se o mesmo vértice possuir status
pré-ativo (linha 11), então, para cada vértice u adjacente ao vértice v (linha 12), é realizada a
atualização da prioridade do vértice u (linha 13). Se o status do vértice u for inativo (linha 14),
atribui-se o status pré-ativo a esse vértice (linha 15) e o insere na fila de prioridades F (linha
16). Ao se considerar o pior caso analisado aqui, na linha 12, são percorridos os vértices adja-
centes apenas do primeiro vértice, pois os demais vértices não serão pré-ativos: todos os demais
vértices já terão o status ativo ao serem verificados na condição da linha 11. Assim, como no
pior caso o vértice inicial é adjacente a todos os demais vértices do grafo, tem-se custo O(|V |)
para a linha 12. A condição da linha 14 também será verificada em custo O(|V |), o mesmo
custo que a linha 13, visto que os vértices que têm sua prioridade atualizada na linha 13 ainda
não estão na fila de prioridades F . O custo da operação de se atualizar e de se inserir um vértice
na fila de prioridades implementada como uma heap máxima é O(lg(|V |)), pois serão inseri-
dos, no máximo, |V | vértices na fila de prioridades. Desse modo, tem-se custo O(|V | · lg(|V |))
para a linha 16 e a linha 15 apresenta custo O(|V |).
Em seguida, o vértice v é renumerado e recebe o status pós-ativo (linhas 20 e 21). A variável
i é incrementada na linha 22. O custo para essas operações é O(1), mas como são executadas
|V | vezes, tem-se custo O(|V |) para essas linhas.
Para cada vértice t adjacente ao vértice v (linha 23) que possui o status pré-ativo (linha 24),
atualiza-se a prioridade e o status do vértice t para ativo (linhas 25 e 26). A linha 24 é executada
|E| vezes; porém, essa condição é satisfeita |V | vezes, já que cada vértice deixa de ter status
pré-ativo e passa a ter status ativo apenas uma vez. Desse modo, a linha 25 é executada |V |
vezes. O custo para se atualizar a prioridade dos vértices na linha 26 é O(|V | · lg(|V |)).
Por fim, na linha 27, são percorridos os vértices adjacentes de cada vértice que satisfaz a
condição da linha 24. Isso faz com que as linhas 27 e 28 sejam executadas |E| vezes. O custo
para atualizar a prioridade dos vértices adjacentes na linha 29 tem custo O(|E| · lg(|V |)). A
condição da linha 31 também é verificada |E| vezes; porém, no pior caso, essa condição nunca
é satisfeita. Desse modo, as linhas 32 e 33 não são executadas no pior cenário avaliado aqui.
Na Tabela 1, são mostrados os custos referentes a cada linha do algoritmo 1. Assim, no pior
caso, tem-se custo O((|E| + |V |) · lg(|V |)) para essa implementação do algoritmo de Sloan [9].

Tabela 1- Complexidade no pior caso do algoritmo de Sloan [9].


Linha Custo Linha Custo Linha Custo Linha Custo
1 — 11 21 31 O(|E|)
O(|V |)
2 12 22 32
O(|V |) O(|V |)
3 13 23 O(|E|) 33 —
4 O(|V | + |E|) 14 24 34
O(|V |)
5 O(|V |) 15 O(|V |) 25 35 O(|E|)
6 16 O(|V | · lg(|V |)) 26 O(|V | · lg(|V |)) 36 —
7 O(1) 17 — 27 37 O(|E|)
O(|E|)
8 18 O(|E|) 28 38 O(|V |)
9 19 — 29 O(|E| · lg(|V |)) 39 O(1)
O(|V |)
10 20 O(|V |) 30 — 40 O(|E|)

3. Análise de complexidade do algoritmo MPG

O algoritmo de Medeiros et al. [7], de maneira similar ao algoritmo de Sloan, é composto


de duas etapas. A primeira etapa encontra dois vértices pseudoperiféricos do mesmo modo
realizado por Sloan [9]. Na segunda etapa do algoritmo MPG [7], mostrado no algoritmo 2,
todos os vértices têm seus parâmetros de prioridade, grau corrente, que é o número de vértices
adjacentes que ainda não foram renumerados e não estão na fila de prioridades F , e número de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

4
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

adjacências a vértices na fila de prioridades F inicializados na função inicializacao(), na linha


3. A função de priorização é a mesma utilizada no algoritmo de Sloan [9].

Algoritmo 2: Algoritmo MPG [7].


Entrada: grafo conexo G = (V, A), vértices pseudoperiféricos s e e, Le .
Saı́da: renumeração S com |V | entradas s(1), s(2), . . ., s(|V |).
1 inı́cio
2 F ← ∅; C ← ∅; i ← 1;
3 inicializacao();
4 enquanto (i < |V |) faça
5 se (F = ∅) então
6 n ← s;
7 senão
// v.π = 2 · v.prioridade + 2 · pmax (Adj({v}) ∩ C) + 3 · v.adjeleg
8 n ← V erticeM aiorπ(Adj(C) − (F ∪ {s(1), . . . , s(i − 1)}));
9 fim se
10 F ← F ∪ {n};
11 para cada (v ∈ Adj({n}) faça
12 v.graucurr ← v.graucurr − 1 ;
13 v.adjeleg ← v.adjeleg + 1;
14 v.prioridade ← v.prioridade + 2;
15 se (v.graucurr = 1) então C ← C ∪ {u} ;
16 fim para cada
17 para cada (v ∈ C) faça
18 se (v.graucurr = 0) então
19 s(i) ← v; i ← i + 1;
20 F ← F − {v}; C ← C − {v};
21 se (v ∈ F ) então
22 para cada u ∈ Adj({v} faça
23 v.adjeleg ← v.adjeleg − 1;
24 fim para cada
25 senão
26 para cada (u ∈ Adj({v}) faça
27 v.graucurr ← v.graucurr − 1;
28 v.prioridade ← v.prioridade + 2;
29 fim para cada
30 fim se
31 senão
32 se (v.graucurr > 1) então C ← C − {v} ;
33 fim se
34 fim para cada
35 se (C = ∅) então
36 para cada (v ∈ F ) faça
37 se (v.prioridade ≥ pmax (F ) − 1) então C ← C ∪ {v};
38 fim para cada
39 fim se
40 fim enqto
41 retorna S.
42 fim

A cada iteração, um vértice é escolhido para ser colocado na fila de prioridades F . Na pri-
meira iteração, o vértice escolhido para ser colocado na fila de prioridades é o vértice inicial
(linhas 5 e 6); nas demais iterações (linha 8), é o vértice que tenha adjacência a vértice contido
na fila de prioridades C (de candidatos) com maior prioridade, que é dada pela função π, mos-
trada no comentário logo abaixo à linha 7. Na função π, a prioridade do vértice, o número de
adjacências a vértices contidos na fila de prioridades F , e a quantidade de adjacências a vértices
em C são considerados. O grau corrente, prioridade e número de adjacências a vértices contidos
em C dos vértices adjacentes ao vértice n adicionado na fila de prioridades F (na linha 10) são
atualizados no laço de repetição para cada, mostrado nas linha 11 a 16.
Um vértice é adicionado em C quando seu grau corrente é igual a um (na linha 15). Se não
houver nenhum vértice com grau corrente igual a um, é adicionado em C os vértice em F com
maiores prioridades (na linha 37).
Um vértice em C que possui grau corrente igual a zero (linha 18) é numerado (na linha 19)
e removido das filas de prioridade (linha 20). Desse modo, no pior caso, a fila C tem tamanho
igual ao número de grau máximo. Esse caso ocorre quando todos os vértices adjacentes ao
vértice de grau máximo possuem um grau corrente igual a 2: quando o vértice de grau máximo
é adicionado na fila de prioridades F , todos os seus m vértices adjacentes são adicionados em
C. Por outro lado, a fila de prioridades F , no pior caso, pode ter tamanho O(|V |). Esse caso
ocorre quando os últimos vértices a serem adicionados na fila de prioridades F possuem grau

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

5
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

máximo; pois, desse modo, quase todos os vértices serão adicionados na fila de prioridades F ,
mas nenhum vértice será renumerado, pois tem grau corrente maior que um.
No algoritmo 2, a linha 2 é executada apenas uma vez e, na inicialização, tem-se custo
O(|E| + |V |), assim como foi descrito na inicialização do algoritmo de Sloan [9]. Por se tratar
do pior caso, o custo da linha 4 é O(|V |). A estrutura condicional da linha 5 é executada |V |
vezes; logo, seu custo é O(|V |). Todavia, essa condição é satisfeita apenas uma vez visto que
a fila de prioridades F só ficará vazia novamente no término do algoritmo. Desse modo, o
custo da linha 6 é O(1). A linha 7 é executada |V | vezes. Para selecionar o vértice n da linha
8, é necessário percorrer todos os vértices adjacentes a vértices em C; logo, com um custo
O(|V | · m), mas se algum vértice nessas adjacências não estiver na fila de prioridades F , é
necessário calcular seu valor π. O vértice de maior grau do grafo tem mais possibilidade de ser
adjacente a um vértice pertencente a C e, como tem um grau alto (em comparação aos demais
vértices do grafo), dificilmente terá uma prioridade alta e, provavelmente, não pertencerá à fila
de prioridades F . Desse modo, o vértice de grau máximo satisfaz essa condição de ser adjacente
a vértice contido em C, mas não pertencer à fila de prioridades F . Para calcular o valor de π,
é necessário verificar os vértices adjacentes do vértice sendo examinado. O custo dessa linha
deve ser somada com O(|V | · m). Desse modo, o custo da linha 8 é O(|V | · m).
Cada vértice do grafo é adicionado na fila de prioridades F uma vez na linha 10. Desse
modo, o custo dessa linha é O(|V | · lg(|V |)). A estrutura de repetição para cada da linha
11 a 16 percorrerá todos os vértices adjacentes ao vértice recentemente adicionado na fila de
prioridades F (na linha 10). Como cada vértice é adicionado uma só vez na fila de prioridade
F , tem-se custo O(|E|) para as linhas 11 e 16. As atualizações de grau corrente e vértices
adjacentes na fila de prioridades F , nas linhas 12 e 13, são realizadas em tempo O(1); porém,
como estão dentro da estrutura de repetição para cada e uma modificação do grau corrente
pode alterar a posição de um vértice que está em C, então, o custo da linha 12 é O(|E| · lg(m)).
Ao alterar a prioridade, o mesmo ocorre ao alterar o grau corrente; porém, dessa vez, é a fila de
prioridades F que poderá ser modificada na linha 14. Como no pior caso o tamanho da fila de
prioridades F é o número de vértices, tem-se custo O(|E| · lg(|V |)) para a linha 14. Na linha
15, como o grau corrente de um vértice nunca pode aumentar, a condição será satisfeita |V |
vezes e, como adiciona um vértice em C, tem-se custo O(|V | · lg(m)) para essa linha.
Na linha 17, são verificados os vértices em C em ordem crescente de prioridade. Por estar
dentro do laço de repetição da linha 4, tem-se custo O(|V | · m) para as linhas 17, 18, 31 e
34. A condição da linha 18 é satisfeita |V | vezes, pois cada vértice é numerado apenas uma
vez. Desse modo, para as linhas 19, 21 e 25, tem-se custo O(|V |) e a linha 20 apresenta custo
O(|V | · lg(|V |)). Para o pior caso analisado aqui, a condição da linha 21 nunca será satisfeita.
A estrutura de repetição para cada, nas linhas 26 a 29, tem custo O(|E|), pois os vértices
adjacentes de cada vértice são verificados. De maneira similar às linhas 12 e 14, para as linhas
27 e 28, tem-se custo (|E| · lg(m)) e O(|E| · lg(|V |)), respectivamente. As condições das
linhas 32 e 35 não são satisfeitas no pior caso em análise aqui. Na Tabela 2, são mostrados
os custos referentes a cada linha do Algoritmo 2. Logo, no pior caso, tem-se complexidade
O(|V | · m + (|E| + |V |) · lg(|V |)) para essa implementação do algoritmo MPG [7].

4. Análise de complexidade do algoritmo de Snay

O algoritmo de Snay [10], mostrado no algoritmo 3, inicia a numeração pelo vértice pseudo-
periférico s e realiza um laço de repetição até que todos os vértices sejam numerados. No inı́cio

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

6
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2- Complexidade no pior caso do algoritmo MPG [7].


Linha Custo Linha Custo Linha Custo Linha Custo
1 — 12 O(|E| · lg(m)) 23 33 —

2 O(1) 13 O(|E|) 24 34 O(|V | · m)
3 O(|E| + |V |) 14 O(|E| · lg(|V |)) 25 O(|V |) 35 O(|V |)
4 15 O(|V | · lg(m)) 26 O(|E|) 36
O(|V |)
5 16 O(|E|) 27 O(|E| · lg(m)) 37

6 O(1) 17 28 O(|E| · lg(|V |)) 38
O(|V | · m)
7 O(|V |) 18 29 O(|E|) 39
8 O(|V | · m) 19 O(|V |) 30 — 40 O(|V |)
9 — 20 O(|V | · lg(m)) 31 O(|V | · m) 41 O(1)
10 O(|V | · lg(|V |)) 21 O(|V |) 32 — 42 —
11 O(|E|) 22 —

desse laço, é montado um conjunto N (na linha 6). Nesse conjunto, constam vértices adjacen-
tes ao vértice recém renumerado, mas que ainda não tenham sido numerados nem estejam no
conjunto H, que é formado por vértices com adjacência a vértices já numerados. O conjunto N
é adicionado ao conjunto H (na linha 7) e ao conjunto C (na linha 8), que contém os vértices
do conjunto H e também contém os vértices adjacentes aos vértices em H (linhas 9 a 11).

Algoritmo 3: Algoritmo de Snay [10].


Entrada: um grafo conexo G = (V, E) e um vértice inicial s ∈ V ;
Saı́da: renumeração S com |V | entradas s(1), s(2), . . ., s(|V |).
1 inı́cio
2 s(1) ← s;
3 H ← ∅;
4 C ← ∅;
5 para (i ← 2; i ≤ |V |; i ← i + 1) faça
6 N ← Adj(G, s(i − 1)) − ({s(1), s(2), · · · , s(i − 1)} ∪ H);
7 H ← H ∪ N;
8 C ← C ∪ N;
9 para cada (u ∈ N ) faça
10 C ← C ∪ (Adj(G, u) − {s(1), s(2), · · · , s(i − 1)});
11 fim para cada
12 min ← +∞; v ← ∅;
13 para cada (w ∈ C) faça
14 wr ← |Adj(G, w) − ({s(1), s(2), · · · , s(i − 1)} ∪ H) |;
15 se (w ∈ H) então wr ← wr − 1; ;
16 se (wr < min) então
17 min ← wr ; v ← w;
18 fim se
19 fim para cada
20 S(i) ← v; H ← H − {v}; C ← C − {v};
21 fim para
22 retorna S.
23 fim

Os vértices do conjunto C são verificados (na linha 13) e seu grau corrente é calculado
(na linha 14), isto é, adjacências a vértices que ainda não foram numerados nem pertencem ao
conjunto H. Se o vértice estiver no conjunto H, esse seu grau relativo ainda diminui em mais
uma unidade (na linha 15) para que vértices contidos no conjunto H possam ser numerados
antes que os demais vértices pertencentes a C. Isso porque se um vértice não pertencente a H é
numerado, então, é possı́vel que mais vértices sejam adicionados ao conjunto C.
O vértice de menor grau corrente em C é selecionado para ser renumerado (linhas 16 a 18).
Após ser renumerado (na linha 20), esse vértice é retirado dos conjuntos C (também na linha
20) e também de H, caso pertença a esse conjunto (também na linha 20).
O pior caso do algoritmo de Snay [10] ocorre quando o conjunto C é de tamanho próximo a
|V |. Isso ocorre porque, dentro do laço principal, existe um laço que percorre todos os vértices
pertencentes a C (nas linhas 13 a 19).
As linhas 2, 3 e 4 tem custo O(1). O laço de repetição iniciado na linha 5, bem como o seu
fim, na linha 21, tem custo O(|V |); pois, com exceção do primeiro vértice que já é renumerado
na linha 2, cada vértice restante será renumerado nesse laço de repetição, um de cada vez. Na
linha 6, são verificados os vértices adjacentes ao vértice mais recentemente renumerado. Desse
modo, a linha 6 é computada em custo O(|E| + |V |). Se os conjuntos forem implementados
como heaps mı́nimas, as linhas 7 e 8 têm custo O(|V | · lg(|V |)).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

7
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A estrutura de repetição para cada, iniciada na linha 9, está dentro do laço de repetição
iniciado na linha 5 e percorre todos os vértices do conjunto N . O tamanho máximo do conjunto
N é m. Desse modo, as linhas 9 e 11 têm custo O(|V | · m). Para cada vértice pertencente ao
conjunto N , são percorridos os vértices adjacentes para verificar se devem ser adicionados ao
conjunto C. Desse modo, o custo da linha 10 é O(|V | · m2 ). A linha 12, por estar dentro do
laço de repetição da linha 5, é computada em tempo O(|V |).
Na linha 13, consta outra estrutura de repetição para cada; dessa vez, para encontrar os
vértices do conjunto C com grau relativo mı́nimo. No pior caso, esse conjunto de vértices
candidatos pode conter todos os vértices, menos o vértice inicial renumerado na linha 2. Um
exemplo desse caso é uma árvore com 2 ou 3 nı́veis. Desse modo, os custos da linha 13 e 19
são O(|V |2 ). O grau relativo de cada vértice pertencente ao conjunto C é calculado na linha 14.
Assim, a linha 14 é executada (|E| · |V |) vezes. As linhas 15, 16 e 17, por estarem dentro do
laço da linha 13, têm custo O(|V |2 ).
Na linha 20, um vértice é renumerado e retirado dos conjuntos H e C. No pior caso, o
tamanho do conjunto C é relacionado ao número de vértices e, ao utilizar uma heap mı́nima,
sua remoção é dada em tempo O(lg(|V |)). Porém, como está dentro do laço da linha 5, o custo
dessa linha é O(|V | · lg(|V |)). Por fim, a linha 22 tem custo O(1). Na Tabela 3, são mostrados
os custos referentes a cada linha do algoritmo 3. Assim, no pior caso, nossa implementação do
algoritmo de Snay [10] apresenta complexidade O(|E|.|V | + |V |2 ).

Tabela 3- Complexidade no pior caso do algoritmo de Snay [10].


Linha Complexidade Linha Complexidade Linha Complexidade Linha Complexidade
1 — 7 13 O(|V |2 ) 19 O(|V |2 )
O(|V | · lg(|V |))
2 8 14 O(|E|.|V |) 20 O(|V | · lg(|V |))
3 O(1) 9 |V | · m 15 21 O(|V |)
O(|V |2 )
4 10 O(|V | · m2 ) 16 22 O(1)
5 O(|V |) 11 O(|V | · m) 17 O(|V |2 ) 23 —
6 O(|E| + |V |) 12 O(|V |) 18 —

5. Análises computacionais

Para verificar as análises de complexidades apresentadas nas seções anteriores, foram reali-
zados experimentos computacionais com implementações na linguagem de programação C++
dos três algoritmos para reduções de largura de banda e de profile de matrizes abordados aqui.
As execuções foram realizadas em uma máquina com processador Intel R
CoreTM i7-4770 (CPU
3.40GHz, 8MB Cache, 8GB of main memory DDR3 1.333GHz, termed M3 machine) (Intel;
Santa Clara, CA, United States). Nessa máquina, está instalada uma distribuição Ubuntu 16.04
LTS 64-bit com versão 4.2.0-36-generic do kernel do Linux.
Na tabela 4, são mostrados experimentos com os algoritmos Sloan [9] e MPG [7] com sete
instâncias obtidas da base SuiteSparse Matrix Collection [2]. Na figura 1, também é apresentado
o resultado desses experimentos. Por clareza nas apresentações, os gráficos aqui são mostrados
com pontos e linhas, em vez de somente pontos.
Por meio dos experimentos mostrados na tabela 4, percebe-se que, ao aproximadamente
dobrar o número de arestas das instâncias, o tempo de execução dos algoritmos de Sloan [9]
e MPG [7] são também quase dobrados. Especificamente para o algoritmo MPG [7], o maior
grau m encontrado na instância pode ser significativo para o tempo de execução do algoritmo.
Quando o maior grau m encontrado na instância é um número grande, o custo de execução do
algoritmo MPG [7] é muito maior que o custo de execução em instâncias com maior grau m da
instância com valor pequeno. Esse é o caso do tempo de execução do algoritmo MPG [7] ao ser

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

8
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

aplicado na instância bundle1. Como essa instância tem o maior grau m maior que as demais
instâncias avaliadas, o custo de execução do algoritmo MPG [7] foi alto nessa instância. Nos
experimentos, verificou-se que o custo de execução do algoritmo MPG [7] é maior que o custo
de execução do algoritmo de Sloan [9]. Possivelmente, operações de alteração de prioridade
de vértices na fila de prioridade F no algoritmo MPG [7], mostradas nas linhas 14 e 28 no
algoritmo 2, são frequentemente mais realizadas que operações de alteração de prioridade de
vértices na fila de prioridade F no algoritmo de Sloan [9], mostrada na linha 29 no algoritmo 1.

Tabela 4- Tempos de execução, em milissegundos, de experimentos com os algoritmos Sloan [9] e MPG
[7] ao serem aplicados em sete instâncias obtidas da base SuiteSparse Matrix Collection.
Instância m |V | |E| Sloan MPG
nasa4704 43 4.704 104.756 1 6
s3rmt3m3 49 5.357 207.123 2 16
bcsstk17 151 10.974 428.650 5 27
bundle1 1712 10.581 770.811 8 415
nemeth26 194 9.506 1.511.760 16 026
nd3k 516 9.000 3.279.690 35 114
nd6k 515 18.000 6.897.316 81 253

Figura 1- Tempos, em segundos, dos algoritmos Sloan [9] e MPG [7].

Também foram realizados experimentos para se verificar a análise de complexidade do al-


goritmo de Snay [10]. Na tabela 5, são apresentadas as instâncias utilizadas, também obtidas da
SuiteSparse Matrix Collection [2]. Para se verificar o tempo de execução do algoritmo de Snay
[10], é mostrado um gráfico em que o eixo x representa |E| · |V | e o eixo y representa o tempo
de execução, em segundos, na figura 2. Em particular, o tempo de execução do algoritmo de
Snay [10] é bastante superior aos tempos de execução dos algoritmos de Sloan [9] e MPG [7].

Tabela 5- Tempos de execução, em segundos, de experimentos com o algoritmo de Snay [10].


Instância |V | |E| |E| · |V | · (1e + 09) Snay
skirt 12.598 196.520 2 0,2
Ca-AstroPh 18.772 396.160 7 6,6
lhr34c 35.152 764.014 27 30,2
lhr71c 70.304 1.528.092 107 135,8
shipsec8 114.919 3.303.553 380 543,2
rgg n 2 19 s0 524.288 6.539.532 3.429 7545,4

6. Conclusão

Análises de complexidade dos algoritmos de Sloan [9], MPG [7] e Snay [10] são abordados
neste artigo. As complexidades encontradas de nossas implementações dos algoritmos de Sloan
[9], MPG [7] e Snay [10] são, respectivamente, O(|E|·lg(|V |), O(|V |·m+(|E|+|V |)·lg(|V |))

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

9
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Tempos, em segundos, do algoritmo de Snay [10] ao ser aplicado em seis instâncias.

e O(|E|.|V |+|V |2 ). Também foram mostrados experimentos computacionais para confirmar as


análises teóricas. Com os experimentos mostrados, percebe-se que os algoritmos de Sloan [9] e
MPG [7] superam o algoritmo de Snay [10] em tempo de execução. Já em publicação anterior
[4], verificou-se que, em geral, o algoritmo MPG [7] apresenta maior redução de profile que o
algoritmo de Sloan [9].

Referências

[1] Boost. Boost C++ libraries. http://www.boost.org/, 2018. Accesso: 22-4-2018.


[2] T. A. Davis and Y. Hu. The University of Florida sparse matrix collection. ACM Transac-
tions on Mathematical Software, 38(1):1–25, 2011.
[3] A. George. Computer implementation of the finite element method. PhD thesis, Stanford
University, Stanford, 1971.
[4] S. L. Gonzaga de Oliveira, J. A. B. Bernardes, and G. O. Chagas. An evaluation of reor-
dering algorithms to reduce the computational cost of the incomplete Cholesky-conjugate
gradient method. Computational & Applied Mathematics, 37(3):2965–3004, 2018.
[5] Y. X. Lin and J. J. Yuan. Profile minimization problem for matrices and graphs. Acta
Mathematicae Applicatae Sinica, 10(1):107–122, 1994.
[6] J. W-H. Liu. On reducing the profile of sparse symmetric matrices. PhD thesis, University
of Waterloo, Waterloo, 1976.
[7] S. R. P. Medeiros, P. M. Pimenta, and P. Goldenberg. Algorithm for profile and wavefront
reduction of sparse matrices with a symmetric structure. Eng. Computations, 10(3):257–
266, 1993.
[8] C. H. Papadimitriou. The NP-completeness of bandwidth minimization problem. Compu-
ting Journal, 16:177–192, 1976.
[9] S. W. Sloan. A Fortran program for profile and wavefront reduction. International Journal
for Numerical Methods in Engineering, 28(11):2651–2679, 1989.
[10] R. A. Snay. Reducing the profile of sparse symmetric matrices. Bulletin Geodesique,
50(4):341–352, 1976.

Theoretical and experimental analyses of three algorithms for matrix profile reduction
Abstract. Heuristics for matrix profile reduction are used mainly in the acceleration of linear
system solver. This article analyzes the complexities of three of these heuristics. Computer
simulations provide experimental support for the theoretical analyzes obtained.

Keywords: Profile reduction, sparse matrices, combinatorial optimization, heuristic methods.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

10
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELAGEM COMPUTACIONAL DE MATERIAIS COM COMPORTAMENTO


AUXÉTICO

Nayara Mendes Lacerda1 – nayara-mendes@ufmg.br


Marcelo Greco2 – mgreco@dees.ufmg.br
1
Universidade Federal de Minas Gerais – Belo Horizonte, MG, Brasil
2
Universidade Federal de Minas Gerais – Belo Horizonte, MG, Brasil

Resumo. Materiais com comportamento auxético, ao contrário dos convencionais, apresentam


um coeficiente de Poisson negativo, o que resulta em um alongamento transversal ao serem
tracionados. Esse efeito pode ser obtido com diferentes tipos de materiais, dependendo apenas
da geometria da estrutura, em especial da unidade celular que apresentam, como as
reentrantes e quirais, por exemplo. Tal particularidade confere a eles uma melhoria em
diversas propriedades mecânicas importantes, o que os torna interessantes para uma série de
aplicações na engenharia, medicina, esportes ou na área militar. Entretanto, apesar da sua
relevância, esse tema ainda é pouco difundido. Logo, torna-se interessante o estudo do
comportamento dos materiais auxéticos a fim de compreender como se dá esse efeito, e assim
aproveitar suas inúmeras vantagens.

Palavras-chave: Comportamento auxético, Coeficiente de Poisson negativo, Propriedades


mecânicas, Análise de elementos finitos

1. INTRODUÇÃO

Ao contrário dos materiais convencionais, os materiais auxéticos apresentam um


comportamento totalmente anti-intuitivo, pois se expandem transversalmente ao serem
tracionados e sofrem redução transversal sob compressão, como pode ser observado na Fig. 1.
Sendo assim, as deformações em ambas as direções do plano serão de mesma origem
(expansiva ou redutiva). Dessa forma, uma vez que o coeficiente de Poisson (𝜈) é dado pelo
negativo da razão entre a deformação transversal (𝜀𝑡 ) e a longitudinal (𝜀𝑙 ) em relação à direção
de aplicação do carregamento axial, sendo definido como na Eq. (1), torna-se evidente que esses
materiais apresentarão valores negativos para essa propriedade.
𝜀
𝜈 = − 𝜀𝑡 (1)
𝑙

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

11
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 - Comportamento de diferentes materiais sob tração e compressão (1 -


convencionais; 2 - auxéticos)

O comportamento auxético é resultado da interação entre os possíveis mecanismos de


deformação associados com a geometria particular do sistema (em macro, micro ou
nanoestruturas). Em um trabalho recente (Steffens, 2015), foi sugerido que estruturas
reentrantes apresentam tal efeito em razão da flexão das hastes e da rotação e extensão de cada
lado da unidade celular, enquanto nas estruturas quirais esse é devido à flexão e ao enrolamento
ou não dos ligamentos ao redor dos nódulos em rotação (Alderson et al., 2010).
Apesar disso, estudos (Lakes, 1991) mostram que o coeficiente de Poisson negativo não é
resultado exclusivo da flexão ou torção de elementos rígidos, visto que deformações não
homogêneas por si só podem criar tal efeito. Trata-se, portanto, de uma propriedade intrínseca
dos materiais, decorrente da sua geometria.
Dos parâmetros de elasticidade dados na Eq. (2) e Eq. (3), onde G é o módulo de
elasticidade transversal, E é o módulo de elasticidade longitudinal e K é o módulo volumétrico,
observa-se que quanto mais negativo for o coeficiente de Poisson (𝜈), maior será a rigidez ao
cisalhamento e a deformação volumétrica do material.
𝐸
𝐺 = 2(1+𝜈) (2)

𝐸
𝐾 = 3(1−2𝜈) (3)

Além disso, esse comportamento confere maior resistência mecânica e dureza (Chan &
Evans, 1997). Sendo assim, esses materiais tornam-se interessantes para diversas aplicações,
sobretudo em áreas onde a absorção da energia de impacto (tenacidade) e a resistência ao corte,
perfuração e abrasão sejam fatores determinantes, como nos setores de engenharia, medicina e
na área militar.
Entretanto, apesar da relevância desses materiais e do crescente interesse em estudá-los,
ainda é um assunto pouco difundido. Embora tenham sido descobertos há mais de 100 anos,
apenas em 1944 eles foram descritos e somente a partir de 1987 passaram a despertar interesse
prático (Steffens, 2015). Na Fig. 2 é possível observar a evolução do número de publicações
sobre esse tema.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

12
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Evolução do número de artigos publicados sobre materiais auxéticos (Steffens,


2015) – adaptado

Assim, este trabalho busca analisar computacionalmente, via elementos finitos, o


comportamento das geometrias auxéticas descritas na Fig. 3 sob forças trativas e compressivas
e verificar o coeficiente de Poisson apresentado.

Figura 3 - Geometrias modeladas (reentrantes: 1 – favo de mel, 2 – estrelar, 3 – rede de


losangos; quirais: 4 – tetra-quiral, 5 – hexa-quiral)

2. DESCRIÇÃO DO MODELO DE ELEMENTOS FINITOS

Todas as estruturas foram modeladas utilizando o solver Radioss do software


Hyperworks®.

2.1 Malha

Optou-se pela malha sólida (3D) devido à variação de espessura ao longo da geometria.
Como os modelos não são muito complexos, essa escolha não compromete o custo
computacional de forma significativa. O elemento utilizado foi o tetra de 2ª ordem, pois
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

13
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

proporciona uma melhor interpolação e acurácia da análise estrutural. A qualidade da malha foi
verificada segundo Gokhale et al. (2008), com base nos critérios apresentados na Tabela 1.

Tabela 1 - Critérios para malha sólida com elemento tetra

Critério Mínimo Máximo


Warp Angle (º) - 10
Razão de Aspecto - 5
Skew (º) - 45
Jacobiano 0,6 -
Distorção 0,6 -
Stretch 0,2 -
Quad Angles (º) 45 135
Tria Angles (º) 20 120
Taper - 0,5
Element Size (mm) 5 8

2.2 Material

Poucos materiais apresentam esse comportamento auxético naturalmente (e.g. nitretos,


silicatos e zeólitos)(Kocer et al., 2009), mas pode-se fabricar geometrias auxéticas com
diferentes tipos de materiais, como fibras, espumas, polímeros, metais, cerâmicas e compósitos
(Alderson, 2011).
O material escolhido foi o Alumínio 2024 - T3, i.e., liga de alumínio temperada e à base
de cobre, cujas propriedades são dadas na Tabela 2 (MMPDS-09, 2014).

Tabela 2 - Propriedades mecânicas da liga Al 2024 - T3

Material 𝜌 (kg/m³) E (GPa) 𝜈 𝜎𝑦 (MPa) G (MPa) 𝜀𝑚á𝑥


Al 2024 T3 2770 72 0,33 331 27 0,15

Essa liga de alumínio foi modelada como um material elastoplástico com modelo de dano
isotrópico, pela lei de Johnson Cook dada na Eq. (4), que expressa a tensão estática de
p
escoamento do material (σy ) em função da deformação plástica efetiva (ε ), da taxa de
deformação adimensional ( ε̇ * ) e da temperatura adimensional (T* ).

p n m
σy =[A+B(ε ) ][1+C ln(ε*̇ )][1-(T* ) ] (4)

Onde 𝑇 ∗ é dado pela Eq. (5), em que Ta é a temperatura ambiente, Tf é a temperatura de


fusão do material e T é a temperatura do material. E 𝜀 ∗̇ é definido pela Eq. (6), sendo 𝜀̇ 0 , por
convenção, adotado como 1,0 𝑠 −1 (Kay, 2003).
T-T
T* = T -Ta (5)
f a

p
ε̇
ε̇ * = (6)
ε̇ 0

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

14
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Desprezando-se os efeitos da variação de temperatura, a Eq. (4) se reduz à Eq. (7), em que
A, B, C e n são constantes obtidas por meio de ensaios estáticos, cujos valores para o Alumínio
2024 T3 são dados na Tabela 3 (Kay, 2003).
p n
σy =[A+B(ε ) ][1+C ln(ε*̇ )] (7)

Tabela 3 - Parâmetros de Johnson Cook para a liga Al 2024 - T3

Material A (MPa) B (MPa) C n


Al 2024 T3 369 684 0,0083 0,73

2.3 Condições de contorno e carregamento

Uma vez que elementos sólidos não possuem grau de liberdade à rotação, restringiu-se a
base à translação em ambas as direções. Enquanto o carregamento foi aplicado uniformemente
na parte superior da estrutura na direção axial e com magnitude arbitrária, adicionando-se
apenas um fator de escala ao término de cada análise para se obter a estrutura em seu estado
final de deformação. Além disso, verificou-se o comportamento de todos os modelos à tração
e à compressão.

2.4 Pós-processamento

Ao final de cada análise, tomou-se um ponto arbitrário em cada extremidade dos modelos
em seu estado deformado e registrou-se o deslocamento transversal e axial.

3. ANÁLISES E RESULTADOS

A Fig. 4 e a Fig. 5 apresentam as estruturas modeladas em seu estado final de deformação


à tração e à compressão, respectivamente, comparadas ao seu estado inicial.

Figura 4 – Estruturas antes e depois da deformação à tração (reentrantes: a – favo de mel, b –


estrelar, c – rede de losangos; quirais: d – tetra-quiral, e – hexa-quiral)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

15
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Estruturas antes e depois da deformação à compressão (reentrantes: a – favo de


mel, b – estrelar, c – rede de losangos; quirais: d – tetra-quiral, e – hexa-quiral)

Ao término das simulações, tomou-se um ponto de referência em cada extremidade das


estruturas e mediu-se o comprimento inicial e o final nas direções transversal e longitudinal
para tração e compressão como indicado na Tabela 4 e na Tabela 5.

Tabela 4 – Comprimentos inicial e final nas direções transversal e longitudinal para a tração

Geometria Comprimento transversal (mm) Comprimento longitudinal(mm)


Inicial Final Inicial Final
Favo de mel 89,394 89,446 86,498 86,558
Estrelar 30,732 30,747 31,366 31,426
Rede de losangos 52,200 52,240 34,571 34,648
Tetra-quiral 48,000 48,018 48,000 48,038
Hexa-quiral 49,500 49,550 57,158 57,212

Tabela 5 – Comprimentos inicial e final nas direções transversal e longitudinal para a


compressão

Geometria Comprimento transversal (mm) Comprimento longitudinal(mm)


Inicial Final Inicial Final
Favo de mel 89,394 89,341 86,498 86,438
Estrelar 30,732 30,717 31,366 31,306
Rede de losangos 52,200 52,160 34,571 34,493
Tetra-quiral 48,000 47,982 48,000 47,962
Hexa-quiral 49,500 49,450 57,158 57,103

A partir dos dados obtidos com as análises, calculou-se a deformação resultante e pôde-se
obter o coeficiente de Poisson (ν) para cada estrutura. Com isso, verificou-se que todos os
modelos apresentam um comportamento auxético, uma vez que possuem um coeficiente de
Poisson negativo. Além disso, essa propriedade manteve-se constante à tração e à compressão,
apresentando uma diferença inferior a 5%, como mostrado na Tabela 6.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

16
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 6 – Cálculo da deformação e do coeficiente de Poisson

Tração Compressão
Deformação Deformação Deformação Deformação
Geometria transversal longitudinal ν transversal longitudinal ν
(mm) (mm) (mm) (mm)
Favo de mel 0,052 0,060 -0,87 -0,053 -0,060 -0,88
Estrelar 0,015 0,060 -0,25 -0,015 -0,060 -0,25
Rede de losangos 0,040 0,077 -0,52 -0,040 -0,078 -0,51
Tetra-quiral 0,018 0,038 -0,47 -0,018 -0,038 -0,47
Hexa-quiral 0,050 0,054 -0,93 -0,050 -0,055 -0,91

Por meio das simulações também foi possível obter a relação entre força e deformação para
cada geometria analisada, como indicado na Fig. 6.

Figura 6 – Relação entre força e deformação das geometrias modeladas (reentrantes: a – favo
de mel, b – estrelar, c – rede de losangos; quirais: d – tetra-quiral, e – hexa-quiral)

A Tabela 7 contém o coeficiente médio de Poisson (𝜈) para cada geometria analisada, i.e.,
considerando todo o processo analisado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

17
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 7 – Coeficiente médio de Poisson das geometrias modeladas

Geometria Coeficiente médio de Poisson (𝜈)


Favo de mel -0,92
Estrelar -0,38
Rede de losangos -0,40
Tetra-quiral -0,40
Hexa-quiral -1,06

4. DISCUSSÃO

Com base nos resultados obtidos da Tabela 6, observa-se que a estrutura hexa-quiral possui
maior efeito auxético, onde era esperado ν≈-1 da literatura (Liu & Hu, 2010), enquanto na
estrutura estrelar esse efeito foi menor. Para além de tudo, nenhuma geometria contradiz a
Teoria Clássica da Elasticidade, uma vez que os valores para o coeficiente de Poisson estão
entre -1 e 0,5. Vale ainda destacar que todos os modelos apresentaram esse comportamento
auxético em razão dos mecanismos de deformação das unidades celulares supracitados, com a
flexão e extensão das hastes nas estruturas reentrantes e a rotação dos nódulos nas geometrias
quirais. Assim, nota-se que tal efeito auxético é resultado da interação entre os possíveis
mecanismos de deformação associados com a geometria particular do sistema, por mais que o
material utilizado não apresente esse mesmo comportamento
Das relações entre força e deformação, é possível verificar que todas as geometrias
apresentaram efeito puramente auxético ao longo de todo o processo. Além disso, nota-se que
a curva que descreve a deformação na direção transversal não possui um comportamento muito
bem definido, enquanto na direção longitudinal houve uma proporcionalidade entre força e
deslocamento, o que era esperado visto que o carregamento é axial.
Traçando-se uma curva de tendência para ambas as deformações, é possível notar que a
inclinação para a direção transversal foi maior em todos os casos, o que implica em -1 ≤ ν ≤ 0.
Entretanto, esse critério é aplicado às geometrias favo de mel e hexa-quiral apenas a partir de
um determinado ponto, indicando que inicialmente o comportamento está em desacordo com a
Teoria Clássica da Elasticidade, anteriormente citada. Isso pode ser uma consequência de essas
estruturas apresentarem alto efeito auxético sob grandes deformações.
Também, a partir do cálculo do coeficiente médio de Poisson, verifica-se que os valores
distanciam-se ligeiramente dos obtidos ao final das análises. Isso ocorre devido a algumas
interferências, como o fato de o efeito auxético ser mais significante apenas a partir de maiores
deformações para alguns modelos e também ao fato de a curva que descreve a relação entre
força e deformação para a direção transversal não ter um comportamento bem definido.

5. CONCLUSÃO

No decorrer deste trabalho, pôde-se realizar análises de elementos finitos em diversas


geometrias do tipo reentrantes e quirais e verificar o comportamento dessas sob tração e
compressão. Com isso, conseguiu-se validar as simulações por meio de dados obtidos da
literatura, especialmente quanto ao comportamento das unidades celulares quando submetidas
a um carregamento axial e que explica o efeito auxético apresentado.
Também, por meio das simulações realizadas, obteve-se o coeficiente de Poisson para cada
estrutura, assim, é possível saber quais apresentam maior efeito auxético e, consequentemente,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

18
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

um melhoramento mais significativo de diversas propriedades mecânicas, sendo, então, um


fator determinante na escolha da geometria que melhor atende a cada área de aplicação, seja ela
de engenharia, medicina, militar ou esportiva, por exemplo.

Reconhecimentos

Os autores agradecem ao Conselho Nacional de Desenvolvimento Científico e Tecnológico


(CNPq) e ao Programa Institucional de Bolsas de Iniciação Científica (PIBIC) pelo apoio
financeiro.

REFERÊNCIAS

Alderson, A. et al. (2010), Elastic constants of 3-, 4- and 6-connected chiral and anti-chiral honeycombs subject
to uniaxial in-plane loading. Journal of Composites Science and Technology, 70, 1042–1048.
Alderson, A. (2011), “Smart Solutions from Auxetic Materials”, Med-Tech Innovation, Chester.
Chan, E.; Evans, K. E. (1997), Fabrication methods for auxetic foams. Journal of Materials Science, 32, 5945.
Gokhale, N. S.; Deshpande, S. S.; Bedekar, S. V.; Thite, A. N. (2008), “Practical Finite Element Analysis”, 1ª ed.
Finite to Infinite, Bangalore.
Kay, G. (2003), “Failure Modeling of Titanium 6Al-4V and Aluminum 2024-T3 With the Johnson-Cook Material
Model”. Report DOT/FAA/AR-03/57, Federal Aviation Administration.
Kocer, C.; McKenzie, D. R.; Bilek, M. M. (2009), Elastic properties of a material composed of alternating layers
of negative and positive Poisson’s ratio. Journal of Materials Science and Engineering: A, 505, 111-115.
Lakes, R. (1991), Deformation mechanisms in negative Poisson's ratio materials: structural aspects. Journal of
Materials Science, 26, 2287-2292.
Liu, Y.; Hu, H. (2010), “A Review on Auxetic Structures and Polymeric Materials”. Scientific Research and
Essays, vol 5, 1052-1063.
MMPDS-09 (2014), “Metallic Material Properties Development and Standardization”. Battelle Memorial Institute.
Steffens, F. (2015), “Desenvolvimento de Estruturas Fibrosas com Comportamento Auxético”, Tese de
Doutorado, Universidade do Minho, Braga.

COMPUTATIONAL MODELING OF MATERIALS WITH AUXETIC BEHAVIOR

Abstract. Materials with auxetic behavior, unlike conventional ones, have a negative Poisson's
ratio, which results in a transverse elongation under tensile stress. This effect can be obtained
with different types of materials, depending only on the geometry of the structure, especially
the cellular unit it presents, such as reentrant and chiral, for example. Such particularity gives
them an improvement in several important mechanical properties, which makes them
interesting for a number of applications in the engineering, medicine, sports or military area.
However, despite its relevance, this subject still not widespread. Thus, it is interesting to study
the auxetic materials behavior to understand how this effect occurs so its advantages can be
used.

Keywords: Auxetic behavior, Negative Poisson's ratio, Mechanical properties, Finite element
analysis

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

19
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTIMATIVA DE VENDAS USANDO SÉRIES TEMPORAIS: ESTUDO DE CASO


EM UM SUPERMERCADO

Wilson Castello Branco Neto1 – wilson.castello@ifsc.edu.br


Claidson Correia Haidrick1 – claidson.haidrick@outlook.com
1
Instituto Federal de Santa Catarina, Campus Lages – Lages, SC, Brasil

Resumo. Este artigo apresenta um modelo para estimar quantas unidades de um produto
serão vendidas em um período de tempo. A partir destes dados pode-se verificar se as
unidades em estoque desta mercadoria podem expirar a data de validade e se há risco de
ruptura no estoque em função do cronograma de reposição. Foram implementados os
resultados dos métodos de Média Móvel, Regressão Linear Simples e Suavização
Exponencial de Holt-Winters. A estimativa de vendas é feita a partir da combinação dos
resultados destes métodos. Para testar o modelo foram utilizadas séries temporais extraídas
de uma empresa real. Os resultados apontam uma taxa de acerto média de até 86,87% para o
método de Holt-Winters, 80,29% para análise de regressão, 66,56% para média móvel e de
93,93% para o modelo que combina os três resultados.

Palavras-chave: Estimativa de vendas. Holt-Winters. Regressão linear simples. Média móvel.

1. INTRODUÇÃO

Um dos maiores desafios de qualquer empresa que atua no ramo de comércio é evitar
perdas financeiras, pois elas diminuem a competitividade, drenam os lucros e podem impactar
seriamente o resultado do negócio. De acordo com pesquisa realizada em 2018 pela
Associação Brasileira de Supermercados (ABRAS), o setor supermercadista perdeu, em 2017,
6,4 bilhões, o que representa 1,82% do faturamento bruto do setor no ano citado. O relatório
de prevenção de perdas apresentado pela Associação Paulista de Supermercados (APAS) em
2016, mostra que do total de perdas de mercadoria que ocorrem nos supermercados, a perda
por data de validade representa 50% das ocorrências.
Parte das perdas por vencimento de produtos pode ser minimizada com a previsão da
demanda futura. Esta previsão também auxilia na redução de outro tipo de perda, a ruptura de
estoque, que se dá quando o estabelecimento vende todo o estoque de determinada mercadoria
antes que ela seja reposta pelo fornecedor.
Realizar prognósticos sobre o desempenho futuro de dados estocásticos com base em
dados passados não é uma novidade (Armstrong, 1988). Diferentes métodos, oriundos de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

20
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

diferentes áreas do conhecimento, vêm sendo propostos ao longo das últimas décadas. Uma
das abordagens mais utilizadas é a análise da série temporal das vendas. A análise de séries
temporais exige somente valores passados da demanda, ou seja, da própria variável que se
quer prever. A expectativa é de que o padrão observado nos valores passados forneça
informação adequada para a previsão de valores futuros da demanda, sendo assim
considerados métodos de extrapolação.
As técnicas para análise de séries temporais são baseadas na identificação de padrões
existentes nos dados históricos para posterior utilização no cálculo do valor previsto. Assim,
todas essas técnicas consideram uma ou mais das cinco principais componentes das séries
temporais: nível, tendência, sazonalidade, ciclo e aleatoriedade (Wanke, e Julianelli, 2006).
Dentro desse contexto, a análise da demanda futura é utilizada neste artigo, como forma
de estimar o período necessário para a venda de determinado lote de uma mercadoria. Para
isso são utilizados os métodos de Média Móvel, Análise de Regressão e Suavização
Exponencial de Holt-Winters, individualmente, bem como a combinação dos resultados dos
três modelos.
Este artigo está organizado da seguinte forma: após esta introdução, a seção 2 apresenta
alguns trabalhos similares; a seção 3 aborda as atividades desenvolvidas; a seção 4 mostra os
resultados obtidos pelo trabalho e, por fim, a seção 5 traz as considerações finais.

2. TRABALHOS RELACIONADOS

Prever valores futuros a partir da análise de uma série de dados é possível por diferentes
métodos, porém no setor supermercadista é desejado que a metodologia de previsão trate a
questão da sazonalidade e tendência. No caso específico dos supermercados, sazonalidade
significa que uma análise para previsão de vendas deve levar em consideração os diversos
agentes que podem influenciar no aumento de vendas no comércio em datas especiais, como
dia das mães, dia dos pais, natal e ano novo, por exemplo.
Um estudo de caso realizado por Favero (2015) em uma rede varejista relatou que a
utilização de métodos que incluem o componente de sazonalidade tem resultados superiores.
Nos itens que estudou, métodos de suavização exponencial têm erros muito menores que os
métodos de média móvel e seu uso pode levar a reduções de mais de 20 pontos percentuais no
erro de previsão da demanda, em comparação com média móvel. Outro ponto importante,
refere-se ao método de Holt Winters, que no estudo do mesmo autor apresentou os melhores
resultados.
O método de Holt-Winters também apresentou bom desempenho no estudo de Schrippe
et. al (2015) que analisou dados reais de uma empresa de cosméticos com vistas a previsão de
lucros. Os autores afirmam que o fácil uso e o baixo custo de utilização do método de Holt
Winter favorece sua viabilidade, sendo que em seus resultados os valores previstos se
aproximam aos valores reais com um erro percentual médio de apenas 16,09%.
Em Siqueira (2016), foi comparado o desempenho do método de Holt Winters com os
métodos de Box-Jenkins para previsão de demanda de passageiros em empresas de transporte
rodoviário. O resultado obtido concluiu que a metodologia de Box-Jenkins, historicamente
estimada como sendo mais precisa, na série temporal em estudo obteve resultados similares
ao método de Holt Winters Assim, evidencia-se que as duas metodologias de modelagem
foram capazes de descrever os padrões comportamentais da série estudada, obtendo resultados
aceitáveis, próximos aos valores reais observados.
Os métodos de Holt Winters, Sazonal Aditivo de Winters e Box-Jenkins também foram
considerados em um estudo para previsão de vendas de uma rede de lojas varejistas. O

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

21
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

método Box-Jenkins teve resultado superior usando a proposta SARIMA (0,1,1) (0,1,0),
apesar de muito próximo aos resultados do método de Holt-Winters (Silva, 2008).
A análise dos resultados destes trabalhos possibilitou a conclusão de que os métodos de
Suavização Exponencial de Holt-Winters e Box-Jenkins, em geral, apresentam os melhores
resultados quando executados individualmente. Ao comparar os dois métodos, Lemos (2006)
ressalta que as maiores vantagens dos métodos de suavização são sua simplicidade de
implementação e baixo custo de execução, pontos importantes quando há a necessidade de
previsão de milhares de itens, como no caso de sistemas de controle de estoque.
A escolha do método de Holt-Winters em detrimento ao método de Box-Jenkins, bem
como dos métodos de Média Móvel e Análise de Regressão para compor o modelo que
combina os diferentes resultados, deve-se a simplicidade e rapidez com que os cálculos destes
métodos são realizados.

3. MATERIAIS E MÉTODOS

Este trabalho propõe uma abordagem para tratamento de um problema específico, por
meio de uma pesquisa aplicada, com abordagem quantitativa (Silva, 2008). Para os
procedimentos metodológicos adotou-se uma pesquisa bibliográfica, com o intuito de
selecionar os tipos de modelos de previsão a serem utilizados, e realizou-se um estudo de
caso, para que os modelos pudessem ser implementados e avaliados.

3.1 Coleta e Importação dos Dados

O estudo de caso foi iniciado coletando-se os dados de venda em uma das lojas
pertencente a uma rede de supermercados, que conta com mais de 20 lojas distribuídas na
região Sul do Brasil. Foram selecionados aleatoriamente oito dentre os vinte produtos com
maior recorrência de problemas com vencimento por data de validade, além de outros cinco
produtos sem problemas de vencimento, com o objetivo de avaliar as previsões para produtos
com diferentes comportamentos referentes à perda por vencimento de validade. Os registros
são referentes ao período de abril de 2015 até abril de 2019, totalizando um histórico de 4
anos. Após a consulta, separou-se um intervalo de três anos (abril de 2015 a abril de 2018)
para treinamento do sistema, reservando o período do último ano dos dados para a
comparação dos resultados previstos.
Na consulta realizada no sistema de controle de estoque do supermercado, foram obtidos
os registros de todas as movimentações de entrada e saída (vendas), suas datas e quantidades
envolvidas. Os dados foram salvos em um arquivo CSV que foi importado para o sistema em
desenvolvimento. Com a série temporal real disponível para análise, seguiu-se com a
implementação dos modelos de previsão já citados.

3.2 Implementação dos métodos

Esta seção apresenta a implementação dos métodos de análise de séries temporais


utilizados neste trabalho.

3.2.1 Análise de Média Móvel

A fim de estabelecer uma previsão inicial de venda para cada produto contido na série
analisada, faz-se o cálculo da média móvel contemplando os três últimos anos de vendas, a
partir da Eq. (1).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

22
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(1)
onde V corresponde aos valores das observações e n ao período.

Como o uso de média móvel não é adequado para séries que possuem o componente de
sazonalidade, três cálculos de médias móveis adicionais foram feitos de forma a contemplar
apenas o período de vendas entre o cadastro do produto e a sua data de validade, nos três
últimos anos.
No recebimento de um produto são inseridas a data de entrada e data de validade, sendo
esse intervalo usado para consultar o mesmo período dos registros de venda dos três anos
anteriores. Por exemplo, se a entrada de um produto ocorrer em 01/05/2018 e seu vencimento
em 15/07/2018, será calculada a média de vendas de 01/05/2017 à 15/07/2017 (média 1),
01/05/2016 à 15/07/2016 (média 2) e 01/05/2015 à 15/07/2015 (média 3). Por fim, uma média
aritmética é calculada considerando a média móvel do período completo e as médias dos
últimos três anos. O objetivo é obter um valor que represente o componente sazonal do
produto.

3.2.2 Análise de Regressão

A análise de regressão consiste na verificação da existência de uma relação funcional


entre uma variável dependente e uma variável independente. Neste trabalho utilizou-se o
método de Regressão Linear Simples, que considera uma relação linear entre Y e X como
mostra a Eq. (2) (Makridakis, Wheelwright e Hyndman, 1997).

(2)

Onde:
: Valor da observação prevista no período t;
: Coeficiente linear (ponto que intercepta o eixo y);
: Coeficiente angular (declividade da reta);
: erro aleatório no período t (desvio da observação em relação ao modelo linear);
: Variável preditora X no período t.

No modelo proposto, o objetivo foi acrescentar o componente de tendência, que não é


capturado pela média móvel, e é facilmente expresso pela Análise de Regressão por meio dos
coeficientes da equação. Adotou-se como variável dependente os valores diários de venda do
produto analisado e como variável independente a sequência de dias da série. No ajuste, foi
usada a abordagem dos mínimos quadrados que é uma das técnicas mais usuais para regressão
linear (Werner, 2004).

3.2.3 Suavização Exponencial de Holt-Winters

Modelos de suavização calculam uma média ponderada das observações de uma série
temporal. Os pesos aplicados são determinados em progressão geométrica, atribuindo pesos
maiores às informações mais recentes (Archer, 1980).
Existem abordagens diferentes, de acordo com o tipo de série de dados a ser analisada
(Makridakis, Wheelwright e Hyndman, 1997). No caso de séries que apresentam um
comportamento mais complexo, com os componentes de tendência e sazonalidade, deve-se
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

23
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

utilizar o método multiplicativo de Holt-Winters. Essa técnica envolve três equações com três
constantes de suavização que são associados a cada componente da série: nível, tendência e
sazonalidade. Tendo em vista que as vendas de supermercados são fortemente influenciadas
pelo componente de sazonalidade, este é o modelo utilizado neste trabalho. Suas fórmulas de
cálculo estão definidas nas equações 3 a 6:
Modelo Holt-Winters (método multiplicativo):

(3)
(4)
(5)
(6)

Onde:
: Valor da observação prevista no instante t;
: Estimativa do nível da série temporal no instante t;
: Demanda real no instante t;
: Estimativa de tendência da série temporal no instante t;
: Componente sazonal t;
s: Comprimento da sazonalidade;
: Estimativa do nível da série temporal no instante anterior;
: Estimativa de tendência da série temporal no instante anterior;
, e Constante de suavização (com valores entre 0 e 1, não correlacionados, que
controlam o peso relativo ao nível, à tendência e à sazonalidade, respectivamente).

As constantes de suavização exponencial devem ser escolhidas de forma apropriada já


que, quanto maior seu valor, maior o peso atribuído às últimas observações. Constantes de
suavização baixas geram resultados que tendem ao valor médio da série e constantes altas
produzem uma maior variabilidade dos resultados. Alguns valores da constante de suavização
exponencial devem ser testados para cada série, a fim de determinar a sensibilidade da
previsão comparada aos valores reais (McClave, Benson, e Sincich, 2004).
Inicialmente, os testes foram realizados com os três parâmetros de suavização com o
valor de 0,5. Na conclusão deste artigo são apresentados resultados obtidos com outros
parâmetros testados, com o intuito de ilustrar a importância do ajuste dos mesmos.

3.3 Modelo Combinado

Além de calcular e comparar os resultados de cada um dos três métodos citados, propõe-
se neste trabalho a criação de um modelo, denominado modelo Combinado, que considere os
resultados gerados pelos três métodos com o objetivo de melhorar o valor previsto. Este
modelo consiste na média ponderada entre os resultados dos métodos já citados, conforme Eq.
(7):

(7)
Onde:
EF: Estimativa final
MM: Estimativa resultante do método de média móvel
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

24
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a: Fator de poderação do método de média móvel


AR: Estimativa resultante do método de análise de regressão
b: Fator de poderação do método de análise de regressão
HW: Estimativa resultante do método de suavização exponencial de Holt-Winters
c: Fator de poderação do método de suavização exponencial de Holt-Winters.

Considerando as informações obtidas durante o levantamento bibliográfico sobre os


diferentes métodos e a precisão de seus resultados, adotou-se um peso maior para o resultado
do método de Holt-Winters (c = 4), para a Análise de Regressão adotou-se o segundo maior
peso (b = 3) e para o resultado da média móvel adotou-se o menor peso (a = 2).

3.4 Medidas de Avaliação

Com o objetivo de avaliar o desempenho dos modelos ao prever os valores reais, foram
examinadas as propriedades das medidas de erro utilizadas nos trabalhos citados na seção 2,
assim como sua adequação às séries temporais analisadas nesse estudo. Um dos principais
pontos a serem analisados é a diversidade do volume de vendas dos diferentes produtos, o que
torna mais importante a análise percentual do que em quantidades absolutas.
O erro médio absoluto percentual (MAPE) expressa precisão como uma porcentagem do
erro, sendo ele calculado como a média do erro percentual, como demonstra a Eq. (8):

(8)

O MAPE indica quanto, em média, o modelo está errando sem compensar erros negativos
e positivos (Belge, 2012).

4. RESULTADOS

Para avaliar o desempenho obtido pelos métodos implementados, foram registradas


entradas de 13 produtos, sendo oito produtos com histórico de problema com vencimento
(itens que já tiveram duas ou mais ocorrências de quebra por data de validade expirada em um
intervalo de um ano) e cinco produtos sem recorrência de problema com vencimento (itens
selecionados aleatoriamente entre todos os produtos da base).
Para cada produto cadastrou-se uma entrada, com as mesmas datas de cadastro, validade
do produto e quantidades compradas de registros reais do período entre abril de 2018 a abril
de 2019. Os dados de abril de 2015 a abril de 2018 foram utilizados para treinar os modelos e
calcular a previsão de vendas dos produtos e este valor foi comparado com as vendas reais
realizadas no período de abril de 2018 a abril de 2019 para verificar seu grau de precisão.
Assim, pôde-se avaliar o resultado de previsão dos diferentes modelos para os diferentes
produtos.
A Tabela 1 apresenta a quantidade vendida de cada um destes produtos no período
compreendido entre o seu cadastro e a sua data de validade entre abril de 2018 e 2019. Ela
apresenta, também, a quantidade estimada pelos modelos, após serem treinados com os dados
de abril de 2015 a abril de 2018. Analisando este tabela percebe-se uma diferença
significativa entre as previsões dos diferentes métodos, bem como entre as previsões de um
mesmo método para diferentes produtos. Estas diferenças são atenuadas com a combinação
dos resultados dos diferentes métodos, como pode ser visto na última coluna da Tabela 1.
A Tabela 2 apresenta os valores mínimo, médio e máximo do MAPE de cada um dos
métodos.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

25
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 - Estimativa de vendas pelos diferentes métodos dos produtos com histórico
recorrente de perda por vencimento

Código Venda Real Holt-Winters Regressão Média Móvel Método


Combinado
1 8199 6199 7271 9510 7292
2 158 252 170 297 235
3 620 411 246 974 481
4 5296 4563 5714 5591 5175
5 338 389 448 517 437
6 90 92 99 105 97
7 5375 5638 4802 8080 5902
8 1193 1403 1283 1279 1335

Tabela 2 - MAPE dos diferentes métodos para produtos com histórico recorrente de
vencimentos

Erro MAPE Holt-Winters Regressão Média Móvel Método


Combinado
Médio 21,40 18,48 36,72 17,90
Mínimo 2,22 7,54 5,57 2,28
Máximo 59,49 60,322 87,97 48,73

Como pode ser visto na tabela 2, a Média Móvel apresentou o pior resultado. O cálculo
realizado com o intuito de acrescentar o aspecto de sazonalidade em seu resultado não surtiu o
efeito desejado. Diferentemente do esperado, a Análise de Regressão apresentou um resultado
um pouco melhor que a Suavização Exponencial de Holt-Winters. Um aspecto importante a
ser destacado é que o método com os três resultados combinados obteve um erro médio e
máximo menor que todos os outros. Este fato indica que, além de gerar resultados melhores
que os métodos individualmente quando se considera todos os produtos, ele é capaz de
reduzir o erro nos produtos com as piores estimativas.
Embora tenha-se conseguido um bom ajuste para alguns produtos em todos os métodos,
em termos gerais o erro médio ainda é significativo. Isto pode estar relacionado ao fato de que
as séries temporais dos produtos com histórico de problemas por vencimento contêm
características que não favorecem um melhor resultado. Como eles já possuem ocorrências
em que houve vencimento do produto em estoque, a venda deixa de ocorrer durante períodos
variados devido a estes eventos, impactando na análise desses períodos e distorcendo os
indicadores de tendência e sazonalidade. Além disso, nesse tipo de produto é comum a
ocorrência de promoções e outras ações que promovam uma venda acentuada em um curto
período, novamente distorcendo os resultados dos métodos.
Para confirmar esta hipótese, foram selecionados cinco produtos aleatórios, sem histórico
de problemas com vencimento e com registros de vendas em todo o período analisado. Desta
forma, os componentes nível, tendência e sazonalidade podem ser considerados os
protagonistas do comportamento da série.
Essa classe de produtos apresentou resultados melhores que os produtos com histórico de
vencimento. Na Tabela 3 pode-se visualizar o desempenho de cada um dos métodos.
É possível avaliar que todos os métodos conseguem um ajuste melhor em séries que não
contenham produtos com histórico de vencimento. Após analisar os resultados das duas
classes de produtos, pode-se afirmar que os diferentes comportamentos das séries temporais
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

26
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

provenientes do caso estudado compõem um desafio para que os modelos de previsão


encontrem uma aderência adequada.

Tabela 3 - Estimativa de vendas pelos diferentes métodos dos produtos sem histórico
recorrente de perda por vencimento

Código Venda Real Holt-Winters Regressão Média Móvel Método


Combinado
9 6385 5143 4105 10425 5971
10 6936 5934 5580 8143 6307
11 6549 6900 7166 7084 7030
12 910 764 726 1206 850
13 672 600 580 980 678

A Tabela 4 apresenta os valores do MAPE dos quatro métodos implementados para este
conjunto de produtos.

Tabela 4 – MAPE dos diferentes métodos para produtos sem histórico recorrente de
vencimentos

Erro MAPE Holt-Winters Regressão Média Móvel Método


Combinado
Médio 13,20 19,71 33,44 6,07
Mínimo 5,35 9,42 8,16 0,89
Máximo 19,45 35,70 63,27 9,06

De maneira geral, percebe-se que todos os métodos apresentaram resultados melhores


para o MAPE máximo, o que indica uma maior homogeneidade de resultados. O MAPE
médio da Análise de Regressão e da Média Móvel são semelhantes aos obtidos por estes
métodos com o outro conjunto, contudo os métodos de Holt-Winters e Combinado
apresentaram resultados bem menores para os produtos sem histórico de recorrência de
vencimentos. Além de um MAPE médio menor, percebe-se que a amplitude do intervalo
entre o MAPE mínimo e máximo do método Combinado também é menor, o que torna o
método mais seguro para previsões gerais.
Contudo, a diferença do erro gerado pelo método Combinado para cada produto indica a
necessidade de maiores estudos sobre as características das séries de cada produto, de forma a
identificar qual método é mais adequado para cada um com o intuito de atualizar
dinamicamente os pesos do método Combinado, atribuindo valores mais altos ao método mais
adequado conforme as características da série de cada produto.

5. CONCLUSÃO

O uso de modelos combinados de previsão para apurar de forma preditiva o prognóstico


do volume de vendas de uma empresa é testado neste artigo. Estas estimativas auxiliam a
prever a possibilidade do estoque não ser vendido antes que a data de validade do produto
expire ou que ele acabe antes que a reposição seja feita pelo fornecedor.
Os dados de treze produtos foram analisados e os resultados obtidos comprovam que os
modelos implementados têm boa capacidade de prever a demanda futura. Individualmente, os
método que obtiveram o melhor resultado foi a Análise de Regressão - MAPE médio de
18,48% - no conjunto de produtos com histórico de vencimento e Holt-Winters - MAPE
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

27
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

médio de 13,20% - no conjunto de produtos sem histórico de vencimento. Em ambos os casos


o método Combinado apresentou valores melhores que os métodos individualmente – MAPE
médio de 17,90 no primeiro conjunto de dados e MAPE médio de 6,07 no segundo. Porém,
cabe mencionar que as taxas de erro podem não refletir o ajuste dos modelos a qualquer
produto, visto que ainda são necessários estudos para que se possa desenvolver um modelo de
previsão adequado a toda variedade existente em um estabelecimento comercial.
Como resultado deste trabalho, conclui-se que o modelo desenvolvido pode ter êxito em
auxiliar na redução das ocorrências de produto vencido e ruptura de estoque. Em uma situação
de uso real por uma empresa, cada modelo de previsão precisa ser avaliado e melhorado
continuamente através de métodos que contribuam para identificar erros. Com isso, os
resultados do modelo podem ser ajustados, tornando-se adaptáveis as mudanças que vão
ocorrendo na empresa.
Um exemplo de ajuste é a identificação e tratamento de outliers. Por exemplo, quando um
produto deixa de ser vendido por ruptura no estoque, ao invés de considerar a venda como
zero naquele dia, pode-se atribuir a média de vendas do período, o que torna a série mais
consistente.
Outra possibilidade de melhoria refere-se aos coeficientes do Método de Holt-Winters.
Nos testes realizados, utilizou-se 0.5 para as três constantes α, β e γ. Um teste realizado com
produto diferente dos utilizados nos exemplos anteriores, usando estes mesmos valores para
as constantes, previu a venda de 6041 unidades enquanto o valor real das vendas foi de 7609,
gerando um MAPE de 20,6%. Para o mesmo período e produto o cálculo foi refeito, com os
valores de α, β e γ de respectivamente, 0,9; 0,59 e 0,29. A alteração dos valores dos
coeficientes proporcionou um melhor ajuste da série, visto que o novo valor de previsão foi de
6950 unidades, reduzindo o MAPE para 8,66%, comprovando o potencial de ajuste que a
escolha de coeficientes adequados a série analisada promove. Assim, a implementação de um
algoritmo para determinar o valor dos coeficientes do método de Holt-Winters, tomando
como base a série história de vendas de cada produto apresenta-se como uma estratégia de
melhoria promissora.
Para o modelo de análise de regressão, sugere-se incorporar outras variáveis
independentes, como por exemplo o preço do produto, criando um modelo de regressão
múltipla, o que deve levar a melhores resultados.
Por fim, a construção de um algoritmo que ajuste de forma dinâmica os pesos do método
Combinado, de acordo com as características da série que está sendo analisada é outra
pesquisa futura que deve culminar com a melhoria dos resultados obtidos.

Agradecimentos

Os autores agradecem ao IFSC pela disponibilização da estrutura para realização da pesquisa.

REFERÊNCIAS

Abras, P. (2018). “Perdas do setor supermercadista somaram R$ 6,4 bilhoes em 2017”. Disponível em:
http://www.abras.com.br/economia-e-pesquisa/perdas/pesquisa-2018.
Archer, A. (1980). “Forecasting demand: quantitative and intuitive techniques”. International Journal of
Tourism Management, 1, 5-12.
Armstrong, J. (1988). “Research needs in forecasting”. Inter. Journal of Forecasting, 4, 449–465.
Belge, C. (2012). “Avaliando e aprimorando previsões com base nos erros”. Disponível em:
http://belge.com.br/blog/2012/02/01/ avaliando-e-aprimorando-previsoes-com-base-nos-erros/
Favero, E. P. (2015). “Método de previsão de vendas: um estudo de caso numa rede varejista”, Monografia de
Graduação. Universidade de São Paulo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

28
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Lemos, F. O. (2006). “Metodologia para seleção de métodos de previsão de demanda”, Dissertação de


Mestrado. Escola de Engenharia – UFRGS.
Makridakis, S., Wheelwright & Hyndman, R. J. (1997). “Forecasting: Methods and applications”, John Wiley, .
New York.
McClave, J., Benson, P., & Sincich, T. (2004). “Statistics for Business and Economics”, Prentice Hall, New
Jersey.
Schrippe, P., Santos, S. R., Vincenzi, S. L., Moreira Junior, F. J. e Iarczewski, A. M. W. (2015). “Estratégia
empresarial para a natura: análise de correlação e previsão dos lucros por meio do modelo holt-winters”.
Reuna, 20, 5–26.
Silva, A. F. (2008). “Definição de um modelo de previsão das vendas da rede varejista Alphabeto”, Monografia
de Graduação. Universidade Federal de Juiz de Fora
Siqueira, A. C. (2016). “Previsão da demanda por meio de técnicas de séries temporais em empresa de serviços
de transporte rodoviário”, Monografia de Graduação. Centro Universitário Univates.
Wanke, P. and Julianelli, L. (2006). “Previsão de Vendas: Estratégias”, Atlas, São Paulo.
Werner, L. (2004). “Um modelo composto para realizar previsão de demanda através da integração da
combinação de previsões e do ajuste baseado na opinião”, Tese de doutorado, Universidade Federal do Rio
Grande do Sul.

SALES FORECAST USING TIME SERIES: A CASE STUDY IN A SUPERMARKET


Abstract. This paper presents a model used to forecast how many items of a product are
expected to be sold in each period of time. From these data, you can estimate if the units in
stock of such product have the possibility to expire the expiration date and if there is a
rupture risk in the stock due to the replacement schedule. Moving Average, Simple Linear
Regression and Holt-Winters Exponential Smoothing methods were implemented. Sales
forecast has been made by combining the results of these methods. Time series extracted from
a real company were used in order to test the model. The results show an average hit rate of
up to 86.87% for the Holt-Winters method, 80.29% for Simple Regression Analysis, 66.56%
for the Moving Average and 93.93% for the model which combines the results of the three
methods.

Keywords. Sales forecast. Holt-Winters Method. Simple linear regression. Moving average.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

29
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DE DEFEITOS EM REVESTIMENTOS METÁLICOS ASPERGIDOS


TÉRMICAMENTE POR ARCO ELÉTRICO EM SUBSTRATOS DE GEOMETRIAS
DISTINTAS

Frederico Garcia Bindi de Lacerda1 – fredericogarcia@live.com


Bruno Reis Cardoso2 – brunorc@cepel.br
Marília Garcia Diniz1 – diniz@uerj.br
1
Universidade do Estado do Rio de Janeiro, Programa de Pós-Graduação em Engenharia Mecânica,
UERJ – Rio de Janeiro, RJ, Brasil
2
Centro de Pesquisa de Energia Elétrica, CEPEL – Rio de Janeiro, RJ, Brasil

Resumo. Revestimentos obtidos por aspersão térmica (AT) podem ser utilizados na proteção
de componentes da indústria que atuam sob condições severas de abrasão, impacto de
partículas e corrosão. O objetivo deste trabalho foi avaliar a quantidade de defeitos (poros e
trincas) de dois revestimentos metálicos obtidos pela técnica de AT por arco elétrico (Ligas A
e B) aplicados sobre duas geometrias de substratos distintas, chapas e tubos. Os tubos
revestidos permaneceram expostos às condições reais de trabalho em uma caldeira de central
termelétrica movida à carvão mineral pelo período de um ano. Foram utilizadas técnicas de
microscopia óptica (MO), microscopia eletrônica de varredura (MEV), análise química semi-
quantitativa por Energy Dispersive Spectroscopy (EDS) e análise e processamento digital de
imagens (PDI). Após exposição dos tubos em campo, a elevada rugosidade de superfície
característica do processo de AT, foi reduzida. Os resultados revelaram maior percentual de
trincas e poros nos revestimentos dos tubos (7,6% e 14,9% paras as ligas A e B,
respectivamente) em relação às chapas (5,0% e 5,6% paras as ligas A e B, respectivamente).

Palavras-chave: Aspersão térmica; Revestimento metálico; Processamento digital de


imagem; Geometria do Substrato.

1. INTRODUÇÃO

As condições reais de operação em caldeiras que utilizam o carvão mineral como


combustível incluem: elevado desgaste abrasivo causado pelas partículas duras presentes nas
cinzas (resíduo da queima do carvão), alta temperatura de operação e ação corrosiva dos
produtos da combustão. Isso impõe a necessidade do uso de técnicas de proteção das
tubulações e prevenção, como tratamento da água e/ou aplicação de materiais de revestimento

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

30
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

com características específicas, como alta dureza, resistência ao desgaste abrasivo e à


corrosão, baixa porosidade e boa aderência ao substrato (Krzysztof et al., 2016).
O reforço de superfície com o uso de revestimentos surge como opção para proteção
contra o desgaste mecânico e a corrosão para componentes mecânicos em condições adversas
(Kalsi et al., 2013). Diversas técnicas são utilizadas para modificação de superfícies com o
objetivo de evitar ou retardar a deterioração de sistemas. Dentre estas técnicas, a aspersão
térmica (AT) ganha destaque por ser um processo que pode utilizar grande variedade de ligas
para deposição e possibilidade de aplicação em diversos tipos de substrato (Moskal et al.,
2016).
Nos processos de AT, os materiais para deposição são fundidos ou aquecidos em uma
tocha de aspersão através da queima de um gás combustível ou da geração de um arco
elétrico. Após fusão, o material é finamente atomizado e acelerado por gases sob pressão
contra a superfície do substrato e o atinge no estado fundido ou semifundido. Ao choque com
a superfície, as partículas achatam-se formando uma fina estrutura lamelar que adere ao
material base, e na sequência, às partículas já aspergidas anteriormente. Como característica
do processo, a estrutura formada apresenta a presença de poros, trincas, inclusões de óxidos e
falta de aderência em alguns pontos. Todos são defeitos típicos do processo, porém, podem
ser controlados a níveis aceitáveis mediante a escolha adequada da técnica de aspersão e dos
parâmetros de aspersão (Sá Brito, 2012; Menezes, 2007).
Considerando as técnicas de AT mais usuais, àquela que utiliza o arco elétrico como
fonte de energia possui a maior taxa de deposição, fácil operação tanto manual quanto
automatizada, baixo custo relativo de consumíveis para deposição e baixo custo geral, bons
níveis de aderência e coesão interlamelar, possibilidade de aplicação mesmo em temperaturas
próximas de 0°C, além de boa adesão para aplicação de selantes ou sistemas de pintura
subsequentes, consistindo num processo de fácil e rápida manutenção. Os equipamentos
necessários são relativamente pequenos, permitindo sua aplicação em campo, o que no caso
de caldeiras de centrais termelétricas vem a ser uma grande vantagem. Algumas desvantagens
do processo a arco ficam por conta dos revestimentos que têm tipicamente altos níveis de
porosidade, óxidos e partículas não fundidas, que podem influenciar diretamente na
resistência mecânica e química do revestimento. Os revestimentos apresentam maior
rugosidade do que aqueles obtidos por outros processos de aspersão, mas que pode ser
diminuido através de modificações no controle dos parâmetros. Os tipos de materiais que
podem ser aplicados pelo processo a arco estão limitados a arames sólidos ou tubulares que
sejam condutores (Gomes, 2018; Antunes, 2013; Brito, 2010; Santos et al., 2007; Lima e
Trevisan, 2007; Schiefler, 2004; Dorfman, 2002).
A quantidade e distribuição de descontinuidades na microestrutura dos revestimentos
obtidos por AT arco elétrico (poros, óxidos e trincas) podem limitar de maneira considerável
a vida útil e o desempenho destes em serviço. Partículas não fundidas aprisionadas no
revestimento reduzem a área de contato entre lamelas promovendo a formação de vazios,
trincas e poros. A presença de poros e fissuras podem gerar uma permeabilidade com efeitos
deletérios para o substrato, como perda de aderência na interface substrato-revestimento, falha
na proteção contra corrosão e diminuição na condutibilidade térmica do mesmo. A presença
de redes de óxidos por sua vez pode reduzir a adesão entre lamelas e elevar substancialmente
a dureza do revestimento, tornando-o frágil e quebradiço (ASM, 2013; Paredes, 2012;
Schiefler, 2004). Dentro deste contexto, é importante avaliar e quantificar com precisão a
presença de trincas e poros em revestimentos obtidos por AT.
Para este estudo foram escolhidas ligas metálicas ferrosas e com altos teores de Cromio e
Níquel para os revestimentos, com intuito de serem utilizadas na proteção de elementos mais
afetados pelo impacto de cinzas leves de caldeiras de centrais termelétricas e evitar a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

31
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

necessidade de manutenção corretiva. Segundo Szymánsk et al. (2014) ligas à base de Ferro
com elevados teores de Cromio e Níquel são indicadas para produção de revestimentos com
elevada resistência ao desgaste abrasivo e corrosão, muito embora as ligas à base de Níquel
sejam as mais usadas para esta finalidade.

2. METODOLOGIA

Os revestimentos testados foram aplicados sobre chapa de aço carbono com 8 mm de


espessura, e em tubo de aço carbono com composição química igual à da chapa, com diâmetro
nominal externo de 2 polegadas (50,8 mm) e espessura de 6 mm. A composição química da
chapa é apresentada na Tabela 1.

Tabela 1- Composição química da chapa de aço utilizada como substrato.

Elemento C Mn P S Cr Si Mo Ni Fe
% em
0,173 1,1 0,015 0,007 <0,05 <0,05 <0,05 <0,05 Balanço
peso

Os substratos foram previamente preparados por jateamento abrasivo grau Sa2½ (ISO
8501-1, 2007), usando alumina angular G16/20 mesh (1,19/0,84 mm) para limpeza superficial
e obtenção de um padrão de rugosidade que favorecesse a aderência do material aspergido.
Foi utilizado equipamento da Praxair Surface Technologies, modelo TAFA 8835, operado
manualmente para AT por arco elétrico dos arames das ligas metálicas. Os parâmetros
utilizados para produção de todas as amostras revestidas são apresentados na Tabela 2 e foram
determinados com base na experiência técnica da empresa parceira que realizou o processo. A
combinação de parâmetros utilizada buscou obter um tamanho de partícula considerado
“ótimo”, pois partículas atomizadas grandes promovem a formação de poros e partículas
muito finas favorecem a oxidação (KROMER et al., 2016). O gás atomizante foi ar
comprimido. Para revestir externamente o tubo, este foi fixado em torno e permaneceu
girando com velocidade controlada, enquanto o operador manuseava a pistola de aspersão.

Tabela 2- Parâmetros utilizados para a produção dos revestimentos por AT.

Tensão (V) 30
Corrente (A) 100
Pressão do ar atomizante (psi) 70
Distância de projeção (mm) 100
Ângulo de projeção 90°
Taxa de deposição (kg/h) 5

Foram utilizadas duas ligas metálicas distintas aqui nomeadas como A e B (Tabela 3)
para confecção de dois diferentes revestimentos, ambos com espessura média de 500 µm. As
amostras foram denominadas como Chapa Liga A (CA), Chapa Liga B (CB), Tubo Liga A
(TA) e Tubo Liga B (TB).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

32
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3- Composição química dos consumíveis metálicos utilizados no processo de AT.

Elemento (% em peso) Cr Nb Ni B Al Mn Si Fe
Liga A 13,2 6,0 5,5 4,2 2,0 1,3 1,2 Balanço
Liga B 29,0 - - 3,75 - 1,65 1,6 Balanço

As amostras obtidas das chapas metálicas revestidas com as Ligas A e B foram


caracterizadas e testadas sem que fossem expostas às condições reais de trabalho. Já as
amostras dos tubos revestidos foram submetidas à caracterização e testes apenas após a
exposição, não sendo realizada nenhuma análise anterior ao período de um ano em que
permaneceram expostos no interior da caldeira. Os tubos de aço carbono da caldeira possuem
tempo de operação médio estimado em 20 anos, porém, as partes mais afetadas pelo impacto
das partículas de cinzas leves falham com menos de três meses de operação. Considerando
esta informação, não foram realizados testes com o material dos tubos sem revestimento.
Foi utilizado um microscópio eletrônico de varredura (MEV) com detector de elétrons
secundários (SEI), modelo JSM-6510LV da JEOL, operando a 15 kV. O MEV estava
equipado com sistema de microanálise do tipo EDS modelo 6742A-1UUS-SN da marca
Thermo Scientific com resolução especificada de 132 eV, que foi utilizado para análise
química semi-quantitativa dos revestimentos.
Para a quantificação de defeitos dos revestimentos (trincas, poros e redes de óxidos) foi
usada a técnica de processamento digital de imagens (PDI) de seções transversais polidas e
preparadas por diversas etapas de lixamento e polimento metalográfico até obtenção de
superfície altamente especular. Foram utilizadas 30 imagens obtidas por microscopia óptica
(MO) através de um microscópio Axio Imager 1M da ZEISS, para cada condição CA, CB,
TA e TB, sem superposição de campos, com magnificação de 500x. A espessura média das
amostras foi calculada a partir de medidas realizadas através do software Axiovision Zeiss
(Figura 1).

Figura 1- Medidas de espessura realizadas através do software Axiovision Zeiss. TA,


MO, 50x.

O PDI foi realizado o software FIJI ImageJ, com etapas de pré-processamento (para
obtenção de uma imagem em tons de cinza e correção de contraste - Figura 2a e 2b),
segmentação (para gerar uma imagem binária e selecionar os objetos de interesse - Figura 2c),
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

33
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

pós-processamento (para eliminação de ruídos, pixels isolados e preenchimento de vazios


dentro das áreas de interesse - Figura 2d) e extração de atributos (para obtenção de resultados
quantitativos da fração de área dos elementos segmentados na imagem, conforme o fator de
forma aplicado, entre 0,0 e 0,7 para contagens de defeitos alongados e entre 0,7 e 1,0 para
contagem de defeitos arredondados - Figura 2e e 2f).

Figura 2 – Sequência das etapas do PDI para uma imagem do revestimento. Imagens obtidas
por MO, 500x

3. RESULTADOS

A Figura 3 apresenta a chapa revestida com a liga B e exemplifica uma situação


observada para todas as condições testadas. Ela mostra a presença de regiões onde a adesão
com o substrato não foi total (em destaque), isso devido à solidificação da partícula antes do
perfeito escoamento da mesma e preenchimento das irregularidades superficiais. Também
foram observadas as presenças típicas de descontinuidades nos revestimentos, tais como poros
e trincas (regiões escuras no revestimento) e a morfologia irregular da rugosidade
característica em ligas aspergidas por arco elétrico. Estes defeitos e morfologias comuns em
AT já foram reportados por diversos trabalhos (Darabi e Azarmi, 2020; Zhang et el.; 2019;
Boronenkov e Korobov, 2016; Kromer et el.; 2016; Thiyagarajan e Senthilkumar, 2016).

Revestimento

Substrato
Figura 3- Estrutura típica dos revestimentos obtidos por AT a arco elétrico. CB, MO,
100x.

A falta de adesão total do revestimento com o substrato é característica do processo de


deposição utilizado, isto é, a adesão mecânica se dá em pontos determinados entre substrato e
revestimento. No entanto, se isso ocorrer de maneira elevada, pode promover o seu
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

34
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

descolamento. A presença de descontinuidades também é intrínseca à técnica e sempre


associado com os parâmetros de aspersão. Porém, quanto menor possível for, melhor para a
resistência do depósito (ASM, 2013; Schiefler, 2004).
A Figura 4 apresenta uma região do revestimento liga B depositado sobre o tubo, onde a
estrutura lamelar típica deste processo ficou bastante evidente. Além das características já
citadas, pôde-se identificar a presença de cavidades interconectadas que, segundo Zhang et al.
(2019), podem permitir o transporte de fluidos do ambiente no qual o revestimento está
exposto até o substrato e este mecanismo pode acarretar em processos de corrosão e
aceleração da degradação do revestimento e/ou do substrato.

Figura 4- Estrutura típica de revestimento obtido por AT a arco elétrico TB. MO,
100x.

Com um ano de permanência na caldeira, os revestimentos dos tubos analisados


apresentaram uma suavização da superfície do revestimento. Na Figura 4 é possível perceber,
de forma qualitativa, que a rugosidade característica do processo de AT por arco elétrico
diminuiu, sem que houvesse redução da espessura do revestimento, que permaneceu em torno
de 500 µm. Isto ocorreu devido ao impacto de partículas duras de cinzas do carvão mineral
sobre o revestimento dentro da caldeira, que eliminaram as diferenças entre picos e vales da
rugosidade inicial (Thiyagarajan e Senthilkumar, 2016).
A Figura 5 apresenta o mapeamento da composição química obtido por EDS da amostra
CB e que exemplifica a presença de redes óxidos, identificadas pelas regiões ricas dos
elementos Silício e Alumínio em locais com partículas aglomeradas. O sinal obtido para o
Oxigênio também é mais elevado nos aglomerados de Silício e Alumínio. Partículas não-
fundidas são identificadas como um corpo esférico aprisionado entre as lamelas depositadas,
mas que no mapa obtido por EDS apresenta composição química balanceada semelhante ao
revestimento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

35
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Identificação de redes de óxidos. CB, MEV-EDS, 500x.

A Figura 6 apresenta o revestimento liga B aplicado sobre chapa e identifica com maior
detalhe os defeitos típicos de revestimentos obtidos por AT a arco elétrico, tais como poros,
trincas, partículas não fundidas e possíveis redes de óxidos (Gomes, 2018; Tang et al., 2016;
Citbor et al., 2003). Estes defeitos se mostraram presentes em todas as amostras e ligas
testadas, independentemente da geometria do substrato.

Figura 6- Defeitos típicos dos revestimentos. CB, MO, 500x.

Em todos os casos houve predominância de defeitos alongados, em sua maioria formados


por poros interlamelares (classificados como tipo 1 segundo VREIJLING, 1998).

Tabela 4- Comparativo do percentual médio de defeitos totais (trincas, poros e redes de


óxidos), para todas as condições testadas.

Defeitos Defeitos Defeitos


Totais Alongados Arredondados
CA 5,0 ± 2,0 4,0 ± 2,0 1,0 ± 0,5
CB 5,6 ± 3,0 5,0 ± 2,9 0,6 ± 0,5
TA 7,6 ± 5,5 7,0 ± 5,2 0,6 ± 0,3
TB 14,9 ± 5,8 14,4 ± 5,5 0,6 ± 0,3
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

36
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Outras ligas metálicas depositadas por arco elétrico já apresentaram fração volumétrica
de defeitos medidos por técnicas de PDI entre 3 – 7%. Este valores foram confirmados através
da utilização de diversas outras técnicas, tais como a porosimetria por mercúrio, método de
Archimedes e tomografia. As pequenas diferenças verificadas podem ser atribuídas ao uso de
diferentes ajustes nos parâmetros de processamento utilizados (Darabi e Azarmi, 2020;
Pereira, 2018; Montani, 2016).
Os resultados mostraram valores bem próximos para a quantidade total de defeitos nas
amostras do tipo CA e CB, o que sugere uma significativa influência da morfologia do
substrato nos parâmetros de aspersão no resultado final destes revestimentos. As amostras TA
e TB apresentaram valores de defeitos totais maiores em relação às chapas, o que corrobora
na conclusão de uma provável influência da geometria do substrato no aumento deste
percentual, tendo em vista que foram utilizados os mesmos ajustes no processo.
Este fato provavelmente está relacionado ao ângulo em que permaneceu a pistola de
aspersão durante a deposição e a direção dos passes de deposição das camadas aspergidas, em
cada um dos casos, tubo ou chapa. Ângulos menores que 90º favorecem a presença de
defeitos, podendo isso ser mais acentuado pela geometria do substrato. Outro fator a ser
ressaltado é o aprisionamento de partículas (óxidos ou partículas não fundidas) provenientes
da extremidade do cone de aspersão pelo efeito da rotação do tubo, que lança estas partículas
para o centro do cone. As partículas na extremidade do cone de aspersão resfriam mais
rapidamente e mantêm maior contato com o ar da atmosfera ao redor, fazendo com que
muitas cheguem ao substrato já solidificadas e/ou oxidadas. Um dispositivo auxiliar pode ser
utilizado de modo que os detritos sejam expelidos da superfície por uma corrente de ar
comprimido suplementar antes de serem incorporados ao revestimento. No caso de superfícies
planas, estes dispositivos de ar devem ser posicionados em ambos os lados do jato de
pulverização para ajudar a remover a poeira e resíduos (Figura 7) (ASM, 2013).

Rotação

Detritos
Corrente
de ar

Figura 7- Detritos da extremidade do cone de aspersão que podem incorporados ao


revestimento devido à rotação do tubo e dispositivo de ar suplementar.

4. CONCLUSÃO

Todos os revestimentos testados apresentaram defeitos típicos, tais como: partículas


parcialmente fundidas, redes de óxidos, trincas e porosidades. A presença de poros e trincas
interconectadas pode reduzir a efetividade da camada aspergida protetora e é um parâmetro a
ser observado. A frações de defeitos foram 5,0 ± 2,0%, 5,6 ± 3,0%, 7,6 ± 5,5% e 14,9 ± 5,8%
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

37
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

para as condições CA, CB, TA e TB, respectivamente, estes valores encontram-se dentro do
esperado para revestimentos metálicos obtidos por AT por arco elétrico.
Os revestimentos sobre chapa apresentaram percentual de defeitos semelhantes, que pode
ser atribuído exclusivamente a técnica e parâmetros utilizados, tendo em vista as diferenças na
composição química das ligas. Os revestimentos obtidos sobre tubo, para ambas as ligas,
apresentaram maior percentual de defeitos. Quando comparadas entre si, apesar da diferença
percentual de defeitos entre as amostras TA e TB, estas possuíram também alto desvio
padrão, fazendo com que exista uma zona em comum onde os valores percentuais são
semelhantes.
A maior quantidade de defeitos nas amostras TA e TB em relação a CA e CB foi
atribuída ao modo como foi realizada a aspersão e à geometria do substrato. A aspersão
realizada sobre o tubo enquanto girava promoveu o aumento dos defeitos totais devido ao
aprisionamento de detritos provenientes da extremidade do cone de aspersão. A aspersão
realizada de modo manual é uma variável com baixo controle técnico que pode influenciar
nos resultados. Alterações nos parâmetros de aspersão na busca da diminição dos defeitos nos
revestimentos serão testadas em trabalhos futuros.

Agradecimentos

Este trabalho foi financiado em parte pela Coordenação de Aperfeiçoamento de Pessoal


de Nível Superior – Brasil (CAPES) – Código de financiamento 001 e foi conduzido em
parceria com o Centro de Pesquisa de Energia Elétrica – CEPEL e a Empresa VGK
Engenharia, esta última representada por seu Diretor, Guilherme W. Bungner.

REFERÊNCIAS

Antunes, F.J. Avaliação da adesão e da resistência à corrosão de revestimentos de Cr e Co obtidos através da


técnica de aspersão térmica. Dissertação de Mestrado, Centro Federal de Educação Tecnológica Celso
Suckow da Fonseca - CEFET/RJ. Rio de Janeiro, 2013.
ASM Handbook, Volume 5A, Thermal Spray Technology. R.C. Tucker, Jr., editor. ASM International. Ohio,
2013.
Boronenkov, V.; Korobov, Y. Fundamentals of Arc Spraying. Physical and Chemical Regularities. Springer,
2016.
Brito, V.R.S.S.; Bastos, I.N.; Costa, H. R. M. Corrosion resistance and characterization of metallic coatings
deposited by thermal spray on carbon steel. Materials & Design, 2010.
Ctibor, P.; Roussel, O.; Tricoire, A. Unmelted particles in plasma sprayed coatings. Journal of the European
Ceramic Society, 2003.
Darabi, A.; Azarmi F. Investigation on Relationship Between Microstructural Characteristics and Mechanical
Properties of Wire-Arc-Sprayed Zn-Al Coating. Journal of Thermal Spray Technology. v.20. 2020.
Dorfman, M.R. Thermal Spray - Processes. Advanced Materials & Processes, v.160, 2002.
Gomes, D.L. Caracterização de cinzas leves e de revestimento para caldeiras de central termelétrica brasileira.
Dissertação de Mestrado. Faculdade de Engenharia, Universidade do Estado do Rio de Janeiro, 2018.
Kalsi, S.S.; Sidhu, T.S.; Singh, H. Characterization of NiCrAIY coatings on Ni- and Fe- based superalloys by the
cold spray process. i-manager’s Journal on Material Science, v.1. Índia, 2013.
Kromer, R.; Cormier, J.; Costil, S. Role of Powder Granulometry and Substrate Topography in Adhesion
Strength of Thermal Spray Coatings. Journal of Thermal Spray Technology, 2016.
Krzysztof, S.; Hernas, A.; Moskal, G.; Myalska, H. Thermally sprayed coatings resistant to erosion and
corrosion for power plant boilers - A review. Elsevier. Polônia, 2016.
Lima, C.C.; Trevisan, R. Aspersão Térmica - Fundamentos e Aplicações. 2ed. Artliber, São Paulo, Brasil, 2007.
Menezes, D.D. Avaliação da Resistência à Corrosão de Revestimentos de Alumínio aplicados pelas técnicas de
Arco Elétrico e Chama Convencional em meio cloreto. Tese de Doutorado, Universidade Federal do Rio de
Janeiro, Rio de Janeiro, 2007.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

38
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Montani, U.R.S. Quantificação de Defeitos por Processamento Digital de Imagens em Revestimentos obtidos
por Aspersão Térmica. Dissertação de Mestrado. Faculdade de Engenharia, Universidade do Estado do Rio
de Janeiro, Rio de Janeiro, 2016
Moskal, G.; Krzysztof, S.; Hernas, A.; Myalska, H. Thermally sprayed coatings resistant to erosion and
corrosion for power plant boilers - A review. Silesian University of Technology, Institute of Materials
Science. Elsevier. Polônia, 2016.
Paredes, R.S.C. Aspersão Térmica. Departamento de Engenharia Mecânica, Universidade Federal do Paraná.
Curitiba, 2012.
Pereira, E.S. Quantificaçâo de defeitos através da tècnica de processamento de Imagem em revestimentos
metálicos aspergidos termicamente por arco Elétrico. Dissertação de Mestrado. Centro Federal de Educação
Tecnológica Celso Suckow da Fonseca - CEFET/RJ. Rio de Janeiro, 2018.
Sá Brito, V.R.S.; Bastos, I.N.; Costa, H.R.M. Corrosion resistance and characterization of metallic coatings
deposited by thermal spray on carbon steel. Materials & Design, 2012.
Santos, E.F., Toledo, L.B., Carrilho, M.S. Comparativo entre os processos de aspersão térmica na manutenção.
Universidade Federal do Paraná. Artigos Infosolda. Brasil, 2007.
Schiefler, M.F.O.F., Estudos Microestrutural e Eletroquímico de Revestimentos Metálicos Depositados por
Aspersão Térmica. Tese de Doutorado, Centro Tecnológico, Universidade Federal de Santa Catarina.
Florianópolis, 2004.
SZYMAŃSKI, K., HERNAS, A., MOSKAL, G., & MYALSKA, H. Thermally sprayed coatings resistant to
erosion and corrosion for power plant boilers - A review. Surface and Coatings Technology, 2014.
Tang, J. J.; Bai, Y.; Zhang, J. C.; Liu, K.; Liu, X. Y.; Zhang, P.; Yang, J. F. Microstructural design and oxidation
resistance of CoNiCrAlY alloy coatings in thermal barrier coating system. Journal of Alloys and
Compounds, 2016.
Thiyagarajan, B.; Senthilkumar, V. Experimental studies on fly-ash erosion behavior of Ni-Cr based
nanostructured thermal spray coating in boiler tubes. Materials and Manufacturing Processes, 2016.
Vreijling, M.P. W. Electrochemical Characterisation of Metallic Thermaly Sprayed Coatings. Ph.D – TNO
Institute of Industrial Technology. Netherlands, 1998.
Zhang, X.L.; Jiang, C.P.; Zhang, F.Y.; Xing, Y.Z. The evaluation of microstructure characteristic and corrosion
performance of laser-re-melted Fe-based amorphous coating deposited via plasma spraying. Materials
Express, 2019.

EVALUATION OF DEFECTS IN METALLIC COATINGS SPRAYED


THERMICALLY BY ELECTRIC ARC IN SUBSTRATES OF DIFFERENT
GEOMETRIES

Abstract. Coatings obtained by thermal spray (TS) can be used to protect industry
components that operate under severe conditions of abrasion, particle impact and corrosion.
The objective of this work was to evaluate the amount of defects (pores and cracks) of two
metallic coatings obtained by the technique of TS by electric arc (Alloys A and B) applied on
two different substrate geometries, plates and tubes. The coated tubes remained exposed to
the real working conditions in a coal-fired thermal power plant boiler for a period of one
year. Optical microscopy (OM), scanning electron microscopy (SEM), semi-quantitative
chemical analysis by Energy Dispersive Spectroscopy (EDS) and digital image processing
(DIP) techniques were used. After exposure of the tubes in the field, the high surface
roughness characteristic of the TS process was reduced. The results revealed a higher
percentage of cracks and pores in the pipe coverings (7.6% and 14.9% for alloys A and B
respectively) compared to plates (5.0% and 5.6% for alloys A and B respectively).

Keywords: Thermal spray; Metallic coating; Digital image processing, Substrate Geometry.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

39
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DE DESEMPENHO DOS MODELOS HOLT WINTERS NA


MODELAGEM DA DEMANDA DE ENERGIA ELÉTRICA PARA O ESTADO DO
RIO GRANDE DO SUL

Tuane P. Pereira1 – tuanepp@gmail.com


Viviane L. D. de Mattos2 – vivianeldm.furg@gmail.com
Andrea C. Konrath3 – andreack@gmail.com
Antonio Cezar Bornia4 – cezar.bornia@gmail.com
Luiz R. Nakamura5 – luiz.nakamura@ufsc.br
Vera do Carmo C. de Vargas6 – veradocarmo@gmail.com
1
Universidade Federal do Rio Grande – Rio Grande, RS, Brasil
2
Universidade Federal do Rio Grande – Rio Grande, RS, Brasil
3
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil
4
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil
5
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil
6
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil

Resumo. Dada a necessidade de atender o crescimento da demanda por energia elétrica, a


previsão do comportamento da demanda se tornou imprescindível para o planejamento do
setor. O presente trabalho analisa dados mensais de energia elétrica no período de janeiro
de 2004 até dezembro de 2019, no estado do Rio Grande do Sul, com o objetivo de criar
modelos de previsão a partir dos modelos aditivo e multiplicativo de Holt Winters, e
determinar o melhor modelo de previsão entre eles. O modelo gerado pelo método
multiplicativo com o segundo conjunto de dados foi identificado como o melhor modelo de
previsão, embora tenha sido incapaz de eliminar a autocorrelação dos resíduos.

Palavras-chave: Demanda. Energia Elétrica. Previsão. Holt Winters. Desempenho.

1. INTRODUCÃO

A demanda de energia elétrica, item considerado imprescindível para a sobrevivência


humana e para a qualidade de vida do homem moderno, está diretamente relacionada com o
produto interno bruto (PIB) do país (Nunes, 2019). Segundo a Empresa de Pesquisa
Energética [EPE] (2017), as taxas de crescimento do PIB estão associadas ao crescimento da
demanda de energia elétrica no Brasil.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

40
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tendo em vista a particularidade do setor elétrico, que lida com o fato de o produto final
não poder ser estocado, e a necessidade de atender o crescimento da demanda, Thomaz (2017)
adverte que o planejamento do setor é fundamental, a fim de minimizar o risco de
desequilíbrios entre oferta e demanda de energia elétrica. Em função disso, a previsão do
comportamento da demanda se tornou instrumento importante para o planejamento do setor,
onde são aplicadas técnicas para analisar séries temporais e identificar estruturas e padrões ao
longo dos anos e assim construir modelos que tenham capacidade de gerar bons resultados
futuros (Pontes, 2018).
Neste trabalho são analisados dados mensais de energia elétrica da classe consumidora
residencial no estado do Rio Grande do Sul no período de janeiro de 2004 até dezembro de
2019, sendo o objetivo criar modelos de previsão de demanda de energia elétrica, a partir da
modelagem de Suavização Exponencial empregando dois cenários com os conjunto de dados
observados, e assim, comparar suas previsões a fim de determinar o melhor modelo. Para tal,
foram aplicadas duas variações do método Holt Winters.

2. REFERENCIAL TEÓRICO

Segundo Hyndman e Athanasopoulos (2018), o método de suavização exponencial


produz suas previsões a partir de médias ponderadas, onde os pesos das observações decaem
exponencialmente conforme as observações sejam mais antigas, ou seja, observações mais
recentes possuem maiores pesos associados. Ainda segundo o autor, o embasamento para a
escolha do método de previsão comumente vem do reconhecimento dos principais
componentes da série temporal, como tendências e sazonalidade.
Dentre diversos métodos de modelagem por suavização exponencial, destacam-se dois
métodos empregados em séries que apresentam sazonalidade: Holt-Winters aditivo, o qual é
eleito quando as variações ao longo da série são aproximadamente constantes; e Holt-Winters
multiplicativo, preferido quando as variações sazonais ao longo da série são alteradas
proporcionalmente (Hyndman e Athanasopoulos, 2018).
Na literatura são encontrados inúmeros trabalhos onde os métodos de Holt Winters foram
utilizados. Jere et al. (2019) avaliaram a performance de dois modelos, sendo um deles o
modelo de suavização exponencial de Holt Winters, para a previsão da chegada de turistas
internacionais na Zâmbia. Os autores encontraram que este é um modelo apropriado com
razoável precisão de previsão e que pode ser usado para modelar a chegada de turistas
internacionais no país. Thomaz e Mattos (2019) criaram modelos para previsão do
comportamento de um indicador econômico da indústria da construção brasileira, chegando à
conclusão de que apesar de ser incapaz de eliminar totalmente a autocorrelação dos resíduos,
o modelo multiplicativo de Holt Winters produziu bons resultados. Já Hassan e Mohamed
(2019) buscaram prever a demanda de energia elétrica no Sudão, utilizando os métodos
ARIMA e Holt Winters, o que reforça que previsões obtidas a partir da modelagem de
suavização exponencial pelo método de Holt Winters pode ser uma boa opção para situações
onde existe sazonalidade.

2.1 Método Holt Winters

O método Holt Winters compõe-se de uma equação de previsão e três equações de


suavização, sendo uma para o nível, uma para a tendência e uma para o componente sazonal,
as quais apresentam parâmetros de suavização correspondentes (Hyndman e Athanasopoulos,
2018).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

41
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme Hyndman e Athanasopoulos (2018), as equações componentes do método


aditivo são apresentadas nas Eq. (1-4).

(1)

(2)

(3)

(4)

onde: , e são respectivamente o nível, a tendência e a sazonalidade no tempo; éo


valor observado no tempo ; indica a frequência de sazonalidade, nesse caso, para dados
mensais é utilizado ; α, β e 𝛾𝛾 são constantes de suavização, com valores entre 0 e 1; e
é o valor previsto h passos à frente.
As equações componentes do método multiplicativo também são explicitadas por
Hyndman (2018), e estão dispostas nas Eq. (5-8).

(5)

(6)

(7)

(8)

Os métodos aditivo, Eq. (1-4), e multiplicativo de Holt Winters, Eq. (5-8), são escritos
similarmente, com algumas modificações nos componentes. A Equação 5 apresenta a
previsão para o método multiplicativo, enquanto que as Eq. (6-8) representam soluções de
nível, tendência e sazonalidade. A equação de tendência ( ) não se altera, pois é linear em
ambos os métodos e não inclui a sazonalidade.
Para o diagnóstico dos modelos podem ser utilizados os Critério de Informação Akaike
(IAC) e o Critério de Informação Bayesiana (BIC), entre outros, conforme apresentado por
Bueno (2011) e Cryer e Chan (2008). Segundo os autores, esses critérios podem ser utilizados
para auxiliar na seleção daquele que seria o melhor modelo, por ser mais parcimonioso,
evitando que sejam utilizados modelos com muitos parâmetros. Segundo Emiliano (2009),
esses critérios penalizam a verossimilhança em função do número de parâmetros do modelo.
A análise dos resíduos permite verificar se os modelos selecionados satisfazem as
suposições de independência, normalidade e homocedasticidade. O teste de Ljung-Box (LB)
verifica a hipótese nula de que os resíduos são independentes, enquanto o teste de Jarque-Bera
(JB) verifica a hipótese nula de que os resíduos seguem uma distribuição normal. Já o teste
ARCH averigua a hipótese nula de que os resíduos são homocedásticos (Bueno, 2011;
Gujarati e Porter, 2011).
Segundo Baltar (2009), entre essas propriedades, a aceitação da normalidade e da
homocedasticidade são desejáveis, enquanto que a independência apresenta caráter
indispensável e eliminatório na escolha do modelo. Isso porque a presença de resíduos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

42
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

autocorrleacionados significa que o modelo não conseguiu captar todas as informações


necessárias para realizar a previsão.
Muito mais importante do que escolher um modelo que possa ser utilizado na previsão, é
verificar se tal modelo escolhido é adequado ao estudo proposto, já que as estimativas
precisas são essenciais para futuras tomadas de decisão (Levenbach, 2017). Neste seguimento,
é relevante determinar os indicadores de qualidade a fim de auxiliar na identificação do
melhor modelo tanto para a fase de ajuste, como para a validação do modelo (Thomaz e
Mattos, 2019).
Segundo Scheidt et al. (2020), o Erro Médio Percentual Absoluto (MAPE – Mean
Absolute Percentage Error) e Raiz do Erro Quadrático Médio (RMSE – Root Mean Squared
Error), estão entre os inidcadores de qualidade mais utilizados na identificação do melhor
modelo. O MAPE é uma medida relativa e representa a média da diferença absoluta entre os
valores previstos e observados, expresso em porcentagem dos valores observados. Já o RMSE
é proveniente da soma das estimativas de erro elevadas ao quadrado, dividido pelo número de
períodos analisados, seguido da extração de sua raiz quadrada, sendo mais influenciado pelos
resíduos de maior magnitude. O U de Theil avalia a acurácia do modelo para a previsão em
relação à acurácia da previsão do método ingênuo (Levenbach, 2017; Scheidt et al., 2020).
Mais detalhes sobre as técnicas apresentadas podem ser encontradas em Cryer e Chan
(2008), Morettin (2011), Gujarati e Porter (2011), Levenbach (2017), Hyndman e
Athanasopoulos (2018) e Morettin e Toloi (2018).

3. METODOLOGIA

Os dados empregados nesse estudo foram obtidos a partir do banco de dados da EPE
(2020) e se referem ao período de janeiro de 2004 até dezembro de 2019, com periodicidade
mensal, totalizando 192 observações. Foram abordados dois cenários de modelagem, a fim de
evidenciar que pequenas mudanças no conjunto de dados, utilizados na fase de ajuste, podem
acarretar em modelos de previsão totalmente distintos.
A primeira análise utiliza os 12 primeiros anos (144 observações) dos dados para a fase
de ajuste, ou calibração do modelo, e para a fase de validação os 4 últimos anos (48
observações). Já a segunda análise considera os 13 primeiros anos (156 observações) para a
fase de ajuste e 3 anos (36 observações) para a fase de validação. Além disso, esses dois
arranjos de conjunto dos dados são analisados empregando o método Holt Winters Aditivo
(HWA) e o método Holt Winters Multiplicativo (HWM).
A qualidade do ajuste do conjunto de dados foi analisada em termos das medidas de
acurácia RMSE e MAPE. Além disso, também foram empregados os critérios de informação
AIC e BIC. Já os resíduos dos modelos foram analisados a partir do teste de Jarque-Bera (JB),
Ljung-Box (LB) e ARCH. É importante ressaltar que para o presente estudo o nível de
significância adotado para os testes foi de 5%. A definição do melhor modelo de previsão se
deu a partir das medidas de erro: MAPE e RMSE, bem como do parâmetro U de Theil.
Destaca-se que todas as análises desse estudo foram realizadas através do software R,
utilizando os pacotes forecast, fpp, fpp2, tseries, ggplot2, expsmooth, fma, lmtest, zoo e
aTSA.

4. RESULTADOS E DISCUSSÕES

Apresenta-se na Fig. 1 o comportamento da série temporal utilizada neste estudo. Os


eixos x e y representam, respectivamente, o tempo em anos e a demanda de energia elétrica,
em MWh, para a classe consumidora residencial no estado do Rio Grande do Sul. É possível
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

43
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

observar que existem picos característicos de sazonalidade na série temporal, associados ao


período de verão, além de uma tendência de crescimento, que pode estar associada ao
crescimento do PIB, por exemplo.

Figura 1- Demanda de energia elétrica no período de janeira de 2004 a dezembro de 2019.

Além disso, no ano de 2015 percebe-se uma diminuição brusca da demanda logo após o
pico, o que se supõem ser devido à alta do valor da energia elétrica no país. À vista disso, foi
proposta a modelagem de dois conjuntos de dados diferentes. O primeiro conjunto de dados
(Conjunto 1) não considerou o período de decaimento na fase de ajuste do modelo, enquanto
que o segundo conjunto de dados (Conjunto 2) considerou o período em questão na fase de
ajuste do modelo.
Duas variações do método Holt Winters (HW) foram consideradas para cada conjunto de
dados: Holt Winters Aditivo (HWA) e Holt Winters Multiplicativo (HWM). A Tab. 1
apresenta as medidas de acurácia RMSE e MAPE, assim como os critérios de informação
AIC e BIC.

Tabela 1- Desempenho da modelagem HW para fase de ajuste.

Modelo RMSE MAPE (%) AIC BIC


HWA
26804,12 3,175943 3686,191 3736,677
(Conjunto 1)
HWA
27788,1 3,232452 4014,275 4066,122
(Conjunto 2)
HWM
25617,12 3,186936 3645,009 3695,496
(Conjunto 1)
HWM
26678,03 3,130967 3961,894 4013,742
(Conjunto 2)

Analisando os dados da Tab. 1 verificou-se que os modelos ajustados com o Conjunto 1


apresentaram os menores índices para a fase de ajuste do modelo, com exceção do parâmetro
MAPE para o método multiplicativo, que indicou valores menores para o Conjunto 2. A
seguir, a Tab. 2 apresenta a análise dos resíduos para os modelos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

44
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2- Análise dos resíduos dos modelos.

Modelo JB(p-valor) LB(p-valor) Homocedasticidade


HWA
<0,0001 <0,0001 0,001387
(Conjunto 1)
HWA
<0,0001 <0,0001 0,001132
(Conjunto 2)
HWM
<0,0001 <0,0001 0,3903
(Conjunto 1)
HWM
<0,0001 <0,0001 0,1482
(Conjunto 2)

Os resultados do teste de autocorrelação de Ljung-Box, contidos na Tab. 2, indicam que


todos os modelos gerados apresentam resíduos autocorrelacionados, ou seja, informações
importantes sobre os dados não foram captadas pelos modelos em questão. Já os resultados do
teste de normalidade de Jarque Bera, apontam para a não normalidade dos dados em todos os
modelos. Ainda, é possível observar o teste que verifica a homocedasticidade dos resíduos de
cada modelo e, neste caso, o método multiplicativo para ambos os conjuntos, apresentam
dados homocedásticos.
Todos os modelos gerados foram comparados, levando em consideração seus
desempenhos, tanto na fase de ajuste quanto na fase de validação, sendo os resultados
dispostos na Tab. 3. Conclui-se então, que para a fase de ajuste, os modelos ajustados com o
método HWM apresentam o melhor desempenho, com exceção do parâmetro MAPE onde o
valor para HWM do Conjunto 1 é superior ao HWA para o mesmo arranjo de conjunto
analisado. Para a fase de validação, os modelos ajustados com os dados do Conjunto 1
apresentam o pior desempenho, inclusive, com valores do parâmetro U de Theil maiores que
1, o que indica que as previsões geradas por esses modelos são piores que as previsões
geradas pelo método ingênuo. Os modelos que consideram os dados do Conjunto 2
apresentam pior desempenho na fase de ajuste, entretanto revelam melhor desempenho na
fase de validação.

Tabela 3- Comparação dos modelos para os dados de ajuste e validação.

Ajuste Ajuste Validação Validação Validação


Modelo
RMSE MAPE (%) RMSE MAPE (%) U de Theil
HWA
26804,12 3,175943 58934,28 6,230783 1,01086
(Conjunto 1)
HWA
27788,1 3,232452 43571,75 5,034302 0,7682572
(Conjunto 2)
HWM
25617,12 3,186936 320371,28 39,988075 5,858439
(Conjunto 1)
HWM
26678,03 3,130967 38433,80 3,856711 0,646982
(Conjunto 2)

Esses desfechos se devem à divisão da série temporal para as fases de ajuste e


validação. O Conjunto 1 não considerou para a fase de ajuste o período de brusca queda na
demanda no ano de 2015, fazendo com que os dados atípicos fossem incluídos na fase de
validação e, assim, apresentassem pior desempenho nessa fase. Já o Conjunto 2 incluiu os
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

45
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dados atípicos na fase de ajuste do modelo, o que acarretou numa fase de validação com
melhor desempenho. Outro ponto importante é que o horizonte de previsões, ou seja, a
quantidade de dados utilizados para validação, foi mais amplo no Conjunto 1, o que também
pode ter contribuído para diminuir a precisão da previsão. Quanto maior o horizonte de
previsão, maiores serão os erros, diminuindo sua precisão.
No geral, considera-se que o método multiplicativo apresenta melhores resultados se
comparado ao método aditivo. Ademais, conclui-se que considerando os modelos
apresentados nesse estudo, o melhor modelo de previsão para a série temporal é o gerado a
partir dos dados do Conjunto 2 pelo método Multiplicativo de Holt Winters, ainda que este
apresente autocorrelação nos resíduos.
Dado que o modelo HWM (Conjunto 2) apresentou os melhores resultados, o mesmo
foi escolhido para prever a demanda de energia elétrica da classe consumidora residencial no
estado do Rio Grande do Sul. A Fig. 2 apresenta a comparação entre a série temporal original
e o modelo HWM (Conjunto 2). Já a Fig. 3 apresenta os intervalos de confiança para
previsões do modelo. A região sombreada mais escura representa o intervalo de confiança de
80%, enquanto que a região sombreada mais clara representa o intervalo de confiança de
95%.
Por fim, a partir de análise visual das Fig. 2 e 3 é razoável admitir que os valores
observados se encontram dentro dos intervalos de confiança, sendo assim, pode-se concluir
que a curto prazo as previsões apresentam boa precisão.

Figura 2- Valores observados e modelo HWM (Conjunto 2) em vermelho

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

46
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Valores observados e intervalos de confiança

5. CONCLUSÕES

Este estudo se dispôs a elaborar um modelo de previsão da demanda de energia elétrica


para a classe consumidora residencial no estado do Rio Grande do Sul. Em virtude da
necessidade de atender à crescente demanda por energia elétrica, a previsão do
comportamento dessa variável se tornou aliada no processo de planejamento do setor, a fim
de minimizar riscos de desequilíbrios entre oferta e demanda. Visto que a série temporal
apresenta tendência e sazonalidade, optou-se pelo emprego de duas variações do método de
Holt Winters.
Os resultados mostraram que para a fase de ajuste, os melhores desempenhos foram
alcançados pelos modelos que utilizaram os dados do Conjunto 1, enquanto que para a fase de
validação, os modelos ajustados com o mesmo conjunto de dados apresentaram desempenho
pior até mesmo que de previsões geradas pelo método ingênuo.
De maneira geral, dentre os modelos propostos, o elaborado pelo método multiplicativo
com o Conjunto 2 apresentou melhor desempenho e entende-se que a curto prazo suas
previsões apresentaram boa precisão. No entanto, todos os modelos gerados apresentaram
resíduos autocorrelacionados, o que é inadequado. Dessa forma, destaca-se a necessidade de
entender a incapacidade dos modelos de eliminar a autocorrelação dos resíduos, visto que essa
característica foi percebida anteriormente em outros estudos, como por exemplo Thomaz e
Mattos (2019).
Em continuidade a este estudo, esta metodologia está sendo aplicada aos dados de
demanda de energia elétrica em outras classes consumidoras: comercial e industrial, para em
sequência, ser analisado o desempenho de outra metodologia, proposta por Box-Jenkins
(1996), que faz uso de modelos autoregressivos de médias móveis (ARMA).

REFERÊNCIAS

Baltar, B. P. (2009), “Análise temporal dos preços da commodity cobre usando o Modelo Box e Jenkins”,
Dissertação de Mestrado, PUC-Rio, Rio de Janeiro.
Box, G.E.P.; Jenkins, G.M. (1996), “Time series analysis forecasting and control”, San Francisco: Holden-Day.
Bueno, R. D. L.S. (2011), “Econometria de séries temporais”, 2° ed., Editora Cengage Learning, São Paulo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

47
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cryer, J.D.; Chan, K.(2008), “Time Series Analysis Whit Applicatons in R”, 2° ed., Spring, New York.
Emiliano, P. C. (2009), “Fundamentos e aplicações dos critérios de informação: Akaike e Bayesiano”,
Dissertação de Mestrado, UFLA, Lavras.
EPE, Empresa de Pesquisa Energética. (2017), Nota Técnica DEA 03/15. “Projeção da demanda de energia
elétrica 2015-2024”.
EPE, Empresa de Pesquisa Energética (2020). Dados abertos. Recuperado em 20 de agosto, 2020, de
http://www.epe.gov.br/pt
Gujarati, D.N.; Porter, D.C. (2011), “Econometria Básica”, Editora AMGH, Porto Alegre.
Hassan, H. M., & Mohamed, T. (2019), “Modelling Electricity Demand in Sudan Using Multiplicative Seasonal
ARIMA and HOLT-WINTERS”. Available at SSRN 3321016.
Hyndman, R. J., & Athanasopoulos, G. (2018), “Forecasting: principles and practice”. OTexts.
Jere, S., Banda, A., Kasense, B., Siluyele, I., & Moyo, E. (2019), Forecasting Annual International Tourist
Arrivals in Zambia Using Holt-Winters Exponential Smoothing. Open Journal of Statistics, 9(2), 258-267.
Levenbach, H.(2017), “Change&Chance Embraced”, Editora: David Coen Freelance copy editor.
Morettin, P. A., Toloi, C. M. C.(2018), “Análise de séries temporais”. vol 1, 3ª. ed, Editora Blucher, São Paulo.
Morettin, P. A.(2011), “Econometria financeira”. 2ª. ed., Editora Blucher, São Paulo.
Nunes, G. S. (2019), “O uso dos métodos ARIMA e VAR-REC no estudo da demanda de energia elétrica no Rio
Grande do Sul”, Dissertação de Mestrado, FURG, Rio Grande.
Pontes, L. P. (2018), “Previsão de séries temporais: produção industrial e demanda de energia elétrica
residencial no Brasil”, Tese de Doutorado, UCB, Brasília.
Scheidt, F; Medinová, H; Ludwig, N; Richter, B; Staudt, P; Weinhardt, C. (2020), “Data analytics in the
electricity sector –A quantitative and qualitative literature review”. Energy and AI
Thomaz, R. A. (2017), “Demanda de energia elétrica no Brasil: 1995-2015”, Dissertação de Mestrado, UFPR,
Curitiba.
Thomaz, P. S., Mattos, V. L. D. (2019), “Predicting the GFCF of the Brazilian Construction Industry: A
comparison between Holt Winters and SARIMA models”. Revista Gestão Industrial, vol. 15, 180-196.,
Paraná.

PERFORMANCE ANALYSIS OF HOLT WINTERS MODELS IN THE MODELING


OF ELECTRICITY DEMAND FOR THE STATE OF RIO GRANDE DO SUL

Abstract. Given the need to meet the growing demand for electricity, forecasting the behavior
of demand has become essential for sector planning. This work analyzes monthly electricity
data from January 2004 to December 2019, in the state of Rio Grande do Sul, with the
objective of creating forecast models based on the additive and multiplicative models of Holt
Winters, and determining the best forecasting model among them. The model generated by the
multiplicative method with the second data set was identified as the best prediction model,
although it was unable to eliminate the autocorrelation of the residues.

Keywords: Demand. Electricity. Prediction. Holt Winters. Performance.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

48
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

APROXIMAÇÃO DA SOLUÇÃO DE ONDAS SÍSMICAS (3D) PELO MÉTODO DE


DIFERENÇAS FINITAS

Vinicius T. Jorges1 - vinicius.tj@gmail.com


Marcio Borges2 - mrborges@lncc.br
1 Universidade Federal do Rio de Janeiro - Rio de Janeiro, RJ, Brazil
2 Laboratório Nacional de Computação Cientı́fica - Petrópolis, RJ

Abstract. A inversão de dados sı́smicos tem papel preponderante na descoberta de novos reser-
vatórios de petróleo, bem como, na caracterização das rochas e monitoramento destes reser-
vatórios. A simulação do comportamento das ondas sı́smicas no subsuperfı́cie é parte inte-
grante do processo de inversão de dados em uma abordagem estocástica. Neste sentido, o
objetivo desse trabalho foi estudar e implementar métodos numéricos para a aproximação da
equação da onda em um domı́nio tridimensional heterogêneo.

Keywords: Sı́smica, diferenças finitas, reservatórios de petróleo, inversão de dados

1. INTRODUÇÃO

A geofı́sica desempenha papel crucial na descoberta de novos reservatórios de petróleo e,


ainda hoje, o principal uso de dados sı́smicos é identificar a geometria dos refletores. Isso é
possı́vel porque as ondas sı́smicas são refletidas nas interfaces entre materiais de diferentes pro-
priedades acústicas [Frazer et al., 2008]. Entretanto, recentemente, estudos sı́smicos tem sido
usados para a caracterização das rochas e monitoramento dos reservatórios (sı́smica 4D), pela
transformação de dados de reflexão em propriedades de rochas. Portanto, a inversão de dados
sı́smicos é uma ferramenta essencial na determinação das propriedades elásticas do subsolo.
O problema de inversão de dados geofı́sicos pode ser resolvido de forma determinı́stica ou
estocástica. Devido ao fato dos dados serem incompletos a inversão é um problema tipica-
mente mal posto (não possui solução única) e, portanto, na abordagem determinı́stica alguma
regularização deve ser imposta na função objetivo introduzindo uma “suavização” não realista
na solução. Para quantificar essa ausência de unicidade de solução, métodos estocásticos podem
ser utilizados. Por exemplo, a introdução dinâmica dos dados nos modelos pode ser formal-
izada em termos de métodos Bayesianos e simulações de Monte Carlo via cadeias de Markov
(MCMC - Markov Chain Monte Carlo methods, veja Liu [2001], Robert and Casella [2005]). A
inferência Bayesiana é conveniente na quantificação da informação inserida no modelo a partir
de diversas fontes. Já os métodos MCMC por sua vez, fornecem uma estrutura computacional
para o processo de amostragem necessário à inferência Bayesiana.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

49
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No processo de inversão de dados sı́smicos, utilizando uma abordagem estocástica [Sen and
Biswas, 2017], é imprescindı́vel o uso de um simulador do comportamento das ondas sı́smicas
em subsuperfı́cie. Desta forma, o objetivo principal deste trabalho é o estudo de métodos
numéricos para aproximação da equação da onda em um domı́nio tridimensional heterogêneo.

2. METODOLOGIA

O modelo fı́sico considerado é um meio elástico heterogêneo pelo qual o som é propagado
através de pequenas vibrações elásticas. O modelo matemático para descrever as deformações
em um meio elástico é baseado na segunda lei de Newton:

∂2
ρ ~u = ∇· σ + ρf~, (1)
∂t2
e na lei constitutiva linear (Lei de Hooke) que relaciona o tensor de tensões (σ) e o campo de
deslocamentos (~u):
 
T 2
σ = K∇· ~u I + G ∇~u + (∇~u) − ∇· ~u I , (2)
3
onde, I é o tensor identidade, ρ é massa especı́fica do meio, f~ representa as forças de corpo, K
é o módulo elástico e G o módulo de cisalhamento.
Assumindo que o segundo termo à direita da Lei de Hooke, Eq. (2), representando as
deformações que dão origem as tensões de cisalhamento, e as forças de corpo podem ser negli-
genciados, temos, a partir das Eq. (1) e Eq. (2):
∂2
ρ~u = ∇ (K∇· ~u) . (3)
∂t2
Em seguida, introduzindo a pressão como:
p = −K∇· ~u (4)
e dividindo Eq. (3) por ρ, temos
∂2 1
2
~u = − ∇p. (5)
∂t ρ
Agora, tomando a divergência desta última equação, usando o resultado dado pela Eq. (4) e
adicionando um termo de fonte (ϕ), temos a equação linear da onda
∂2
 
1
p (~x, t) = K∇· ∇p (~x, t) + ϕ (~x, t) . (6)
∂t2 ρ (~x)
Finalmente, assumindo que o gradiente da massa especı́fica (ρ) pode ser negligenciado,
temos que:

∂2
p (~x, t) = c2 (~x) ∇2 p (~x, t) + ϕ (~x, t) , (7)
∂t2
p
onde, c (~x) = K (~x)/ρ (~x) é a velocidade de propagação, K é o módulo elástico e ϕ o termo
de fonte. Em conjunto com a Eq. (7), condições iniciais e de contorno devem ser fornecidas.
Foi implementado e testado um código computacional, escrito em FORTRAN 90, para
aproximar a solução da equação (7), em um domı́nio tridimensional, utilizando o método de
diferenças finitas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

50
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. APROXIMAÇÃO NUMÉRICA

Para aproximar a solução da Eq. (7) foi utilizado o método de diferenças finitas centradas de
segunda e quarta ordens no espaço (ambos de segunda ordem no tempo). O domı́nio temporal
[0, T ] é discretizado por um número N t finito de pontos igualmente espaçados: 0 = t0 < t1 <
· · · < tN t−1 < tN t = T , com ∆t = tn − tn−1 . De forma similar, discretizamos as componentes
espaciais, onde ∆x = xi − xi−1 , ∆y = yj − yj−1 e ∆z = zk − zk−1 . Definindo Pni,j,k como uma
aproximação para p(xi , yj , zk , tn ), onde os ı́ndices i, j, k se referem aos pontos da malha nas
direções x, y, z, respectivamente, enquanto ı́ndice n representa o número do passo de tempo da
simulação. A seguir, apresentamos a aproximação obtida usando o método de segunda ordem:

2
∆t
Pn+1
 n 
= C
i,j,k Pi+1,j,k − 2Pni,j,k + Pni−1,j,k +
 ∆x 2
∆t  n 
C Pi,j+1,k − 2Pni,j,k + Pni,j−1,k +
(8)
 ∆y 2
∆t  n 
C Pi,j,k+1 − 2Pni,j,k + Pni,j,k−1 +
∆z
2Pni,j,k − Pn−1 2
i,j,k − ∆t δ(i, iϕ )δ(j, jϕ )δ(k, kϕ )ϕ
n

 2
2 K(xi , yj , zk )
onde C = ci,j,k = . Os pontos iϕ , jϕ , kϕ indicam a posição da fonte nos nós
ρ(xi , yj , zk )
da malha, portanto, δ(α, αϕ ) = 1 caso α = αϕ e δ(α, αϕ ) = 0, caso contrário, onde α = i, j, k.

4. RESULTADOS E DISCUSSÃO

Nesta seção, apresentamos os resultados numéricos obtidos para 2 experimentos descritos a


seguir.

4.1 Problema 1D
s
K
Considere um material elástico, com velocidade de propagação c = , no domı́nio uni-
ρ
dimensional [L0 , L1 ]. Com base na Eq. (7), o seguinte problema matemático foi utilizado para
os testes:
ptt = c2 pxx + ϕ, (9)
em conjunto com as seguintes condições iniciais e de contorno:

p(x, 0) = f (x), x ∈ [L0 , L1 ]


px (x, 0) = 0, x ∈ [L0 , L1 ]
. (10)
p(L1 , t) = 0, t ∈ (0, T ]
p(L2 , 0) = 0, t ∈ (0, T ]
De forma semelhante ao que foi realizado para a Eq. (8), a solução da Eq. (9), associada
com condições dadas na Eq. (10), foi aproximada utilizando o método de diferenças finitas
centradas. Desconsiderando o termo de fonte e utilizando aproximações de segunda ordem no
tempo e segunda e quarta ordens no espaço, obtemos:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

51
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• Segunda ordem:

Pin+1 = −Pin−1 + 2Pin + Ci2 Pi+1


n

n
− 2Pin + Pi−1 (11)

• Quarta ordem:

Ci2 
Pin+1 = −Pin−1 + 2Pin + n n
− 30Pin + 16Pi+1n n

−Pi−2 + 16Pi−1 − Pi+2 , (12)
12
onde C = c∆t/∆x, L0 = −10, L1 = 10 e f (x) = exp[−(x + 5)2 ].
Para visualizar a reflexão e transmissão das ondas, utilizamos dois valores de velocidade de
propagação:

c1 = 1, L0 6 x 6 0,
c(x) = (13)
c2 = 1/4, 0 < x 6 L1 .

O domı́nio foi discretizado em uma malha de 501 nós e, para garantir estabilidade do método,
1 ∆x
consideramos ∆t = .
2 max{c}
Quando uma onda propagante se depara com uma barreira, ou uma interface entre dois
meios diferentes (mudança de velocidades dada em (13)), podem ocorrer dois fenômenos: re-
flexão e transmissão. As relações entre a onda incidente (Ai) e as ondas transmitida (At) e
refletida (Ar) são dadas por:

Ar At
=R e = T, (14)
Ai Ai
onde R e T são os coeficientes de reflexão e transmissão, respectivamente, determinados por:
Ar c2 − c1
=R=
Ai c1 + c2
e
At 2c2
=T = .
Ai c1 + c2
Aqui, c1 e c2 são as velocidades de propagação da onda nos dois meios. Essas relações foram
usadas para prever o comportamento das ondas e são representadas na Figura 1. Podemos ver
que as soluções aproximadas das ondas comportaram-se segundo as previsões teóricas, ou seja,
as ondas refletida e transmitida alcançaram as alturas dadas pela Eq. (14) e representadas no
gráfico pelas linhas pontilhadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

52
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R

Pressão
Pressão

0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(a) Condição inicial (b) t=0.72
1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R
Pressão

Pressão
0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(c) t=0.80 (d) t=0.88
1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R
Pressão

Pressão

0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(e) t=0.96 (f) t=1.04
1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R
Pressão
Pressão

0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(g) t=1.12 (h) t=1.20

Figure 1- Solução aproximada da pressão em diferentes instantes de tempo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

53
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.2 Problema 3D

Neste experimento numérico, consideramos um domı́nio Ω = [1000m × 1280m × 1000m],


discretizado em uma malha de 251 × 321 × 251 pontos. O domı́nio Ω apresenta quatro camadas
de materiais com diferentes velocidades (Figura 2).

Figure 2- Velocidades das camadas do domı́nio Ω.

Uma fonte sı́smica, descrita matematicamente por


2
ϕ (~x, t) = 1 − 2π (πfc td )2 e−π(πfc td ) ,
 
(15)

foi localizada na posição
√ (x, y, z) = (500m, 1280m, 500m). Aqui fc = fr /3 π é a frequência
de corte, td = t − 2 π/fr e fr a frequência da onda (neste exemplo, fr = 50Hz). Nas fronteiras
do domı́nio foram consideradas condições de contorno absorventes.
A Figura 3 mostra a propagação da onda sı́smica em vários instantes de tempo obtida uti-
lizando o método descrito na Eq. (8). Podemos observar que a onda, ao atingir uma camada
com propriedade diferente, parte dela é refletida e parte é transmitida com velocidade diferente,
conforme esperado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

54
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Condição inicial (b)

(c) (d)

(e) (f)

Figure 3- Pressão em tempos destintos.

5. Conclusões

O método de diferenças finitas (de segunda e quarta ordens) proporcionou uma boa aproxi-
mação da solução da Eq. (7), capturando o comportamento fı́sico esperado para os problemas
estudados. Portanto, temos um simulador que está qualificado para ser usado no processo de
inversão de dados sı́smicos reais.

Acknowledgements

Ao Programa Institucional de Bolsas de Iniciação Cientı́fica e Tecnológica PIBIC/PIBITI


do LNCC.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

55
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

B. Frazer, A. Bruun, K. B. Rasmussen, J. C. Alfaro, A. Cooke, D. Cooke, D. Salter, R. Godfrey,


D. Lowden, S. McHugo, H. Özdemir, S. Pickering, F. G. Anderson Pineda, J. Herwanger,
S. Volterrani, A. Murneddu, A. Rasmussen, and R. Roberts. Seismic inversion: Reading
between the lines. Oilfield Rev, 20(1):42–63, 2008.
J. S. Liu. Monte Carlo Strategies in Scientific Computing. Springer, 2001. ISBN 0387952306.
C. P. Robert and G. Casella. Monte Carlo Statistical Methods (Springer Texts in Statistics).
Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2005.
M. K. Sen and R. Biswas. Transdimensional seismic inversion using the reversible
jump hamiltonian monte carlo algorithm. Geophysics, 82(3):119–134, 2017. doi:
https://doi.org/10.1190/geo2016-0010.1.

APPROXIMATION OF THE SEISMIC WAVE SOLUTION (3D) BY THE FINITE


DIFFERENCE METHOD

Abstract. The inversion of seismic data plays a major role in the discovery of new oil reservoirs
as well as in the characterization of rocks and in the monitoring of these reservoirs. The simula-
tion of the behavior of seismic waves on the subsurface is an integral part of the data inversion
process in a stochastic approach. In this sense, the aim of this work was to study and implement
numerical methods for approximating the wave equation in a heterogeneous three-dimensional
domain.

Keywords: Seismic, finite differences, oil reservoirs, data inversion

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

56
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

An experimental evaluation of an ant colony hyper-heuristic approach for evolving


low-cost heuristics for profile reductions

L. M. Silva1 - liberio@posgrad.ufla.br
S. L. Gonzaga de Oliveira1 - sanderson@ufla.br
1 Universidade Federal de Lavras, Departamento de Ciência da Computação - Lavras, MG, Brazil

Abstract. The profile minimization problem is a well-known N P-hard problem. State-of-the-art


low-cost heuristics for profile reduction rely on graph theory concepts. This paper describes
our experience in implementing an ant colony hyper-heuristic approach that evolves and selects
three low-cost heuristics for the profile reduction of symmetric matrices. Specifically, the hyper-
heuristic algorithm used the principal structure of Sloan’s, MPG, and NSloan heuristics. This
paper evaluates the resulting heuristics for profile reduction from the ant colony hyper-heuristic
approach in two application areas against six low-cost heuristics for solving the problem.
The results obtained on a set of standard benchmark matrices taken from the SuiteSparse
sparse matrix collection indicate that the resulting heuristics from the ant colony hyper-
heuristic approach does not compare favorably with the low-cost heuristics for profile reduction
evaluated.

Keywords: Profile reduction, sparse matrices, ant colony optimization, hyper-heuristic,


reordering algorithms

1. Introduction

The solution of large-scale sparse linear systems Ax = b, where A = [aij ] is an n × n sparse


matrix, x is the unknown n–vector solution and b is a known n–vector, is central in various
application domains in science and engineering, such as 2-D/3-D and thermal problems. The
solution of large-scale sparse linear systems is commonly the step of the simulation that requires
long execution times. A useful graph labeling is desirable for the low-cost solution of large-scale
linear systems by iterative and direct methods [7, 10, 9]. Thus, the corresponding coefficient
matrix A will have a small profile.
Palubeckis [20] identified several other applications for the profile reduction problem. Berry
et al. [2] dealt with the problem in the information retrieval setting for cluster identification.
Higham [11] considered the profile reduction problem in the context of small-world networks.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

57
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Additionally, Mueller et al. [19] used profile reduction techniques in the graph visualization
domain. Bolanos et al. [3] considered the problem to a new approach for computing entropy
rate for undirected graphs. Meijer and de Pol [18] applied heuristics for profile reduction in
symbolic model checking.
Heuristics for profile reduction place nonzero coefficients of a sparse matrix as close to
the main diagonal as possible. Let A = [aij ] be an n × n symmetric adjacency matrix
associated with an undirected graph G = (V, E) composed of a set ofPvertices V and a
n
set of edges E. The profile of matrix A is defined as prof ile(A) = i=1 βi (A), where
βi (A) = i − min [j : aij 6= 0]. Equivalently, the profile of G for a vertex labeling
1≤j≤i
S = {s(v1 ), s(v2P
), . . . , s(v|V | )} (i.e. a bijective mapping from V to the set {1, 2, . . . , |V |})
is prof ile(G) = max [|s(v) − s(u)|]. The profile minimization problem is N P-hard [16].
v∈V {v,u}∈E
Koohestani and Poli [13, 14] proposed a genetic programming hyper-heuristic for profile
reduction. The resulting heuristic from the genetic programming hyper-heuristic uses the
Fiedler vector to yield reasonable profile results. The Fiedler vector is the eigenvector
corresponding to the smallest positive eigenvalue of the Laplacian matrix of graph G = (V, E).
The resulting heuristic from the genetic programming hyper-heuristic is a slow algorithm,
however. For example, the algorithm computed a matrix with a size of 2,680 in more than
one hour [14]. This high computational effort limits the applicability of the algorithm. A slow
algorithm is not desirable, especially in a situation in which the execution time is of critical
importance.
The authors of the present study presented another version of a genetic programming hyper-
heuristic for profile reduction [22]. The resulting heuristics from the genetic programming
hyper-heuristic are fast algorithms. However, an existing heuristic dominated the profile results
of the proposed algorithm [22].
Recently, the authors of the present study showed that the resulting heuristics from an
ant colony hyper-heuristic (ACHH) approach yielded better results than several state-of-the-art
reordering algorithms did [9, 8]. The authors conducted experiments with symmetric positive
definitive matrices to reduce the execution costs of a linear system solver [9]. The same authors
performed experiments with symmetric and nonsymmetric matrices to a similar combinatorial
problem [8]. The ACHH system evolves and selects heuristics for a specific application area.
This paper applies the ACHH approach for evolving and selecting heuristics for the profile
reduction of symmetric matrices. Specifically, this paper evaluates the resulting heuristics for
profile reduction in two application fields against Sloan’s [23], MPG [17], NSloan [15], Sloan-
MGPS [21], and Hu-Scott [12] heuristics.
The remainder of this paper is structured as follows. In Section 3., we introduce the hyper-
heuristic method for profile reduction. In Section 4., we describe how this paper conducted the
tests. In Section 5., the results are discussed. Finally, we address the conclusions in Section 6..

2. Heuristics evaluated

Sloan [23] proposed an important heuristics in this field. The heuristic is inexpensive
(in terms of execution times and storage costs) and generates high-quality solutions. Sloan’s
heuristic [23] uses two weights in its priority scheme in order to label the vertices of the
instance: w1 , associated with the distance d(v, e) from the vertex v to a pseudo-peripheral
(target end) vertex e that belongs to the last level of the level structure rooted at a starting
vertex s, and w2 , associated with the degree of each vertex. The priority function p(v) =

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

58
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

w1 · d(v, e) − w2 · (deg(v) + 1) employed in Sloan’s heuristic [23] presents different scales for
both criteria. The value of deg(v) + 1 ranges from 1 to m + 1 [where m = max[deg(v)] is the
v∈V
maximum degree found in the graph G = (V, E)], and d(v, e) ranges from 0 (when v = e) to
the eccentricity `(e) (of the target end vertex e).
MPG [17], NSloan [15], and Sloan-MGPS [21] are based on Sloan’s heuristic [23].
Specifically, Sloan-MGPS [21] is the Sloan’s heuristic [23] with the starting and target end
vertices provided by an algorithm named modified GPS [21].
MPG [17] employs two max-priority queues: t contains candidate vertices to be labeled, and
q contains vertices belonging to t and also vertices that can be inserted to t. Similarly to Sloan’s
heuristic [23] (and its variations), the current degree of a vertex is the number of adjacencies
to vertices that neither have been labeled nor belong to q. A main loop performs three steps.
First, a vertex v is inserted into q to maximize a specific priority function. Second, the current
degree cdeg(v) of each vertex v ∈ t is observed: the algorithm labels a vertex v if cdeg(v) = 0,
and the algorithm removes from t a vertex v (i.e., t ← t − {v}) if cdeg(v) > 1. Third, if t is
empty, the algorithm inserts into t each vertex u ∈ q with priority pu ≥ pmax (q) − 1 where
pmax (q) returns the maximum priority among the vertices in q. The priority function in MPG is
p(v) = d(v, e) − 2 · cdeg(v).
Kumfert and Pothen [15] normalized the two criteria used in Sloan’s algorithm with the
objective of proposing the Normalized Sloan (NSloan) heuristic [15]. These authors used the
priority function p(v) = w1 · d(v, e) − w2 · bd(s, e)/mc · (deg(v) + 1).
Regarding Sloan’s [23], NSloan [15], and Sloan-MGPS [21] heuristics, this study set the
two weights as described in the original papers. When the original publications recommended
more than one pair of values, a previous publication performed exploratory investigations to
determine the pair of values that obtain the best profile results [6]. Thus, the two weights are
set as w1 = 1 and w2 = 2 for Sloan’s and Sloan-MGPS [21] heuristics, and as w1 = 2 and
w2 = 1 for the NSloan heuristic [15]. Hu-Scott [12] is a multilevel algorithm that uses a
maximal independent vertex set for coarsening the adjacency graph of the matrix and employs
Sloan-MGPS [21] on the coarsest graph.

3. An ant colony hyper-heuristic approach for the profile reduction of symmetric


matrices

This section presents the implementation of an ant colony hyper-heuristic approach for
generating or selecting heuristics for the profile reduction of symmetric matrices [9, 8]. We
followed the main steps of the ant colony metaheuristic [5] to design the ant colony hyper-
heuristic approach for profile reduction.
We established the ACHH approach with the central structure of Sloan’s [23], MPG [17],
and NSloan [15] heuristics. Furthermore, the hyper-heuristic strategy generates random weights
for the priority formula employed in these three heuristics. We implemented the codes in the
C++ programming language.
An individual program in the ACHH system is a set of three components: the base heuristics
used and its two weights (see Section 2.). The initial heuristics are randomly generated, except
for three individual programs, which are precisely the original weights (1 and 2) of Sloan’s,
NSloan, MPG, and NMPG heuristics. The fitness function employed is the sum of the difference
between the original profile and the profile of the labeling produced by the heuristic associated
with the individual program in each matrix used in the learning process. Thus, the objective is

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

59
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

to maximize the fitness value.


We used real symmetric matrices arising from 2-D/3-D and thermal problems contained in
the SuiteSparse matrix collection [4] in the learning process. Table 1 shows the matrices used
in the learning process.

Table 1: Matrices used in the learning process for the ant colony hyper-heuristic.

Problem Matrices and their size


Matrix mario001 wathen120 nd12k aug3dcqp helm3d01
2–D/
n 38,434 36,441 36,000 35,543 32,226
3–D
|E| 204,912 565,761 14,220,946 128,115 428,444
Matrix ted B ted B unscaled
thermal n 10,605 10,605
|E| 144,579 144,579

We executed the ACHH approach with the training sets listed in Table 1 and recorded the
best-of-run individual program for each application domain. As a result of the learning process,
the ACHH approach generated the weights (1 and 2) 0.052322 and 0.66025 (0.666888 and
0.776618) for Sloan’s algorithm to apply the resulting heuristic to matrices originating from
2-D/3-D (thermal) problems.

4. Description of the tests

Hu-Scott [12] is a high-quality heuristic for profile reduction. We used the Hu-Scott (MC73
routine) heuristic contained in HSL [24]. Furthermore, we employed the Fortran programming
language to use these routines. We took the profile results of the heuristic when applied to the
matrices Dubcova3 and BenElechi1 from [1].
This computational experiment used the C++ programming language to implement the other
low-cost heuristics for profile reduction evaluated. The g++ version 5.4.0 compiler was used,
with the optimization flag -O3.
The implementations of the heuristics for profile reductions appraised in this study
employed binary heaps to code the priority queues (although the original Sloan’s algorithm
[23] used a linked list in its implementation). A previous publication [6] presented the testing
and calibration performed to compare the codes with the ones used by the original proposers
of the low-cost heuristics (Sloan’s [23], MPG [17], NSloan [15], and Sloan-MGPS [21]) to
ensure that the codes employed in the present study were comparable to the formerly proposed
algorithms.
The experiments used eight real symmetric matrices taken from the SuiteSparse matrix
collection [4]. The profile reduction depends on the choice of the initial ordering, and this
paper considers the original labeling given in the matrix.
The workstation used in the executions of the simulations featured an Intel R
CoreTM i7-
4770 [CPU 3.40 GHz (3.9 GHz with the max turbo frequency), 8 MB Cache, 8 GB of main
memory DDR3 1.333 GHz] (Intel; Santa Clara, CA, United States). This machine used the
Ubuntu 16.04.4 LTS 64-bit operating system with Linux kernel-version 4.2.0-36-generic.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

60
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. Results and analysis

Tables 2 and 3 show the results of several low-cost heuristics for profile reductions when
applied to eight matrices with sizes ranging from 102,158 to 1,228,045 [up to 13,150,496
nonzero coefficients (|E|)]. The tables show the name, size, and original profile (Profile0 ) of
matrices used in this computational experiment. Also, Tables 2 and 3 show the profile results
and CPU times obtained by Sloan’s [23], MPG [17], NSloan [15], Sloan-MGPS [21], Hu-Scott
[12], GPHH [22], and the resulting heuristics from the ACHH approach when applied to eight
matrices arising from thermal and 2-D/3-D problems, respectively.

Table 2: Profile results delivered by several heuristics when applied to four matrices arising from thermal
problems.

Matrix n |E| Profile0 Heuristic Profile t(s)


thermomech TC 102,158 711,558 Hu-Scott 13,477,995 0.6
GPHH 15,329,403 0.2
2,667,823,445
MPG 15,412,663 0.2
NSloan 15,446,340 0.3
ACHH-Sloan 15,446,340 1.2
Sloan 16,021,130 0.3
Sloan-MGPS 16,109,532 1.5
thermomech TK 102,158 711,558 Hu-Scott 13,372,590 0.4
GPHH 15,329,403 0.2
2,667,823,445

NSloan 15,493,278 0.3


MPG 15,504,258 0.3
Sloan 15,906,569 0.2
ACHH-Sloan 15,916,340 1.6
Sloan-MGPS 16,109,532 1.1
thermomech dM 204,316 1,423,116 Hu-Scott 28,549,159 0.7
10,671,293,780

GPHH 30,811,966 0.4


MPG 30,825,327 0.4
NSloan 30,939,618 0.4
ACHH-Sloan 30,939,618 1.1
Sloan 31,984,980 0.4
Sloan-MGPS 32,276,780 1.2
thermal2 1,228,045 8,580,313 Hu-Scott 577,408,773 3.2
53,657,335,080

MPG 583,834,354 8.0


NSloan 587,246,981 1.6
ACHH-Sloan 587,246,981 1.9
GPHH 587,662,601 17.0
Sloan 593,981,740 1.6
Sloan-MGPS 609,179,419 1.6

Table 2 shows that Hu-Scott dominated the other algorithms when applied to the four
matrices arising from thermal problems. Table 3 shows that this heuristic also delivered the best
profile result when applied to the matrix Dubcova3. The same table shows that MPG provided
the best profile result when applied to the matrix BenElechi1, which is, among the matrices
used in this study, the matrix with the highest number of edges. Table 3 also shows that NSloan

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

61
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 3: Profile results delivered by several heuristics when applied to four matrices arising from 2-D/3-D
problems.

Matrix n |E| Profile0 Heuristic Profile t(s)


Dubcova3 146,689 3,636,643 Hu-Scott 60,600,000 1.4

10,367,243,917
MPG 64,619,423 0.4
NSloan 64,910,306 0.3
Sloan-MGPS 65,670,386 1.0
Sloan 65,193,272 0.3
ACHH-Sloan 234,879,724 0.3
BenElechi1 245,874 13,150,496 MPG 145,959,826 0.9
Sloan-MGPS 14,810,8894 1.2

153,291,019
Sloan 150,344,408 0.7
NSloan 152,615,098 0.7
Hu-Scott 152,700,000 3.7
ACHH-Sloan 193,244,096 0.7
ecology2 999,999 4,995,991 NSloan 526,494,427 1.1
GPHH 667,163,809 1.5
998,998,001

Sloan-MGPS 667,163,817 1.4


Sloan 667,163,920 1.5
MPG 667,163,923 1.5
ACHH-Sloan 921,519,151 1.3
Hu-Scott 924,354,061 2.1
ecology1 1,000,000 4,996,000 NSloan 526,494,436 1.5
Sloan-MGPS 667,163,839 1.4
998,998,013

GPHH 667,165,500 1.5


MPG 667,163,912 1.3
Sloan 667,163,929 1.1
ACHH-Sloan 921,519,208 1.3
Hu-Scott 936,696,940 2.0

returned the best profile results when applied to the matrices ecology2 and ecology1.
Table 2 also shows that the GPHH approach (in three problem cases) and MPG (in one
test problem) yielded the second-best profile results when applied to matrices originating from
thermal problems. MPG also provided the second-best profile result when computed the
matrix Dubcova3 (see Table 3). Sloan-MGPS yielded the second-best results when applied
to two matrices (BenElechi1, ecology1) arising from 2-D/3-D problems. The GPHH approach
delivered the second-best profile result when applied to the matrix ecology2.
Table 2 shows that, in general, the resulting heuristic from the ACHH approach yielded
better profile results than Sloan’s and Sloan-MGPS heuristics when applied to thermal
problems. On the other hand, Table 3 shows that the resulting heuristic from the ACHH
approach delivered unsatisfactory profile results when applied to matrices originating from
2-D/3-D problems. The table shows that the resulting heuristic from the ACHH approach
only returned better profile results than Hu-Scott when applied to the matrices ecology1 and
ecology2. Furthermore, Tables 2 and 3 show that, in general, Hu-Scott, GPHH, MPG, and
NSloan dominated the resulting heuristics from the ACHH system. Thus, we did not use
instances arising from other domain fields in the computational experiment.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

62
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

6. Summary and conclusions

This paper implemented an ant colony hyper-heuristic for profile reduction. The hyper-
heuristic approach employed the principal structure of Sloan’s, MPG, and NSloan heuristics.
Furthermore, the ACHH system evolved heuristics for the profile reduction of symmetric
matrices by specific application domains. We used instances arising from thermal and 2-D/3-D
problems.
This paper compared the heuristics for profile reduction evolved by the ACHH approach
with six low-cost algorithms for this problem. The experiments conducted in this study relied
on eight matrices arising from two application domains. Moreover, the resulting heuristics
generated by the ACHH approach did not compare favorably with existing heuristics for profile
reductions. Specifically, Hu-Scott, MPG, and NSloan yielded better profile results than did the
resulting heuristics from the ACHH algorithm.
We intend to design new hyper-heuristics based on different metaheuristics. A previous
publication reported a description of parallel algorithms in this field [7]. Concerning massively-
parallel SIMD processing, the next step of this work is to evaluate the low-cost heuristics for
profile reductions implemented using parallel libraries (e.g., OpenMP, Galois, and Message
Passing Interface systems) and in GPU-accelerated computing. Similarly, regarding massively
parallel computing, an evaluation of these heuristics for profile reduction implemented within
Intel
R
Math Kernel Library running on Intel R
Xeon R
Many Integrated Core Architecture,
Scalable and Cascade processors is another future step of this investigation.

Acknowledgements

The CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nı́vel Superior (Coordination


for the Improvement of Higher Education Personnel - Brazil) supported this work.

REFERENCES

[1] S. Acer, E. Kayaaslan, and C. Aykanat. A hypergraph partitioning model for profile
minimization. SIAM Journal on Scientific Computing, 41(1):A83–A108, 2019.
[2] M. W. Berry, B. Hendrickson, and P. Raghavan. Sparse matrix reordering schemes
for browsing hypertext. In J. Renegar, M. Shub, and S. Smale, editors, Lectures in
Applied Mathematics. The Mathematics of Numerical Analysis, volume 32, pages 99–123.
American Mathematical Society Press, Park City, Utah, USA, 1996.
[3] M. Bolanos, S. Aviyente, and H. Radha. Graph entropy rate minimization and the
compressibility of undirected binary graphs. In Proceedings of IEEE Statistical Signal
Processing Workshop (SSP), pages 109–112, Ann Arbor, MI, 2012. IEEE.
[4] T. A. Davis and Y. Hu. The University of Florida sparse matrix collection. ACM
Transactions on Mathematical Software, 38(1):1–25, 2011.
[5] M. Dorigo and T. Stützle. The ant colony optimization metaheuristic: Algorithms,
Applications, and Advances. In F. Glover G. A. Kochenberger, editor, Handbook of
Metaheuristics. International Series in Operations Research & Management Science,
volume 57, pages 250–285. Springer, Boston, MA, Jan 2003.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

63
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

[6] S. L. Gonzaga de Oliveira, J. A. B. Bernardes, and G. O. Chagas. An evaluation of low-


cost heuristics for matrix bandwidth and profile reductions. Computational & Applied
Mathematics, 37(1):641–674, 2018.
[7] S. L. Gonzaga de Oliveira, J. A. B. Bernardes, and G. O. Chagas. An evaluation
of reordering algorithms to reduce the computational cost of the incomplete Cholesky-
conjugate gradient method. Computational & Applied Mathematics, 37(3):2965–3004,
2018.
[8] S. L. Gonzaga de Oliveira and L. M. Silva. An ant colony hyperheuristic approach for
matrix bandwidth reduction (to appear), doi: https://doi.org/10.1016/j.asoc.2020.106434.
Applied soft computing, 2002.
[9] S. L. Gonzaga de Oliveira and L. M. Silva. Evolving reordering algorithms using an ant
colony hyperheuristic approach for accelerating the convergence of the ICCG method (to
appear), doi: https://doi.org/10.1007/s00366-019-00801-5. Engineering with Computers,
2019.
[10] S. L. Gonzaga de Oliveira, L. M. Silva, and A. A. A. M. Abreu. Efeitos de permutações
simétricas no tempo de execução de um método direto para resolução de sistemas
de equações lineares esparsos e assimétricos. In LI Simpósio Brasileiro de Pesquisa
Operacional (SBPO), volume 2, page 104518, Limeira, SP, 2019. Sociedade Brasileira
de Pesquisa Operacional.
[11] D. J. Higham. Unravelling small world networks. Journal of Computational and Applied
Mathematics, 158(1):61–74, 2003.
[12] Y. Hu and J. A. Scott. A multilevel algorithm for wavefront reduction. SIAM Journal on
Scientific Computing, 23(4):1352–1375, 2001.
[13] B. Koohestani and R. Poli. Evolving an improved algorithm for envelope reduction using
a hyper-heuristic approach. IEEE Transactions on Evolutionary Computation, 18(4):543–
558, 2014.
[14] B. Koohestani and R. Poli. Addressing the envelope reduction of sparse matrices using
a genetic programming system. Computational Optimization and Applications, 60:789–
814, 2015.
[15] G. Kumfert and A. Pothen. Two improved algorithms for envelope and wavefront
reduction. BIT Numerical Mathematics, 37(3):559–590, September 1997.
[16] Y. X. Lin and J. J. Yuan. Profile minimization problem for matrices and graphs. Acta
Mathematicae Applicatae Sinica, 10(1):107–122, 1994.
[17] S. R. P. Medeiros, P. M. Pimenta, and P. Goldenberg. Algorithm for profile and wavefront
reduction of sparse matrices with a symmetric structure. Engineering Computations,
10(3):257–266, 1993.
[18] J. Meijer and J. van de Pol. Bandwidth and wavefront reduction for static variable ordering
in symbolic model checking. In Proceedings of the 8th International Symposium on NASA
Formal Methods. Lecture Notes in Computer Science book series (LNCS), volume 9690,
pages 255–271, Minneapolis, MN, USA, June 2016. Springer-Verlag New York, Inc.
[19] C. Mueller, B. Martin, and A. Lumsdaine. A comparison of vertex ordering algorithms for
large graph visualization. In Proceedings of the 6th International Asia-Pacific Symposium
on Visualization (APVIS), pages 141–148, Sydney, Australia, 2007.
[20] G. Palubeckis. A variable neighborhood search and simulated annealing hybrid for the
profile minimization problem. Computers and Operations Research, 87:83–97, 2017.
[21] J. K. Reid and J. A. Scott. Ordering symmetric sparse matrices for small profile and

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

64
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

wavefront. International Journal for Numerical Methods in Engineering, 45(12):1737–


1755, 1999.
[22] L. M. Silva and S. L. Gonzaga de Oliveira. An experimental analysis of a gp hyperheuristic
approach for evolving low-cost heuristics for profile reductions (to appear). In SEMISH -
Seminário Integrado de Software e Hardware, 2020, Cuiabá. Anais do SEMISH, 2020.
[23] S. W. Sloan. A Fortran program for profile and wavefront reduction. International Journal
for Numerical Methods in Engineering, 28(11):2651–2679, 1989.
[24] STFC. The Science and Technology Facilities Council. HSL. A collection of Fortran codes
for large scale scientific computation. http://www.hsl.rl.ac.uk, Accessed: June,
2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

65
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CENÁRIO APÓS A VACINAÇÃO DA POPULAÇÃO BRASILEIRA CONTRA A


COVID-19 ATRAVÉS DA MODELAGEM MATEMÁTICA

Elaine Bernine1 - elaineb@lncc.br


Thays Rocha1 - tferreira@lncc.br
Diogo Pereira1 - dpereira@lncc.br
Fábio Borges1 - borges@lncc.br
1 Laboratório Nacional de Computação Científica (LNCC), Petrópolis, RJ, Brasil

Resumo. O estudo e desenvolvimento da fabricação e aplicação da vacinação contra doenças


epidemiológicas tem contribuído para a erradicação de diversas doenças, evitando a dizimação
de milhares de indivíduos. Porém, a vacina contra a COVID-19 ainda está em fase de testagem,
onde são verificadas a existência de efeitos colaterais e o tempo de imunidade da doença,
fator este que impede a aplicação imediata da vacina na população. Este trabalho tem como
objetivo construir e comparar dois modelos matemáticos, sem e com a inserção da vacinação,
a fim de constatar a importância da vacinação da população brasileira. Para a obtenção das
soluções numéricas dos dois modelos, utilizamos o método de Diferenças Finitas, comprovando
a necessidade de investimentos, testagens e campanhas de aplicação da vacina contra a doença,
evitando a infecção de indivíduos, internações, sequelas e o alto índice de mortalidade dos
infectados.

Keywords: COVID-19, Modelo matemático, Vacinação, Erradicação

1. INTRODUÇÃO

As doenças epidemiológicas já dizimaram milhares de pessoas no Brasil, tais como


a Dengue, Sarampo, Febre Amarela, Hanseníase, Tuberculose, Malária, dentre outras.
Decorrentes da existência destas doenças e os seus impactos, tem-se uma grande necessidade de
avanço nos estudos e desenvolvimentos de modelos matemáticos, a fim de conhecer as origens,
obter previsões, período de início da imunidade de rebanho e formas de prevenção e controle
da doença. Com base nestas características em estudo, surgiu o conceito Epidemiologia
Matemática, veja (Bernine et al., 2019).
Hamer (1906), a fim de compreender o comportamento de algumas epidemias, postulou
que o “desenvolvimento de uma epidemiologia depende da taxa de contato entre indivíduos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

66
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que podem contrair a doença e os infectados pela doença", isto é, a propagação de uma doença
epidemiológica depende proporcional ao produto da densidade de indivíduos suscetíveis pela
densidade de indivíduos infectados, conforme Gemaque e Araujo (2011). Segundo Kermack e
Mckendreick (1927), a inserção de indivíduos infectados em uma região só a leva a um surto
caso a densidade de indivíduos suscetíveis desta região esteja abaixo do que um certo valor
crítico. Estes conceitos são fundamentais para a construção de modelagens matemáticas do
processo de transmissão de doenças epidemiológicas.
Os primeiros estudos sobre Epidemiologia Matemática foram desenvolvidos pelo
matemático suíço Daniel Bernoulli no século XVIII. As suas pesquisas visavam determinar um
modelo matemático capaz de avaliar o processo de transmissão da varíola. Todavia, avanços nos
estudos em busca de melhores modelos matemáticos ocorreu apenas um século depois, devido
ao progresso na área da saúde acerca das causas das doenças infecciosas, baseados em (Ramon,
2011).
Vivenciamos no Brasil, assim como em outros diversos países, um momento de calamidade
pública com a epidemia da COVID-19, devido ao aumento no índice de mortalidade e sequelas
nos recuperados da doença. Consequentemente, estão sendo desenvolvidos estudos através
das modelagens matemáticas, a fim de determinar os estágios da contaminação, período de
imunidade, fração da população que deve ser vacinada etc.
Devido à alta taxa de infecção da COVID-19 e sua rápida circulação pelo mundo,
tem-se diariamente uma quantidade elevada de indivíduos infectados, fazendo com que a
população necessite imediatamente do desenvolvimento e aplicação da vacina contra a doença.
Contudo, buscamos desenvolver neste trabalho a construção de dois modelos matemáticos
que visam comparar os resultados de previsões dos cenários sem e com a inserção da
vacinação da população. Contudo, modelos matemáticos sem a inserção da vacinação já foram
desenvolvidos, veja (Franco e Dutra, 2020; Dias et al., 2020; Dias e Araújo, 2020; Ferreira et
al., 2020), reforçando a importância deste trabalho para visualização do cenário brasileiro com
a inserção da vacinação.
Na Seção 2, são apresentadas informações sobre a doença, tais como o contexto histórico,
formas de transmissão e prevenção do vírus, estudos sobre vacinas desenvolvidas e métodos
para o tratamento da COVID-19. A Seção 3 é composta pela construção dos dois modelos
matemáticos (sistema de Equações Diferenciais Ordinárias) do processo de transmissão da
COVID-19 e a discretização destes dois sistemas de Equações, a fim de utilizar o método
de Diferenças Finitas Regressivas para obtenção dos resultados numéricos. Os resultados
numéricos e discussões dos dois modelos são expostas na Seção 4. Posteriormente, na Seção 5,
concluímos o artigo e apresentamos os trabalhos futuros.

2. COVID-19

A COVID-19, originalizado do termo “Corona Virus Disease”, é a doença gerada pelo vírus
SARS-CoV-2 pertencente à família Coronavírus. Sua primeira aparição ocorreu no final do ano
de 2019 em Wuhan, China, e desde então vem despertado interesse de diversos pesquisadores,
principalmente devido sua alta taxa de propagação.

2.1 Transmissão e Prevenção

Um dos pontos preocupantes da doença é sua rápida circulação pelo mundo, já que em
apenas 21 dias após o seu primeiro registro, a epidemia já era considerada pela Organização

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

67
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mundial da Saúde (OMS) como uma emergência internacional, veja (Quintella et al., 2020).
Quanto ao modo de transmissão da COVID-19, é possível analisá-la de forma ampla ou
individual.
Em termos demográficos, de acordo com Platero e Gomes (2020); Netto et al. (2020), essa
transmissão está voltada para a realidade de cada região em que o infectado se encontra podendo
ocorrer de forma importada, local e comunitária, isto é, quando um infectado se encontra em
uma região que não havia registro da doença antes, quando se consegue fazer o rastreio de
pessoas infectadas e as quais ela teve contato e quando este rastreio já não é mais possível,
respectivamente.
Já em termos de transmissão individual, temos que ela pode ocorrer de forma direta através
da fala, tosses ou espirros, devido as gotículas de salivas expelidas por pessoas contaminadas
ou indireta por meio do contato com objetos ou superfícies que foram contaminadas por estas
gotículas.
Inicialmente, a doença teve tamanha dispersão devido os primeiros indivíduos infectados
serem assintomáticos, ou seja, não desenvolveram sintomas. Uma pessoa infectada pode
transmitir o vírus por até 14 dias após se contaminar, sendo mais contagioso nos primeiros
dias, como afirma Netto et al. (2020).
Após a declaração de emergência internacional emitida pela OMS, alguns países declararam
quarentena, a fim de tentar controlar a circulação do vírus pelo país, já que limitaram as
atividades não-essenciais. Algumas localidades aderiram também ao Lockdown, sendo está uma
forma mais rígida da quarentena. Porém, a OMS recomendou o distanciamento físico entre as
pessoas, até mesmo nas atividades essenciais, e o isolamento para pessoas que desenvolveram
alguns sintomas, pessoas que vieram de lugares com altos índices de contágio ou que tiveram
contato com algum indivíduo infectado.
A OMS também recomenda, para prevenção individual, lavar as mãos regularmente com
água e sabão por, no mínimo 20 segundos, certificando-se que toda a área da mão foi lavada
de forma correta: das pontas dos dedos até o punho, incluindo entre os dedos. Caso não possa
lavar as mãos regularmente, o uso do álcool em gel 70% se faz recomendado; usar máscara
ao sair de casa, onde a mesma não deve ser compartilhada e sim de uso individual; evitar
locais lotados e manter um distanciamento físico de 1 metro; proteger nariz e boca ao tossir
ou espirrar; evitar tocar olhos, nariz e boca; não compartilhar objetivos de uso pessoal, como
copos, talheres e toalhas; desinfetar objetos e lugares de contato frequente e manter ambientes
limpos e ventilados.

2.2 Vacina e Tratamento

Até o presente momento, não há vacina ou medicação para prevenir ou tratar a COVID-19,
apesar de ter várias pesquisas em andamento, como garante a OMS. De acordo com Milken
Institute (MI) 1 , até o dia 27 de agosto de 2020, há 316 possíveis tratamentos e 203 candidatas
a vacinas, que estão sendo estudadas e testadas contra a COVID-19 a nível global.
A OMS lançou um ensaio clínico internacional intitulado de “Solidarity" 2 , com o objetivo
de auxiliar na descoberta de ferramentas para tratamentos eficazes contra a COVID-19 e seus
efeitos.

1
Disponível em: https://covid-19tracker.milkeninstitute.org, Acesso em 27 de agosto de 2020.
2
Disponível em: https://www.who.int/emergencies/diseases/novel-coronavirus-2019/global-research-on-
novel-coronavirus-2019-ncov/solidarity-clinical-trial-for-covid-19-treatments, Acesso em: 27 de agosto de 2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

68
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As vacinas que estão sendo desenvolvidas são divididas nas seguintes categorias: Vírus
Inativo, composto pelo vírus inteiros não-vivos ou pedaços dele, suficiente para não multiplicar
e gerar imunidade contra; Vírus Atenuado Vivo, composto por vírus enfraquecido vivo, busca
resposta imunológica mais forte; Subunidade de Proteína, composto por fragmento do vírus,
busca desencadear uma resposta imunológica e estimular a imunidade; Baseado no DNA,
induzem uma variedade de tipos de resposta imunológica através da introdução do material
genético viral (DNA); Baseado no RNA, fornecem imunidade por meio da introdução do
material genético (RNA); Replicando o Vetor Viral, tem o intuito de produz cópias da proteína
viral, que desencadeia uma resposta imune; Vetor Viral Não-replicante, é semelhante a anterior,
porém o vírus é não replicante; Partículas Semelhantes a Vírus, se assemelham a vírus, mas
não são infecciosas; outras vacinas, onde sua característica ou detalhamento não se encaixa
com as já citadas. Na Figura 1(b) é apresentada a quantidade de vacinas contra a COVID-19,
referentes a cada categoria descrita anteriormente.
Das candidatas a vacina, se destacam devido ao nível de desenvolvimento mais avançado
as seguintes, de forma decrescente: Universidade de Oxford - AstraZeneca, Sinovac - Instituto
Butantan, Instituto Wuhan - Sinopharm, Instituto Beijing - Sinopharm, Moderna, BioNTech
- Fosun - Pfizer, CanSino Biologics, Instituto de Biologia Médica, Anhui Zhifei Longcom e
Novavax. Na Figura 1(a), é apresentada a divisão das principais candidatas a vacina contra a
COVID-19, separadas
Vacinas mais avançadaspor
paracategoria.
COVID-19 Vacinas mais avançadas para COVID-19

19 14
2 4
Vírus inativo
15
Vírus Atenuado Vivo
Subunidade de proteína
4 Vírus inativo
Baseado no DNA
Subunidade de proteína 24
66 Baseado no RNA
Baseado no RNA
Replicando o Vetor Viral
2 Vetor viral não-replicante
Vetor viral não-replicante
18
Partículas Semelhantes a Vírus
Outras vacinas
27 16
2

(a) Vacinas contra a COVID-19 mais avançadas. (b) Vacinas contra a COVID-19, separadas por
categorias.

Figura 1- Vacinas contra a COVID-19.

3. MODELAGEM MATEMÁTICA E COMPUTACIONAL

A fim de obter os dois modelos matemáticos que representem o processo de transmissão da


COVID-19, dividimos a população em quatro classes compartimentais que informam a situação
de cada indivíduo com relação a doença, sendo elas

1. Suscetível (S): constituída pelos indivíduos sadios que estão sujeitos a serem
contaminados pelo vírus da doença;

2. Infectado (I): formada pelos indivíduos que se contaminaram com a doença e estão aptos
a transmitir o vírus a outros indivíduos;

3. Recuperado (R): composta pelos indivíduos que se recuperaram da doença e contraíram


imunidade temporária a ela;

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

69
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. Vacinado (V ): integrado por todos os indivíduos que se vacinaram contra a doença e


obtiveram imunidade ou temporária ou permanente a doença.
Denotaremos por N a quantidade total de indivíduos da população brasileira, onde está varia
com o tempo t, visto que, a quantidade de indivíduos que nascem é diferente da quantidade dos
que morrem. Dado que um indivíduo pode permanecer em apenas uma classe compartimental
no tempo t, tem-se
N (t) = S(t) + I(t) + R(t) + V (t).
Decorrente do curto tempo de surgimento da COVID-19, diversos estudos, experimentos,
medicamentos e vacinas ainda estão em desenvolvimento. Contudo, a ocorrência de re-
contaminação pela doença tem alarmado ainda mais a população brasileira que acreditava-se
estar perto de obter a imunidade de rebanho. Portanto, é de extrema necessidade a fabricação e
aplicação da vacina na população, a fim de evitar maiores sequelas e perdas de indivíduos, visto
que, o tempo de imunidade da vacina acredita-se ser superior a dois anos.
Para o desenvolvimento deste trabalho, utilizaremos parâmetros, tais como,
• α: representa a taxa de natalidade da população brasileira;
• β: simboliza a taxa de mortalidade da população brasileira nas classes Suscetível,
Recuperado e Vacinado;
• µ: corresponde a taxa de mortalidade da população brasileira na classe Infectado;
• σ: denota a taxa com que os indivíduos suscetíveis entram em contato com os indivíduos
infectados;
• γ: representa a taxa de recuperação da população de brasileira da doença;
• λ: simboliza a taxa com que os indivíduos são vacinados;
• ε: corresponde a taxa com que os indivíduos perdem a imunidade e passam da classe
Recuperado para a Suscetível.
Durante a modelagem, consideramos mortes de indivíduos nas quatro classes
compartimentais, sendo a taxa de mortalidade da classe Infectado maior do que a taxa das
demais classes, que possuem o mesmo valor, e consideramos apenas nascimento de indivíduos
na classe Suscetível. Consideramos também que a imunidade temporária é adquirida após o
indivíduo se recuperar da doença ou ao ser vacinado. As Figuras 2 e 3 apesentam os diagramas
dos processos de transmissão do vírus da COVID-19 sem e com a inserção da vacinação na
população, respectivamente.

αS(t)

S(t) I(t) R(t)

βS(t) µI(t) βR(t)

Figura 2- Processo de transmissão da COVID-19 com três classes compartimentais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

70
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

αS(t)

V (t) S(t) I(t) R(t)

βV (t) βS(t) µI(t) βR(t)

Figura 3- Processo de transmissão da COVID-19 com quatro classes compartimentais e com a inserção
da vacinação.

Para as duas modelagens, a transmissão do vírus da doença na população tem início


assim que os indivíduos da classe Infectado entram em contato com os da classe Suscetível.
Posteriormente, os indivíduos infectados passam a pertencer a classe Infectado, em média por
três a quatro semanas até se recuperarem. Assim que os indivíduos se recuperam da doença,
estes passam a possuir imunidade temporária ao vírus da doença, podendo variar de indivíduo
para indivíduo. Contudo, quando os indivíduos da classe Recuperado perdem a imunidade, eles
retornam para a classe Suscetível. No segundo modelo, temos a que a vacinação da população
pode ocorrer enquanto os indivíduos são ou membros da classe Suscetível ou Recuperado.
Matematicamente, para a modelagem sem a inserção da vacinação, a taxa de variação
temporal da classe Suscetível é expressa pelo ganho dos indivíduos que nascem no Brasil,
αS(t), e dos indivíduos da classe Recuperado que deixaram de possuir imunidade a doença,
εR(t), e pela perda dos indivíduos que morrem nesta classe, βS(t), e dos que se infectaram,
σS(t)I(t); a taxa de variação temporal da classe Infectado é dada pelo ganho dos indivíduos
infectados, σS(t)I(t), e pela perda dos indivíduos que se recuperaram, γI(t), e dos que
morreram por conta da doença, µI(t); a taxa de variação temporal da classe Recuperado é
representada pelo ganho dos indivíduos infectados que se recuperaram, γI(t), e pela perda dos
indivíduos que deixaram de possuir imunidade, εR(t), e dos indivíduos que morreram nesta
classe, βR(t). Contudo, para o modelo com a inserção da vacinação, a taxa de variação temporal
da classe Suscetível também tem a perda dos indivíduos que receberam a vacina, λS(t); a
taxa de variação temporal da classe Recuperado perde também os indivíduos recuperados que
receberam a vacina, λR(t); já a taxa de variação temporal da classe Vacinado é expressa pelo
ganho dos indivíduos vacinados da classe Suscetível e Recuperado, λ(S(t)+R(t)), e pela perda
dos indivíduos mortos nesta classe, βV (t).
Desta forma, representamos o processo de transmissão da COVID-19 na população, sem e
com a inserção da vacinação, pelos sistemas de EDOs 1 e 2, respectivamente.
 dS(t)

 dt
= αS(t) + εR(t) − σS(t)I(t) − βS(t);
 dI(t) = σS(t)I(t) − γI(t) − µI(t);

dt
dR(t) (1)


 dt
= γI(t) − εR(t) − βR(t),

S(0) = S0 ; I(0) = I0 ; R(0) = R0 .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

71
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO


dS(t)

 dt
= αS(t) + εR(t) − σS(t)I(t) − λS(t) − βS(t);
 dI(t)
 dt = σS(t)I(t) − γI(t) − µI(t);



dR(t)
dt
= γI(t) − λR(t) − εR(t) − βR(t); (2)
dV (t)

 dt = λ(S(t) + R(t)) − βV (t),




S(0) = S ; I(0) = I ; R(0) = R ; V (0) = V ,
0 0 0 0

sendo α, β, µ, σ, γ, λ, ε, S0 , I0 , R0 e V0 parâmetros dados e T é o tempo final, também dado.

3.1 Discretização Numérica

Dadas u : (I = [0, T ]) → R n vezes derivável em todo o intervalo [0, T ]. A discretização


do intervalo [0, T ] é dada pela divisão deste em m subintervalos igualmente espaçados, onde
T
∆t = . Desta forma, t0 = 0, t1 = ∆t, t2 = 2∆t, · · · , tm = m∆t = T. Segue daí,
m
[0, T ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ · · · ∪ [tm−1 , tm ] .

Neste trabalho, é utilizado o método de Diferenças Finitas Regressivas para aproximar


as derivadas de primeira ordem das funções S, I, R e V , visto que, este método é
incondicionalmente estável, veja (Richard et al., 2015). Além disso, considera-se que todas
as funções são de classe C 1 em [0, T ]. Desta forma, as funções S, I, R e V são denotadas
conforme

Si ≈ S(ti ), Ii ≈ I(ti ), Ri ≈ R(ti ) e Vi ≈ V (ti ), comi = 0, 1, · · · , m.

Assim, a discretização do sistema de equações diferenciais ordinárias que representa a


transmissão da COVID-19 sem e com a inserção da vacinação, dados pelas Equações ((1)) e
(2), são expressos pelos sistemas (3) e (4), respectivamente.

(1 − α∆t + β∆t)Si − (1 − σIi−1 ∆t)Si−1 = εRi−1 ∆t;

(1 + γ∆t + µ∆t)Ii − (1 + σSi−1 ∆t)Ii−1 = 0; (3)

(1 + β∆t)Ri − (1 − ε∆t)Ri−1 = γIi ∆t.



 (1 − α∆t + λ∆t + β∆t)Si − (1 − σIi−1 ∆t)Si−1 = εRi−1 ∆t;

(1 + γ∆t + µ∆t)I − (1 + σS ∆t)I = 0;
i i−1 i−1
(4)


 (1 + λ∆t + β∆t)R i − (1 − ε∆t)Ri−1 = γIi ∆t;
(1 + β∆t)Vi − Vi−1 = λ∆t(Si + Ri ).

As condições iniciais e as constantes dos dois modelos são as mesmas, e foram construídos
com base nos dados publicados pelo Ministério da Saúde do Brasil (https://covid.saude.gov.br/)
até o dia 28 de agosto de 2020. Os parâmetros são dados pela Tabela 1 e as condições iniciais
são:

V (0) = 0, R(0) = 2947250, I(0) = 858376 e S(0) = 205721209.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

72
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Valores dos parâmetros utilizados na simulação do modelo proposto, em dia−1 , baseados nos
dados divulgados pelo Ministério da Saúde do Brasil.

Parâmetros Valor considerado na simulação

α 2890000
205721209·365
= 38488050 × 10−12
β 1279948
205721209·365
= 17045917 × 10−12
µ 119633
(I0 +R0 )·184
= 170846 × 10−9
R0
γ (I0 +R0 )·184
= 4208943 × 10−9
(I0 +R0 )
σ S0 ·I0 ·184
= 1171255 × 10−16
3/(σ·I0 ·184)
ε R0
= 5502466 × 10−12
λ 400000
S0 +R0
= 1916916 × 10−9
T 800

No modelo matemático com a inserção da vacinação a taxa de vacinação foi construída a


fim de vacinar, no primeiro dia de campanha, um total de 400 mil indivíduos.

4. RESULTADOS E DISCUSSÕES

Nesta seção, são exibidos os resultados numéricos dos dois modelos matemáticos descritos
nos sistemas de equações (1) e (2), modelos sem e com a vacinação, respectivamente.
Para as resoluções numéricas utilizamos o método de Diferenças Finitas Regressivas e 200
subintervalos. Buscamos prever a quantidade máxima de indivíduos infectados em cada um
dos dois modelos matemáticos e identificar qual o melhor cenário do processo de transmissão
da COVID-19 na população brasileira. As Figuras 4(a) e 4(b) representam o processo de
transmissão da COVID-19 na população brasileira sem e com a inserção da vacinação.

2.5e+08 2.5e+08

2e+08 2e+08
Numero de pessoas

Numero de pessoas

1.5e+08 1.5e+08
N
N
S
S
I
I
R
R
V
1e+08 1e+08

5e+07 5e+07

0 0
0 200 400 600 800 0 200 400 600 800
tempo (dias) tempo (dias)

(a) Sem a vacinação. (b) Com a vacinação.

Figura 4- Solução numérica do processo de transmissão da COVID-19 na população brasileira.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

73
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Figura 4(a) constatamos um período de crescimento, estabilidade e queda entre os dias


de 1 a 350, 351 a 400 e de 401 a 800 respectivamente. Já na Figura 4(b), estes períodos ocorrem
entre os dias 1 a 300, 301 a 500 e de 501 a 800, respectivamente. É observado também, que a
quantidade de indivíduo da população total (cor amarela) tem uma queda maior no modelo sem
a inserção da vacinação, isto é, a taxa de mortalidade da população total é maior do que a do
modelo com a inserção da vacinação.
Nas duas figuras vemos o crescimento da quantidade de infectados (cor vermelha). Contudo,
a quantidade de infectados no modelo matemático com a inserção da vacinação é menor do que
a metade da quantidade de infectados no modelo matemático sem a inserção da vacinação, a
saber, aproximadamente 40 milhões e 110 milhões, respectivamente. Portanto, é nítido que a
inserção da vacinação na população é de extrema importância devido ao alto índice de sequelas
e mortalidade dos indivíduos infectados.
A quantidade de indivíduos da classe Recuperado (cor azul) depende do número de
indivíduo da classe Infectado, vemos na Figura 4(b) que estas duas classes não ultrapassam
40 milhões de indivíduos, quantidade muito menor do ocorrido na Figura 4(a). Contudo, a
quantidade de indivíduos da classe Suscetível (cor verde) decai muito mais rápido no modelo
com a inserção da vacinação do que no modelo sem. Porém, após o tempo de 400 dias, no
modelo com a vacinação tem-se uma quantidade maior na classe Suscetível, decorrente da baixa
quantidade de indivíduos infectados, da perda de imunidade dos indivíduos recuperados e do
total de indivíduos infectados somados os recuperados e vacinados serem menores do que esta
mesma quantidade no modelo sem a inserção da vacinação.

5. CONCLUSÃO

Decorrente das análises dos resultados numéricos, obtidos dos dois modelos matemáticos
apresentados neste trabalho, concluímos a importância de investimentos no desenvolvimento,
fabricação e campanhas de aplicação da vacina, visto que, a quantidade de infectados no modelo
matemático sem a inserção da vacinação na população é mais que o dobro comparado a esta
quantidade no modelo com a inserção da vacinação. Também mostramos o progresso de
transmissão da doença, em ambos os casos, enfatizando a importância dos métodos de controle
e prevenção da doença, principalmente enquanto não temos a ocorrência de campanhas de
vacinação contra a COVID-19.
Como trabalhos futuros, pretendemos continuar os estudos acerca dos dados dos indivíduos
infectados, recuperados, com e sem sequelas, e os mortos pela doença, a fim de aprimorar
os modelos expostos neste trabalho e ampliar para o cenário mundial. Também serão
desenvolvidos modelos epidemiológicos com a aplicação do método de Criptografia Totalmente
Homomórfica (FHE), visando a integridade dos dados acerca da doença.

REFERÊNCIAS

Bernine, E., Vignatti, A. e Santos, P. I., (2019), “Um Estudo do Processo de Transmissão da
Dengue Através da Modelagem Matemática”, XXII ENMC – Encontro Nacional de Modelagem
Computacional e X ECTM – Encontro de Ciências e Tecnologia de Materiais, Juiz de Fora, MG.
Dias, G. M. S. e Araújo, L. H. C., (2020), Modelagem Matemática para Epidemia de COVID-19 e
Estimativa de Casos no Brasil no Curto Prazo, Instituto Militar de Engenharia, Seção de Ensino de
Engenharia de Computação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

74
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dias, Neylan Leal et al., (2020), Predição da propagação do SARS-CoV-2 no Estado do Amapá,
Amazônia, Brasil, por modelagem matemática, Revista Científica Multidisciplinar Núcleo do
Conhecimento.
Ferreira, T. R. N., Bernine, E., Santos, D. P. S., Borges, F. (2020). "Processo de Transmissão da
COVID-19 na população Brasileira”,I ERMAC MS - Encontro Regional de Matemática Aplicada e
Computacional de Mato Grosso do Sul, Mato Grosso do Sul, MS.
Franco, C. M. R. e Dutra, R. F., (2020), Modelos Matemáticos em Epidemiologia e Aplicação na
Evolução da COVID-19 no Brasil e no Estado da Paraíba, Educação, Ciência e Saúde, v. 7, n.
1.
Gemaque, A. O. e Araujo, P. M., (2011), Modelo Matemático de Transmissão da Dengue, Universidade
Federal do Amapá, Macapá, AP.
Hamer, W. H., (1906), Epidemic disease in England: the evidence of variability and of persistency of
type, Bedford Press.
Kermack, W. O. e Mckendreick, A. G., (1927), A contribution to the mathematical theory of epidemics,
Proceedings of the royal society of london. Series A, Containing papers of a mathematical and
physical character, v. 115, n.772, p. 700-721.
Netto, F., et al., (2020), “SARS-COV-2 e a COVID-19: O vírus, seus aspectos patológicos
e suas manifestações respiratórias e extrapulmonares", Universidade Estadual de Ponta
Grossa e Governos do Estado do Paraná, Disponível em: https://www2.uepg.br//proex/wp-
content/uploads/sites/8/2020/07/Aspectos-patológicos06-07.pdf, Acesso em: 11 de agosto de 2020.
Platero, K. e Gomes, F. (2020), “Números estatísticos e realidades: Uma proposta de reflexão sobre
a pandemia de Covid-19 no Brasil", DILEMAS: Revista de Estudos de Conflito e Controle Social-
Reflexões na Pandemia, p. 1-11.
Quintella, C. M., da Mata, A. M. T., Ghesti, G. F., e Tavares, P. M. D. A. L., (2020), “Vacinas para
Coronavírus (COVID-19; SARS-COV-2): mapeamento preliminar de artigos, patentes, testes clínicos
e mercado", Cadernos de Prospecção, v. 13, n. 1, p. 3.
Ramon, R., (2011), “Modelagem Matemática Aplicada a Epidemiologia”, Universidade Federal de
Santa Catarina (UFSC), Chapecó, SC.
Richard, L., Burden, J., Faires, D. e Burden, A., (2015), “Análise Numérica", 3a ed., Cengage Learning,
São Paulo.

SCENARIO AFTER VACCINATION OF THE BRAZILIAN POPULATION AGAINST


COVID-19 THROUGH MATHEMATICAL MODELING

Abstract. The study and development of the application of vaccination against epidemiological
diseases has contributed to the eradication of several diseases and has prevented the decimation
of thousands of individuals. However, the vaccine against COVID-19 is still in the testing phase,
where the existence of effects and the immunity time of the disease are verified, a factor that
prevents the immediate application of the vaccine in the population. This work aims to present
the scenario after the insertion of vaccination in the Brazilian population, being constructed
and compared two mathematical models, without and with the insertion of vaccination. To
obtain the numerical solutions of the two models, we used the Finite Differences method,
realizing the importance of investments, tests and campaigns to apply the vaccine against the
disease in the population, avoiding the infection of individuals with the diseases, and sequelae
and mortality of those infected.

Keywords: COVID-19, Mathematical model, Vaccination, Eradication

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

75
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

NUMERICAL ANALYSIS COMPARING PERFORMANCE PARAMETERS OF


HORIZONTAL AND VERTICAL SHAPES OF EARTH-AIR HEAT EXCHANGERS

Igor Silva Vaz1 – igorsilvaz@furg.br


Joaquim Vaz1 – joaquimvaz@furg.br
Lucas Costa Victoria1 – lucasvitoria@furg.br
1
School of Engineering, Federal University of Rio Grande – FURG, Itália Ave., km 8, Rio Grande –
Brazil.

Luiz Alberto Oliveira Rocha2 – luizor@unisinos.br


2
Graduate Program in Mechanical Engineering, University of Vale do Rio Sinos, Unisinos Ave., 950,
São Leopoldo – Brazil.

Vinicius de Freitas Hermes3 – vini.hermes@gmail.com


Elizaldo Domingues dos Santos3 – elizaldosantos@furg.br
Michel Kepes Rodrigues3 – michelkrodrigues@gmail.com
Liércio André Isoldi3 – liercioisoldi@furg.br
3
Graduate Program in Ocean Engineering (PPGEO), School of Engineering, Federal University of Rio
Grande – FURG, Itália Ave., km 8, Rio Grande – Brazil.

Abstract. Earth-Air Heat Exchanger (EAHE) is an equipment employed to energy saving.


These devices are constituted by ducts buried in the ground, in which the ambient air is
forced to pass through. Taking advantage of the temperature gradient among the surface and
layers of the soil with the ambient air, the EAHE outlet air temperature tends to be milder. In
the present work, analytical solutions and computational modeling were combined to evaluate
operating parameters of three different geometric configurations of EAHE: Conventional
Horizontal (adopted as reference), Horizontal T-shaped (with one inlet and two outlets), and
Vertical 3U-shaped (operating in series). The operating conditions were evaluated for a city
in the south of Brazil named Rio Grande, in which the soil is composed by sand and saturated
sand. The comparison parameters were the occupied soil volume, head loss and thermal
potential. It was observed a concordance of the thermal potentials in the simulated devices,
and significant differences for the other parameters. For instance, the soil volume demanded
by the Vertical EAHE was 60 % less than the Horizontal disposal. However, the T-shaped
EAHE present greater similarity with the reference installation, and enables the air
conditioning of two environments at the same time.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

76
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Keywords: Earth-Air Heat Exchanger (EAHE), Thermal analysis, Computational modeling,


Vertical EAHE, T-shaped EAHE.

1. INTRODUCTION

The dependence on fossil fuels generates several negative environmental effects, for this
reason it has become even more concerning the current global increase of energy demand.
Hence, it is necessary to improve energy use methods, mainly from renewable and universal
sources (Lee et al., 2010). An indispensable action is to make engineering projects feasible,
which consume as little electricity as possible, meeting the resulting social, economic and
environmental demands. Among the renewable energy sources are the wind, solar,
geothermal, hydroelectric and biomass (Bordoloi et al., 2018; Wu et al., 2010).
The sun is an inexhaustible source of heat and light, and part of that energy is absorbed
by the surface of the soil. This temperature gradient between the topsoil and the ambient air
enables the ground to store the energy during hot days, and deliver it to the environment on
cold days (Ramadan, 2016; Vaz et al., 2011). Earth-Air Heat Exchangers (EAHE) are systems
that operate based on this principle to assist in the thermal comfort of buildings. The
functioning of these devices is extremely simple and does not change according to the
geometry of the ducts. An air-flow is imposed in the inlet of the duct, which is buried in the
ground, and the temperature increases or decreases (Hermes et al., 2020).
In numerical analysis, the Computational Fluid Dynamics (CFD) area allows the analysis
of behavior in systems that involve fluid flow and heat transfer (Çengel & Cimbala, 2014;
Versteeg and Malalasekera, 2007). Among the commercial CFD packages, the ANSYS Fluent
has been used to numerically simulate and investigate the operational principle of EAHE in
several works found in the literature (e.g. Vaz et al., 2011; Brum et al., 2012; Lee et al., 2010;
Ramadan, 2016; Rodrigues et al., 2019). The Fluent software is based on the Finite Volume
Method (FVM), being this a discretization technique responsible to represent partial
differential equations in the form of algebraic equations (Versteeg & Malalasekera, 2007).
Regarding the EAHE installation, physical space issues are related to ducts arranged
mainly in horizontal (such as the Horizontal and T-shaped EAHEs). In addition, the assembly
of these ducts below buildings is restricted to projects under construction. Also, the
maintenance and the necessary excavations imply high costs (Patel & Ramana, 2016; Wu et
al., 2012). Moreover, soil properties at the installation site must be evaluated, since in places
with saturated soil the water table compromises deeper digging to install the horizontal
EAHEs (Liu et al., 2020).
Due to these problems, an alternative is the adoption of a Vertical EAHE, considering
that this equipment demands minimum space (Patel & Ramana, 2016). Also, it is possible to
employ manual tools to perform the drilling required for placing the ducts under the ground.
The gasoline drill and the hand auger are used for shallow perforations, and for the deeper
ones, the rotary and percussion drilling machines (Brito, 1999; Gunaratne & Manjriker,
2014).
Therefore, the present study aims to computationally model and evaluate performance
parameters of a Horizontal T-shaped EAHE (one inlet and two outlets), Vertical 3U-shaped
EAHE (three U-tube operating in series, with one inlet and one outlet), and compare their
results with the Conventional Horizontal EAHE (a straight duct, with one inlet and one
outlet). The required soil volume for installation, head loss of airflow, and thermal potential
were considered. As a case of study two cities placed in the state of Rio Grande do Sul, in the
south of Brazil, were considered: Viamão and Rio Grande. However, the city of Viamão was

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

77
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

used only to validate the computational model with experimental data from Vaz et al. (2011).
Highlighting that all numerical simulations were performed through the Fluent software.

2. MATERIAL AND METHODS

2.1 Soil and air thermo-physical properties

Standard Penetration Tests (SPT) provide information related to the soil, such as the size
of its layers, types, and also the water table depth. This current study used data provided by
SPT bulletins demonstrated in Vaz et al. (2011), and Hermes et al. (2020), which present
information about the soil in Viamão and Rio Grande, respectively. In Viamão the soil has
clayey characteristics (Vaz et al., 2011; Brum et al., 2013). In other hand for Rio Grande,
more specifically in the local of the Federal University of Rio Grande - FURG it has saturated
and sandy characteristics.
Figure 1 illustrates the geotechnical profiles of both cities, to a depth of 15 m along with
the properties of each layer. States such as density (ρ), thermal conductivity (k), and specific
heat (cp) were assumed as isotropic and homogeneous, as in Vaz et al. (2011) and Hermes et
al. (2020).

Figure 1- Geotechnical profiles of Viamão and Rio Grande (FURG).

In its turn, the air thermo-physical properties were assumed as constant values and in
agreement with Brum et al. (2013); Lee et al. (2010) and Vaz et al. (2011). Being: ρ = 1.16
kg/m³; cp = 1010 J/kg.K; k = 0.0242 W/m.K; and ν, which is the absolute viscosity,
equivalent to 1.7894×10-5 kg/m·s.

2.2 Computational Modeling

Using the software Solid Edge, parallelepipeds that represent the soil were drawn. The
dimensions of these blocks varied according to the type of EAHE to be simulated (Fig. 2). As
presented by Rodrigues et al. (2015a), a distance of 2.0 m (in plan) must be maintained
between the ducts and the walls of the computational domain. This is done to avoid
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

78
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

interference in the results caused by boundary conditions in the walls. In addition, the size and
diameter of the ducts were based on the total length of Vertical 3U-shaped EAHE operating in
series as presented in Vaz et al. (2020). Thus, the Conventional Horizontal and T-shaped
EAHE were built with a total dimension of 18.0 m each, and diameter d = 0.05 m.

Figure 2- Computational domains (with dimensions in m) representing the


Conventional Horizontal EAHE (a), Horizontal T-shaped EAHE (b), and the Vertical 3U-
shaped EAHE (c).

Concerning the soil height of 15 m adopted for the computational domains, this is a
recommendation of Vaz et al. (2011) and also used in other works (such as Brum et al., 2012;
Rodrigues et al., 2019; Hermes et al.; 2020).
Regarding the Conventional Horizontal and the Horizontal T-shaped EAHE simulations,
those were considered buried at a depth equivalent to 2.0 m, which provides the best results as
presented in Hermes et al. (2020) for the city of Rio Grande. It is important to highlight that
for the T-shaped EAHE (Fig. 2b) the chosen length of the main (L0) and each of the bifurcated
branches (L1) was: L0 = 0.93 m and L1 = 6.53 m. Such values satisfy the L1/L0 = 7 ratio,
which generates a better relation between head loss and thermal efficiency in Rodrigues et al.
(2019).
Regarding the 3U-shaped arrangements the height of each the U-tube is equal to 3.0 m to
facilitate the installation in saturated soil regions (Vaz et al., 2020). The distance between the
straight sections in each U-tube (see Fig. 2c) was chosen as 0.4 m to reduce the influence of
heat transfer from one stretch to the other (Lee et al., 2010). While the spacing between each
of the U-tubes is 1.0 m to facilitate the installation of the three equipment in series.
It is important to highlight that to validate the numerical model a very similar domain to
the Conventional Horizontal EAHE shown in Fig. 2a, was considered. Although with
some changes subsequently presented in section 2.5.
Furthermore, to discretize the computational domains presented in Fig. 2, the Meshing
Tool, which is available on the ANSYS Workbench, was adopted for the mesh generation.
The spatial discretization was done by tetrahedral elements with sizes equivalent to three
times the diameter of the EAHE duct for the soil, and the diameter divided by three for the
flow domain (Rodrigues et al., 2015b).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

79
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Based on several references, such as Vaz et al. (2011), Brum et al. (2012); Rodrigues et
al. (2018); Hermes et al. (2020), the duct thickness was disregarded to avoid mesh generation
issues. This simplification can only be assumed due to the small thickness of the pipes in
these installations (Ascione et al., 2011).
The transient air flow in the ducts, and the heat diffusion along the soil layers were
described with the time-averaged conservation equations of mass, momentum and energy
(Bergman et al., 2011; Çengel & Cimbala, 2014). Also, the equations of the Reynolds
Average Navier-Stokes (RANS) k-𝜀 turbulence model (Versteeg & Malalasekera, 2007), were
employed and solved by the software Fluent The transient pressure-based solver was used to
obtain the convergence of the simulations. In order to control the instabilities of advective
terms the Upwind scheme was used, and the residuals for the energy equation equivalent to
1×10-6, while for the rest it was 1×10-3. The number of time steps for all simulations was
17520, each one with the size of 1 h (3600 s). This value represents two simulated years,
being the first one discarded because according to Brum et al. (2013), the results in the first
twelve months are jeopardized by the initial established conditions.

2.4 Boundary and initial conditions

As in Vaz et al. (2011), the initial conditions specified in all cases consisted of 3.3 m/s,
which is the velocity assumed for the airflow at the inlet of the duct, and 18.1°C as the initial
temperature of the simulation domain (which is the average soil temperature reached 15 m
deep) . The air inlet and soil surface temperatures along the year were obtained in distinct
ways for each case of study. In Viamão these values were set as a function fitted as of
experimental data from the year of 2007, presented in Vaz et al. (2011). For Rio Grande they
were considered as in Hermes et al. (2020); being the temperature variations from the year of
2016 and acquired with a project called ERA-Interim/LAND, developed by the European
Center for Medium-Range Weather Forecasts (ECMWF). This project is indicated by many
studies in the literature, such as Namaoui et al. (2017) and Qin et al. (2016), due to its
accurate results.

2.5 Validation and verification of the numerical methodology

With regard to the validation of the computational model, a domain representing a


Conventional Horizontal EAHE as shown in Fig. 2 (a) was simulated. Some dimensional
modifications were made to adapt to those of the experimental installation of Vaz et al.
(2011). Thus, the duct was considered buried at 1.60 m, and its diameter was 0.11 m. The soil
characteristics, thermophysical properties and boundary conditions were set as previously
mentioned data of Viamão in Sections 2.1 and 2.4, respectively.
Figure 3 illustrates the comparison between the results obtained in the present study with
numerical and experimental ones from Vaz et al. (2011). The difference between the results
of the present study and experimental data attained an average value of 2.4 °C. Hence
validating and verifying the numerical methodology, as already performed in Brum et al.
(2012), Rodrigues et al. (2015b), and Hermes et al., (2015).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

80
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3- Validation of the computational model.

3. RESULTS AND DISCUSSION

3.1 Occupied Soil Volume

Table 1 shows the values of required soil volume for installations, which are calculated
by multiplying the dimensions of the soil in each of the simulated domains (see Fig. 2). The
height value H was kept constant, while the length L, and the width W varied as previously
presented by Section 2.2. One can observe that the volume of soil occupied by the Vertical
3U-shaped EAHE is quite reduced when compared to the Conventional Horizontal EAHE,
with 60% reduction in the portion of soil. On the contrary, the Horizontal T-shaped
installation demands about 15.6% more soil than the installation adopted as reference.

Table 1 – Dimensions and soil volume occupied.

EAHE Installation L (m) W (m) H (m) Volume (m³)


Conventional Horizontal 18.0 4.1 15.0 1107.0
Horizontal T-shaped 17.06 5.0 15.0 1279.5
Vertical 3U-shaped 7.2 4.1 15.0 442.8

3.2 Head Loss

Defined as the necessary increase of height that must be applied to the fluid due to
frictional forces from the flow (Çengel & Cimbala, 2014). The total head loss Eq. (1), is given
by a sum of the losses in the straight sections of the ducts, and minor losses related to the
accessories that change the flow direction.

𝑉
ℎ , = 𝑓𝐿 (1)
2𝑔

where: ℎ , represents the total head loss in meters, 𝑓 is the friction factor, 𝐿 is the
equivalent length of straight duct plus the localized losses, 𝑉 is the average velocity of the
flow, and 𝑔 the acceleration of gravity.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

81
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The friction factor f was obtained in the Moody Chart. It is a function of the Reynolds
number Re and the relative roughness related to the flow (Çengel & Cimbala, 2014). The f
and the Re values are equal to 0.03034 and 10696.3, respectively, in all cases, except for the
bifurcated branches in the T-shaped EAHE, due to airflow division. However, in these
branches f is 0.03668 and the Re is 5348.2, number which as well as the former also
characterizes the airflow as turbulent.
Concerning the localized losses due to curves and bifurcations in the airflow, their values
of equivalent length were considered based on Macintyre (2017). The Conventional
Horizontal EAHE is constituted by two 90° elbows that represent 3.4 m each, which are
located in the inlet and outlet sections. In the Horizontal T-shaped EAHE case, only one of
the bifurcated branches is considered in the head loss. For this reason, beyond the two 90°
elbows there is a T-shaped 90° bilateral outlet, which has an equivalent length of 7.6 m. The
curves in the Vertical arrangement were considered in two ways due to their sizes: two
elbows of 90° connected by a straight duct of 0.35 m for the union of the sections in each of
the U-tubes, and two curves of 90° (equal to 1.3 m each) connected by a duct of 0.32 m
between one exchanger and another. The sum of the equivalent length in the localized losses
(𝐿 ), and the length of the straight duct sections (𝐿 ) is equal to the 𝐿 .
Table 2 shows the total head loss of the installations. One can note that when compared
to the Conventional Horizontal EAHE (adopted as reference), the Horizontal T-shaped device
present a significant drop in head loss (almost 30%). Nonetheless, the Vertical 3U-shaped
EAHE gives an increase of 61.9%, due to its many curves along the flow.

Table 2 – Total head losses.

EAHE Installation 𝐿 (m) 𝐿 (m) 𝐿 (m) 𝒉𝑳,𝒕𝒐𝒕𝒂𝒍 (m)


Convetional Horizontal 18.0 6.8 24.8 8.35
Horizontal T-shaped 11.47 14.4 13.94; 11.93* 5.91
Vertical 3U-shaped 12.84 27.29 40.13 13.52

*For the Horizontal T-shaped there are two 𝐿 due to the bifurcation in the airflow. The Re
has a lower value in the bifurcated branch, and therefore the value of f is different. Because
of that, in this installation the head loss is measured by the sum of two parcels.

3.3 Thermal Potential

Defined as the temperature difference between the inlet and outlet of the EAHE, the
thermal potential TP can be measured in different periods of time (Rodrigues et al., 2019).
Table 3 presents the best average monthly thermal potentials for heating and cooling
conditions.

Table 3 – Best average monthly thermal potentials of heating and cooling.

EAHE Installation TP (°C) of heating TP (°C) of cooling


Conventional Horizontal 5.99 -5.26
Horizontal T-shaped 5.50 -4.75
Vertical 3U-shaped 5.21 -4.44

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

82
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The best thermal potentials of heating and cooling were reached in the same month for
all devices, being June and February, respectively. Additionally, from Tab. 3 it is possible to
infer a good level of concordance among the values of TP. It is also important to note that
only one outlet was considered in the case of the T-shaped EAHE. Because of that, this
equipment is able to serve two buildings with practically the same outcomes.
As it will be subsequently presented in Section 3.4, the average value of the thermal
potential in the entire simulated year was used to normalize this parameter and reach the
overall performance of the EAHEs.

3.4 Overall Performance

A vector analysis was performed to compare the three functional parameters previously
presented and with that find the ideal geometric configuration. The processes of normalization
for the occupied soil volume, head loss, and thermal potential were done, respectively, as
follows:

𝑉
𝑉 = (2)
𝑉


ℎ =
ℎ (3)

𝑇𝑃
𝑇𝑃 = (4)
𝑇𝑃

being: 𝑉 the soil volume occupied, ℎ the head loss, and 𝑃𝑇 the thermal potential. The
subscripts 𝑁, 𝐼, 𝐻, represent the normalized value, the installation of analysis, and the
installation of reference, in that order.
Besides that, it is desirable that the thermal potential of the Horizontal T-shaped or the
Vertical 3U-shaped devices be the same or superior when compared to the Conventional
Horizontal EAHE. For this reason, 𝑃𝑇 ≥ 1, and to enable the comparison with the other two
parameters the value was assumed as:

1
≤1 (5)
𝑇𝑃

In addition, it is possible to infer that the occupied volume soil, and the head loss are
parameters that must be the same or inferior regarding the Conventional Horizontal EAHE.
Hence, 𝑉 ≤ 1, and ℎ ≤ 1.
With the normalized values, the module of the vector |𝑣| was calculated by Eq. (6)
(Steinbruch & Winterle, 1987). The lowest vector magnitude represents among the three
EAHE installations evaluated the one with the better performance considering in concomitant
way the three adopted performance parameters. In other words, the best EAHE installation is
the one is closer the origin of the coordinate system.

1
|𝑣| = (𝑉 ) + (ℎ ) + (6)
𝑇𝑃

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

83
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 4 – Vector magnitudes for the general performance analysis.

From Fig. 4, one can note that the Conventional Horizontal EAHE with |𝑣| = 1.73 has
the better overall performance; followed by the Horizontal T-shaped EAHE which achieved
|𝑣| = 1.74. The worst overall performance among the studied cases was the Vertical 3U-
shaped EAHE with |𝑣| = 2.03.

4. CONCLUSIONS

The present study aimed to compare performance parameters of a Horizontal T-shaped


EAHE and a Vertical 3U-shaped EAHE, with a Conventional Horizontal EAHE. A validated
and verified numerical model was employed to evaluate the thermal potentials. At the same
time analytical methods were used to attain the occupied soil volume by EAHE installation
and airflow head losses. Finally, adopting as reference the Horizontal T-shaped EAHE to
normalize the performance parameters, an overall performance analysis was promoted by
means a vector approach.
Regarding the occupied soil volume, the best case is the U-tube arrangement, with 442.8
m³ of required soil volume. This value represents a 65.4% drop when compared to the worst
case, which is the Horizontal T-shaped EAHE. In spite of this, the Vertical 3U-shaped
presents itself with the lowest thermal potentials for heating and cooling, and the highest head
loss among the simulated cases. For instance, the head loss in the T-shaped achieves only
43.7% of the same parameter in the Vertical installation. It is also important to note that the
Conventional Horizontal EAHE attains the best thermal potential, with a maximum average
monthly value of 5.99°C for heating and -5.26°C for cooling.
In addition, the Horizontal T-shaped and the Vertical 3U-shaped EAHEs perform
similarly thermal potentials when compared to the Conventional Horizontal EAHE. Thus, the
use of one or the others depends on limitations and needs of the installation site, such as:
number of constructions to be served and lack of physical space.

Acknowledgements.

The project was supported by FAPERGS (Fundação de Amparo à Pesquisa do Rio Grande
do Sul), by the financial support (Edital 03/2019 - Programa Institucional de Bolsas de
Iniciação Científica e de Iniciação Tecnológica e Inovação – PROBIC/PROBITI and Edital
02/2017 - Pesquisador Gaúcho, process 17/2551-0001-111-2). L. A. O Rocha, E. D. dos
Santos and L. A. Isoldi also thank to CNPq (Conselho Nacional de Desenvolvimento
Científico e Tecnológico, process 307791/2019-0, 306024/2017-9, and 306012/2017-0,
respectively) for their research grants.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

84
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

Ascione, F., Bellia, L., Minichiello, F., (2011). “Earth-to-air heat exchangers for Italian climates”. Renew
Energy; 36:2177–88.
Bergman, T.L., Lavine, A.S., Incropera, F.P., Dewitt, D.P.,(2011). Fundamentals of Heat and mass transfer.
7th Edition Hoboken: John Wiley & Sons Inc.
Bordoloi, N., Sharma, A., Nautiyal, H., Goel, V., (2018). “An intense review on the latest advancements of
Earth Air Heat Exchangers”. Renewable and Sustainable Energy Reviews, 89, pp .261-280.
Brito, J.D. “Micro-Estacas” I.S.T - Mestrado em Construção, Cadeira de Tecnologia de Contenções e
Fundações. Lisboa, Novembro de 1999.
Brum, R.S., Rocha, L.A.O., Vaz, J., Dos Santos, E.D., Isoldi, L.A., (2012). “Development of simplified
numerical model for evaluation of the influence of soil-air heat exchanger installation depth over its thermal
potential”. Int J Adv Renew Energy Res; 1:505–14.
Brum, R.S., Vaz, J., Rocha L.A. O., Dos Santos, E. D., Isoldi, L.A., (2013). “A new computational modeling
to predict the behavior of earth-air heat exchangers”. Energy Build; 64:395–402.
Çengel, Y.A., Cimbala, J.M., (2014). Fluid Mechanics: Fundamentals and Applications. McGraw Hill
Companies, New York, 3rd edition.
Gunaratne, M., 2014. The Foundation Engineering Handbook. Taylor & Francis Group, Boca Raton, 2nd ed.
Hermes, V.D., Ramalho, J.V., Rocha, L.A., Santos, E.D., Marques, W.C., Costi, J., Rodrigues, M.K., &
Isoldi, L.A., (2020). “Further realistic annual simulations of earth-air heat exchangers installations in a coastal
city”.Sustainable Energy Technologies and Assessments, 37, 100603.
Lee, C., Gil, H., Choi, H. et al., (2010). “Numerical characterization of heat transfer in closed-loop vertical
ground heat exchanger.” Sci. China Ser. E-Technol. Sci. 53, 111–116 https://doi.org/10.1007/s11431-009-0414-8
Liu, Zhengxuan & Yu, Zhun (Jerry) & Yang, Tingting & Roccamena, Letizia & Sun, Pengcheng & Li,
Shuisheng & Zhang, Guoqiang & El Mankibi, Mohamed, (2019). "Numerical modeling and parametric study of
a vertical earth-to-air heat exchanger system," Energy, Elsevier, vol. 172(C), pages 220-231.
Macintyre, Archibald Joseph. Instalações hidráulicas prediais e industriais. LTC, Rio de Janeiro, 4th edition.
Namaoui, H., Kahlouche, S., Bebachir, A.H., Malderen, R., Brenot, H., Pottiaux, E., (2017). “GPS water
vapor and its comparison with radio sonde and ERA-Interim data in Algeria”. Adv Atmos Sci; 34(5):623–34.
Patel, R.D., & Ramana, P.V. (2016). “Experimental Analysis of Horizontal and Vertical Buried Tube Heat
Exchanger Air Conditioning System”. Indian journal of science and technology, 9.
Qin Y, Wu T, Li R, Yu W, Wang T, Zhu X, et al., (2016). “Using ERA-Interim reanalysis dataset to assess
the changes of ground surface freezing and thawing condition on the Qinghai-Tibet Plateau”. Environ Earth Sci;
75(9):1–13.
Ramadan, Abdelrahman S., (2016). "Parametric Study of Vertical Ground Loop Heat Exchangers for Ground
Source Heat Pump Systems". Electronic Thesis and Dissertation Repository. 3521.
Rodrigues, G.C., Rodrigues, M.K., Rocha, L.A., Santos, E.D., Estrada, E.D., Isoldi, L.A., (2019). Simulação
numérica e método constructal design aplicados à avaliação geométrica de um trocador de calor solo-ar com
formato T. Revista Cereus, 11, n°1.
Rodrigues, M.K., Souza, J.A., Vaz, J., Junior, C.A., Rocha, L.A., Santos, E.D., Isoldi, L.A, (2015a). Estudo
numérico de condições de contorno na modelagem computacional de trocador de calor solo-ar. Sci Plena ;11(8).
Rodrigues, M.K., Brum, R.S., J.A., Vaz.,Rocha, L.A., Santos, E.D., Isoldi, L.A, (2015b). “Numerical
investigation about the improvement of the thermal potential of an Earth-Air Heat Exchanger (EAHE)
employing the Constructal Design method”. Renewable Energy, 80: 538-51.
Rodrigues, M.K., Coswig, F.S., Camargo, K.R., Isoldi, L.A., Brum, R.S., Ramalho, J.V.A., et al., (2018).
“Thermal performance simulations of Earth-Air Heat Exchangers for different soils of a coastal city using in-situ
data”. Sustain Energy Technol Assess; 30:224–9.
Steinbruch, A., Winterle, P., (1987). Álgebra linear. Pearson Makron Books, São Paulo, 2nd edition.
Vaz, I. S., Vaz, J., Vitoria, L.C., Rocha, L.A., Hermes, V.D., Santos, E.D., Rodrigues, M.K., & Isoldi, L.A.,
(2020). Numerical analysis comparing the thermal performance of vertical and horizontal earth-air heat
exchangers. 18th Brazilian Congress of Thermal Sciences and Engineering, ENCIT 220.
Vaz, J., Sattler, M.A., Santos, E. D., Isoldi, L. A., (2011). “Experimental and numerical analysis of an earth-
air heat exchanger”. Energy Build; 43(9): 2476–82.
Versteeg, H.K., Malalasekera, W., (2007). An Introduction to Computational Fluid Dynamics: The Finite
Volume Method. Pearson Education Limited Edinburgh Gate Harlow, Essex CM20 2JE England, 2nd edition.
Wu, Y., Gan, G., Verhoef, A., Vidale, P.L., Gonzalez, R.Q., (2010). “Experimental measurement and
numerical simulation of horizontal-coupled Slinky Ground Source Heat Exchangers”. Applied Thermal
Engineering, Elsevier, 30 (16), pp.2574.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

85
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CLASSIFICAÇÃO DE TRÁFEGO EM REDES DEFINIDAS POR SOFTWARE


UTILIZANDO SVM E MLP: UM ESTUDO COMPARATIVO

Victor de Freitas Arruda1 – victorf.arruda@outlook.com


Nilton Alves Maia1 – nilton.maia@unimontes.br
Maurílio José Inácio1 – maurilio.inacio@unimontes.br
Marilée Patta1 – marilleep@unimontes.br
1
Universidade Estadual de Montes Claros, UNIMONTES - Montes Claros, MG, Brazil
Resumo. A adoção de Redes Definidas por Software facilita a criação de novas técnicas que
podem melhorar o gerenciamento das redes atuais. Como a SDN é definida pela separação
do plano de dados e controle, a lógica de encaminhamento é centralizada em controladores,
os quais possuem uma visão de grande parte da rede, ou mesmo global quando eles são
utilizados em conjunto. Baseando-se na classificação do fluxo de tráfego entrante pode-se
implementar políticas de segurança, controle de QoS e engenharia de tráfego, visando a
melhoria do gerenciamento da rede. O objetivo deste trabalho foi realizar um estudo
comparativo dos algoritmos SVM e MLP usando ADAM e LBFGS para classificação de
tráfego entrante em uma rede SDN. Os desempenhos dos classificadores foram avaliados
considerando-se os valores da acurácia, precisão, revocação e F1-score. Verificou-se que o
SVM obteve os melhores resultados.
Palavras-chave: Redes Definidas por Software, Redes Neurais Artificiais, MLP, SVM,
Classificação de Tráfego

1. INTRODUÇÃO
As redes de computadores são essenciais, sendo utilizadas em quase todo lugar e por
muitas pessoas. Por outro lado, o desenvolvimento de novas tecnologias que melhoram o
desempenho das redes IP tradicionais é dificultado, visto que elas são constituídas por
dispositivos de encaminhamento de tráfego que geralmente são compostos por software
fechado e hardware proprietário. A configuração de regras na rede é individual para cada
dispositivo, na qual os usuários utilizam comandos de gerenciamento que são específicos de
cada fabricante. Isto dificulta a evolução das tecnologias utilizadas nas redes, tornando-as
engessadas (Cardoso et al., 2017).
As Redes Definidas por Software (Software Defined Networking - SDN) podem auxiliar
no enfrentamento de problemas de gerenciamento das redes IP atuais. As redes SDN são
caracterizadas pela separação do plano de dados e de controle, sendo que a lógica de
encaminhamento de pacotes é centralizada no plano de controle. A estrutura das redes SDN é
formada por três componentes principais: plano de dados associado aos comutadores no nível
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

86
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mais baixo; plano de controle no nível intermediário; e plano de aplicação no nível mais alto.
A comunicação entre controladores e o plano de dados é realizada via interface southbound,
localizada nos comutadores. A comunicação entre aplicações de rede e controladores é
mantida pela interface northbound, localizada no plano de controle. O plano de dados atua
apenas no encaminhamento de pacotes. Isto possibilita que os comutadores se tornem
dispositivos mais simples. O controlador é o responsável pelas decisões a serem tomadas,
construindo e renovando a tabela de fluxos. O controlador também pode ser considerado um
sistema operacional de rede que possui sua visão global, podendo estar disposto local ou
remotamente (Cardoso et al., 2017). O administrador não necessita configurar os dispositivos
de rede individualmente sendo que as decisões de roteamento e encaminhamento são
implementadas através do controlador (Kokila, 2014). As decisões tomadas pelo controlador
são reguladas por softwares específicos instalados no plano de aplicação. São exemplos de
rotinas de software: métodos de segurança, gerência de QoS, engenharia de tráfego e soluções
para medição e monitoramento de rede (Masoudi & Ghaffari, 2016). As alterações na lógica
da rede são realizadas pelos controladores (Bisol et al., 2016). A adoção do paradigma SDN
facilita a introdução de novas técnicas de gerenciamento que podem ser implementadas a
partir da análise do tráfego da rede. Uma das atividades importantes nessa análise é a
classificação do tráfego.
De acordo com Zhang et al. (2013), a classificação do tráfego de rede (Traffic
Classification - TC) visa classificar os fluxos de tráfego por seus aplicativos de geração. Ela
pode desempenhar um papel importante na segurança e gerenciamento da rede, como controle
de qualidade de serviço (QoS), interceptação legal (LI) e detecção de intrusão. A classificação
de tráfego e a caracterização de aplicações de rede estão se tornando cada vez mais
importantes para aplicações de engenharia de tráfego, monitoramento de segurança e
qualidade de serviço (QoS) (Fan & Liu, 2017).
Os métodos de classificação de tráfego fazem a análise dos dados que trafegam na rede
para se obter o tipo de tráfego (classe) correspondente ao fluxo analisado. Eles podem ser
baseados em números de porta, payload e técnicas de machine learning. No passado, a
classificação baseada em número de portas foi uma das técnicas mais usadas e bem-sucedidas,
pois muitas aplicações usavam números fixos atribuídos pela Internet Assigned Numbers
Authority - IANA. Esse tipo de classificação depende de aplicativos que mapeiam os números
de porta conhecidos. Infelizmente, com o passar do tempo as técnicas de classificação
baseadas em números de portas se tornaram imprecisas e algumas limitações se tornaram
obvias. Surgiu um alto número de aplicações que não possuem números de porta registrados e
muitas delas utilizavam mecanismos dinâmicos de negociação de portas para se esconderem
de firewalls e ferramentas de segurança de rede. (Fan & Liu, 2017; Amaral et al., 2016).
A classificação baseada em inspeção de payload, também conhecida por Deep Packet
Inspection - DPI é uma das técnicas mais utilizadas (Amaral et al., 2016). Os sistemas de DPI
utilizam de assinaturas predefinidas de pacotes ou fluxos para descobrir a qual tipo de tráfego
o pacote ou fluxo pertence. Como os métodos baseados em payload, como o DPI, necessitam
examinar o payload de cada um dos pacotes, às vezes há alguns problemas, no caso das leis
de privacidade e criptografia que podem levar a um payload de tráfego inacessível. Além
disso, o DPI possui altos custos computacionais e requer manutenção manual de assinaturas
(Fan & Liu, 2017).
Os métodos de classificação baseados em aprendizado de máquina (Machine Learning)
podem superar algumas das limitações de abordagens baseadas em porta e payload. Mais
especificamente, as técnicas de aprendizado de máquina podem classificar o tráfego da
Internet usando estatísticas independentes do protocolo da aplicação, como duração do fluxo,
variação do comprimento do pacote, tamanho máximo ou mínimo do segmento, tamanho da
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

87
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

janela, tempo de ida e volta, e tempo de chegada de pacotes. Além disso, pode levar a custos
computacionais mais baixos e identificar o tráfego criptografado (Fan & Liu, 2017). A
classificação do tráfego pode ser realizada usando aprendizado supervisionado ou não
supervisionado. No aprendizado supervisionado, é necessário obter conjuntos de dados de
treinamento rotulados, algo que pode ser um empecilho em redes de computadores devido à
dificuldade em obter amostras de fluxo de rede anotadas com precisão em uma ampla gama
de aplicações e na taxa em que novas aplicações podem aparecer. Já, o aprendizado de
máquina não supervisionado é normalmente usado para tarefas de clustering, no qual os
algoritmos agrupam os dados em diferentes clusters de acordo com as semelhanças nos
valores dos recursos, sendo, o objetivo, encontrar relacionamentos desconhecidos nos dados,
encontrando padrões de similaridade entre as várias observações (Amaral et al., 2016). A
classificação do tráfego realizada neste trabalho utiliza o aprendizado supervisionado. Mais
especificamente, são utilizados a rede neural artificial do tipo MLP (Multilayer Perceptron) e
o SVM (Support Vector Machine).
As redes MLP possibilitam a resolução de problemas complexos não possíveis de serem
resolvidos por um único neurônio. Os neurônios da camada escondida são muito importantes
na rede MLP. Sem eles é impossível a resolução de problemas não linearmente separáveis
(Ferreira, 2004). Nas redes MLP, cada uma das camadas tem sua função específica. Assim,
cada neurônio calcula uma soma ponderada das entradas e a passa na forma de uma função
não-linear limitada. Em nível de mesoestrutura, tem-se duas ou mais camadas com conexão
feedforward (Vieira & Bauchspiess, 1999). Pode-se afirmar ainda que com a adição de uma
ou mais camadas intermediárias (ocultas), o poder computacional de processamento não-
linear e de armazenamento da rede é aumentado. O conjunto de saídas dos neurônios de cada
camada intermediária é utilizado como entrada para a camada posterior.
O SVM foi desenvolvido por Vapnik (1995), a partir dos estudos de Vapnik e
Chervonenkis (1971) e Boser et al. (1992). A classificação através da SVM consiste na
separação ótima de um grupo de dados, independentemente da sua dimensionalidade, através
de um problema de programação quadrática que permite boa generalização (Vapnik, 1998).
Esse processo faz com que a SVM encontre um mínimo global na superfície de custo,
podendo ser considerado como uma vantagem do método (Haykin, 2001).
O objetivo deste trabalho foi realizar um estudo comparativo do SVM com os algoritmos
L-BFGS (Limited-Memory Broyden-Fletcher-Goldfarb-Shanno) e ADAM da Rede Neural
Artificial do tipo MLP para a classificação do tráfego entrante em uma topologia SDN.
As próximas seções deste artigo são organizadas da seguinte maneira: na seção 2 são
apresentados os trabalhos relacionados. Na seção 3 fez-se estudo do modelo de coleta e
classificação do tráfego. Na seção 4 exibem-se os resultados obtidos com os experimentos, e
em seguida, são apresentadas as conclusões sobre o trabalho.

2. TRABALHOS RELACIONADOS
Na literatura existem pesquisas propondo a implementação da classificação de tráfego em
redes de computadores. Algumas propostas utilizam redes SDN e algoritmos de Machine
Learning. Breves descrições de algumas destas propostas são apresentadas a seguir.
Parsaei et al. (2017) configuraram uma rede SDN com um comutador, um controlador e
dois hosts. Eles fizeram um estudo dos algoritmos MLP, NARX (Non-linear Autoregressive
Exogenous Multilayer Perceptron with Levenberg-Marquardt) e NARX (Non-linear
Autoregressive Exogenous Multilayer Perceptron with Naïve Bayes) sobre a arquitetura SDN
selecionada. Os resultados obtidos pelos algoritmos com relação a acurácia foram: 97% para a
MLP, 97% para o NARX (Non-linear Autoregressive Exogenous Multilayer Perceptron with
Levenberg-Marquardt) e 97,6% para o NARX (Non-linear Autoregressive Exogenous
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

88
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Multilayer Perceptron with Naïve Bayes). O desempenho dos algoritmos foi parecido, com
leve superioridade do NARX (Non-linear Autoregressive Exogenous Multilayer Perceptron
with Naïve Bayes). Como trabalhos futuros eles propuseram implementações em diferentes
plataformas de dispositivos (iOS, Windows, Linux) e detecção de fluxos pertencentes a novas
aplicações que não fazem parte do classificador treinado.
Xu et al. (2018) implementaram um algoritmo de Deep Learning que utiliza apenas o
recurso de tráfego baseado no tempo. As simulações foram realizadas no Mininet, propondo
um mecanismo que faz a colaboração entre o algoritmo de Deep Learning e a rede SDN para
realizar um gerenciamento inteligente de recursos de rede. No experimento, o modelo de
classificação proposto utilizou as Redes Neurais Profundas (Deep Neural Networks - DNN) e
eles definiram a duração dos fluxos como 5, 10, 15 e 30 segundos. O Tensor Flow e o scikit-
learn foram usados para executar os experimentos. Para a comparação foram selecionados o
K-Nearest Neighbors - KNN, Support Vector Machine - SVM e o Decision Tree, sendo que o
DNN obteve melhor precisão com duração acima de 15 segundos. Como trabalhos futuros, a
ideia é de realizar melhorias no artigo e a discussão da implementação da Virtualização das
Funções da Rede.
Zhai & Zheng (2018) propuseram uma versão do Random Forest para classificação de
Tráfego. Eles fizeram a comparação do algoritmo proposto com outros dois algoritmos, o
Logistic Regression e o Support Vector Machine (SVM). Neste trabalho foi constatado que os
resultados do Random Forest foram relativamente melhores, com 98% de acurácia, enquanto
que o Logistic Regression obteve 88% de acurácia e o SVM obteve 91%. No trabalho optou-
se por um método, no qual a coleta de dados não é realizada em tempo real. Esta proposta foi
deixada para trabalhos futuros.
Bakker et al. (2019) relata a experiência em uma rede SDN ativa, utilizando métodos de
Machine Learning para classificação de Tráfego. Este trabalho avaliou cinco classificadores:
Random Forest; Quadratic Classifier (Qda); Naive Bayes;k-Nearest Neighbors (kNN); e
Support Vector Machine (SVM). Nesta pesquisa foi adotado um método próximo a
comparação entre uma rede SDN offline e uma rede SDN online. Primeiro eles estabeleceram
um valor de referência padrão para os cinco classificadores e os utilizaram para comparar com
os classificadores selecionados. Os classificadores foram testados em modo passivo e ativo,
sendo que a acurácia média no modo passivo diferiu do padrão de referência entre 6,9% -
11,2%, enquanto a acurácia no modo ativo está mais próxima do padrão de referência 6,2% -
8,3%. A acurácia de cada classificador no modo ativo ficou entre 91% e 93%, e a acurácia dos
classificadores em modo passivo ficou entre 89% e 92%.

3. MODELO DE COLETA E CLASSIFICAÇÃO DO TRÁFEGO


O modelo de coleta e classificação do tráfego utilizado neste trabalho é formado pelas
seguintes etapas: medição do tráfego; seleção e extração dos atributos; seleção das amostras
de treinamento e testes; e implementação dos algoritmos.
3.1 Medição do tráfego na topologia SDN
A rede utilizada neste trabalho é formada por quarenta e oito (48) hosts, vinte e um (21)
comutadores (switches) e um controlador. Os hosts foram divididos entre clientes e servidores
(receptores), sendo vinte e quatro (24) clientes e vinte e quatro (24) servidores. A largura de
banda dos enlaces entre os hosts e os comutadores foi configurada em 100Mbps.
A simulação da rede SDN foi realizada utilizando o software Mininet (Mininet Team,
2020), executado na plataforma SND Hub (SDN Hub, 2020). O código para implementação
da topologia SDN no Mininet, apresentada na Figura 1, foi escrito em linguagem Python.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

89
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 - Topologia SDN

O software Distribuited Internet Traffic Generator - D-ITG (Botta, Dainotti &


Pescapè, 2012) foi utilizado para a geração do tráfego das aplicações a partir dos hosts da
topologia SDN apresentada na Figura 1. O D-ITG é baseado na API libpcap, que captura
pacotes de rede durante seu tráfego. Com a captura do tráfego, o tcpdump gera um arquivo no
formato pcap, que é transformado em csv pelo tshark. O tshark é uma implementação do
Wireshark em modo texto muito similar ao tcpdump, porém permite a conversão do arquivo
pcap para csv (utilizada neste trabalho).
Os passos utilizados para a execução da medição do tráfego na topologia SDN são os
seguintes. Primeiro é iniciado o controlador floodlight. Em seguida a topologia SDN é
também iniciada no software mininet. A aplicação tcpdump começa a capturar o tráfego que
trafega pelas interfaces de rede. Com a topologia SDN em funcionamento, o D-ITG gera o
tráfego na rede. Como o tcpdump não converte o arquivo pcap em csv, utilizam-se o tshark
para converter o arquivo gerado em csv. Após a geração do arquivo csv é utilizado o promed
(programa de medição) para gerar a medição do tráfego. A Figura 2 resume os passos para a
execução da medição de tráfego na topologia SDN.

Figura 2 - Passos para execução da medição de tráfego na topologia SDN


Os hosts clientes geraram na entrada da topologia SDN os seguintes tipos de tráfegos:
Voip; Telnet; Quake3; DNS; CounterStrike inactive; CounterStrike active; Vídeo e Web. O
Voip é a aplicação de voz sobre IP. O Telnet, que é uma aplicação que permite acesso remoto
à qualquer máquina que esteja rodando o módulo servidor. O Quake3 é um jogo eletrônico de
tiro em primeira pessoa. O DNS simula uma aplicação responsável por localizar e traduzir
para números IP os endereços dos sites que são digitados nos navegadores. O CounterStrike
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

90
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ativo - CSa também é um jogo de tiro em primeira pessoa que simula quando o usuário está
ativo. O CounterStrike Inativo - CSi é um jogo de tiro em primeira pessoa que simula quando
o usuário está inativo. O tráfego Web simula aplicações web e o Vídeo, aplicações de vídeo.
3.2 Seleção dos atributos e definição das amostras de treinamento e testes
No programa de medição de tráfego utilizou-se a biblioteca pandas (Pandas, 2020) para o
processamento dos dados. Ao final do processamento foi gerado um arquivo, contendo as
informações de duração do fluxo de tráfego, vazão, quantidade de pacotes transmitidos,
quantidade de pacotes por segundo, atraso médio e jitter médio. Esse arquivo de medição foi
utilizado pelos algoritmos de classificação. Os atributos foram selecionados com base no
trabalho de Ding et al. (2013). A topologia SDN ficou em funcionamento durante 1 hora,
sendo que cada medição do tráfego teve duração de 10 segundos, sendo obtidas trezentos e
sessenta (360) amostras de medições de cada tipo de tráfego. Para o treinamento dos
algoritmos SVM e MLP foram utilizadas setenta e cinco por cento (75%) das amostras de
medições enquanto que vinte e cinco por cento (25%) foram utilizados para a execução dos
testes.
3.3 Implementação dos algoritmos de Classificação
Os algoritmos implementados nesta fase do trabalho foram o SVM e a RNA do tipo MLP
com os algoritmos ADAM e LBFGS. Posteriormente, na continuação do trabalho, pretende-
se selecionar novos métodos de classificação para se efetuar testes e comparações. As
entradas das topologias dos algoritmos de classificação são os valores do delay médio, jitter
médio, bytes recebidos, vazão e taxa de pacotes média. As saídas são as classes de medição de
tráfego identificadas. As redes MLP com os algoritmos ADAM e LBFGS utilizaram taxa de
aprendizado adaptativa e foram configuradas com três (3) camadas escondidas, sendo que
cada uma delas contêm cento e quarenta e quatro(144) neurônios. No SVM, para os
parâmetros C e gamma foram adotados o valor cem (100). O parâmetro C é a complexidade
do modelo e gamma define a relevância dos dados mais próximos a fronteira de separação. Os
algoritmos foram implementados utilizando a linguagem Python e a biblioteca Scikit-learn.

4. RESULTADOS E DISCUSSÃO
Nesta seção são apresentados os resultados da classificação do tráfego com a utilização
dos algoritmos SVM e MLP. Os algoritmos de classificação foram avaliados considerando-se
a acurácia, precisão, revocação, F1-score. Nesta fase do trabalho, foi definido que cada um
dos algoritmos fosse executado 10 (dez) vezes, mas posteriormente serão realizadas analises
para verificar qual seria a quantidade ideal de execuções. A Figura 3 apresenta os resultados
da Acurácia obtidos pelos algoritmos SVM e MLP com LBFGS e ADAM.

100
90
Acurácia (%)

adam
80
lbfgs
70
svm
60
50
1 2 3 4 5 6 7 8 9 10
Execuções

Figura 3 - Acurácia dos algoritmos SVM e MLP com LBFGS e ADAM

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

91
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Analisando a acurácia dos algoritmos selecionados pode-se afirmar que o algoritmo SVM
obteve melhores resultados, seguido da rede neural MLP com ADAM e da rede neural MLP
com o LBFGS.
A Figura 4 apresenta os resultados do F1-Score por classe obtidos pela Rede MLP com
ADAM.

100
Quake3
90 Video
Precisão (%)

80 Csi
70 Csa
60 Telnet
Web
50
1 2 3 4 5 6 7 8 9 10 VOIP
DNS
Execuções

Figura 4 – F1-Score por classe quando utilizado a Rede Neural MLP com ADAM
Pode-se observar na Figura 4 que as classes Csi, Csa, Telnet, Web, Voip e DNS
alcançaram excelentes resultados, enquanto que as classes Quake3 e Vídeo obtiveram
respectivamente o F1-Score médio de 80,5% e 88%.
A Figura 5 apresenta os resultados do F1-Score por classe obtidos pela Rede MLP com
LBFGS.

100
Quake3
90
Revocação (%)

Video
80 Csi
70 Csa
60 Telnet
Web
50
1 2 3 4 5 6 7 8 9 10 VOIP
DNS
Execuções

Figura 5 – F1-Score por classe quando utilizado a Rede Neural MLP com LBFGS

Pode-se observar na Figura 5 que as classes Csi, Csa, Web e DNS alcançaram resultados
próximos a cem por cento (100%), enquanto que a classe Quake3, Vídeo, Telet e Voip
obtiveram respectivamente o F1-Score médio de 64,3%, 87,9%, 94,2% e 96,1%.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

92
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 6 apresenta os resultados do F1-Score por classe quando é utilizado o SVM.

100
Quake3
90 Video
F1-Score (%)

80 Csi
70 Csa
60 Telnet
Web
50
1 2 3 4 5 6 7 8 9 10 VOIP
DNS
Execuções

Figura 6 – F1-Score por classe quando utilizado o SVM


Pode-se observar na Figura 6 que todas as classes alcançaram resultados próximos a cem
por cento (100%), sendo que as quatro (4) classes que obtiveram o pior F1-Score foram
Quake3, Vídeo, Csi, Telnet, com respectivamente 97,3%, 98,9%, 98,7% e 96,9% de média.
Apenas como ilustração, apresenta-se na Tabela 1 a Matriz de confusão do resultado de
uma das execuções do SVM. O SVM foi selecionado, pois obteve melhores resultados dentre
os algoritmos avaliados.

Tabela 1- Matriz de confusão do algoritmo SVM


Predito
Real CSa CSi DNS Quake3 Telnet Voip Video Web
CSa 128 0 0 0 1 0 0 0
CSi 1 272 0 0 0 0 0 0
DNS 0 0 275 0 4 0 0 0
Quake3 0 0 0 270 0 0 0 0
Telnet 0 0 1 0 189 0 0 0
Voip 0 0 0 0 3 303 0 0
Video 0 0 0 0 4 0 256 0
Web 0 0 0 0 1 0 255

Com o objetivo de comparar o desempenho dos classificadores de tráfego utilizados neste


trabalho, apresenta-se na Tabela 2 um resumo dos resultados obtidos pelos algoritmos SVM e
MLP com ADAM e L-BFGS durante as dez (10) execuções realizadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

93
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 - Valores médios da Acurácia, Precisão, Revocação e F1-Score dos algoritmos SVM
e MLP com LBFGS e ADAM.

SVM MLP com ADAM MLP com LBFGS


98,96% 97,24% 95,13%
Acurácia
99,00% 97,70% 95,30%
Precisão
99,00% 97,20% 95,10%
Revocação
99,00% 97,20% 94,90%
F1-Score

Observando-se os resultados apresentados na Tabela 2, pode-se afirmar que o SVM


obteve os melhores resultados com relação a Acurácia, Precisão, Revocaçãoe F1-Score.

5. CONCLUSÃO
O objetivo deste trabalho foi realizar um estudo comparativo dos algoritmos SVM e MLP
usando ADAM e LBFGS para classificação de tráfego entrante em uma rede SDN. Foi
apresentado um modelo de coleta e classificação do tráfego para a topologia SDN proposta.
A ferramenta D-ITG foi utilizada para a geração de tráfego entrante na rede. Através dos
dados coletados pelo tcpdump e processados pelo programa de medição foi construído um
arquivo com os padrões de treinamento e testes utilizados pelo SVM e pela MLP usando
ADAM e LBFGS. Os desempenhos dos classificadores foram avaliados levando em conta os
valores da acurácia, precisão, revocação e F1-score. Verificou-se que o SVM obteve os
melhores resultados.
Uma limitação deste trabalho refere-se ao fato de não terem sido registrados os tempos de
treinamento e testes dos algoritmos de classificação avaliados. Estas informações são
importantes para avaliar a viabilidade da aplicação destes algoritmos numa topologia de rede
real.
Como trabalho futuro pretende-se identificar outras técnicas de classificação existentes na
literatura visando a comparação com os algoritmos utilizados neste trabalho. Como exemplo,
pode-se citar C4.5, Naive Bayes, Bayes net e ELM. Serão implementadas também funções
para registro dos tempos de treinamento e testes dos algoritmos de Classificação. Finalmente,
os classificadores serão testados em um cenário do mundo real com a utilização de uma
topologia SDN formada por um maior número de comutadores e hosts.

REFERÊNCIAS
Amaral, P. et al. Machine Learning in Software Defined Networks: Data Collection and Traffic Classification.
Ieee 24th International Conference On Network Protocols. 2016.
Bakker J., Ng B.; Seah W. K. G.; Pekar A. Traffic Classification with Machine Learning in a Live Network.
Ifip/ieee International Symposium On Integrated Network Management (IM2019), p.488-493, 2019.
Bisol, R. V.; Silva, A. S.; Machado, C. C.; Granville, L. Z.; Schaeffer-Filho, A. E. Coleta e Análise de
Características de Fluxo para Classificação de Tráfego em Redes Definidas por Software. XXXIV Simpósio
Brasileiro de Redes de Computadores e Sistemas Distribuídos. 2016.
Boser, B. E.; Guyon, I. M.; Vapnik, V. N. A training algorithm for optimal margin classifiers. In: WORKSHOP
ON COMPUTATIONAL LEARNING THEORY, 5., 1992, Pittsburgh. Proceedings... New York: ACM
Press, 1992. p. 144-152.
Botta, A., Dainotti, A., & Pescapè, A. (2012). A tool for the generation of realistic network workload for
emerging networking scenarios. Computer Networks (Elsevier), 56, 3531-3547.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

94
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cardoso, W. S.; Silva, F. J. A.; Rocha U. V.; SOUSA, M. P. Implantação de um Patch Panel Virtual Utilizando
Redes Definidas por Software. Anais do XXIII Simpósio Brasileiro de Sistemas Multimídia e Web:
Workshops e Pôsteres, Gramado, p.95-98. 2017.
Chaves, B. B., ESTUDO DO ALGORITMO ADABOOST DE APRENDIZAGEM DE MÁQUINA APLICADO
A SENSORES E SISTEMAS EMBARCADOS. Orientador: Delson Torikai. 2012. 119 p. Dissertação
(Mestrado em Engenharia Mecânica) - Escola Politécnica da Universidade de São Paulo. Departamento de
Engenharia Mecatrônica e de Sistemas Mecânicos, São Paulo, 2012.
Ding, L.; Yu, F.; Peng, S.; Xu, C. A Classification Algorithm for Network Traffic based on Improved Support
Vector Machine. JOURNAL OF COMPUTERS, 8(4), p.1090-1096. 2013.
Fan, Z.; Liu, R. Investigation of machine learning based network traffic classification. 2017 International
Symposium On Wireless Communication Systems (iswcs), ago. 2017.
Haykin, S. Redes Neurais: princípios e práticas. 2.ed. Porto Alegre: Bookman, 2001. 900 p.
Kokila, R.; Somasundaram, T. S.; Kannan, G. (2014). DDoS detection and analysis in SDN-based environment
using support vector machine classifier. 205-210.
Masoudi, R., & Ghaffari, A. Software defined networks: A survey. Journal of Network and Computer
Applications, 67, 1–25, 2016.
Mininet Team. Mininet: An Instant Virtual Network on your Laptop (or other PC) - Mininet. Documentation.
2020. Disponível em: <http://mininet.org>. Acessado em: 29/07/2020.
Pandas. pandas - Python Data Analysis Library. 2020. Disponível em: <https://pandas.pydata.org/>. Acessado
em: 03/09/2020.
Parsaei, M. R.; Sobouti, J.; Khayami, S. R.; Javidan, R. Network Traffic Classification using Machine Learning
Techniques over Software Defined Networks. (IJACSA) International Journal of Advanced Computer
Science and Applications, 8(7), p.220-225. 2017.
SDN Hub. All-in-one SDN App Development Starter VM | SDN Hub. 2020. Disponível em:
<http://sdnhub.org/tutorials/sdn-tutorial-vm/>. Acessado em: 29/07/2020.
Vapnik, V. N. The nature of statistical learning theory. New York: Springer-Verlag, 1995. 188 p.
Vieira, Z. P. & Bauchspiess, A. (1999). Implementação do Servocontrole Auto-Sintonizado em Tempo-Real
Utilizando Rede Perceptron Multicamadas. IV Congresso Brasileiro de Redes Neurais, 308-313.
Vapnik, V. N.; Chervonenkis, A. Y. On the uniform convergence of relative frequencies of events to their
probabilities. Theory of Probability and its Applications. v. 16, n. 2, p. 264-280, 1971.
Vapnik, V. N. Statistical Learning Theory. New York: John Wiley and Sons,1998. 768 p.
Xu, J.; Wang, J.; Qi, Q.; Sun, H. & He, B. DEEP NEURAL NETWORKS FOR APPLICATION AWARENESS
IN SDN-BASED NETWORK, 2018 IEEE 28th International Workshop on Machine Learning for Signal
Processing (MLSP), Aalborg, 2018, pp. 1-6.
Zhang, J., Xiang, Y., Zhou, W., & Wang, Y. Unsupervised traffic classification using flow statistical properties
and IP packet payload. Journal of Computer and System Sciences, 79(5), 573–585. 2013.
Zhai, Y. & Zheng, X. Random Forest based Traffic Classification Method In SDN, 2018 International
Conference on Cloud Computing, Big Data and Blockchain (ICCBB), Fuzhou, China, 2018, pp. 1-5.

Abstract. The adoption of Software Defined Networks, facilitates the creation of new
techniques that can improve the management of current networks. As the SDN is defined by
the separation of the data and control plan, the routing logic is centralized in controllers,
which have a view of a large part of the network, or even global when they are used together.
Based on the classification of the incoming traffic flow, security policies, QoS control and
traffic engineering can be implemented, aiming at improving the network management. The
objective of this work was to carry out a comparative study of the SVM and MLP algorithms
using ADAM and LBFGS to classify incoming traffic in an SDN network. The classifiers'
performances were evaluated taking into account the values of accuracy, precision, recall
and F1-score. It was found that the SVM obtained the best results.

Keywords: Software Defined Networks, SDN, Artificial Neural Networks, MLP, SVM, Traffic
Classification

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

95
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTIMATIVA DO CUSTO DE MANUFATURA DA EXTRAÇÃO COM


DIÓXIDO DE CARBONO SUPERCRÍTICO DO ÓLEO DE CASCA DE
LARANJA

Thais Schmidt Silva Almeida1 – thaisschmidt10@gmail.com


Sarah Arvelos 1 – sarah.arvelos@ufu.br
1
Universidade Federal de Uberlândia – Uberlândia, MG, Brazil

Resumo. A extração de óleos essenciais por CO2 como fluido supercrítico é uma tecnologia
verde, a qual tem chamado a atenção da indústria mundial. O Brasil é um dos maiores
produtores de suco de laranja. O resíduo da produção do suco engloba a casca da fruta,
insumo onde se concentra uma quantidade substancial de óleos. O presente trabalho visa
realizar uma avaliação econômica classificada como “de estimativa” do processo de
extração com CO2 supercrítico do óleo essencial de laranja. Através de curvas cinéticas de
extração em escala piloto consultadas na literatura, foram calculados os parâmetros de
“scale-up” do processo. Foi realizado o cálculo do custo de manufatura do processo de duas
plantas de processamento de 10 e 3 toneladas de laranja. Para avaliação do gasto com
utilidades (vapor de aquecimento e fluido de resfriamento), foram realizadas simulações com
o “software” UniSim Design. Os resultados mostraram que quanto maior o tamanho do
empreendimento, menor o custo de manufatura. Contudo, um maior investimento inicial será
necessário para a compra dos equipamentos da planta. Processar 10 ou 3 toneladas de
laranja mostra-se viável sob o ponto de vista da margem bruta, podendo o empreendedor
lucrar até US$ 37,21 por tonelada de óleo produzido.

Palavras-chaves: Limoneno, extração, fluido supercrítico, resíduo, laranja.

1. INTRODUÇÃO

A extração por fluido supercrítico de compostos bioativos é uma técnica efetiva e rápida.
Seu emprego têm crescido na indústria por poder evitar o uso de solventes tóxicos. O dióxido
de carbono (CO2) é o solvente ideal para esta extração quando os compostos de interesse são
de baixa polaridade. O CO2 é não-explosivo, não-tóxico e fácil de purificar após a extração
(KNEZ et al., 2019) .
A incorporação do uso de subprodutos da indústria alimentícia para a produção de
óleos essenciais de alta qualidade a partir de sementes e cascas pode aumentar o valor de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

96
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mercado da empresa. Isto porque muitos destes óleos têm perfis lipídicos que são similares
aos tradicionalmente consumidos e também são fontes alternativas de compostos bioativos
(SANCHO et al., 2015). No Brasil, a indústria alimentícia e a de produção agrícola são a
principal fonte da economia do país. A indústria alimentícia é a que gera mais resíduos a
serem descartados. No mundo, aproximadamente 55 milhões de toneladas de resíduo de suco
de laranja são produzidos e o Brasil lidera a produção deste resíduo (OKINO DELGADO;
FLEURI, 2016). Estima-se que das 70 mega toneladas de laranja produzidas no mundo
anualmente, de 50 a 60% do peso total da fruta seja referente à casca (OZTURK;
WINTERBURN; GONZALEZ-MIQUEL, 2019).
Em virtude do que foi apresentado, o objetivo geral do presente trabalho foi realizar uma
estimativa do custo de manufatura (COM, cost of manufacturing), em escala industrial, do
processo de extração supercrítica do óleo de casca de laranja.

2. METODOLOGIA

2.1 Avaliação do COM


Para avaliar o COM utilizou-se a metodologia proposta por TURTON et al. (2012). A
metodologia estipula o COM como a soma de cinco itens multiplicados por suas respectivas
constantes empíricas: custo fixo de investimento (FCI - fixed capital of investment), custo da
mão-de-obra (COL - cost of operational labor), custo da matéria-prima (CRM - cost of raw
material), custo do tratamento de resíduos (CWT - waste treatment) e custo das utilidades
(CUT - cost of utilities). O custo pode ser determinado pelo uso Eq. (1):

COM (US $ / ano)  0,208FCI  2,73COL  1,23(CWT  CUT  CRM ) (1)

O gasto com energia elétrica pode ser calculado através do informe da potência dos
equipamentos, seu tempo de funcionamento e o custo $/ kWh. O custo de matéria-prima
(CRM) é calculado a partir da informação da quantidade total de matérias-primas utilizadas no
processo como um todo, como solventes, reagentes químicos etc. Enfim, o custo de
tratamento de resíduos (CWT) representa a estimativa do total gasto com o tratamento de cada
um dos resíduos sólidos, líquidos ou gasosos liberados.
O estudo do processo de extração em estado estacionário do óleo essencial da laranja
Citrus Sinensis foi realizado o simulador de processos UniSim Design. O uso do simulador de
faz necessário para a contabilização dos gastos com vapor e fluido de resfriamento, itens
indispensáveis para o cálculo do CUT.

2.2 Síntese do processo de extração


O processo de extração supercrítica com CO2 de oleorresinas e óleos vegetais já é um
processo muito bem conhecido. De forma geral, o processo conta com um extrator, no qual o
CO2 e a matriz sólida são inseridos. A fase leve é rica em CO2 e o extrato desejado. Para que o
CO2 seja separado do extrato, é necessário que a mistura seja despressurizada. Uma forma
simples de se realizar este processo é pela destilação tipo flash (KING; BOTT, 1993).
A Figura 1 apresenta o processo proposto para o presente trabalho. Neste processo, o CO2
obtido na separação flash (V-100) é reciclado pela corrente RYC-2. O extrator é representado
por um equipamento denominado splitter (X-101), este equipamento permite que o
programador fixe as massas que saem pela corrente de topo (extrato) e pela corrente de fundo
(rafinado). A adoção deste equipamento foi necessária em virtude de não haver equipamento
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

97
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

adequado para representação de equipamentos que trabalham com sólidos. O equipamento X-


100 realiza a purga do sistema, de modo a que a corrente 12 contenha apenas CO2 puro.
Na Figura 1, a corrente de alimentação de CO2 (sCO2) está a temperatura ambiente (25
°C e 60 bar). O trocador de calor E101 leva o CO2 puro à temperatura de 5 C° para que o
mesmo se liquefaça e possa ser bombeado. A bomba subsequente (P-100), eleva à pressão de
trabalho (200 bar) e o equipamento E102 à temperatura de trabalho (40°C). 200 bar e 40 °C
foram as condições de trabalho selecionadas. Estes valores são típicos para extração de óleos
vegetais (DE MELO; SILVESTRE; SILVA, 2014). E100 representa o equipamento
responsável por elevar a temperatura do extrato até a temperatura de extração (40 °C).
Foram realizadas duas simulações, a primeira considerando o processamento diário de 3
toneladas de laranja por hora (Projeto 1) e a segunda considerando 10 toneladas por hora
(Projeto 2). Considerando-se que 20% do peso total da fruta seja referente ao flavedo, que é
porção colorida da casca, rica em óleos essenciais (BERNA et al., 2000), o extrator processa
0,6 e 2 toneladas por hora de matéria-prima, respectivamente. Estas toneladas de laranja
diárias foram selecionadas tendo por base a produtividade brasileira de uma grande planta de
processamento de suco de laranja.

Figura 1 - Diagrama proposto para o processo representado no software UniSim

2.3 Definição dos compostos modelo e propriedades físicas


O componente majoritário do óleo extraído da casca de laranja é o limoneno, o qual
compõe pelo menos 90% do óleo essencial da casca de laranjas tipo Citrus Sinensis e outras
variedades comuns na produção de suco (BERNA et al., 2000; VALLE; CALDERÓN;
NÚÑEZ, 2019). Então, o limoneno foi selecionado como composto modelo para representar o
extrato oleoso obtido durante as simulações com o UniSim Design.
A celulose foi selecionada como pseucomposto para representar a matriz sólida nas
simulações deste trabalho. Os parâmetros necessários para sua modelagem foram consultados
no trabalho de Wooley e Putsche (1996). No software, a molécula foi criada como um
componente hipotético sólido, o qual não passa para a fase líquida ou gasosa.
Para o cálculo das não idealidades das fases em escoamento nos equipamentos em
questão, utilizou-se a equação de estado de Peng-Robinson para representar a fase vapor e o
modelo UNIFAC para a fase líquida.

2.4 Operação unitária do descascamento

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

98
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na indústria brasileira, o suco de laranja é extraído da fruta inteira sem que haja
descascamento, em extratores tipos mandril ou tipo espremedor (PEREIRA et al., 2018).
Portanto, para que haja a alocação de uma unidade de extração supercrítica do flavedo, o
mesmo deve ser separado da fruta, anteriormente à extração.
A separação do flavedo pode ser realizada utilizando-se um ralador ou descascador
industrial, anteriormente à obtenção do suco. Para realização deste trabalho, considerou-se a
compra descascador LXZZJ-10 (XINXIANG, 2019), cotado em US$15000 (valor cotado em
dezembro de 2019). Tal equipamento, segundo o fabricante, tem um motor de potência de 15
kW e capaz de processar até 10 toneladas por hora de laranja.

2.5 Detalhes sobre as estimativas de custos

Usando o valor atual do CEPCI, os dados de custo puderam ser ajustados pela inflação.
O CEPCI utilizado foi de 603,1 (valor para 2018). Outros dados necessários para determinar
os custos de material e energia foram obtidos nos fluxogramas simulados no UniSim. O
material de construção de todos os equipamentos foi aço inoxidável.
Somando-se a incerteza associada aos custos, adotação de equações de estado e a
ausência de maiores detalhes sobre tubulações e acessórios, a avaliação econômica realizada é
classificada como “de estimativa”, com estimativas precisas na faixa de + 40% a –25%.
(TURTON et al., 2012). O tempo de operação foi fixado em 24 h por dia durante 320 dias por
ano (ALBUQUERQUE; MEIRELES, 2012; SANTANA et al., 2017). O custo da terra foi
considerado nulo, tendo em vista que esta proposta visa à construção de uma pequena unidade
anexa à indústria de produção de suco. As eficiências das bombas foram assumidas em 75%.
Vapor foi usado como meio de aquecimento e a etilenoglicol foi o meio de resfriamento. Foi
considerada a contratação de 3 funcionários para a fiscalização da planta (1 por turno).

2.5.1 Cálculo do custo dos equipamentos

Bombas: De acordo com Vetter (1993), os solventes usados na extração supercrítica


requerem bombeamento sob condições em que mostram uma compressão substancial do
fluido e, associado a isso, haverá mudanças de temperatura. Devido ao seu design compacto,
alta velocidade e desempenho não pulsante, para o presente trabalho, os cálculos foram
realizados para bombas centrífugas.
Para o cálculo do custo das bombas, utilizou-se os modelos ajustados por Couper, Fair e
Penney (2005), tendo em vista que os equipamentos não foram encontrados no mercado
brasileiro. Em geral, estima-se uma precisão de 20 a 25% nos custos calculados, de acordo
com Couper, Fair e Penney (2005). Os custos das bombas foram calculados pela Eq. (2):

C  FM FT CB (2)

Na qual C é custo do equipamento em 2005 e é um fator de material, que para aço


inoxidável é igual a 2. Os termos CB e FT são calculados a partir da vazão de fluido ( V ) em
galão por minuto e da altura manométrica ( H ) em pés. Para o cálculo da altura manométrica
deve-se realizar o balanço de energia no equipamento, e que após algumas simplificações
relaciona a queda de pressão no equipamento (P) com o peso específico () (SILVA, 2010;
VETTER, 1993):

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

99
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

P
H  (3)

Os modelos possíveis cotados por Couper, Fair e Penney (2005) têm uma potência
máxima permitida. A potência de uma bomba centrífuga ( ) pode ser estimada como função
de sua eficiência (η) pela Eq. (4) (SILVA, 2010):

VH
w (4)

Trocadores de Calor: Trocadores de calor são equipamentos usados exclusivamente


para transferência de energia na forma de calor entre 2 ou mais fluidos, entre um fluido e uma
substância sólida, entre partículas sólidas que se encontram em diferentes temperaturas e em
contato térmico. O modelo tubo-carcaça consegue atingir maiores pressões, sendo elas de até
300 bar do lado do tudo e temperaturas de até 600 °C, dependendo do material de construção.
Os tubos variam de 10 a 1000 m². O modelo tubo-carcaça é o mais indicado para o processo
em análise (HEWITT; PUGH, 2007).
Convencionalmente, segundo Hewitt e Pugh (2007), o custo aproximado dos trocadores
de calor pode ser obtido em termos do custo por unidade de área. Estes autores
correlacionaram de forma gráfica materiais de construção, área de troca térmica e tipo de
escoamento (contracorrente ou concorrente). Se o coeficiente global de troca térmica (U), o
calor de troca (Q) e a diferença média de temperatura ( ) são conhecidos, então a área de
troca térmica (A) pode ser calculada como:

Q
A (5)
UFTm

Na qual F é um fator de correção que depende do número de passes. Neste estudo foi
utilizado F = 1, pois não se trata de um modelo de escoamento misto. é igual à média
logarítmica da temperatura. O valor de U pode ser estimado via correlações ou mesmo
consultado em literatura técnica especializada.
Vasos Extrator: Para estimar a quantidade de material passível de ser carregada no vaso
de extração perfeitamente cilíndrico, faz-se necessário calcular/estimar/medir a densidade
aparente do flavedo seco. Considerando-se a densidade aparente como sendo de 0,5 g.cm-³
(CHEGINI; GHOBADIAN, 2007), é possível estimar-se tamanhos razoáveis para o extrator.
Para um tempo de enchimento de 30 minutos e taxa mássica de flavedo de 0,6 (Projeto 1) ou
2 t/h (Projeto 2), obtém-se o volume do extrator.
Para o cálculo da composição das correntes de extrato e rafinado adotou-se as
considerações descritas a seguir. Realizando-se a extração a 40 °C e 200 bar, considerou-se
para o scale up que a razão vazão de solvente (S) por vazão de alimentação (FAL) igual a 10
(BERNA et al., 2000) para um processo controlado pela transferência de massa externa.
Segundo as curvas cinéticas de extração consultadas, a temperatura e pressão informadas,
para S/FAL=10, é possível obter 0,08 toneladas de extrato por tonelada alimentada de flavedo
Neste projeto foi considerado que o vaso é perfeitamente cilíndrico com uma proporção
de altura/diâmetro (L/D) de 4,5 por razões econômicas (DEL VALLE, JOSÉ M.; NÚÑEZ;
ARAVENA, 2014). A partir de um valor conhecido “1” pode-se estimar o valor de um novo
equipamento “2” conforme a Eq. (6), correlacionando seus volumes (COUPER; FAIR;
PENNEY, 2005; TURTON et al., 2012).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

100
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0, 6
 volume2 
custo2  custo1   (6)
 volume 1 

Tanque Flash: O separador líquido-vapor mais simples empregado comumente na


indústria é o destilador flash. Neste processo parte da corrente alimentada se vaporiza na
câmara do separador e parte se condensa. Vapor e líquido em equilíbrio são separados em
duas correntes, uma leve (de topo) e uma pesada (de fundo). O componente mais volátil será
concentrado na fase vapor (WANKAT, 2012).
As composições das correntes vapor e líquido e as vazões foram calculadas pelo software
UniSim. A partir delas adotou-se o procedimento indicado por Wankat (2012) para o seu
dimensionamento. Este procedimento é empírico e se baseia no cálculo da velocidade
permissível de vapor, :

 L  V
u perm  K drum (7)
V
Na Equação (7), é a máxima velocidade permissível de vapor na máxima área
transversal do tanque. e são as densidades do líquido e do vapor. é uma constante
empírica que depende do tipo de tanque. Usando a taxa de vapor conhecida, V, calcular área
da seção transversal, , a partir de pois:

V MWV 
Ac  (8)
u perm V

Assim, o diâmetro do flash (D) pode ser calculado, considerando um vaso perfeitamente
cilíndrico. Selecionar a razão altura/diâmetro (L/D). Para flashs verticais, a regra de ouro (rule
of thumb) é a de que L/D varia entre 3 e 5. Para o presente trabalho, por tratar-se de um estudo
de estimativa, adotou-se o valor de 4,5, assim como o utilizado para o extrator.

3 RESULTADOS E DISCUSSÃO

3.1 Efeito do tamanho do empreendimento sobre o custo da manufatura


Sumarizando as informações apresentadas na metodologia, a Tabela 1 apresenta as taxas
mássicas utilizadas nos Projeto 1 e 2.

Tabela 1 - Taxas mássicas de insumos e produtos nos Projetos realizados.


Item [t/h] Projeto 1 Projeto 2
Quantidade de laranja processada 3 10
Flavedo processado 0,6 2
Solvente no processo 6 20
Quantidade de extrato produzida 0,048 0,16

Dimensionamento de bombas: Utilizando-se os seguintes valores: (para


2
T=15,84°C e P=200 bar) e g = 9,789 m/s ; então: H= 1497,364 m = 4912,612 ft para ambos
os Projetos por se encontrarem nas mesmas condições de operação. É importante ressaltar que
a compressão resulta em leve aumento da temperatura na descarga. A temperatura simulada
foi aquela prevista pelo software UniSim Design.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

101
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Adotando o rendimento máximo da bomba de 85%, e usando todos os valores no


Sistema internacional de medidas, tem-se que = 29930,4161 watts = 40,14 HP, para o
Projeto 1 e = 99768,0535 watts = 133,79 HP, para o Projeto 2. Aplicando-se uma margem
de segurança de 10%, a potência da bomba recomendada é de 45 HP para o Projeto 1 e de 150
HP para o Projeto 2.
Projeto de Trocadores de Calor: O coeficiente global de troca térmica para um trocador
de calor de finas camadas de aço inox está próximo de 300 Wm-2K-1 (DRESCHER et al.,
2013). Na Tabela 2 estão representadas as temperaturas de entrada e saída dos trocadores de
calor (T representa a temperatura, os subscritos h e c indicam os fluidos quente e frio). O
custo de E100 foi negligenciado, uma vez que os custos de aquecimento e compressão do CO2
são os mais elevados para o projeto em questão (ROSA; MEIRELES, 2005).
Tabela 2 - Dados de Projeto dos trocadores de calor.
Projeto 1 Projeto 2
Variável de interesse
E101 E102 E101 E102
[°C] 15,84 -10 15,84 -10
[°C] 40 15 40 15
[°C] 90 25 90 25
[°C] 25 5 25 5
[°C] 46,99 44,60 46,99 44,60
A [m²] 25,42 6,59 84,55 21,99
C [US$/m²] – em 1994 309,44 312,56 225,04 312,56
C [US$/m²] – corrigido CEPCI]a 507,13 512,24 368,81 512,24
C[US$] – corrigido CEPCI]a 12891,24 3375,66 31182,89 11264,16
a
– CEPCI de 1994 = 368

Dimensionamento de Vasos de Extração: Berna et al. (2000) reportaram diversas curvas


cinéticas de extração a partir de casca de laranja com CO2 supercrítico utilizando um
equipamento em escala de piloto. A 200 bar e 40 °C, os dados experimentais indicam que em
~42 minutos a etada controlada pela transferência de massa externa é finalizada. Para o scale
up do processo considerou-se que o tempo de extração da escala real está próximo ao da
escala piloto. Logo, admitiu-se na simulação que em 42 minutos o processo necessitaria ser
interrompido para esvaziamento do leito fixo e subsequente reposição do material.
Logo, faz-se necessário instalar 2 ou 3 extratores para que haja a geração contínua de
produto se estes trabalharem em paralelo. A escolha de 2 ou 3 dependerá do tempo requerido
para esvaziar o tanque, limpar (se necessário) e recarregar os extratores. Para realização deste
trabalho, idealizou-se a escolha de 3 extratores para o processo. O volume do extrator foi
estimado considerando-se 30 minutos para o enchimento do vaso com flavedo.
O valor utilizado como base para a cotação do vaso extrator foi o utilizado por Prado et
al. (2012) que é de US$ 575000,00 para um extrator de 0,5 m3. Pelo o uso da Eq. 6 foi
possível calcular o valor dos extratores para ambos os Projetos. Tais valores são apresentados
na Tabela 3.
Tabela 3 - Custos unitários por extrator.
Variável Projeto 1 Projeto 2
Volume [m³ 0,6 2
C [US$] – em 2012 641470,35 1321003,10
C [US$] – em 2018a 661770,05 1362807,00
a
– CEPCI de 2012 = 584,6
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

102
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Projeto de Tanque Flash: Através dos dados retirados do software UniSim e do método
empírico descrito por Wankat (2012) obteve-se os resultados dispostos na Tabela 4.

Tabela 4 - Custos unitários por separador


Variável Projeto 1 Projeto 2
Volume [m³] 0,03 0,17
C [US$] – em 2012 102302,41 302280,01
C [US$] – em 2018 105539,83 311845,83

Custo de Manufatura – COM: Por fim, o Projeto 1 teve investimento inicial com
equipamentos cotado em US$ 2368116,88 e o Projeto 2 US$ 4703713,88. Considerado sem
custo, uma vez que é um rejeito do processo. O custo de pré-tratamento (secagem) do flavedo
foi considerado desprezível, tendo em vista a baixa umidade do material. Na sequência estão
explicitados valores que auxiliam no cálculo do custo de utilidades – CUT. Uma vez que a
bomba utiliza de eletricidade, um dos trocadores de calor utiliza vapor de aquecimento e o
outro etileno glicol (para resfriamento). Neste projeto, considerou-se que o flash utiliza
etileno glicol também para seu resfriamento. Na Tabela 5 encontram-se os valores base para o
cálculo. Quanto ao cálculo do tratamento de efluentes, o mesmo foi considerado sem custo,
uma vez que o material é orgânico pode ser compostado e não é resíduo perigoso. A água de
limpeza dos extratores foi considerada desprezível.

Tabela 5 - Resultados obtidos referentes ao CUT, CRM e COM


Custos [US$/ANO] Projeto 1 Projeto 2
Eletricidade 15966,72 53089,34
Vapor 44578,51 148595,04
Resfriamento 128764,42 428610,68
CUT 189309,65 630295,06
CRM = CO2 10488912 34893080

Para o Projeto 1, totalizou-se US$ 14148819,34 por ano e US$ 45194162,21 por ano.
Isto totaliza, por tonelada de extrato produzida, valores de US$ 37,21 e 35,66. Logo, um
aumento de escala do Projeto, passando do processamento de 3 para 10 toneladas de laranja
(vide Tabela 1), diminui o custo de manufatura.
Avaliar o preço de comercialização do produto em questão não é uma tarefa fácil uma
vez que este depende do uso e das flutuações intrínsecas do mercado. Considerando-se o uso
em aromaterapia, foram consultados valores relativos a óleos obtidos via extração à frio. Estes
valores estão dispostos na Tabela 6. Estes valores indicam um preço médio de mercado de
US$ 24 por kg.
A margem bruta (MB) é um indicador econômico que mede a rentabilidade de um
negócio, ou seja, qual a porcentagem de lucro que se ganha com cada venda (TURTON et al.,
2012). Então,
(9)
Assim, a MB para Projeto 1 e 2 seria muito atrativa, tendo em vista que o preço de
venda é muito maior que o preço de produção.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

103
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 6 - Preço de mercado do óleo essencial de laranja.


Fabricante Preço [US$/kg]
1
Jedwards International, Inc. 17
Xi'an Sonwu Biotech Co., Ltd.2 35
3
Jian Hairui Natural Plant Co., Ltd. 19
Borg Export4 25
MÉDIA 24

4 CONCLUSÕES

Uma avaliação econômica do processo de extração do óleo essencial da casca de laranja a


partir do processo de extração supercrítica com CO2 foi realizada neste trabalho. A extração à
200 bar e 40 ºC foi simulada utilizando-se o software UniSim Design para estimar o custo de
manufatura (COM) para duas escalas de produção (3 e 10 toneladas de laranjas processadas).
Para estimar o COM, considerou-se os rendimentos experimentais obtidos em escala de piloto
que foram consultados na literatura. O COM foi estimado em US$ 35,66 e 37,21 por 1000 kg
de óleo essencial, respectivamente. Estes valores são superiores ao preço de venda do produto
que foi consultado como sendo de US$ 24 por kg. Logo, por uma análise preliminar, o
processo é altamente viável economicamente e a escala de produção depende da demanda
pelo produto.

REFERÊNCIAS
ALBUQUERQUE, Carolina L.C.; MEIRELES, M. Angela A. Defatting of annatto seeds using supercritical
carbon dioxide as a pretreatment for the production of bixin: Experimental, modeling and economic
evaluation of the process. Journal of Supercritical Fluids, v. 66, p. 86–94, 2012.
BERNA, A. et al. Supercritical CO2 extraction of essential oil from orange peel; effect of the height of the bed.
Journal of Supercritical Fluids, v. 18, n. 3, p. 227–237, 2000.
CARVALHO, Raul N. et al. Supercritical fluid extraction from rosemary (Rosmarinus officinalis): Kinetic data,
extract’s global yield, composition, and antioxidant activity. Journal of Supercritical Fluids, v. 35, n. 3, p.
197–204, 2005.
CHEGINI, G R; GHOBADIAN, B. Spray Dryer Parameters for Fruit Juice Drying. World Journal of
Agricultural Sciences, v. 3, n. 2, p. 230–236, 2007.
COUPER, James R.; FAIR, James R.; PENNEY, W. Roy (Org.). Costs of Individual Equipment. Chemical
Process Equipment. 2th. ed. [S.l.]: Elsevier, 2005. p. 719–728.
DEL VALLE, José M.; NÚÑEZ, Gonzalo A.; ARAVENA, Raúl I. Supercritical CO2 oilseed extraction in multi-
vessel plants. 1. Minimization of operational cost. Journal of Supercritical Fluids, v. 92, p. 197–207, 2014.
DEL VALLE, José Manuel; CALDERÓN, Diego; NÚÑEZ, Gonzalo A. Pressure drop may negatively impact
supercritical CO2 extraction of citrus peel essential oils in an industrial-size extraction vessel. Journal of
Supercritical Fluids, v. 144, n. October 2018, p. 108–121, 2019. Disponível em:
<https://doi.org/10.1016/j.supflu.2018.09.005>.
HEWITT, Geoff F.; PUGH, Simon J. Approximate design and costing methods for heat exchangers. Heat
Transfer Engineering, v. 28, n. 2, p. 76–86, 2007.
Histórico das Taxas Cambiais. Disponível em: <https://fxtop.com/pt/historico-das-taxas-de-
cambio.php?A=200&C1=GBP&C2=USD&DD1=31&MM1=12&YYYY1=1994&B=1&P=&I=1&DD2=04&M
M2=03&YYYY2=2020&btnOK=Pesquisar>.
KING, M. B.; BOTT, T. R. (Org.). Extraction of Natural Products Using Near-Critical Solvents. Dordrecht:
Springer Netherlands, 1993.

1
https://bulknaturaloils.com/1-gallon-orange-oil-cold-pressed-128-fl-oz.html
2
https://m.alibaba.com/amp/product/60738929112.html
3
https://m.alibaba.com/amp/product/60852560805.html
4
https://www.alibaba.com/product-detail/Citrus-sinensis-Orange-Oil-Orange-
Essential_50012263753.html?spm=a2700.7724857.normalList.43.6f30504dVeT1NG
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

104
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

KNEZ et al. Industrial applications of supercritical fluids: A review. Energy, v. 77, p. 235–243, 2014.
KNEZ, Željko et al. Are supercritical fluids solvents for the future? Chemical Engineering and Processing -
Process Intensification, v. 141, n. December 2018, 2019.
MOSS, Dennis; BASIC, Michael. Pressure Vessel Design Manual (Fourth Edition). [S.l: s.n.], 2012.
OKINO DELGADO, Clarissa Hamaio; FLEURI, Luciana Francisco. Orange and mango by-products: Agro-
industrial waste as source of bioactive compounds and botanical versus commercial description—A review.
Food Reviews International, v. 32, n. 1, p. 1–14, 2016. Disponível em:
<http://dx.doi.org/10.1080/87559129.2015.1041183>.
OZTURK, Baranse; WINTERBURN, James; GONZALEZ-MIQUEL, Maria. Orange peel waste valorisation
through limonene extraction using bio-based solvents. Biochemical Engineering Journal, v. 151, n. July, p.
107298, 2019. Disponível em: <https://doi.org/10.1016/j.bej.2019.107298>.
PENG, Ding-Yu; ROBINSON, Donald B. A New Two-Constant Equation of State. Industrial & Engineering
Chemistry Fundamentals, v. 15, n. 1, p. 59–64, 1976.
PEREIRA, ISABELLA BORDINHÃO TORRES et al. Indústria de suco de laranja integral. 2018. 165 f.
Universidade Tecnológica Federal do Paraná, 2018.
PRADO, Juliana M. et al. Supercritical fluid extraction of grape seed: Process scale-up, extract chemical
composition and economic evaluation. Journal of Food Engineering, v. 109, n. 2, p. 249–257, 2012.
Disponível em: <http://dx.doi.org/10.1016/j.jfoodeng.2011.10.007>.
SANCHO, Soraya De Oliveira et al. Characterization of the Industrial Residues of Seven Fruits and. v. 2015,
2015.
SANTANA, Ádina L. et al. Kinetic behavior , mathematical modeling , and economic evaluation of extracts
obtained by supercritical fluid extraction from defatted assaí waste. Food and Bioproducts Processing,
2017.
SILVA, Rosineide Gomes Da. Transporte de fluidos. 1st. ed. São Carlos: EdUFSCar, 2010.
TURTON, Richard et al. Analysis, Synthesis, and Design of Chemical Processes. 4th ed ed. Ann Arbor
(Michigan-USA): Pearson Education, 2012.
VETTER, G. Pumps and compressors for supercritical extraction: design, characteristics and installation. In:
KING, M. B.; BOTT, T. R. (Org.). . Extraction of Natural Products Using Near-Critical Solvents.
Dordrecht: Springer Netherlands, 1993. p. 261–298.
WANKAT, Phillip C. Separation Process Engineering: Includes Mass Transfer Analysis. 3th. ed. [S.l.]: Prentice
Hall International Inc., 2012.
WOOLEY, R.J.; PUTSCHE, V. Development of an ASPEN PLUS physical property database for biofuels
components. . Golden, CO: [s.n.], abr. 1996.
YOUSEFI, Mohammad et al. Supercritical fluid extraction of essential oils. TrAC - Trends in Analytical
Chemistry, v. 118, p. 182–193, 2019.

MANUFACTORING COST OF SUPERCRITICAL CARBON


DIOXIDE EXTRACTION OF ORANGE PEEL OIL.
Abstract. The extraction of essential oils by CO2 as a supercritical fluid is a green technology,
which has attracted the attention of the worldwide industry. Brazil is one of the largest
producers of orange juice. The residue from the production of juice includes the skin of the
fruit that contain a substantial amount of oils. The presente work aims to carry out an
economic evaluation of the extraction process with supercritical CO2 of the orange essential
oil. Through pilot scale extraction kinetic curves consulted in the literature, the scale-up
parameters of the process were calculated. The process manufacturing cost was calculated
for two processing plants of 10 and 3 tons of orange. To evaluate the cost of utilities (heating
steam and cooling fluid), simulations were performed with the UniSim Design Software. The
results showed that the larger the size of the enterprise, the lower the manufacturing cost.
However, a larger initial investment will be required to purchase the plant’s equipment.
Processing 10 or 3 tons of oranges proves to be viable from the point of view of the gross
margin, and the entrepreneur can profit up to US$ 37,21 per ton of oil produced.

Keywords: Limonene, extraction, supercritical fluid, residue, orange.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

105
ANÁLISE DE VIBRAÇÕES E DETECÇÃO DE FALHA DE DESBALANCEAMENTO
NO SISTEMA ROTOR EM UM MOTOR DE INDUÇÃO TRIFÁSICO POR MEIO DE
REDES NEURAIS ARTIFICIAIS

Autor- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Autor- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brasil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brasil.

Resumo. As vibrações mecânicas consistem em oscilações de um corpo acerca de sua


posição de equilíbrio, sendo o desbalanceamento de sistemas dinâmicos o fenômeno onde o
centro de massa do objeto não coincide com seu centro de rotação, gerando vibrações
radiais e axiais que ocasionam instabilidades no sistema e esforços com potencial de danos
permanentes. No processo de monitoramento e análise de vibrações é necessário o uso de
sensores e micro controladores que captam determinadas grandezas físicas associadas às
vibrações mecânicas e as convertem em informações quantitativas que podem ser analisadas
externamente. A aplicação da Inteligência Computacional viabiliza que um sistema
eletrônico ou computador digital acompanhe as condições nas quais a máquina está sendo
exposta durante sua utilização e, através dos dados disponíveis, apresente resultados para
controle ou correção de processos. Este trabalho teve como objetivo realizar a análise
vibracional e detecção de desbalanceamento em um sistema rotor por meio da aplicação de
duas arquiteturas neurais artificiais, com análise dos sinais coletados em um modelo
experimental, visando o treinamento do sistema de detecção. Após coletados, os dados
passaram por um tratamento computacional e constituíram a base de programação das redes
neurais artificiais, objetivando a identificação das falhas de desbalanceamento no
componente.

Palavras-chave: Feedforward. Neurodinâmica. Rede Neural Artificial. Rotores. Vibrações.

1. INTRODUÇÃO

A aplicação da inteligência computacional para análise de falhas de vibrações em


sistemas dinâmicos se dedica à aplicação de ferramentas e algoritmos para resolução de
situações envolvidas nas etapas de processamento, análise dos dados e tomada de decisões,
quanto ao estado do modelo estudado. Os sistemas inteligentes computacionais dinamizam as
metodologias de seleção dos valores primordiais para o reconhecimento dos padrões e
obtenção dos sinais que oferecerão as informações centrais a serem aplicadas na distinção de
estados, conferem celeridade ao processo de determinação da real situação do equipamento,
com o uso de ferramentas adaptativas que se encaixam no contexto de funcionamento da
máquina, além de disporem de um nível de erro final baixo, se comparado aos modelos
convencionais, nos processos envolvidos em análises, classificações e tomadas de decisões.

1.1 Vibrações Mecânicas

Um fenômeno vibracional trata-se do modelo físico embasado na transformação da


energia potencial em energia cinética e da energia cinética em potencial, apresentando meios
de armazenamento de energia potencial (k), de conservação da energia cinética (m) e um meio
de dissipação gradual da energia total do sistema (c).
Conforme afirma Rao (2012), o desbalanceamento de massas em um sistema mecânico
consiste na não distribuição uniforme das massas deste através da sua seção, com seu eixo de

106
rotação não sendo coincidente ao seu centro de massa, ou de força. Na literatura são citadas
três categorias básicas de desbalanceamento em sistemas de trem alternativo, sendo estas o
desbalanceamento estático, o desbalanceamento parelho (ou por par de forças) e o
desbalanceamento dinâmico. No desbalanceamento estático ocorre o deslocamento do centro
de massa do corpo paralelamente à linha de centro do eixo, com concentração de esforços
sobre os apoios (mancais), gerando uma força centrífuga na frequência (1x RPM), com forte
pico no espectro de vibrações. O desbalanceamento parelho existe quando o centro de massa
intercepta a linha de centro do eixo até seu centro de gravidade, com o equipamento
aparentando estar balanceado estaticamente, mas produzindo forças centrífugas nos mancais
de rolamento, em fase oposta, gerando elevado nível de vibrações axiais e radiais. O
desbalanceamento dinâmico é a combinação dos dois tipos de desbalanceamento
anteriormente descritos, com o centro de massa não sendo paralelo nem interseccionado pelo
eixo de rotação. A correção do desbalanceamento requer um trabalho de correção, em um
plano ou mais, a depender do tipo, geralmente com aplicação de pesos corretivos ou remoção
de massas do corpo desbalanceado. Os sinais são processados visando à captação das fases,
deslocamento e velocidade do sistema, auxiliando na identificação e correção de falhas.
Se a posição angular das massas é medida em relação ao seu eixo horizontal, a
componente vertical total da excitação de desbalanceamento, ou F(t), será obtida a partir da
Eq. (1) para formulação do movimento geral de um modelo de massas desbalanceadas.

(1)

1.2 Redes Neurais Artificiais

As Redes Neurais Artificiais, de acordo com Haykin (1999), representam um sistema


dinâmico altamente paralelizado com um gráfico direcionado à sua topologia que pode
receber a informação de saída por meio de uma reação de seu estado em ações de entrada. Os
seus elementos de processamento e os canais direcionados são chamados, respectivamente, de
neurônios artificiais e nós da rede (ou conexões sinápticas). A Fig. 1 representa a estrutura
básica de uma Rede Neural Artificial multicamadas com retropropagação do erro.

Figura 1 - Rede Neural Artificial MLP (Multilayer Perceptron).

A aprendizagem de sistemas neurais, segundo Jang et al. (1997), é um processo pelo qual
os parâmetros livres de uma rede são adaptados através de um processo de estímulos pelo
ambiente no qual a mesma está inserida. O tipo de aprendizagem é determinado pela maneira
sobre a qual a modificação de parâmetros ocorre, onde a rede neural programada é estimulada
por um ambiente, sofre modificações nos seus parâmetros livres como resultado desta
situação e responde de uma maneira nova ao ambiente, devido às modificações ocorridas na
sua arquitetura interna. Os algoritmos de aprendizagem são compreendidos como um
conjunto pré-estabelecido de regras definidas para a solução de um problema de
aprendizagem da rede neural, sendo que estes algoritmos basicamente se diferem de acordo
com a formulação nos ajustes dos pesos sinápticos (wji) de um neurônio, com relação à sua
função de ativação (φ), que pode ser linear ou não, e seu campo local induzido (vj). Assim, o

107
sinal de entrada (yi) é convertido em um novo sinal na saída (yj), numa rede neural Perceptron
multicamadas, por exemplo, de acordo com as relações da Eq. (2), da Eq. (3) e da Eq. (4).

(2)

(3)

(4)

Uma rede feedforward de múltiplas camadas apresenta uma ou mais camadas ocultas de
processamento, cujos nós computacionais são conhecidos como unidades ocultas, ou
neurônios ocultos. Nesta arquitetura a rede neural apresenta uma perspectiva global do
problema, com sua configuração conectiva local conferindo aos neurônios capacidade de
extração de informações estatísticas de ordem elevada. Os nós da fonte fornecem os vetores
de entrada, e os sinais de saída de uma camada são utilizados como entrada da camada
subsequente. O conjunto de sinais fornecidos pela camada de saída da rede constitui sua
resposta global ao padrão de ativação fornecido pelos nós de fonte da camada de entrada.
De acordo com Feldkamp e Puskorius (1998), a programação neurodinâmica permite que
um sistema aprenda tomar decisões a partir do retorno do seu próprio comportamento, com
melhora em suas ações através de um dispositivo de reforço em um mecanismo incorporado.
A arquitetura neurodinâmica mostrada na Fig. 2, utilizada na aproximação e predição de
padrões temporais e respostas em sistemas dinâmicos, é chamada na literatura de NARX
(Nonlinear AutoRegressive models with eXogenous input), sendo características de uma rede
NARX sua efetividade, capacidade de generalização e velocidade de aprendizagem. Nesta
estrutura neural são inseridas entradas em séries temporais, vetores de pesos sinápticos,
entradas exógenas, camadas ocultas e saídas desejadas, onde o modelo utiliza as series
temporais das entradas na geração do retorno dinâmico dos neurônios e aumento da taxa de
aprendizado dos elementos de processamento, tornando-se uma poderosa ferramenta para
modelagem não linear, frequentemente utilizada na Engenharia de Controle.

Figura 2 - Rede Neural Artificial Neurodinâmica NARX.

2. MATERIAIS E MÉTODOS

Os sinais utilizados no treinamento, validação e testagem das Redes Neurais Artificiais se


originaram a partir das variáveis físicas vibracionais captadas em um modelo físico
experimental específico para as análises de vibração e detecção das falhas descritas neste
trabalho. Esta fase contou com o auxílio estrutural fornecido pelo CEPEAGE (Centro de

108
Prática de Engenharia, Arquitetura e Gestão), unidade educacional pertencente à instituição de
ensino superior Centro Universitário FipMoc). O sistema de instrumentação proposto foi
implementado em uma bancada de análises de vibrações, mostrada na Fig. 3, já instalada no
CEPEAGE, desenvolvida previamente por acadêmicos da instituição.

2.1 Coleta dos sinais de vibração e treinamento das redes neurais

A obtenção dos dados de vibração se fundamentou na coleta e processamento dos sinais


de aceleração, velocidade angular e frequência de rotação do sistema rotor, em situações
distintas de balanceamento, com a aplicação de um sistema de instrumentação construído
pelos autores, formado por um Sensor Acelerômetro Triaxial (microelectromechanical
system), um Microcontrolador, modelo Arduino Uno-R3, um dispositivo de condicionamento
de sinais, fornecido pela estrutura do CEPEAGE, e um sensor indutivo de captação metálica,
voltado à coleta dos dados da frequência rotativa e velocidade angular do equipamento. Para
validação dos sinais obtidos com o sensor proposto pelos autores, foram feitas análises com
um equipamento de controle e detecção de falhas, pertencente à estrutura das FipMoc, modelo
Teknikao-NK820. Este conjunto consiste em um sensor acelerômetro piezelétrico e um sensor
indutivo, além do software SDAV, que permite a visualização gráfica dos resultados.

Figura 3 – Sistema de instrumentação proposto pelos autores e bancada de testes.

Foram realizados três procedimentos de simulação dinâmica no rotor instalado sobre o


eixo de rotação do motor trifásico, visando à obtenção dos sinais de vibrações para
treinamento das Redes Neurais Artificiais. O primeiro caso envolveu uma simulação de
balanceamento teórico do rotor, sem adição de nenhuma massa de desbalanceamento ao
mesmo, onde ambos os sistemas de instrumentação indicaram o balanceamento do
equipamento. No segundo caso foi simulado o desbalanceamento no rotor, pela adição de uma
massa total de 18,24 gramas, dividida em duas massas distintas com 11,16 gramas e 7,08
gramas, instaladas em pontos defasados do rotor em 180º, distantes 1,5 cm do ponto de raio
zero do rotor, sendo reconhecido o desbalanceamento pelo sensor de validação e resultado
inconclusivo para o sistema proposto pelos autores. Já no terceiro caso foi simulado o
desbalanceamento do equipamento, com adição de uma massa total de 23,36 gramas, dividida
em duas massas distintas de 11,16 gramas e de 12,20 gramas, situadas em pontos com 180° de
defasagem, cada uma distante 2,25 cm do ponto de raio zero do corpo dinâmico analisado,
onde ambos os modelos de instrumentação indicaram o desbalanceamento do rotor.
Após a aquisição dos sinais de vibração, os mesmos foram processados, por meio da
filtragem analógica de passa-baixa, digitalização, filtragem digital de passa-faixa e
janelamento, no software MATLAB r2011-b, para formarem as bases de treinamento e
validação na programação da Rede Neural Dinâmica e da Rede Multicamadas feedforward.

109
Os sinais representados no domínio do tempo apresentam sua amplitude em função de
intervalos temporais. Porém, certas situações requerem que sua representação seja feita em
função do domínio das frequências, através da obtenção do espectro dos sinais. Um dos
algoritmos aplicáveis para a transposição de um sinal do domínio do tempo ao domínio da
frequência é a Transformada Rápida de Fourier (ou FFT), efetuando a correlação estabilizada
entre o sinal no domínio do tempo e sua representação no domínio da frequência. Os sinais
obtidos pelo modelo de instrumentação formulado, após processamento, estão na Fig. 4. Os
sinais da Fig. 5 tratam-se dos dados obtidos a partir de cada componente de sinais por
frequência de operação. Os mesmos foram analisados pela rede neurodinâmica e aplicados no
treinamento do classificador gerado a partir da rede Multilayer Perceptron feedforward.

Figura 4 – Sinais temporais de vibração obtidos pelo sistema de instrumentação proposto.

Figura 5 – Assinaturas espectrais dos casos simulados de desbalanceamento.

2.2 Programação das redes neurais artificiais

A modelagem dos programas de análise e classificação desenvolvidos (rede


neurodinâmica NARX e rede Multilayer feedforward) envolveu a disposição dos padrões de
entrada, de acordo com duas classes rotuladas como Teoricamente Balanceado e
Desbalanceado (com adição da massa total de 23,36 gramas), para que cada arquitetura
verificasse as tendências dos conjuntos de sinais, diferenciando os casos, sendo que um
terceiro conjunto de sinais, sem rótulos, foi utilizado em ambas as redes, após seu treinamento
e validação. Foram inseridas, durante a implementação total dos modelos, quatro bases de
dados rotuladas, com 1940 padrões de entrada cada, representando os casos de balanceamento
teórico e desbalanceamento, além das respectivas assinaturas espectrais. Duas bases de dados
não rotuladas, com 970 padrões de entrada cada, foram utilizadas na testagem dos sistemas,
após sua modelagem. A divisão dos dados, durante o treinamento das redes neurais, seguiu o

110
padrão de 70% dos dados separados para o treinamento, 15% separados para validação e 15%
dos dados separados para testagens. Como avaliação do desempenho e capacidades de
aproximação e generalização das redes foram utilizados os métodos do Erro Médio
Quadrático, do Gradiente Descendente, a análise de Regressão (Teste R) e do Histograma de
Erros. Os sinais de vibração em dois eixos de análise (x e y) e a velocidade angular do sistema
rotativo formaram os dados de treinamento e validação do classificador que, de acordo com
os padrões, formulou sua resposta binária ao desbalanceamento no equipamento, onde a
matriz [1 0 1] é sua resposta ao sistema balanceado e [0 1 0] ao desbalanceamento, sendo
calculada a acurácia na classificação do sistema de detecção de falhas, nos dados rotulados.

3. RESULTADOS E DISCUSSÃO

A Rede NARX (01) efetuou o diagnóstico temporal dos padrões do sistema, com uso dos
valores de alvo e verificação das entradas, para execução das análises de vibrações e geração
das respostas neurais aos estímulos. A arquitetura resultante da rede (01) é apresentada na Fig.
6. A correlação entre a saída da rede (01) e os padrões desejados, de acordo com o Teste de
Regressão (ou Teste R), durante seu treinamento, validação e testagem, foi de 0,998 para o
sinal Teoricamente Balanceado e 0,990 para o sinal Desbalanceado. Este resultado indica uma
relação próxima entre as respostas da rede e os alvos, sendo que valores baixos obtidos neste
teste indicam respostas aleatórias da rede. Considerando os sinais de teste, a rede (01)
apresentou valor de 0,997 para o sinal balanceado e 0,966 para o sinal desbalanceado, de
acordo com o Teste R. O Erro Médio Quadrático da rede (01) foi 0,00003815 na resposta aos
estímulos do sinal balanceado e 0,00077928 aos estímulos de desbalanceamento.

Figura 6 – Arquitetura neurodinâmica implementada no processo de análise temporal.

A Fig. 7 apresenta a resposta do sistema neurodinânico aos estímulos dos sinais de teste,
não rotulados quanto ao seu balanceamento, com a representação temporal ilustrada. A Fig. 8
ilustra os resultados da avaliação das respostas fornecidas pela rede aos estímulos de teste.

Figura 7 – Resposta da Rede (01) aos estímulos do sinal de teste.

111
Figura 8 – Resultados das respostas da Rede (01) aos sinais de teste não rotulados.

A Rede MLP feedforward (02) efetuou sua metodologia de classificação e detecção, com
a execução analítica dos sinais, após o seu treinamento e validação. Seu nível de reposta aos
estímulos gerados pelos sinais, de acordo com o Teste de Regressão, durante o treinamento,
validação e testagem, foi de 0,949 para o sinal Teoricamente Balanceado e 0,962 para o sinal
Desbalanceado. Considerando os sinais de teste rotulados, a rede (02) apresentou um valor de
0,952 para o sinal balanceado e 0,885 para o sinal desbalanceado, de acordo com o Teste R,
ocorrendo nesta arquitetura uma resposta correlativa ligeiramente inferior à rede 01, situação
prevista, por esta arquitetura não haver sido implementada visando exclusivamente o
comportamento de um sistema de modelagem dinâmica temporal. O Erro Médio Quadrático
da rede (02) foi de 0,0021017 na resposta aos estímulos do sinal balanceado e de 0,0010587
para o sinal desbalanceado. A arquitetura resultante da rede (02) é detalhada na Fig. 9.

Figura 9 – Arquitetura da rede feedforward (02).

Nesta arquitetura foi calculada a acurácia do classificador, considerando as respostas


preditas pela rede, a partir dos vetores de treinamento e validação, e os resultados rotulados,
sendo que a rede (02) apresentou acurácia geral de 96,55% na classificação dos sinais de
treinamento e validação balanceados, de 92,25% em sua acurácia geral no treinamento e
validação com os sinais desbalanceados e uma acurácia de 90,50% na classificação em testes
efetuados com dados rotulados, mas que não foram inseridos em nenhuma das etapas prévias
de treinos. A Fig. 10 apresenta o histograma de erros das respostas geradas aos estímulos na
rede (02), constituído com base nos sinais de treinamento, teste e validação rotulados.

112
Figura 10 – Histograma de Erros das respostas da Rede (02) aos estímulos dos sinais.

A Tabela 1 dispõe os resultados principais obtidos a partir das respostas fornecidas pela
rede neurodinânica (01) e pela rede feedforward (02), aplicadas na classificação e predição de
estado do equipamento, durante a modelagem de ambas, nas fases de treinamento e testes.

Tabela 1 – Resultados das redes neurais modeladas.

4. CONCLUSÃO

A aplicação de ambas as arquiteturas neurais e a junção destas aos recursos de estimação


de padrões dinâmicos não lineares objetiva níveis de aproximação aos dados de treinamento,
com respostas minimamente discrepantes dos sinais reais captados pelos sensores e
fornecidos pelos sistemas de validação. Este estudo objetivou modelar um sistema de análise
e detecção de falhas vibracionais para verificação de desbalanceamento em rotores instalados
sobre eixos de motores trifásicos, com o fornecimento a resposta temporal dos sinais de

113
comportamento dinâmico gerados pelo equipamento físico. Com base nos dados inseridos no
treinamento, foi programada uma metodologia de verificação para entradas não rotuladas e
testes, com relação aos mesmos, visando à execução da análise do sistema monitorado e o
desenvolvimento da metodologia inicial proposta de análise e detecção, com a verificação dos
valores de testagem e mapeamento dos sinais e comportamento do sistema, sendo avaliados
os níveis de acurácia nas fases de implementação da rede multicamadas de classificação.
Ambas as arquiteturas neurais geradas apresentaram níveis satisfatórios de aproximação
aos padrões de treinamento e sinais, com respostas próximas aos valores reais captados pelos
sensores de vibração utilizados. De acordo com os resultados obtidos, pode-se concluir que os
modelos aqui propostos conseguiram efetuar uma análise de vibrações confiável e também
confiável detecção de desbalanceamento em rotores de motores de indução trifásicos. A Rede
Neurodinâmica (01) forneceu sua resposta temporal ao comportamento do sistema físico, se
valendo dos dados inseridos nos valores de alvo, desenvolvendo a verificação das entradas
não rotuladas e dos testes, com relação aos mesmos, para execução da sua análise. Os níveis
de aproximação da mesma foram considerados satisfatórios, com base nos resultados das
análises apresentadas para sua avaliação, descritas nas seções de metodologia e resultados. A
Rede MLP feedforward (02), assim como a primeira, desenvolveu sua metodologia proposta
de análise e detecção, com a verificação dos valores de testagem, após seu treinamento e
validação. Além de a mesma efetuar, com aproximação, sua resposta aos estímulos dos sinais
de entrada e comportamento do sistema, também apresentou elevada acurácia do
classificador, em todas as fases de sua implementação, comprovando sua capacidade de
generalização e a confiabilidade dos resultados por ela fornecidos para casos não rotulados.
Finalizando este trabalho, suas principais contribuições podem ser relacionadas à
fundamentação conceitual por ele proposta para modelagem de sistemas de inteligência
computacional e sua implementação estruturada em um problema de análise de vibrações,
visando aliar capacidades de processamento, classificação e aprendizagem, vindas da
programação neural, junto às funções de estimação temporal de estados para sistemas
dinâmicos não lineares, da programação neurodinâmica, representando ganhos nos processos
de treinamento e aprendizagem em modelos computacionais de modelagem.

Agradecimentos

Os autores agradecem ao Centro Universitário FipMoc pela estrutura fornecida e pessoal


disponibilizado nas etapas de levantamento dos dados e simulações dinâmicas para análises.

5. REFERÊNCIAS

ANSI. “Balance Quality of Rotating Rigid Bodies”. Specifications ANSI- 52.19.


Bentley- Nevada Corporation. “Catálogo de especificações para Analisadores de Vibrações e dispositivos de
Balanceamento de Máquinas”. Minden, Nevada. USA, 1991.
Bruel & Kjaer. "Espectros de Sinais, Filtros e Analisadores". Naerum, Dinamarca, 1988.
Feldkamp, L. A., Puskorius, G. V. ‘‘A signal processing framework based on dynamic neural networks with
application to problems in adaptation, filtering and classification.’’ IEEE, v.86, 2259–2277 (1998).
Haykin, Simon S. “Neural networks: a comprehensive foundation . 2nd ed.” New Jersey, EUA: Prentice Hall,
1999. 842 p.
Helfrick, Albert D., Cooper, William D. "Instrumentação Eletrônica Moderna e Técnicas de Medição".
Prentice- Hall do Brasil. São Paulo, 2011.
Jang, J. S. R. et al. Neuro-Fuzzy and Soft Computing: a computational approach to learning and machine
intelligence. Upper Saddle River: Prentice-Hall, Inc., 1997.
Papoulis, A. “Signal Analysis”. McGraw-Hill, New York, 1997.
Rao, Singiresu S. “Vibrações mecânicas. Quinta edição”. PEARSON Educacional. São Paulo, 2012.

114
VIBRATION ANALYSIS AND DETECTION OF UNBALANCING FAILURE IN THE
ROTOR SYSTEM IN A THREE-PHASE INDUCTION MOTOR THROUGH
ARTIFICIAL NEURAL NETWORKS

Author- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Author- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brazil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brazil.

Abstract: Mechanical vibrations consist of oscillations of a body about an equilibrium


position, with the imbalance of dynamic systems being a phenomenon where the center of
mass of the object does not coincide with its center of rotation, generating radial and axial
vibrations that can cause instabilities in the system and efforts with the potential for
permanent damage. In the process of monitoring and analyzing vibrations, it is necessary to
use sensors and microcontrollers, which capture physical quantities associated with the
analyzed vibrations and convert them into quantitative information that can be analyzed
externally. The application of Computational Intelligence makes it possible for an electronic
system or digital computer to follow the conditions in which the machine is being exposed
during its use and, through the available data, present results for process control or
correction. This work aimed to perform vibrational analysis and detection of unbalance in a
rotor system through the application of two artificial neural architectures, with analysis of
signals collected in an experimental model, aiming at training the detection system. After
being collected, the data underwent a computational treatment and formed the basis for the
programming of artificial neural networks, with the identification of unbalance failures in the
equipment.

Keywords: Artificial Neural Network. Feedforward. Neurodynamics. Rotor. Vibration.

115
APLICAÇÃO DE ARQUITETURA NEURODINÂMICA E NEUROFUZZY NA
ANÁLISE DE SINAIS DE VIBRAÇÕES E DETECÇÃO DE FALHA DE
DESBALANCEAMENTO EM UM ROTOR SEMIRRÍGIDO

Autor- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Autor- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brasil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brasil.

Resumo. As vibrações consistem em oscilações mecânicas de um corpo acerca de sua


posição de equilíbrio, sendo o desbalanceamento o fenômeno onde o centro da massa de um
objeto não coincide com seu centro de rotação, gerando vibrações radiais e axiais que
ocasionam instabilidades e esforços com potencial de danos. O objetivo deste trabalho foi
implementar um sistema para análise de sinais vibratórios e detecção de desbalanceamento
em um rotor semirrígido com aplicação de arquiteturas Neurodinâmica e NeuroFuzzy,
através do mapeamento dos sinais coletados em um equipamento experimental. Foram
realizados três procedimentos distintos de simulação dinâmica em um rotor semirrígido
montado sobre o eixo de um motor trifásico, visando à obtenção dos sinais vibracionais para
treinamento das arquiteturas. Estes sinais extraídos passaram por tratamentos
computacionais de filtragem e janelamento, constituindo a base de dados processada para
treinamento das redes voltadas à identificação das falhas de desbalanceamento. A
implementação das arquiteturas Neurodinâmica e NeuroFuzzy feedforward envolveu a
disposição das entradas, de acordo com classes de balanceamento previamente rotuladas,
para que os modelos verificassem o comportamento dos sinais, diferenciando casos distintos.
Um conjunto de sinais não rotulados foi utilizado na execução do teste comparativo das
redes, após seu treinamento e validação.

Palavras-chave: Desbalanceamento. Neurodinâmica. NeuroFuzzy. Rotores. Vibrações.

1. INTRODUÇÃO

O uso da inteligência computacional na análise de falhas vibracionais em sistemas


dinâmicos envolve a aplicação de ferramentas e algoritmos para resolução de situações
envolvidas nas etapas de processamento e análise dos sinais e da tomada de decisões, quanto
ao estado do modelo estudado. Os sistemas computacionais dinamizam as metodologias de
seleção dos valores primordiais para o reconhecimento dos padrões e obtenção dos sinais que
oferecerão as informações centrais a serem aplicadas na distinção de estados, conferem
celeridade ao processo de determinação da real situação do equipamento, com o uso de
ferramentas adaptativas que se encaixam no contexto de funcionamento da máquina, além de
disporem de um nível de erro final baixo, otimizando os modelos convencionais, nos
processos envolvidos em análises, classificações e tomadas de decisões.

1.1 Dispositivos rotores semirrígidos

Genta (2005) define um dispositivo rotor como um corpo dinâmico instalado em um


apoio cilíndrico (eixo) e sobre mancais de rolamento que o permitem executar o movimento
rotatório em torno de um eixo fixado no espaço. A classe dos rotores semirrígidos apresenta o
modelo de análise dinâmica que permite o balanceamento em baixas velocidades
operacionais, configurando, assim, relativa independência entre a correção do
desbalanceamento e a velocidade angular máxima do equipamento, nesta classe.

116
1.2 Vibrações Mecânicas

Um fenômeno vibracional trata-se do modelo físico embasado no conceito dinâmico


transformação da energia potencial em energia cinética e da energia cinética em potencial,
apresentando meios de armazenamento de energia potencial (k), de conservação da energia
cinética (m) e um meio de dissipação gradual da energia total do sistema (c).
Conforme afirma Rao (2012), o desbalanceamento de massas em um sistema mecânico
consiste na não distribuição uniforme das massas deste através da sua seção, com seu eixo de
rotação não sendo coincidente ao seu centro de massa, ou de força. Existem três categorias
básicas de desbalanceamento em sistemas de trem alternativo, sendo estas o
desbalanceamento estático, o desbalanceamento parelho (ou por par de forças) e o
desbalanceamento dinâmico. No desbalanceamento estático ocorre o deslocamento do centro
de massa do corpo paralelamente à linha de centro do eixo, com concentração de esforços
sobre os apoios (mancais), gerando uma força centrífuga na frequência (1x RPM), com forte
pico no espectro de vibrações. O desbalanceamento parelho existe quando o centro de massa
intercepta a linha de centro do eixo até seu centro de gravidade, com o equipamento
aparentando estar balanceado estaticamente, mas produzindo forças centrífugas nos mancais
de rolamento, em fase oposta, gerando elevado nível de vibrações axiais e radiais. O
desbalanceamento dinâmico é a combinação dos dois tipos de desbalanceamento
anteriormente descritos, com o centro de massa não sendo paralelo nem interseccionado pelo
eixo de rotação. Se a posição angular das massas é medida em relação ao eixo horizontal, a
componente vertical total da excitação de desbalanceamento, ou F(t), será aplicada a partir da
Eq. (1) para obtenção do movimento geral de um modelo de massas desbalanceadas.

𝐹(𝑡) = 𝑚𝑥̈ + 𝑐𝑥̇ + 𝑘𝑥


(1)

1.3 Redes Neurais Artificiais

As Redes Neurais Artificiais representam um sistema dinâmico altamente paralelizado,


com um gráfico direcionado à sua topologia que permite a obtenção da informação de saída
por meio de uma reação de seu estado às ações de entrada. Os seus elementos de
processamento e canais direcionados são chamados, respectivamente, de neurônios artificiais
e nós da rede (ou conexões sinápticas). O tipo de aprendizagem é determinado pela maneira
pela qual a modificação de parâmetros ocorre, onde a rede neural programada é estimulada
por um ambiente, sofre modificações nos seus parâmetros livres como resultado desta
estimulação e responde de uma maneira nova ao ambiente, devido às modificações ocorridas
na sua estrutura interna. A aprendizagem em sistemas neurais, segundo Haykin (1999), é um
processo pelo qual os parâmetros livres de uma rede são adaptados através de um conjunto de
estímulos pelo ambiente no qual a mesma está inserida. Os algoritmos de aprendizagem são
compreendidos como um conjunto pré-estabelecido de regras definidas para a solução de um
problema de aprendizagem da rede neural, sendo que estes algoritmos basicamente se diferem
de acordo com a formulação nos ajustes dos pesos sinápticos (wji) de um neurônio, com
relação à sua função de ativação (φ), que pode ser linear ou não, e seu campo local induzido
(vj). Assim, o sinal de entrada (yi) é convertido em um novo sinal na saída (yj), em uma rede
neural multicamadas, de acordo com a relação da Eq. (2) e da Eq. (3).

𝑦𝑗 (𝑛) = 𝜑(𝑣𝑗 (𝑛))


(2)

117
𝑚

𝑣𝑗 (𝑛) = ∑ 𝑤(𝑗𝑖) (𝑛)𝑦𝑖 (𝑛)


𝑖=0
(3)

De acordo com Feldkamp e Puskorius (1998), a programação neurodinâmica permite que


um sistema aprenda tomar decisões a partir do retorno do seu próprio comportamento, com
melhora em suas ações através de um dispositivo de reforço em um mecanismo incorporado.
Uma das arquiteturas neurodinâmicas utilizadas na aproximação e predição de padrões
temporais e respostas em sistemas dinâmicos, é chamada na literatura de NARX (Nonlinear
AutoRegressive models with eXogenous input), sendo características de uma rede NARX sua
efetividade, capacidade de generalização e velocidade de aprendizagem. Nesta estrutura
neural são inseridas entradas em séries temporais, vetores de pesos sinápticos, entradas
exógenas, camadas ocultas e saídas desejadas, onde o modelo utiliza as series temporais das
entradas na geração do retorno dinâmico dos neurônios e aumento da taxa de aprendizado dos
elementos de processamento, tornando-se uma poderosa ferramenta para modelagem não
linear, frequentemente utilizada na Engenharia de Controle.

1.4 Sistemas Fuzzy

Como afirmado por Jang et al. (1997), um sistema de inferência Fuzzy é representado a
partir de um conjunto de regras (SE/ENTÃO) e por conectores (E/OU) agregados em uma
função de pertinência única multivariada, ou relação Fuzzy. A aplicação das entradas Fuzzy ou
discretas (crisp) em uma relação Fuzzy, para geração de uma saída Fuzzy ou crisp (por meio
da defuzzificação), é a base da metodologia de tomada de decisões em sistemas nebulosos, ou
inferência Fuzzy. A regra composicional de inferência aponta que, se a relação Fuzzy que
representa um sistema é conhecida, a resposta deste sistema pode ser determinada a partir de
uma excitação também conhecida. Para junção do conjunto de regras e extração dos valores
discretos em operações que envolvem conjuntos Fuzzy, é necessária a aplicação,
respectivamente, dos recursos de agregação e defuzzificação. A lógica nebulosa de inferência
permite a representação sistemática do comportamento de determinado modelo analisado, a
partir de conjuntos de regras extraídas das bases de dados de entradas e saídas. O resultado
final, assim, é obtido a partir da extração, por meio de um mecanismo próprio, da resposta do
sistema Fuzzy aos dados inseridos, funções de pertinência, conjuntos de regras e algoritmo de
inferência dispostos durante a programação.

1.5 Redes NeuroFuzzy

Segundo Klir e Yuan (1995), a metodologia NeuroFuzzy representa uma classe chamada
na literatura de sistema inteligente híbrido, que visa combinar as valências principais de
modelos distintos, neste caso, das Redes Neurais Artificiais com as pertencentes aos sistemas
Fuzzy. Esta metodologia procura atenuar as dificuldades e desafios encontrados em modelos
Fuzzy, como a aproximação e modelagem de sistemas representados por bases numéricas, ou
em redes neurais, em casos de análises de informações representadas por variáveis linguísticas
vagas, fora do âmbito geral de compreensão do algoritmo. Alguns aspectos diferenciam um
sistema NeuroFuzzy de uma rede neural artificial, como suas entradas e saídas que se tratam
de números Fuzzy, assim como os pesos sinápticos utilizados, sendo estes pesos atualizados
nas interações, ou ciclos, por operações de agregação Fuzzy. Assim, a lógica Fuzzy fornece os
fundamentos para captura de incertezas presentes em torno das formas de expressão humana,
através da aplicação de conjuntos de regras que visam à interpretação de conceitos que podem
não ser bem compreendidos, ou representados, pela linguagem padrão de uma máquina. Por
outro lado, os sistemas neurais apresentam recursos que permitem a extração de padrões, a
partir de informações inseridas para treinamento, que permitem mapear o comportamento de

118
modelos altamente complexos, com nível considerável de confiabilidade, a depender da
arquitetura idealizada. A junção destas capacidades confere ao modelo computacional híbrido
funções neurais de processamento aliadas ao gerenciamento Fuzzy de intervalos e incertezas.
Uma Inferência Adaptativa NeuroFuzzy, ou rede ANFIS, configura-se como um sistema
híbrido que apresenta um grupo de funções de pertinência, um conjunto de regras similar aos
encontrados em sistemas de inferência Fuzzy e camadas neurais para processamento de sinais,
com retroalimentação. Para efeito do conteúdo abordado neste trabalho, a observação
detalhada de um modelo ANFIS se dará em uma inferência de Sugeno, de ordem zero ou de
primeira ordem, com a saída sendo obtida a partir do método weighted average defuzzication.

2. MATERIAIS E MÉTODOS

Os sinais utilizados no treinamento, validação e testagem dos programas de análise e


diagnóstico implementados tiveram origem nas variáveis dinâmicas vibracionais captadas em
um modelo físico experimental específico para as análises de vibração e detecção das falhas
descritas neste trabalho. Esta fase contou com o auxílio estrutural fornecido pelo CEPEAGE
(Centro de Prática de Engenharia, Arquitetura e Gestão), unidade educacional pertencente à
instituição de ensino superior Centro Universitário FipMoc. O sistema de instrumentação
proposto foi implementado em uma bancada de análises de vibrações, mostrada na Fig. 1, já
instalada no CEPEAGE, desenvolvida previamente por acadêmicos da instituição.

2.1 Coleta dos sinais de vibração e treinamento

A obtenção dos dados de vibração se fundamentou na coleta e processamento dos sinais


de aceleração em dois eixos, velocidade angular e frequência do sistema rotor, em situações
distintas de balanceamento, com a aplicação de um sistema de instrumentação implementado
pelos autores, formado por um Sensor Acelerômetro Triaxial (microelectromechanical
system), um Microcontrolador, modelo Arduino Uno-R3, um dispositivo de condicionamento
de sinais, fornecido pela estrutura do CEPEAGE, e um sensor indutivo de captação metálica,
voltado à coleta dos dados da frequência rotativa e velocidade angular do equipamento. Para
validação dos sinais obtidos com o sistema anteriormente descrito, foram feitas análises com
um equipamento de controle e detecção de falhas, pertencente à estrutura das FipMoc, modelo
Teknikao-NK820. Este conjunto consiste em um sensor acelerômetro piezelétrico e um sensor
indutivo, além do software SDAV, que permite a visualização gráfica dos sinais e resultados.

Figura 1 – Sistema de instrumentação implementado pelos autores e bancada de testes.

Foram realizados três procedimentos de simulação dinâmica no rotor instalado sobre o


eixo de rotação do motor trifásico, visando à obtenção dos sinais de vibrações para
treinamento dos programas de análise e detecção. O primeiro caso envolveu uma simulação
de balanceamento teórico do rotor, sem adição de nenhuma massa de desbalanceamento ao
mesmo, onde ambos os sistemas de instrumentação indicaram o balanceamento do

119
equipamento. No segundo caso foi simulado o desbalanceamento no rotor, pela adição de uma
massa total de 18,24 gramas, dividida em duas massas distintas com 11,16 gramas e 7,08
gramas, instaladas em pontos defasados do rotor em 180º, distantes 1,5 cm do ponto de raio
zero do rotor, sendo reconhecido o desbalanceamento pelo sensor de validação, com resultado
inconclusivo para o sistema implementado pelos autores. Já no terceiro caso foi simulado o
desbalanceamento do equipamento, com adição de uma massa total de 23,36 gramas, dividida
em duas massas distintas com 11,16 gramas e 12,20 gramas, situadas em pontos com 180° de
defasagem, cada uma distante 2,25 cm do ponto de raio zero do corpo dinâmico analisado,
onde ambos os modelos de instrumentação indicaram o desbalanceamento do rotor.
Após a aquisição dos sinais de vibração, os mesmos foram processados, por meio da
filtragem analógica de passa-baixa, digitalização, filtragem digital de passa-faixa e
janelamento, no software MATLAB r2011-b, para formarem as bases de treinamento e
validação na programação da Rede Neural Dinâmica e da Rede NeuroFuzzy. Os sinais obtidos
pelo modelo de instrumentação formulado, após seu processamento, estão na Fig. 2.

Figura 2 – Sinais temporais levantados pelo sistema de instrumentação implementado.

Os sinais representados no domínio do tempo apresentam sua amplitude em função de


intervalos temporais. Porém, certas situações requerem a representação em função do domínio
das frequências, com a obtenção do espectro dos sinais. Um dos algoritmos aplicáveis para
esta transposição é a Transformada Rápida de Fourier, ou FFT, que efetua a correlação
estabilizada entre o sinal no domínio do tempo e sua representação no domínio da frequência.
Os sinais da Fig. 3 tratam-se dos dados obtidos a partir de cada componente de sinais por
frequência de operação. Os mesmos foram mapeados pela Rede Neurodinâmica e usados no
treinamento do classificador de desbalanceamento, gerado a partir da Rede NeuroFuzzy.

120
Figura 3 – Assinaturas espectrais dos casos simulados de desbalanceamento.

2.2 Programação das redes dinâmica e ANFIS

A modelagem dos programas de análise e classificação implementados (Rede NARX


Levenberg-Marquardt e arquitetura ANFIS feedforward com treinamento híbrido) envolveu a
disposição dos padrões de entrada, de acordo com classes rotuladas como Teoricamente
Balanceado e Desbalanceado (com adição da massa de 23,36 gramas), para que cada modelo
verificasse as tendências dos sinais, diferenciando os casos, sendo que um terceiro conjunto
de sinais, sem rótulos, foi utilizado em ambas as redes, após seu treinamento e validação.
Foram inseridas, durante a implementação total dos modelos, quatro bases de dados rotuladas,
com 1940 padrões de entrada cada, representando os casos de balanceamento teórico e
desbalanceamento, além das respectivas assinaturas espectrais. Duas bases de dados não
rotuladas, com 970 padrões de entrada cada, foram utilizadas na testagem dos sistemas, após
sua modelagem. A divisão dos dados, durante o treinamento das redes, seguiu o padrão de
70% dos dados separados para o treinamento, 15% separados para validação e 15% dos dados
separados para testagens. Como critérios de avaliação do desempenho e capacidades de
aproximação e generalização das redes foram utilizados os métodos do Erro Médio
Quadrático, da análise de Regressão (Teste R) e da Quantificação dos Erros de Classificação.
Os sinais de espectros das vibrações em dois eixos de análise (x e y) e a velocidade
angular do sistema rotativo formaram os dados de treinamento e validação do classificador
que, de acordo com os padrões, formulou sua resposta binária ao desbalanceamento no
equipamento, onde a classificação [1] é sua resposta ao sistema balanceado e [0] ao
desbalanceamento, sendo calculada a acurácia na classificação do sistema de detecção de
falhas, nos dados rotulados.

3. RESULTADOS E DISCUSSÃO

A arquitetura NARX, com algoritmo de treinamento Levenberg-Marquardt, atraso


temporal nas entradas de 1:5 e camada interna de cem neurônios, efetuou o mapeamento dos
padrões, com os valores de alvo e entradas, para execução das análises dinâmicas e geração
das respostas aos estímulos de sinais. A correlação entre a saída da rede (01) e os padrões
desejados, de acordo com o Teste de Regressão (ou Teste R), durante sua implementação, foi
de 0,998 para o sinal Teoricamente Balanceado e 0,995 para o sinal Desbalanceado. Este
resultado indica relação próxima entre as respostas da rede e as desejadas, já que valores
baixos de “R” indicam respostas neurais aleatórias. Considerando os sinais de teste, a rede
(01) apresentou valor de 0,997 para o sinal balanceado e 0,966 para o sinal desbalanceado, de

121
acordo com o Teste R. O Erro Médio Quadrático da rede (01) foi 0,00003815 na resposta aos
estímulos de balanceamento e 0,00077928 aos de desbalanceamento.
A Fig. 4 apresenta as respostas temporais do sistema neurodinânico aos estímulos dos
sinais colhidos no modelo balanceado, enquanto a Fig. 5 ilustra as respostas temporais
fornecidas pela rede aos estímulos de sinais obtidos no modelo desbalanceado.

Figura 4 – Resposta da rede 01 aos estímulos temporais do sinal de balanceamento.

Figura 5 – Resposta da rede 01 aos estímulos temporais do sinal de desbalanceamento.

A arquitetura ANFIS (02) de mapeamento do sinal efetuou a verificação dos padrões do


sistema balanceado e desbalanceado, através dos valores de alvo e verificação das entradas
temporais de sinais de vibração e das velocidades angulares do equipamento, com execução
das análises de vibrações e geração das respostas neurais aos estímulos. Sua arquitetura
envolveu a disposição de cinco conjuntos com função de pertinência Bell Generalizada
(gbellmf) em cada uma das entradas crisp da rede, gerando cento e vinte e cinco regras Fuzzy
que modularam o comportamento e a resposta final da rede.
A Fig. 6 apresenta as respostas geradas pela rede ANFIS aos estímulos dos sinais de
entrada de balanceamento do rotor. A Fig. 7 apresenta as respostas desta rede aos estímulos
dos sinais de entrada obtidos com desbalanceamento simulado sobre o rotor.

122
Figura 6 – Resposta da rede 02 aos estímulos temporais do sinal de balanceamento.

Figura 7 – Resposta da rede 02 aos estímulos temporais do sinal de desbalanceamento.

A correlação entre as saídas da rede ANFIS (02) de mapeamento e os valores desejados,


de acordo com o Teste de Regressão, durante seu treinamento e validação foi de 0,9997 para o
sinal Teoricamente Balanceado e 0,9961 para o sinal Desbalanceado, indicando uma relação
próxima entre as respostas da rede e os alvos. Considerando os sinais de teste, a rede (02)
apresentou valor de 0,9981 para o sinal balanceado e 0,9752 para o sinal desbalanceado, de
acordo com o teste regressivo. O Erro Médio Quadrático geral da rede (02) foi 0,000022749
na resposta aos estímulos do sinal balanceado e 0,00011875 do sinal desbalanceado.
A geração do sistema de análise e classificação de desbalanceamento foi iniciada a partir
da disposição de quatro funções de pertinência gbellmf para fuzzificação de cada uma das três
entradas de sinais distintos, além da constituição de um conjunto de sessenta e quatro regras
Fuzzy nas camadas internas de processamento do modelo ANFIS. Estas entradas referem-se
aos sinais colhidos durante o regime de simulação do modelo experimental e aplicação do
sistema de instrumentação utilizado pelos autores, tocantes às grandezas de aceleração axial e
radial do corpo rotativo (em milímetros/segundo2 ), inseridos para conversão Fuzzy com os
respectivos nomes de “Acelerometro 𝑥 ” e “Acelerometro 𝑦 ” e a velocidade angular (ω) do
equipamento motor em seu eixo de rotação (em radianos/segundo), denominada
“Velocidade 𝐴 ”, conforme ilustrado na Fig. 8 que apresenta as superfícies Fuzzy geradas pela
Inferência de Sugeno, relacionando as três entradas, em pares de velocidade e aceleração, à
saída, considerando o balanceamento do equipamento, de acordo com os sinais obtidos no
modelo experimental.

123
Figura 8 - Superfícies da Inferência de Sugeno geradas.

A acurácia do classificador ANFIS foi obtida, em seu cálculo, com uso das respostas
preditas a partir dos vetores de sinais de treinamento e validação, e a resposta fornecida pela
rede comparada aos resultados previamente rotulados de desbalanceamento, seguindo o
disposto na Eq. 4.

Número de classificações corretas


Acurácia =
Número total de Classificações

(4)

Assim, considerando a acurácia como a métrica adotada para avaliação do desempenho


da rede ANFIS (02), a mesma apresentou avaliação geral de 99,22% na classificação dos
sinais de treinamento e validação balanceados, de 98,88% na fase de treinamento e validação
com os sinais desbalanceados, e uma acurácia de 96,44% na classificação dos sinais de testes,
obtidos através de uma base de 970 elementos rotulados quanto ao balanceamento, mas que

124
não foram inseridos em nenhuma das etapas prévias de treinamento e validação do programa
ANFIS, comprovando, assim, a capacidade de generalização da rede implementada.Com base
nos dados inseridos no treinamento, foi programada uma metodologia de verificação para
entradas não rotuladas e testes, com relação aos mesmos, visando à execução da análise do
sistema monitorado e o desenvolvimento da metodologia inicial proposta de análise e
detecção, com a verificação dos valores de testagem e mapeamento dos sinais e
comportamento do sistema, sendo avaliados os níveis de acurácia nas fases de implementação
da rede ANFIS de classificação detalhada anteriormente.
A Tabela 1 apresenta os resultados principais de avaliação dos programas gerados,
obtidos a partir das respostas fornecidas pelas arquiteturas aplicadas na classificação e
predição de estado do equipamento, durante sua modelagem, no treinamento e testes.

Tabela 1 – Resultados dos programas de análise modelados.

4. CONCLUSÃO

A aplicação de ambas as arquiteturas, e a junção destas aos recursos de estimação de


padrões dinâmicos não lineares, objetiva níveis de aproximação aos dados de treinamento,
com respostas minimamente discrepantes dos sinais reais captados pelos sensores e
fornecidos pelos sistemas de validação. Este estudo objetivou modelar sistemas de análise e
detecção de falhas vibracionais para verificação de desbalanceamento em rotores instalados
sobre eixos de motores trifásicos, com o fornecimento a resposta temporal dos sinais de
comportamento dinâmico gerados pelo equipamento físico.
Ambas as arquiteturas geradas apresentaram níveis satisfatórios de aproximação aos
padrões de treinamento e sinais, com respostas próximas aos valores reais captados pelos
sensores de vibração utilizados. De acordo com os resultados obtidos, pode-se concluir que os
modelos aqui propostos conseguiram efetuar uma análise de vibrações confiável e também
confiável detecção de desbalanceamento em rotores de motores de indução trifásicos. A Rede
Neurodinâmica (01) forneceu sua resposta temporal ao comportamento do sistema físico, se
valendo dos dados inseridos nos valores de alvo, desenvolvendo a verificação das entradas
não rotuladas e dos testes, com relação aos mesmos, para execução da sua análise. Os níveis
de aproximação da mesma foram considerados satisfatórios, com base nos resultados das
análises apresentadas para sua avaliação, descritas nas seções de metodologia e resultados. A
Rede ANFIS (02), assim como a primeira, desenvolveu sua metodologia proposta de análise e
detecção, com a verificação dos valores de testagem, após seu treinamento e validação. Além

125
de a mesma efetuar, com aproximação, sua resposta aos estímulos dos sinais de entrada e
comportamento do sistema, também apresentou elevada acurácia do classificador, em todas as
fases de sua implementação, comprovando sua capacidade de generalização e a confiabilidade
dos resultados por ela fornecidos para casos não rotulados.

Agradecimentos
Ao Centro Universitário FipMoc pela estrutura fornecida e pessoal disponibilizado nas
etapas de levantamento de dados e testes dinâmicos no modelo experimental.
5. REFERÊNCIAS

Feldkamp, L. A., Puskorius, G. V. ‘‘A signal processing framework based on dynamic neural
networks with application to problems in adaptation, filtering and classification.’’ IEEE,
v.86, 2259–2277 (1998).
Genta, G. “Dynamics of rotating systems.” New York, USA: Springer, 2005. 660 p.
Haykin, Simon S. “Neural networks: a comprehensive foundation . 2nd ed.” New Jersey,
EUA: Prentice Hall, 1999. 842 p.
Jang, J. S. R. et al. “Neuro-Fuzzy and Soft Computing: a computational approach to learning
and machine intelligence.” Upper Saddle River: Prentice-Hall, Inc., 1997.
Klir, G. J., Yuan, B. K. “Fuzzy sets and Fuzzy logic. Theory and applications.” Upper Saddle
River: Prentice-Hall, Inc., 1995.
Rao, Singiresu S. “Vibrações mecânicas. Quinta edição”. PEARSON Educacional. São
Paulo, 2012.

APPLICATION OF NEURODYNAMIC AND NEUROFUZZY ARCHITECTURE IN THE


ANALYSIS OF SIGNALS OF VIBRATIONS AND DETECTION OF UNBALANCING
FAILURE IN A SEMIRRIGID ROTOR

Author- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Author- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brazil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brazil.

Abstract. Mechanical vibrations consist of oscillations of a body around an equilibrium


position, with the imbalance of dynamic systems being the phenomenon where the center of
mass of the object does not coincide with its center of rotation, generating radial and axial
vibrations that cause instabilities in the system and efforts with the potential for permanent
damage. The objective of this work was to implement a system for analysis of vibratory
signals and detection of unbalance in a semi-rigid rotor with the application of
Neurodynamic and NeuroFuzzy architectures, through the mapping of the signals collected in
an experimental equipment. In order to obtain the vibrational signals for the training of the
architectures three different dynamic simulation procedures were performed on a semi-rigid
rotor mounted on the axis of a three-phase motor. These extracted signals went through
computational filtering and windowing treatments, constituting the processed database for
the training of the networks used to identify unbalance failures. The implementation of the
Neurodynamic and NeuroFuzzy feedforward architectures involved the disposition of the
inputs, according to previously labeled balancing classes, so that the models could verify the
behavior of the signals, differentiating different cases. A set of unlabeled signals was used in
the execution of a comparative test of the networks, after their training and validation.

Keywords: Neurodynamics. NeuroFuzzy. Rotor. Unbalance. Vibration.

126
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

SOUTH AMERICA ENERGY MATRIX: A DECISION TREE APPROACH

Paulo Rossi Croce 1 – paulorossicroce@gmail.com


Renato Gomes de Souza Vale Júnior 1 – renatosouzavale@yahoo.com.br
Henrique Rego Monteiro da Hora 1 – henrique.dahora@iff.edu.br
João José de Assis Rangel 1 – joao@iff.edu.br
1
Instituto Federal de Educação, Ciência e Tecnologia Fluminense – Campos dos Goytacazes, RJ,
Brazil

Abstract. The global energy matrix is in the process of transformation, as new technologies
are being developed. The International Energy Agency (IEA) provides data that makes it
possible to better analyze a country from the analysis of its total energy produced. With data
mining tools, this article aims to analyze the energy matrix of the countries of South America
in order to discover some pattern among the data. Orange was used to develop the decision
tree and it was possible to conclude that the total energy produced by hydropower is essential
for the growth of non-fossil energy, contributing to an ecologically correct future.

Keywords: Energy Matrix, Clean Energy, Decision Tree, Data mining, Electrical energy

1. INTRODUCTION

The information on the graphics and numbers on recent reports of International Energy
Agency (IEA) can be observed as that electric energy production worldwide by using
renewable ways has reached second position, above natural gas, what comes clear such as its
importance in the energetic matrix of the countries (IEA, 2019). The use of appropriate
technology to treat renewable sources is yet a challenge for countries in development, even
though its substitution of fossil fuels for renewable energy is still in development around the
globe.
Data mining is a method widely used to perceive patterns, anomalies, changes,
association and relevant structures in a big volume data. Being a multidisciplinary subject, the
data mining represents a big advance of analytical tools, combining machine learning,
database, statistics and artificial intelligence (Kaur & Chhabra, 2014).
Eldahab et al. (2019) studied hybrid renewable energy matrix optimization through
statistic calculation and data mining. Initially, the authors gather articles about hybrid

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

127
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

renewable energy, defining the components typically used in this system. In sequence,
defined the techniques and optimization algorithms (APRIORI and FP-Growth)
Coban and Onar (2020) predicted the solar radiation in Istanbul, Turkey using the
principles of machine learning. The authors accumulated meteorological data and applied the
prediction method, which are used to estimate the quantity of energy produced by the system.
The irrigation models are elaborated and then a classic machine learning model ARMA (auto
regressive mobile average) is used.
Prusa et al. (2019) utilized data mining algorithm to predict the value and purchases of
crude oil on western Texas region with data provided by IEA between 2003 and 2015. The
authors affirm that is almost impossible to predict the market situations, since there are many
external forces like natural disasters and geopolitics crisis. In order to increase the reliability
of their results, they used four algorithms that have a 95% statistical reliability and random
guessing strategies to simulate the market’s hypothetical effects.
With so many applications provided by data mining, until now there are no studies about
energy productions regarding South America countries. This way, the main objective of this
research is to analyze the energy production growth of South America countries with decision
tree data mining algorithm.

2. THEORICAL FRAMEWORK

2.1 Data mining

Data mining is a way to extract information from a big volume of data, with a help of
software, like Weka, developed in Waikado University in New Zeeland, it is possible to find
consistencies and patterns in a set of data. Among various data mining techniques, it is
possible to cite (Bhargava et al., 2013): Association Learning Rule: used to discover the
relationship rules and association between variables; Clustering: also known as unsupervised
classification, this technique creates and discover a group of similar data; Classification: also
known as supervised classification, it is possible to classify the data according to its class;
Regression: tries to find a function that describes the model of the data with minimum error;
Summarization: provides an easy analysis to understand the data through visual resources and
reports.

2.2 Decision Tree

The Decision Tree is a support for decision-making in ramifications with possible effects,
including the event probability, cost and usefulness. Also known as classification decision
tree, is used to learn a function of classification, which concludes the value of the depending
attribute and the variable according to the values of the independent attribute are accounted
(input variables). It is known as supervised classification because the dependent attribute and
the classes are provided (Korting, 2006).
According Rokach and Maimon (2005), the decision tree is one of the most powerful data
mining approach, it makes possible to research with a high complexity degree and a big
number of data, in order to acknowledge relevant patterns. This principal is very important,
since it permits to model and extract information efficiently, low cost and more precise. It
gathers lots of areas, like text mining, information extraction, machine learning and patter
recognition. As advantages, it is possible to cite: easy understanding for the final user; gathers
a great variety of data, like nominal, numerical and textual; it is possible to process a set of
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

128
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

erroneous data and missing values; multiplatform. A decision tree has the following items:
root node, leaf node (representing the class), internal nodes (representing the tested
condition).
In order to elaborate a decision tree efficiently, it is primordial to avoid a complex
understanding, it may cause inaccuracies, measured by the node number, total leaf numbers,
tree’s depth and utilized attributes used. The tree must be relatively small to be controlled by
a technique named pruning, analogous to gardening methods. The rules of the decision tree
may be easily generated, in which root’s way and the end of a leaf represents a rule (Rokach
& Maimon, 2008).
There are many tools to create a decision tree, one popular open-source software is
Orange, developed on the Ljubljana University it offers lots of modeling tasks and evaluation,
such as (Demšar et al., 2004): data management and data pre-processing for input and output
data, discretization, normalization; classification, implemented from many supervised
machine learning algorithms; regression, includes linear regression and lasso, partial least
squares regression and others; association, it includes association rules and set of resource of
mining; clusters, includes k-means and hierarchies clusters; evaluation, ranks the prediction
methods qualities and procedures of a trustworthy estimative; projections, implements the
main analysis, multidimensional scale and self-organizing maps.

3. METHOD

In this research the IEA database regarding the electricity production of South America
countries was consulted, which includes: Paraguay, Uruguay, Bolivia, Colombia, Peru,
Ecuator, Chile, Brazil, Argentina and Venezuela. Trinidad and Tobago, Suriname and
Curaçao were excluded since their the production of electric energy in GWh of each country
was collected according with its origin, separated in two groups: originated from fossil
sources (coal, petroleum and natural gas) and non-fossil (considering the remaining energy
sources). Graphs elaborated from the data obtained illustrates the evolution of the electric
energy production across the years.
The Invariable Decision Tree approach was used, implementing the j48 algorithm,
applying the energy production data and analyzing the results. In order to elaborate the
decision tree, the open-source software Orange was used to achieve a more interactive
visualization (Demšar et al., 2013).
The values of the energy production were divided with five-year periods, in order to
explicit if there was growth, degrowth or it maintained constant. As a parameter, when the
interval is less than 0, it was considered degrowth; when it equals 0, maintains; between 0.1
and 0.49, growth and; when bigger or equal to 0.5, a great growth. Considering these
parameters and treatments a decision tree was elaborated through the Orange software and the
results discussed.
The Invariable Decision Tree approach separates data using attributes on its internal
nodes. There are many algorithms for this kind of tree, e.g. IDE3, c4.5 (also known as j48 on
the software Weka). The algorithm j48 is an extension of ID3 and make it possible the
creation of a decision tree (Quinlan, 1996).

4. RESULTS AND DISCUSSIONS

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

129
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

From the IEA database, the produced energy data were collected from 1990 until 2017
and displayed on Figure 1. With the collected information, it is possible make an analysis.

Figure 1 - South America Energy Production


Source: IEA (2019)

In Argentina, on the beginning of the 2000 decade, the fossil-based energy started to
develop in a far mor superior way than the non-fossil production. The petroleum and natural
gas are the most important sources on the argentine electric production. In 2006, the sum of
both kinds of energies sources represented 88.7%, 49% being Natural Gas and 39%
Petroleum. With their consumption pattern, Argentina goes through a natural gas scarcity,
impacting in their national electricity system, consequently affecting their economy
(Guzowski & Recalde, 2008). Politics formulation to sustainable national development are
still in early steps, however, Roberts (2015) proposes the utilization of solid residues as a
potential alternative energy source.
With a lack of industries, Bolivia isn’t a great energy consumer, which can be seen when
comparing the energy production with other countries (Pansera, 2012). Fossil fuels dependent
(primarily natural gas), only 5.4 of its primary production is from renewable sources,
furthermore 80% of its produced natural gas is exported to Argentina and Brazil (CBHE,
2018). Even if this energy source made the Bolivian economy better, it still expected that
natural gas still lingers (Morato et al., 2019).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

130
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The Brazilian strategy focuses in finding more efficient ways to use the energy in
different sectors of the society, also to diversify its energy matrix. There are a great project
perspective, programs and technology development in the country. Brazil have the highlight
in hydroelectric-based energy production in a major infrastructure (Pottmaier et al., 2013).
Comparing with the other southern america countries, the Brazilian energy matrix is the major
non-fossil energy producer.
The Chilean energetic politics have been envoving in the recent years due the need of
institutional and infrastructural changes, which motivates the world design to solar and Eolic
production, with innovative politics and as regional solar energy exporter, the northern Chile
presents unique favorable condition as the one of the few regions of the world with more than
2,500 kWh-m² of radiation. The potential estimated value of electric production on Atacama
Desert gathers approximately 1,000 GW or five times more than the entire South America
(Jimenez-Estevez et al., 2015).
The Colombian Energy Plan 2050, launched in 2016 have the goal of diversify the energy
plan and elaborate a secure energy supply, moderation and independent from fossil fuels,
besides the Eolic power plants, geothermic energy and solar energy. The Eolic technology
offshore in Colombia could suffice the needed demand when the hydroelectric system had
low generation during drought seasons, like El Niño and oscillatory events (Rueda-Bayona et
al., 2019).
The Ecuadorian electric sector confronted many changes in the last decade, which
represents lots of projects to hydroelectric production, its capacities grew approximately 81%
in 2017, presenting nearly 1.8% of biomass and biogas from the total produced energy, only
0.6% representing the Eolic and solar energy (PONCE-JARA et al., 2018).
The Paraguayan energetic sector was founded in renewable sources and have the cheapest
taxes of electrical consummation of Latin America, which stabilized new energy plans in its
national politics between 2014 and 2030, with the goal of achieve about 60% of renewable
energy consumption and reduce about 20% of fossil fuels usage until 2030 (Blanco et al.,
2017).
Peru is the emergent country with a growth of the electric demand with a major
dependence of fossil fuel. It has a good macroeconomy, comparing the economical crisis
faced. Although the need of fossil fuels for the energy production, renewable sources have
been exploring in the last years, for instance: hydroelectric and biomass (López et al., 2015).
Uruguay is a country with a growing annual electric demand of 3.5%, in 2017 about
11,200 GWh were used in order to maintain the country. The Energy Minister in 2010
approved a decree to promote renewable energy with the goal to drastically level up the
electric production by renewable sources, so until 2010, in order to satisfy the electric
demand, hydroelectric installations with 1450 MW capacities were constructed, about 70 MW
regards biomass and 700 MW for fossil fuels (Figoli et al., 2018).
Venezuela has abundant energy resources that are directly part of the economic
development of the country, the biggest per-capita consumer of energy Latin America. Its
petroleum production cannot be exceeded since Venezuela is an active OPEC member, this
way its exacerbated internal consumption causes penalties for its exports (Robalino-López et
al., 2015).
With the data collected from IEA database, the decision tree on Figure 2 was elaborated
with the software Orange.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

131
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2 - Decision Tree

In order to know the non-fossil energy production behavior, the same was use as goal to
create the decision tree. On the root it is possible to observe that the energy that most
collaborates is from hydroelectric sources. When the hydro energy grows, the non-fossil
energy production also grew. Following to another knot, on the other situations the changes
on hydroelectric in case of a degrowth, the non-fossil electric energy production depends on
Eolic sources, when it is constant, the total production decreases. On the other hand, when the
Eolic production grows, it collaborates significantly with the non-fossil production in this
scenary.
In the event of a great growth or constant of hydroelectric sources, the dependent source
is Biofuel, if its production decreases in this interval, the non-fossil energy productions
decrease and in the others cases, the Eolic source is again responsible for the clean energy
growth. If this source maintains or decreases, it proceeds to another knot. So, if the biofuel
growth remains constant, the reduction of clean energy production decrease, and at last, if it
grows or have a great growth, the production of non-fossil energy grows a lot.
Observing the tree, it is possible to identify the main actors and collaborators for the
South America energy production. The contribution of hydroelectric is very significant,
together with Eolic and biofuel. According with this analysis, these technologies are ideal to
be explored and develop, considering each country conditions and resources.

5. CONCLUSIONS

The South America energy production energy decision tree was generated from its entire
energy production. The energetic sources that most collaborated with a cleaner growth were
from hydric, Eolic sources and biofuel. Green politics have been the focus of debates between
governors, even with the high technology cost. In order to reach a cleaner energy matrix, the
South America countries enjoyed many incentives mechanisms, such as certificates, subsidies

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

132
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

and tax reduction. Regardless the stimulus, it is the country’s Government obligation to
adequate to your own reality.
With a cleaner energy growth, the world energetic scenery tends to transform itself, and
for future projects the authors suggest an evaluation in another regions around the world, in
order to know more about the global energy matrix tendencies.

REFERENCES
Bhargava, N., Sharma, G., Bhargava, R., & Mathuria, M. (2013). Decision tree analysis on j48 algorithm for
data mining. Proceedings of International Journal of Advanced Research in Computer Science and Software
Engineering, 3(6).
Blanco, G., Amarilla, R., Martinez, A., Llamosas, C., & Oxilia, V. (2017). Energy transitions and emerging
economies: A multi-criteria analysis of policy options for hydropower surplus utilization in Paraguay. Energy
Policy, 108, 312–321. https://doi.org/10.1016/j.enpol.2017.06.003
CBHE. (2018). Cámara Boliviana de Hidrocarburos y Energía—Informes Cbhe.
http://www.cbhe.org.bo/index.php/informacion-de-la-industria/informes-cbhe
Çoban, V., & Onar, S. Ç. (2020). Solar Radiation Prediction Based on Machine Learning for Istanbul in Turkey.
In C. Kahraman, S. Cebi, S. Cevik Onar, B. Oztaysi, A. C. Tolga, & I. U. Sari (Eds.), Intelligent and Fuzzy
Techniques in Big Data Analytics and Decision Making (Vol. 1029, pp. 197–204). Springer International
Publishing. https://doi.org/10.1007/978-3-030-23756-1_25
Demšar, J., Curk, T., Erjavec, A., Gorup, Č., Hočevar, T., Milutinovič, M., Možina, M., Polajnar, M., Toplak,
M., & Starič, A. (2013). Orange: Data mining toolbox in Python. The Journal of Machine Learning
Research, 14(1), 2349–2353.
Demšar, J., Zupan, B., Leban, G., & Curk, T. (2004). Orange: From experimental machine learning to interactive
data mining. European Conference on Principles of Data Mining and Knowledge Discovery, 537–539.
Eldahab, Y. E. A., Zekry, A., & Saad, N. H. (2019). Enhancing the Optimization of Hybrid Renewable Energy
Systems by Using Statistical Calculations and Data Mining Analysis. 19.
Figoli, I., Perna, V., Horta, G., Perco, L., Reyes, A., & Sierra, W. (2018). The role of biomass in Uruguay’s
energy transformation. 2018 IEEE 9th Power, Instrumentation and Measurement Meeting (EPIM), 1–6.
https://doi.org/10.1109/EPIM.2018.8756374
Guzowski, C., & Recalde, M. (2008). Renewable energy in Argentina: Energy policy analysis and perspectives.
International Journal of Hydrogen Energy, 33(13), 3592–3595.
https://doi.org/10.1016/j.ijhydene.2007.11.032
IEA. (2019, December 9). IEA – International Energy Agency. IEA. https://www.iea.org
Jimenez-Estevez, G., Palma-Behnke, R., Roman Latorre, R., & Moran, L. (2015). Heat and Dust: The Solar
Energy Challenge in Chile. IEEE Power and Energy Magazine, 13(2), 71–77.
https://doi.org/10.1109/MPE.2014.2380012
Kaur, G., & Chhabra, A. (2014). Improved J48 Classification Algorithm for the Prediction of Diabetes.
International Journal of Computer Applications, 98(22), 13–17. https://doi.org/10.5120/17314-7433
Korting, T. S. (2006). C4. 5 algorithm and multivariate decision trees. Image Processing Division, National
Institute for Space Research–INPE Sao Jose Dos Campos–SP, Brazil.
López, M., Veigas, M., & Iglesias, G. (2015). On the wave energy resource of Peru. Energy Conversion and
Management, 90, 34–40. https://doi.org/10.1016/j.enconman.2014.11.012
Morato, T., Vaezi, M., & Kumar, A. (2019). Assessment of energy production potential from agricultural
residues in Bolivia. Renewable and Sustainable Energy Reviews, 102, 14–23.
https://doi.org/10.1016/j.rser.2018.11.032
Pansera, M. (2012). Renewable energy for rural areas of Bolivia. Renewable and Sustainable Energy Reviews,
16(9), 6694–6704. https://doi.org/10.1016/j.rser.2012.08.015
Ponce-Jara, M. A., Castro, M., Pelaez-Samaniego, M. R., Espinoza-Abad, J. L., & Ruiz, E. (2018). Electricity
sector in Ecuador: An overview of the 2007–2017 decade. Energy Policy, 113, 513–522.
https://doi.org/10.1016/j.enpol.2017.11.036
Pottmaier, D., Melo, C. R., Sartor, M. N., Kuester, S., Amadio, T. M., Fernandes, C. A. H., Marinha, D., &
Alarcon, O. E. (2013). The Brazilian energy matrix: From a materials science and engineering perspective.
Renewable and Sustainable Energy Reviews, 19, 678–691. https://doi.org/10.1016/j.rser.2012.11.063
Prusa, J. D., Sagul, R. T., & Khoshgoftaar, T. M. (2019). Extracting Knowledge from Technical Reports for the
Valuation of West Texas Intermediate Crude Oil Futures. Information Systems Frontiers, 21(1), 109–123.
https://doi.org/10.1007/s10796-018-9859-2
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

133
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Quinlan, J. R. (1996). Improved use of continuous attributes in C4. 5. Journal of Artificial Intelligence Research,
4, 77–90.
Robalino-López, A., Mena-Nieto, Á., García-Ramos, J.-E., & Golpe, A. A. (2015). Studying the relationship
between economic growth, CO2 emissions, and the environmental Kuznets curve in Venezuela (1980–2025).
Renewable and Sustainable Energy Reviews, 41, 602–614. https://doi.org/10.1016/j.rser.2014.08.081
Roberts, J. J., Cassula, A. M., Osvaldo Prado, P., Dias, R. A., & Balestieri, J. A. P. (2015). Assessment of dry
residual biomass potential for use as alternative energy source in the party of General Pueyrredón, Argentina.
Renewable and Sustainable Energy Reviews, 41, 568–583. https://doi.org/10.1016/j.rser.2014.08.066
Rokach, L., & Maimon, O. (2005). Decision trees. In Data mining and knowledge discovery handbook (pp. 165–
192). Springer.
Rokach, L., & Maimon, O. Z. (2008). Data mining with decision trees: Theory and applications (Vol. 69).
World scientific.
Rueda-Bayona, J. G., Guzmán, A., Eras, J. J. C., Silva-Casarín, R., Bastidas-Arteaga, E., & Horrillo-Caraballo,
J. (2019). Renewables energies in Colombia and the opportunity for the offshore wind technology. Journal of
Cleaner Production, 220, 529–543. https://doi.org/10.1016/j.jclepro.2019.02.174

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

134
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas – TO

CLASSIFICAÇÃO DE PASSAGEIROS DOMÉSTICOS DE LINHAS AÉREAS


UTILIZANDO REDES NEURAIS ARTIFICIAIS DO TIPO MLP

Sidnei Gouveia Junior1– sidneigouveiajr@gmail.com


Narciso Ferreira dos Santos Neto2 – narciso.ferreira@unimontes.br
Nilton Alves Maia3– nilton.maia@unimontes.br
1
Universidade Estadual de Montes Claros, Programa de Pós-Graduação em Modelagem
Computacional e Sistemas – Montes Claros, MG, Brasil
2
Universidade Estadual de Montes Claros, Departamento de Administração – Montes Claros, MG,
Brasil
3
Universidade Estadual de Montes Claros, Departamento de Ciências da Computação – Montes
Claros, MG, Brasil

Resumo. Este experimento investigou o potencial da aplicação de uma rede neural artificial
(Multilayer Perceptron) para a classificação de perfis de passageiros no setor aéreo
brasileiro, mais precisamente na conexão do par de aeroportos mais relevante em várias
métricas do país. A partir de uma revisão bibliográfica sobre o assunto, foram elencados dois
perfis distintos de passageiros, cada um com características específicas, em relação ao seu
comportamento de consumo. Após alguns ajustes e testes na ligação escolhida, foi
estabelecida uma arquitetura e parametrização satisfatórias para a classificação dos
passageiros com dados variáveis que podem ser adquiridos pelas empresas aéreas no
momento da compra da passagem. O resultado dos experimentos revelou-se muito promissor,
o que possibilitaria a futura aplicação desse método pela indústria aérea.

Palavras-Chave: Planejamento Aéreo, Segmentação de Demanda Aérea, Gerenciamento de


Receita, Rede Neural Artificial

1. INTRODUÇÃO

Independentemente do mercado de negócios de uma empresa, torna-se importante


identificar os motivos pelos quais um consumidor adquire um produto ou serviço, não apenas
do ponto de vista das estratégias de marketing, fidelização do mesmo ou experiência do
consumo. Esses fatores são relevantes, mas entender os motivos que o levaram a tomar a
decisão de consumo está intrinsecamente ligado ao planejamento da produção e das operações
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro 2020

135
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

da empresa. Já que a determinação dos custos de produção que garantem a sustentabilidade


das operações é relativa às receitas esperadas; portanto, entender o comportamento da
demanda é um ponto chave na projeção de receita. Os diferentes padrões e razões pelas quais
eles foram levados ao consumo, estabelecem a relação de valor para o cliente e o preço pelo
qual está disposto a pagar.
No contexto de uma companhia aérea, a área de planejamento responsável por esse
processo é chamada de Revenue Management. E o entendimento clássico do gerenciamento
de receita pode ser simplificado em três linhas amplas para melhor entendimento, a saber:
demanda (passageiros), oferta (assentos) e preço, que é a relação entre demanda e oferta.
Segundo Reyes (2006), estabelecer a maior receita possível para um determinado voo é o
resultado do equilíbrio desse relacionamento.
Segundo Talluri e van Ryzin (2004), o gerenciamento de receita difere-se do simples
gerenciamento do inventário de assentos de uma aeronave em um voo. Esses autores veem em
uma constituição conceitual que precisa entender alguns aspectos, como a natureza
multidimensional da demanda em dimensões como locais, canais de aquisição de serviços e
adiantamentos; a ligação entre efeitos não diretos das decisões relacionadas ao gerenciamento
da demanda; condições favoráveis à implementação da gestão e compreensão da
heterogeneidade da demanda; a necessidade de tornar o serviço mais flexível, o preço cobrado
como sinal de qualidade e o monitoramento constante de dados e informações do setor.
Portanto, o gerenciamento de receita é visto para eles como o gerenciamento de valor do
produto.
Conforme Kayser (2008), o Revenue Management, na prática, para que seja eficaz,
precisa de uma previsão da demanda por esses dois conjuntos diferentes de passageiros:
negócios e lazer. Os viajantes a negócios são caracterizados por compras próximas à partida,
com notável sensibilidade ao horário e à frequência dos voos, tendendo à aversão à maioria
das restrições tarifárias e à propensão de pagar por tarifas mais altas. Por outro lado, os
passageiros a lazer geralmente planejam com antecedência e podem comprar bilhetes no
início do período de vendas de reservas, não são sensíveis à programação ou à frequência do
voo e não são tão sensíveis às restrições tarifárias e, portanto, estão propensos a comprar
bilhetes com preços mais baixos. Assim, todo o processo de segmentação e precificação de
tarifas será em torno de subconjuntos derivados desses dois conjuntos majoritários, que
determinam a captura de receita diretamente por meio de seu comportamento. Embora o
gerenciamento de receita às vezes possa ser confuso entre viajantes a lazer e a negócios, eles
desempenharam um papel importante na alocação e sustentabilidade financeira das
companhias aéreas em todo o mundo.
Sendo que a importância em identificar o motivo da viagem está diretamente associada ao
preço que um passageiro está disposto a pagar pelo serviço de transporte aéreo. Logo, o
motivo da viagem implica padrões de consumo muito complexos para a elaboração de algum
modelo matemático convencional, que os interpreta e resulta na identificação objetiva do
motivo da viagem.
A rede neural artificial é uma técnica computacional que apresenta um modelo inspirado
na estrutura neural natural que simula a capacidade do cérebro humano de adaptar ou
aprender, generalizar, agrupar e organizar dados. Que estão incluídos em unidades simples e
adaptáveis chamadas neurônios. O modelo de rede artificial usado neste trabalho é do tipo
MLP (MultilayerPerceptron). A MLP é uma generalização do perceptron, sendo constituída
de uma camada de entrada, uma ou mais camadas ocultas de nós computacionais e uma
camada de saída. Nesse tipo de rede, cada uma das camadas tem funções específicas. Assim,
cada neurônio computa uma soma ponderada de suas entradas e passa essa soma na forma de
uma função não-linear limitada. Em nível de mesoestrutura, tem-se duas ou mais camadas
com conexão feedforward (Vieira & Bauchspiess, 1999). De acordo com Duarte (2009),
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

136
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

adicionando-se uma ou mais camadas intermediárias (ocultas), aumenta-se o poder


computacional de processamento não-linear e armazenagem da rede.
Assim, este trabalho tem como objetivo avaliar a eficiência do uso de Redes Neurais
Artificiais do tipo MLP para a classificação do tipo de viagem aérea realizada pelos
passageiros. Para isso, utilizou se dados reais de uma Pesquisa de Origem e Destino do
Transporte Aéreo de Passageiros de 2014, onde também se incluíam dados relativos ao
motivo da viagem dos indivíduos.

2. MATERIAIS E MÉTODOS
A Pesquisa de Origem e Destino do Transporte Aéreo de Passageiros, foi realizada em
2014, e teve como principal objetivo aprimorar, complementar e detalhar o sistema de
informações da Aviação Civil no Brasil. Sendo realizada em quatro etapas distintas, coletou
informações em mais da metade dos aeroportos que operavam voos regulares no Brasil em
2012. Registra-se que, em termos de fluxo de passageiros, esse grupo de aeroportos
correspondia quase que pela totalidade do número total de passageiros embarcados naquele
ano. Segundo a Empresa Brasileira de Logística (2014) a pesquisa subsidiou informações
coletadas, que foram utilizadas como base para o estudo do comportamento atual e futuro do
transporte aéreo.

2.1. Dados utilizados


Os dados utilizados para este experimento foram coletados em 2014 pela “Pesquisa de
Origem e Destino do Transporte Aéreo de Passageiros. Para viabilizar o experimento, foram
utilizados os registros de passageiros que voavam entre o par dos aeroportos: Aeroporto de
Congonhas, localizado na cidade de São Paulo, e Aeroporto Santos Dumont, localizado na
cidade do Rio de Janeiro. Segundo a Agência Nacional de Aviação Civil (2014), essa foi a
principal rota doméstica aérea do país, tanto em número de operações quanto em passageiros
transportados. Dos 1.937 entrevistados para esta rota, 1.036 foram selecionados por
fornecerem informações suficientes para a condução do experimento. Das sete perguntas
selecionadas, uma é o motivo da viagem, as outras perguntas são relativas ao voo selecionado,
se tem ou não uma conexão, data e horário do voo, antecedência da compra e preço pago pelo
bilhete. Para o motivo da viagem entre as seis respostas possíveis, foram organizados dois
grupos que correspondem a viagens a negócios ou a lazer, como é mostrado na Figura 1.

Figura 1- Motivos específicos da viagem e perfil do passageiro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

137
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

As perguntas realizadas na pesquisa e os dados correspondentes às variáveis de entrada


são apresentados na Tabela 1.

Tabela 1: Variáveis de entrada

Pergunta (Variável)

Com que antecedência adquiriu a passagem aérea?


Quanto custou a passagem aérea deste trecho da viagem (só um trecho, individual,
incluindo taxa de embarque - em R$)?
Quantas escalas até o destino?

Dia da semana

Horário de partida do voo

Mês da partida do voo

2.2. Análise dos Dados


Antes do experimento, os dados foram analisados, para verificar se o seu comportamento
se assemelhava com o descrito na revisão literária, presente na introdução deste artigo. O
primeiro passo foi analisar se os dados de antecedência da compra e o preço do bilhete tinham
uma relação mínima com o motivo da viagem. O gráfico apresentado na Figura 2 permite
analisar essa relação:

Figura 2 - Motivos específicos da viagem e perfil do passageiro.

O motivo da viagem corresponde ao valor de saída da rede, onde foi utilizada a seguinte
codificação binária; para negócios e para lazer. O comportamento de consumo
desses grupos de passageiros descrito na literatura pode ser observado no gráfico elaborado
com os dados selecionados na pesquisa. Outro ponto importante no comportamento da
demanda descrito na literatura, que caracteriza passageiros de negócios é a preferência
sensibilidade notável ao horário e à frequência dos voos. A Figura 3 mostra o gráfico de
preferência dos passageiros viajando a negócio.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

138
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Figura 3 –Preferência dos passageiros viajando a Negócio.

Este perfil de passageiros viajando a negócios é caracterizado por uma maior preferência
de voos com partidas programadas às 7:00 e 18:00, representados pelos picos observados na
Figura 3. Por outro lado, os passageiros a lazer não são tão sensíveis à programação ou à
frequência do voo, como pode ser visto no gráfico apresentado na Figura 4.

Figura 4 –Preferência dos passageiros viajando a Lazer.

Na Figura 4 pode ser observada a dispersão na distribuição dos passageiros a lazer por
voos em horários intermediários àqueles preferidos por viajantes a negócios.

2.3. Topologia da Rede Neural Artificial


A rede MLP utilizada neste trabalho foi implementada no software Python 3.7 com o
pacote Sklearn. Todas as execuções foram feitas em um notebook DELL I15-5566-A50P com
um processador Intel Core i7-7500U 2.90GHz com 8GB de RAM no sistema operacional
Windows 10 64bits. A arquitetura da MLP é formada por seis entradas, três camadas
escondidas com três neurônios em cada uma delas e uma saída. A Figura 5 mostra a
arquitetura da rede MLP.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

139
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Entradas Camadas escondidas Saída

Figura 5 – Arquitetura da Rede Neural Artificial Utilizada.

A função de ativação utilizada nos neurônios da MLP foi a tangente hiperbólica. A


tangente hiperbólica é definida pela equação (1):

(1)

onde é a função sigmóidal definida pela equação (2):

(2)

A rede utilizou uma taxa de aprendizagem inicial de 0,01 adaptável que a cada duas
épocas consecutivas sem variação tolerável no erro dividia a taxa de aprendizagem por 5.
Tolerância da variação do erro de , por 1.000 épocas consecutivas. O número máximo de
iterações suportado pelo algoritmo é 10.000 épocas. Outro ponto importante foi a necessidade
de normalização dos valores assumidos por a uma escala entre 0 e 1. Já que os intervalos
de valores assumidos pelas variáveis de entrada, onde , eram discrepantes entre si,
conforme mostrado na Tabela 2.

Tabela 2: Intervalo dos valores assumidos por

Intervalo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

140
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Para a normalização dos dados, utilizou-se do método min-máx onde o valor


normalizado de cada membro do conjunto é dado pela seguinte formula da equação (3):

(3)

onde min e max são respectivamente o menor e o maior valor do intervalo de .

Para avaliar a capacidade de treinamento da rede, os dados foram selecionados


aleatoriamente com 70% de probabilidade de serem utilizados para treinamento e 30% de
probabilidade de serem utilizados para teste. O pseudocódigo da rede MLP é apresentado na
Figura 6:

Algoritmo 1: pseudocódigo da rede MLP


1. Rede_MLP()
2. Carregardados
3. dados_treinamento = dados 0.7
4. dados_teste = dados 0.3
5. taxa_aprendizagem = 0.01
6. épocas = 0
7. Enquanto alteração ≤ 1000 outolerância_erro faça:
8. forward(dados_treinamento)
9. backward(taxa_aprendizagem)
10. épocas =+ 1
11. fim enquanto
12. testar_rede(dados_teste)
13. Fim

Figura 6 –Pseudocódigo da Rede MLP.

2.4. Métricas de avaliação da classificação

Os resultados da classificação realizada pela rede MLP foram avaliados levando em conta
os valores da Acurácia, Precisão, Recall e F1-score. A Acurácia tem como objetivo identificar
o percentual de amostras classificadas corretamente, e é calculada a partir da soma do número
de verdadeiros positivos e verdadeiros negativos, dividido pelo total de dados da amostra. A
Precisão é uma medida de quão exata foi a classificação. Ela tem como objetivo identificar a
taxa de amostras que foram classificadas como positivas que são realmente positivas. O
Recall é a medida de quão correta foi a predição para a classe. Ele tem como objetivo
identificar a taxa de amostras positivas que foram classificadas como positivas. O F1-score é
a média harmônica entre a precisão e o recall. A adoção dessas métricas permite uma melhor
compreensão dos resultados do experimento além do entendimento de quão acurada a rede foi
em classificar os dados.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

141
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

3. RESULTADOS
Nesta seção são apresentados os resultados da classificação do tipo de viagem realizada
pelos passageiros utilizando a rede MLP. A classificação foi avaliada levando em conta a
Acurácia, Precisão, Recall e F1-score. Para a validação do experimento foram realizadas dez
execuções do classificador. A Figura 6 apresenta um box-plot com a distribuição dos
resultados obtidos com para a Acurácia.

Figura 6 –Box-plot dos resultados de acurácia.

Observando-se a Figura 6, nota-se que foi obtida uma Acurácia média de 70% para as
execuções. A Figura 7 apresenta um box-plot com a distribuição dos resultados da precisão,
recall e score para as classes Negócios e Lazer.

Figura 7 –Box-plot’sdos resultados das métricas de qualidade, por tipo de passageiro.

Pode ser observado na Figura 7 que a rede MLP obteve um resultado melhor na
classificação de passageiros viajando a negócios do que a lazer. Para viajantes a negócios, a
precisão média foi de 75%, contra uma precisão média de 74% para viajantes a lazer. Em
ambas as figuras foi possível constatar a maior aptidão da rede MLP em classificar
passageiros a negócios, podendo se considerar certa simetria na distribuição dos valores de
recall para as duas classes, e consequentemente um melhor desempenho do score para a
classe de Negócios.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

142
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

4. CONCLUSÕES
Este trabalho teve como objetivo avaliar a eficiência do uso de Redes Neurais Artificiais
do tipo MLP para a classificação do tipo de viagem aérea realizada pelos passageiros. Durante
as execuções da rede MLP foi obtida uma Acurácia média de 70%. A rede MLP obteve um
resultado melhor na classificação de passageiros viajando a negócios do que a lazer. Para
viajantes a negócios, a precisão média foi de 75%, contra uma precisão média de 64% para
viajantes a lazer. Os resultados iniciais obtidos com esse trabalho para a classificação do tipo
de passageiro são promissores. Em um serviço essencialmente ofertado para massas, como é o
caso da indústria de transporte aéreo, a identificação do motivo pelo qual um determinado
cliente está adquirindo aquele serviço fornecido simplesmente com base no seu
comportamento de aquisição, pode vir a ser uma vantagem estratégica considerável para o
prestador de serviço que detém o uso dessa tecnologia. Em termos práticos, essa informação
quando usada para a precificação do serviço pode fazer com que o preço cobrado seja mais
próximo do preço máximo ao qual o passageiro está disposto a pagar por aquela viagem.
Outro ponto é que a percepção da qualidade do serviço ofertado pode ser melhorada, com
base nas expectativas de cada um desses grupos para aquele serviço.
Sugere-se para trabalhos futuros o emprego de redes neurais artificiais em um universo
maior de voos e consequentemente de passageiros, além da adoção de mais variáveis de
entrada, que possam contribuir na melhoria da acurácia dos resultados já obtidos nesse
trabalho, além de comparações com outros métodos de classificação de dados.

REFERÊNCIAS

ANAC. (2012). Agência Nacional de Aviação Civil. Anuário do Transporte Aéreo. Brasília, DF, Brasil.
Bittencourt, G. (1998). Inteligência artificial - Ferramentas e Teorias. Universidade Federal de Santa Catarina.
Braga, A. P., Carvalho, A. P., & Ludermir, T. B. (2000). Redes Neurais Artificiais: Teoria e Aplicações. Rio de
Janeiro, RJ: LTC – Livros Técnicos e. Científicos Editora S.A.
Buitinck, L., Louppe, G., Blondel, M., Pedregosa, F., Mueller, A., Grisel, O., . . . Varoquaux, G. (2013). API
design for machine learning software: experiences from the scikit-learn. ECML PKDD Workshop:
Languages for Data Mining and Machine Learning, 108-22.
Duarte,, V. R. (2009). MP-Draughts - Um Sistema Multiagente de Aprendizagem Automática para Damas
Baseado em Redes Neurais de Kohonen e Perceptron Multicamadas. Uberlândia, MG, Brasil:
Dissertação de Mestrado, Universidade Federal de Uberlândia.
EPL, Empresa de Planejamento e Logística. (2014). Pesquisa de Origem/Destino do Transporte Aéreo de
Passageiros. Brasília, DF.: Relatório Técnico.
Haykin, S. (1994). Neural Networks: A Comprehensive Foundation. Macmillan College Publishing.
Kayser., M. R. (2008). RM Methods for Multiple Fare Structure Environments. Dissertação (Master of Science
Department of Civil and Environmental Engineering, Massachusetts Institute of Technologies.
Cambridge, MA.
Lai-Ying, L., Teck-Soon, H., Voon-Hsien, L., & Keng-Boon, O. (2015). An SEM–artificial-neural-network
analysis of the relationships between SERVPERF, customer satisfaction and loyalty among low-cost
and full-service airline. Expert Systems with Applications, Vol. 42, N.19, pp. 6620-6634.
Otwell, K., Hormby, S. S., & Hutchison, W. (1994). A Large-Scale Neural Network Application for Airline Seat
Allocation. International Neural Network Society Annual Meeting, Vol.1, pp. 145-150.
Reyes, H. M. (2006). Hybrid Forecasting for Airline Revenue Management in Semi-Restricted Fare Structures.
Dissertação (Master of Science). Department of Civil and Environmental Engineering, Massachusetts
Institute of Technologies. Cambridge, MA.
Slack, N., Chambers, S., Johnston, R., & Betts, A. (2008). Operations and Process Management. London, UK:
FT Prentice-Hall.
Talluri, K. G., & van Ryzin, G. (2004). The Theory and Practice of Revenue Management. Dordrect,
Netherlands: Kluwer Academic. Publishers.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

143
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Vieira, Z. P., & Bauchspiess, A. (1999). Implementação do Servocontrole Auto-Sintonizado em Tempo-Real


Utilizando Rede Perceptron Multicamadas. IV Congresso Brasileiro de Redes Neurais, pp. 308-313.
Weatherford, L., Gentry, T., & Wilamowski, B. (2003). Neural network forecasting for airlines: A comparative
analysis. Journal of Revenue and Pricing Management, Vol. 1, 319-331.

AIRLINES DOMESTIC PASSENGERS CLASSIFICATION USING ARTIFICIAL


NEURAL NETWORKS OF THE TYPE MLP

Abstract. This experiment investigated the potential of applying an artificial neural network
(Multilayer Perceptron) for the classification of passenger profiles within the Brazilian
airline industry, more precisely on the connection of the most relevant airport pair in several
metrics in the country. From a bibliographical review on the subject it was listed two different
passenger profiles each with specific characteristics, in relation to their consumption
behavior. After some adjustments and tests on the chosen network, a satisfactory topology
and parameterization was established for the classification of the passengers with variable
data that can be acquired by the airlines at the time of ticket purchase. The result of the
experiments turned out to be very promising, which would enable the future application of
this method by airline industry.

Keywords: Airline Planning, Airline Demand Segmentation, Revenue Management, Artificial


Neural Network

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

144
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DAS CONFIGURAÇÕES DE TROCA TÉRMICA NO PROCESSO DE


DESIDRATAÇÃO DE ETANOL EM REATOR DE LEITO FIXO

Hiago Vieira de Miranda1 – hiago_vm@hotmail.com


Fabrício Thiengo Vieira2 – thiengovieira@gmail.com
Julio Cesar Sampaio Dutra2 – juliosdutra@yahoo.com.br
1
Mestre em Engenharia Química
2
Universidade Federal do Espírito Santo, Centro de Ciências Agrárias e Engenharias – Alegre, ES,
Brazil

Resumo. Etileno é um dos monômeros mais utilizados na produção de petroquímicos. Por


conta da crise do petróleo nos anos 70, a expansão de novas rotas de obtenção de etileno foi
necessária, e processos anteriormente pouco explorados industrialmente começaram a serem
explorados, em particular o processo de desidratação catalítica do etanol em reator de leito
fixo. A principal vantagem desse processo recai em questões ambientais, principalmente
quanto à emissão de gases responsáveis pelo efeito estufa, ao contrário de processos
convencionais, como o craqueamento de nafta. Para processos em reator de leito fixo, a
necessidade de promover a troca térmica adequada pode ser um desafio, uma vez que o
controle de temperature pode resultar em sérios problemas operacionais, como terminação
da reação, baixa conversão ou favorecimento de reações secundárias. Nesse context, esse
trabalho tem como objetivo a simulação da desidratação catalítica de etanol a etileno em
reator de leito fixo utilizando o método da colocação ortogonal para solução do modelo e a
verificação do efeito do sentido da troca térmica (cocorrente e contracorrente). Os resultados
mostraram que a configuração contracorrente promoveu maior conversão de etanol a etileno
sob as condições operacionais avaliadas.

Palavras chave: reator de leito fixo, desidratação do etanol, etileno, colocação ortogonal,
troca térmica.

1. INTRODUÇÃO

O eteno é um monômero utilizado na produção de cerca de 75% dos produtos


petroquímicos, tais como polietileno de alta e baixa densidade, policloreto de vinila (PVC),
polietileno tereftalato (PET), poliésteres, entre outros (ZHANG; YU, 2013). Os processos
industriais para produção de eteno se baseavam fortemente no craqueamento de frações do
petróleo e gás natural na década de 1960. Contudo, devido à crise do petróleo de 1973,
processos até então pouco explorados industrialmente passaram a ser estudados, entre eles a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

145
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

produção de eteno pela desidratação catalítica de biomassa, principalmente o etanol, em


reatores de leito fixo (LIMA et al., 2012; FAN et al., 2013).
De acordo com Zhang e Yu (2013), até então 99% da produção mundial de eteno era via
craqueamento térmico de hidrocarbonetos. Contudo, atualmente muitos estudos têm sido
realizados sobre a desidratação catalítica de etanol, e novas plantas industriais têm sido
construídas. Pelo fato da demanda de eteno ser muito grande, torna-se importante a
exploração de novas fontes de obtenção dessa olefina (LIMA et al., 2012; FAN et al., 2013).
A produção de eteno via desidratação de etanol tem como principal vantagem a questão
ambiental, principalmente devido à diminuição das emissões de gases de efeito estufa.
Enquanto o processo convencional a partir do craqueamento de nafta é responsável pela
emissão de milhões de toneladas de CO2 por ano na atmosfera, a reação de desidratação do
etanol tem como produtos somente água e substâncias de interesse econômico. Além disso, o
bioetanol utilizado como reagente, oriundo da fermentação da glicose de biomassa, auxilia na
diminuição de CO2 na atmosfera. O gás é fixado nas plantas por fotossíntese, podendo ser
futuramente transformado em bioetanol, que por sua vez é convertido em eteno, o qual é
posteriormente polimerizado (HUBER et al., 2006, DA ROS, 2012).
A reação para a desidratação do etanol é endotérmica e ocorre por meio da remoção
de uma molécula de água do etanol (desidratação intramolecular), tendo como produtos uma
molécula de eteno e uma de água (CHOOPUN; JITKARNKA, 2016). A reação de
desidratação do etanol com formação de éter etílico (desidratação intermolecular) é a
principal concorrente da reação que leva à formação de eteno, sendo uma reação exotérmica
(PHUNG et al., 2015).
Reatores catalíticos de leito fixo, utilizados nesse processo são empregados em uma
grande parcela dos processos catalíticos industriais em fase gasosa, apresentando grande
relevância nas indústrias químicas e petroquímicas, devido à importância econômica e às
grandes quantidades dos produtos neles gerados. (TOLEDO et al., 2011).
Neste trabalho, a reação de interesse é endotérmica, e segundo Froment, Bischoff e De
Wilde (2011), a queda de temperatura no reator pode levar à extinção da reação antes de se
alcançar a conversão desejada ou ao favorecimento de uma reação secundária de menor
interesse. Nesse sentido, as configurações de troca térmica exercem grande importância sobre
o andamento do processo.

2. MATERIAIS E MÉTODOS

2.1 Modelo cinético

De acordo com Kagyrmanova et al. (2011), os principais produtos da desidratação de


etanol, na presença de catalisador a base de alumina, são eteno, éter etílico, etanal, hidrogênio
e buteno. Desse modo, as reações consideradas para o processo de desidratação de etanol
neste trabalho foram dispostas, juntamente às suas variações de entalpia padrão, nas Equações
1 a 5, respectivamente.

(1)
(2)
(3)
(4)
(5)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

146
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os modelos cinéticos utilizados se baseiam na lei da ação das massas. A velocidade


específica de reação é uma função exponencial da temperatura (do tipo lei de Arrhenius) e a
constante 𝐾𝐶𝑗 está relacionada com a constante termodinâmica de equilíbrio químico, 𝐾𝑗,
conforme as Equações 5 e 6.

𝐾𝐶𝑗 = 𝐾𝑗𝐶°𝐷𝑂 (5)


𝑘𝑗,𝐷 = 𝑘0𝑗,𝐷𝑇𝑂𝐷𝑒-𝐸𝑎𝑗,𝐷/𝑅𝑇𝐶𝑐𝑎𝑡 (6)

em que 𝐶° é a concentração do gás ideal nas condições padrão (1 atm e 25ºC), 𝑂𝐷 é


a ordem da reação direta, 𝑘0𝑗,𝐷 é o fator pré-exponencial da reação, 𝐸𝑎 é a energia de
ativação da reação, 𝐶𝑐𝑎𝑡 é a concentração mássica do catalisador e 𝐷𝑂 é a diferença entre a
ordem de reação reversa e a ordem direta.

2.2 Modelo do Reator

Para a análise e simulação foi utilizada uma adaptação do modelo pseudo-homogêneo


unidimensional com dispersão axial proposto por Schwaab et al. (2009), que foi descrito para
o processo industrial de reforma a vapor de metano em leito fixo. As adaptações foram
realizadas com base na estrutura do modelo de Maia (2015).
Pela simplicidade e menor esforço para a implementação computacional do modelo,
foi realizada a simulação de um modelo unidimensional, considerando também a
dispersão na direção axial, com o Péclet mássico entre 80 e 100. Contudo, para aumentar o
nível de detalhamento do modelo, o efeito difusivo foi mantido no equacionamento.
As Equações 7 a 9 descrevem o balanço de massa por componente; a equação do fluxo
molar por componente; o balanço de energia para o reator, e; a equação para a massa
específica do gás.

Balanço de Massa por Componente:


(7)

Balanço de Energia:

(8)

Equação para a massa específica do gás:

(9)

em que 𝐶𝑖 é a concentração molar do componente, 𝐹𝑖 é o fluxo molar do componente, 𝐷𝑀 é o


coeficiente efetivo de difusão mássica na direção radial no leito fixo, 𝑣𝑖,𝑗 é o coeficiente
estequiométrico da espécie i na reação química j, 𝐶𝑝𝑠 é a capacidade calorífica do sólido à
pressão constante, 𝐶𝑃,𝑀 é a capacidade calorífica da mistura à pressão constante, 𝑣𝑓 é a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

147
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

velocidade da mistura reacional na direção axial, 𝑘𝐻 é o coeficiente efetivo de condutividade


térmica e 𝑀 é a massa molar da mistura.
Para a obtenção do modelo foi considerado: coeficiente efetivo de difusão mássica, e de
condutividade térmica constantes; gás ideal; solução ideal; fluido newtoniano; dissipação de
calor pelas forças viscosas desprezíveis; atividade do catalisador constante e fração de vazios
do leito (𝜀) uniforme. As condições iniciais do modelo são dadas pela Equação 10, em que o
índice 0 representa o valor inicial da variável.

(10)

As condições de contorno de Danckwerts para o balanço de massa por


componente são apresentadas na Equação 11 e para o balanço de energia
na Equação 12.

(11)

(12)

em que 𝐶𝑖𝑓(𝑡) é a concentração da espécie i na alimentação e 𝑇𝑓(𝑡) é a temperatura na


alimentação. As condições de contorno na entrada do reator indicam que ocorrem os
processos de transporte de advecção e dispersão axial, resultando em condições de contorno
do terceiro tipo (condições de Robin). Na saída do reator, as condições de contorno são do
segundo tipo (condições de Neumann).
Para a temperatura da camisa ao redor do reator foi considerada uma corrente de fluido
térmico ao redor do reator, que entra com uma determinada temperatura de alimentação e tem
sua temperatura variando ao longo do eixo axial. A simulação do processo foi realizada
considerando as configurações de fluido aquecedor com fluxo com correntes paralelas e em
contracorrente. A Equação 13 corresponde ao balanço de energia para o fluido térmico para a
configuração em correntes paralelas. Para a configuração contracorrente difere apenas o
primeiro termo após a igualdade, que é simétrico ao apresentado na Equação.

Balanço de Energia do Fluido Térmico (Correntes Paralelas):

(13)

em que 𝑣𝑣 é a velocidade axial de escoamento do fluido térmico, 𝑈 é o coeficiente de troca


térmica do fluido térmico, 𝜌𝑣 é a massa específica do fluido térmico e 𝐶𝑝𝑣 é a capacidade

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

148
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

calorífica do fluido térmico. As condições de contorno para a temperatura do fluido térmico


para as configurações correntes paralelas e contracorrente são dadas pela Equação 14.

(14)

em que 𝑇𝑣,𝑓 é a temperatura de alimentação do fluido térmico.


Para o cálculo da capacidade calorífica e entalpia de reação foram utilizadas as equações
descritas no trabalho de Miranda (2017). A fração de vazios do leito (𝜀) foi calculada por
meio da equação empírica de Haugley e Beveridge (FROMENT; BISCHOFF, 1990 apud
MAIA, 2015), conforme a Equação 15.

(15)

em que 𝐷𝑝 é o diâmetro equivalente de uma partícula de catalisador (Equação 16), obtido com
base no diâmetro de uma esfera perfeita com o mesmo volume da partícula de catalisador,
𝑉𝑐𝑎𝑡.
(16)

em que 𝑑𝑐𝑎𝑡 é o diâmetro do catalisador e 𝐿𝑐𝑎𝑡 é o comprimento da partícula de catalisador.


Os coeficientes efetivos de difusão mássica e de condutividade térmica para gases
escoando em leitos porosos foram obtidos por meio das expressões semi-empíricas da
Equação 17 (MAIA, 2015).

(17)

em que 𝐷0𝑀 é o fator de difusividade mássica efetiva (m².Pa.s-1.K-3/2) e 𝑘0𝐻 é o fator


efetivo de condutividade térmica (W.m.K-3/2).

2.3 Adimensionamento do modelo

Antes de proceder com a solução numérica das equações, foi necessário realizar o
adimensionamento do modelo matemático, a fim de viabilizar a correta implementação da
técnica da colocação ortogonal (RICE; DO, 1995), aplicada de modo que as raízes do
polinômio ortogonal estejam no intervalo de 0 a 1.

2.4 Simulação do processo

Após o adimensionamento das equações do modelo, foi realizada a discretização do


mesmo pela técnica da colocação ortogonal e a integração ao longo do tempo por meio da
aplicação do Método das Linhas. Este método consiste em discretizar as derivadas parciais no
espaço (pelo método da colocação ortogonal), para então resolver o sistema de equações
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

149
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

diferenciais temporais resultantes por meio de uma ferramenta de solução numérica (LANA,
2011).
A simulação do processo foi realizada no software MATLAB, em um computador com
processador Intel Core i5-5200U 2,20 GHz, memória RAM 8 GB e sistema operacional
Windows10 64 bits. O modelo foi resolvido para diferentes quantidades de pontos de
colocação interiores e, então, foi avaliado a partir de qual número de pontos de colocação a
solução do modelo passa a convergir, isto é, o grau de refinamento da malha espacial a partir
do qual o aumento de precisão da solução não é significante. Os pontos de colocação para a
aplicação da técnica de colocação ortogonal foram determinados pelas raízes do polinômio
ortogonal de Legendre.

2.4 Convergência da malha

Ao promover a discretização de um eixo espacial contínuo, quanto maior for o número


de pontos no domínio, menor é o erro entre a solução aproximada obtida pelo método
numérico e a solução analítica do problema. Contudo, cada ponto considerado para a solução
do sistema resulta em uma equação diferencial adicional, que deve ser integrada ao longo do
tempo de simulação. Logo, ao aumentar a acurácia da solução pela utilização de um número
maior de pontos de discretização, há um inerente aumento do custo computacional para a
solução do problema.
Neste contexto, torna-se usual encontrar uma quantidade mínima de pontos de
discretização que garanta uma solução precisa e viável do modelo matemático, com um custo
computacional reduzido. Para isso, um estudo de convergência de malha foi proposto. Como
no problema em estudo, uma solução analítica para o modelo matemático não se encontra
disponível, a convergência foi obtida por um critério quantitativo.
Foi empregado o erro relativo percentual máximo entre malhas com diferentes pontos de
colocação. Dessa forma, as soluções obtidas para o problema com números menores de
pontos de colocação foram comparadas com a solução alcançada ao se utilizar uma malha
mais refinada. A Equação 18 compreende a relação matemática utilizada para essa análise,
conforme proposta por Maia (2015).

(18)

em que é o máximo percentual de erro relativo entre as malhas para a variável de


estado , é a variável de estado adimensional obtida com a malha mais refinada e éa
variável de estado adimensional obtida com a malha com N pontos de colocação.

3. RESULTADOS E DISUSSÃO

3.1 Convergência de malha

A análise da convergência de malha foi realizada por meio dos perfis de temperatura
estacionários. A malha mais refinada continha 20 pontos de colocação internos e, portanto, 22
pontos no total, incluindo as condições de contorno. Foi estipulado que o erro percentual
máximo não deveria ser maior que 0,5% em relação à malha mais refinada.
Para a configuração de troca térmica com correntes paralelas, definiu-se 15 pontos de
colocação internos nas simulações numéricas. Na configuração em contracorrente, o erro
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

150
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

máximo já é menor que 0,5% com um número de pontos de colocação maior que oito.
Entretanto, para manter um padrão na quantidade de pontos de colocação, foi determinado o
uso de 15 pontos internos para ambas as configurações.

3.2 Perfis estacionários

Os perfis estacionários de temperatura do reator e do fluido térmico de aquecimento estão


dispostos nas Figuras 1 e 2. Ao se observar os perfis de temperatura, deve-se levar em conta a
direção dos fluxos ao longo do eixo axial. Pelos perfis de temperatura apresentados, em
ambas as configurações, a mistura reacional dentro do reator se move da esquerda para a
direita, assim como o fluido térmico na configuração com correntes paralelas. Já na
configuração contracorrente, a direção do fluido térmico é da direita para a esquerda.
Apesar de a temperatura de alimentação da mistura reacional ser a mesma para ambos os
sistemas em estudo, a temperatura no início do reator difere nos perfis de temperatura
estacionários. Isso ocorre devido aos efeitos de dispersão da condição de contorno na entrada
do reator, além das mudanças na temperatura até atingir o estado estacionário.
Na configuração com correntes paralelas, a temperatura na entrada do reator sofre um
aumento repentino de 6ºC, evidenciando a prevalência de uma reação exotérmica dentro do
reator, com liberação de calor. De acordo com as reações consideradas na simulação, pode-se
inferir que a reação que ocorre com maior predominância nessa região é a desidratação de
etanol para formação de éter etílico. A partir dessa posição, passa a se observar uma queda
permanente na temperatura até alcançar 356ºC na saída do reator.
A diminuição da temperatura ao longo do perfil axial do reator é característica da
preponderância de reações endotérmicas, que consomem a energia alimentada ao sistema.
Logo, é possível concluir que as reações endotérmicas de desidratação de etanol para
formação de eteno e desidratação de éter etílico para geração de eteno passam a ser
predominantes ao longo de todo o restante do comprimento do reator. Também é possível
observar que em torno da posição de 0,5 m do eixo axial, as temperaturas do reator e do fluido
térmico passam a entrar em equilíbrio, mantendo-se iguais até a saída.
Para a configuração de troca térmica em contracorrente (Figura 2), observa-se na região
inicial uma brusca queda da temperatura, principalmente devido à corrente de fluido térmico
que está consideravelmente mais fria do que a temperatura de alimentação do reator.

440 440

430 430

420 420
Reator Reator
Fluido Térmico Fluido Térmico
410 410
Temperatura (ºC)
Temperatura (ºC)

400 400

390 390

380 380

370 370

360 360

350 350

340 340
0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
Comprimento do reator (m) Comprimento do reator (m)

Figura 1 - Perfis estacionários de temperatura Figura 2 - Perfis estacionários de temperatura


configuração correntes paralelas. configuração contracorrente.

Além disso, a menor temperatura no início do reator é um indicativo de que reações


endotérmicas estão ocorrendo na região, consumindo o calor transferido pela corrente de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

151
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

fluido térmico. A partir do entorno da posição de 0,1 m, a temperatura do reator passa a


aumentar constantemente, à medida que recebe calor proveniente da corrente de aquecimento,
que, por sua vez, apresenta maiores temperaturas ao passo que se aproxima da saída do reator.
Os perfis estacionários de percentuais molares em base seca das principais espécies
químicas envolvidas no processo estão apresentados nas Figuras 3 e 4, para as configurações
com correntes paralelas e contracorrente, respectivamente.
100 100

90 90

80 80
Percentual Molar (%)

Percentual Molar (%)


70 70
Etanol Etanol
Eteno Eteno
60 60
Éter Éter
50 50

40 40

30 30

20 20

10 10

0 0
0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
Comprimento (m) Comprimento (m)

Figura 3 - Perfis estacionários de percentuais Figura 4 - Perfis estacionários de percentuais


molares em base seca - correntes paralelas. molares em base seca – contracorrente.

Nas Figuras 5 e 6, estão apresentados os perfis axiais estacionários de conversão de


etanol e de rendimento percentual de eteno e éter etílico. Pela curva de conversão de etanol,
na Figura 5, é possível observar que a conversão na configuração com correntes paralelas
ocorre principalmente nos primeiros 30% do eixo axial do reator. A partir dessa posição, a
conversão aumenta apenas em pequenas proporções. Pelas curvas de rendimento, é possível
inferir que o etanol sofre processos de desidratação para formar eteno e éter etílico.
Além disso, o rendimento do éter é inicialmente maior que o de eteno. Em geral, esse
comportamento é observado devido à influência das energias de ativação. Kagyrmanova et al.
(2011) obtiveram para a reação que forma éter etílico (101 kJ/mol), menor do que a da reação
que gera eteno (147,7 kJ/mol), o que decorre na maior formação inicial de éter etílico.
Contudo, a concentração de eteno passa a aumentar continuamente (Figura 3), com o mesmo
sendo formado em grandes quantidades na entrada do reator e mais lentamente após a posição
de 0,4 m. A concentração de éter etílico chega a 2,8 mol/m³ próximo à entrada do reator e, em
seguida, este componente passa a ser consumido para formar eteno, por meio da reação de
desidratação do éter etílico.
100 100 100 100

80 80

Conversão Etanol Conversão Etanol


Rendimento (%)

Rendimento (%)
Conversão (%)

Conversão (%)

Rendimento Eteno Rendimento Eteno


60 60
Rendimento Éter Rendimento Éter
50 50

40 40

20 20

0 0 0 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Comprimento adimensional Comprimento adimensional

Figura 5 – Conversão de etanol e rendimento Figura 6 - Conversão de etanol e rendimento


configuração correntes paralelas. configuração contracorrente.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

152
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na configuração contracorrente (Figuras 4 e 6), observa-se na saída do reator percentuais


molares próximos aos obtidos para correntes paralelas. Entretanto, os perfis axiais apresentam
diferenças marcantes. O etanol alimentado no reator passa a ser consumido mais
proporcionalmente ao longo da primeira metade do eixo axial e o éter etílico é produzido em
maiores proporções do que eteno no início do reator. Este efeito na seletividade é decorrente
da temperatura na entrada do reator ser menor nesta configuração (Kagyrmanova et al., 2011).
À medida que a temperatura começa a atingir níveis mais elevados, a formação de éter
etílico diminui significativamente, ao passo que a de eteno aumenta continuamente. Segundo
Kagyrmanova et al. (2011), com o aumento da temperatura, o éter etílico sofre uma reação de
desidratação para formação de eteno, o que também pode ser observado nos resultados das
simulações. Os efeitos combinados desta reação e o da reação de desidratação de etanol
ocasionam um aumento pronunciado na concentração de eteno. A partir da metade do reator,
cerca de 92% do etanol já foi consumido, de modo que a concentração de eteno aumenta
levemente, até chegar a um percentual molar de 98,4% em base seca na saída do reator.
Diante dos resultados apresentados, é possível afirmar que a configuração de troca
térmica em contracorrente é mais apropriada para o processo de desidratação de etanol para
formação de eteno. Isso se deve à maior conversão de etanol e à consequente maior produção
de eteno na saída do reator. Além disso, a seletividade para eteno foi maior, o que, mesmo
que em pequenas proporções, demonstrou que a configuração em contracorrente dá maior
propensão à formação de eteno em relação aos produtos secundários do que a configuração
com correntes paralelas. As temperaturas acima de 400ºC, atingidas ao final do reator na
configuração em contracorrente, possibilitaram que a reação de desidratação de etanol
ocorresse em maior proporção, o que não foi observado para correntes paralelas.

4. CONCLUSÕES

Estes resultados contribuem para a sugestão de uma configuração térmica para aplicações
práticas. Muitos estudos consideram a temperatura da camisa de aquecimento constante,
contudo, em processos reais, essa pode ser uma condição difícil de se alcançar. A simulação
deste processo com comportamento dinâmico de troca de calor, com fluxos em correntes
paralelas e em contracorrente, ainda não foi explorada na literatura, de modo que esses
resultados mostram as principais características da operação de um reator de desidratação de
etanol, além da melhor forma de operação, nessas condições operacionais.

Acknowledgements

Os autores agradecem a CAPES pelo apoio financeiro envolvido no projeto de mestrado


que resultou nesse trabalho.

REFERÊNCIAS

Choopun, W.; Jitkarnka, S. Catalytic activity and stability of HZSM-5 zeolite and hierarchical uniform
mesoporous MSU-SZSM-5 material during bio-ethanol dehydration. Journal of Cleaner Production, v. 135,
p. 368-378, 2016.
Da Ros, S. Produção de Eteno a partir de Etanol Utilizando Aluminas. 2012. 135 f. Dissertação (Mestrado em
Engenharia de Processos) – Universidade Federal de Santa Maria, Santa Maria, 2012.
Fan, D.; Dai, D. J.; Wu, H. S. Ethylene Formation by Catalytic Dehydration of Ethanol with Industrial
Considerations. Materials, v. 6, p. 101-115, 2013.
Froment, G. F.; Bischoff, K. B.; De Wilde, J. Chemical Reactor Analysis and Design. 3. ed. New York: John
Wiley & Sons, 2011.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

153
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Huber, G. W.; Iborra, S.; Corma, A. Synthesis of Transportation Fuels from Biomass: Chemistry, Catalysts, and
Engineering. Chemical Reviews, v. 106, p. 4044-4098, 2006.
Kagyrmanova, A. P.; Chumachenko, V. A.; Korotkikh, V. N.; Kashkin, V. N.; Noskov, A. S. Catalytic dehydration
of bioethanol to ethylene: Pilot-scale studies and process simulation, Chemical Engineering Journal, v. 176,
p. 188-194, 2011.
Lana, L. D. M. Convecção forçada transiente em regeneradores utilizando o método das linhas e volumes
finitos. 2011. 162 f. Dissertação (Mestrado em Engenharia Mecânica) - Universidade Federal Fluminense,
Niterói, 2011.
Lima, A. M.; Assis, A. J.; Hori, C. E.; Reis, M. H. E.; Machado, A. E. H. Thermodynamic Analysis of Ethanol
Dehydration to Ethylene through Equilibrium Constant Method Using Classic Thermodynamics and
Quantum Chemistry. International Review of Chemical Engineering, v. 4, p. 466-473, 2012.
Maia, J. G. S. S. Modelagem e Simulação do Processo de Desidratação do Etanol. 2015. 148 f. Dissertação
(Mestrado em Engenharia Química) – Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de
Engenharia, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2015.
Miranda de, H. V. Simulação, Controle e Avaliação das Configurações de Troca Térmica no Processo de
Desidratação de Etanol em Reator de Leito Fixo. 2017. 109f. Dissertação (Mestrado em Engenharia
Química) – Universidade Ferderal do Espírito Santo, Alegre, 2017.
Phung, T. K.; Hernández, L. P.; Lagazzo, A.; Busca, G. Dehydration of ethanol over zeolites, silica alumina and
alumina: Lewis acidity, Brønsted acidity and confinement effects. Applied Catalysis A: General, v. 493, p.
77-89, mar. 2015.
Rice, R. G.; Do, D. D. Applied Mathematics and Modelling for Chemical Engineers, John Wiley & Sons, Inc.
1995.
Schwaab, M.; Alberton, A. L.; Fontes, C. E.; Bittencourt, R. C.; Pinto, J. C. Modeling of Methane Reformers –
Modeling of the Industrial Reactors. Industrial & Engineering Chemistry Research. v. 48, n. 21, p. 9376-
9382, nov. 2009.
Toledo, E. C. V. T.; Morais, E. R.; Melo, D. N. C.; Mariano, A. P.; Meyer, J. F. C. A.; Maciel Filho, R. Suiting
Dynamic Models of Fixed-Bed Catalytic Reactors for Computer-Based Applications. Engineering, v. 3, p.
778-785, 2011.
Zhang, M.; Yu, Y. Dehydration of Ethanol to Ethylene. Industrial & Engineering Chemistry Research, v. 52, p.
9505-9514, 2013.

SIMULATION, CONTROL AND EVALUATION OF THERMAL EXCHANGE


SETTINGS IN THE PROCESS OF ETHANOL DEHYDRATION IN FIXED BED
REACTOR

Abstract. Ethylene is one of the most used monomers in the production of petrochemicals.
Due to the oil crisis in the 1970s, the expansion of new ways of obtaining ethylene was
necessary, and processes previously little explored industrially began to be studied, in
particular the process of catalytic dehydration of ethanol in fixed bed reactors.The major
advantaje of this process relies on environmental issues, especially on the reduction of gas
emissions that are responsible for the greenhouse effect, as opposed to more conventional
processes, such as the cracking of naphtha. For processes in fixed bed reactors, the need to
promote heat transfer properly can be a challenge, since a deficiency in the temperature
regulation can lead to serious operating problems, such as termination of the reaction, low
conversions or favoring secondary reactions. In this context, this work has as objectives the
simulation of a fixed bed reactor model for ethanol dehydration reaction to ethylene using the
orthogonal collocation method, the verification of the effect of thermal fluid settings (co-
current and countercurrent). The resuls show that the countercurrent configuration provided
higher conversion of ethanol and ethylene production under the evaluated operational
conditions.

Keywords: fixed bed reactor, ethanol dehydration, ethylene, orthogonal collocation, heat
exchange.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

154
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELAGEM MATEMÁTICA E RESOLUÇÃO EXATA DE UM PROBLEMA


OPEN SHOP APLICADO A UM ESTUDO DE CASO NO SETOR
AUTOMOBILÍSTICO

Caroline Maruchi de Oliveira1 – carolinemaruchi07@gmail.com


Mariana Kleina2 – marianakleina11@gmail.com
1
Universidade Federal do Paraná – Curitiba, PR, Brasil
2
Universidade Federal do Paraná – Curitiba, PR, Brasil

Resumo. O objetivo deste estudo é adaptar um problema de programação e sequenciamento


de caminhões em um problema open shop, propor um modelo matemático de modo a minimizar
o tempo dos motoristas dentro da empresa e resolvê-lo de maneira exata com a utilização de
técnicas e algoritmos de Pesquisa Operacional. O trabalho foi estruturado em etapas
sequenciais. Primeiramente, os métodos e algoritmos mais utilizados para este tipo de
problema foram identificados. Na sequência, o modelo matemático foi desenvolvido,
implementado computacionalmente no software LINGO e validado de acordo com as restrições
do estudo de caso. O software LINGO apresentou limitações na obtenção da solução ótima
devido às dimensões dos problemas. Os resultados ótimos obtidos pelo software mostraram
que o modelo proposto atendeu as condições do problema real no qual foi baseado.

Palavras-chave: Programação de caminhões. Chegada de caminhões. Janela de tempo. Setor


Automobilístico. Open Shop.

1. INTRODUÇÃO

A importância do Planejamento e Controle da Produção (PCP) tem se mostrado cada vez


maior em todos os ambientes. O uso eficiente de recursos humanos, materiais e produtivos
aliado a redução de custos e aumento na qualidade de atendimento aos clientes tem sido fatores
chave para manter a competitividade das empresas. Segundo Slack (2006), o sequenciamento
e a programação da produção são duas das atividades que estão incluídas no escopo do PCP.
A necessidade do sequenciamento surge quando diversos itens são processados no mesmo
equipamento e existe um estado de preparação diferente para cada item. A programação não é
aplicada apenas à produção, outros setores também podem se beneficiar desta atividade, como
o setor de transportes. Uma das aplicações para este setor, é a programação de veículos
(Arenales et al., 2007).
Considerando as restrições envolvidas nos processos de sequenciamento e programação, o
tempo de espera pode ter um alto impacto no fluxo de produção, desde o impacto nos tempos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

155
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que os fornecedores levam dentro das empresas para descarregar os materiais necessários para
a produção, até o momento em que os produtos finais saem para entrega aos clientes. Além de
aumentar os tempos de processamentos, tempos de espera podem aumentar também os custos
de produção. A partir deste cenário, destaca-se a importância de uma boa programação da
produção.
Este trabalho baseia-se em um problema de programação e sequenciamento de caminhões
em uma empresa automobilística situada na região metropolitana de Curitiba, com foco no setor
de transporte e logística de todo o complexo industrial da fábrica. O objetivo deste artigo é
adaptar o caso para um problema de sequenciamento e programação, mais especificamente um
problema open shop, e propor um modelo matemático de modo a minimizar o tempo dos
motoristas dentro da empresa e resolvê-lo de maneira exata. O trabalho está estruturado em 7
seções iniciando pela introdução com a finalidade de contextualizar o tema e definir os objetivos
deste estudo, seguido da revisão da literatura. A seção 3 apresenta o problema, a seção 4, a
metodologia adotada no desenvolvimento do trabalho e a seção 5, o modelo matemático
proposto. A seção 6 abrange os resultados obtidos e a última seção, as principais considerações
sobre o estudo.

2. REVISÃO DA LITERATURA

2.1 Planejamento e Controle da Produção

O Planejamento e Controle da Produção (PCP) é classificado como um setor de apoio que


analisa informações vindas de diversas áreas e a partir disso gerencia os recursos produtivos e
suas operações (Tubino, 2009).
De acordo com Slack et al. (2006), o Planejamento e Controle da Produção busca conciliar
fornecimento e demanda nos quesitos volume, tempo e qualidade. Esta conciliação envolve três
atividades:
 Carregamento: refere-se ao volume permitido para uma operação produtiva;
 Sequência: estabelece prioridade das tarefas a serem executadas;
 Programação: especifica o tempo de início e fim para cada tarefa. Esta atividade é uma
das mais complexas no PCP, pois o número de possíveis programações cresce
rapidamente em função do número de atividades e processos.
As principais medidas de desempenho relacionadas à programação da produção são:
makespan, tempo de fluxo total, atraso máximo, atraso total, lateness e número de tarefas
atrasadas. Makespan representa o instante de término de processamento das tarefas; enquanto
o tempo de fluxo total é a soma destes instantes. As demais medidas de desempenho são
associadas à data de entrega das tarefas e podem ser conflitantes entre si em muitos casos. Por
isso, quando consideradas em um problema, geralmente opta-se por uma otimização com
múltiplos objetivos (Arenales et al., 2007).

2.2 Sequenciamento e Programação de Caminhões

O gerenciamento de caminhões e plataformas pode ser uma atividade muito complexa, pois
de acordo com Ladier e Alpan (2016a), os gestores buscam atender requerimentos de
fornecedores quanto aos horários de chegada e saída da indústria, a fim de melhorar o
relacionamento com todos os stakeholders envolvidos.
De acordo com Ladier e Alpan (2016b), o gerenciamento de caminhões e plataformas pode
subdividir-se em três diferentes problemas:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

156
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• Designação de caminhão à entrada da doca: o número de caminhões geralmente é menor


que o número de docas. Busca-se definir qual caminhão será designado à qual doca,
considerando-se apenas dimensão espacial;
• Sequenciamento de caminhões: o número de caminhões é maior que o número de docas
e objetiva-se determinar a ordem de processamento dos caminhões em cada doca;
• Programação de caminhões: incorporação da dimensão temporal ao problema de
sequenciamento. Além da ordem, define-se também o tempo de chegada e saída do caminhão
em cada doca.
Berghman et al. (2014) apresentam uma situação em um armazém da Toyota na Bélgica.
O problema envolve trailers que chegam a um armazém e precisam descarregar seus produtos
e trailers que precisam carregar produtos antes de deixarem o armazém. O objetivo é minimizar
o tempo de entrega dos operadores logísticos destes trailers. O problema foi modelado como
um flow shop de 3 estágios flexíveis. Os autores consideraram um tempo de deslocamento fixo,
independente da distância e propuseram três diferentes formulações inteiras para serem
aplicadas ao problema da Toyota, sendo elas formulação baseada na designação, no fluxo e na
indexação de tempo.
Cota et al. (2016) apresentam um problema de sequenciamento de dois estágios, para
caminhões que chegam e caminhões que saem, com o objetivo de minimizar o makespan. Os
autores modelaram o problema como um flow shop híbrido de dois estágios com a apresentação
de uma formulação linear inteira mista com indexação de tempo e testaram uma heurística
polinomial construtiva para resolução de instâncias médias e grandes.
Wirth e Emde (2018) abordam um problema de programação no qual caminhões precisam
visitar algumas docas específicas para entregar peças. Cada caminhão tem um tempo individual
de chegada e previsão de saída da fábrica. O objetivo é minimizar a penalidade para aqueles
caminhões que não respeitam o tempo de saída da fábrica. Os autores propuseram um modelo
de programação linear mista baseado no problema open shop para resolução de problemas
pequenos e utilizaram a meta-heurística conhecida por procedimento de busca adaptativa
aleatória ou GRASP (greedy randomized adaptive search procedure).

2.3 Open Shop

Os problemas de sequenciamento e programação geralmente baseiam-se nas


características de número de tarefas, número de máquinas e rota de processamento de tarefas.
Os problemas de sequenciamento e programação mais citados na literatura são o flow shop e o
job shop.
Existe um terceiro problema de sequenciamento, menos conhecido que os dois citados
anteriormente, chamado de open shop. Segundo Naderi e Zandieh (2014), este problema é
aplicado para casos em que as rotas de processamento não são previamente determinadas.
Considerando 𝑛 tarefas e 𝑚 máquinas, cada tarefa tem que ser processada em cada uma
das 𝑚 máquinas. De acordo com Pinedo (2016), as principais diferenças do open shop são:
 O tempo de processamento em algumas máquinas pode ser zero;
 As rotas de processamento das tarefas são abertas. Isso significa que além da decisão
sobre as sequências de tarefas em cada máquina, o problema também tem o objetivo de
decidir a rota de processamento das tarefas.

3. DESCRIÇÃO DO PROBLEMA

O problema abordado neste trabalho é baseado nas operações de uma empresa do setor
automobilístico. Diariamente, a empresa recebe vários caminhões que irão percorrer algumas
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

157
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

docas para descarregar materiais. Alguns caminhões, após descarregar todos os materiais,
percorrerão algumas docas coletando embalagens. A empresa já sabe quais docas devem ser
percorridas por cada caminhão de acordo com o fornecedor e os materiais que serão entregues.
As docas possuem diferentes horários de funcionamento. Algumas docas operam somente
um turno, algumas operam dois turnos e outras operam em três turnos. Além dessas diferenças
de turnos, as docas também possuem alguns horários de intervalos para café, almoço, janta e
ceia. Por possuir estes intervalos nos quais as docas não funcionam, a modelagem do problema
deverá considerar janelas de tempo.
Para simplificar o problema, os tempos de deslocamento, descarga e carga de materiais são
fixados em 5, 30 e 15 minutos, respectivaments. A fixação destes tempos baseou-se nos valores
utilizados pela empresa que serviu como exemplo para este trabalho.
Alguns caminhões também irão carregar embalagens além de descarregar materiais. Nestes
casos, a empresa impõe uma restrição de que antes de carregar, o caminhão já deve ter
descarregado materiais em todas as docas programadas. A empresa possui outra condição de
que antes de iniciar o percurso pelas docas, cada caminhão deve passar pela recepção para
realizar algumas atividades administrativas como cadastro dos dados do motorista e horário da
entrada do caminhão na empresa. Esta informação também deve ser considerada no modelo e
o tempo na recepção também foi fixado em 10 minutos.

4. METODOLOGIA

Após um estudo das situações reais enfrentadas pela empresa que serviu de exemplo para
este trabalho, realizou-se um levantamento bibliográfico das características do problema de
sequenciamento e programação de caminhões de modo a identificar modelagens matemáticas
aplicadas em problemas similares.
A partir da revisão da literatura, inicou-se a formulação do modelo matemático baseado
em um problema open shop, seguida da implementação computacional do modelo no software
LINGO. O modelo exato foi executado para alguns conjuntos de dados e verificado se as
restrições matemáticas atendiam e respeitavam as reais condições que o problema deve
considerar.
Com o modelo validado, o código foi executado para bases de dados desenvolvidas de
modo a simular as reais condições do problema. Os resultados foram traduzidos para um gráfico
de Gantt de modo a possibilitar a análise da sequência dos roteiros dos caminhões, janelas de
tempos e tempos de términos das operações nas docas.

5. MODELO MATEMÁTICO

Este capítulo tem o objetivo de apresentar o problema mediante a modelagem matemática,


com o detalhamento das variáveis, parâmetros e restrições utilizados.

5.1 Índices e Parâmetros

Nesta seção são apresentados os índices e parâmetros utilizados na formulação matemática


do problema. A seguir encontram-se os índices aplicados aos parâmetros e variáveis:

𝑗, 𝑘: í𝑛𝑑𝑖𝑐𝑒𝑠 𝑑𝑜𝑠 𝑐𝑎𝑚𝑖𝑛ℎõ𝑒𝑠 {1, 2, … , 𝑛};


𝑖, 𝑙: í𝑛𝑑𝑖𝑐𝑒𝑠 𝑑𝑎𝑠 𝑑𝑜𝑐𝑎𝑠 {0, 1, 2, … , 𝑚};
𝑣: í𝑛𝑑𝑖𝑐𝑒𝑠 𝑑𝑎𝑠 𝑗𝑎𝑛𝑒𝑙𝑎𝑠 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜;

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

158
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O índice 𝑖 = 0 representa uma doca fictícia que possui tempos de processamento igual a
zero. Com a finalidade de garantir o atendimento das condições impostas ao problema, optou-
se por definir a recepção como uma doca, sendo representada por 𝑖 = 1.
Os parâmetros são definidos a seguir:

𝑛: 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑚𝑖𝑛ℎõ𝑒𝑠;
𝑚: 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑑𝑜𝑐𝑎𝑠;
𝑏: 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑗𝑎𝑛𝑒𝑙𝑎𝑠 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜;
𝑝𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑎𝑚𝑒𝑛𝑡𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;
𝑑: 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑑𝑒𝑠𝑙𝑜𝑐𝑎𝑚𝑒𝑛𝑡𝑜 𝑒𝑛𝑡𝑟𝑒 𝑎𝑠 𝑑𝑜𝑐𝑎𝑠;
𝑟: 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑎𝑡𝑒𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 𝑛𝑎 𝑟𝑒𝑐𝑒𝑝çã𝑜;
𝑤𝑖,𝑣 : 𝑖𝑛í𝑐𝑖𝑜 𝑑𝑎 𝑗𝑎𝑛𝑒𝑙𝑎 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜 𝑣 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;
𝑑𝑤𝑖,𝑣 : 𝑑𝑢𝑟𝑎çã𝑜 𝑑𝑎 𝑗𝑎𝑛𝑒𝑙𝑎 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜 𝑣 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;

5.2 Variáveis

1, 𝑠𝑒 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 é 𝑑𝑒𝑠𝑖𝑔𝑛𝑎𝑑𝑜 𝑝𝑎𝑟𝑎 𝑎 𝑑𝑜𝑐𝑎 𝑖 𝑎𝑝ó𝑠 𝑎 𝑜𝑝𝑒𝑟𝑎çã𝑜 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑙


𝑋𝑗,𝑖,𝑙 = {
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
1, 𝑠𝑒 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 é 𝑑𝑒𝑠𝑖𝑔𝑛𝑎𝑑𝑜 𝑎𝑝ó𝑠 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑘 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖
𝑌𝑗,𝑖,𝑘 = {
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
1, 𝑠𝑒 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖 é 𝑑𝑒𝑠𝑖𝑔𝑛𝑎𝑑𝑜 𝑎𝑝ó𝑠 𝑎 𝑗𝑎𝑛𝑒𝑙𝑎 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜 𝑣
𝑍𝑗,𝑖,𝑣 = {
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
𝐶𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑡é𝑟𝑚𝑖𝑛𝑜 𝑑𝑎 𝑜𝑝𝑒𝑟𝑎çã𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;
𝑇𝑗 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑡é𝑟𝑚𝑖𝑛𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗;
𝑆𝑗 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑖𝑛í𝑐𝑖𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗;
𝑈𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑎𝑡𝑖𝑣𝑖𝑑𝑎𝑑𝑒 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑎𝑛𝑑𝑜 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑑𝑒𝑠𝑙𝑜𝑐𝑎𝑚𝑒𝑛𝑡𝑜;
𝑅𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑎𝑚𝑒𝑛𝑡𝑜 𝑟𝑒𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑜;

Os possíveis valores de 𝑈𝑗,𝑖 são 0, 10, 20 e 35. Esta variável busca garantir que o tempo de
deslocamento até uma doca será considerado apenas para os casos em que há uma operação de
carregamento ou descarregamento na doca. Para a recepção e para os casos em que o tempo de
processamento é igual a zero, então 𝑈𝑗,𝑖 = 𝑝𝑗,𝑖 .
As variáveis 𝑅𝑗,𝑖 podem assumir os valores 15, 30 e 𝑀. Para as docas nas quais o caminhão
𝑗 realiza uma operação de carregamento ou descarregamento, 𝑅𝑗,𝑖 assumirá os mesmos valores
de 𝑝𝑗,𝑖 , 15 e 30, respectivamente. Para as docas que possuem um tempo de processamento 0 e
a doca que representa a recepção, 𝑅𝑗,𝑖 assumirá um valor alto, representado por 𝑀. Na
modelagem do problema, este valor alto forçará com que estas docas sejam processadas antes
de docas que possuem uma operação de carregamento ou descarregamento.

5.3 Modelagem Matemática


𝑛

𝑀𝑖𝑛 ∑ 𝑇𝑗 (1)
𝑗=1
𝑌𝑗,𝑖,𝑘 + 𝑌𝑘,𝑖,𝑗 ≤ 1 ∀ 𝑖, 𝑗, 𝑘 ≠ 𝑗 (2)
𝑋𝑗,𝑖,𝑙 + 𝑋𝑗,𝑙,𝑖 ≤ 1 ∀ 𝑗, 𝑖, 𝑙 ≠ 𝑖 (3)
𝑅𝑗,𝑖 = 𝑝𝑗,𝑖 + 𝑀 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 ≤ 𝑟 (4)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

159
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

𝑅𝑗,𝑖 = 𝑝𝑗,𝑖 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 > 𝑟 (5)


𝑋𝑗,𝑖,𝑙 = 0 ∀ 𝑗, 𝑖, 𝑙 ≠ 𝑖 | 𝑅𝑗,𝑙 < 𝑅𝑗,𝑖 (6)
𝐶𝑗,0 = 0 ∀𝑗 (7)
𝐶𝑗,𝑖 = 𝐶𝑗,0 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 = 0 (8)
𝑆𝑗 = 𝐶𝑗,1 − 𝑟 ∀𝑗 (9)
𝑈𝑗,𝑖 = 𝑝𝑗,𝑖 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 ≤ 𝑟 (10)
𝑈𝑗,𝑖 = 𝑝𝑗,𝑖 + 𝑑 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 > 𝑟 (11)
𝐶𝑗,𝑖 ≥ 𝐶𝑗,𝑙 + 𝑈𝑗,𝑖 − 𝑀 ∗ (1 − 𝑋𝑗,𝑖,𝑙 ) ∀𝑗, 𝑖, 𝑙 ≠ 𝑖 (12)
𝐶𝑗,𝑙 ≥ 𝐶𝑗,𝑖 + 𝑈𝑗,𝑙 − 𝑀 ∗ 𝑋𝑗,𝑖,𝑙 ∀𝑗, 𝑖, 𝑙 ≠ 𝑖 (13)
𝐶𝑗,𝑖 ≥ 𝐶𝑘,𝑖 + 𝑈𝑗,𝑖 − 𝑀 ∗ (1 − 𝑌𝑗,𝑖,𝑘 ) ∀𝑖, 𝑗, 𝑘 ≠ 𝑗 (14)
𝐶𝑘,𝑖 ≥ 𝐶𝑗,𝑖 + 𝑈𝑘,𝑖 − 𝑀 ∗ 𝑌𝑗,𝑖,𝑘 ∀𝑖, 𝑗, 𝑘 ≠ 𝑗 (15)
𝐶𝑗,𝑖 − 𝑤𝑖,𝑣 − 𝑑𝑤𝑖,𝑣 + 𝑀 ∗ (1 − 𝑍𝑗,𝑖,𝑣 ) ≥ 𝑈𝑗+𝑖 ∀𝑗, 𝑖, 𝑣 (16)
𝑤𝑖,𝑣 + 𝑀 ∗ 𝑍𝑗,𝑖,𝑣 ≥ 𝐶𝑗,𝑖 ∀𝑗, 𝑖, 𝑣 (17)
𝑇𝑗 ≥ 𝐶𝑗,𝑖 ∀𝑗, 𝑖 (18)
𝑋𝑗,𝑖,𝑙 ∈ {0,1} ∀𝑗, 𝑖, 𝑙 ≠ 𝑖 (19)
𝑌𝑗,𝑖,𝑘 ∈ {0,1} ∀𝑖, 𝑗, 𝑘 ≠ 𝑗 (20)
𝑍𝑗,𝑖,𝑣 ∈ {0,1} ∀𝑗, 𝑖, 𝑣 (21)

A função objetivo (1) é de minimizar a soma dos tempos gastos pelos caminhões para
realizar suas operações nas docas. As restrições (2) declaram que, para qualquer doca 𝑖, um
caminhão não pode ser sucessor e predecessor de outro caminhão ao mesmo tempo. As
restrições (3) possuem a mesma finalidade das restrições (2), mas voltada para o
sequenciamento de docas.
As restrições (4) e (5) definem os possíveis valores da variável auxiliar 𝑅𝑗,𝑖 . Essa variável
receberá um valor alto para a doca 1, que representa a recepção, e também para aquelas docas
que possuem tempo de processamento 0. Para as outras combinações de docas e caminhões que
não se enquadram nas condições anteriores, a variável assumirá o mesmo valor do tempo de
processamento do caminhão 𝑗 na doca 𝑖.
Com os valores de 𝑅𝑗,𝑖 definidos, as restrições (6) irão forçar a condição de que as docas
com maiores tempos de processamento sejam visitadas antes. Com isso as docas que possuem
tempo de processamento igual a 0 deverão ser visitadas antes, seguidas da recepção e das docas
que realizam operações de descarregamento, finalizando com as operações de carregamento.
As restrições (7) determinam que o tempo de término de todos os caminhões na doca
fictícia (doca 0) será sempre 0. As restrições (8) forçam que as combinações de caminhões e
docas que possuem tempo de processamento 0, tenham um tempo de término igual ao tempo
de término da doca fictícia.
As restrições (9) determinam o tempo de chegada dos caminhões. Como a recepção (doca
1) deve ser a primeira doca a ser visitada por todos os caminhões, determinou-se que o tempo
de chegada de cada caminhão será o tempo de término na doca 1 menos o tempo de
processamento desta doca. Ao chegar na empresa, o caminhão seguirá direto para o atendimento
na recepção, evitando um tempo de espera nesta etapa inicial.
As restrições (10) e (11) calculam um novo de tempo de processamento das operações com
a finalidade de garantir que não será considerado o tempo de deslocamento até a recepção e até
às docas nas quais os caminhões não realizam nenhuma operação e que consequentemente
possuem um tempo de processamento zero. Para as docas nas quais os caminhões realizam uma
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

160
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

operação de carregamento ou descarregamento, o tempo de deslocamento será acrescido ao


tempo de processamento.
As restrições (12) e (13) são restrições disjuntivas e buscam garantir que o caminhão só irá
para a próxima doca depois de finalizar a atividade na doca anterior. As restrições (14) e (15)
também são disjuntivas e garantem que uma doca receberá o próximo caminhão apenas após a
finalização das operações do caminhão anterior.
As restrições (16) e (17) tratam sobre as janelas de tempo e buscam assegurar que nenhum
caminhão será designado para iniciar suas operações em uma doca durante as janelas de tempo,
bem como garantir que as operações dos caminhões terminem antes de iniciar as janelas de
tempos. As restrições (18) calculam o tempo total de término de cada caminhão, que representa
o tempo de término da última doca visitada por cada caminhão. As restrições (19) - (21)
definem os tipos das variáveis.

6. RESULTADOS

Esta seção apresenta alguns resultados da aplicação do modelo proposto obtidos pelo
software LINGO. O primeiro conjunto de dados testado considera 5 caminhões e 5 docas, sendo
uma doca fictícia e uma doca representando a recepção (doca 1). Como o software LINGO não
possibilita a utilização do índice 0, a doca fictícia foi representada neste modelo pelo índice 5.
Os dados do problema foram criados de modo a atender as condições impostas pela
empresa atualmente. As operações dos caminhões nas docas têm os tempos de processamento
apresentados na Tabela 1.

Tabela 1 – Tempos de processamento – 5 caminhões (C) e 5 docas (D)

D1 D2 D3 D4 D5
C1 10 15 0 30 0
C2 10 30 30 15 0
C3 10 0 15 30 0
C4 10 30 30 0 0
C5 10 15 30 0 0

O problema também considera janelas de tempo. Foi simulado que as docas 2 e 3 têm
duas janelas de tempo cada uma. Os instantes de início das janelas de tempo, bem como a
duração das janelas para cada doca podem ser observados na Tabela 2. A doca 2 inicia a
primeira janela de tempo no instante 55 e a segunda janela inicia no instante 95. A doca 3
também possui duas janelas de tempo iniciando nos instantes 45 e 120.

Tabela 2 – Instantes de início das janelas de tempo

Início do Início do Duração do Duração do


Intervalo 1 Intervalo 2 Intervalo 1 Intervalo 2
D1 0 0 0 0
D2 55 95 5 5
D3 45 120 5 5
D4 0 0 0 0
D5 0 0 0 0

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

161
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 1 ilustra um gráfico de Gantt com o sequenciamento dos caminhões nas docas,
início e fim das operações de cada caminhão em cada doca. A função objetivo para este
problema foi de 610, representando o tempo total gasto por todos os caminhões para realizarem
suas operações de carregamento e descarregamento nas docas.

Figura 1 – Gráfico de Gantt – 5 caminhões e 5 docas

Pode-se observar que as condições impostas pela empresa são atendidas pelo modelo
matemático. Todos os caminhões iniciam seu roteiro na recepção, doca 1, e a programação das
docas respeita a restrição de que docas que recebem operação de descarregamento sejam
designadas antes de docas que realizem operações de carregamento. Por exemplo, o caminhão
5, representado pela cor verde na Figura 1, realiza uma operação de descarregamento na doca
3 e uma operação de carregamento na doca 2, além de ter que passar obrigatoriamente pela doca
1. Observando a programação de docas para este caminhão na Figura 1, pode-se visualizar que
a doca 1 é a primeira a ser visitada pelo caminhão. Em seguida, o caminhão desloca-se para a
doca 3 e finaliza seu roteiro na doca 2.
As restrições de janelas de tempo também são respeitadas pelo modelo. Observando por
exemplo a doca 2 na Figura 1, a operação do caminhão 4 termina antes do início da janela de
tempo que se inicia no instante 55. O caminhão 5 é o próximo designado para esta doca; se não
houvesse a janela de tempo, a operação deste caminhão poderia ser iniciada no instante 55.
Entretanto, a duração da janela de tempo foi respeitada, e a operação é iniciada apenas no
instante 60.
Os testes continuaram sendo realizados para conjuntos maiores. A maior base de dados
para a qual o software LINGO encontrou a solução ótima possuía 8 caminhões e 5 docas. Os
resultados para essa base de dados podem ser observados na Figura 2. Para bases de dados a
partir de 9 caminhões e 5 docas, o software não foi capaz de encontrar a solução ótima em um
tempo inferior a 24 horas.

Figura 2 – Gráfico de Gantt – 8 caminhões e 5 docas

Os tempos de processamento de cada caminhão para cada doca são apresentados na Tabela
3. Como no exemplo anterior, a doca 5 também representa uma doca fictícia. Além disso, o
problema possui as mesmas janelas de tempo do exemplo anterior, com tempos de início e de
duração apresentados na Tabela 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

162
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3 – Tempos de processamento – 8 caminhões (C) e 5 docas (D)

D1 D2 D3 D4 D5
C1 10 15 0 15 0
C2 10 15 30 0 0
C3 10 30 15 30 0
C4 10 30 30 15 0
C5 10 30 15 30 0
C6 10 15 30 30 0
C7 10 15 30 15 0
C8 10 0 15 30 0

A função objetivo para este problema foi de 1365. Este valor é obtido pela soma dos
maiores valores de cada linha da Tabela 4, que representam os instantes de término da última
doca percorrida por cada caminhão. Considerando o caminhão 2 como exemplo, além da
passagem obrigatória pela doca 1, este caminhão deve percorrer somente as docas 2 e 3, nas
quais realiza operações de carregamento e descarregamento, respectivamente. Como o
caminhão não realiza nenhuma operação na doca 4, pode-se visualizar na Tabela 4, que o tempo
de término nesta doca é igual a zero, bem como o tempo de término na doca 5, que representa
a doca fictícia.
Analisando a programação do caminhão 2 na Figura 2, pode-se observar o cumprimento
das restrições uma vez que o roteiro se inicia pela doca 1 e a operação de descarregamento é
designada antes da operação de carregamento, ou seja, a doca 3 é visitada antes da doca 2. A
programação deste caminhão também respeita a janela de tempo da doca 3, pois a operação
nesta doca termina antes do início da janela tempo.

Tabela 4 – Instantes de término – 8 caminhões (C) e 5 docas (D)

D1 D2 D3 D4 D5
C1 30 55 0 95 0
C2 85 155 120 0 0
C3 75 225 245 190 0
C4 40 135 170 210 0
C5 95 190 225 155 0
C6 50 265 205 245 0
C7 10 95 45 75 0
C8 20 0 75 55 0

7. CONCLUSÃO

O sequenciamento e a programação das atividades apresentam uma grande importância


para a empresa e não se restrigem apenas à produção, podendo ser aplicadas em outros setores,
como o de transportes. Estas etapas do Planejamento e Controle da Produção podem oferecer
um fluxo de atividades mais fluído, sem presença de gargalos e desperdícios. No caso da
programação de caminhões, um dos benefícios obtidos é a redução do tempo que os motoristas
passam dentro da empresa para realizar suas operações, por meio da redução dos tempos de
espera entre operações.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

163
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O presente artigo buscou adaptar um problema de programação e sequenciamento de


caminhões em um problema open shop, além de propor um modelo matemático de modo a
minimizar o tempo de permanência dos motoristas dentro da empresa e resolvê-lo de maneira
exata.
O modelo matemático proposto respeita as condições impostas ao problema, como as
restrições de janelas de tempo e precedência de atividades de descarregamento antes de
carregamento. Entretanto, o software LINGO apresentou limitações em obter a solução ótima
para os problemas. O problema de maior dimensão, para o qual o software foi capaz de
encontrar a solução ótima, possuía 8 caminhões e 5 docas. Para problemas de maiores
dimensões, o software não retornou a solução ótima em um tempo inferior a 24 horas.
Ponderando-se estas considerações, a adaptação de um problema de programação e
sequenciamento de caminhões em um problema open shop mostrou-se viável para problemas
pequenos. Pesquisas futuras devem considerar a utilização de heurísticas ou meta-heurísticas
como alternativa de resolução, de modo a viabilizar a aplicação do modelo a problemas de
maiores dimensões, ou até mesmo a problemas reais.

REFERÊNCIAS

Arenales, M.; Armentano, V.; Morabito, R.; Yanasse, H. H. (2007), “Pesquisa operacional para cursos de
engenharia”, Elsevier: ABREPRO, Rio de Janeiro.
Berghman, L.; Leus, R.; Spieksma, F.C.R. (2014), “Optimal solutions for a dock assignment problem with trailer
transportation”, Annals of Operations Research, Bélgica, vol. 213, 3-25.
Cota, P.M.; Gimenez, B. M. R.; Araújo, D. P. M.; Nogueira, T. H.; Souza M. C.; Ravetti, M. G. (2016), Time-
indexed formulation and polynomial time heuristic for a multi-dock truck scheduling problem in a cross-
docking centre. Computers & Industrial Engineering, 95, 135-143.
Ladier, A.; Alpan, G. (2016a), Robust cross-dock scheduling with time windows. Computers & Industrial
Engineering, 99, 16-28.
Ladier, A.; Alpan, G. (2016b), Cross-docking operations: Current research versus industry practice. Omega, 62,
145-162.
Naderi, B.; Zandieh, M. (2014), Modeling and scheduling no-wait open shop problems. International Journal of
Production Economics, 158, 256-266.
Pinedo, M. L. (2016), “Scheduling: Theory, Algorithms and Systems”, 5ª ed, Springer, Nova York.
Tubino, D. F. (2009), “Planejamento e controle da produção: teoria e pratica”, 2º ed., Atlas, São Paulo.
Slack, N.; Chambers, S.; Harland, C.; Harrison, A.; Johnston, R. (2006), “Administração da Produção”, 1ª ed - 10
reimp, Atlas.
Wirth, M.; Emde, S. (2018), Scheduling trucks on factory premises. Computers & Industrial Engineering, 126,
175-186.

MATHEMICAL MODELING AND EXACT RESOLUTION OF AN OPEN SHOP


PROBLEM APPLIED TO A CASE STUDY IN THE AUTOMOTIVE INDUSTRY

Abstract. The aim of this study is to adapt a truck scheduling problem into a open shop problem,
propose a mathematical model to minimize the time spent by drivers within the company and
solve this modeling exactly with the application of Operational Research algorithms and
techniques. The work was structured in sequential phases. First, the most used methods and
algorithms for this problem were identified. Next, the mathematical model was developed,
implemented in LINGO software and validated according to the restrictions of the case study.
The LINGO software presented limitations in obtaining the optimal solution due to problems
dimensions. The optimal results obtained by the software showed that the proposed model met
the conditions of the real problem on which it was based.

Keywords: Truck scheduling. Truck arrivals. Time window. Automotive industry. Open Shop.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

164
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

OTIMIZAÇÃO MULTI-OBJETIVO BASEADA EM CONFIABILIDADE PARA O


PROJETO DE HIDROCICLONES

Vitor Alves Garcia1 – v.alvesgarcia@gmail.com


Fran Sérgio Lobato1 – fslobato@ufu.br
Luiz Gustavo Martins Vieira1 – luizgustavo@ufu.br
1
Universidade Federal de Uberlândia, Faculdade de Engenharia Química – Uberlândia, MG, Brasil

Resumo. Hidrociclones são equipamentos usados para realizar separações sólido-líquido


através da ação centrífuga. O desempenho desses separadores é altamente dependente de sua
geometria e pode ser quantificado através de respostas como eficiência total, razão de
líquido, número de Euler, diâmetro de corte e concentração volumétrica do underflow. Em
algumas aplicações é desejável que o hidrociclone apresente bons desempenhos em todas
essas respostas, contudo algumas delas apresentam comportamento conflitante entre si.
Dessa forma, o presente trabalho tem por objetivo determinar a geometria de hidrociclones
considerando a otimização multi-objetivo associada a uma técnica de confiabilidade para
análise de incertezas. Os resultados obtidos demostram que o efeito da inserção de
confiabiliade provoca deteriorações na curva de Pareto em relação à curva nominal (sem
análise de incertezas).

Palavras-chave: Hidrociclone, Otimização multi-objetivo, Confiabilidade.

1. INTRODUÇÃO

Os hidrociclones são equipamentos que promovem a separação de um material


particulado em suspensão líquida do fluido no qual ele se encontra. Eles podem ser utilizados
em diversas aplicações, dentre elas a concentração do sólido e a clarificação do líquido
(Salvador, 2017). Nesses dois casos, é desejável que o equipamento tenha, simultaneamente,
um alto poder de separação para que a maior parte do sólido seja coletado e não saia na
corrente diluída, um alto poder de concentração para que o mínimo de líquido seja perdido na
corrente concentrada, tornando-a mais diluída, e um baixo consumo energético. Do ponto de
vista físico, esses três objetivos apresentam caráter conflitante entre si, isto é, a melhora em
um causa a deterioração nos outros e vice-versa.
Dessa forma, a busca por hidrociclones que apresentem boa performance nesses três
quesitos pode ser feita através da aplicação da formulação e resolução de um problema de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

165
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

otimização, neste caso, multi-objetivo de modo a atender as restrições que garantam um


desempenho satisfatório em todos os aspectos desejados. Tradicionalmente, neste tipo de
formulação, nenhum tipo de análise de incertezas é considerada. A presença de incertezas é
inerente à realidade dos processos de engenharia e áreas afins e deve ser considerada para a
obtenção de uma solução com menor sensibilidade no que tange a sua implementação prática
(Lobato et al., 2017). Neste cenário, dois tipos de abordagem tem sido empregados para
análise de incertezas, a saber, a otimização robusta e a otimização baseada em confiabilidade.
Cabe ressaltar que ambas tem o mesmo objetivo, mas considerando caminhos distintos para
essa finalidade (Lobato et al., 2017). Em linhas gerais, a otimização baseada em
confiabilidade tem por objetivo reescrever um problema de otimização que apresenta
restrições de desigualdade em um equivalente em que estas se tornam restrições
probabilísticas. Neste caso, as variáveis de projeto ou variáveis de interesse no problema são
descritas em função de um tipo particular de distribuição de probabilidade (Lobato et al.,
2017).
Diante do que foi apresentado, este trabalho tem como objetivo a determinação da
geometria de hidrociclones considerando análise de incertezas no contexto multi-objetivo.
Para essa finalidade, o algoritmo MODE (Multi-objective Optimization Differential
Evolution), proposto por Lobato (2008), é associado à técnica de inserção de confiabilidade
IRA (Inverse Reliability Analysis), proposto por Du (2005), para obter hidrociclones com
bons desempenhos nos quesitos separação, concentração e consumo energético. Além disso,
deseja-se ainda avaliar os efeitos da inserção de confiabilidade nos resultados da otimização
multi-objetivo. Este trabalho esta estruturado como segue: na seção 2 é apresentada a
fundamentação teórica dos tópicos envolvidos neste trabalho, na seção 3 é descrita a
metodologia empregada, na seção 4 são mostrados os resultados e sua discussão e, por fim, na
seção 5 é feita a conclusão do trabalho.

2. FUNDAMENTAÇÃO TEÓRICA

2.1 Hidrociclones

Os hidrociclones são equipamentos empregados na indústria com a função de promover a


separação entre uma fase discreta, geralmente um sólido particulado, e uma fase contínua
líquida (Svarovsky, 2000). Esse processo de separação ocorre devido à ação centrífuga gerada
pelo movimento helicoidal realizado pela suspensão ao ser alimentada sob pressão no
equipamento. Dessa forma, resultam do processo de separação duas correntes de saída: uma
concentrada e rica em partículas maiores e mais densas, chamada de underflow, e a outra
diluída contendo sólidos mais finos e menos densos, nomeada como overflow (Svarovsky,
2000).
Na operação dos hidrociclones, algumas variáveis resposta são analisadas com o objetivo
de avaliar o desempenho da operação. Dentre esses parâmetros tem-se a eficiência total (η),
que representa fração de sólido alimentado que é capturado pela corrente de underflow, o
diâmetro de corte (d50), que corresponde ao tamanho de partícula que é capturada com 50% de
eficiência granulométrica, a razão de líquido (RL), que representa a fração de líquido
alimentado que sai com a corrente de underflow, a concentração volumétrica do underflow
(Cvu), que significa a fração de sólidos na composição volumétrica dessa corrente, e o número
de Euler (Eu), que é a razão entre a queda de pressão no equipamento e a energia cinética do
fluido por unidade de volume (Svarovsky, 2000). As respostas η e d50 estão relacionadas com
o poder de separação do hidrociclone, sendo que quanto maior η e menor d50, maior é o poder
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

166
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de separação do equipamento. Já os parâmetros RL e Cvu estão vinculados ao poder


concentrador do hidrociclone, de forma que quanto menor RL e maior Cvu, maior é a
capacidade concentradora do equipamento. Por fim, a resposta Eu está diretamente
relacionada com o consumo energético do hidrociclone.
Ademais, os valores das respostas mencionadas, que definem as características de
desempenho do hidrociclone, são altamente dependentes das relações entre as dimensões de
sua geometria. Assim, na Fig. 1 é apresentada a estrutura de um hidrociclone. Esta é composta
por uma parte cilíndrica e uma parte cônica, e suas principais dimensões são: diâmetros da
seção cilíndrica (Dc), do duto de alimentação (Di), do tubo de overflow (Do) e do orifício de
underflow (Du), comprimentos da seção cilíndrica (h), da seção cônica (H), total (L) e do
vortex finder (l) e ângulo da seção cônica (θ).

Figura 1- Representação esquemática da geometria de um hidrociclone.

2.2 Análise de Confiabilidade Inversa

A análise de confiabilidade inversa (IRA – Inverse Reliability Analysis) consiste em uma


técnica para o tratamento de incertezas em problemas de otimização em que, dada uma
variável aleatória (x), que segue um determinado tipo de distribuição com média (μx) e desvio
padrão (σx), seleciona-se uma confiabilidade alvo e, então, verifica-se a probabilidade da
variável x atender uma dada restrição probabilística (P(g(x) ≤ 0)), em que P é a probabilidade
e g(x) é uma restrição.
Em linhas gerais, a técnica inicia-se com a transformação da variável aleatória x na
variável normalizada u via Eq. (1).

x  x
u (1)
x

Então, define-se o valor do índice de confiabilidade β, que está associado à confiabilidade


alvo (R) através da Eq. (2), em que Φ-1 corresponde à inversa da função de distribuição
acumulada padrão.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

167
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

   1 ( R ) (2)

Dessa forma, inicia-se um procedimento de busca pelo ponto mais provável de falha (u*),
que é aquele com distância em relação à origem igual a β e cujo valor da função de restrição
transformada G(u) é máximo, sendo G(u) uma função diferenciável de pelo menos uma
variável. Tal procedimento é composto pelas seguintes etapas (Du, 2005; Lobato et al., 2017):
1 - Define-se os parâmetros iniciais: k = 0 e u0 = 0;
2 - Obtém-se a direção de busca ak através da Eq. (3);

G(uk )
ak  (3)
G(uk )

3 - Calcula-se uk 1   ak e atualiza-se o contador k = k+1;


4 - Repete-se os passos 2 e 3 até a convergência ( uk  uk 1  tolerância ).
Assim, com o ponto mais provável de falha (u*) obtido, é possível determinar se a
variável aleatória x tem probabilidade maior ou igual a R de respeitar a restrição colocada.
Caso G(u*) ≤ 0, então a probabilidade de x atender à restrição é maior ou igual à
confiabilidade alvo, caso contrário essa probabilidade é menor que a confiabilidade desejada.
É importante destacar que, diferentes tipos de distribuição de probabilidades podem ser
convertidos em uma distribuição padrão, a saber, a normal, conforme descrito por Rosenblatt
(1952).

2.3 MODE+IRA

O algoritmo de Evolução Diferencial é uma técnica proposta por Storn e Price (1997) e
que se diferencia dos demais métodos heurísticos pela forma como é feita a operação de
cruzamento, a saber, via realização de operações vetoriais entre os indivíduos da população.
Devido ao sucesso alcançado por esse algoritmo, Lobato (2008) propôs a sua extensão para o
contexto multi-objetivo - MODE (Multi-Objective Optimization Differential Evolution). Em
linhas gerais, essa estratégia faz uso de um sistema de classificação dos indivíduos baseado
em ranks via critério de dominância de Pareto associado a um operador de distância de
multidão para priorizar a manutenção na população de indivíduos mais distantes dos demais,
favorecendo, assim, a diversidade das soluções.
No contexto da confiabilidade, o algoritmo MODE é associado ao IRA para fins de
análise de confiabiliadade no contexto multi-objetivo. A abordagem resultante, denominada
de MODE+IRA, apresenta os seguintes passos:

1 – gera-se uma população inicial, de forma aleatória, considerando N indivíduos dentro


do domínio estabelecido pelo usuário;
2 – aplica-se o operador de cruzamento, no qual são realizadas operações vetoriais entre
indivíduos pertencentes à população, sendo estas ponderadas por um fator de perturbação (F)
e seguindo uma determinada probabilidade de cruzamento (Cr) para gerar novos indivíduos;
3 – avaliam-se os indivíduos gerados, um a um, segundo as restrições probabilísticas
usando o algoritmo IRA, de forma que o ponto mais provável de falha seja encontrado. Em
seguida, de posse desses valores, o vetor de funções objetivo é avaliado;
4 – aplica-se o operador de rankeamento e de distância de multidão, selecionando os N
melhores indivíduos segundo esses critérios e originando, assim, uma nova geração;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

168
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5 – repete-se os passos de 2 a 4, até que o número máximo de gerações (Ngen) seja


alcançado.

3. METODOLOGIA

No presente trabalho, para aplicação da metodologia proposta foram utilizadas as


equações empíricas ajustadas nominalmente por Garcia (2018), a partir das informações
experimentais obtidas por Salvador (2017). Tais equações, descritas nas Eqs. (4), (5), (6), (7)
e (8), correlacionam as variáveis resposta do hidrociclone (η, RL, Eu, d50 e Cvu) com as
variáveis geométricas (Di, Do, L e θ) em suas formas codificadas (X1, X2, X3 e X4,
respectivamente), conforme mostrado na Tab. 1. As medidas correspondentes às demais
dimensões (Dc, Du e l) são constantes com valores respectivamente iguais a 30 mm, 5 mm e
12 mm, sendo essas as dimensões usadas nos experimentos de Salvador (2017).

  73, 26  X ' a1  X ' A1 X (4)

 X1   0, 60 
X   5, 05 
Sendo X    a matriz das variáveis codificadas e X’ a sua transposta, a1    e
2

 X3   0, 69 
   
X4   2,35 
 0, 61 0, 47 0,33 0, 28
 0, 47 0, 71 0, 40 0, 78 
A1   .
 0,33 0, 40 1, 65 0,91
 
 0, 28 0, 78 0,91 1, 67 

RL  18, 43  X ' a2  X ' A 2 X (5)

 0, 29   0,10 0, 06 0, 07 
0, 03
 10, 03  0, 06 2,81 0, 29 
0,16
Sendo a2    e A2   .
 1,17   0, 03 0,16 0, 60 0,36 
   
 0,90   0, 07 0, 29 0,36 0,19 

Eu  1857,71  X ' a3  X ' A 3 X (6)

 1360, 04  662, 09 46, 2 64,81 36,85


 444, 64   
Sendo a3    e A3   46, 2 50,90 45,15 12,99  .
 346,57   64,81 45,15 153, 05 0, 06 
   
 153,15   36,85 12,99 0, 06 15, 27 

d50  7, 43  X ' a4  X ' A 4 X (7)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

169
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

 0,32   0, 45 0, 06 0,16 0, 04 


 2,94   0,15 
Sendo a4    e A4   0, 06 0, 41 0,12
.
 0, 04   0,16 0,12 0, 29 0, 28 
   
 0,94   0, 04 0,15 0, 28 0, 21

Cvu  3,84  X ' a5  X ' A 5 X (8)


 0,18   0,14 0,11 0,13 0, 00 
 1,85   
Sendo a5    e A5   0,11 0,17 0, 22 0,18  .
 0, 48   0,13 0, 22 0,31 0,11 
   
 0,16   0, 00 0,18 0,11 0, 21 

Tabela 1- Equações de codificação das variáveis geométricas do hidrociclone.

( Di / Dc )  0, 21 ( Do / Dc )  0, 27 ( L / Dc )  5,8   14,5
X1  X2  X3  X4 
0, 05 0, 05 1,1 3,3

Para a obtenção dos resultados considera-se o seguinte domínio para as variáveis de


projeto codificadas: -1,66 ≤ Xi ≤ 1,66 (i = 1, ..., 4), e que corresponde ao intervalo de validade
das equações empíricas utilizadas (Salvador, 2017). Além disso, quatro estudos de caso foram
analisados: Caso 1 (maximizar η e minimizar RL), Caso 2 (maximizar η e minimizar Eu), Caso
3 (minimizar RL e minimizar Eu) e Caso 4 (maximizar η, minimizar RL e minimizar Eu). Para
cada um destes foram estabelecidas restrições com o objetivo de garantir um desempenho
satisfatório dos hidrociclones otimizados, além de garantir a viabilidade física dos
equipamentos. Estas são resumidas como: i) a eficiência total maior ou igual a 70% (η ≥
70%), ii) a razão de líquido menor ou igual a 30% (RL ≤ 30%), iii) o número de Euler menor
ou igual a 5000 (Eu ≤ 5000), iv) o diâmetro de corte menor ou igual a 10 μm (d50 ≤ 10 μm), v)
a concentração volumétrica do underflow maior ou igual a 4% (Cvu ≥ 4%) e vi) o
comprimento total do hidrociclone maior que o comprimento de sua seção cônica (L > H).
Para avaliação das restrições probabilísticas no algoritmo IRA, definiu-se como valor
médio (  X i ) o próprio valor da variável de projeto, e o desvio padrão (  X i ) foi definido a
partir de um coeficiente de variação igual a 10% para todas as variáveis de projeto. Sendo
assim, o desvio padrão é obtido multiplicando-se o referido coeficiente de variação pelo valor
médio de cada variável. Para fins de comparação, cada um dos estudos de caso foram
resolvidos de forma nominal (β = 0) e com confiabilidade (β = 4). Os parâmetros utilizados na
execução do algoritmo MODE+IRA foram: 100 indivíduos na população (N = 100), 500
gerações (Ngen = 500), probabilidade de cruzamento igual a 0,9 (Cr = 0,9), fator de
perturbação igual a 0,9 (F = 0,9), tolerância do erro na busca pelo ponto mais provável de
falha no IRA igual a 1×10-9 com estimativas iniciais iguais a 0.

4. RESULTADOS E DISCUSSÃO

Na Fig. 2 são apresentadas as curvas de Pareto obtidas considerando β = 0 e β = 4 para


cada um dos casos, 1(a), 2(b), 3(c) e 4(d). De maneira geral, é possível observar em cada uma
das curvas o comportamento conflitante entre cada um dos objetivos, isto é, na medida que
um objetivo é favorecido, os outros são prejudicados e vice-versa. Ainda nessa figura, fica
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

170
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

evidente o efeito da inserção de confiabilidade no problema de otimização. As curvas de


Pareto obtidas considerando confiabilidade apresentam uma deterioração em relação às curvas
nominais para os casos estudados. Na prática, essa degradação representa uma maior garantia
de atendimento às restrições probabilísticas impostas, isto é, uma solução confiável implica, a
priori, em um "pior" resultado em relação ao resultado nominal.
É importante ressaltar que tal deterioração manifesta-se de forma diferente em cada
estudo de caso. No Caso 1, a inserção de confiabilidade provocou uma redução da curva de
Pareto no lado direito e um afastamento em relação à curva nominal no lado esquerdo. No
Caso 2, houve um encurtamento da curva com confiabilidade no lado esquerdo e um
afastamento em relação à curva nominal no lado direito. Por sua vez, no Caso 3, o efeito da
inserção de confiabilidade no problema de otimização foi um completo descolamento da
curva de Pareto com confiabilidade em relação à nominal. Por fim, no Caso 4, ocorreu uma
redução da região de espalhamento dos pontos da curva com confiabilidade em relação à
nominal.
2000
30  HONC1-C  HONC2-C
 1800 
25 HOCC2-C
HOCC1-C 1600
20 1400
HOCC1-B
RL (%)

Eu

15 HOCC1-A 1200 HOCC2-A HOCC2-B


HONC1-B 1000 HONC2-A
10 HONC2-B
800
5 HONC1-A
600
75 80 85 90 95 100 75 80 85 90 95 100
 (%)  (%)
(a) Caso 1 (max η e min RL) (b) Caso 2 (max η e min Eu)

5000
HONC4-B HOCC4-B
HONC3-A  5000
HOCC3-A  =0
4000 4000 = 4
3000 3000
Eu

HOCC3-B HOCC4-C HONC4-C


Eu

2000
2000
1000 HOCC4-A
HOCC3-C
1000 HONC3-B 5
HONC3-C 10 HONC4-A 100
15 90
5 6 7 8 9 10 11 12 R 20
L (
% 25 80 %)
RL (%) )
30 70 (

(c) Caso 3 (min RL e min Eu) (d) Caso 4 (max η, min RL e min Eu)

Figura 2- Curvas de Pareto obtidas nas otimizações nominal e com confiabilidade.

Para compreender melhor os diferentes efeitos da inserção de confiabilidade nas curvas


de Pareto e para analisar melhor os hidrociclones obtidos foram destacados alguns
separadores em cada uma das curvas da Fig. 2. Os equipamentos destacados nas curvas
obtidas por otimização convencional foram denominados Hidrociclones Otimizados
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

171
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nominalmente dos Casos 1, 2, 3 e 4 (HONC1, HONC2, HONC3 e HONC4), já aqueles


destacados nas curvas com confiabilidade foram nomeados como Hidrociclones Otimizados
com Confiabilidade dos Casos 1, 2, 3 e 4 (HOCC1, HOCC2, HOCC3 e HOCC4). Além disso,
nas curvas de Pareto do Caso 1 foram destacados os hidrociclones de menor RL (A), de maior
η (C) e um que apresenta um compromisso entre os dois objetivos (B). No Caso 2, os
hidrociclones destacados em cada curva eram os de menor Eu (A), maior η (C) e aquele que
apresenta um compromisso entre esses objetivos (B). Já no Caso 3, os separadores de cada
curva em destaque são os de menor RL (A), menor Eu (C) e um que concilia as duas respostas
(B). Por fim, no Caso 4, em que as três respostas são otimizadas, são destacados em cada
curva os hidrociclones de melhor valor de cada resposta, Eu (A), RL (B) e η (C). Os valores
das variáveis de projeto e das respostas dos separadores destacados são mostrados na Tabela
2.

Tabela 2- Hidrociclones destacados da Figura 2.

Ponto X1 X2 X3 X4 η (%) RL (%) Eu d50 (μm) Cvu (%)


HONC1-A -1,10 1,16 -1,66 -0,74 77,7 5,2 4794 9,9 10,6
HONC1-B -1,57 1,66 1,65 -1,65 92,0 11,2 4951 8,7 7,9
HONC1-C 1,66 -0,68 1,65 -1,66 96,1 29,9 1867 1,4 4,0
Caso 1
HOCC1-A -0,88 1,16 -1,66 1,65 78,7 6,8 3763 8,5 8,6
HOCC1-B -1,09 1,62 1,65 -1,66 91,1 11,6 3590 7,8 7,6
HOCC1-C 1,66 -0,18 1,66 -1,66 94,5 23,6 1754 3,0 4,6
HONC2-A 0,89 1,65 0,55 -1,08 75,4 10,7 779 10,0 7,4
HONC2-B 1,04 1,66 1,66 -1,66 90,6 12,3 1137 6,7 7,4
HONC2-C 1,66 -0,65 1,65 -1,66 95,9 29,5 1856 1,5 4,1
Caso 2
HOCC2-A 0,85 1,63 0,95 -1,60 83,7 11,4 888 8,4 7,6
HOCC2-B 1,00 1,64 1,66 -1,66 90,6 12,3 1129 6,6 7,4
HOCC2-C 1,66 -0,18 1,65 -1,66 94,4 23,6 1751 3,0 4,6
HONC3-A -0,92 1,19 -1,66 -0,76 77,0 5,1 4273 10,0 10,6
HONC3-B 0,49 1,51 -1,64 1,63 70,8 7,0 1427 10,0 8,1
HONC3-C 0,90 1,65 0,54 -1,09 75,5 10,7 780 10,0 7,4
Caso 3
HOCC3-A -0,88 1,17 -1,65 1,66 78,7 6,9 3748 8,5 8,6
HOCC3-B 0,47 0,85 -1,61 1,65 75,8 9,0 1675 8,8 6,6
HOCC3-C 0,89 1,47 0,80 -1,57 82,4 11,4 884 8,5 7,3
HONC4-A 0,85 1,55 0,75 -0,73 73,3 11,1 794 9,9 6,7
HONC4-B -1,12 1,16 -1,61 -0,76 77,6 5,3 4824 10,0 10,6
HONC4-C 1,65 -0,56 1,64 -1,66 95,5 28,3 1826 1,8 4,1
Caso 4
HOCC4-A 0,91 1,38 0,81 -1,42 80,8 11,6 886 8,6 7,0
HOCC4-B -0,88 1,15 -1,64 1,64 78,6 6,9 3764 8,5 8,5
HOCC4-C 1,62 -0,16 1,65 -1,66 94,2 23,3 1715 3,1 4,6

Na Tabela 2 observa-se que todos os hidrociclones apresentam suas respostas dentro dos
intervalos definidos nas restrições, sendo que os separadores obtidos com confiabilidade
possuem os valores dessas respostas mais distantes dos limites de cada restrição, contando,
assim, com uma maior garantia de que tais restrições serão respeitadas na prática. Além disso,
observa-se que o separador HONC1-C é o hidrociclone de maior eficiência total dentre os
obtidos, possuindo um valor de η igual a 96,1%. Por sua vez, o equipamento HONC3-A é
aquele de menor RL, apresentando um valor dessa resposta igual a 5,1%. Por fim, o
hidrociclone de menor número de Euler é o HONC2-A, com valor de Eu igual a 779. Assim,
as diferentes características desses três hidrociclones mostram a ampla diversidade dos pontos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

172
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

obtidos nas otimizações, que compreende equipamentos altamente separadores, fortemente


concentradores e econômicos em consumo energético.
Ainda nessa tabela, observa-se que o hidrociclone de maior η da curva de Pareto nominal
do Caso 1 (HONC1-C) apresenta valores de RL e Cvu próximos dos limites das restrições
dessas duas respostas. Sendo assim, na otimização com confiabilidade, pontos com essas
características não podem ser alcançados, pois as restrições probabilísticas seriam feridas.
Portanto, como RL é um dos objetivos da otimização, a curva de Pareto com confiabilidade
apresenta um encurtamento no lado direito, na região que se aproxima do limite da restrição
para essa resposta. Por sua vez, no lado esquerdo da curva nominal do Caso 1, o ponto de
menor RL (HONC1-A) apresenta valores de Eu e d50 próximos aos limites de suas respectivas
restrições. Tal fato faz com que os pontos da curva com confiabilidade nessa região
apresentem valores mais distantes desses limites e, como Eu e d50 não são objetivos da
otimização no Caso 1, o efeito provocado pela inserção de confiabilidade, no lado esquerdo
da curva, é o distanciamento em relação à curva nominal.
Uma análise similar pode ser realizada para os demais casos. Dessa forma, no Caso 2, o
ponto de maior η da curva nominal (HONC2-C) apresenta valores de RL e Cvu próximos aos
limites das restrições dessas respostas. Assim, como RL e Cvu não são objetivos da otimização
do Caso 2, acontece um distanciamento da curva com confiabilidade em relação à nominal
nesta região (lado direito). Já no lado esquerdo, o ponto de menor Eu da curva nominal
(HONC2-A) apresenta valores de η e d50 próximos aos valores limite determinados nas
restrições. Portanto, como η corresponde a um dos objetivos da otimização, ocorre um
encurtamento da curva nessa região, próxima ao valor limite dessa resposta.
Já no Caso 3, todos os pontos destacados da curva de Pareto nominal (HONC3-A,
HONC3-B e HONC3-C) apresentam d50 igual ao valor limite determinado na restrição dessa
resposta. Sendo assim, como essa resposta não é um dos objetivos da otimização do Caso 3,
esse fato explica o distanciamento da curva com confiabilidade em relação à nominal.
Por fim, nos pontos destacados da curva nominal do Caso 4, o hidrociclone de menor Eu
(HONC4-A) apresenta η e d50 com valores próximos aos limites das restrições, o separador de
menor RL (HONC4-B) possui valores de Eu e d50 nas proximidades dos limites impostos nas
restrições dessas duas respostas e o ponto de maior η (HONC4-C) apresenta RL e Cvu com
valores próximos aos limites definidos nas restrições. Tal fato indica que, em todas as regiões
da curva de Pareto, alguma restrição envolvendo ao menos um dos objetivos da otimização é
ativada ao inserir-se confiabilidade no procedimento. Isso justifica a redução na região de
espalhamento dos pontos da curva com confiabilidade em relação à nominal no Caso 4.

5. CONCLUSÕES

No presente trabalho foram realizadas análises considerando o projeto de hidrociclones


nos contextos nominal e confiável. Para essa finalidade o algoritmo MODE foi associado à
técnica para análise de confiabilidade IRA. Os resultados obtidos demostram que a inserção
de confiabilidade no problema de otimização provoca uma deterioração da curva de Pareto em
relação à curva nominal, sendo esse o "preço que se paga" para garantir uma menor
sensibilidade do vetor de variáveis de projeto em relação ao atendimendo das restrições
probabilísticas. Além disso, também observa-se que a forma dessa deterioração depende das
restrições que são ativas durante a análise do estudo de caso. De forma geral, caso essas
restrições envolvam respostas que são objetivos, a tendência é que ocorra um encurtamento da
curva nas proximidades dos limites das restrições desses objetivos. Mas, caso os objetivos da

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

173
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

otimização não estejam dentre as restrições ativas, a forma da deterioração tende a ser um
distanciamento da curva com confiabilidade em relação à nominal.
Em resumo, conclui-se que os hidrociclones obtidos apresentam, de fato, um desempenho
satisfatório em todas as respostas consideradas, uma vez que eles possuem valores dessas
respostas dentro das restrições estipuladas, e as mesmas são coerentes fisicamente.
Finalmente, os hidrociclones obtidos usando a técnica com confiabilidade apresentaram
valores mais distantes em relação aos limites estipulados nas restrições, o que indica que eles
representam, de fato, uma solução mais confiável em relação à correspondente nominal.

Agradecimentos

Os autores agradecem à CAPES, à FAPEMIG e ao CNPQ pelo suporte financeiro


necessário para a realização deste trabalho.

REFERÊNCIAS

Du, X. (2005), “First order and second reliability methods”, in Probabilistic Engineering Design, University of
Missouri, Rolla.
Garcia, V.A. (2018), “Projeto de hidrociclones usando otimização robusta e evolução diferencial”, Dissertação
de Mestrado, FEQUI/UFU, Uberlândia.
Lobato, F.S. (2008), “Multi-objective optimization for engineering system design”, Tese de Doutorado,
FEMEC/UFU, Uberlândia.
Lobato, F. S.; Gonçalves, M.S.; Jahn, B.; Cavalini Jr, A.A.; Steffen Jr, V.S. (2017), Reliability-Based
Optimization Using Differential Evolution and Inverse Reliability Analysis for Engineering System Design.
Journal of Optimization Theory and Applications, 174, 894–926.
Rosenblatt, M. (1952), Remarks on a multivariate transformation. Annals of Mathematical Statistics, 23, 470-
472.
Salvador, F.F. (2017), “Otimização geométrica de hidrociclones com cilindros e cones permeáveis”, Tese de
Doutorado, FEQUI/UFU, Uberlândia.
Storn, R.; Price, K. (1997), Differential Evolution – A Simple and Efficient Heuristic for global Optimization
over Continuous Spaces. Journal of Global Optimization, 11, 341–359.
Svarovsky, L. (2000), “Solid-liquid separation”, 4º ed., Butterworth-Heinemann, Oxford.

RELIABILITY-BASED MULTI-OBJECTIVE OPTIMIZATION TO


HYDROCYCLONE DESIGN

Abstract. Hydrocyclones are equipment used to accomplish the solid-liquid separation


through the centrifugal action. The performance of these separators is highly dependent on
geometry and can be measured by parameters such as total efficiency, underflow-to-
throughput ratio, Euler number, cut size and underflow volumetric concentration. In some
applications, it is desirable that the hydrocyclone presents good performance in all these
parameters, however some of them have a conflicting beahavior among each other. In this
contribution, the aim is to determine the hydrocyclone geometry using multi-objective
optimization associated with reliability analysis. The obtained results demonstrates that the
insertion of reliability causes deteriorations in Pareto's curve in relation to nominal curve
(without analysis of uncertainties).

Keywords: Hydrocyclone, Multi-objective Optimization, Reliability.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

174
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DE ESTIMATIVAS INICIAIS CAÓTICAS PARA O ALGORITMO DE


EVOLUÇÃO DIFERENCIAL NA ESTIMAÇÃO DE PARÂMETROS DE MODELOS
TERMODINÂMICOS

Gustavo Mendes Platt1 - gmplatt@furg.br


Jéssica Morgan1 - jehmorgan.jm@gmail.com
1 Universidade Federal do Rio Grande, Escola de Quı́mica e Alimentos
Santo Antônio da Patrulha, RS, Brasil

Resumo. A estimação de parâmetros é uma etapa fundamental para a previsão de equilı́brio


lı́quido-vapor empregando-se modelos termodinâmicos. A previsão acurada da coexistência
de fases é, por sua vez, subsı́dio para o projeto de separadores (colunas de destilação, por
exemplo). Métodos determinı́sticos clássicos (como o algoritmo Simplex de Nelder-Mead) são
comumente empregados para tais finalidades; por outro lado, a qualidade das estimativas ini-
ciais para os parâmetros de interação binária do modelo em questão são fundamentais para
a identificação de ótimos globais – já que, em diversos casos, há multimodalidade. Com base
neste cenário, mais recentemente, metaheurı́sticas vêm sendo empregadas em problemas de
estimação de parâmetros, com destaque para o método de Evolução Diferencial. Neste traba-
lho, propõe-se avaliar o efeito de estimativas iniciais – geradas aleatoriamente ou seguindo um
modelo caótico – nos resultados para a estimação de parâmetros do modelo de Wilson em dois
sistemas binários, empregando-se o algoritmo de Evolução Diferencial. Os resultados indicam
que estimativas inicias caóticas produziram, em ambos os casos, maior aderência aos dados
experimentais do que as estimativas iniciais aleatórias, sem acréscimo de custo computacional.

Palavras-chave: Estimação de parâmetros, Evolução Diferencial, Modelos caóticos, Proble-


mas multimodais.

1. INTRODUÇÃO

A estimação de parâmetros de modelos termodinâmicos tem importância fundamental para


a aderência de tais modelos a dados experimentais e, em última análise, no projeto de proces-
sos de separação que envolvem equilı́brios lı́quido-vapor, lı́quido-lı́quido etc. Um dos pontos
centrais no processo de estimação de parâmetros — além da formulação de ı́ndices de mérito
apropriados (Bonilla-Petriciolet et al., 2007) — é a escolha do método de otimização a ser
empregado. Métodos determinı́sticos clássicos (e diretos, ou seja, que não envolvem deriva-
das da função-objetivo) vêm sendo empregados costumeiramente, por conta de sua facilidade

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

175
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de implementação (além da existência de códigos prontos disponı́veis) e velocidade de con-


vergência. Dentre tais métodos, destaca-se o algoritmo Simplex de Nelder & Mead (1965),
largamente empregado no contexto da Engenharia Quı́mica (Xiong & Jutan, 2003). Por outro
lado, é sabido que metodologias determinı́sticas convencionais são sensı́veis às estimativas ini-
ciais fornecidas. Em outras palavras, a qualidade do ótimo obtido é consequência de uma boa
escolha de estimativas iniciais. De modo geral, a concepção das metaheurı́sticas pressupõe que
tal classe de algoritmos não é dependente, ao menos teoricamente, de boas estimativas iniciais.
Por outro lado, tal situação não se verifica em casos práticos (Yüzgeç & Eser, 2018).
O presente trabalho propõe avaliar o efeito das estimativas iniciais de uma metaheurı́stica
– o algoritmo de Evolução Diferencial (Storn & Price, 1995) – no problema de estimação de
parâmetros para o modelo de Wilson (1964) considerando duas misturas binárias. Será feita
uma comparação entre estimativas iniciais aleatórias (como classicamente é feito) e mapas
caóticos. Tal análise pode ser útil quando se considera a possibilidade de “hibridizar” o algo-
ritmo de Evolução Diferencial com alguma técnica determinı́stica – que é afetada pela qualidade
das estimativas iniciais.

2. METODOLOGIA

2.1 O problema de estimação de parâmetros

Para os casos abordados neste trabalho será considerado o modelo de Wilson (1964), tendo
em consideração a baixa pressão do sistema, o que permite considerar a fase vapor como gás
ideal. Portanto, as relações de equilı́brio lı́quido-vapor serão expressas como:

P yi = Pisat xi γi (1)

com Pisat representando a pressão de vapor para a substância i e P indicando a pressão do


sistema. γi refere-se ao coeficiente de atividade para o componente i. As frações molares para
as fases lı́quida e vapor são expressas, como usual, por xi e yi , respectivamente. Deste modo, o
coeficiente de atividade experimental será dado por:
P yi
γiexp = (2)
Pisat xi
As relações para o coeficiente de atividade para o modelo de Wilson (1964), em uma mistura
binária, são dadas por:
 
calc
 Λ12 Λ21
ln γ1 = − ln (x1 + Λ12 x2 ) + x2 −
x1 + Λ12 x2 x2 + Λ21 x1
  (3)
calc
 Λ12 Λ21
ln γ1 = − ln (x2 + Λ21 x1 ) − x1 −
x1 + Λ12 x2 x2 + Λ21 x1
com o ı́ndice calc indicando o valor calculado pelo modelo. Mais ainda, os parâmetros Λ12 e
Λ21 são calculados por:
   
V2 −θ1 V1 −θ2
Λ12 = exp ; Λ21 = exp (4)
V1 RT V2 RT
onde Vi é o volume molar para a substância i, R é a constante universal dos gases e T é a tempe-
ratura absoluta em Kelvin. Portanto, os parâmetros a serem estimados são θ1 e θ2 , denominados

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

176
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

parâmetros de interação binária (assimétricos). Propõe-se o uso da expressão objetivo a seguir,


de modo a minimizar os desvios quadráticos entre os coeficientes de atividade experimentais e
calculados:
p c exp
!2
calc
X X γi,j − γi,j (θ1 , θ2 )
F (θ1 , θ2 ) = exp (5)
i=1 j=1
γ i,j

onde p é o número de pontos experimentais e c é o número de componentes na mistura (nesse


caso, c = 2).
O problema de estimação de parâmetros será tratado aqui como um problema irrestrito, uma
vez que não há restrições fı́sicas plausı́veis para os parâmetros θ1 e θ2 .

2.2 O Algoritmo de Evolução Diferencial

O algoritmo de Evolução Diferencial (DE) é uma metaheurı́stica populacional proposta


por Storn & Price (1995) que vem sendo extensivamente aplicada em problemas de diversas
áreas da Engenharia. A DE, em sua versão canônica, baseia-se em três operadores: mutação,
recombinação (crossover) e seleção. De forma resumida, a etapa de mutação seleciona, para
cada elemento da população, três indivı́duos (vetores representados por x1 , x2 e x3 , distintos
entre si e distintos do elemento corrente xi ) e efetua uma operação vetorial dada por vi =
x1 + F (x2 − x3 ), produzindo um vetor-mutante vi . Após esse passo, os elementos do vetor
mutante vi são “misturados”, em uma operação de recombinação, com os elementos do vetor
original xi , gerando um chamado vetor-tentativa ui . Nesta etapa, um parâmetro de controle CR,
indicado uma crossover rate, é empregado. Finalmente, em uma etapa final de seleção, uma
operação “gulosa” seleciona, entre xi e ui , aquele que apresenta melhor fitness para continuar
na população em uma nova geração. A descrição detalhada do algoritmo pode ser consultada
em Storn & Price (1995). O algoritmo de Evolução Diferencial foi aplicado com o seguinte con-
junto de parâmetros: 25 indivı́duos na população, CR = 0, 8 (constante de crossover), F = 0, 5
(parâmetro para etapa de mutação). O número de gerações G foi selecionado especificamente
para cada problema, de modo a ilustrar o efeito das estimativas iniciais no problema.

2.3 Estimativas iniciais caóticas

Usualmente, o algoritmo de Evolução Diferencial emprega estimativas inicias aleatórias


uniformemente dispersas pelo domı́nio do problema. O que se pretende avaliar nesse trabalho é
justamente o efeito das estimativas iniciais no desempenho da metaheurı́stica. Conforme Zhang
& Feng (2018), a conversão entre o mapa caótico e as variáveis será dada pela expresssão:
(n)
θi = a + (b − a)x(n) (6)

onde x(n) será dada pelo mapa logı́stico:

x(n+1) = µx(n) (1 − x(n) ), n = 0, 1, . . . (7)

com 0 < x(0) < 1 e µ = 4. Ademais, x(0) será considerado um número aleatório com
distribuição uniforme 0-1. As estimativas iniciais serão geradas com a = 0 e b = 2000.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

177
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÕES

A presente seção detalha os resultados obtidos para duas misturas binárias, formadas por
tert-butanol (1) + 1-butanol (2) e ácido acético (1) + anisol (2). Os dados de equilı́brio lı́quido-
vapor, bem como outros parâmetros necessários à estimação de parâmetros — como constantes
da equação de Antoine para cálculo de pressões de saturação de componentes puros e volumes
molares de substâncias puras — estão disponı́veis em Wisniak & Tamir (1976) e Mali et al.
(2017), respectivamente.

3.1 Sistema tert-butanol (1) + 1-butanol (2)

Para o sistema binário tert-butanol (1) + 1-butanol (2) considerou-se uma pressão de 760
mmHg, com dados experimentais publicados por Wisniak & Tamir (1976). Deve-se ressaltar
que este problema especı́fico apresenta um mı́nimo local e um mı́nimo global na estimação
de parâmetros, o que justifica o uso de metaheurı́sticas. As coordenadas do mı́nimo local são
(θ1 , θ2 ) = (852.2, −607.8), com uma função objetivo F = 0.0333. Por outro lado, o mı́nimo
global do problema está em (θ1 , θ2 ) = (−865.1, 2419.9), com F = 0.0111.
Para as estimativas inicias caóticas empregou-se, na Eq. (6), a = 0 e b = 2000 (escolhidos
arbitrariamente, uma vez que o problema é intrinsecamente irrestrito). De modo similar, as
estimativas inicias aleatórias também foram geradas no intervalo [0, 2000].
As Figuras 1(a) e 1(b) apresentam estimativas iniciais tı́picas para as versões caótica e
aleatória do algoritmo, respectivamente. Deve-se notar que, apenas por uma inspeção visual
de tais figuras, não é possı́vel notar uma diferença significativa entre tais estimativas iniciais.

(a) Caóticas (b) Aleatórias

Figura 1- Estimativas iniciais: exemplo tı́pico.

A Figura 2 apresenta o mapa de resposta para a coordenada θ1 para os elementos da população


inicial da Evolução Diferencial. Neste caso, para a estimativa inicial caótica, os elementos
consecutivos são obtidos pelas Eqs. (6) e (7). Para a população inicial aleatória, os pontos
consecutivos representam somente a indiciação da população. Os resultados da Fig. 2 apon-
tam claramente as diferenças entre as estimativas inicias caótica e aleatória, que não podem ser
facilmente percebidas nas Figs. 1(a) e 1(b).
Os resultados para 1000 execuções de cada versão do algoritmo de Evolução Diferencial
— com estimativas iniciais caóticas e aleatórias — são apresentados na Tabela 1. Nota-se que

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

178
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Mapas de resposta para estimativas iniciais caóticas (em vermelho) e aleatórias (em azul).

estimativas iniciais caóticas produzem um menor valor médio para a função-objetivo, o que é
desejável para o problema em questão. Mais ainda, o pior valor para a versão caótica também
produz um resultado mais favorável do que a versão aleatória. Foram empregadas 50 gerações
para o algoritmo da Evolução Diferencial, de modo a ressaltar o efeito das diferenças entre as
estimativas iniciais. Valores maiores para o número de gerações acabam por implicar em valores
finais muito próximos (ou “agrupados”), tornando as possı́veis diferenças menos evidentes.

Tabela 1- Resultados da Evolução Diferencial com estimativas iniciais aleatórias e caóticas – Sistema
tert-butanol (1) + 1-butanol (2)

Média Pior Melhor


Estimativas aleatórias 0.0224518 0.0395008 0.0111469
Estimativas caóticas 0.0207987 0.0389460 0.0111469

Uma visão gráfica dos resultados das 1000 execuções para as duas versões do algoritmo é
apresentada na Fig. 4, considerando-se o melhor elemento da população para cada execução do
algoritmo, ao final das 50 gerações.

3.2 Sistema ácido acético (1) + anisol (2)

Os dados de equilı́brio lı́quido-vapor para o sistema ácido acético (1) + anisol (2) a 96.15
kPa foram publicados por Mali et al. (2017). As pressões de vapor para componentes puros
foram calculadas pela equação de Antoine, com coeficientes também disponı́veis em Mali et al.
(2017).
Neste exemplo, o número de gerações no algoritmo da Evolução Diferencial foi G = 30.
Conforme já ressaltado, a ideia é não permitir que o algoritmo localize, de forma acurada, o
ótimo do problema, mas se aproxime das vizinhanças da solução; assim, as diferenças entre as
estimativas iniciais aleatórias e caóticas podem ser facilmente evidenciadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

179
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Resultados finais (1000 execuções) para o sistema tert-butanol (1) + 1-butanol (2).

Os resultados para 1000 execuções estão apresentados na Tabela 2. Nota-se uma melhor
performance do algoritmo com estimativas iniciais caótica frente àquele com estimativas iniciais
aleatórias. Além de um valor médio menor para a função-objetivo para o modelo caótico, o pior
resultado para a versão caótica é mais próximo do ótimo global do que aquele calculado pela
versão aleatória. Os melhores resultados, para ambas as versões, correspondem ao ótimo global
do problema.

Tabela 2- Resultados da Evolução Diferencial com estimativas iniciais aleatórias e caóticas – Sistema
ácido acético (1) + anisol (2)

Média Pior Melhor


Estimativas aleatórias 0.0315422 0.1817227 0.0312987
Estimativas caóticas 0.0313244 0.0554251 0.0312987

4. CONCLUSÕES

Esse trabalho avaliou o efeito das estimativas iniciais na estimação de parâmetros de um


modelo termodinâmico empregando uma metaheurı́stica, o algoritmo de Evolução Diferencial.
Os resultados obtidos para as duas misturas binárias estudadas indicam que estimativas iniciais
caóticas produzem melhores resultados do que estimativas iniciais aleatórias para o problema
em questão.
Sugere-se, portanto, maiores investigações sobre o uso de tais estimativas caóticas princi-
palmente nos casos onde há hibridização de algoritmos do tipo estocástico + determinı́stico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

180
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Resultados finais (1000 execuções) para o sistema ácido acético (1) + anisol (2).

Agradecimentos

A estudante Jéssica Morgan agradece à Universidade Federal do Rio Grande – FURG pela
bolsa de Iniciação Cientı́fica (EPEC-Pesquisa) durante o perı́odo de realização deste trabalho.

Referências

Bonilla-Petriciolet, A.; Bravo-Sánchez, U. I.; Castillo-Borja, F.; Zapiain-Salinas, J. G.; Soto-Bernal, J. J.


(2007), The performance of simulated annealing in parameter estimation for vapor-liquid equilibrium
modeling, Brazilian Journal of Chemical Engineering, 24(1), 151-162.
Zang, X.; Feng, T. (2018), Chaotic bean optimization algorithm. Soft Computing, 22, 67-77.
Nelder, J. A.; Mead, R. (1965), A simplex method for function minimization. Computer Journal, 7(4),
308-313.
Xiong, Q.; Jutan, A. (2003), Continuous optimization using a dynamic simplex method. Chemical En-
gineering Science, 58, 3817-3828.
Platt, G. M.; Aragão, M. E.; Borges, F. C.; Goulart, D. A. (2020), Evaluation of a New Multimodal
Optimization Algorithm in Fluid Phase Equilibrium Problems. Inginerı́a e Investigación, 40(1), 1-7.
Platt, G. M. (2016), Numerical experiments with new metaheuristic algorithms in phase equilibrium
problems. International Journal of Mathematical Modelling and Numerical Optimisation, 7(2), 189-
211.
Platt, G. M.; Lobato, F. S.; Moura Neto, F. D.; Libotte, G. B.; Goulart, D. A. (2021), Geometri-
cal Tools to Teaching Azeotropy Using Simplified Thermodynamic Models. International Journal
of Continuing Engineering Education and Life-Long Learning (em impressão) doi: 10.1504/IJCE-
ELL.2021.10029662.
Yüzgeç, U.; Eser, M. (2018), Chaotic based differential evolution algorithm for optimization of baker’s
yeast drying process. Egyptian Informatics Journal, 19, 151-163.
Storn, R.; Price, K. (1997), Differential evolution – a simple and efficient heuristic for global optimiza-
tion over continuous spaces. Journal of Global Optimization, 11(4), 341-359.
Wilson, G. M. (1964), Vapor-liquid equilibrium. XI. A new expression for the excess free energy of
mixing. Journal of The American Chemical Society, 86(2), 127-130.
Wisniak, J.; Tamir, A. (1976), Correlation of boiling points of mixtures. Chemical Enginering Science,
31(8), 631-635.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

181
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mali, N. A.; Mali, P. W.; Patil, A. P.; Joshi, S. S. (2017); Vapor-Liquid Equilibrium Data for Binary
Mixtures of Acetic Acid + Anisole, Acetone + Anisole, and Isopropanol + Anisole at Pressure 96.15
kPa. Journal of Chemical & Engineering Data, 62(3), 947-953.

EVALUATION OF CHAOTIC INITIAL ESTIMATES FOR THE DIFFERENTIAL


EVOLUTION ALGORITHM IN THE PARAMETER ESTIMATION FOR
THERMODYNAMIC MODELS

Abstract. Parameter estimation is a crucial step for the prediction of vapor-liquid equilibrium
employing thermodynamic models. The accurate prediction of the phase coexistence is, in turn,
a basis for the design of separation processes (for instance, distillation columns). Classical
deterministic methods (such as the Nelder-Mead Simplex) are commonly employed for these
tasks; on the other hand, the quality of the initial estimates for the binary interaction para-
meters to the model under discussion is fundamental for the identification of global optima –
since we can observe, in several cases, a multimodal problem. Considering this scenario, more
recently, metaheuristics have been used in parameter estimation problems, with emphasis on
the Differential Evolution algorithm. In this work, we propose to evaluate the effect of initial
estimates – randomly generated or following a chaotic model – in the results of a parameter
estimation problem for the Wilson model in two binary mixtures, employing the Differential Evo-
lution algorithm. The results indicated that chaotic initial estimates produced, in both cases,
more adherence to the experimental data than the random initial estimates, without increase of
computational cost.

Keywords:Parameter Estimation, Differential Evolution, Chaotic Models, Multimodal Problems.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

182
28 a 30 de Outubro de 2020
Universidade Federal de Tocantins
Palmas - TO

PROJETO DE SISTEMAS DE ENGENHARIA UTILIZANDO O ALGORITMO DE


BUSCA FRACTAL ESTOCÁSTICA

Renata Bernardes1 - renata.bernardes@ufu.br


Fran Sérgio Lobato2 - fslobato@ufu.br
1,2 Universidade Federal de Uberlândia - Uberlândia, MG, Brasil

Resumo. O projeto de sistemas de engenharia tem um papel importante no desenvolvimento


no mundo como conhecemos hoje. Para essa finalidade, a otimização configura-se como um
conjunto de ferramentas que auxiliam a tomada de decisões durante a etapa de projeto. Neste
contexto, o estudo de Métodos Heurı́sticos é imprescindı́vel para novas e versáteis ferramentas
possam ser desenvolvidas. Diante do que foi apresentado, este trabalho tem como objetivo
aplicar o algoritmo de Busca Fractal Estocástica (BFE), que é baseado na teoria dos fractais,
para o projeto de sistemas de engenharia. Os resultados obtidos com a aplicação do algoritmo
em dois estudos de caso demonstram o potencial desta nova abordagem evolutiva.

Keywords: Projeto de sistemas de engenharia, Busca Fractal Estocástica, Otimização.

1. INTRODUÇÃO

Durante décadas, o uso de métodos baseados no uso de informações sobre a derivada da


função objetivo e das restrições foram exaustivamente estudados e avaliados em estudos de
caso com diferentes nı́veis de complexidade. Com o surgimento dos métodos heurı́sticos, uma
série de algoritmos com diferentes fundamentações teóricas têm sido propostos e desenvol-
vidos. Devido as caracterı́sticas bem particulares que podem ser encontradas no projeto de
sistemas de engenharia, tais como não linearidades, multi-modalidade, presença de restrições e
de variáveis mistas (contı́nuas, binárias, discretas e reais), a aplicação deste tipo de abordagem
nestes estudos tem-se mostrado bastante promissora. O interesse por problemas de projeto se
deve a grande importância que este tipo de estudo tem nos dias atuais, como por exemplo, em
aplicações industriais.
Os projetos são necessários em qualquer ramo da atividade humana, visto que objetiva-se
extrair o maior potencial dos processos ao mesmo tempo que minimiza-se os recursos dis-
ponı́veis. Para essa finalidade, a otimização surge como um ferramental que auxilia a tomada
de decisões de modo que o tempo dedicado ao processo possa ser reduzido. Os algoritmos
de otimização podem ser classificados em duas grandes classes, a saber, os métodos clássicos

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM - Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO - 28 a 30 Outubro 2020

183
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

(também chamados de determinı́sticos) e os métodos heurı́sticos (também denominados como


não determinı́sticos) (Lobato, 2008). Os primeiros são baseados no uso de informações sobre
o gradiente da função objetivo e das restrições para atualizar uma estimativa inicial. Para essa
finalidade, estratégias baseadas em derivadas de primeira ou segunda ordem podem ser empre-
gadas. Estes apresentam algumas limitações, dentre as quais pode-se citar (Medeiros & Kripka,
2012): i) são métodos de busca local; ii) apresentam dificuldades em trabalhar com variáveis
mistas e iii) não são capazes de lidar com funções não diferenciáveis. Já os métodos heurı́sticos
são baseados em algoritmos probabilı́sticos e que buscam imitar o comportamento de espécies,
bem como os fenômenos que podem ser observados na natureza. Estes apresentam como princi-
pal caracterı́stica o fato de não fazerem uso de informações sobre o gradiente da função objetivo
e das restrições, diferentemente dos clássicos (Lobato, 2008). São reconhecidamente métodos
de busca global, todavia, requerem um grande número de avaliações da função objetivo e das
restrições, em comparação com os clássicos.
Nas últimas décadas, a otimização tem-se consagrado como metodologia base para o projeto
de sistemas de engenharia, sendo que nos últimos anos os pesquisadores têm buscado formas
de sistematizar tais processos via uso de recursos computacionais cada vez mais sofisticados.
Na prática, isso implica no uso cada vez mais frequente dos reconhecidos métodos, visto que
a redução do tempo de processamento de problemas realı́sticos favorece a aplicação deste tipo
de abordagem. Como um dos representantes mais recentes desta classe de abordagens, destaca-
se o algoritmo de Busca Fractal Estocástica - BEF (Stochastic Fractal Search), proposto por
Salimi (2015). Em linhas gerais, o BEF é uma estratégia de otimização baseada na teoria dos
fractais para definir uma relação para a atualização do vetor de variáveis de projeto. Apesar dos
bons resultados apresentados até o presente momento, inúmeras são as questões envolvendo o
desempenho desta abordagem evolutiva no que tange a sua aplicabilidade em sistemas comple-
xos.
Diante do que foi apresentado, a presente contribuição tem por objetivo aplicar o algoritmo
de BFE no projeto de sistemas de engenharia. Este trabalho está estruturado como segue. Na
Seção 2. é apresentada uma breve descrição do algoritmo de BFE. A metodologia é apresen-
tada na Seção 3. Os resultados obtidos com a aplicação da referida técnica de otimização são
apresentados na Seção 4. A última seção apresenta as conclusões deste trabalho.

2. BUSCA FRACTAL ESTOCÁSTICA

2.1 Concepção Conceitual

Conforme descrito anteriormente, o algoritmo de BEF é fundamentado na teoria dos fractais.


De forma geral, fractal é a propriedade que um objeto possui para explicar sua auto-similaridade
em todas as escalas, bem como é caracterizar a geometria de objetos e de processos reais por
meio de uma geometria fractal (Salimi, 2015). Como exemplo, tomando uma pequena porção
de um todo de um objeto, i.e., uma célula de um corpo, podemos perceber nessa mesma célula
as caracterı́sticas presentes no corpo todo (cor da pele, dos olhos, do cabelo, além de apresentar
caracterı́sticas que não são manifestadas no organismo inteiro, mas que se encontram presente
no DNA).
As principais caracterı́sticas dos Fractais são (Salimi, 2015):

• Extensão infinita dos limites: os limites fractais são enrugados e complexos, mantendo o
padrão em várias escalas, desde as mı́nimas partes até o todo. Apesar dos limites serem

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

184
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

enrugados, são medidos linearmente com retas e a extensão dos seus limites depende do
tamanho da unidade-padrão de medida. Sendo assim, quanto mais se reduz o tamanho da
unidade-padrão, maior é a extensão do que se mede, gerando um aumento do alcance de
detalhes;

• Permeabilidade dos limites: é a esta caracterı́stica que permite uma troca de energia e de
matéria no meio ambiente ou nos processos humanos, o que proporciona um intercâmbio
de dados gerando informação, conhecimento e aumento da melhoria dos relacionamentos
em todas as escalas. A mudança de estado e as alterações de um padrão fractal para outro
são propiciadas por essa caracterı́stica;

• Auto-similaridade das formas e caracterı́sticas: é a semelhança presente nas formas e nas


caracterı́sticas dos objetos e nos processos que podem ser observadas em várias escalas,
do todo em relação aos seus componentes, exprimindo uma invariância de escala.

2.2 O Algoritmo de BEF

De forma geral, o algoritmo proposto Salimi (2015) considera as seguintes caracterı́sticas:

• Cada partı́cula da população possui uma energia potencial elétrica;

• Cada partı́cula se difunde, criando outras partı́culas aleatórias e a energia potencial da


partı́cula mãe é dividida entre as partı́culas geradas;

• Apenas as melhores partı́culas são mantidas em cada geração, sendo o restante delas
desconsiderado.

Conforme descrito por Salimi (2015), embora a busca fractal apresente um bom desempe-
nho, ela possui algumas desvantagens. Além do inconveniente de todos os parâmetros precisa-
rem ser bem definidos, não existe troca de informações entre as partı́culas numa clara tentativa
de acelerar o processo de convergência do processo. Outro ponto é que a BFE apresenta um
aumento no número de partı́culas durante as gerações, o que implica naturalmente no aumento
do tempo de processamento. Khalilpourazari et al. (2019) utilizou o algoritmo de BEF para
resolver problemas multi-objetivos complexos. Já Khalilpourazari & Khalilpourazary (2018)
aplicou este algoritmo em um problema de engenharia para a retificação de superfı́cie. Hino-
josa et al. (2018) utilizou esse algoritmo para a segmentação de imagens para o procedimento de
histologia em mamas. Chen et al. (2019) propôs a variante desse método a partir da perturbação
de soluções em potencial para a determinação de um parâmetro fotovoltaico.
De acordo com Salimi (2015), o algoritmo de BEF possui duas fases distintas, a saber, a
difusão e a difusão estática. A primeira permite que cada partı́cula se difunda em torno da sua
posição, aumentando desta forma a capacidade de exploração e, consequentemente, maximize
as chances de encontrar o mı́nimo global e evita a estagnação em um ponto de mı́nimo local.
Já na difusão estática, ao invés de aumentar o número de partı́culas na geração atual, este ope-
rador apenas considera o melhor ponto gerado na difusão, descartando o restante. Na etapa de
atualização, o algoritmo simula como um ponto atualiza sua posição baseando-se na posição
dos outros pontos do grupo, promovendo uma exploração eficiente do espaço de busca. Para
criar novas partı́culas a partir do processo de difusão, o algoritmo de BEF faz uso de um ca-
minho Gaussiano que é uma abordagem mais promissora para encontrar os mı́nimos globais,
apesar da convergência mais rápida de trabalhos envolvendo estratégias evolutivas baseadas no

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

185
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

vôo de Levy (Chen et al., 2019). Baseando-se nestas informações, Salimi (2015) propôs dois
tipos diferentes de caminhadas Gaussianas, a saber, as descritas pela Eq.(1) e pela Eq.(2).

GW1 = Gaussian(µBP , σ) + ( × BP − 0 × Pi ) (1)


GW2 = Gaussian(µP , σ) (2)

em que  e 0 são números aleatórios distribuı́dos uniformemente no intervalo [0,1], BP é a


posição do melhor ponto, Pi é o ponto i-ésimo do grupo. Na Equação (1), µBP corresponde a
|BP | e na Eq.(2), µP é igual a |Pi |. O parâmetro σ é definido como:

log(g)
σ= × (Pi − BP ) (3)

g

A inicialização da população P do algoritmo ocorre conforme a Eq.(4):

Pj = LB =  × (U B − LB) (4)

em que LB e U B são os limites inferiores e superiores do vetor de variáveis de projeto,  é


um número aleatório distribuı́do uniformemente no intervalo [0,1] e j = 1, 2, ..., D, sendo D
a dimensão do problema em análise. Após a geração da população inicial, cada indivı́duo é
avaliado segundo o valor da função objetivo e a melhor solução é armazenada.
O objetivo do processo de difusão é a exploração do espaço de busca por cada partı́cula da
população. Para melhorar essa capacidade, dois procedimentos estatı́sticos são aplicados. O
primeiro procedimento atua em cada indivı́duo da população, e é realizado um ordenamento
desses pontos baseados no valor da função objetivo, conforme Eq.(5):
rank(Pi )
P ai = (5)
N
em que rank(Pi é o ordenamento de Pi e N é o número total de pontos.
Para cada ponto que satisfaz a condição Pi < , sendo  um número aleatório distribuı́do
uniformemente no intervalo [0,1], é aplicada a Eq.(6) para atualizar cada componente de Pi ,
garantindo assim uma maior diversificação da população, conforme a seguinte relação:

Pi0 (j) = Pr (j) −  × (Pt (j) − Pi (j)) (6)

em que Pr e Pt são pontos escolhidos aleatoriamente na população e  um número aleatório


distribuı́do uniformemente no intervalo [0,1].
O segundo procedimento modifica a posição de cada vetor e é realizado o ordenamento dos
pontos obtidos no primeiro procedimento estatı́stico. Se P ai <  é satisfeito para cada ponto
criado Pi0 , a posição de Pi0 é modificada segundo as Eq.(7) e Eq.(8):

P ”i = Pi0 − ˙ × (Pt0 − BP ) se 0 ≤ 0, 5 (7)


P ”i = Pi0 + ˙ × (Pt0 − Pr0 ) se 0 > 0, 5 (8)

em que Pt0 e Pr0 são pontos aleatórios selecionados no primeiro procedimento e ˙ são números
aleatórios gerados pela distribuição Normal Gaussiana. O novo ponto P ”i substitui Pi0 se tiver
um custo melhor que Pi0 .
Mais detalhes sobre o desenvolvimento matemático do algoritmo de BEF podem ser encon-
trados no trabalho de Salimi (2015).

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

186
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

3. METODOLOGIA

Para um bom entendimento da metodologia proposta neste trabalho, os seguintes pontos


devem ser destacados:

• Parâmetros considerados pelo algoritmo de BEF: número de gerações (45), tamanho da


população (20) e número de difusões (3) (Projeto de uma Mola) e número de gerações
(140), tamanho da população (35) e número de difusões (4) (Projeto de uma Viga En-
gastada). O algoritmo de BEF foi executado 20 vezes considerando diferentes sementes
iniciais no gerador de números aleatórios. Os parâmetros apresentados foram definidos a
partir de simulações preliminares.
• O tratamento de restrições em cada um dos estudos de caso foi realizado considerando o
Método da Penalidade Estática com parâmetro de penalidade da ordem de 1010 .
• Para avaliar a qualidade dos resultados obtidos pelo algoritmo de BEF, dois problemas
clássicos no projeto de sistemas de engenharia são avaliados.

4. RESULTADOS E DISCUSSÕES

4.1 Projeto de uma Mola de Tensão/Compressão

Esse problema, estudado por Mirjalili & Lewis (2016), consiste na minimização do volume
de uma mola de tensão/compressão sujeito à restrições de deflexão mı́nima, tensão de cisalha-
mento, frequência de surto e limites no diâmetro externo. As variáveis de projeto são: diâmetro
do fio (d), diâmetro médio da espiral (D) e número de espirais (N ), como observado na Fig.1.
O diâmetro do fio (d) e o diâmetro médio da espiral (D) são representados em polegadas (in)
enquanto o número de espirais (N ) é um valor adimensional (Arora, 1989).

Figura 1- Mola Tensão/Compressão. Adaptado de Coello & Montes (2002).

Considerando a seguinte notação (→



x =[x1 x2 x3 ]=[d D N ]), o problema pode ser definido
como:
min f (x) = (x3 + 2)x2 x21 (9)
sujeito às seguintes restrições:
x32 x3
g1 (x) ≡ 1 − ≤0 (10a)
71785x41
4x22 − x1 x2 1
g2 (x) ≡ + −1≤0 (10b)
12566(x2 x1 − x1 ) 5108x21
3 4

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

187
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

140, 45x1
g3 (x) ≡ 1 − ≤0 (10c)
x22 x3
x2 + x1
g4 (x) ≡ −1≤0 (10d)
1, 5
0, 05 ≤ x1 ≤ 2, 00; 0, 25 ≤ x2 ≤ 1, 30; 2, 00 ≤ x3 ≤ 15, 00 (10e)
Esse problema foi resolvido por Coello & Montes (2002) usando novo método derivado do
Algoritmo Genético com estratégia de nichos baseado em Pareto, por Mirjalili & Lewis (2016)
usando o Algoritmo de Otimização de Baleias e por He & Wang (2007) usando o Método de
Enxame de Partı́culas. Na Tabela 1 são apresentados os melhores resultados (variáveis de pro-
jeto, função objetivo e número de avaliações da função objetivo - ∆) considerando os métodos
citados e o algoritmo de BEF.

Tabela 1- Resultados obtidos para o problema do projeto de uma mola considerando diferentes aborda-
gens.

BFE Coello & Montes (2002) Mirjalili & Lewis (2016) He & Wang (2007)
x1 (in) 0,0517 0,0520 0,0512 0,0517
x2 (in) 0,3568 0,3640 0,3452 0,3576
x3 (-) 11,2819 10,8905 12,0040 11,2445
f (in3 ) 0,0127 0,0127 0,0127 0,0127
∆ 920 80000 4410 5460

A partir dos resultados apresentados nesta tabela pode-se concluir que a metodologia pro-
posta foi capaz de encontrar a mesma solução obtida por outras estratégias. Todavia, o algo-
ritmo SFS requereu um menor custo computacional quando comparado com os outras aborda-
gens. Cabe ressaltar que, como este método faz uso de geradores de números aleatórios, a sua
solução varia de execução para execução, assim como todas as outras estratégias heurı́sticas.
Neste cenário, os resultados referentes a média, desvio padrão e o melhor resultado são apre-
sentados na Tab.2. De forma geral percebe-se que os valores do desvio padrão e da média
indicam que o algoritmo BEF se mostrou robusto, i.e., o mesmo sempre foi capaz de convergir
para a solução do problema, o que evidencia a qualidade de solução em termos de convergência
e custo computacional.

Tabela 2- Melhor valor, valor médio e desvio padrão o problema do projeto de uma mola considerando o
algoritmo de BFE.
Melhor Média Desvio Padrão
x1 (in) 0,0517 0,0517 0,0000
x2 (in) 0,3566 0,3568 0,0004
x3 (-) 11,2926 11,2819 0,0253
f (in3 ) 0,0127 0,0127 1,9148×10−8

4.2 Projeto de uma Viga Engastada

Considere a viga engastada que deve ser projetada a partir da determinação das dimensões
(h, l, t e b) via minimização do seu custo (f (x)), conforme a Fig.2 (Coello & Montes, 2002).

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

188
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

O sistema está sujeito à limitações de tensão de cisalhamento (τ ), tensão de flexão na viga


(σ), carga de flambagem na barra (Pc ), deflexão na barra (δ) e restrições, que são descritas nas
Eq.(12a) à Eq.(12g).

Figura 2- Viga engastada. Adaptado de Coello & Montes (2002).

Matematicamente, considerando a seguinte notação (→



x =[x1 x2 x3 x4 ]=[h l t b]) (in), o
problema pode ser definido como:

min f (x) = 1, 10471x21 x2 + 0, 04811x3 x4 (14, 0 + x2 ) (11)

Sujeito às seguintes restrições:

g1 (x) ≡ τ (x) − τmax ≤ 0 (12a)

g2 (x) ≡ σ(x) − σmax ≤ 0 (12b)


g3 (x) ≡ x1 − x4 ≤ 0 (12c)
g4 (x) ≡ 0, 10471x21 + 0, 04811x3 x4 (14, 0 + x2 ) − 5 ≤ 0 (12d)
g5 (x) ≡ 0, 125 − x1 ≤ 0 (12e)
g6 (x) ≡ δ(x) − δmax ≤ 0 (12f)
g7 (x) ≡ P − Pc (x) ≤ 0 (12g)
0, 1 ≤ x1 ≤ 2, 0; 0, 1 ≤ x2 ≤ 10, 0; 0, 1 ≤ x3 ≤ 10, 0; 0, 1 ≤ x4 ≤ 2, 0. (12h)
em que:

r
x2
τ= τ 02 + 2τ 0 τ ” + τ ”2 (13a)
2R
P
τ0 = √ (13b)
2x1 x2
MR
τ” = (13c)
J

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

189
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

!
x2
M =P L+ (13d)
2
v !2
u
u x2 x + x
1 3
R=t 2 + (13e)
4 2
!2 !!
√ x22 x1 + x 3
J =2 2x1 x2 + (13f)
12 2
6P L
σ= (13g)
x4 x23
4P L3
δ= (13h)
Ex33 x4
r
x23 x64
4, 013E r !
36 x3 E
Pc = 1− (13i)
L2 2L 4G
Esse problema foi resolvido por Coello & Montes (2002) usando novo método derivado do
Algoritmo Genético com estratégia de nichos baseado em Pareto, por Mirjalili & Lewis (2016)
usando o Algoritmo de Otimização por Baleias e por Rashedi et al. (2009) usando o Algoritmo
de Busca Gravitacional. Na Tabela 3 são apresentados os melhores resultados (variáveis de pro-
jeto, função objetivo e número de avaliações da função objetivo - ∆) considerando os métodos
citados e o algoritmo de BEF e os seguintes parâmetros (Coello & Montes, 2002): P =6000 lb,
L=14 in, E=30×106 psi, G=12×106 psi, τmax =13600 psi, σmax =30000 psi e δmax = 0,25 in.

Tabela 3- Resultados obtidos para o problema do projeto de uma viga considerando diferentes aborda-
gens.

BEF Coello & Montes (2002) Mirjalili & Lewis (2016) Rashedi et al. (2009)
x1 (in) 0,2057 0,2060 0,2054 0,1821
x2 (in) 1,9650 3,4713 3,4843 3,8570
x3 (in) 9,0366 9,0202 9,0374 10,0000
x4 (in) 0,2057 0,2065 0,2063 0,2024
f ($) 1,5198 1,7282 1,7305 1,8800
∆ 4935 80000 9900 10750

Nesta tabela observa-se que o valor da função objetivo obtido pelo algoritmo de BEF foi
inferior aos apresentados por outros autores. Este menor valor foi encontrado as custas de um
menor valor para a variável x2 , cujo valor foi bem inferior à destacada na literatura. De maneira
geral, pode-se concluir, assim como observado para o estudo de caso anterior, que a metodo-
logia proposta foi capaz de encontrar uma boa solução em termos da função objetivo, todavia,
as custas de um menor custo computacional quando comparado com os outras abordagens. A
Tabela 4 apresenta os resultados referentes a média, desvio padrão e o melhor resultado, res-
pectivamente. De forma geral percebe-se que os valores do desvio padrão e da média indicam

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

190
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

que o algoritmo BEF se mostrou robusto, i.e., o mesmo sempre foi capaz de convergir para a
solução do problema.

Tabela 4- Melhor valor, valor médio e desvio padrão o problema do projeto de de uma viga considerando
o algoritmo de BFE.
Melhor Média Desvio Padrão
x1 (in) 0,2057 0,2057 0,0119×10−9
x2 (in) 1,9650 1,9650 0,1606×10−9
x3 (in) 9,0366 9,0366 0,0484×10−9
x4 (in) 0,2057 0,2057 0,0013×10−9
f ($) 1,5198 1,5198 9,2342×10−12

5. CONCLUSÕES

A presente contribuição teve como objetivo avaliar a aplicação do algoritmo de BFE para o
projeto de dois sistemas de engenharia. Os resultados obtidos demonstraram que o algoritmo
sempre foi capaz de encontrar uma boa solução em termos do valor da função objetivo. Com
relação ao custo computacional, observa-se que a metodologia utiliza requereu um número me-
nor de avaliações da função objetivo em comparação com outras estratégias evolutivas. Como
trabalhos futuros pretende-se: estudar a influência dos parâmetros do algoritmo de BEF, avaliar
a sua aplicação em sistemas de engenharia com maior complexidade, bem como propor a sua
extensão para o contexto multi-objetivo.

Agradecimentos

Os autores agradecem o apoio financeiro da FAPEMIG, da CAPES e do CNPq.

REFERÊNCIAS

Arora, J. S. “Introduction to optimum design”. New York: McGraw-Hill; 1989.


Chen, X.; Yue, H.; Yu, K. “Perturbed Stochastic fractal search for solar PV parameter estimation”.
Energy, China, 189, 1-12, 2019
Coello, C. A. C; Montes, E. M. “Constraint-handling in genetic algorithms through the use of
dominance-based tournament selection”. Advanced Engineering informatics, Mexico, n. 16, p. 193-
203, 2002.
He, Q; Wang, L. “An effective co-evolutionary particle swarm optimization for constrained engineering
design problems. Eng Appl Artif Intell, 20, 89-99, 2007.
Hinojosa, S.; Dhal, K. G. G.; Elaziz, M. A., Oliva, D., Cuevas, E. “Entropy-based imagery segmentation
for breast histology using the Stochastic Fractal Search”. Neurocomputing, 321, 1, 201-215, 2018.
Khalilpourazari, S.; Khalilpourazary, S. “A Robust Stochastic Fractal Search approach for optimization
of the surface grinding process”. Swarm and Evolutionary Computation, 38, 173-186, 2018.
Khalilpourazari, S.; Naderi, B.; Khalilpourazary, S. “Multi-objective Stochastic Fractal Search: a power-
ful algorithm for solving complex multi-objective optimization problems”. Soft Computing, 24, 3037-
3066, 2019.
Lobato, F. S. “Otimização Multi-Objetivo para o Projeto de Sistemas de Engenharia”. Tese, Universidade
Federal de Uberlândia, Uberlândia, MG, 2008.
Medeiros, G. F. D; Kripka, M. “Algumas Aplicações de Métodos Heurı́sticos na Otimização de Estrutu-
ras”. CIATEC - UPF, Passo Fundo, 4, 19-32, 2012.
Mirjalili, S.; Lewis, A. “The Whale Optimization Algorithm”. Advances in engineering software, Aus-
tralia, 95, 51-67, 2016.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

191
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Rashedi, E., Nezamabadi-Pour, H., Saryazdi, S. “GSA: a gravitational search algorithm”. Inf Sci. 179,
2232-2248, 2009.
Salimi, H. “Stochastic Fractal Search: A powerful metaheuristic algorithm”. Knowledge-Based Systems,
75, 1-18, 2015.

ENGINEERING SYSTEMS DESIGN USING THE STOCHASTIC FRACTAL SEARCH


ALGORITHM

Abstract. Engineering systems design has an important role in development of world as we


know it today. In this context, the optimization is configured as a set of tools that help the
decision making during the design stage. In this scenario, the study of Heuristic Methods is
essential for new and versatile tools to be developed. In this contribution the aims is to apply
the Stochastic Fractal Search (SFS) algorithm, which is based on fractal theory, to engineering
systems design. The results obtained with the application of the optimization procedure in two
case studies demonstrates the potential of this new evolutionary approach.

Keywords: Engineering systems design, Stochastic Fractal Search, Optimization.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

192
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

TRACKING COVID-19 SPREAD USING AN EPIDEMIOLOGICAL MODEL AND


MAXIMUM A POSTERIORI ESTIMATION

Vinicius V.L. Albani1 - v.albani@ufsc.br


1 Universidade Federal de Santa Catarina, Departamento de Matemática - Florianópolis, SC, Brazil

Abstract. We propose an epidemiological Susceptible-Exposed-Infected-Recovered-type (SEIR)


model to describe the dynamics of Covid-19 in a population. The population is distributed into
seven compartments, namely, susceptible (S), exposed (E), three infective classes (IM , IS and
IS ), recovered (R) and deceased D. The disease severity is accounted through the infective
classes, mild, severe and critical. The transmission parameters are time-dependent and the
model is tested with real data. A maximum a posteriori technique is used to estimate model
parameters. A series of numerical examples are presented to illustrate the model capability to
track changes in transmission regimes.

Keywords: Epidemiological Models, SEIR-type Models, Model Calibration

INTRODUCTION

Since December 2019, Covid-19 has caused major disease outbreaks all around the world,
and, by the end of August-2020, it has infected more than 23 million individuals and caused
more than 820 thousand deaths. Due to the absence of an effective vaccine, only contention
measures, like quarantine and social distance, can be undertaken to control disease spread.
This has been causing unprecedented economical issues, leading to massive unemployment and
bankruptcy of small businesses.
By August 2020, after controlling transmission, many countries started to reopen their
economies, under strict social distance measures. However, new waves of infections have been
observed in Europe, Israel, China and New Zealand, that have successfully contained Covid-19
spread earlier.
In order to appropriately track disease spread in a population and the effectiveness of con-
tention measures, the epidemiological model must account for dynamic change in transmission.
Moreover, Covid-19 has a well-documented disease severity distribution, where only individ-
uals under critical conditions are most likely to die. To address all these issues, we propose
a SEIR-type model that accounts for time-dependent transmission parameters and three main
disease severity conditions, namely, mild, severe and critical. Following Verity et al. (2020), by
severe individuals we mean those hospitalized and by in critical conditions we mean those ones
in an intensive care unity (ICU).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

193
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SIR- and SEIR-type models have been using to model infectious diseases since the seminal
work of Kermack and McKendrick (1927). For a nice review on this subject, see Keeling and
Rohani (2008).
One of the main issues of SEIR-type models is the sensitivity of parameters to noise. Thus,
to estimate the model parameters, a maximum a posteriori approach in combination with a
gradient-descent optimization tool is proposed. 95% confidence intervals are provided by 200
samples generated by bootstrap Chowell (2017).
Besides the transmission parameters, that shall be estimated, other parameters, like rates of
recovery, death and hospitalization, the mean time from infection to onset, onset to hospital-
ization, hospitalization to ICU admission and ICU admission to death or recovery are obtained
from recent medical studies Lauer et al. (2020); Grasselli et al. (2020); Guan et al. (2020);
Huang et al. (2020); Wu and McGoogan (2020); WHO (2020).
An extensive set of numerical examples, with real data from Blumenau-SC, Florianopolis-
SC and Rio de Janeiro-RJ in Brazil, as well as New York City-NY, in the United States, are
presented. The time-dependent basic reproduction rate, obtained through the next-generation
matrix technique Diekmann et al. (1990), is used to track the transmission pattern, indicating
whether transmission is contained or uncontained.
Therefore, the main contributions of the present work can be summarized as follows: (i)
The introduction of a SEIR-type model that accounts for disease severity. (ii) The use of
time-dependent transmission parameters. (iii) The model calibration technique. (iv) Numer-
ical examples with real data. (v) Tracking disease transmission using the time-dependent basic
reproduction rate.

THE SEIR-TYPE MODEL

The epidemiological model accounts for seven compartments, namely, susceptible (S), ex-
posed (E), mild and infective (IM ), severe and infective (IS ), critical and infective (IC ), recov-
ered (R) and deceased (D). The movement between compartments is governed by the system
of ordinary differential equations below:

Ṡ = −S(βM IM + βS IS + βC IC ) (1)
Ė = S(βM IM + βS IS + βC IC ) − σE (2)
I˙M = σE − (γR,M + αS )IM (3)
I˙S = αS IM − (γR,S + αC )IS (4)
I˙C = αC IS − (γR,C + δD )IC (5)
Ṙ = γR,M IM + γR,S IS + γR,C IC (6)
Ḋ = δD IC . (7)

The parameters βM , βS and βC stand for the time-dependent rates of infection of mild,
severe and critical infective individuals, respectively. σ is the inverse of the mean time of
infection to onset of symptoms. γR,M , γR,S and γR,C are the recovery rates of mild, severe and
critical infective individuals, respectively. The rates of hospitalization and ICU admission are
denoted by αS and αC , respectively. The rate of death of critical individuals is αS . According
to the study WHO (2020), in general, only people in critical conditions die by Covid-19. This
is the reason why there are no rates of death in the infective compartments IM and IS .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

194
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

To reduce the problem dimensionality and to simplify model estimation, the transmission
parameters for severe and critical classes satisfy: βS = aβM and βC = bβM , where a and b
are constants.
The set of parameters of the model in Eqs. (1)–(7) can be summarized into three sets:

1. Initial Conditions: S(0), E(0), IM (0), IS (0), IC (0), R(0) and D(0).

2. Time-independent parameters: a, b, σ, γR,M , γR,S , γR,C , αS , αC and δD .

3. Time-dependent parameter: βM .

The parameters that must be estimated from the curves of daily new infections are βM , a, b
and IM (0), the other ones are known. The rates in the model are given directly by the recent
studies Lauer et al. (2020); Grasselli et al. (2020); Guan et al. (2020); Huang et al. (2020);
Wu and McGoogan (2020); WHO (2020). The initial susceptible population is set as the total
population size minus the initial infective individuals. Besides IM (0), the initial population in
the other infective classes, recovered and deceased are set as zero.

MODEL CALIBRATION TECHNIQUES

Model calibration is performed using maximum a posteriori techniques. It is divided into


two steps, in the first one, the time-independent parameters, represented by the vector

Θ = (β, a, b, IM (0))T

are estimated, where β is the time-independent version of βM , and in the second one, βM (t) is
calibrated recursively.
All parameters, Θ and βM , are estimated from the curves of daily reports of new infections.
To address the model sensitivity to noise, Gaussian priors are included in the posterior densities.
Let Y = (Y1 , . . . , YM ) denote the set of daily reports of new Covid-19 infections. In the
estimation of Θ, the log-posterior density below is maximized:

ΠP OST (Θ|Y ) ∝ Π(Y |Θ) + ΠP RIOR (Θ), (8)

where the log-likelihood density is given by the logarithm of the Poisson distribution with
mean given by σE(ti ), where ti with i = 1, . . . , M is some date in the time-series:
M
X
Π(Y |Θ) ∝ [Yj log(σE(ti )) − σE(ti ) − log(Yj !)] , (9)
i=1

where log(Yj !) is approximated by the Stirling’s formula:

1
log(Yj !) ≈ log(2πY ) + Y log(Y ) − Y.
2
The prior is given by
α
ΠP RIOR (Θ) ∝ − kΘ − Θ0 k2 , (10)
2
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

195
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

with Θ0 equal to the initial state of the referred model parameters and α is a regularization
parameter.
The estimation of the time-dependent transmission rate βM is performed as follows: For
each i = 1, . . . , M , maximize the log-posterior density below:

ΠP OST,i (βM,i |Yi ) ∝ Π(Yi |βM,i ) + ΠP RIOR (βM,i , βM,i−1 ), (11)

where the log-likelihood is given by

Π(Y |βM,i ) ∝ Yj log(σE(ti )) − σE(ti ) − log(Yj !), (12)

and the prior is defined as


α
ΠP RIOR (βM,i , βM,i−1 ) ∝ − kβM,i − βM,i−1 k2 . (13)
2
Optimization is performed by the LSQNONLIN function from the Optimization Toolbox of
MATLAB. To generate the means σE(ti ), with i = 1, . . . , M , the system in Eqs. (1)–(7) is
numerically solved by the ODE45 function of MATLAB.

NUMERICAL RESULTS

In the present section, the proposed SEIR-type Model and the estimation method are tested
with reported curves of daily new infections from the cities of Blumenau-SC, Florianopolis-SC
and Rio de Janeiro-RJ, in Brazil, as well as New York City-NY (NYC), in the United States.
The time series of the reports from Brazilian cites were downloaded from https://github.
com/wcota/covid19br, on 28-Aug-2020, and the data from NYC was downloaded from
https://github.com/nychealth/coronavirus-data, on 22-Aug-2020.
Covid-19 outbreak has been addressing quite differently in these places, however, all four
cities implemented lockdown and now, they are reopening, with social distance measures. Due
to a series of reasons, the effectiveness of implementation of contention strategies is quite dif-
ferent in such places.
Figure 1 presents the model predictions and the reported cases for all four cites. 95% confi-
dence intervals were generated with bootstrap (Chowell, 2017). The model was estimated from
the curves of daily reports of new infections, smoothed-out by a 7-days moving mean. The
7-day moving mean of the corresponding basic reproduction rates R(t) (Diekmann et al., 1990)
for Florianopolis, Blumenau, Rio de Janeiro and NYC can be found in Fig. 2. Since such quan-
tities are quite sensitive to noise, moving means are better to see their qualitative behaviour.
Notice that, an epidemic dies out whenever the basic reproduction rate stays below one, which
means that each infective individual infects, in mean, less than one susceptible person.
Table 1 presents the calibrated parameters for the four considered cities, with their 95%
confidence intervals, obtained using bootstrap. The original time series was divided into two
smaller sets. The first one considers the daily reports of new infections for the first 20 days and
the second one, the reports for the remaining dates. In general, the disease spread dynamics
may change considerably from the first days of an epidemic to the remaining period, due to the
implementation of mitigation or contention measures.
As Figs. 1-2 show, NYC faced a major outbreak between March and May-2020, and by 22-
Aug-2020, transmission is contained. Even after reopening, NYC authorities managed to keep
the basic reproduction rate close to one. However, since it is not away below one, there is always

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

196
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 1- Reported and model predictions of daily new infections for Florianopolis-SC, Blumenau-SC,
Rio de Janeiro-RJ and New York City-NY (USA). The envelops represent 95% confidence intervals.

a risk of new waves of infections. So, social distance measures must be kept while the disease
is not eradicated. Despite some spikes in the reports, by 28-Aug-2020, the Covid-19 outbreak
in Florianopolis seems also to be under control, since R(t) is also close to one. According
to the results, by 28-Aug-2020, Covid-19 transmission still uncontained in Rio de Janeiro and
Blumenau. It is illustrated by the shape of the curves of daily new infections in Fig. 1 and since,
for both cities, R(t) stays away above one, as Fig. 2 shows. This means that, public authorities
must enforce population to follow social distance measures to control transmission and block
disease spread.
It is worth mentioning that, these results are subject to a large amount of uncertainties due
to a series of reasons, but the main one is sub-notification. In general, only symptomatic cases
are tested, and, in some places, there is no policy of contact trace, which could help to identify
infective asymptomatic individuals. In addition, different tests, with different accuracy levels
have been using in reports. All these issues were not taken into account since they are beyond
the scope of the present work.

CONCLUSIONS

This article presents a SEIR-type model that includes different levels of disease severity and
time-dependent parameters to describe the dynamics of some infectious disease, such as Covid-

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

197
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- Moving-mean of seven consecutive days of the time-dependent basic reproduction rate for
Florianopolis-SC, Blumenau-SC, Rio de Janeiro-RJ and New York City-NY (USA). The envelops rep-
resent 95% confidence intervals.

19, in a susceptible population. The model is tested with daily reports of new infections from
Blumenau-SC, Florianopolis-SC and Rio de Janeiro-RJ, in Brazil, as well as New York City-
NY, in the United States. The model is calibrated from the reported data using a maximum a
posteriori approach, where the posterior density is maximized using a gradient-based technique.
95% confidence intervals were obtained by bootstrap. The calibrated model is adherent to
the reported curves, and the corresponding time-dependent basic reproduction rates indicates
precisely whether transmission is contained or not. According to the results, by 28-Aug-2020,
Florianopolis and NYC authorities managed to control Covid-19 spread, whereas, in Blumenau
and Rio de Janeiro, disease spread still need to be contained. The effective implementation of
social distance seems to play a major role in spread control, as Florianopolis and NYC illustrate.
Notice that, since, in all cases, the basic rate of transmission stays close to one, there is always
a risk of new waves of infections, which means that strict social distance measures must be kept
while there is no effective vaccine or the disease is eradicated.

REFERENCES

Chowell, G. (2017). Fitting dynamic models to epidemic outbreaks with quantified uncertainty:
a primer for parameter uncertainty, identifiability, and forecasts. Infectious Disease Mod-

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

198
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Florianopolis
Parameter Time Series 1 Time Series 2
IM (0) 2 (1–50) -
β 1.81 (0.85–1.81) 1.01 (0.79–1.02)
a 0.63 (2.4e-14–0.63) 2.6e-14 (2.3e-14–0.31)
b 0.60 (2.4e-14–0.60) 4.5e-13 (2.6e-14–0.98)
Blumenau
IM (0) 26 (42–50) -
β 0.94 (0.86–1.01) 1.06 (0.59–1.06)
a 0.18 (2.2e-14–0.21) 1.1e-13 (2.8e-14–1)
b 0.23 ( 2.2e-14–0.25) 1.9e-13 (2.7e-14–1)
Rio de Janeiro
IM (0) 21 (15–50) -
β 2.25 (2.02–2.61) 1.04 (1.03–1.05)
a 0.89 (1.2e-11–1.00) 4.0e-14 (2.34e-14–4.0e-14)
b 0.85 (3.8e-12–1.00) 4.0e-14 (2.34e-14–4.0e-14)
New York City
IM (0) 50 (50–50) -
β 4.57 (4.57–4.59) 0.85 (0.85–0.86)
a 2.9e-14 (2.5e-14–1.4e-13) 2.3e-14 (2.3e-14 4.0e-14)
b 4.0e-14 (2.3e-14–1.2e-13) 2.3e-14 (2.3e-14 4.0e-14)
Table 1- Calibrated parameters for each city, Florianopolis, Blumenau, Rio de Janeiro and New York
City. The numbers in parentheses are 95% confidence intervals obtained using bootstrap.

elling, 2(3):379–398.
Diekmann, O., Heesterbeek, J. A. P., and Metz, J. A. J. (1990). On the definition and the compu-
tation of the basic reproduction ratio R0 in models for infectious- diseases in heterogeneous
populations. Journal of Mathematical Biology, 28(4):365–382.
Grasselli, G., Zangrillo, A., Zanella, A., Antonelli, M., Cabrini, L., Castelli, A., Cereda, D.,
Coluccello, A., Foti, G., Fumagalli, R., et al. (2020). Baseline characteristics and outcomes
of 1591 patients infected with SARS-CoV-2 admitted to ICUs of the Lombardy region, Italy.
JAMA, 323(16):1574–1581.
Guan, W.-j., Ni, Z.-y., Hu, Y., Liang, W.-h., Ou, C.-q., He, J.-x., Liu, L., Shan, H., Lei, C.-l.,
Hui, D. S., et al. (2020). Clinical characteristics of coronavirus disease 2019 in China. New
England journal of medicine, 382(18):1708–1720.
Huang, C., Wang, Y., Li, X., Ren, L., Zhao, J., Hu, Y., Zhang, L., Fan, G., Xu, J., Gu, X., et al.
(2020). Clinical features of patients infected with 2019 novel coronavirus in Wuhan, China.
The Lancet, 395(10223):497–506.
Keeling, M. and Rohani, R. (2008). Modeling Infectious Diseases in Humans and Animals.
Princeton University Press.
Kermack, W. O. and McKendrick, A. G. (1927). A contribution to the mathematical theory of
epidemics. Proc. R. Soc. Lond. A, 115(772):700–721.
Lauer, S. A., Grantz, K. H., Bi, Q., Jones, F. K., Zheng, Q., Meredith, H. R., Azman, A. S.,
Reich, N. G., and Lessler, J. (2020). The Incubation Period of Coronavirus Disease 2019
(COVID-19) From Publicly Reported Confirmed Cases: Estimation and Application. Annals
of Internal Medicine, 172(9):577–583.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

199
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Verity, R., Okell, L. C., Dorigatti, I., Winskill, P., Whittaker, C., Imai, N., Cuomo-Dannenburg,
G., Thompson, H., Walker, P. G., Fu, H., et al. (2020). Estimates of the severity of coronavirus
disease 2019: a model-based analysis. The Lancet Infectious Diseases.
WHO (2020). Report of the who-china joint mission on coronavirus disease 2019 (covid-19).
Wu, Z. and McGoogan, J. M. (2020). Characteristics of and important lessons from the coron-
avirus disease 2019 (covid-19) outbreak in china: summary of a report of 72 314 cases from
the chinese center for disease control and prevention. JAMA, 323(13):1239–1242.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

200
28 a 30 de Outubro de 2020
Universidade Federal de Tocantins
Palmas - TO

RESOLUÇÃO DE EQUAÇÕES DIFERENCIAIS ORDINÁRIAS FRACIONÁRIAS


USANDO O MÉTODO DA COLOCAÇÃO ORTOGONAL

Juliana Veiga Cardoso Fernandes de Lima1 - julianaveiga@ufu.br


Fran Sérgio Lobato2 - fslobato@ufu.br
Valder Steffen Jr3 - vsteffen@ufu.br
1,2,3 Universidade Federal de Uberlândia - Uberlândia, MG, Brasil

Resumo. Neste trabalho, o Método da Colocação Ortogonal é empregado para a resolução


de equações diferenciais ordinárias fracionárias. Em linhas gerais, a metodologia proposta
consiste na associação entre o Método da Colocação Ortogonal com a definição da derivada
fracionária do tipo Caputo. Neste cenário, a equação diferencial ordinária fracionária original
é transformada em um problema puramente algébrico não linear, cuja resolução é obtida a par-
tir da aplicação do Método de Newton. Os resultados obtidos com a aplicação da metodologia
proposta em equações puramente matemáticas demonstram a capacidade desta estratégia.

Keywords: Equação Diferencial Ordinária Fracionária, Método da Colocação Ortogonal,


Funções Matemáticas.

1. INTRODUÇÃO

O estudo do cálculo fracionário surgiu a quase trezentos anos atrás em uma troca de corres-
pondências em que Leibniz questiona L’Hôpital sobre a generalização da ordem inteira de uma
derivada. Ao analisar a pergunta, L’Hôpital responde Leibniz com um outro questionamento, a
saber, qual seria a interpretação se a ordem da derivada tivesse valor meio? (Oldham & Spa-
nier, 1974). A partir daı́, inúmeros matemáticos, dentre os quais destacam-se Euler, Lagrange,
Laplace, Lacroix e Fourier, se sentiram motivados a tentar estender o significado de uma ordem
inteira para uma ordem arbitrária (Camargo & Oliveira, 2015).
Neste contexto, começou-se o desenvolvimento de abordagens para o tratamento de de-
rivadas que apresentavam ordens fracionárias. A derivada de Grünwald-Letnikov, que é um
somatório de uma série infinita onde a ordem inteira foi substituı́da por uma arbitrária α,
configura-se como uma boa ferramenta para a resolução de problemas numéricos (Lorenzo
& Hartley, 1998). Em termos analı́ticos, as derivadas de ordens arbitrária de Riemann-Liouville
e Caputo são duas das definições mais usuais para aproximar termos diferenciais fracionários.
Em linhas gerais, a proposta de Caputo consiste em uma modificação na definição de derivada

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM - Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO - 28 a 30 Outubro 2020

201
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

fracionária proposta por Riemann-Liouville. Neste caso, a ordem referente aos operadores de
derivada e integral foram trocados. Assim, a definição de Caputo para uma derivada fracionária
passa pela avaliação de uma integral fracionária, que é representada por uma derivada de or-
dem inteira (Caputo, 1993). Além das citadas, também destacam-se as derivadas de Marchaud,
Chen, Hadamard, Riesz, Weyl, Osler, Hilfer, Davidson-Essex, Coimbra, Canavati, Cossar, Ju-
marie, Caputo-Hadamard, Hilfer-Katugampola, derivada pk, ρq-fracionária (Oliveira & Oli-
veira, 2018) e Ψ-Hilfer, sendo essa última uma generalização de vinte e duas outras derivadas
(Oliveira & Machado, 2014).
Na literatura especializada, inúmeros métodos analı́ticos e numéricos podem ser encon-
trados para a resolução de uma Equação Diferencial Ordinária Fracionária (EDOF) (Lin &
Liu, 2007). Numericamente, em linhas gerais, cada uma destas abordagens consiste no uso de
aproximações para as derivadas fracionárias de modo a reescrever o problema original em um
puramente algébrico, inerentemente, não linear (Podlubny, 1999).
Diante do que foi apresentado, a presente contribuição tem por objetivo desenvolver uma
ferramenta numérica para a resolução de EDOFs. Em linhas gerais, esta consiste da associação
entre o Método da Colocação Ortogonal (MCO) e a derivada do tipo Caputo. A metodologia
proposta é empregada para resolver problemas puramente matemáticos e que possuem solução
conhecida na literatura. Este trabalho está estruturado como segue. Na Seção 2. é apresen-
tada uma breve descrição matemática de algumas das principais aproximações para derivadas
fracionárias. A descrição do MCO para ambos os contextos inteiro e fracionários são apresen-
tados na Seção 3. A metodologia é apresentada na Seção 4. Os resultados são apresentados na
Seção 5., respectivamente. A última seção apresenta as conclusões deste trabalho.

2. DERIVADAS FRACIONÁRIAS

Nessa seção são apresentadas algumas definições básicas empregadas para a avaliação de
derivadas fracionárias.

2.1 Grünwald-Letnikov

A derivada fracionária segundo Grünwald-Letnikov (GL Dxα f (x)) de uma função genérica
f (x) foi introduzida por Anton Karl Grünwald (1867) e por Aleksey Vasilievich Letnikov (Mil-
ler & Ross, 1993). Essa formulação tem grande importância em problemas numéricos e está
baseada na generalização da diferenciação ordinária de ordem n ∈ N. A derivada fracionária
de Grünwald-Letnikov de ordem α (α ∈ R) de uma função f é definida através do limite de
uma série (Miller & Ross, 1993):
∞   !
α 1 X k α
GL Dx f (x) = lim (−1) f (x − kh) (1)
h→0 hα k
k=0

em que h é o tamanho do passo de integração e α é a ordem fracionária.

2.2 Riemann-Liouville

A derivada de Riemann-Liouville (RL Dxα f (x)) de uma função genérica f (x) é uma das
aproximações mais empregadas no cálculo fracionário. Esta é definida como segue (Miller &

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

202
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Ross, 1993):
 
n Zx
α d  1
RL Dx f (x) = n
(x − t)n−α−1 f (t)dt (2)
dt Γ(n − α)
0

em que Γ é a função Gamma e n é um número inteiro, definido como sendo n=[α]+1, em que
[α] é a parte inteira da ordem fracionária.

2.3 Caputo

A definição da derivada de Caputo (C Dα f (x)) de uma função genérica f (x) é baseada


na proposta por Riemann-Liouville, todavia, sendo mais restriva, visto que, por exemplo, a
derivada de uma constante é zero (Camargo & Oliveira, 2015), ao contrário do que ocorria na
derivada de Riemann-Liouville. As duas formulações são similares onde a diferença encontra-
se na ordem dos operadores de derivação ordinária e de integração fracionária, i.e., Caputo
propõe uma derivada de ordem não inteira utilizando o operador integral de Riemann-Liouville
de uma forma diferente à da definição da derivada de Riemann-Liouville. A derivada fracionária
segundo Caputo (C Dα f (x)) de uma função genérica f (x) é dada por (Miller & Ross, 1993):
Zx
α 1 dn f (t)
C D f (x) = (x − t)n−α−1 dt (3)
Γ(n − α) dtn
0

em que n é um número inteiro, definido conforme a derivada de Riemann-Liouville.

2.4 Chen

A derivada fracionária (Ch Dxα f (x)) de uma função genérica f (x) de acordo com a proposta
de Chen é (Miller & Ross, 1993):
 x 
Z
1 d 
α
Ch Dx f (x) = f (t)(x − t)−α dt (4)
Γ(1 − α) dx
0

3. COLOCAÇÃO ORTOGONAL

O MCO é baseado na definição de uma função de aproximação (geralmente uma função


polinomial), na qual sua solução numérica é avaliada considerando um determinado número
de pontos dentro do domı́nio de interesse, i.e., o Número de Pontos de Colocação ou N P C
(Villadsen & Michelsen, 1978). A equação original deve satisfazer a função de aproximação
nos pontos considerados, bem como nas condição inicial e de contorno (caso o problema em
questão seja de valor no contorno). Uma função ortogonal é usada para determinar a posição
ótima desses pontos no domı́nio X. Para esse objetivo, considere a seguinte relação recursiva
(Villadsen & Michelsen, 1978):
(ψ,η)
Πi (X) = (X + ψi )Πi−1 (X) + ηi Πi−2 (X) (5)

em que Π é uma função polinomial e ψ e η são coeficientes definidos a partir da aproximação


considerada.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

203
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

As raı́zes desta equação são obtidas considerando um polinômio ortogonal de grau N P C,


o peso W (X) e a seguinte condição de Galerkin (Villadsen & Michelsen, 1978):
Z1
(ψ,η)
W (X)(ψX + η)Πi (X) dX = 0, i = 0, ..., N P C − 2 (6)
0

Multiplicando a Eq.(5) por Πi−2 e integrando, a seguinte relação é obtida:


R1
XW (X)Πi−1 (X) Πi−2 (X) dX
0
ηi = − (7)
R1
W (X)Π2i−2 (X) dX
0

Analogamente, multiplicando a Eq.(5) por Πi−1 e integrando, o parâmetro ψ pode ser obtido,
i.e.:
R1
XW (X)Π2i−1 (X) dX
ψi = − 0 1 (8)
R
W (X)Π2i−1 (X) dX
0

Considerando, por exemplo, Πi−2 =0, Πi−1 =1, W (X)=1 e η1 =0, o procedimento acima pode
ser usado para calcular ψ e η e, consequentemente, determinar o polinômio ortogonal em N P C,
(ψ,η)
i.e., ΠN P C (X) (Laranjeira & Pinto, 2001). As raı́zes deste polinômio são tomadas como sendo
os pontos de colocação.
Sabe-se que a função de aproximação e os pontos de colocação podem ser escolhidos usando
abordagens diferentes. A metodologia do polinômio de Lagrange (PL) tem sido tradicional-
mente usada como uma função de aproximação. Essa escolha se deve à redução do custo
computacional associado à aproximação numérica dos derivativos em comparação com outras
aproximações (Laranjeira & Pinto, 2001).
Considerando o conjunto de pontos de dados (X1 , Y1 ), (X2 , Y2 ), ..., (XN P C+1 , YN P C+1 ),
uma fórmula de interpolação que passa por esses pontos (um polinômio de interpolação de
N P C-ésimo grau) é dada por:
NX
P C+1
YN P C (X) = Yi li (X) (9)
i=1

em que li (X) é o polinômio de interpolação de Lagrange definido como:


NP C+1
Y X − Xj
li (X) = (10)
j=1
Xi − Xj

Se o subscrito i for igual a j, li (X) é igual a 1. Caso contrário, li (X) é igual a 0. Como essa
aproximação é uma função contı́nua, ela pode ser diferenciada e integrada. Assim, a primeira
derivada para uma raiz especı́fica Xj pode ser expressa como:
NX
P C+1
dYN P C (Xj ) dli (Xj )
= Yi ,j = 1, 2, ..., N P C + 1 (11)
dX i=1
dX

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

204
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Substituindo essas aproximações no modelo original, é possı́vel obter expressões (residu-


ais) para cada ponto de colocação. Estes resı́duos devem ser minimizados para cada raiz do
polinômio ortogonal, i.e., devem ser zerados em cada ponto de colocação, bem como devem
satisfazer as condições iniciais e de contorno (caso o problema seja de valor no contorno).
O sistema algébrico resultante, geralmente não linear, deve ser resolvido considerando uma
técnica numérica apropriada, como por exemplo, o Método de Newton.
A seguir é apresentado um consolidado dos passos necessários para a aplicação do MCO
para a resolução de equações diferenciais ordinárias com ordem inteira:

1. Definir os parâmetros de entrada: domı́nio do problema, função peso para a determinação


do polinômio ortogonal, grau N P C da aproximação (o polinômio tem N P C+1 coefici-
entes);

2. Calcular o polinômio ortogonal de grau N P C+1-N C, onde N C é o número de condições


que precisam ser satisfeitas;

3. Calcular as N P C raı́zes (pontos de colocação) do polinômio ortogonal;

4. Determinar as equações (resı́duo nos pontos de colocação);

5. Resolver o sistema de equações resultantes;

6. Verificar se a solução obtida não é modificada com o aumento do grau da aproximação.

É importante ressaltar que, como o MCO apresentado é fundamentado no uso de um po-


linômio ortogonal, a variável independente no modelo diferencial ordinário deve estar definida
no intervalo [0 1] para que o MCO possa ser empregado. Caso isso não aconteça, inicialmente
deve-se realizar uma mudança de variável de modo que o modelo seja sempre integrado no
intervalo [0 1].
Finalmente, cabe ressaltar que a qualidade do resultado obtido é função da aproximação
considerada, sendo que um aumento excessivo do grau da mesma não, necessariamente, im-
plica na melhora da qualidade da solução obtida. Além disso, esse aumento pode ocasionar
um comportamento oscilatório nas proximidades de regiões onde a solução não experimenta
variações pronunciadas (Villadsen & Michelsen, 1978).

3.1 Extensão do MCO para o Contexto Fracionário

Na subseção anterior foi apresentado o algoritmo para a resolução de uma equação diferen-
cial ordinária com ordem inteira. Para a sua aplicação em um problema em que o termo dife-
rencial apresenta ordem fracionária, é necessária uma pequena adaptação no algoritmo. Neste
caso, a partir da definição da derivada fracionária a ser considerada, durante a caracterização
das derivadas considerando o PL no algoritmo, deve-se empregar uma das definições de deri-
vadas fracionárias para a representação deste termo. Com esta mudança, o algoritmo que antes
tratava apenas de derivadas inteiras, agora pode lidar com derivadas fracionárias. Para validar
a metodologia proposta serão analisados problemas puramente matemáticos e que apresentam
solução analı́tica, conforme apresentado e discutido na Seção 4.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

205
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

4. METODOLOGIA

A metodologia proposta neste trabalho é descrita a seguir.


• Para avaliar a qualidade da solução obtida, as quatro definições apresentadas na Seção 2.
são utilizadas para aproximar as derivadas fracionárias;
• Para validar a metodologia proposta para resolver uma EDOF e detalhada anteriormente,
três estudos de caso puramente matemáticos e que apresentam solução conhecida são
considerados. Neste cenário, a influência do número de pontos de colocação (N P C) é
avaliada. O sistema de equações resultantes da aplicação do MCO é resolvido conside-
rando o Método de Newton. Além disso, também calcula-se o somatório do módulo do
erro absoluto (Θ) considerando 100 pontos igualmente espaçados no domı́nio [0 1] em
cada um dos estudos de caso analisados.

5. RESULTADOS E DISCUSSÃO

5.1 Influência do Tipo de Derivada

Para avaliar a influência do tipo derivada considerada para avaliar o operador diferencial
α
d () para uma ordem fracionária arbitrária, seja a seguinte operação:
dα x2
(12)
dxα
Conforme a definição da derivada proposta por S. F. Lacroix (Oldham & Spanier, 1974), a
derivada de uma função polinomial (y m , onde m é o grau do polinômio), é dada por:
dα y m Γ (m + 1)
α
= xm−α (13)
dx Γ (m − α + 1)
Aplicando esta definição, a derivada fracionária para α igual a 1/2 e m igual a 2 da função
polinomial definida na Eq.(12) no intervalo [0 1] é igual a:
dα x2
= 1, 5045056x3/2 (14)
dxα
Para fins de comparação, a Fig.1 apresenta os perfis obtidos considerando as definições
descritas na Seção 2. para a função polinomial x2 . Nesta figura é possı́vel observar que, para a
função analisada, não existem diferenças significativas entre os perfis simulados considerando
cada um dos tipos de derivadas. Assim, como a metodologia proposta neste estudo tem como
objetivo empregar uma aproximação polinomial para a resolução de uma EDOF, qualquer uma
das definições apresentadas anteriormente pode ser empregadas sem prejuı́zo no que tange a
qualidade da solução.

5.2 Funções Matemáticas

Para avaliar a metodologia proposta, nesta seção são apresentados os resultados obtidos com
o MCO associado à aproximação de derivada de Caputo (Eq.(3)). Assim, considera-se a EDOF
de valor inicial genérica:
dα u
= f (t, u), u(0) = u0 (15)
dtα
Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

206
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Figura 1- Influência do Tipo de Derivada.

em que t e u representam os termos independentes e dependentes, respectivamente, α é a ordem


fracionária, f é uma função genérica que depende de ambas as variáveis e u0 é a condição
inicial.
Em termos de aplicação, consideram-se os seguintes estudos de caso:

• Estudo de Caso 1 - α=0,98 e u(0)=0,483648 (Jafari et al., 2013):

f (t, u) = 2u(t) − u(t)2 + 1 (16)

E solução aproximada:

u(t) = 0, 785674t4 − 2, 356597t3 + 1, 548207t2 + 1, 616525t + 0, 483648 (17)

• Estudo de Caso 2 - α=0,5 e u0 =0 (Ghomanjani, 2016):

2t1,5
f (t, u) = − u(t) + t2 (18)
Γ(2, 5)

E solução analı́tica:

u(t) = t2 (19)

• Estudo de Caso 3 - α=0,9999 e u0 =1 (Jafari et al., 2013):

Ta = −0, 98 (20)
√ √ √ √
f (t, u) = −u(t) + (1 + 2Ta ) cosh( 2t) + ( 2 + Ta )(sinh( 2t)) (21)

E solução analı́tica:

u(t) = cosh(21/2 t) − Ta sinh(21/2 t) (22)

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

207
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

A Tabela1 apresenta o somatório do módulo do erro absoluto (Θ) computado considerando


diferentes números de pontos de colocação (N P C). Nesta tabela percebe-se que a metodologia
proposta foi capaz de encontrar boas estimativas para os perfis em cada um dos estudos de caso
avaliados. Além disso, conforme esperado, quanto maior o número de pontos de discretização
(N P C), maior é a ordem do polinômio considerado e, consequentemente, menor é o erro co-
metido.

Tabela 1- Influência do N P C na qualidade da solução obtida pela metodologia proposta.

NP C Θ (Caso 01) Θ (Caso 02) Θ (Caso 03)


2 0,006301 0 0,000041
3 0∗ 0 0
4 0 0 0
5 0 0 0

Erros absolutos menores do que 10−12 .

6. CONCLUSÕES

O presente trabalho teve por objetivo propor uma aproximação numérica do tipo Caputo para
fins da aproximação dos termos fracionários em equações diferenciais ordinárias fracionárias
de valor inicial. Neste contexto, foram apresentados os resultados obtidos com a aplicação
da metodologia em três estudos de caso matemáticos cuja solução analı́tica (ou aproximada) é
conhecida. Em linhas gerais, foi possı́vel observar que a metodologia considerada foi capaz de
obter resultados consistentes com aqueles reportados considerando a comparação com a solução
analı́tica, conforme observado pelo valor do erro encontrado. Além disso, o aumento do número
de pontos de colocação implica na redução do erro obtido.
Finalmente, enfatiza-se que, apesar dos problemas abordados apresentarem caráter pura-
mente matemático, a metodologia apresentada pode ser empregada para modelos baseados em
fenômenos que acontecem na natureza. Como sugestões para trabalhos futuros pretende-se
expandir a metodologia para problemas diferenciais parciais fracionários.

Agradecimentos

Os autores agradecem o apoio financeiro da FAPEMIG, da CAPES e do CNPq.

REFERÊNCIAS

Camargo, R.F. e Oliveira, E. C., “Cálculo Fracionário”, Livraria Editora, São Paulo, 2015.
Caputo, M., “Lectures on Seismology and Rheological Tectonics”, Univ. degli Studi di Roma, La Sapi-
enza, 1993.
Ghomanjani, F., “A numerical technique for solving fractional optimal control problems and fractional
Riccati differential equations”, Journal of the Egyptian Mathematical Society, 24, 638-643, 2016.
Jafari, H., Tajadodi, H., Baleanu, D., “A modified variational iterationmethod for solving fractional
Riccati differential equation by a domain polyno-mials”, Fractional Calculus and Applied Analysis,
16, 109–122, 2013.
Laranjeira, P., Pinto, J.C. “Métodos Numéricos em Problemas de Engenharia Quı́mica”, Editora E-
Papers, 316, ISBN 85-87922-11-4, 1o ed., 2001.
Lin, R., Liu. F. “Fractional High Order Methods for the Nonlinear Fractional Ordinary Differential
Equation”. Nonlinear Analysis, Englewood Cliffs, 66, 856-869, 2007.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

208
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Lorenzo, C. F.; Hartley, T. T., “Initialization, conceptualization and application in the generalized fracti-
onal calculus”, n.NASA/TP-1998-208415, 1998.
Miller, K. S.; Ross, B. “An Introduction to the Fractional Calculus and Fractional Differential Equati-
ons”, Wiley-Interscience: John Wiley & Sons, 1993.
Oliveira, D. S, Oliveira, E. C., “On the generalized (k, ρ)-fractional derivative”, Progr. Fract. Diff. Appl.,
4, 133-145, 2018.
Oliveira, E. C., Machado, J. A. T., “A review of definitions for fractional derivatives and integral”. Math.
Probl. Eng., 1-6, (2014).
Oldham, K.B., Spanier, J., “The Fractional Calculus”, Academic Press, Nova York-Londres, 1974.
Podlubny, I. “Fractional differential equations”, San Diego: Academic PressSan, 1999.
Villadsen, J., Michelsen, M.L. “Solution of Differential Equation Models by Polynomial Approxima-
tion”. Prentice-Hall, Inc., Englewood Cliffs, N.J., 1978.

RESOLUTION OF FRACTIONAL ORDINARY DIFFERENTIAL EQUATIONS USING


THE ORTHOGONAL COLLOCATION METHOD

Abstract. In this work, to solve fractional ordinary differential equations the Orthogonal Collo-
cation Method (OCM) is used. The proposed methodology is given by the association involving
the OCM and the definition of the Caputo’s fractional derivative. In this scenario, the original
fractional ordinary differential equation is transformed into a non-linear algebraic problem that
is solved by using the Newton Method. The results obtained with the application of the proposed
methodology to mathematical equations demonstrate the efficiency of the strategy conveyed.

Keywords: Fractional Ordinary Differential Equation, Orthogonal Collocation Method, Mathe-


matical Functions.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

209
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

POLYMERIC MORTAR’S DEFICIENCY ANALYSIS

Danyelle Schumanski1 – schumanski@ufpr.br


Juliana Almansa Malagoli1,2 – juliana.malagoli@ufpr.br
Eliane Pereira de Lima1 – eliane.pereira@ufpr.br
1
Universidade Federal do Paraná – Centro de Estudos do Mar, Pontal do Paraná, PR, Brazil
2
Universidade Federal do Paraná – Pós-Graduação em Engenharia Elétrica, Curitiba, PR, Brazil

Abstract. The Covid-19 pandemic had a high influence over the civil construction. Basic
products that were available almost everywhere, are now difficult to find on stores, that’s the
cement’s case. The product is essential to construction, but can be replaced, depending on the
circumstance, as producing mortars, by the polymeric non-cement based mortars, such as
FCC’s Massa DunDun. An analysis using SWOT, PESTEL and GUT matrices showed that the
polymeric mortar is ecologically efficient, but has weaknesses and threats related to market’s
resistance, standards, investments and capability of production. This and other priorities were
reviewed and set in order of priority that considers what is most urgent, tends to pursue and
how severe the factor is. Curiously, some of the higher prioritized factors are related to
science’s outreach to non-scientific community.

Keywords: Polymeric Mortar, SWOT Matrix, PESTEL Matrix, GUT Matrix, Deficiency
Analysis, Material Sciences.

1. INTRODUCTION

Through the centuries, the human being has tried to organize his routine through
mechanical processes, which helps production lines to be faster and efficient. Tools were
developed in order to make the procedures of finding failures, and solving them, faster and
organized, some of this tools are shaped as data matrices, such as SWOT (strengths,
weaknesses, opportunities and threats), GUT (short-term in Portuguese for: severity, urgency
and tendency) and PESTEL (political, economic, social, technological, environmental and legal
factors). This three tools are similar but differently shaped and purposed. The SWOT matrix is
used to discover the problems in an easy viewing chart, for the GUT matrix, all the objects once
recognized can be measured with numbers, and the PESTEL matrix is a very good tool for the
same reasons as the SWOT, but it can give some other important data, that are very helpful to
create an intervention plan (Fernandes, 2012), (Rosero, 2018).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

210
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The polymeric mortar is an innovation of the construction sector that helps the bricklaying
process to get faster, but this single product is more effective than this: it’s also a good choice
for small repairs, wall paintings and waterproofing. As an innovation of the field, the polymeric
mortar goes through some challenges at the same time, such as the lack of standards to enforce
its quality, as well as to allow scientists and companies to show their clients data based on
researches (Rodrigues, 2017).

2. LITERATURE REVIEW

Cement is becoming a product of high cost: according to the São Paulo Construction
Industry Union’s economy vice-president (Sinduscon-SP), in interview for Valor (2020), the
prices are rising between 3 and 10%, what can cause problems for ongoing projects, due to a
pre-established budget.
The same product faces a difficult reality: cement is the most basic material for any project,
and the industries aren’t able to offer the same demanded amount. This happened because the
sector was expected to show the highest economy losses, due to COVID-19, but, against every
expectation, the civil construction sector is keeping strong and highly demanding of raw
materials. Tecchio also refers to the challenges to be faced by construction companies and
consumers by the lack of cement. Even facing challenges to obtain materials to work, the civil
construction market has risen a lot after the pandemic, some construction companies affirm that
during the first semester of 2020, 84% of all contracts happened after the 20th of March. (Cnn
Brazil1,2, 2020)

2.1 Polymeric mortar

Developed by the FCC group in Brazil and sold under the name of “massa Dundun”, the
polymeric mortars started to be crafted in the country and have its place in the market. A product
once created for bricklaying proved itself as a multitasking material that allow the final
consumer to paint, brick lay, develop small projects and repairs as well as use the product to
provide a waterproofing system to hard systems (hard systems are those without any kind of
movement of the structure when compared to its substrate) (Fcc1, 2020), (Nametala et al.,
2018).
The product is a non-cement mortar, composed by synthetic resins and mineral aggregates,
that uses nanotechnologies and provides better yield, low environmental impact, lower costs,
as well as easy application (Figure 1). It’s use can become an entire revolution in the
construction sector by replacing the conventional mortar for bricklaying processes, because, it
can also represent lower variability and allows the worker to focus on bricklaying without
needing to produce mortar and worrying about losing it in order of the conventional mortar’s
curing (Moreira, Vermelho, Zani, 2017) and (Calçada, 2014).

Figure 1- Application of polymeric mortar. (Reproduced of: Fcc2, 2020)


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

211
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 SWOT matrix

The SWOT matrix is a tool of easy viewing that provides the user a clear analysis of the
problems related to the analyzed material, by breaking its main characteristics in 4 groups:
strengths, weaknesses, opportunities and threats (Table 1). For strengths, all the good qualities
and properties of the product must be put in evidence, for weaknesses, everything that might be
a future problem or question the product’s reliability, for opportunities all the arguments that
can provide a better experience to the customer and for threats, everything that might question
the company’s reliability when it’s name is related to the product (Fernandes, 2012).

Table 1- SWOT matrix example.


S W
Quality 1 Problem 1
Quality 2 Problem 2
Quality 3 Problem 3
O T
Possible progress 1 Possible failure 1
Possible progress 2 Possible failure 2
Possible progress 3 Possible failure 3

2.3 GUT matrix

The GUT matrix will allow the user to craft a plan of action based on numbers that represent
how important that problem’s solution is, when compared to all the other issues for a same
subject. This matrix works as a spreadsheet where the analysis happens by attributing points
for each characteristic and multiplying them in the end (Equation 1). (Costa et al., 2017)

GxUxT = Final score (1)

That’s something possible to be done with the SWOT matrix, but the main difference is
between the kind of analysis: the GUT matrix analyses how fast each problem must be solved,
as well as which problem will be more effective of solving first in an easily comprehensible
matrix, what might be a difference when related to the SWOT method (Table 2).

Table 2- GUT matrix example.

Item G U T GxUxT Priority


A 1 2 3 6 1
B 0 2 1 2 2

2.4 PESTEL matrix

A third method can be used in both ways: the PESTEL matrix. This kind of matrix can be
used under the same structure of the SWOT and GUT methods, but using different elements of
analysis, but the PESTEL matrix represents another potential: linking problems from the
previous methods. This matrix is useful when combined to the SWOT method to understand a
same item under diverse perspectives, which can help the building and scoring for the GUT
model (Figure 2).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

212
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Damasceno and Abreu (2017), defends that the method is linked to understanding the
factors and using them as a tool of prioritizing them.

Figure 2- SWOT and PESTEL matrices related.

3. DEVELOPMENT AND DISCUSSION

Determining the points that need to be improved in a product might be a hard task, for that,
tools can be used in order to simplify the process. To analyze the polymeric mortar questions,
all the previous matrices described in the items 2.2, 2.3 and 2.4 will be used. First, the SWOT
and PESTEL matrices will be made, in order to understand the questions about the product,
later, the GUT matrix, where priorities can be defined.
According to Souza and Souza (2017), the polymeric mortar has shown higher resistance
to compression when compared to the conventional mortar (cement, water and sand based) and
it has shown higher resistance even when compared to concrete, as can be seen in the Table 3:

Table 3- Concrete, reference mortar and polymeric mortar’s mechanical properties


(Reproduced of: Souza and Souza, 2017)

Avaliated Properties Concrete Reference Mortar Polymeric Mortar


Medium resistance to
23,8 19,34 25,61
compression after 28 days (MPa)

Medium resistance to diametral


2,51 2 3,5
traction after 28 days (MPa)

Another authors such as Moreira, Vermelho and Zani (2017), affirm that the main problems
faced by the polymeric mortars can be related to the bricklaying workers, who affirms that the
product can be able to extinguish jobs and increase the unemployment rates in the country, but
the same authors see the product as an economic alternative to the conventional system and a
tool that can speed up the construction phase. Rodrigues (2017) comprehends problems beyond
the product: the industries responsible for the polymeric mortar’s production are, in many cases,
small businesses, what can cause difficulties in providing material for bigger enterprises in
reason of the manufacturer's capability, that is related to the human and machinery resources
available. With this information provided, the SWOT matrix can be set (Table 4).
After the exhibition of the items related to the polymeric mortar’s characteristics as a
material and as a product, the PESTEL matrix can be helpful in order to understand where
this items can exert some kind of influence (Table 5).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

213
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 4- SWOT matrix analysis about the polymeric mortar.


Strengths Opportunities
a) Resistance; a) New jobs;
b) Low formula variability; b) More constructions;
c) Speed; c) Increase in laborer’s health;
d) Labour quality; d) Reduction of waste.
e) Ecological advantage.
Weaknesses Threats
a) Laborer’s oppinion; a) Company’s low capability of
b) Resistance of the market; production;
c) Habit; b) Low investments in research;
d) Standards. c) Low investments in awareness.

Table 5- PESTEL analysis about the polymeric mortar.

Factor SWOT property


a) The lack of standards and legislation that comprehend the polymeric
mortar can be a space to allow companies to use variations of formula
that doesn’t correspond to the expected standards of quality;
Political
b) When talking about market resistance, in order to keep using the
traditional mortars, the product can’t find it’s path to become more
accessible.
a) For the economical aspects, the main question is the limitation of
production, as well as the increase of unemployment taxes, that can affect
negatively the community in general, what needs to be considered is the
tax resultant of the reason between the jobs that exist now and will be
Economical
extinguished and the new jobs that will be generated by this new industry.
b) Another point to be considered is the economy of resources during the
construction process that can be used as a space to more profit or, to
provide more accessible buildings.
a) The labour quality can be improved by not needing to carry too much
weight, avoiding future problems related, for example, to the spine;
b) Constructions can be finished faster and occupy it’s function earlier
Social than they can at the moment;
c) The investments in research and awareness can cause a new habit,
which is positive for the industries and for the environment, since the
polymeric mortar generates less waste.
a) Investments in research can turn the material into a strong product, as
Technological well as can improve the material to reach higher standards, since the
interest for the subject can show growth.
a) The material waste in constructions is high. Architectural movements
such as passiv haus intend to reduce this losses to zero, the polymeric
mortar can be an option for this kind of systems as well as to be used and
Environmental
avoid costs of recycling, since it generates a very small amount of waste,
mostly related to it’s packing, but, this can be another point of review in
the future.
a) The creation of legislation and standards can assure the costumer that
Legal
the product is safe and worthy of trust.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

214
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

With the development of all the therms of the matrices, the GUT matrix will be
responsible for creating priorities to solve weaknesses and threats. For that, points from 1 to
10 will be given to each weakness and threat, according to the category. Priorities will be
given to the properties in numbers from 1 to 7 this priority list is a suggestion of order to
solve each problem (Table 6).

Table 6- GUT analysis about the polymeric mortar.

Property Severity (G) Urgency (U) Tendency (T) GxUxT Priority


Laborer’s oppinion 7 8 10 560 2

Resistance of the market 9 6 6 324 4


Habit 4 3 7 84 6
Standards 10 9 4 360 3
Company’s low capability of
6 6 2 72 7
production
Low investments in research 8 7 2 112 5
Low investments in awareness 10 10 7 700 1

Given the results of the matrices, the main suggestion is that each problem is solved in the
corresponding order from number 1 (most urgent, severe and tendentious to continue) to 6 (less
capable of persisting), but the order can be affected by the budget available to solve them. In
the case of low budget, the suggestion is use the priority orther and solve each item according
to the Table 6 from the less to the most urgent.

4. CONCLUSIONS

Polymeric mortar is a material of great perspective, interesting cost in general and if


compared to the traditional cement, sand and water-based mortar, once the product is not
affected by the cement’s prices, it’s qualities are beyond technological advances: they are also
environmentally interesting. According to Engenharia 360 (2013), the polymeric mortar is also
efficient to reduce the emission of CO2 to the atmosphere, to improve yield and labour quality,
this way, the product can be seen as a very good choice to replace different mortars for
bricklaying.
The challenges to be faced are mostly related to population’s consuming habits, but with a
lot of effort, investment in research and awareness, this scenario can be changed soon, which is
a positive step for the polymeric mortar to succeed and become an even more popular material
with lower costs and high accessibility for costumers. Other researches are highly
recommendable, such as: methods to improve polymeric mortar’s production, turning it into a
faster process able to fulfill all the market gaps left by the conventional mortars and a market
analysis to comprehend the evolution of polymeric mortar’s behavior/relationship with
costumers over the years.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

215
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

Calçada, P; A. B. (2020). “Estudo dos processos produtivos na construção civil objetivando


ganhos de produtividade e qualidade”. 90 p. TCC (Graduation) – Civil Engineering School,
Polytechnic School, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2014. Chap. 4.
Available at: http://monografias.poli.ufrj.br/monografias/monopoli10011841.pdf. Access
in: 30 sept. 2020.
Cnn (Brazil)¹, (2020). “Falta até cimento: lojas de construção sofrem com desabastecimento
de insumos”. Available at: https://www.cnnbrasil.com.br/business/2020/08/28/falta-ate-
cimento-lojas-de-construcao-sofrem-com-desabastecimento-de-insumos. Access in: 30
sept. 2020.
Cnn (Brazil)², (2020). “Construtoras aceleram vendas durante a pandemia, diz pesquisa da
CBIC”. 2020. Available at:
https://www.cnnbrasil.com.br/business/2020/07/01/construtoras-aceleram-vendas-durante-
a-pandemia-diz-pesquisa-da-cbic. Access em: 30 sept. 2020.
Costa, et al. (2017). “GUT matrix application in solid waste integrated management of the city
of Recife-PE”. Vol. 10, No.2. Recife. p. 201-213.
Damasceno, V. S.; Abreu, Y. V. (2020). “Evaluation of wind energy in Brazil using SWOT and
PESTEL analysis”. Interações (Campo Grande), Campo Grande, v. 19, n. 3, p. 503-514,
Sept. 2018. Access on 02 Oct. 2020. http://dx.doi.org/10.20435/inter.v19i3.1649.
Engenharia 360, (2013). “Massa DunDun: a inovação da argamassa”. Available at:
https://engenharia360.com/massa-dundun-a-inovacao-da-argamassa/. Access in: 30 sept.
2020.
Fcc¹. (2020). “O Produto”. [S.I.], Disponível em: <https://massadundun.com.br/o-produto/>.
Fcc². (2020). “Exemplo de aplicação da argamassa”. [S.I.], Available at:
https://massadundun.com.br/>.
Fernandes, D. R. (2012) “A look into the SWOT analysis as a tool of strategic planning”. v.13,
n.2. Londrina. p. 57-68.
Moreira, A. A., Vermelho, L. C., Zani, M. C. (2017) “Estudo da Argamassa Polimérica de
Assentamento de Blocos e Tijolos SegundoAspectos Técnicos, Econômicos, Mercadológicos
e de Clima organizacional”. Vol. 38, n. 53, p.14-14.
Nametala, A. C. L. et al. (2018). “Análise do desempenho da argamassa polimérica em
alvenarias de vedação e pesquisa de mercado pertinente na região de Viçosa- Minas Gerais”.
Revista Científica Univiçosa, Viçosa, v. 1, n. 10, p. 786-792, dec. 2018.
Rodrigues, J. N. (2017) “Empreendedorismo e viabilidade de criação de uma empresa de
impermeabilização na construção civil”. Palhoça-SC. 40 p. TCC.
Rosero, E. I. (2018) “Análises entorno estratégico modelo PESTEL – 5 fuerzas de matriz IFA
– matriz FODA – modelo VRIO PORTER- matriz IFA – matriz FODA – modelo VRIO”.
Bogotá. 38 p. TCC.
Souza, M. H., Souza, R. A. (2017) “Análise das propriedades de uma argamassa de reparo de
base acrílica”. Ed. Especial-Setembro. Paraná, 2017. 10 p. ISSN 2358-5420.
Valor. (2020). “Entidades do setor de construção divulgam manifesto contra aumento do
cimento”. 2020. Available at:
https://valor.globo.com/empresas/noticia/2020/07/15/entidades-do-setor-de-construo-
divulgam-manifesto-contra-aumento-do-cimento.ghtml. Access in: 30 sept. 2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

216
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

DATA MINING APPLIED TO SUBSEA OPERATIONS IN THE OIL AND GAS


INDUSTRY

João Durval de Oliveira Alves Machado 1 - joao durval@yahoo.com.br


Gustavo Lemos Schwartz1 - gustavolschwartz@gmail.com
Henrique Rego Monteiro da Hora 1 - dahora@gmail.com
Rogerio Atem de Carvalho1 - ratembr@gmail.com
1 Instituto Federal de Educação, Ciência e Tecnologia Fluminense - Campos dos Goytacazes, RJ, Brazil

Abstract. Contemporary industry is increasingly adding new technologies and methods to


assist in strategic decision making. Offshore oil exploration requires faster and more accurate
decisions to optimize production and meet huge demand. Data mining is a field that allows the
interpretation of databases collected over time, and give them meanings to point out flaws and
optimize processes. In this work, two data mining techniques (Classification and Association)
were used to understand a database of operations carried out by a company in the oil and gas
sector over almost five years. The data were analyzed from the perspective of operations and
possible causes for the low performance in some of these operations have been proposed.

Keywords: Data Mining, Production improvement, Subsea, Oil and gas

1. INTRODUCTION

For the first time in history, the population in the world that has no access to electricity
has dropped to less than a billion people. Since the 1950s, energy consumption has been
increasing annually. It is also predicted that, by 2040, there will be an increase in energy
demand worldwide, most of this growth will occur in Asia and Africa, and more moderately in
South and Central America, and around 32% of all the energy consumed comes from oil and its
derivatives (BAI; BAI, 2010; IEA, 2018).
Oil can be found, basically, in two different environments: onshore wells or in offshore
wells. In 2015, almost 30% of all oil produced in the world came from marine wells (EIA,
2016a).
According to Bai and Bai (2010), the offshore oil and gas industry started in 1947, when
Kerr-McGee successfully completed the first underwater well in the Gulf of Mexico, near
Louisiana, at a depth of only 4.6 meters. At that time the equipment was still kept on the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

217
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

surface. It was only in early 1970s that the submarine field concept was proposed, so, with all
the technological advances, the equipment started to be installed on the seabed. This was the
beginning of what it is called today Subsea Engineering.
In Brazil, considering the difficulty of finding onshore wells that could meet the demand,
maritime explorations started in the second half of the 1960s. In 1968, explorations began on
the maritime platform of northeastern Brazil and in 1971 in Campos Basin (MORAIS, 2013).
The exploration and production of oil in offshore wells face several technical challenges, as
mentioned by Morais (2013), such as: a) Climatic conditions in the marine environment and in
rocks below the seabed; b) The great distances between the platforms or ships and the seabed,
and from the those to the continent; c) The lack of visibility of operations performed at sea.
Morais (2013) also points out that, all these factors combined make research and
development relevant elements for the exploration and production of oil in increasingly deep
waters. Although technological advances have made it possible to operate in several deep-water
fields, these still have high risks and operational costs.
The distance between the vessel (ship, rig) and the seabed can also be called water depth.
The EIA (2016), classifies these depths in shallow water (up to 125 meters), deep water (from
125 to 1,500 meters) and ultra-deep water (from 1,500 meters). During the years 2005 and
2015, there was an increase in oil production in deep and ultra-deep waters, especially due to
technological advances that made possible investments previously impossible. Brazil stands out
as a leader in investment in deep and ultra-deep-water projects (EIA, 2016b).
According to ANP (2019), subsea fields in Brazil are responsible for 96% of all oil and
83.1% of all gas produced in the national scenario.
Systems comprised of a well and equipment installed below the water’s surface are called
subsea production systems. These systems are associated with different equipment and stages
of the process, such as drilling, operation and intervention. Figure 1 shows the example of a
submarine production system that uses a Wet Christmas Tree - equipment that consists of a set
of valves that guides the flow of production and annular bores.

Figure 1- Subsea production system (Bai e Bai, 2010, p. 8).

Once the production - or injection - of a well starts, the group of interventions carried out
in it with the aim of improving production - or injection - making changes to the equipment, or
abandoning the well, for example, are called workover. For Bai and Bai (2010), although there
are similarities in exploration in shallow and deep water, the depth factor adds an extra element
of complexity, making workover operations more costly.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

218
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

This paper aims to analyze a database of operations of a company in the oil and gas sector
over almost five years, using data mining techniques to find rules and patterns to assist in
decision making in order to improve future operations results.
The article is divided into five chapters, including this Introduction, Methodology, Results
and Discussion, in addition to the Bibliographic References. The Introduction presents a context
about the object of study and the objective of the work, in the subchapter, it presents the research
technique used. The Methodology demonstrates how the technique was applied and subdivided
into the two types of data mining, then subdivided again into the specific applications carried
out. The Results section displays the products of the applied techniques, subdivided in the
same way as the Methodology chapter. The Discussion section debates and analyzes the results
obtained and probable causes of unsuccessful operations, as well as, possible improvements in
the studied processes.

1.1 The research

Data mining is a recent research field that aims to extract information from a structured
database in order to optimize or find flaws in processes, or to recognize consumption patterns,
for example. In most cases, up to 50% of the data mining work is limited to treating the data in
advance so that it can be analyzed by the algorithms (OLSON; DELEN, 2008). Data cleaning
aims to eliminate inconsistencies in the database, such as: incomplete records, wrong or missing
values, etc. (CAMILO; SILVA, 2009). There are several types of algorithms for data mining,
it was applied two of them in this research: a Classification algorithm and an Association one.
The Classification algorithm used was C4.5 for being one of the most used, and the Association
was Apriori, for the same reason mentioned above (WU et al., 2008). The main indicator used
by the Apriori algorithm was the confidence factor, which can be defined as:

P
(X ∪ Y )
conf (X =⇒ Y ) = P (1)
(X)
that is, an estimate of the probability that a rule is correct (HAHSLER et al., 2005).
Association rules are widely applied by the industry to find any relationship between any two
or more attributes of the database, as can be seen in the work of Istrat and Lalić (2017), as well as
to assist the production performance management of a manufacture (LIN et al., 2019), or to find
consumption patterns that assist in the strategic decision making of a company (SULIANTA;
LIONG; ATASTINA, 2013).
The oil and gas industry has accumulated, over the years of its existence, a large volume
of information that is ideal for data mining applications. Although most of this data is related
to seismic, there are opportunities to explore other areas such as the relationship between the
equipment used and the production of oil and gas, although the latter presents greater challenges
(RUIDONG et al., 2018).
This work will try to improve processes based on the detection of recurrent failures that
make evident some problem in the process.

2. METHODOLOGY

In the database used in this work, the data cleaning process was necessary to remove
redundant attributes, which hinder the mining process by revealing obviosities, irrelevant

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

219
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

attributes for the analysis and converting some types of attributes for better performance of
the algorithms. This last step is better known as Data transformation.
The database used describes operations carried out by an Oil and Gas company, which will
be referred as Company X. These operations have several attributes, which have undergone data
cleaning and transformation, leaving the following attributes at the end:

• Management - Sector of the client responsible for the operation. Divided into two, called
Management A and Management B.

• Equipment - Target equipment of the operation. Altogether, there are 10 pieces of


equipment:

1. ANM – Wet Christmas Tree;

2. TH-CS - Tubing Hanger with Simple Completion;

3. BAP - Production Adapter Base;

4. TCAP - Tree Cap;

5. NA - Undefined equipment, appearing only in intervention operations;

6. TH-CI - Tubing Hanger with Intelligent Completion;

7. TH - Tubing Hanger without model definition;

8. ANM Dual - Dual Wet Christmas Tree;

9. TCAP-H - Horizontal Tree Cap;

10. TH-H – Horizontal Tubing Hanger.

• Phase - Refers to the type of operation that will be performed, which may be Installation
(I), Retrieval (R) or Workover (WO), which represents an intervention.

• LDA - Water slide on which the operation was performed. Classified in 4 groups: 1 (up to
500 meters in depth), 2 (from 501 to 1000 meters in depth), 3 (from 1001 to 2000 meters
in depth) and 4 (depth greater than 2000 meters).

• Reference Time - Time used as a reference for the operation, on which the target is based.
It varied between approximately 31 and 202 hours.

• Did it reach the goal? - Main target of the analysis. Describes whether the operation hit
the time target or not.

The data mining software used was Weka (Waikato Environment for Knowledge Analysis),
created by the University of Waikato in New Zealand. This software differs from the others by
its ease of use and learning in the most diverse types of algorithms. It is worth noting that the
C4.5 classification algorithm is called J48 in Weka (“J48”, 2019).
The Database was written in Portuguese, so the attributes on the images are in this language,
however its explanation is made in the body of text in English.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

220
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.1 Classification

More than one configuration of the J48 algorithm was used to build decision trees, to try to
obtain the greatest variety of possible results for analysis.

Decision Tree 1 In the first application of the algorithm, the following attributes were used:
Management, Phase, LDA, Reference Time and the outcome “Did it reach the goal?”. In
applying this algorithm, we chose to discretize the “Reference Time” attribute in six groups:
(-inf; 60], (60; 88], (88; 119], (117; 145], (145; 173] and (173; inf).
The configuration of the J48 algorithm was: “weka.classifiers.trees.J48 -C 0.25 -M 2”,
highlighting the confidence factor for tree pruning by 25% and the minimum number of
instances per leaf equal to 2.

Decision Tree 2 Decision Tree 2 was also generated from the following attributes: Phase,
Reference Time, Management, LDA and the outcome “Did it reach the goal?”. This time, it
was decided not to discretize the Reference Time attribute. The J48 algorithm followed the
same configuration as Decision Tree 1, since it delivered a better result when compared to
others.

2.2 Association

The attributes analyzed were: Management, Phase, LDA, Reference Time and the outcome
“Did it reach the goal?”. In applying this algorithm, it was necessary to discretize the
“Reference Time” attribute in six groups: (-inf; 60], (60; 88], (88; 119], (117; 145], (145;
173] and (173; inf).
The association rules were obtained through the Apriori algorithm with the following
configuration: “weka.associations.Apriori -N 500 -T 0 -C 0.6 -D 0.05 -U 1.0 -M 0.1 -S -1.0
-c 5”, highlighting the maximum number of 500 rules and a minimum confidence factor of
60%.

3. RESULTS

This section presents the results obtained with the techniques applied in the previous chapter
and is subdivided according to the type of data mining algorithm applied.

3.1 Classification

Two decision trees were generated using the C4.5 (or J48) algorithm, as explained in the
Methodology section. These trees are explained in the following subchapters.

Decision Tree 1 Figure 2 shows Decision Tree 1 resulting from the application of the J48
algorithm. The branch highlighted in Figure 3 called attention, where it was noticed that when
the reference time was greater than 173 hours, the operation used to not meet the target. This
rule has a reliability of 67.7% (the rule is valid for 21 of the 31 cases).
It was also noticed that when the reference time was less than or equal to 60 hours and the
LDA was equal to 4, the operation had a tendency to hit the target, as highlighted in Figure 4.
This rule has a reliability of 76.9% (a rule is valid for 10 out of 13 cases).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

221
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- Decision Tree 1. Source: Authors.

Figure 3- First highlight of the Decision Tree 1. Source: Authors.

Figure 4- Second highlight of the Decision Tree 1. Source: Authors.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

222
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Decision Tree 2 Figure 5 represents Decision Tree 2, the result of the application of the
J48 algorithm through the Weka software, using the attributes and configurations previously
mentioned.

Figure 5- Decision Tree 2. Source: Authors.

Among the results obtained with Decision Tree 2, it is highlighted what is represented by
Figure 6.

Figure 6- First highlight of Decision Tree 2. Source: Authors.

The result shown in Figure 6 demonstrates that, in intervention operations in subsea


equipment installed in a water depth of up to 1000 meters, the goal was reached less often.
While, in operations carried out at greater depths, that is, those from 1000 meters of water
depth, the target was reached more regularly. This rule has a reliability of 72.7% (it was valid
in 64 of the 88 cases).
Another relevant data can be found in Figure 7.

Figure 7- Second highlight of Decision Tree 2. Source: Authors.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

223
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

It can be seen in Figure 7 that the Tree Cap Withdrawal operations were directly affected
by the department of the customer responsible for the service. Although few operations were
carried out with Management B, all of them were successful in reaching the goal, while
operations under the responsibility of Management A have mostly negative results.

3.2 Association

The application of the Apriori algorithm returned 90 rules that satisfied its parameters,
however many of them obtained a confidence factor equal to 100%, demonstrating their
triviality. Other rules could also be explained by the context of the operations, not being so
relevant for the analysis.
Rules that were not related to the outcome (reaching the goal) were also discarded, leaving
only two highly relevant rules for analysis:

• Phase = ITH-CS (66) =⇒ Did it reach the goal? = NO (41) < conf : (0.62) >;

• LDA (Legenda) = 2 (63) =⇒ Did it reach the goal? = NO (41) < conf : (0.65) >.

The numbers in parentheses reveal the number of occurrences of the instance and “conf”
represents the confidence from 0 to 1.
The first rule says that in 66 operations of Installation of Tubing Hanger with Simple
Completion, 41 times the target was not reached, indicating that these operations do not reach
the expected result in approximately 62% of the time.
The second rule says that in 63 operations carried out in LDA 2 (between 501 meters and
1000 meters) 41 did not reach the target, that is, 65% of the operations that occur in this water
depth are not successful.

4. DISCUSSION

The volume of data processed refers to 338 operations carried out over almost five years.
Due to this large amount of information, the use of data mining techniques was essential for the
discovery of certain results.

4.1 Classification

The following subsections analyzes the results of the Decision Trees generated by the C4.5
(J48) algorithm.

Decision tree 1 Decision tree 1 provides, in particular, two pieces of information that are not
totally clear at first. The first result, highlighted in Figure 3, indicates that, although there
were operations with a very high Reference Time, above 173 hours, these operations tended not
to have good results. This can happen for a few reasons, such as: a) Lack of more accurate
planning, as it is believed that there will be enough time to carry out the operation; b) The
fact of having a high Reference Time can indicate that the operation to be carried out has great
complexity, being necessary to negotiate with the client an even longer time.
The second relevant result found in this same tree - Figure 4 - points out that the results
obtained in operations where the Reference Time was less than 60 hours tended to be positive
when the service was performed in deeper water depths, with a size greater than 2000 meters.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

224
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Whereas, operations that had this same time range and smaller depths obtained negative results
most of the time. This result was unexpected, since greater depths should bring more complexity
to the operation, the time required to reach the equipment installed on the seabed makes the
operation take longer. Some hypotheses are raised for this outcome: a) As they are considered
more complex operations, since they have a large water depth and a short time, there is more
attention to the planning and selection of the team that will perform the service; b) Operations
carried out at shallower depths tend to be considered simpler, therefore they do not receive due
attention and are more susceptible to failures; c) Operations carried out at shallower depths
are considered less complex by the customer and, thus, less than enough time is available for
execution; d) Tasks performed at great depths are usually serviced by more modern vessels, so
they operate quicker and with fewer problems.

Decision tree 2 As in Decision Tree 1, Decision Tree 2 also presented relevant results.
Highlighted in Figure 6, the first of these results can be seen. It is observed that in interventions
(Workover) performed in water depths up to 1000 meters, the results tended to be negative, not
reaching the goal, while operations of the same type performed in water depths above 1000
meters most often had positive results. This is assumed to be due to the possible factors, such
as: a) Greater attention during the planning period of the operation, due to greater depth, as
well as selection of more experienced staff; b) Modern vessels are selected to perform these
operations; c) Better negotiation with the client, so that the time available is enough to carry out
the work.
Figure 7 presents the second relevant result obtained from Decision Tree 2. It is observed
that the same operation had negative results when carried out with Management A, but presented
positive results when carried out with Management B. the number of operations carried out with
Management B is small, only three, it is worth noting the fact that the results are reversed.
This can happen due to the following factors: a) Better relationship between supplier and
customer with Management B in comparison to Management A; b) Development of a plan
more consistent with what is necessary with Management B.

4.2 Association

Among the ninety rules generated using the Apriori algorithm, two were relevant for this
work. The first rule indicates that Installation of Tubing Hanger with Simple Completion
operations used to not reach the goal 62% of the time. Some reasons can lead to this result,
such as: a) Older equipment since, this type of Tubing Hanger presents an older technology.
Thus, more attention should be paid to the maintenance of these; b) Older inspections carried
out for the release of this equipment for later use may not be sufficient, since in most cases they
are older equipment. A different inspection and testing procedure could solve this problem.
The second rule highlighted during the Association process indicates that in operations
carried out at depths between 501 and 1000 meters, the results were negative, not reaching
the goal, 65% of the time. This value presents a result considered bad, mainly because it refers
to operations performed on relatively small water depths. Some factors can explain this result,
such as: a) Selection of a less experienced team for such operations, as these are considered
less complex; b) Lack of better negotiation with the departments responsible for operations that
occur in that depth range; c) Use of less modern vessels, due to the small depth, which can
impact the result.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

225
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. Conclusion

This work differs from the others that use data mining in the industry for allowing the
analysis of probable causes and possible low performance solutions in complex offshore
operations. With this analysis, it becomes possible to improve the performance of these highly
costly operations, optimizing the time and expenditure involved.
For future work, it’s proposed to consider other parameters such as composition of the team
and rig or vessel where the work is performed. It is also suggested to analyse the results of the
application of the knowledge developed here in the planning of next jobs.

REFERENCES

ANP. (2019), Boletim da Produção de Petróleo e Gás Natural. Available in:


<http://www.anp.gov.br/arquivos/publicacoes/boletins-anp/producao/2019-04-boletim.pdf>. Access
in: july 14 2019.
Bai, Y.; Bai, Q. (2010), “Subsea engineering handbook”, Gulf Professional Pub, Burlington, MA.
Camilo, C. O.; Da Silva, J. C. (2009), “Mineração de Dados: Conceitos, Tarefas, Métodos e
Ferramentas”, Universidade Federal de Goiás. Available in:
<http://www.portal.inf.ufg.br/sites/default/files/uploads/relatorios-tecnicos/RT-INF 001-09.pdf>.
Access in: dec 7 2019.
EIA. (2015), “Offshore production nearly 30% of global crude
oil output in 2015”, Today in Energy, U.S. Energy Information Administration (EIA). Available in:
<https://www.eia.gov/todayinenergy/detail.php?id=28492>. Access in: july 14 2019.
EIA. (2019), “Offshore oil production in deepwater and ultra-deepwater is increasing”, Today in
Energy. Available in: <https://www.eia.gov/todayinenergy/detail.php?id=28552>. Access in: july
14 2019.
Hahsler, M. et al. (2005), “Introduction to arules – A computational environment for mining association
rules and frequent item sets”. p. 37.
IEA. (2018), “World Energy Outlook 2018”. p. 17.
Istrat, V.; Lalic, N. (2017), “Association Rules as a Decision Making Model in the Textile Industry”, v.
25, n. 4, p. 8–14.
Weka Documentation. (2019), “J48”. Available in:
<https://weka.sourceforge.io/doc.dev/weka/classifiers/trees/J48.html>. Access in: dec 7 2019.
Lin, H. K. et al. (2019), “Association rules mining in R for product performance management in industry
4.0”, Procedia CIRP, v. 83, p. 699–704.
De Morais, J. M. (2013), “Petróleo em águas profundas: uma história tecnológica da PETROBRAS na
exploração e produção offshore”, IPEA, Brası́lia.
Olson, D.; Delen, D. (2008), “Advanced Data Mining Techniques”.
Ruidong, Z. et al. (2018), “The Research of Big Data Analysis Platform of Oil & Gas Production”,
Offshore Technology Conference Asia, In: OFFSHORE TECHNOLOGY CONFERENCE ASIA,
Kuala Lumpur, Malaysia. Available in: <http://www.onepetro.org/doi/10.4043/28346-MS>. Access
in: nov 3 2019.
Sulianta, F.; Liong, T. H.; Atastina, I. (2013), “Mining food industry’s multidimensional data to produce
association rules using apriori algorithm as a basis of business strategy”, International Conference
of Information and Communication Technology (ICoICT).
Wu, X. et al. (2008), “Top 10 algorithms in data mining”, Knowledge and Information Systems, v. 14,
n. 1, p. 1–37.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

226
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

UM ESTUDO DE CASO DE METAHEURÍSTICAS PARA REALIZAÇÃO DO


REDESPACHO DE POTÊNCIA ATIVA PARA MELHORIA DA ESTABILIDADE
TRANSITÓRIA

Lorrana Faria da Rocha1 – lorrana.faria@engenharia.ufjf.br


Natã Franco Soares de Bem2 - nata.francosoaresdebem@newcastle.edu.au
Marlon José do Carmo3 – marlon@cefetmg.br
1
Universidade Federal de Juiz de Fora, PPEE, José Lourenço Kelmer s//n, 36036-900
Juiz de Fora – MG.
2
Academic School of Electrical Engeneering and Computing – The University of Newcastle –
Austrália. University Drive Callaghan NSW 2308 – Austrália.
3
Centro Federal de Educação Tecnológica de Minas Gerais – Campus III – Departamento de
Eletroeletrônica. Leopoldina, MG, Brasil.

Resumo. A estabilidade transitória é um fator de mérito em um sistema elétrico de potência.


Através deste tipo de estabilidade, se determina a margem de segurança dinâmica do sistema.
Neste sentido, este trabalho propõe a utilização de metaheurísticas no redespacho de
potência ativa visando à melhoria da estabilidade transitória. Foi utilizado um sistema de
teste de 9 barras para verificar a metodologia de busca por metaheurísticas. Para isso,
simulou-se o sistema elétrico para a aplicação do redespacho de potência, onde perturbações
do tipo curto-circuito foram implementadas. Foi determinada uma cofiguração onde se
identifica instabilidade transitória. Foram utilizadas as metaheurísticas: Algoritmo Genético,
Otimização por Enxame de Partícula e Procura Cuco para determinação da quantidade de
gerações necessárias, dentro de certos limites estabelecidos neste trabalho. No algoritmo
genético, utilizou-se uma probabilidade de cruzamento de 60% com uma taxa de mutação de
0,7. Para a procura cuco, utilizou-se uma probabilidade de rejeição de 30%. Já para o
enxame de partículas, as constantes C1 e C2 foram 1,5 e 2,5, respectivamente. Todas as
metaheurísticas convergiram e trouxeram a estabilidade transitória do sistema elétrico
proposto.

Palavras-chave: Metaheurísticas, Otimização, Estabilidade Transitória, Sistemas de elétricos


de Potência.

1. INTRODUÇÃO

Para obedecer aos padrões impostos pela Agência Nacional de Energia Elétrica -
ANEEL, os sistemas elétricos de potência (SEP) precisam operar de forma segura. A análise
de segurança de um SEP é dividida em dois eixos: a análise de segurança estática e análise de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

227
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

segurança dinâmica. Na análise de segurança estática é visto se o sistema continua operando


dentro dos limites de tensão, carregamento e frequência após sofrer uma perturbação. Na
análise de segurança dinâmica é visto se o SEP é capaz de suportar a perturbação imposta a
ele (Theodoro, 2010).
A segurança dinâmica é dividida em três aspectos, relativos à estabilidade do sistema, tais
como: a estabilidade transitória, estabilidade a pequenos sinais e a estabilidade de tensão.
Dentre elas, a estabilidade transitória traz ao sistema a resposta para operar com alto nível de
segurança dinâmica (Corrêa et. al., 2012). Com isso, a análise da estabilidade transitória é um
dos estudos de maior importância nos sistemas elétricos de potência. Ela avalia a robustez do
SEP mediante os vários tipos de distúrbios (Assis, 2007).
A avaliação da estabilidade transitória é onerosa computacionalmente, pois os casos a
serem verificados em um SEP real, chegam a algumas milhares de linhas de transmissão,
barras, centenas de geradores, bem como centenas de equipamentos de proteção. Logo,
busca-se a solução de métodos mais eficientes para a utilização da análise de segurança
dinâmica em tempo real nos centros de operações dos SEP (Theodoro, 2010).
Os SEP estão aptos a sofrerem distúrbios sucessivamente ao longo de sua operação. Com
a ocorrência de tais contingências, é necessário que os sistemas estejam aptos a agirem
automaticamente, de forma a corrigir o problema. Para evitar que esse desligamento aconteça
muitas técnicas estão sendo estudadas para melhorar a estabilidade transitória dos SEP, como
pode ser visto em Corrêa et. al. (2012). Dentre elas existe o redespacho de potência ativa e/ou
reativa (Assis, 2007). Essa técnica consiste em um alívio de sobrecargas nos sistemas
elétricos de potência trazendo uma modificação no fluxo de potência. O uso de algoritmos
baseados em metaheurísticas se faz uma opção interessante para que essas operações não
sejam necessárias, pois possui fácil implementação e traz uma resposta otimizada para o valor
do redespacho. A aplicação de metaheurísticas para a análise da estabilidade dinâmica em
sistemas elétricos vem sendo muito utilizada em vários trabalhos, e a técnica de redespacho
ganha destaque, sobretudo com a popularização da inteligência artificial (IA). No trabalho de
Liang (Corrêa et al., 2012) é proposto o uso de redes neurais para problemas de redespacho de
potência. O algoritmo proposto buscava a solução para um redespacho econômico rastreando
a curva de carga e limites das taxas de respostas das unidades. Nos estudos de Baskar (2009)
foram utilizados algoritmo evolutivo e a otimização por enxame de partículas para o despacho
de carga para o alívio de sobrecargas no sistema. Já no trabalho de Corrêa et al (2012) foi
utilizado algoritmo genético para a otimização do redespacho a fim de minimizar o custo da
geração durante o controle preventivo.
Visando contribuir para o estudo de estabilidade dinâmica dos SEP, focando na avalição
da estabilidade transitória, este trabalho propõe o uso de diferentes metaheurísticas para o
redespacho de potência em um sistema teste de 9 barras, proposto por Anderson (1977).

2. FUNDAMENTAÇÃO TEÓRICA

Os algoritmos de busca trabalham com uma região limitada para encontrar as soluções,
chamada de espaço de busca, que geralmente é definida pela representação escolhida para as
soluções candidatas e pelas restrições do problema (França, 2005). Os indivíduos, partículas,
modelos pontuais baseados na natureza, denominados de população inicial, são evoluídos ou
melhorados de acordo com o tipo de metaheurística utilizada, aproveitando o intercâmbio de
informações entre os indivíduos. A evolução do algoritmo acontece até que se alcance o
critério de parada. Três tipos de metaheurísticas foram utilizados durante o trabalho:
Algoritmo Genético (AG), Otimização por enxame de partícula, do inglês, Particle Swarm
Optimization (PSO) e Busca Cuckoo (BC).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

228
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O AG utiliza conceitos do princípio de seleção natural para abordar uma série ampla de
problemas com otimização. Robustos, genéricos e facilmente adaptáveis, consistem em uma
técnica amplamente estudada e utilizada em diversas áreas (França, 2005). Este método foi
criado por Holland e baseia-se na seleção, cruzamento e mutação dos indivíduos em uma dada
população. O indivíduo é representado como uma solução do problema e a população é um
conjunto de soluções. Cada indivíduo possui dois cromossomos e estes são constituídos de
genes, que representam as variáveis que se deseja otimizar na busca da melhor solução. Esses
genes caracterizam os indivíduos, pois são diferentes entre si. Os indivíduos mais aptos, os
que mais satisfazem o problema, estão propensos à sobrevivência durante as iterações. A
população inicial dentro do algoritmo genético pode ser com valores aleatórios ou pré-
determinados, porém normalmente são utilizados valores aleatórios. No algoritmo é preciso
definir os limites de máximo e mínimo para cada variável a ser otimizada. A população inicial
contém n indivíduos e cada um dos indivíduos contêm x genes que os diferenciam uns dos
outros. Os melhores indivíduos dessa população são selecionados para a reprodução, onde a
probabilidade de uma dada solução ser selecionada é proporcional à sua aptidão. Entre esses
indivíduos acontece o cruzamento, gerando novos indivíduos com genes recombinados dos
indivíduos da população anterior. Dentro do cruzamento, pode acontecer à mutação para
aumentar a variedade da população. Após isso, verifica-se as especificações necessárias foram
atendidas, voltando para a etapa de cruzamento em caso negativo e encerrando a execução em
caso positivo.
O algoritmo PSO, criada por Kennedy e Eberhart, é uma técnica inspirada na inteligência
coletiva dos animais. Ela é uma metaheurística populacional para funções contínuas inspirada
em mecanismos de simulação do comportamento social de bandos de pássaros. O PSO é
classificado como um algoritmo evolucionário, porém não apresenta a seleção e o cruzamento
de indivíduos mais aptos como no algoritmo genético. O mecanismo de simulação do PSO é
baseado na busca por alimentos e na interação entre aves ao longo do voo. No caso, a área
sobrevoada é equivalente ao espaço de busca e encontrar o local com comida corresponde a
encontrar a solução ótima. Cada partícula, que representa um pássaro, estabelece sua trajetória
combinando suas experiências passadas com as experiências de seus vizinhos, que são outras
partículas com as quais ela se comunica. Cada partícula representa uma solução para o
problema, onde possui a ela associada um vetor posição e um vetor velocidade. O vetor
posição é a localização da partícula no espaço de busca e o vetor velocidade indica as
mudanças de posições durante a execução do código. As partículas possuem comunicação
entre si e cada uma possui a posição e velocidade de seus vizinhos.
O método BC é baseado na reprodução dos pássaros cuco. Ele foi criado por Yang e
Deb e é um dos algoritmos bioinspirados mais recentes existentes. Algumas das fêmeas da
espécie dos pássaros cucos não chocam seus ovos. Elas procuram ninhos de outras espécies
de pássaros esperando que elas criem os filhotes do cuco como sendo os seus. Porém, a fêmea
que receberá o ovo do cuco no seu ninho não pode perceber que o ovo não é seu. Se for
descoberta a diferença entre os ovos, ou o ovo do cuco é descartado, ou o ninho é
abandonado. O método de otimização baseado na reprodução dos pássaros cuco possui três
regras básicas. A primeira regra consiste que cada pássaro coloque um ovo, que representa um
valor da solução do problema, por vez em um ninho que escolhido aleatoriamente. A segunda
ideia básica do algoritmo é que o ninho é o conjunto de soluções do problema e deve ser
melhorado ao longo das gerações. A última regra diz que um número n de ninhos possui uma
probabilidade de serem descobertos pela ave anfitriã. Assim, essas soluções são abandonadas,
o que significa que a ave hospedeira abandonou o ninho ou destruiu o ovo do pássaro cuco. A
quantidade de ninhos anfitriões é valor que se mantém fixo durante as iterações (Arcanjo,
2014). Para que seus ovos não sejam rejeitados ou destruídos, o cuco procura meio de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

229
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

melhorar sua tática para colocação de ovos e melhorar aparência de seus ovos. Porém, ao
mesmo tempo, a ave hospedeira tenta evitar que o ovo seja colocado no seu ninho ou busca
identificar os ovos que não são seus.

3. METODOLOGIA DESENVOLVIDA

A estrutura da simulação utilizou os softwares de análise de redes ANAREDE e


ANATEM, desenvolvidos pelo CEPEL (Centro de Pesquisas de Energia Elétrica). Foi
montado o sistema elétrico de potência de 9 barras que será utilizado para a simulação do
redespacho de potência. Com o auxílio do ANAREDE foi possível fazer a análise estática do
sistema com o fluxo de potência. No programa para Análise de Transitórios Eletromecânicos
ou ANATEM, foi realizada a análise transitória dos componentes elétricos e eletromecânicos,
onde foram aplicadas perturbações do tipo curto-circuito. No software MATLAB são
executadas as metaheurísticas gerando, assim, os valores das possíveis soluções para o
redespacho de potência. Esses valores são inseridos no ANATEM através da execução dos
VBScripts. Com os resultados obtidos pela análise transitória pelo ANATEM, o MATLAB
faz a avaliação de custo do sistema para cada indivíduo durante as iterações das
metaheurísticas. O SEP utilizado para o presente trabalho foi um estudo de caso contendo 9
barras e 3 unidades geradoras. O caso base montado para as simulações do redespacho de
potência bem como seu fluxo de potência está mostrado na Figura 1. O sistema proposto
possui 9 barras, sendo as barras 1, 2 e 3, as barras de geração. O sistema também possui 3
pontos de carga localizados nas barras 5, 6 e 8. Os dados das barras, redes e geração podem
ser obtidos em Assis (2007).

Figura 1 - Sistema de 9 barras.

A partir do modelo do sistema de 9 barras foi feita a análise transitória no ANATEM. A


contingência aplicada ao caso de estudo foi um curto-circuito na barra 7, seguido da abertura
do circuito 7-5, em 100 ms. A duração da perturbação foi de 100 ms. A reação dos geradores
contidos na barra 2 ao distúrbio aplicado está na Figura 2. Nota-se que o ângulo sofre muita
oscilação crescent e os geradores terão que ser retirados do sistema através de sistemas de
proteção.

Figura 2 - Ângulo de carga do conjunto gerador da barra 2.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

230
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Já a resposta do conjunto de máquinas da barra 3 está contida na Figura 3. O ângulo do


conjunto de máquinas em questão sofre uma oscilação crescente ao longo do tempo,
ocasionando, assim, a perda também desse conjunto de geradores. O ângulo do conjunto das
máquinas da barra 1 foi utilizado como referência para o estudo da simulação da contingência,
sendo esta barra a Swing (barra de referência).

Figura 3 - Ângulo de carga do grupo de geradores da barra 3.

Portanto, para esses valores de geração, o sistema não consegue alcançar a estabilidade,
quando imposto a ele esta perturbação. Assim, propõe-se a otimização dos valores das
unidades geradores por meio das metaheurísticas, fazendo com que se tenha um redespacho
de potência ativa. A quantidade das unidades geradoras utilizadas na simulação foi de 4
unidades na barra 1, 1 unidade na barra 2 e 1 unidade na barra 3 e seus valores podem ser
encontrados em Assis (2007).
A função de custo que avalia cada indivíduo ou partícula nos algoritmos está representada
em (1). Trata-se da fórmula da integral do erro ao quadrado, onde o erro é a diferença entre o
valor do ângulo de máquina atual e o valor do ângulo de máquina no período sem oscilação.
Os algoritmos irão minimizar (1).

(1)

O sistema elétrico de estudo utilizado no presente trabalho possui dois tipos de


controladores incorporados a ele. Estes são: regulador automático de tensão ou AVR e
estabilizador de sistemas de potência ou PSS. Foram utilizados os parâmetros padrões do
ANATEM para esses controladores. A função de transferência dos controladores AVR e PSS,
bem como os parâmetros utilizados podem ser encontrados em Assis (2007).

4. RESULTADOS

A evolução dos algoritmos e a alocação dos indivíduos (ou partículas) ao longo das
iterações foram analisadas. Ao final foi feito uma comparação entre as metaheurísticas e a
verificação da estabilidade angular do sistema proposto. Para a execução dos códigos de
otimização foram utilizadas 50 iterações e 30 indivíduos. Sendo também uma população
inicial igual para as três metaheurísticas. No algoritmo genético, utilizou-se uma
probabilidade de cruzamento de 60% com uma taxa de mutação de 0,7. Para a procura cuco,
utilizou-se uma probabilidade de rejeição de 30%. Já para o enxame de partículas, as
constantes C1 e C2 foram 1,5 e 2,5, respectivamente. Como o sistema elétrico proposto é
pequeno, com geração e cargas bem definidas, o valor otimizado encontrado foi o mesmo
para os três algoritmos nas condições propostas, com a variação da iteração onde este valor
otimizado foi encontrado. Foi investigado o comportamento comparativo dos três algoritmos
para uma mesma população inicial. Não foi investigado neste trabalho a inicialização com
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

231
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

populações diferentes. Os valores otimizados encontrados foram de 3 unidades geradoras para


a barra 1, 20 unidades geradoras para a barra 2 e 4 unidades geradoras para a barra 3.

4.1 Algoritmo Genético

Para esse algoritmo foi utilizada uma taxa de mutação de 1% e uma taxa de reposição de
indivíduos de 60%. A evolução ao longo das iterações dos valores para unidade geradora da
barra 1 é mostrada na Figura 4a. Como foram criados 30 indivíduos por geração, existem
valores para essa barra que são repetidos entre alguns indivíduos. Em vermelho se tem o gene,
que representa o valor da unidade geradora 1, do melhor indivíduo de cada geração. Nota-se
que o melhor valor encontrado, de 3 unidades, já se encontra desde as primeiras gerações. A
partir da geração 6, os indivíduos ficam entre os valores de 1 a 6. Já a evolução dos valores
para unidade geradora da barra 2 se encontram na Figura 4b. Percebe-se que o valor de 20
unidades é encontrado na 13ª iteração e a característica dos indivíduos para essa unidade fica
em torno do melhor valor encontrado de forma mais lenta que para a barra 1. Na Figura 5a se
tem a evolução dos valores utilizados na barra 3. O melhor valor encontrado para a geração
desta barra fica constante a partir da 13ª iteração como acontece na barra 2. Percebe-se que a
aglomeração dos indivíduos em torno do valor de 4 unidades acontece de forma mais rápida
do que para a barra 2. Por fim, a Figura 5b apresenta a função de custo para o AG.

a b
Figura 4 – Comportamento do AG nas unidades geradoras 1 (a) e 2 (b).

a b
Figura 5 – Comportamento do AG na unidade geradora 3 (a) e função de custo (b).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

232
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.2 Otimização por enxame de partículas

A evolução ao longo das iterações dos valores para unidade geradora da barra 1 se
encontram na Figura 6a. O melhor valor encontrado, de 3 unidades, já se tem desde a primeira
iteração. Os valores para essa barra nos indivíduos variam de 1 a 7 a partir da 7ª iteração. Já a
evolução dos valores para unidade geradora da barra 2 se encontram na Figura 6b. Percebe-se
que o valor de 20 unidades é encontrado na 14ª iteração e a característica dos indivíduos para
essa unidade fica em torno do melhor valor encontrado também de forma mais lenta que para
a barra 1. Na Figura 7a tem-se a evolução dos valores utilizados na barra 3. O melhor valor
encontrado para a geração desta barra fica constante a partir da 14ª iteração como acontece na
barra 2. Percebe-se também que a alocação dos indivíduos em torno do valor de 4 unidades
acontece de forma mais rápida do que para a barra 2. Contudo, apresenta-se a curva da função
de custo para o algoritmo PSO. Comparativamente ao AG, o PSO oscilou mais, mostrando a
tentativa do PSO de sair de um provável ótimo local.

a b
Figura 6 – Comportamento das unidades geradoras 1 (a) e 2 (b) para o algoritmo PSO.

a b
Figura 7 – Comportamento do PSO na unidade geradora 3 (a) e e função de custo (b).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

233
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.3 Otimização busca Cucko

A evolução ao longo das iterações dos valores para unidade geradora da barra 1 se
encontram na Figura 8a. O melhor valor encontrado, de 3 unidades, já se encontra desde as
primeiras iterações. A partir da geração 8, percebe-se que os indivíduos ficam com valores
menores que 4. Já a evolução dos valores para a barra 2 se encontram na Figura 8b. Percebe-
se que o valor de 20 unidades é encontrado na 19ª iteração e a característica dos indivíduos
para essa unidade fica em torno do melhor valor encontrado de forma mais lenta que para a
barra 1. Nota-se também, que alguns indivíduos ficam no valor 13 por muitas iterações. Na
Figura 9a se tem a evolução dos valores utilizados na barra 3. O melhor valor encontrado nas
iterações para essa geração varia entre os valores 4, 3 e 2. Percebe-se que a aglomeração dos
todos os indivíduos ficam em torno desses valores também passando pelo valor 1
adicionalmente. O valor da função de custo do melhor indivíduo ao longo das gerações se
encontra na Figura 9b, a qual é ainda mais oscilatória, mostrando que o algoritmo Cuckoo tem
ainda um maior compromisso de sair de um ótimo local.

a b
Figura 8 – Comportamento das unidades geradoras 1(a) e 2(b).

a b
Figura 9 – Comportamento da unidade geradora 3(a) e função de custo (b).

Os resultados otimizados obtidos a partir dos algoritmos bioinspirados foram


semelhantes. Portanto, a análise que se faz necessária é a comparação de qual algoritmo
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

234
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

obteve a melhor resposta na menor iteração. Esses valores foram: AG na 17ª iteração, PSO na
14ª iteração e BC na 19ª iteração. Observa-se que o PSO obteve melhor desempenho
comparado às outras metaheurísticas.
O ângulo do rotor do conjunto de máquinas contidas na barra 2 reagindo ao distúrbio
aplicado com o valor otimizado das unidades geradoras está na Figura 10. Manteve-se a
contingência aplicada, ou seja, curto-circuito na barra 7, com duração de 100 ms, e abertura
do elo 7-5 em 100 ms. Nota-se que a característica de operação da máquina é mudada, pois os
valores de geração foram alterados. Assim, o ângulo obtido na estabilidade do sistema se
difere do seu valor inicial. Percebe-se que a aplicação do redespacho de potência ativa na
barra 2 fez com que a ela conseguisse reagir à contingência, conseguindo assim, a estabilidade
transitória do estudo de caso.

Figura 10 - Ângulo de carga do grupo de máquinas 2.


Já a resposta do conjunto de máquinas da barra 3 está contida na Figura 11. As
mesmas considerações realizadas na barra 2 se aplicam a esta barra, onde se vê a estabilidade
e a mudança do ângulo do rotor da máquina. Nota-se que o período de oscilação da barra 3 é
maior comparado a barra 2. A unidade geradora 2 se estabiliza em 4,7 s e a unidade 3 se
estabiliza em por volta dos 6 s.

Figura 11 - Ângulo de cara do grupo de máquinas 3.

5. CONCLUSÕES
Para o sistema de 9 barras simulado no presente trabalho, a utilização de
metaheurísticas no redespacho de potência ativa para melhoria da estabilidade transitória,
mostrou-se satisfatória. Pois, com os resultados alcançados, o sistema conseguiu reagir à
contingência imposta a ele. Nota-se, que a aplicação da técnica de alívio de sobrecargas,
trouxe ao sistema uma margem de segurança dinâmica em relação às perturbações do tipo
curto-circuito. O sistema proposto para a realização do trabalho foi empregado para a
avaliação do uso das metaheurísticas para obtenção dos valores de redespacho, porém, não se
trata de um sistema elétrico real. A comparação entre as metaheurísticas implementadas se
deu através do número da iteração em que o algoritmo obteve o menor valor da função de
custo. Isso se deve ao fato de que, os algoritmos obtiveram o mesmo valor de F(custo)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

235
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

minimizado. A partir disso, o PSO se mostrou mais eficiente, pois apresentou a melhor
resposta na 14ª iteração. Com o uso destes algoritmos em redes de maior porte, como IEEE 14
barras, New England conduzirão a resultados mais ricos e diferenciados em relação ao
sistema de 9 barras. O AG e BC conseguiram os menores valores da função de custo na 17ª e
19ª, respectivamente, o que não mostra uma grande defasagem entre os algoritmos em relação
a este critério.

Agradecimentos
Os autores agradecem à FAPEMIG pela bolsa de iniciação científica, ao CEPEL pelas
licenças educacionais do ANAREDE e ANATEM e ao CEFET-MG.

REFERENCES

Anderson, P.M. et. Al (1977). Power System Control and Stability. 658 f. Institute of Electrical and Electronics
Engineers, The Iowa State University Press, Estados Unidos, 1977.
Arcanjo, D. N. (2014) Metodologia multi-estágio para restabelecimento de sistemas elétricos de distribuição
utilizando algoritmos bio-inspirados. 123 f. Dissertação de Mestrado em Engenharia Elétrica. Universidade
Federal de Juiz de Fora, Minas gerais, 2014.
Assis, T. M. L. (2007) Cálculo da Capacidade de Transmissão Dinâmica em Sistemas de Potência através de
Ferramentas Integradas e Sistemas Inteligentes. 191 f. Tese de Doutorado em Engenharia Elétrica,
COPPE/UFRJ, Rio de Janeiro.
Baskar, G. et. al. (2009) Contingency constrained economic load dispatch using improved particle swarm
optimization for security enhancement. Journal: Electric Power Systems Research, v. 79, p. 615–621.
Corrêa, A. L. B. et al. (2012) Redespacho da Geração para Melhoria da Segurança Dinâmica de Sistemas
Elétricos de Potência Usando Inteligência Computacional. IV Simpósio Brasileiro de Sistemas Elétricos.
França, F. O. (2005) Algoritmos bio-inspirados aplicados à otimização dinâmica. 120 f. Dissertação de
Mestrado apresentada à Faculdade de Engenharia Elétrica e de Computação. Campinas, São Paulo.
Theodoro, E. A. R. (2010) Desenvolvimento de uma ferramenta computacional para análise de segurança
dinâmica, no contexto da estabilidade transitória, de sistemas elétricos de potência via métodos diretos. 109f.
Dissertação de Mestrado em Engenharia Elétrica, Universidade de São Paulo, São Carlos, São Paulo.

A CASE STUDY OF METAHEURISTICS FOR PERFORMING ACTIVE POWER


REDISPATCHING TO IMPROVE TRANSITORY STABILITY

Abstract. Transient stability is a factor of merit in an electrical power system. Through this
type of stability, the dynamic safety margin of the system is determined. In this sense, this
work proposes the use of metaheuristics in active power redispatching in order to improve
transitory stability. A 9-bar test system was used to verify the methodology for searching
metaheuristics. For this, the electrical system was simulated for the application of the power
redispatch, where short-circuit disturbances were implemented. A cofiguration was
determined where transient instability is identified. The metaheuristics were used: Genetic
Algorithm, Particle Swarm Optimization and Cuckoo Search to determine the number of
necessary generations, within certain limits established in this work. In the genetic algorithm,
a 60% crossover probability with a mutation rate of 0.7 was used. For cuckoo demand, a
rejection probability of 30% was used. For the cluster of particles, the constants C1 and C2
were 1.5 and 2.5, respectively. All metaheuristics converged and brought about the transitory
stability of the proposed electrical system.

Keywords: Metaheuristics, Optimization, Transient Stability, Power electrical systems.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

236
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DOS POTENCIAIS DE AQUECIMENTO OU RESFRIAMENTO DO SOLO


DE PELOTAS/RS

Ana Maria Bersch Domingues1 - berschdomingues@hotmail.com


Eduardo de Sá Bueno Nóbrega1 - eduardosbnobrega@gmail.com
Ruth da Silva Brum1 - ruth.silva.brum@ufpel.edu.br
Jairo Valões de Alencar Ramalho1 - jairo.ramalho@ufpel.edu.br
Régis Sperotto de Quadros 1 - regis.quadros@ufpel.edu.br
1 Programa
de Pós-Graduação em Modelagem Matemática, Universidade Federal de Pelotas (UFPel),
Campus Capão do Leão s/n, 96160-000 Pelotas, RS, Brasil.

Resumo. O estudo e conhecimento das propriedades térmicas do solo são relevantes, pois
influenciam o desempenho e a economia de sistemas alternativos de refrigeração de ambientes,
como é o caso dos trocadores de calor acoplados ao solo. Este trabalho apresenta estimativas
das variações anuais de temperatura do solo em quatro bairros do municı́pio de Pelotas, Rio
Grande do Sul, onde foram obtidos os perfis de temperatura do ar e dados geotécnicos do solo.
O modelo adotado foi resolvido através de métodos de diferenças finitas. Dentre os resultados
da pesquisa, cabe destacar a descoberta das profundidades que obtém maiores variações e onde
ocorrem os valores dos picos de potencial para aquecimento ou resfriamento locais, sendo estes
cerca de 6◦ C. As maiores variações foram encontradas entre 1 e 2 metros, para solos secos e
saturados, respectivamente, e em 2,5-3 metros a temperatura do solo permaneceu constante.

Palavras-chave: Solos heterogêneos, Potencial térmico do solo, Aquecimento/Resfriamento,


Diferenças finitas

1. INTRODUÇÃO

Pesquisas relacionadas ao solo estão em constante desenvolvimento, uma vez que este tem
grande importância em atividades de plantio e construção civil. Um conceito clássico de solo
diz que este é formado por uma mistura de partı́culas pequenas que se diferenciam pelo tamanho
e pela composição quı́mica (Pinto, 2005). A complexidade do solo e sua importância para uma
grande quantidade de serviços apresentam muitos desafios para a modelagem dos processos
(Vereecken et al., 2016). Em relação à energia térmica, a capacidade de armazenar e transferir
esta energia é determinada por suas propriedades térmicas e pelas condições meteorológicas,
que por sua vez influenciam todos os processos quı́micos, fı́sicos e biológicos do solo (Neto,
2011).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

237
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Em muitas aplicações, é necessário obter a temperatura do solo em diferentes nı́veis para


determinar os parâmetros de projeto a serem seguidos (Ozgener et al., 2013). Como exemplo,
tem-se o sistema de trocadores de calor solo-ar (TCSA), que consiste em um ou mais dutos
enterrados, utilizando o solo como fonte ou sumidouro de calor (Brum, 2016). Nos sistemas
TCSA tem-se ar como fluido principal, que flui pelos dutos e troca calor com o solo ao redor,
sendo que este é mais frio que o ar ambiente no verão e mais quente no inverno, assim o ar
entra nas edificações resfriado no verão e aquecido no inverno (Bisoniya, 2015). Em geral,
sistemas de trocadores de calor acoplados ao solo também são compostos por bombas de calor
geotérmicas que usam lı́quidos como fluido para a transferência de calor. Enquanto os TCSA,
geralmente, são instalados horizontalmente a baixas profundidades, as bombas de calor são
instaladas verticalmente na faixa de 20-200 metros (Agrawal et al., 2019).
Em Ozgener et al., (2013) os autores utilizam dados acessı́veis, como as médias das tem-
peraturas do ar diárias e anuais, para estimar analiticamente a temperatura diária do solo, de-
pendendo da profundidade e do tempo. Em Nóbrega et al., (2020) apresenta-se os estudos
iniciais envolvendo TCSA no municı́pio de Pelotas, mostrando que ele possuiu potenciais de
aquecimento e resfriamento de 6◦ C e -6◦ C, respectivamente.
Diferentemente das pesquisas anteriores, que modelam o solo com propriedades térmicas
homogêneas, este trabalho considera as suas variações conforme os dados geotécnicos locais,
obtidos através de sondagens de simples reconhecimento (SPT). Em particular, observam-se
grandes mudanças entre faixas de solo seco e solo saturado, devido ao lençol freático. Adota-se
aqui uma modelagem numérica, objetivando a determinação das temperaturas do solo em diver-
sas profundidades, de acordo com os tipos encontrados no municı́pio de Pelotas (Rio Grande
do Sul). Analisando as variações das temperaturas com a profundidade, os resultados mostram
que a magnitude do potencial térmico local pode atingir valores próximos a 7◦ C.

2. METODOLOGIA

Para a modelagem do solo elaborou-se um código numérico no programa Octave (versão


5.2.0), sendo que o mesmo também funciona na linguagem Matlab. O código levava em conta
as múltiplas camadas que os solos existentes em Pelotas apresentam, e mostrava como saı́da
médias das temperaturas diárias dos mesmos. As temperaturas do ar foram retiradas do Boletim
Agro climatológico de Pelotas1 , e os dados do solo foram obtidos através de uma sondagem de
simples reconhecimento (SPT) do ano de 2016, um ano bissexto, concedidos pela empresa local
FUNDACON - Fundações e Construções.
A temperatura do ar ajustada no municı́pio de Pelotas para o ano de 2016 é:
 

Ta (t) = 17, 90 − 6, 34Sen t − 1, 85 . (1)
366
Como condições de contorno, os autores adotaram Ts = Ta para z = 0, ou seja, a tempera-
tura do solo é igual a temperatura do ar quando a profundidade é igual a zero e ∂T
∂z
s
= 0 para a
profundidade de 15 metros. Segundo Brum, (2016), pode-se adotar que o fluxo de calor decorre
somente pelo efeito da difusão, assim, o campo de temperaturas é dado por:
∂Ts ∂ 2 Ts
= αs 2 , (2)
∂t ∂z

1
http://agromet.cpact.embrapa.br/estacao/boletim.php (último acesso em 27/08/2020)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

238
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

onde αs caracteriza-se como a difusividade térmica do solo em (m2 s−1 ), sendo que esta pode
ser calculada através da seguinte equação:
λs
αs = , (3)
ρs Cp,s

onde λs é a condutividade térmica do solo em (W m−1 K−1 ), ρs a densidade do solo em (kg


m−3 ), e Cp,s o calor especı́fico do solo em (J kg−1 K−1 ).
A condição de continuidade dos fluxos térmicos em qualquer ponto de intersecção (ζk ) entre
duas camadas subsequentes (i e j) caracteriza-se como:
   
∂T ∂T
lim − λi = lim+ − λj . (4)
z→ζk− ∂z z→ζk ∂z

Para a condição inicial, a temperatura do solo (Ts ) é aproximada pela função:

 r  √
π π
T0 = Tm + A sin ωt + φ − z e z τ αs . (5)
τ αs
Aqui, Tm , A, ω, e φ são, respectivamente, a média, a amplitude, a frequência angular e a fase
da temperatura do ar, que são calculadas após o ajuste por mı́nimos quadrados. As simulações
cobrem um perı́odo τ de um ano e αs é uma média das difusividades ao longo das camadas
múltiplas.
As equações foram resolvidas por dois anos, mas apenas as soluções do segundo ano foram
adotadas para representar as temperaturas do solo, visto que os efeitos numéricos da condição
inicial foram evitados (Brum, 2016). O código numérico guarda as médias das temperatu-
ras diárias em arquivos do tipo .txt. Posteriormente, estas médias são colocadas no programa
Wolfram Mathematica (versão 8.0) e ajustadas através do método dos mı́nimos quadrados para
funções senoidais (comando FindFit), resultando em uma equação para cada profundidade, va-
riando apenas através do tempo.
As equações são resolvidas utilizando diferenças finitas. O método de Euler implı́cito de
primeira ordem utilizado para a discretização do tempo, e utiliza diferenças centrais de segunda
ordem para a discretização espacial. Na profundidade de 15 metros e nas equações de con-
tinuidade entre camadas, as derivadas de primeira ordem foram aproximadas por diferenças
progressivas ou regressivas de segunda ordem.
Com o objetivo de melhorar a precisão, o teste de independência de malha foi realizado,
cujo erro foi de 1,49%. As simulações apresentaram um intervalo de tempo de 1800 segundos
e dividiram o comprimento do solo em 300 intervalos de 0,05 metros.

3. RESULTADOS E DISCUSSÃO

Em Pelotas existem variados tipos de solo, como arenoso, argiloso, areno argiloso, e ar-
gilo arenoso. Para simplificar este problema, resolveu-se tratar o solo areia argilosa como
simplesmente solo arenoso, e o solo argila arenosa como argiloso, por serem casos extremos
(Nóbrega et al., 2020). Nota-se que a difusividade térmica da areia é maior do que a argila em
mais de 25%. Além disso, um solo saturado tem difusividade muito maior que um solo seco,
com diferença de mais de 68%. A Tabela 1 apresenta as constantes do solo utilizadas para as
simulações numéricas, presentes na literatura (Hermes et al., 2020):

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

239
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Constantes do solo utilizadas nas simulações.

Densidade Condutividade Térmica Calor Especı́fico


(kg m−3 ) (W m−1 K−1 ) (J kg−1 K−1 )
Areia 1600 0,30 800
Argila 1600 0,25 890
Areia Saturada 2000 2,20 1480
Argila Saturada 2000 1,58 1550

A Figura 1 apresenta o mapa do municı́pio de Pelotas, bem como as regiões analisadas neste
estudo:

Figura 1- Mapa do municı́pio de Pelotas separado por regiões estudadas. Fonte: Autores.

Através das simulações numéricas, foi possı́vel obter as temperaturas em cinco profundi-
dades distintas, para todos os solos estudados, bem como as maiores variações em função da
profundidade.
A seguir, apresenta-se 4 regiões da cidade de Pelotas que melhor representam as carac-
terı́sticas dos tipos de solos existentes.

3.1 Bairro Areal

Sete locais distindos do Bairro Areal foram analisados, dentre eles, Domingos de Almeida,
São Francisco de Paula, Umuharama, Manoel Antônio Peres, Barão de Cotegipe, Alcides Torres
Diniz, e Ferreira Viana. A Figura 2 exibe as curvas das variações da temperatura do solo em (◦ C)
em função da profundidade z em (metros), com estas é possı́vel analisar os picos de potencial
térmico (no verão e no inverno - Janeiro e Julho).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

240
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Mı́nima e máxima variações da temperatura do solo com a profundidade (Bairro Areal). Fonte:
Autores.

Através da Figura 2 cabe destacar o pico máximo de potencial térmico, sendo que este pode
chegar a quase 7◦ C abaixo de 1 metro de profundidade. Ainda, tem-se o pico médio de 6◦ C para
profundidades maiores que 2 metros, onde a temperatura se aproxima da temperatura média do
ar (17,9◦ C em Pelotas). Este resultado vai ao encontro de Bisoniya, (2015), cujo texto descreve
a temperatura do solo para grandes profundidades, como sendo igual à temperatura média anual
da superfı́cie do solo, que por sua vez, é assumida como igual à temperatura do ar ambiente.
As curvas estão próximas entre si, mas não são totalmente iguais. Ainda, algumas curvas
apresentam variações de temperatura em 1 metro de profundidade, e outras exibem variações
em 2 metros, esta diferença se dá no tipo de solo. Solos com o nı́vel do lençol freático já
nas primeiras camadas variaram até 2 metros, enquanto que solos totalmente secos e/ou com a
presença profunda de saturação, registraram o maior pico de potencial térmico em 1 metro de
profundidade.
É possı́vel notar que as curvas dos locais Domingos de Almeida, Ferreira Viana e Manoel
Antônio Peres, apresentam uma grande proximidade, isto acontece porque a primeira camada
de todos estes locais é composta por um solo argiloso seco, o que diferencia os mesmos são
apenas as suas respectivas profundidades, que tornam-se insignificantes, visto os resultados
encontrados através da Figura 2.

3.2 Bairro Centro

Foram obtidos os dados de dois endereços do Bairro Centro, sendo eles, Pinto Martins e
General Netto. A Figura 3 apresenta as variações da temperatura do solo em função da profun-
didade.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

241
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Mı́nima e máxima variações da temperatura do solo com a profundidade (Bairro Centro).
Fonte: Autores.

Tem-se na Figura 3 o pico máximo de potencial térmico, alcançando praticamente 7◦ C em


1 metro de profundidade. Diferentemente do Bairro Areal, no Centro o pico médio de potencial
de 6◦ C já surge em 2 metros, permanecendo constante nas demais profundidades. O leitor pode
notar que as duas curvas encontram-se tão próximas que é praticamente impossı́vel encontrar
qualquer diferença. A proximidade entre as duas curvas se dá pela igualdade de suas camadas,
visto que ambos os locais apresentam argila até 4,5 metros, seguida por areia até 10,5 metros.
A Rua General Netto, apresenta ainda outras camadas como argila e argila saturada, mas estas
não interferiram no resultado final.

3.3 Bairro Três Vendas

Foram avaliados 8 locais para análises no Bairro Três Vendas, sendo eles, Dom Joaquim,
Fernando Osório, República do Lı́bano, Retiro, 25 de Julho, Açores, Itamarati, e Unimed. A
Figura 4 apresenta as variações da temperatura do solo.
É possı́vel observar que dentre as 8 curvas, 7 estão extremamente próximas. Isto se deve
ao fato de que todas estes solos começam com as camadas argila e areia seca, modificando
apenas suas profundidades. Note também que apenas uma curva difere bruscamente das demais.
Esta encontra-se no endereço Dom Joaquim, e difere justamente por ser a única, neste local,
que apresenta lençol freático já nas primeiras camadas, mais precisamente em 0,3 metros de
profundidade.
Neste caso, na Dom Joaquim, o pico máximo de potencial térmico, assim como nos outros
casos, alcançou quase 7◦ C abaixo de 1 metro de profundidade, e em profundidades maiores que
2 metros pode-se observar o pico médio de 6◦ C.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

242
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Mı́nima e máxima variações da temperatura do solo com a profundidade (Bairro Três Vendas).
Fonte: Autores.

3.4 Bairro Laranjal

Foram analisados dois locais para o Bairro Laranjal, cujos nomes são Paulo de Souza Lobo
e Alphaville. A Figura 5 apresenta a variação da temperatura do solo.

Figura 5- Mı́nima e máxima variações da temperatura do solo com a profundidade (Bairro Laranjal).
Fonte: Autores.

Note que as duas curvas apresentam diferenças vı́siveis entre si, isto se deve ao fato de Paulo
de Souza Lobo apresentar lençol freático nas primeiras camadas, em 0,7 metros, e Alphaville

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

243
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresentar saturação apenas aos 2,7 metros. Aqui, também foi encontrado 7◦ C de pico máximo
de potencial térmico abaixo de 1 metro de profundidade, e 6◦ C de pico médio para profundida-
des maiores que 2 metros.

4. CONCLUSÃO

Com a introdução de um código numérico foi possı́vel estimar as variações das temperaturas
locais do solo de acordo com os tipos existentes na cidade de Pelotas. Acredita-se portanto, em
estudos futuros, a possibilidade de integrar esta análise do solo com simulações da instalação
de trocadores de calor solo-ar, visto que dados precisos das temperaturas do ar e do solo no
local analisado são indispensáveis para as simulações (Nóbrega et al., 2020), e que com este
estudo foi possı́vel descobrir que, dependendo da profundidade e da eficiência do trocador, po-
tenciais térmicos de praticamente 7◦ C podem ser alcançados, possibilitanto aquecer ou resfriar
edificações locais.
Conclui-se também, que solos saturados apresentam variações em sua temperatura até 2 me-
tros de profundidade, enquanto que solos secos variam até 1 metro, devido os solos saturados
apresentarem maior condutividade térmica, e por consequência, maior variação de sua tempe-
ratura, e que a partir de 2,5-3 metros a temperatura do solo permanece constante, tendendo a
temperatura média do ar na região (17,9◦ C em Pelotas).

Agradecimentos

Os autores agradecem à FUNDACON - Fundações e Construções e ao Boletim Acrocli-


matológico de Pelotas, respectivamente, pela concessão das sondagens SPT e às temperaturas
médias do ar no municı́pio de Pelotas. Ana Maria B. Domingues e Eduardo S. B. Nóbrega agra-
decem suas bolsas de pesquisa, respectivamente, à Fundação de Amparo à pesquisa do Estado
do Rio Grande do Sul (FAPERGS) e à Coordenação de Aperfeiçoamento de Pessoal de Nı́vel
Superior (CAPES). Ruth S. Brum agradece à FAPERGS pelo suporte financeiro junto ao Edital
4/2019-ARD: Processo 19/2551-0001345-0 e Edital 05/2019-PqG: Processo 19/2551-0001964-
5.

Referências

Agrawal, K. K.; Misra R.; Agrawala G. D.; Bhardwaj M.; Jamuwab D. K. (2019), The state of art on
the applications, technology integration, and latest research trends of earth-air-heat exchanger system.
Geothermics, 82, 34-50.
Bisoniya, T. S. (2015), Design of earth-air heat exchanger system. Geothermal Energy, 1-10.
Brum, R.S. (2016), “Estudos do desempenho térmico de trocadores de calor solo-ar aplicando a te-
oria construtal, Tese de Doutorado, Universidade Federal do Rio Grande do Sul (UFRGS), Porto
Alegre/RS, Brasil.
Hermes, V. F.; Ramalho J. V. A.; Rocha L. A. O.; Santos, E. D.; Marques W. C.; Costi J.; Rodrigues M.
K.; Isoldi L. A., (2020), Further realistic annual simulations of earth-air heat exchangers installations
in a coastal city. ELSEVIER - Sustainable Energy Technologies and Assessments.
Neto, J. A. M. (2011), “Caracterização térmica dos solos”, Tese de Mestrado, Universidade Federal de
Pernambuco, Pernambuco, Brasil.
Nóbrega, E. S.; Brum R. S.; Ramalho J. V.; Quadros R. S. (2020), First study on earth-air heat exchanger
in Pelotas. Revista Mundi Engenharia, Tecnologia e Gestão, 11-15.
Ozgener, O.; Ozgener, L.; Tester, J. W. (2013), A practical approach to predict soil temperature varia-
tions for geothermal (ground) heat exchangers applications. International Journal of Heat and Mass
Transfer, 62, 473-480.
Pinto, C. S. (2005), Curso Básico de Mecânica dos Solos em 16 aulas. 7a Edição, Oficina de Textos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

244
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Vereecken, H.; Schnepf, A.; Hopmans, M.; Or Javaux, D.; Roose, T.; Young I.M. (2016), Modeling soil
processes: Review, key challenges, and new perspectives. Vadose zone journal, 15, 1-57.

ANALYSIS OF THE HEATING OR COOLING POTENTIALS OF THE SOIL OF


PELOTAS/RS

Abstract. The study and knowledge of soil thermal properties are relevant, because they in-
fluence the performance and economy of alternative refrigeration systems, as is the case with
ground-coupled heat exchangers (GCHE). This paper presents estimates of annual variations
in soil temperature in four neighborhoods of the municipality of Pelotas, Rio Grande do Sul,
where air temperature profiles and soil geotechnical data were obtained. The model adopted
was solved by finite differences methods. Among the results of the research, it is worth high-
lighting the discovery of the depths that obtain greater variations and where the peak values
for local heating or cooling occur, these being about 6◦ C. The largest variations were found
between 1 and 2 meters, for dry and saturated soils, respectively, and at 2.5-3 meters the soil
temperature remained constant.

Keywords: Heterogeneous soils, Soil thermal potential, Heating/Cooling, Finite differences.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

245
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ISOTHERM++: UMA BIBLIOTECA PARA O CÁLCULO DE ISOTERMAS DE


ADSORÇÃO

Lara Botelho Brum - larabotelhobrum@yahoo.com.br


Luan Rodrigues - luan20131@gmail.com
Antônio José da Silva Neto - ajsneto@iprj.uerj.br
João Flávio Vasconcellos - jflavio@iprj.uerj.br
Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Resumo. Uma biblioteca, escrita em C++14, foi elaborada para descrever qualquer isoterma
de adsorção, independentemente do número de parâmetros desta isoterma. É apresentada
a lista das isotermas de adsorção, com as suas respectivas equações, que estão embutidas
na biblioteca. Alguns aspectos de como a biblioteca foi projetada foram discutidos e alguns
gráficos de curvas de isotermas são exibidos.

Keywords: Isotermas de adsorção, C++ , Programação orientada a objeto

1. Introdução.

Este trabalho se insere no contexto de uma pesquisa em desenvolvimento em que um


programa para estimar alguns dos parâmetros existentes nas equações que governam o
escoamento de pesticidas no subsolo. Para tal desenvolve-se, entre outras coisas, um modelo
computacional em que incluiu-se descrições matemáticas dos fenômenos fı́sicos envolvendo o
transporte do pesticida em um meio poroso, como detalhado por Başağaoğlu et al. (2002), entre
outros.
Dentre os fenômenos modelados há a adsorção e/ou dessorção do pesticida na superfı́cie das
partı́culas do solo. A adsorção é a adesão de átomos, ı́ons ou moléculas de um gás, lı́quido ou
sólido dissolvido a uma superfı́cie. Este processo cria uma pelı́cula do adsorvato na superfı́cie
do adsorvente e difere do processo conhecido como absorção, em que um fluido (o absorvente)
é dissolvido por ou permeia um lı́quido ou sólido (o absorvente). A adsorção é um processo de
superfı́cie, enquanto a absorção envolve todo o volume do material. O termo sorção engloba
ambos os processos, enquanto a dessorção é o inverso da adsorção.
Para descrever corretamente a adsorção e/ou dessorção nestes eventos, usa-se frequentemen-
te o conceito de isotermas de adsorção, que são equações matemáticas usadas para modelar, em

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

246
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

termos quantitativos, a adsorção ou dessorção de solutos por sólidos (Alleoni et al., 1998). Tais
funções procuram descrever como um adsorvente efetivamente adsorverá um soluto.
Após contextualizar a pesquisa em que este trabalho se insere, é apresentado agora o
propósito deste trabalho: foram catalogadas cerca de 30 diferentes equações de isotermas e
chegou-se a conclusão que elas poderiam ser escritas da seguinte forma:

q = f (C) ou q = f (C, T ) (1)

em que q é a quantidade de soluto retida no adsorvente em [M/M], C a concentração de


equilı́brio em [M/L3 ] e T a temperatura em [K]. Sendo assim, constatou-se a possibilidade de
empregar os recursos de orientação a objetos e desenvolver na linguagem C++14, uma biblioteca
denominada Isotherm++, cujo propósito é utilizar qualquer uma das isotermas catalogadas na
forma da Eq. (1) de maneira bastante simples. Nas Tabelas 1 a 4 estão listadas as equações que
foram consideradas neste projeto e as suas respectivas referências.
Na sequência do trabalho serão detalhados diversos aspectos da biblioteca elaborada, como
quais isotermas foram escolhidas e detalhes numéricos que foram considerados. Na seção
seguinte trata das isotermas presentes no Isotherm++. Na seção 3. há a descrição de aspectos
essenciais da biblioteca elaborada. Por fim, na seção 4. há o espaço dedicado às conclusões.

2. Equações das Isotermas.

As isotermas especificadas nas Tabelas 1 a 4, possuem de dois a cinco parâmetros na sua


composição. Contudo, estes parâmetros não foram escritos de forma única nas publicações
cientı́ficas. A mesma equação pode ter sido escrita com letras distintas em trabalhos diferentes.
No projeto da biblioteca Isotherm++ optou-se por limitar significativamente as maneiras
como as equações podem ser escritas. Todas as isotermas detalhadas neste trabalho usaram
exclusivamente as seguintes variáveis: qmax , K1 , K2 , K3 , K4 e K5 , dependendo do número de
parâmetros da equação. R, a constante universal dos gases, e a temperatura T que aparecem
em algumas equações não são considerados um parâmetros de equação. Como valor default
considerou-se que R = 8,31446261815324 [kg m2 K−1 mol−1 s−2 ], mas há a possibilidade de
modificá-lo caso seja necessário usar esta constante com valores definidos em outro sistema de
unidades. A seguir, há alguma informação sobre as isotermas que estão presentes na biblioteca
Isotherm++.

1. Isotermas de Dois Parâmetros: Os parâmetros nestas isotermas são: qmax e K1 ou K1


e K2 . Na Tabela 1 está a lista das equações com dois parâmetros. Nesta e nas demais
tabelas têm-se que θ = q/qmax . Na isoterma de Elovich, vide Tabela 1, não se consegue
escrever analiticamente a expressão de q na forma da Eq. (1). Nestes casos, o método
de Newton-Raphson (Carnahan e Wilkes, 1973) foi empregado para se obter um valor
numérico de q como função das outras demais variáveis.

2. Isotermas de Três Parâmetros: Os parâmetros nestas isotermas são: qmax , K1 ,


e K2 ou K1 , K2 e K3 . Esta é a classe de isotermas com mais representantes
entre as demais catalogadas, como observado na Tabela 3. Para obter q das isoter-
mas de Fowler-Guggenheim, Hill-Deboer deve-se resolver numericamente utilizando-se
Newton-Raphson.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

247
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. Isotermas de Quatro Parâmetros: Os parâmetros nestas isotermas são: qmax , K1 ,


K2 e K3 ou K1 , K2 , K3 e K4 . Na Tabela 2 está a lista das equações com quatro
parâmetros. Para obter q da isoterma de Weber-van Vliet deve-se resolver numerica-
mente utilizando-se Newton-Raphson. Na Tabela 2 está a lista das isotermas de quatro
parâmetros consideradas neste trabalho.
4. Isotermas de Cinco Parâmetros: Os parâmetros nestas isotermas são: qmax , K1 , K2 ,
K3 e K4 . Na Tabela 4 está a lista as isotermas desta classe que se encontram embutidas
no código da Isotherm++.

Tabela 1: Isotermas com dois parâmetros

Nome Equação Referência


2
θ = e−K1 
Dubinin-Radushkevich (Gautam e Chattopadhyaya, 2016)
 = RT ln 1 + C1


Elovich θ = K1 C exp(−θ) (Elovich e Larionov, 1962)


Freundlich q = K1 C 1/K2 (Freundlich, 1907)
Halsey K2 ln(q) = ln(K1 ) − ln(C) (Halsey, 1948)
K1
Harkin-Jura q2
= K2 − log(C) (Harkins e Jura, 1944)
Jovanović ln(θ) = −K1 C (Jovanović, 1969)
K1 C
Langmuir θ= 1+K1 C
(Langmuir, 1918)
RT
Temkin q= K2
ln(K1 C) (Johnson e Arnold, 1995)

Tabela 2: Isotermas com quatro parâmetros

Nome Equação Referência


K1 C 1−K2 +K3
Baudu θ= 1+K1 C 1−K2
(Baudu, 1990)
C K2
Fritz-Schlüender IV θ= 1+K1 C K3
(Fritz e Schlüender, 1974)
h K3
iK
(K1 C)K2 2
Marczewski-Jaroniec θ = 1+(K1 C)K2
(Marczewski e Jaroniec, 1983)
K3 +K
Weber-van Vliet C = K1 q K2 q 4
(Vliet et al., 1980)

3. A biblioteca Isotherm++.

Como visto na seção anterior, as equações de isoterma de adsorção selecionadas formam


um conjunto de alguma forma heterogêneo de funções. Entre elas estão as mais utilizadas,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

248
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3: Isotermas com três parâmetros

Nome Equação Referência



Brouers–Sotolongo θ = 1 − exp −K1 C K2 (Brouers et al., 2005)
K1 C
Brunauer–Emmett–Teller θ = (K2 −C)[1+(K1 −1)(C/K2 )]
(Brunauer et al., 1938)
θ K2 θ

Fowler-Guggenheim K1 C = 1−θ
exp RT
(Fowler e Guggenheim, 1940)
K1 C
Fritz–Schlünder-III θ= 1+qmax C K2
(Fritz e Schlüender, 1974)
ln[− ln(1 − C)] =
Henderson (Karaca et al., 2006)
ln(K1 ) + K2 ln(q)
C K2
Hill θ= K1 +C K2
(Hill, 1910)

θ θ K2 θ
 (Hill, 1946) e
Hill-Deboer K1 C = 1−θ
exp 1−θ
− RT (Boer, 1953)
K1 C K2
Holl–Krich θ= 1+K1 C K2
(Podder e Majumder, 2017)
C
Jossens θ= 1+K1 C K2
(Jossens et al., 1978)
K1 C
Khan θ= (1+K1 C)K2
(Khan et al., 1997)
C K2
Koble–Corrigan θ= 1+K1 C K2
(Foo e Hameed, 2010)
K1 C K2
Langmuir–Freundlich θ= 1+K1 C K2
(Turiel et al., 2003)
 
1−exp(−K1 C K2 )
Langmuir–Jovanović θ=C 1+C
(Turiel et al., 2003)

3 K2

McMillan–Teller θ ln C
= K1 (McMillan e Teller, 1951)
K1 C
Radke–Prausnitz I θ= (1+K1 C)K2
(Radke e Prausnitz, 1972)
K1 C
Radke–Prausnitz II θ= 1+K1 C K2
(Radke e Prausnitz, 1972)
K1 C K2
Radke–Prausnitz III θ= 1+K1 C K2 −1
(Radke e Prausnitz, 1972)
K1 C
Redlich–Peterson q= 1+K2 C K3
(Redlich e Peterson, 1959)
(K1 C)1/K2
Sips θ= 1+(K1 C)1/K2
(Sips, 1948)
C
Tóth θ=   1 (Tóth, 1995)
1 K2
K1
+C K2
 
1+K1 C exp(K2 )
Unilan 2K2 θ = ln 1+K 1 C exp(−K2 )
(Saadi et al., 2015)
 
Valenzuela-Myers 2K2 θ = ln KK11+C
+C exp(K2 )
exp(−K2 )
(Valenzuela e Myers, 1989)
qmax K1 C
Vieth–Sladek q = K2 C + 1+K1 C
(Vieth e Sladek, 1965)

mas, evidentemente, lá não estão todas as funções de isotermas existentes e por esta razão ao
se projetar a biblioteca pensou-se também na possibilidade do usuário poder incluir uma nova

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

249
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4: Isotermas com cinco parâmetros

Nome Equação Referência


  h iK4
K2
Frenkel–Halsey–Hill ln K1 = − RT θK1 3
C
(Pierce, 1960)
C K3
Fritz-Schlüender IV θ= K1 +K2 C K4
(Fritz e Schlüender, 1974)

isoterma.
Como mencionado na introdução deste trabalho a ideia é que, dentro de um código maior,
possa-se trocar facilmente o modelo de isoterma utilizado. O código 1 em que a função
SimulacaoProblemaAdsorcao ora é chamada utilizando a isoterma Elovich ora a isoterma
Freundlich é um exemplo deste conceito.
Código 1: Código C++ exemplo de aplicação da IsotermLib++.
1 const double QMAX( 1 . 0 ) ; // Definição da constante do método
2 const double K1 ( 1 . 0 ) ; // Definição da constante do método
3
4 Elovich varElovich (QMAX, K1 ) ; // Construtor da classe Elovich
5 Freundlich varFreundlich (QMAX, K1 ) ; // Construtor da classe Freundlich
6
7 SimulacaoProblemaAdsorcao ( varElovich ) ; // Simulando com Elovich
8 SimulacaoProblemaAdsorcao ( v a r F r e u n d l i c h ) ; // Simulando com Freundlich

Observe-se que a função SimulacaoProblemaAdsorcao aceita tanto uma variável do tipo


Elovich como uma do tipo Freundlich. A biblioteca Isotherm++ foi construı́da para que funções
como a SimulacaoProblemaAdsorcao possam aceitar qualquer uma das isotermas listadas na
Seção 2. ou mesmo uma outra isoterma criada pelo usuário da biblioteca.
Por fim, um aspecto relevante da concepção da biblioteca está presente no código da função
SimulacaoProblemaAdsorcao e que está exemplificado no código 2.
Código 2: Código C++ exemplo de aplicação da IsotermLib++.
1 v o i d S i m u l a c a o P r o b l e m a A d s o r c a o ( c o n s t I s o t h e r m& isoterma ) {
2
3 // Definição da concentração de equilı́brio
4 double c o n c e n t r a c a o ( 1 . 0 ) ;
5
6 // Cálculo da quantidade de soluto retida no adsorvente
7 d o u b l e qe = i s o t e r m a . q ( c o n c e n t r a c a o ) ;
8 }

O cálculo, dentro de função SimulacaoProblemaAdsorcao, da quantidade de soluto retida no


adsorvente é independente da isoterma escolhida. Isto facilita em muito a criação e manutenção
destas novas funções, o que é altamente desejável.
No âmbito da linguagem C++, só é possı́vel fazer códigos com estas caracterı́sticas utilizando
o conceito de classes puramente virtuais. Na Figura 1 há um esquema bem simples de como

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

250
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

foi idealizada a biblioteca. A classe Isotherm é a classe base da biblioteca. Todas as demais
são derivadas desta classe. Nesta classe há uma função puramente virtual para chamar a função
derivada que calcula a Eq. (1). Observem que o segundo parâmetro da função q é um parâmetro
default, para atender aquelas isotermas que não são funções da temperatura.
Na Figura 2 tem-se um esquema das isotermas de quatro parâmetros, presentes na Tabela
2. Todas as isotermas são derivadas da classe FourParameters que por sua vez é derivada da
classe Isotherm, como descrito na Figura 1. Cada uma destas quatro classes derivadas tem
definidas a sua equação especı́fica que depende somente de C, concentração de equilı́brio, e T ,
temperatura.

Figura 1: Representação esquemática da biblioteca Isotherm++.

Para quem for escrever um código como o Código 2 é irrelevante saber como q foi obtido,
se de uma forma direta ou como em algumas funções, a partir da solução de uma equação
transcendental utilizando-se o método de Newton-Raphson. Na Figura 2 vê-se as classes com
as isotermas com quatro parâmetros. Ali há a indicação que todas as classes derivadas devem
ter a definição de uma função q. Isto é essencial para que o Código 2 funcione como foi escrito.
FourParameters

Baudu FritzSchlunderIV

virtual double q( const double& _conc, virtual double q( const double& _conc,
const double& _temp = 0) const; const double& _temp = 0) const;

MarczewskiJaroniec WeberVanVliet

virtual double q( const double& _conc, virtual double q( const double& _conc,
const double& _temp = 0) const; const double& _temp = 0) const;

Figura 2: Representação esquemática das classes derivadas.

Por fim, um código resumido da classe Elovich é apresentado. Este exemplo foi
especificamente selecionado pois não se consegue, para esta e algumas outras isotermas,
escrever a equação na forma de q = f (C, T ).
Primeiramente, no Código 3, está a função da isoterma de Elovich escrita para ser calculada
utilizando-se o método de Newton-Raphson. Lembrando que para usar o referido método a
função deve estar escrita na forma f (θ) = 0. Não há a necessidade de se definir a derivada para
ser utilizado pelo método pois a mesma será calculada numericamente utilizando-se a seguinte
equação:
f (θ + δθ) − f (θ)
f 0 (θ) = (2)
δθ
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

251
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Código 3: Classe Elovich. Função para o Newton-Raphson


1 d o u b l e E l o v i c h : : Fq ( c o n s t d o u b l e& t h e t a ) c o n s t {
2
3 // auxiCe é uma variável auxiliar da classe já definida
4 r e t u r n t h e t a − a u x i C e ∗ exp (− t h e t a ) ;
5 }

No Código 4 tem a função dentro da classe Elovich responsável pelo calculo de q(C, T ). Na
linha 13 é onde efetivamente há o cálculo de θ = q/qmax , lembrando que 0 ≤ θ ≤ 1, por isto a
estimativa inicial para o método é 0,5.
Código 4: Classe Elovich. Função q(C,T)
1 d o u b l e E l o v i c h : : q ( c o n s t d o u b l e& c e ,
2 c o n s t d o u b l e& t e m p ) c o n s t
3 {
4 // auxiCe é uma variável auxiliar da classe
5 c o n s t c a s t <d o u b l e&>(a u x i C e ) = c e ∗ t h i s −>K1 ( ) ;
6
7 // Definindo a função que será utilizado pelo método Newton-Raphson = Elovich::FQe
8 auto fp = s t d : : b i n d (& E l o v i c h : : Fq , ∗ t h i s , 1 );
9
10 // Definição do θ e sua estimativa inicial
11 double t h e t a = 0.5;
12
13 t h e t a = NewtonRaphson ( fp , t h e t a ) ; // Calculando θ = q/qmax
14 r e t u r n t h e t a ∗ qmax ( ) ;
15 }

Para encerrar são apresentados alguns gráficos obtidos utilizando-se a Isotherm++. Na


Figura 3 estão alguns resultados obtidos utilizando-se a isoterma de Halsey. Na Figura 3a
tem-se as curvas considerando K2 constante e na Figura 3b considerando K1 constante. Estes
gráficos estão de acordo com resultados da literatura.

(a) K1 variável e K2 constante (b) K2 variável e K1 constante

Figura 3: Isoterma de Halsey

Na Figura 4, os resultados obtidos utilizando-se a isoterma de Harkin-Jura são apresentados.


Ambos os resultados conferem com o que se sabe da literatura Condon, 2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

252
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) K2 variável e K1 constante (b) K1 variável e K2 constante

Figura 4: Isoterma de Harkin-Jura

4. Conclusões.

Neste trabalho apresentamos alguns aspectos de uma biblioteca, desenvolvida em C++14,


para calcular a quantidade de soluto retida no adsorvente utilizando-se diversas isotermas de
adsorção distintas. O projeto da biblioteca satisfaz o propósito para o qual a biblioteca foi
idealizada.
Como na confecção da biblioteca não foi utilizado nenhum recurso especı́fico de algum
sistema operacional, é esperado que ela funcione de forma similar em códigos rodando em
sistemas operacionais diferentes. Contudo, isto é algo que ainda não foi testado até o momento.
No momento encontra-se em fase final a elaboração do manual e documentação da referida
biblioteca e, brevemente, ela estará a disposição de usuários que possam se interessar em utiliza-
la.

Agradecimentos

Os autores agradecem o apoio financeiro fornecido da FAPERJ, do CNPq e da CAPES.

Referências

Alleoni, L. R. F., O. A. Camargo e J. C. Casagrande (1998). “Isotermas de Langmuir e de


Freundlich na descrição da adsorção de boro em solos altamente intemperizados”. Em:
Scientia Agricola 55.3, pp. 379–387.
Başağaoğlu, Hakan, Timothy R. Ginn e Benjamin J. McCoy (2002). “Formulation of a
soil–pesticide transport model based on a compartmental approach”. Em: Journal of
Contaminant Hydrology 56.1-2, pp. 1–24.
Baudu, Michel (1990). “Étude des interactions solute-fibres de charbon actif. Application et
regeneration”. Tese de dout. Université de Rennes I.
Boer, Jan Hendrik de (1953). The Dynamical Character of Adsorption. Oxford: Clarendon
Press, p. 239.
Brouers, F., O. Sotolongo-Costa, F. Marquez e J. P. Pirard (2005). “Microporous and
heterogeneous surface adsorption isotherms arising from Levy distributions”. Em: Physica
A: Statistical Mechanics and its Applications 349.1-2, pp. 271–282.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

253
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Brunauer, Stephen, P. H. Emmett e Edward Teller (1938). “Adsorption of gases in


multimolecular layers”. Em: Journal of the American Chemical Society 60.2, pp. 309–319.
Carnahan, B. e J. O. Wilkes (1973). Digital computing and numerical methods. New York: John
Wiley & Sons.
Condon, James B. (2020). Surface Area and Porosity Determinations by Physisorption.
Elsevier.
Elovich, S. Y. e O. G. Larionov (1962). “Theory of adsorption from nonelectrolyte solutions
on solid adsorbents”. Em: Bulletin of the Academy of Sciences of the USSR, Division of
chemical science 11.2, pp. 191–197.
Foo, K. Y. e B. H. Hameed (2010). “Insights into the modeling of adsorption isotherm systems”.
Em: Chemical Engineering Journal 156.1, pp. 2–10.
Fowler, R. H. e E. A. Guggenheim (1940). Statistical thermodynamics. New York: The
Macmillan Company, p. 693.
Freundlich, Herbert (1907). “Über die adsorption in lösungen”. Em: Zeitschrift für
Physikalische Chemie 57U.1, p. 1454.
Fritz, W. e E. U. Schlüender (1974). “Simultaneous adsorption equilibria of organic solutes
in dilute aqueous solutions on activated carbon”. Em: Chemical Engineering Science 29.5,
pp. 1279–1282.
Gautam, Ravindra Kumar e Mahesh Chandra Chattopadhyaya (2016). “Kinetics and
equilibrium isotherm modeling: Graphene-based nanomaterials for the removal of heavy
metals from water”. Em: Nanomaterials for Wastewater Remediation. Elsevier, pp. 79–109.
Halsey, George (1948). “Physical adsorption on non-uniform surfaces”. Em: The Journal of
Chemical Physics 16.10, pp. 931–937.
Harkins, William D. e George Jura (1944). “Surfaces of solids. XIII. A vapor adsorption method
for the determination of the area of a solid without the assumption of a molecular area, and
the areas occupied by nitrogen and other molecules on the surface of a solid”. Em: Journal
of the American Chemical Society 66.8, pp. 1366–1373.
Hill, A. V. (1910). “The possible effects of the aggregation of the molecules of huemoglobin
on its dissociation curves”. Em: Proceedings of the Physiological Society. Vol. 40. suppl,
pp. iv–vii.
Hill, Terrell L. (1946). “Statistical mechanics of multimolecular adsorption II. Localized and
mobile adsorption and absorption”. Em: The Journal of Chemical Physics 14.7, pp. 441–
453.
Johnson, Robert D. e Frances H. Arnold (1995). “The temkin isotherm describes heterogeneous
protein adsorption”. Em: Biochimica et Biophysica Acta (BBA) - Protein Structure and
Molecular Enzymology 1247.2, pp. 293–297.
Jossens, L., J. M. Prausnitz, W. Fritz, E. U. Schlüender e Alan L. Myers (1978).
“Thermodynamics of multi-solute adsorption from dilute aqueous solutions”. Em: Chemical
Engineering Science 33.8, pp. 1097–1106.
Jovanović, D. S. (1969). “Physical adsorption of gases”. Em: Kolloid-Zeitschrift & Zeitschrift
für Polymere 235.1, pp. 1214–1225.
Karaca, S., A. Gurses, M. Ejder e M. Acikyildiz (2006). “Adsorptive removal of phosphate from
aqueous solutions using raw and calcinated dolomite”. Em: Journal of Hazardous Materials
128.2-3, pp. 273–279.
Khan, A. R., R. Ataullah e A. Al-Haddad (1997). “Equilibrium adsorption studies of
some aromatic pollutants from dilute aqueous solutions on activated carbon at different
temperatures”. Em: Journal of Colloid and Interface Science 194.1, pp. 154–165.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

254
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Langmuir, Irving (1918). “The adosrption of gases on plane surfaces of glass, mica and
platinum”. Em: Journal of the American Chemical Society 40.9, pp. 1361–1403.
Marczewski, Adam W. e Mieczyslaw Jaroniec (1983). “A new isotherm equation for single-
solute adsorption from dilute solutions on energetically heterogeneous solids”. Em:
Monatshefte für Chemie - Chemical Monthly 114.6-7, pp. 711–715.
McMillan, W. G. e Edward Teller (1951). “The assumptions of the B.E.T. Theory”. Em: The
Journal of Physical Chemistry 55.1, pp. 17–20.
Pierce, Conway (1960). “The Frenkel-Halsey-Hill adsorption isotherm and capillary
condensation”. Em: The Journal of Physical Chemistry 64.9, pp. 1184–1187.
Podder, M. S. e C. B. Majumder (2017). “Bioremediation of As(III) and As(V) from wastewater
using living cells of Bacillus arsenicus MTCC 4380”. Em: Environmental Nanotechnology,
Monitoring & Management 8, pp. 25–47.
Radke, C. J. e J. M. Prausnitz (1972). “Adsorption of organic solutes from dilute aqueous
solution of activated carbon”. Em: Industrial & Engineering Chemistry Fundamentals 11.4,
pp. 445–451.
Redlich, O. e D. L. Peterson (1959). “A Useful adsorption isotherm”. Em: The Journal of
Physical Chemistry 63.6, pp. 1024–1024.
Saadi, Reyhaneh, Zahra Saadi, Reza Fazaeli e Narges Elmi Fard (2015). “Monolayer and
multilayer adsorption isotherm models for sorption from aqueous media”. Em: Korean
Journal of Chemical Engineering 32.5, pp. 787–799.
Sips, Robert (1948). “On the structure of a catalyst surface”. Em: The Journal of Chemical
Physics 16.5, pp. 490–495.
Tóth, József (1995). “Uniform interpretation of gas/solid adsorption”. Em: Advances in Colloid
and Interface Science 55, pp. 1–239.
Turiel, Esther, Concepcion Perez-Conde e Antonio Martin-Esteban (2003). “Assessment of the
cross-reactivity and binding sites characterisation of a propazine-imprinted polymer using
the Langmuir-Freundlich isotherm”. Em: The Analyst 128.2, pp. 137–141.
Valenzuela, Diego P. e Alan L. Myers (1989). Adsorption equilibrium data handbook. 1th.
Prentice Hall, p. 366.
Vieth, W. R. e K. J. Sladek (1965). “A model for diffusion in a glassy polymer”. Em: Journal
of Colloid Science 20.9, pp. 1014–1033.
Vliet, B. M. van, W. J. Weber Jr e H. Hozumi (1980). “Modeling and prediction of specific
compound adsorption by activated carbon and synthetic adsorbents”. Em: Water Research
14.12, pp. 1719–1728.

ISOTHERM++: A LIBRARY FOR CALCULATION OF ADSORPTION


ISOTHERMS

Abstract. An library, written in C++14, has been designed to describe any adsorption isotherm,
regardless of the number of isotherm parameters. The list of adsorption isotherms is presented,
with their respective equations, which are embedded in the library. Some aspects of how the
library has been designed were discussed and some plots of isotherm curves are displayed.

Keywords: Adsorption isotherm, C++ , Object-oriented programming

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

255
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

MÉTODO DUAL SIMPLEX PARA PROBLEMAS CANALIZADOS COM A


ESTRUTURA DE DADOS LISTA ENCADEADA

Leandro Fernandes dos Santos1 - leandro fsantos@hotmail.com


Ricardo Silveira Sousa2 - rsilveiras@hotmail.com
Wagner Rambaldi Telles2 - wr telles@yahoo.com.br
1 Instituto Federal Fluminense, IFF-Campus Itaperuna, RJ, Brazil
2 Universidade Federal Fluminense, INFES - S. A. Pádua, RJ, Brazil

Resumo. Implementações eficientes e estáveis de métodos tipo simplex constituem um desafio,


pois em primeira instância, exige um bom conhecimento do método, por conseguinte necessita-
se realizar uma implementação que tire proveito de caracterı́sticas presentes em problemas de
grande porte, tais como a esparsidade.
No presente trabalho, o método Dual Simplex especializado em problemas de programação
linear canalizados foi implementado utilizando diferentes estruturas de dados a fim de avaliar o
tempo computacional para cada uma delas. Foi utilizada a abordagem com a Forma Revisada
(FR) para atualização da base. Para esta forma, testou-se duas estruturas de dados para o
armazenamento e manipulação das matrizes envolvidas: Formato Denso tratado aqui como
indexado, e Listas Encadeadas. O método foi testado em duas classes de problemas, a primeira
composta por problemas criados por um gerador pseudoaleatório de modelos de produção com
alta esparsidade e a segunda por problemas do repositório da Netlib.
Nos resultados computacionais a implementação utilizando listas encadeadas não foi muito
eficiente para a forma de atualização da base escolhida, sendo que neste caso, a estrutura de
dados indexada mostrou-se um pouco mais eficiente.

Keywords: Pesquisa Operacional, Programação Linear, Algoritmo Simplex, Esparsidade,


Estruturas de Dados

1. INTRODUÇÃO

Segundo Arenales et al. (2011), surgiu no final Segunda Guerra Mundial a área de pesquisa
denominada Pesquisa Operacional (PO), na qual preocupa-se, entre outras, com a organização
e uso eficiente de recursos disponı́veis, recursos estes que podem ser tempo, matérias-primas,
máquinas, operários, etc. Após este perı́odo diversas técnicas de aplicabilidade prática foram

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

256
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sistematizadas e validadas. O maior expoente desta época foi o desenvonvimento e formalização


do Método Simplex (MS) proposto por George B. Dantzig (1948). Segundo Sullivan e Dongarra
(2000), o Algoritmo Simplex é considerado um dos dez mais influentes algoritmos da Ciência
da Computação e Engenharia.
O MS mostrou-se e ainda tem se apresentado como uma das principais ferramentas para
solução não só de problemas práticos, mas também teóricos de Programação Linear (PL),
Maros (2003), problemas estes que consistem na minimização/maximização de um função
linear sujeita a um conjunto de inequações/equações lineares, denominadas restrições. Devido
a sua grande aplicabilidade, este método tem sido estudado e explorado, tanto do ponto de vista
teórico quanto do ponto de vista computacional, sendo o segundo aspecto importantı́ssimo para
alcançar implementações estáveis e que produzam soluções de maneira eficiente.

1.1 O problema de Programação Linear

O problema de PL com variáveis canalizadas pode ser apresentado em um formato


conhecido por forma geral, como mostrado abaixo em notação matricial:
M inimizar z(x) = c| x (1a)
Sujeito a L ≤ Ax ≤ U (1b)
l≤x≤u (1c)

em que c, x ∈ Rn , A ∈ Rm×n , os vetores L e U ∈ Rm , podendo também serem


ilimitados, neste caso poderão assumir os valores −∞ ou +∞. Os vetores L e U são
n
aij xj em
P
denominados, respectivamente, limitantes inferiores e superiores de cada restrição
j=1
que i = 1, . . . , m. Os vetores l e u ∈ Rn , podem também assumir os valores −∞ ou +∞. Estes
vetores são chamados de limitantes inferiores e superiores, respectivamente, de cada variável
xj , em que j = 1, 2, . . . , n.
O formato do Problema (1) surge na modelagem de problemas reais, como, por exemplo,
problemas da mistura na formulação de rações, problemas de programação da produção, assim
como outros problemas da mistura para produção de ligas metálicas, tintas, adubos, etc.
A cada problema Primal, existe um outro problema denominado Dual que pode ser
representado como:
M inimizar z(y) = b| y (2a)
Sujeito a A| y ≤ c (2b)
y irrestrito (2c)

em que A ∈ Rm×n e os vetores y e b ∈ Rm e o vetor c ∈ Rn . A função da Eq. (2a) é chamada


de função objetivo dual. Existem regras bem definidas para a transformação de um problema
primal em seu respectivo dual e vice-versa, estas regras podem ser encontradas na literatura em
textos que abordam de maneira mais abrangente as relações entre as formulações dos problemas
primais e duais, tais como em Arenales et al. (2011), Bazaraa (2010) e Maros (2003).

2. MATERIAIS E MÉTODOS

O método dual simplex foi proposto por Lemke em 1954 (Lemke (1954)) e segundo
Koberstein (2007) não mostrava-se como uma alternativa viável ao método primal simplex até

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

257
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

o inı́cio dos anos 90. Como apontado em Bixby (2012), inicialmente o método era utilizado
quase que exclusivamente para lidar com reotimizações durante a solução de problemas inteiros
mistos.
A matriz A do Problema (1) pode ser particionada de acordo com a Eq. (3).
" 0#
A
A= (3)
I
em que A0 ∈ Rm×n formado pelas restrições técnicas do problema primal e I ∈ R(m+1)×(m+n)
formando assim uma matriz identidade composta pela canalização das variáveis.

2.1 Algoritmo Dual Simpex Canalizado (DSC)

Tomando por base o problema dual e suas particularidades, pode-se apresentar o algoritmo
DSC que descreve o método para problemas na forma canalizada. O Algoritmo 1 é apresentado
em pseudocódigo, sendo assim, detalhes de implementação computacional são omitidos, visto
que o objetivo é demonstrar de maneira conceitual seus principais passos.
O Algoritmo 1 começa com a base dual inicial factı́vel de inicialização imediata, formada
pelas colunas unitárias da partição na matriz A, sendo esta partição composta pela canalização
das variáveis. Iterativamente o método segue alternando entre bases enquanto a função dual
puder ser melhorada e a solução ótima ser encontrada, ou o problema ser dual ilimitado.

Algoritmo 1 Dual Simplex Canalizado - DSC


Entrada: Matriz A, vetores b, l e u; Base dual inicial factı́vel I.
Saı́da: Solução ótima x ou problema dual ilimitado.
1: P0: Inicialização (Inicialmente B = I ∴ B −1 = I)
2: Defina os conjuntos dos ı́ndices-básicos (IB ) e não-básicos (IN ):
3: IB = {m + 1, m + 2, . . . , m + n} e IN = {1, 2, . . . , m}
4: Calcule a solução dual. Inicialmente λ̂B = c.
5: Calcule a solução primal x̂.
6: continue = VERDADEIRO;
7: enquanto (continue) faça
8: P1: Teste de otimalidade
9: Calcule ŷN = (N x̂)m×1 e verifique a maior violação para lN ≤ ŷN ≤ uN .
10: se ((lNj ≤ ŷN ≤ uNj ∀ j ∈ IN )) então
11: continue = FALSO; // solução ótima encontrada
12: senão
13: Escolha q ∈ IN para entrar na base (B), onde q determina a maior
14: violação primal.
15: fim se
16: P2: Direção Dual Simplex
17: Calcule ηB = (B > )−1 (aq. )> , em que aq. representa a q-ésima linha da
18: partição não básica da matriz A.
19: P3: Tamanho do passo:
20: se (houver violaçãono limite
 superior) então
21: Calcule δi = − ηλ̂BB ≥ 0, i = 1, . . . , n.
i
22: senão
23: Calcule δi = ηλ̂BB ≥ 0, i = 1, . . . , n..
i
24: fim se
25: Ordene os deltas (δi ) onde i = 1, . . . , r (r deltas).
26: Selecione δp = min{δi , i = 1, . . . , r}, sendo que p ∈ IB .
27: O ı́ndice p será o ı́ndice que sairá da base.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

258
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

28: P4: Atualização


29: - Atualize o conjunto de ı́ndices básicos (IB ) e o conjunto de ı́ndices
30: não básicos (IN ).
31: - Atualize a solução dual (λ): λB = λB + δηB
−1
32: - Atualize a nova inversa da base (B ).
−1
33: - Atualize a solução primal (x): x = B y B
34: fim enquanto

Para implementação do Algoritmo 1 foi utilizado o paradigma de programação orientado


a objetos (OO), sendo utilizada a linguagem de programação C++. O tipo de arquivo padrão
usado nas instâncias para entrada de dados foi o LP, IBM (2020).

2.2 Procedimento de atualização da base

Forma Revisada Nesta forma de atualização, suponha a matriz B −1 , de dimensão n, como


sendo a matriz inversa da base na iteração t, onde t 6= 1, pois para t = 1 tem-se B −1 = I, pois
por construção o método DSC sempre é possı́vel obter B −1 = I, o que caracteriza uma grande
vantagem.
−1
A nova inversa da base, denotada por B pode ser obtida realizando-se a multiplicação
de uma matriz de transformação elementar E pela matriz B −1 . Sendo que esta matriz de
transformação difere da matriz identidade somente pela k-ésima coluna, onde k refere-se a
posição no conjunto de ı́ndices básicos (IB ) associada ao ı́ndice p básico. Desta forma a matriz
de transformação E é dada por:

−ηb1
 
1 0 ... η bk
... 0
 −ηb2 
0 1 ... . . . 0
 η bk 
. .. .. .. . . .. 
 .. . . . . .
E=
0 1
 (4)
 0 ... η bk
. . . 0 
. .. ... .. . . . .. 
 .. . . .
 
−ηbn
0 0 ... η bk
... 1

Onde, a coluna k é definida em função das componentes do vetor da direção Dual Simplex
(ηB ) na qual é obtida fazendo-se ηB = (B > )−1 (aq. )> . Em que aq. representa a q-ésima linha
da partição não básica da matriz A, sendo q o ı́ndice que entrará base (q ∈ IN - De acordo
com o Algoritmo 1) e determina a maior violação primal, seja no limite inferior ou superior.
Vale destacar que a matriz (4) pode ser armazenada computacionalmente armazenando apenas
a coluna k e seu respectivo valor.
Vale notar na matriz (4), que para a linha i = k, a componente será calculada fazendo η1b e
k
−η
para as demais componentes será obtida por ηb bi .
k
A nova matriz inversa da base, é obtida então pelo produto da matriz inversa da base atual
(B −1 ) com a matriz (4), como pode ser visto na Eq. (5).

−1
B = EB −1 (5)
Na inicialização do DSC tem-se que B = I (matriz base inicial), logo de acordo com a
−1
igualdade de (5) que a base é B = E.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

259
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

−1
O processo de atualização das demais linhas de B (quando i 6= k) é obtido realizando a
−η
adição da i-ésima linha de B −1 com a k-ésima linha de B −1 multiplicada por ηb bi , ou seja:
k

( −η
−1 bi. + ( ηbbn )bk. , se i 6= k
B i,k = k
i = 1, . . . , n (6)
− η1b bk. , se i = k
k

Após a realização do processo de atualização da base acima descrito, então será necessário
atualizar a solução primal e continuar o processamento descrito no Algoritmo 1.

Complexidade das Operações no Cálculo da Inversa da Base Tendo em vista que a operação
de maior custo no DSC consiste na atualização da base, então com o objetivo de mensurá-la foi
realizado o cálculo de complexidade.
−1
Neste caso, para cada linha da nova inversa da base (B ), com (i 6= k) e ηbi 6= 0, no cenário
de pior caso, devem ser consideradas as seguintes operações:
−ηbi
• 1 divisão ηbk

−ηbi
• n multiplicações b ,
ηbk k.
onde bk. = [bk1 bk2 . . . bkn ]
    
ηbi ηbi ηbi
• n subtrações bi1 − b
ηbk k1
bi2 − b
ηbk k2
. . . bim − b
ηbk km

Totalizando 2n + 1 operações. Estas operações serão realizadas por um total de n − 1 linhas,


então:
Total parcial de Operações = (n − 1)(2n + 1)
Ainda tem-se as operações da linha i = k:
−1
• n divisões b ,
ηbk k.
onde bk. = [bk1 bk2 . . . bkn ]

Tendo assim um aditivo de n operações, ou seja:


Total parcial de Operações = (n − 1)(2n + 1) + n = 2n2 − 1.
Portanto, para cada linha (i 6= k) com ηbi = 0 haverá (2n + 1) operações a menos. Logo o
total de operações serão:
T = (2n2 − 1) − (2n + 1)nl, em que nl corresponde ao número de linhas que atendem a
condição citada.

Representação dos dados usando listas encadeadas Ao representar os dados com a utilização
de listas encadeadas, decidiu-se que a melhor abordagem considerando as rotinas do Algoritmo
DSC seria um vetor de ponteiros para listas. Esta representação foi utilizada tanto para a matriz
A de restrições técnicas do problema quanto para a matriz básica B.
O vetor de ponteiros criado representa as linhas de uma matriz, sendo que cada posição
possui duas informações: o número de elementos atuais na respectiva linha (num elem) e um
ponteiro para o primeiro elemento (ini). Já na estrutura que representa os elementos em si (nó)
existem três campos: A informação correspondente ao ı́ndice da coluna (col), o valor (val)
e um ponteiro para o próximo elemento da lista (prox). A Fig. 1 sumariza as informações
apresentadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

260
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

linhas
num_elem
1 col val *prox
*ini

num_elem
2 col val *prox col val *prox col val *prox
*ini

num_elem
3 col val *prox
*ini

num_elem
4 col val *prox col val *prox
*ini

num_elem
5 col val *prox col val *prox
*ini

Figura 1: Representação utilizada nas implementações com listas encadeadas.

Esta forma de representação possui a vantagem de preservar a esparsidade dos dados,


em contrapartida implica em uma ligeira complexidade na implementação para gerenciar a
atualização das informações de maneira correta. Sendo assim necessário, na maioria das vezes,
percorrer a estrutura para inserir, remover ou atualizar determinado elemento, o que influencia
diretamente no seu desempenho.

3. RESULTADOS E DISCUSSÕES

3.1 Instâncias utilizadas

Para a realização dos testes computacionais foram utilizadas 2 classes de problemas distintas
contendo: 32 instâncias com alto ı́ndice de esparsidade geradas de forma pseudoaleatória
relacionadas a problemas de programação da produção multiperı́odo e 31 instâncias do
repositório da NetLib 1 . As instâncias foram classificadas de acordo o número de variáveis
presentes (n), sendo consideradas instâncias pequenas onde n ≤ 1000, médias com 1000 <
n < 5000 e grandes onde n ≥ 5000.

Experimentos Computacionais Para a compilação do código implementado foi utilizado o


Microsoft Optimizer C/C++ Compiler V19 juntamente com a IDE Microsoft Visual Studio
Community 2017 com a licença gratuita estudantil. Todos os experimentos computacionais
foram realizados em um único computador Notebook com processador Intel Core I7 2.0 GHz,
12 GB de RAM e sistema operacional Windows 7 de 64 bits. Os resultados analisados nos
testes foram: número de iterações (IT) e tempo total de solução (Tempo Sol.).

Problemas de Programação da Produção Na Tabela 1 estão sumarizados os resultados de


solução das instâncias do problema de programação da produção no DSC em cada uma das
estruturas de dados. Vale ressaltar que não houve variações no número de iterações para as
duas estruturas. Na Tabela 1, assim como na Tabela 2 também estão descritas informações

1
http://www.netlib.org/lp/data/index.html

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

261
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

importantes relacionadas às instâncias, estas são o número de linhas (Lin.), número de colulas
(Col.), quantidade de elementos não-nulos (NN) e o percentual de esparsidade (Esp.%).
Tabela 1: Execução DSC Revisado - Problemas de Programação da Produção.

INSTÂNCIAS PEQUENAS
Index LE
Instância Lin. Col. NN Esp.% IT
Tempo Sol. (s) Tempo Sol. (s)
inst1 prod 60 120 260 96,39 64 0,004 0,012
inst2 prod 110 230 510 97,98 118 0,028 0,083
inst3 prod 160 340 760 98,60 168 0,081 0,244
inst4 prod 210 450 1010 98,93 222 0,189 0,568
inst5 prod 260 560 1260 99,13 282 0,386 1,124
inst6 prod 310 670 1510 99,27 353 0,687 2,113
inst7 prod 360 780 1760 99,37 392 1,036 3,061
inst8 prod 410 890 2010 99,45 443 1,634 4,591
inst9 prod 460 1000 2260 99,51 509 2,300 6,455
Média 283,444 0,705 2,028
INSTÂNCIAS MÉDIAS
inst10 prod 510 1110 2510 99,56 559 3,241 6,68
inst11 prod 800 1580 3800 99,70 948 10,405 33,135
inst12 prod 900 1660 3900 99,74 1078 13,716 39,043
inst13 prod 1050 2090 5050 99,77 1250 25,043 75,287
inst14 prod 1200 2210 5200 99,80 1456 32,685 107,129
inst15 prod 1300 2600 6300 99,81 1540 45,788 140.685
inst16 prod 1550 3110 7550 99,84 1868 92,867 243.737
inst17 prod 1800 3620 8800 99,86 2174 124.403 403,605
inst18 prod 2050 4130 10050 99,88 2433 183,404 535,488
inst19 prod 2200 4220 10200 99,89 2611 205,417 658,168
inst20 prod 2300 4640 11300 99,89 2741 257,128 802,855
Média 1696,182 90,372 276,892
INSTÂNCIAS GRANDES
inst21 prod 2550 5150 12550 99,90 3038 341,970 1124,062
inst22 prod 3150 6190 15150 99,92 3800 629,354 1990,594
inst23 prod 3600 7170 17600 99,93 4369 932,681 3155,559
inst24 prod 3720 7380 18120 99,93 4474 1096,052 3408,800
inst25 prod 3900 7700 18900 99,94 4781 1177,211 4144,191
inst26 prod 4100 8180 20100 99,94 5046 1463,371 4973,554
inst27 prod 4600 9190 22600 99,95 5608 1981,006 6937,431
inst28 prod 5100 10200 25100 99,95 6161 2763,343 9299,890
inst29 prod 6120 12220 30120 99,96 7364 4569,134 14860,162
inst30 prod 6900 13740 33900 99,96 8481 6775,075 22952,597
inst31 prod 7200 14270 35200 99,97 8912 7921,783 26817,645
inst32 prod 8200 16280 40200 99,97 10009 11606,152 40839,257
Média 6003,583 3438,090 11708,645

Observa-se que para as instâncias pequenas, em média, o tempo de solução da


implementação utilizando Listas Encadeadas (LE) foi quase 3 vezes mais lenta que a versão
Indexada. Isto deve-se ao fato da maneira com que as operações são realizadas durante as
iterações do método, tais como o acesso aos elementos da matriz de restrições do problema e a
atualização da matriz básica.
O acesso aos elementos da lista atua como um fator de influência direta no desempenho,
visto que não há um ı́ndice indicando a posição exata do elemento procurado, sendo assim
o acesso no pior caso dá-se em uma complexidade assintótica de O(n). A remoção na lista
também influencia, pois antes de executar a operação, é necessário identificar o elemento a ser
removido no processo de atualização da base, o que leva ao caso anterior.
A estrutura de dados Indexada, apesar de armazenar elementos nulos e realizar operações
com eles, obteve vantagem pela sua caracterı́stica de possuir um acesso constante (O(1)). Desta
forma, os cálculos realizados durante as iterações tiram proveito desta particularidade. Observe

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

262
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que o número de iterações é muito próximo da quantidade de linhas e bem menor que o número
de colunas para cada problema.
Com relação aos tempos com as instâncias médias, nota-se um aumento significativo em
comparação com os problemas pequenos, o que é natural devido ao aumento na dimensão de
cada problema (m × n). Novamente observam-se comportamentos semelhantes aos tempos de
cada cada estrutura de dados, com a LE consumindo muito tempo, em média, quase 3 vezes
mais que Indexada. Vale observar que, no geral o número de iterações foi pouco superior ao
número de linhas do problema e bem menor que o número de colunas.
Notadamente, nas instâncias grandes a implementação utilizando LE novamente obteve um
desempenho muito ruim em relação a indexada. O número de iterações foi em média 22, 3%
superior ao número de linhas dos problemas. A estrutura de dados indexada mostrou-se com
um desempenho superior a 70% em relação a implementação com LE.

Problemas do Repositório da NetLib Na Tabela 2, encontram-se os resultados para os


problemas da NetLib resolvidos pelo DSC.
Tabela 2: Execução DSC Revisado - Problemas da NetLib.

INSTÂNCIAS PEQUENAS
Index LE
Instância Lin. Col. NN Esp.(%) IT
Tempo Sol. (s) Tempo Sol. (s)
AFIRO 27 32 83 90,39 26 0,001 0,001
KB2 43 41 286 83,78 187 0,003 0,015
SC50B 50 48 118 95,08 51 0,001 0,005
SC50A 50 48 130 94,58 48 0,001 0,005
SHARE2B 96 79 694 90,85 324 0,011 0,162
ADLITTLE 56 97 383 92,95 147 0,006 0,079
SC105 105 103 280 97,41 110 0,007 0,097
SCAGR7 129 140 420 97,67 349 0,032 0,792
RECIPELP 91 180 663 95,95 45 0,007 0,016
VTP-BASE 198 203 908 97,74 639 0,119 4,791
SC205 205 203 551 98,68 206 0,044 1,575
SHARE1B 117 225 1151 95,63 693 0,148 9,355
E226 223 282 2578 95,90 948 0,330 36,563
AGG2 516 302 4284 97,25 306 0,151 0,379
AGG3 516 302 4300 97,24 334 0,159 0,563
SCORPION 387 358 1426 98,97 427 0,256 8,151
SCTAP1 300 480 1692 98,83 535 0,516 41,365
SCAGR25 471 500 1554 99,34 1161 1,255 236,670
DEGEN2 444 534 3978 98,32 2735 3,307 1507,455
FINNIS 497 614 2310 99,24 584 0,946 57,861
ETAMACRO 400 688 2409 99,12 1211 2,123 893,702
SCSD1 77 760 2388 95,92 160 0,371 12,471
Média 510,272 0,445 127,821
INSTÂNCIAS MÉDIAS
STANDATA 369 1075 3031 99,21 79 0,408 1,051
STANDMPS 467 1075 3679 99,27 276 1,527 8,388
SCRS8 490 1169 3182 99,44 1062 5,884 878,942
SHIP04S 402 1458 5810 99,01 402 3,586 11,407
SHELL 536 1775 3556 99,63 735 9,478 67,556
SCTAP2 1090 1090 6714 99,67 989 16,243 3671,947
SHIP04L 402 2118 6332 99,26 396 7,407 22,880
SHIP12S 1151 2763 8178 99,74 1120 34,784 128,223
SHIP12L 1151 5427 16170 99,74 1186 142,160 527,601
Média 693,888 24,608 590,888

É importante notar que para algumas instâncias pequenas (AFIRO, SC50A, SC50B, SC105,
RECIPELP, SC205, AGG2, AGG3, SCORPION e FINNIS), o DSC realizou poucas iterações para

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

263
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

encontrar o valor ótimo em relação ao número de linhas destes problemas. Nos demais
problemas, o número de iterações foi em média 3, 5m, sendo m o número de linhas. Isto
está diretamente relacionado ao fato de serem problemas numericamente difı́ceis de serem
resolvidos e principalmente por serem altamente degenerados, como é o caso do DEGEN2 que
por consequência levou maior tempo para ser resolvido.
No geral, os tempos de execução foram baixos, com exceção de alguns problemas utilizando
a estrutura de dados com LE, em especial as instâncias DEGEN2, ETAMACRO e SCAGR25. Pan
(2005) relata que para alguns problemas, de 10% a 57% dos passos para encontrar a solução são
degenerados. Segundo o autor, os problemas KB2 e DEGEN2 possuem, respectivamente, 35,37%
e 56,74% dos passos degenerados.
Cabe ressaltar que a instância SHIP12L possui 5427 variáveis, o que a classificaria como
instância grande pelo padrão adotado, mas esta foi incluı́da junto as médias por ser a única com
número de variáveis acima de 5000 que o método conseguiu encontrar a solução.
Nas instâncias médias o DSC também obteve um bom comportamento em relação ao número
de iterações realizadas para encontrar as soluções ótimas destes problemas. Sendo em média
1,08m em relação ao número de linhas. O destaque vai para a solução do problema STANDATA,
pois a solução foi encontrada com um número de iterações cerca de 4,5 vezes menor que seu
número de linhas. O número de iterações realizadas para o problema STANDMPS também foi
bem menor que o número de linhas deste.
No geral, os tempos de solução aumentaram devido ao crescimento dos problemas,
principalmente em relação ao número de variáveis. Este substancial aumento do número de
variáveis não influenciou diretamente no número de iterações, visto que a relação entre as
iterações e o número de linhas dos problemas foi de 1,02. Os tempos de solução da estrutura de
dados indexada foram em média 24 vezes mais rápida que LE.
É importante ressaltar que as soluções encontradas pelo DSC para os problemas do
repositório da NetLib aqui analisados possuem 11 dı́gitos de precisão, sendo esta, a mesma
precisão numérica apresentada no trabalho de Koch (2004).

4. CONCLUSÕES

A resolução de problemas de programação linear têm sido objeto de pesquisas e estudos


ao longo dos anos. Ainda hoje, a implementação de um método tipo simplex estável, sobre o
ponto de vista numérico, e robusta de tal modo a possibilitar a solução de diversas classes de
problemas reais constitui um desafio.
Neste trabalho, o método Dual Simplex para problemas na forma geral canalizada foi
implementado utilizando duas diferentes estruturas de dados com a Forma Revisada para
atualização da base.
Nos resultados apresentados, a estrutura de dados com Listas Encadeadas não obteve
um bom desempenho com a forma de atualização escolhida. Apesar desta estrutura tirar
proveito da caracterı́stica esparsa destes problemas, o modo com que a atualização da base
foi implementada não foi favorecido pelo uso desta estrutura.
Em relação ao número de iterações, o método DSC obteve resultados satisfatórios dado que,
como já ressaltado, nenhuma técnica alternativa da escolha da variável que deixa a base foi
utilizada. Estes resultados evidenciam mais uma vez o folclore do método Simplex no qual diz
que o número de iterações é uma função polinomial de grau baixo em relação ao número de
linhas do problema.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

264
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na solução de problemas reais do repositório da NetLib, o DSC também obteve um


desempenho satisfatório sugerindo certa robustez do método para solução das instâncias
escolhidas, pois elas representam problemas reais e que são reconhecidamente difı́ceis de serem
resolvidos e tratados numericamente.

REFERÊNCIAS

Arenales, M. N. e Armentano, V. e Morabito, R. e Yanasse, H.(2011), Pesquisa Operacional, Elsevier:


ABREPO.
Bazaraa, M. S. and Jarvis, J. J. and Sherali, H. D. (2010), Linear Programming and Network Flows 4Ed
- Vol. 3, John Wiley and Sons - United States.
Bixby, R. (2012), The Brief History of Linear and Mixed-Integer Programming Computation,
Documenta Mathematica.
Dantzig, G. B. (1948), Maximization of a Linear Function of Variables Subject to Linear Inequalities,
Scientific Computation of Optimal Programs.
Dongarra, J. e Sullivan, F. (2000), Guest Editor’s Introduction: The top 10 Algorithms Vol. 2, IEEE
Computer Society Digital Library.
IBM Knowledge Center, (2020). https://www.ibm.com/support/knowledgecenter/SSSA5P 12.9.0/ilog.
odms.cplex.help/CPLEX/FileFormats/topics/LP.html
Koberstein, A. and Suhl, U. H. (2007), Progress in the dual simplex method for large scale LP problems:
practical dual phase 1 algorithms, Comput Optim Appl.
Koch, T. (2004), The final Netlib-LP results, Operations Research Letters.
Lemke, C. E, (1954), The Dual Method of Solving the Linear Programming Problem, Naval Research
an Logistics Quarterly.
Maros, I. (2003), Computational Techniques of the Simplex Method, Springer US - Kluwer Academic
Publishers.
Pan, P. Q. (2005), A generalization of the Revised Simplex Algorithm for Linear Programming.

APPENDIX A

DUAL SIMPLEX METHOD FOR BOUNDARY PROBLEMS USING EFFICIENT DATA


STRUCTURES

Abstract. Efficient and stable implementations of simplex methods are challenging because, in
the first instance, it requires good knowledge of the method, so an implementation that takes
advantage of features present in large real problems such as sparsity needs to be implemented.
In the present work, the Dual Simplex method specialized in bounded linear programming
problems using different data structures was implemented in order to evaluate the
computational time for each one. The Revised Form (FR) approach was used to base update.
For this form, two data structures were tested for storing and manipulating the constraint matrix
(A matrix) and the base inverse matrix: Dense Format treated here as indexed, and Linked Lists.
The method was tested in two classes of problems, the first consisting of instances set
generated by a pseudo-random generator of high-sparsity production models, and instances
of the Netlib repository.
The implementation using linked lists has not proved to be very efficient for the chosen base
update method, in this case the indexed data structure was a little more efficient.

Keywords: Operational Reasearch, Linear Programming, Simplex Algorithm, Sparsity, Data


Structures

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

265
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ORGANIZAÇÃO EFICIENTE DE IMAGENS DIGITAIS POR MAPAS DE DIFUSÃO

Carlos Alberto Lopes dos Santos de Oliveira1−2 - carlos.santos@ifnmg.edu.br


Ivan Napoleão Bastos1 - inbastos@iprj.uerj.br
Francisco Duarte Moura Neto1 - fmoura@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brasil
2 Instituto Federal do Norte de Minas Gerais, Campus Teófilo Otoni - Teófilo Otoni, MG, Brasil

Resumo. No presente trabalho é proposta uma aplicação da poderosa técnica de redução de


dimensionalidade não linear conhecida como Mapas de Difusão envolvendo imagens digitais.
Esta técnica se encontra entre as mais recentes e produtivas no contexto de redução não linear
de um conjunto de dados, conseguindo descobrir padrões em conjuntos de dados, agrupando-os,
e considerando várias escalas para classificação. Neste sentido, o artigo traz uma coleção
de imagens de um brinquedo infantil cujo ângulo de rotação vertical do brinquedo representa
o único grau de liberdade do conjunto de dados. Os Mapas de Difusão procuram pelas
similaridades entre os pixels que formam as imagens, buscando uma organização eficiente. A
busca pela noção adequada de similaridade comuns entre pontos de dados mede a organização
eficiente e produz vantajosas inferências também no campo do reconhecimento de padrões. A
aplicação de Mapas de Difusão resultou no ordenamento eficiente de fotografias tiradas de um
carrinho de brinquedo sob diversos ângulos.

Palavras-chave: Mapas de difusão, Imagens digitais, Reconhecimento de padrões

1. INTRODUÇÃO

No estudo de aprendizagem de máquinas, muitas vezes busca-se desenvolver um classificador


ou um estimador de alguma função a partir de um conjunto de dados (Dias, 2012). Em muitas
destas situações, os dados apresentam originalmente muitas dimensões. No entanto, há razões
práticas e teóricas para se conjecturar que tais informações pertençam a uma variedade de baixa
dimensão, ou seja, tais atributos podem ser dependentes entre si, como no caso de variáveis
correlacionadas ou, de outra forma, a dimensionalidade dos dados originais pode ser maior
do que a necessária. Em outras palavras, signfica que provavelmente a verdadeira geometria
intrínseca do conjunto de dados, aquela onde somente as variáveis importantes residem, possa
ser obtida com um número menor de parâmetros.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

266
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ainda de acordo com Dias (2012), o estudo de dados de alta dimensionalidade é inevitável
e possui motivação prática e teórica. Do ponto de vista prático, busca-se visualizar e analisar
dados multivariados modelando os fenômenos que os geraram na esperança de entender o
seu funcionamento. Do ponto de vista teórico, deve-se considerar a chamada “maldição da
dimensionalidade” (curse of dimensionality), um termo que remete nitidamente aos problemas
associados ao processamento de dados de alta dimensão (problemas estes que estão presentes
na atual sociedade orientada pela informação). Neste contexto, os dados de dimensionalidade
elevada são esparsos no espaço de alta dimensão. Em Lee & Michel (2007), podem ser verificadas
algumas propriedades inusitadas relacionadas a um espaço de alta dimensão, como por exemplo
em relação a normas e distâncias entre os pontos dos dados.
Imagine, por exemplo, uma imagem de 100 × 100 pixels, onde cada pixel pode ser visto
como uma representação de uma variável. Logo, tem-se um espaço de 10000 dimensões. Dado
um espaço de características tão alto, os pontos de dados amostrados normalmente aparecem
dispersos nesse espaço. A desvantagem, então, é que, ao tentar modelar tais fenômenos que
geraram esses dados, alguns algoritmos distorcem ou falham por completo na estimativa da
função, principalmente quando os dados apresentam ruídos. De acordo com Lafon (2004),
a estimativa da função e da densidade torna-se dispendiosa ou imprecisa, e as medidas de
similaridade global decompõem-se.
A busca pela noção adequada de similaridade comuns entre pontos de dados mede a
organização eficientes desses, tendo repercussões em reconhecimento de padrões. Considere,
por exemplo, uma coleção de imagens de um brinquedo infantil (Fig. 1). Nessa figura temos 16
imagens de um mesmo brinquedo. O ângulo de rotação vertical do brinquedo é o único grau de
liberdade no conjunto de imagens.

Figura 1- Imagens de um brinquedo infantil em ordem aleatória do ângulo de rotação. Cada imagem tem
400 por 300 pixels.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

267
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Uma pessoa, diante da tarefa de organizá-las, muito provavelmente notaria que elas diferem
tão somente pela rotação do brinquedo e atribuiria a este parâmetro a maior importância. Assim,
ordenar-se-iam as imagens sem dificuldade. Um computador, por outro lado, veria cada imagem
como um ponto de dados em R400×300×3 , um espaço de coordenadas de alta dimensão. Na busca
pela organização, os pontos de dados seriam, por natureza, organizados de acordo com sua
posição no espaço coordenado, cuja medida de similaridade mais comum é algo relacionado com
o inverso da distância euclidiana, mais próximo, menor a distância, mais similar. Organizando as
imagens de acordo com a similaridade entre pontos de dados, certamente o computador também
conseguiria realizar a tarefa.
A ideia subjacente à realização dessa atividade está na hipótese de que a verdadeira
dimensionalidade intrínseca das imagens, então, pode ser muito menor. De fato, nesse exemplo,
o único parâmetro pertinente para organizá-las é o ângulo de rotação do brinquedo. Em Belkin
(2003) é citado um outro exemplo relacionado à fala - enquanto representações típicas de sinais de
fala são baseadas em transformadas de Fourier de janela deslizante e são de alta dimensionalidade,
o próprio sinal da fala é produzido pelo trato vocal que tem graus de liberdade limitados.
No mapeamento do espaço onde os dados residem, uma pequena distância euclidiana entre
vetores quase certamente indica que eles são muito similares. Contudo, uma grande distância,
em contrapartida, fornece muito pouca informação sobre a natureza da discrepância. Eis a
dificuldade: nos espaços onde naturalmente os dados residem, que são de altas dimensões, as
distâncias costumam ser grandes. Esta distância euclidiana, portanto, fornece apenas uma boa
medida da similaridade local. A solução, então, para a redução da dimensionalidade não linear,
é a hipótese de que os dados estão sobre ou ao redor de uma variedade de baixa dimensão em
um espaço dimensional (provavelmente) muito elevado. Neste sentido, o ideal seria, se fosse
possível, medir distâncias na própria variedade em vez de no espaço euclidiano e com isso
mapear os dados e a relação entre pontos individuais usando menos dimensões. Nas imagens do
brinquedo, por exemplo, levando-se em conta sua estrutura global, pode-se representar os dados
das imagens usando apenas uma variável: o ângulo de rotação do brinquedo.
O objetivo, então, da redução de dimensionalidade, é determinar uma estrutura de dados de
dimensão menor que os absorva, levando a um mapeamento eficiente. Tal representação alcança
a redução de dimensionalidade, enquanto, idealmente, deve preservar as relações importantes
entre os pontos de dados. Este trabalho traz um possível método para a realização deste propósito,
conhecido como Mapas de Difusão, abordando sua aplicação no reconhecimento e organização
de imagens digitais.
Inicialmente, a seção 2 traz uma breve apresentação da técnica. O objetivo aqui é possibilitar
ao leitor compreender seu funcionamento e exibir os passos para sua implementação. Na seção 3
temos a aplicação à coleção de imagens digitais do carrinho buscando uma organização eficiente,
juntamente com os resultados e discussões. Por fim, a última seção do trabalho expõe as
considerações finais do trabalho e expectativas de estudos posteriores.

2. MAPAS DE DIFUSÃO

Os Mapas de Difusão (Diffusion Maps) estão entre as mais recentes e produtivas técnicas
para redução de dimensionalidade não linear de um conjunto de dados, bem como, para encontrar
estruturas significativas. A busca da geometria intrínseca da variedade onde os dados em
estudo residem permite extrair informações relevantes sobre esses e propicia a compreensão do
fenômeno que os gerou. Para cumprir quaisquer destas tarefas, tal método, assim como outras

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

268
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

técnicas de mineração de dados e aprendizado de máquinas, empregam algoritmos baseados em


grafos. Segundo Coifman & Lafon (2006), em termos de estruturas de dados, os grafos oferecem
um compromisso vantajoso entre simplicidade, capacidade de interpretação e capacidade de
representar relações complexas entre pontos de dados.
De modo sucinto, ao se utilizar grafos na representação do conjunto de dados e da sua
similaridade, a técnica permite definir uma métrica no espaço de distribuições de probabilidades
que relaciona as similaridades em múltiplas escalas utilizando-se de processos markovianos
em pontos de dados que começam com similaridades locais de baixa ordem e evoluem rumo
à integralização de toda a variedade. Ao final, o que se tem é um mapeamento que consegue
capturar, de modo satisfatório, a proximidade (correlação) entre pontos de dados preservando a
estrutura local.

2.1 Similaridades como arestas de um grafo

O primeiro passo na construção do algoritmo é medir a conectividade entre os pontos de


dados observados que devem ser numéricos ou convertidos a quantidades numéricas. Neste
sentido, imagine cada ponto como o vértice de um grafo conectado onde as arestas que o ligam a
outro nó vizinho têm seus pesos definidos de acordo com a similaridade que cada um destes tem
com seus vizinhos. O que se tem, então, é um grafo com pesos que refletem uma similaridade
local entre os pontos de dados.
Suponha agora que se faça um passeio aleatório pelos dados, começando de um específico,
fazendo saltos aleatórios como um caminhante desnorteado, apenas guiado pela probabilidade
de atingir um ponto qualquer. Saltar para um ponto mais próximo é mais provável do que saltar
para outro que esteja distante. Nesta acepção, cria-se uma relação entre a distância no espaço de
dados e a probabilidade de transição do caminhante aleatório.
A conectividade entre dois pontos de dados quaisquer, xi e xj , com i 6= j é definida como
a probabilidade de saltar de xi para xj em cada instante da caminhada aleatória. Como essa
conectividade é proporcional à similaridade desses dados, é útil expressar essa conectividade
em termos de uma função de verossimilhança não normalizada, k : Rd × Rd −→ R, conhecida
como núcleo de difusão (diffusion kernel).

conectividade(xi , xj ) = k(xi , xj ) (1)


Este núcleo define uma medida local de similaridade dentro de uma certa vizinhança. Fora
dela, esta função precisa se aproximar rapidamente de zero. Uma função que atende muito bem
a este propósito é o núcleo gaussiano.

!
kxi − xj k2
k(xi , xj ) = exp − (2)
α

A noção de vizinhança de um dado qualquer xi pode ser definida como todos os pontos xn ,
com n ∈ N, cuja a função k(xi , xj ) ≥ ε escolhido. Esse parâmetro remete à conectividade do
grafo e como o pesquisador imagina que os dados possam estar relacionados. Fazendo-se o
ajuste da escala do núcleo (parâmetro α ), escolhe-se o tamanho da vizinhança de acordo com o
conhecimento a priori da disposição e da densidade dos dados. De acordo com de La Porte et al.
(2008), para estruturas intrincadas, não lineares, de menor dimensão, uma pequena vizinhança é
escolhida. Para dados esparsos, uma vizinhança mais ampla é mais apropriada.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

269
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Seja a matriz K̃ com os valores de conectividade entre todos os pontos de dados. O passo
seguinte é definir uma distribuição de difusão normalizada por uma uma matriz P , conhecida
como matriz de Markov (ou matriz de probabilidade de transição) cujas entradas representam a
probabilidade de o caminhante aleatório atingir cada ponto de dado em determinado instante.
Obtém-se esta matriz P utilizando-se da matriz de similaridade K̃ como se segue:

n
k̃ij X
(K)ij = kij = , k̃i = k̃iw (3)
k̃i k̃j w=1

n
kij X
(P )ij = pij = , mi = kiw (4)
mi w=1

Observe que a matriz M é uma matriz diagonal que tem em cada linha, em sua entrada
não-nula, a soma dos pesos das linhas correspondente da matriz de conectividade K ajustada.
Sendo assim, a matriz P , como foi definida, tem entradas não negativas e linhas que somam um
e representa, em cada entrada pij , a probabilidade de transição de um vértice xi a outro xj em
uma unidade de tempo. É interessante ainda observar que a analogia entre o processo descrito e
as cadeias de Markov permite identificar cada ponto de dado como um estado desta cadeia.

2.2 Processo de Difusão

De acordo com Coifman & Lafon (2006), do ponto de vista de análise de dados, a razão para
estudar a cadeia de Markov é que a matriz P contém informações geométricas sobre o conjunto
de dados em estudo. Como foi definida, as transições expressas pela distribuição de difusão
refletem a geometria local definida pelos vizinhos imediatos de cada um nó no grafo de dados.
Como observado, p(xi , xj ) representa a probabilidade de transição em um passo de tempo do
estado xi para o xj e é proporcional ao peso da aresta k(xi , xj ). Tomando as potências da matriz
de difusão P , aumentamos o número de passos percorridos. Este é o objetivo. À medida que a
cadeia avança no tempo, o que equivale a tomar cada vez maiores potências de P , permitimos
integrar a geometria local e, com isto, ter conhecimento sobre as estruturas geométricas da
variedade na qual o conjunto de dados está inserido.
À medida que t cresce, o processo de difusão prossegue: a probabilidade de seguir um
caminho ao longo da estrutura geométrica subjacente do conjunto de dados aumenta. Uma vez
que os pontos de dados são bem concentrados sob a variedade, eles são bem conectados. Com
isso, os caminhos se formam ao longo de saltos curtos e de alta probabilidade. Em contrapartida,
alguns caminhos são mais improváveis. No desenrolar do processo, a estrutura dos dados é
explorada e sua topologia gradualmente revelada.

2.3 Distâncias e Mapas de Difusão

Da subseção anterior, vimos que um processo de difusão utilizando as potências da matriz


Markov P é útil na descoberta da estrutura geométrica que contém os dados em várias escalas.
Nas palavras de Coifman & Lafon (2006), a cadeia de Markov define direções de propagação
rápidas e lentas, com base nos valores tomados pelo núcleo, e à medida que a caminhada avança,
a informação da geometria local é propagada e acumulada, podendo ser integrada para obter uma
caracterização global do sistema.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

270
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nessa seção, o objetivo é definir uma métrica com base nessa estrutura. Seja essa
métrica a medida da similaridade de dois pontos de dados nesse espaço como a conectividade
(probabilidade de “pular”) entre eles. Como vimos, essa grandeza está relacionada com a matriz
P e é dada por:

X X 2
Dt (xi , xj )2 = |pt (xj , y) − pt (xi , y)|2 = t
Pjk − Pikt (5)
y∈X k

Observando a Eq. (5), é possível perceber que se trata da soma dos quadrados da diferença
de cada elemento das linhas i e j da matriz P . Esta distância será pequena se houver muitos
caminhos de alta probabilidade com comprimento t entre dois pontos e permanecerá pequena
enquanto as probabilidades de caminho entre xi e xj continuarem pequenas. Como a distância
leva em conta a soma entre todos os caminhos entre os pontos, a métrica é robusta à perturbação
por ruídos, ao contrário, por exemplo, da aproximação isomapiana para a distância geodésica.
Se por um lado, o uso das distâncias de difusão é promissora, por outro, calcular esta distância
para um conjunto pequeno de dados já é computacionalmente penoso. A saída, então, seria
mapear os pontos de dados para um espaço euclidiano de acordo com a métrica definida. A
distância de difusão no espaço original torna-se a distância euclidiana neste novo espaço de
difusão. A seguir é definido como este procedimento é realizado. Seja o mapeamento:

 
pt (xi , x1 )
 pt (xi , x2 ) 
Zi =  (6)
 
.. 
 . 
pt (xi , xn )

Definido deste modo, a distância euclidiana entre dois pontos mapeados, Zi e Zj , é:

X X 2
kZi − Zj k2 = |pt (xj , y) − pt (xi , y)|2 = t
Pjk − Pikt = Dt (xi , xj )2 (7)
y∈X k

que, como visto, é a distância de difusão entre os pontos de dados xi e xj . Este mapeamento
permite, por exemplo, a reorganização dos dados de acordo com a distância de difusão, como
a coleção de imagens do brinquedo infantil. Assim, o objetivo deste trabalho já pode ser
executado eficientemente com este mapeamento. Contudo, nota-se que não há ainda redução
de dimensionalidade. A redução é realizada negligenciando-se certas dimensões no espaço de
difusão. Todavia, antes de mostrar como isso é feito, é necessário apresentar uma alternativa
para os cálculos da distância de difusão.
Seja ψ n os autovetores direitos de P associados com os autovalores λk , k = 1, . . . , n. A
distância de difusão entre xi e xj para um t fixo pode ser calculada como:

n
X
2
Dt (xi , xj ) = λ2t k k
k (ψ (i) − ψ (j))
2
(8)
k=1

Aqui, como apresentado, λ são os autovalores de P e ψ k (i) as coordenadas de seus


autovetores direitos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

271
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

P ψ n = λψ n (9)

A prova para tal pode ser encontrada no material suplementar do artigo Moura Neto et al.
(2019).
A vantagem do cálculo da distância de difusão deste modo é que, como a distância é
dada em função dos autovalores e autovetores da matriz de Markov P , ela é menos custosa
computacionalmente e de fácil implementação. A partir do cálculo desta matriz, o algoritmo
computa seus autovalores e autovetores e, dessa forma, consegue o mapeamento de acordo com
as distâncias de difusão. Prontamente, o mapeamento pode, então, ser expresso em termos dos
autovetores e autovalores de P como:

 
λt2 ψ 2 (i)
 λt ψ 3 (i) 
 3
Zi =  (10)

.. 
 . 
λtn ψ n (i)

onde ψ 2 (i) indica o i-ésimo elemento do primeiro autovetor não constante de P associado ao
maior autovalor diferente de 1, ψ 3 (i) o i-ésimo elemento do segundo autovetor de P associado
ao segundo maior autovalor diferente de 1, e assim por diante. Novamente, a distância euclideana
entre os pontos mapeados Zi e Zj é a distância de difusão. Os autovetores ortogonais direitos
de P formam uma base para o espaço de difusão e os autovalores, por sua vez, associados a
esses, indicam a importância de cada dimensão. Enfim, a redução de dimensionalidade pode
ser atingida escolhendo m dimensões associados aos autovetores dominantes (m < n), o que
permite que o conjunto de dados mapeados tenha menos parâmetros do que o conjunto original,
fazendo kZi − Zj k se aproximar da distância de difusão, Dt (xi , xj ), da melhor forma.

3. MAPAS DE DIFUSÃO NA ORGANIZAÇÃO DE IMAGENS DIGITAIS

O algoritmo de Mapas de Difusão, no estudo de contextos diversos, mostrou utilidade em


diversas aplicações. Introduzido por Coifman & Lafon (2006) e por Coifman & Hirn (2014), a
técnica foi aplicada com sucesso para diferentes finalidades, como no estudo de processamento
de sinais de voz (Talmon et al, 2013), análise de documentos (Allah et al, 2008), expressão
genética (Xu et al, 2010), reconhecimento facial (Barkan et al, 2013), análise de perfis de madeira
(Moura Neto et al, 2019), entre várias outras. O objetivo dessa seção é a execução do método
exposto anteriormente em dados reais provenientes de imagens digitais.
Para tal, realizou-se a captura de imagens de um brinquedo infantil (carrinho de peças da
marca Lego R
) em diferentes ângulos usando a câmera de um celular Moto G8 de modo fixo,
como mostrado na Fig. 1. Cada imagem tem 400 pixels (largura) e 300 pixels (altura) e o
ângulo de rotação do brinquedo é o único grau de liberdade controlável no conjunto. Pequenas
perturbações como diferença de iluminação e erro angular certamente existiram, mas não
constituíram em graus de liberdade.
É possível observar que a qualidade das fotografias, tiradas sob diferentes ângulos é adequada
para este estudo. Logo abaixo do objeto, uma folha branca de suporte contém as marcações da
divisão de um ângulo raso em 15 partes iguais, conferindo assim, 12◦ de rotação em torno de um

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

272
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

eixo localizado na parte traseira do carrinho (onde há dois faróis vermelhos). É possível notar
também, além da diferença entre o ângulo de rotação, as diferentes posições da sombra.
A tarefa aqui era a seguinte: dada a coleção de imagens em ordem aleatória como entrada, o
algoritmo deve produzir o mapeamento eficiente dessas imagens e conseguir sua organização
correta, produzindo como saída, as imagens na ordem crescente do ângulo de rotação. A
implementação do algoritmo utilizou o programa Wolfram Mathematica 12.
Cada imagem foi inicialmente transformada em uma matriz de dados, e cada elemento é dado
pela coordenada de um pixel no sistema de cores RGB. Desta forma, o algoritmo toma cada pixel
como um vetor numérico de entrada ou, de outra forma, um estado de uma cadeia de Markov e
atribui como próximo, no sentido de vizinhança, o pixel que tem as coordenadas similares ao
primeiro. Este procedimento é realizado de acordo com as probabilidades de transição entre cada
estado.
O algoritmo foi executado considerando α = ε2 , onde ε é o limite de conectividade do
conjunto de dados:

ε = min{kxi − xj k , i 6= j, i, j = 1, . . . , n} (11)

O parâmetro teve valor α = 1273, 18. Para o parâmetro temporal, escolheu-se t = 3.


Na verdade, o baixo valor do parâmetro de ajuste da escala do núcleo gaussiano torna pouco
significativo a escolha de t. Este comportamento ocorre pois para esta escolha, o decaimento dos
autovalores é pouco suave, tornando o primeiro autovalor não unitário ainda bem próximo de
um. Como o mapeamento depende diretamente dos autovalores e do expoente t, vide Eq. (10), a
escolha de t é pouco relevante.
Após a execução do algoritmo e a obtenção do mapeamento em apenas uma dimensão
(considerando somente o maior autovalor não constante), cada imagem é representada como um
número real e, para a organização eficiente das imagens, bastou colocá-los em ordem crescente.
Dessa forma, a saída almejada, que independe da ordem de entrada das imagens, é mostrada na
Fig. 2.
É interessante observar ainda a disposição dos dados mapeados pelos Mapas de Difusão 1D
(Fig. 3). É possível verificar que a técnica mapeia os dados de modo a concentrar metade deles
concentrados mais à esquerda, relativo às 8 primeiras imagens onde o ângulo de rotação está entre
0◦ e 90◦ , e as 8 seguintes com ângulo entre 90◦ e 180◦ . Isso evidencia que a técnica conseguiu
absorver de modo suficiente os parâmetros que têm relevância na distinção das imagens e, com
isso, conseguiu ordená-las de modo eficiente.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

273
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Brinquedo infantil na ordem induzida pelas coordenadas do mapeamento 1D organizado em


ordem crescente. O algoritmo da técnica ordena de modo eficiente as imagens segundo o ângulo de
rotação do carrinho.

Figura 3- Mapeamento 1D das imagens do brinquedo infantil. O índice mostra uma das possíveis entradas
aleatórias para o algoritmo. No mapeamento, metade das imagens está concentrada à esquerda e metade à
direita da primeira coordenada principal.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

274
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÕES

Os Mapas de Difusão foram capazes de organizar com sucesso e eficientemente um conjunto


específico de imagens digitais, com ruídos (como sombras). Esta aplicação exemplifica
que a técnica é útil também em reconhecimento de padrões. O mapeamento 1D reduziu a
dimensionalidade do conjunto de dados provenientes das imagens digitais obtidas pela rotação
em um único eixo de um brinquedo infantil de modo bastante satisfatório.

Agradecimentos

Oliveira agradece o suporte financeiro do Programa de Bolsa para Qualificação de Servidores


– PBQS/IFNMG – Instituto Federal do Norte de Minas Gerais. O presente trabalho foi realizado
com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) -
Código de Financiamento 001.

Referências

Allah, F.A.; Grosky, W.I.; Aboutajdine, D. (2008), Document clustering based on diffusion maps and
a comparison of the k-means performances in various spaces. IEEE Symposium on Computers and
Communications, 1-3, 579-584.
Barkan, O. et al. (2013), Fast high dimensional vector multiplication face recognition. Proceedings of
the IEEE International Conference on Computer Vision: 1960-1967.
Belkin, Mikhail. (2003), Problems of Learning on Manifolds. PhD thesis, University of Chicago,
Chicago, Illinois.
Coifman, R.R.; Lafon S. (2006), Diffusion Maps. Applied and Computational Harmonic Analysis. 21,
5-30.
Coifman, R.R.; Hirn, M.J. (2014), Diffusion Maps for changing data. Applied and Computational
Harmonic Analysis. 36, 79-107.
de La Porte, J. et al. (2008), An Introduction to Diffusion Maps. Proceedings of the Nineteenth Annual
Symposium of the Pattern Recognition Association of South Africa (PRASA).
Dias, M.S. (2012), Regressão Construtiva em Variedades Implícitas. Tese de Doutorado, PUC-Rio, RJ.
Lafon, S.S. (2004), Diffusion Maps and Geometric Harmonics. PhD thesis, Yale University, New Haven,
Connecticut.
Moura Neto F.; Souza P.; Magalhães M.S. (2019), Determining baseline profile by diffusion maps.
European Journal of Operational Research. 279, 107-123.
Lee, J.A.; Michel, V. (2007), Nonlinear Dimensionality Reduction. 1st ed., Springer-Verlag, New York.
Talmon, R; Cohen, I.; Gannot, S. (2013), Single-Channel transient interference suppression with
diffusion maps. IEEE Trans. on Audio, Speech, and Language Processing. 21(1), 132-144.
Xu, R. et al. (2010), Clustering of high-dimensional gene expression data with feature filtering methods
and diffusion maps. Artificial Intelligence in Medicine, 48 (2-3), 91-98.
EFFICIENT ORGANIZATION OF DIGITAL IMAGES BY DIFFUSION MAPS
Abstract. In the present work, an application of a powerful nonlinear dimensionality reduction
technique known as Diffusion Maps is proposed in an example involving digital images. This
technique, which is among the most recent and productive in this context of nonlinear reduction
of a data set, manages to discover the patterns of the sets, grouping them, allowing them to
consider various scales for classification. In this sense, the work brings a collection of images
of a children’s toy, whose angle of rotation of the toy is the unique degree of freedom of this
collection, and it is up to the Diffusion Maps to search for the shared similarities among the pixels
that form these images, looking for efficient organization. The search for adequate common
similarity among data points measures such an organization, having advantageous inferences in
pattern recognition.

Keywords: Diffusion Maps, Digital Images, Pattern Recognition

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

275
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

MAPAS DE DIFUSÃO NA BUSCA DE OUTLIERS DE SINAIS ELETROQUÍMICOS

Carlos Alberto Lopes dos Santos de Oliveira1−2 - carlos.santos@ifnmg.edu.br


Ivan Napoleão Bastos1 - inbastos@iprj.uerj.br
Francisco Duarte Moura Neto1 - fmoura@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brasil
2 Instituto Federal do Norte de Minas Gerais, Campus Teófilo Otoni - Teófilo Otoni, MG, Brasil

Resumo. Este trabalho propõe uma abordagem de uma poderosa técnica de redução de
dimensionalidade não linear conhecida como Mapas de Difusão na identificação de outliers
de curvas de polarização. Tais curvas avaliam a cinética global de processos eletroquímicos
de eletrodos em meios corrosivos sob condições estacionárias, mas que apresentam variações
de natureza experimental ou por erros sistemáticos que possam ocorrer. Assim, a busca por
outliers se faz necessária pois, no contexto em questão, permitiria extrair do conjunto das curvas
experimentais em análise aquelas que, eventualmente, não traduzem de forma adequada o
comportamento do material imerso no meio corrosivo a um dado potencial aplicado. A esperança
é conseguir um ganho na taxa de classificação, eliminando-se dados muito improváveis do
conjunto de amostras. Classificá-los corretamente é um desafio pois, a forte não linearidade
típico de curvas de polarização faz tais curvas se sobreporem tornando a tarefa difícil. Neste
trabalho, estudou-se dois aços inoxidáveis em solução aquosa com 3, 5% NaCl. Por meio da
matriz de difusão e do mapa de cores a ela associada, a técnica de Mapas de Difusão conseguiu
encontrar satisfatoriamente outliers de ambos os aços utilizados, mostrando-se útil diante da
abordagem proposta.

Palavras-chave: Mapas de difusão, Outliers, Curvas de polarização

1. INTRODUÇÃO

Por meio da experimentação, informações quantitativas (ou qualitativas) são extraídas da


natureza pelas relações existentes entre os fenômenos observados, expressando-os mediante
grandezas físicas numéricas ou convertidas numericamente. Neste contexto, muitos dados
oriundos de técnicas experimentais em ciência e engenharia de materiais estão disponíveis na
forma de perfis (Fabbri et al, 2013) pois dependem fortemente de grandezas que variam sob uma
faixa contínua, como a energia, comprimento de onda, temperatura, potencial dentre outros.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

276
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Neste trabalho, fazemos a análise de perfis de corrosão. Trata-se, na verdade, de discretizações


de curvas de polarização que passam a ser vistos como vetores. Essas curvas, por sua vez, de
maneira mais geral, são parcelas com potencial de corrente e têm fundamental importância
nos estudos de corrosão e de eletroquímica, sendo essenciais para medir a cinética global dos
eletrodos.
Ao dispor desses dados experimentais, naturalmente é de se imaginar que esses são compostos
de uma parcela de ruído, decorrente da experimentação, e que, eventualmente, algumas
observações podem não traduzir de forma adequada o comportamento dos aços em estudo
em relação ao seu potencial de corrosão localizada. A esses perfis, doravante, referimos como
outliers da amostra.
A busca por outliers tem considerável importância. O estabelecimento de um perfil base de
um produto ou serviço, por exemplo, em inúmeras situações, garante a melhoria da sua qualidade
a medida que serve de modelo para o emprego de ferramentas de monitoramento estatístico nas
indústrias de manufatura e serviços.
Os dados utilizados neste trabalho são os mesmos utilizados por Fabbri et al. (2013): dois
aços inoxidáveis austeníticos comerciais (UNS S30400 e UNS S31600) submetidos à polarização
potenciodinâmica que resulta nas curvas de polarização. Neste artigo, basicamente, o objetivo
foi avaliar a abordagem multi-q, usando a entropia de Tsallis, na classificação dos perfis com a
separação eficiente.
Neste trabalho, por sua vez, é utilizada a técnica de Mapas de Difusão na busca por outliers,
fato que, aparentemente, possibilitaria um ganho na classificação em relação a todo o conjunto
de dados. Se pudéssemos identificar inicialmente os perfis outliers, poderíamos suprimi-los e
reavaliar a classificação para o novo conjunto contendo apenas dados válidos. A esperança é que,
mesmo ainda não realizando a classificação neste trabalho, haja uma depuração dos dados. A
técnica foi utilizada com sucesso, por exemplo, na obtenção de perfis provenientes da produção
de madeira processada em relação à densidade ao longo da espessura (Moura Neto et al., 2019).
Inicialmente, a seção 2 traz uma breve apresentação da técnica. O objetivo é possibilitar ao
leitor compreender seu funcionamento e exibir os passos para sua implementação. Na seção 3, é
aplicada a técnica às curvas de polarização na identificação dos outliers. Por fim, a última seção
expõe as considerações finais e expectativas de estudos posteriores.

2. MAPAS DE DIFUSÃO

Os Mapas de Difusão estão entre as mais recentes e produtivas técnicas para reduzir a
dimensionalidade não linear de dados, além de permitir localizar as estruturas importantes.
Introduzido por Coifman & Lafon (2006) e por Coifman & Hirn (2014), o método, que emprega
algoritmos baseados em grafos, permite extrair informações relevantes sobre os dados em estudo
proporcionando uma melhor compreensão sobre o fenômeno investigado. Ao utilizar grafos para
representar conjuntos de dados e suas semelhanças, esta técnica permite definir uma métrica no
espaço de distribuição de probabilidades que usa de processos markovianos para correlacionar
similaridades de diferentes ordens e escalas a partir das coordenadas desses pontos e da noção
de afinidade estabelecida. O restante desta seção aborda em detalhes os aspectos do algoritmo.

2.1 Conectividade

O passo inicial na implementação do algoritmo é medir a conectividade entre os pontos de


dados observados. Neste sentido, conectividade é sinônimo de similaridade em algum sentido

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

277
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

pré-definido. Imagine cada ponto como o vértice de um grafo conectado onde as arestas que o
ligam a outro nó vizinho têm seus pesos definidos de acordo com a similaridade que cada um
destes tem com seus vizinhos. Tem-se, então, um grafo com pesos que refletem uma similaridade
local entre os pontos de dados.
Façamos agora um passeio aleatório pelos dados, começando de um específico, fazendo
saltos aleatórios como um caminhante sem rumo, guiado apenas pela probabilidade de atingir
um ponto qualquer. Saltar para um ponto mais próximo é mais provável do que saltar para outro
que esteja distante. Feito desse modo, cria-se uma relação entre a distância no espaço de dados e
a probabilidade de transição do caminhante aleatório.
A conectividade entre dois pontos de dados quaisquer, xi e xj , com i 6= j é definida como
a probabilidade de saltar de xi para xj em cada instante da caminhada aleatória. Como essa
conectividade é proporcional à similaridade desses dados, é útil expressar essa conectividade
em termos de uma função de verossimilhança não normalizada, k : Rd × Rd −→ R, conhecida
como núcleo de difusão (diffusion kernel).

conectividade(xi , xj ) = k(xi , xj ) (1)


Este núcleo define uma medida local de similaridade dentro de uma certa vizinhança. Fora
dela, esta função precisa se aproximar rapidamente de zero. Uma função que atende muito bem
a este propósito é o núcleo gaussiano.
!
kxi − xj k2
k(xi , xj ) = exp − (2)
α
A noção de vizinhança de um dado qualquer xi pode ser definida como todos os pontos xn ,
com n ∈ N, cuja a função k(xi , xj ) ≥ ε escolhido. Esse parâmetro remete à conectividade do
grafo e como o pesquisador imagina que os dados possam estar relacionados. Fazendo-se o
ajuste da escala do núcleo (parâmetro α ), escolhe-se o tamanho da vizinhança de acordo com o
conhecimento a priori da disposição e da densidade dos dados.
Seja a matriz K̃ com os valores de conectividade entre todos os pontos de dados. Definimos
agora uma distribuição de difusão normalizada por uma uma matriz P , conhecida como matriz
de Markov (ou matriz de probabilidade de transição) cujas entradas representam a probabilidade
de o caminhante aleatório atingir cada ponto de dado em determinado instante.
Obtém-se esta matriz P utilizando-se da matriz de similaridade K̃ como se segue:

n
k̃ij X
(K)ij = kij = , k̃i = k̃iw (3)
k̃i k̃j w=1

n
kij X
(P )ij = pij = , mi = kiw (4)
mi w=1

A matriz M é uma matriz diagonal que tem em cada linha, em sua entrada não-nula, a soma
dos pesos das linhas correspondente da matriz de conectividade K ajustada. Se por um lado, P
não é simétrica, em contrapartida ganha-se uma propriedade de conservação (A soma das linhas
é 1) e representa, em cada entrada pij , a probabilidade de transição de um vértice xi a outro xj
em uma unidade de tempo. É interessante ainda observar que a analogia entre o processo descrito
e as cadeias de Markov permite identificar cada ponto de dado como um estado desta cadeia.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

278
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Processo de Difusão

Como observado, p(xi , xj ) representa a probabilidade de transição em um passo de tempo do


estado xi para o xj e é proporcional ao peso da aresta k(xi , xj ). Ao tomar as potências da matriz
de difusão P , aumenta-se o número de passos percorridos e o processo de difusão prossegue.
À medida que a cadeia avança no tempo, o que equivale a tomar cada vez maiores potências
de P , permite-se integrar a geometria local e, com isso, ter conhecimento sobre as estruturas
geométricas da variedade na qual o conjunto de dados está inserido.
Na seção seguinte, observaremos que é a matriz de difusão P a responsável pelas informações
que possibilitam encontrar os outliers no conjunto. Ao ordenar as colunas e linhas da matriz,
segundo o primeiro autovetor não constante, conseguimos uma maneira de agrupar os perfis,
do ponto de vista das cadeias de Markov, obtendo subconjuntos de perfis cuja probabilidade de
algum dado escapar é baixa, isso em diferentes momentos.

2.3 Distâncias e Mapas de Difusão

O processo de difusão utilizando as potências da matriz Markov P deve ser útil na descoberta
da estrutura geométrica que contém os dados em várias escalas. Definimos uma métrica com
base nesta estrutura. Seja esta métrica a medida da similaridade de dois pontos de dados nesse
espaço como a conectividade entre eles. Como vimos, esta grandeza relaciona-se com a matriz
P sendo dada por:

X X 2
Dt (xi , xj )2 = |pt (xj , y) − pt (xi , y)|2 = t
Pjk − Pikt (5)
y∈X k

Esta distância será pequena se houver muitos caminhos de alta probabilidade com
comprimento t entre dois pontos e permanecerá pequena enquanto as probabilidades de caminho
entre xi e xj continuarem pequenas. Como a distância leva em conta a soma entre todos os
caminhos entre os pontos, a métrica deve ser robusta à perturbação por ruídos.
Veremos agora como mapear os pontos de dados para um espaço euclidiano de acordo com a
métrica definida. A distância de difusão no espaço original torna-se a distância euclidiana neste
novo espaço de difusão. Seja o mapeamento:

 
pt (xi , x1 )
 pt (xi , x2 ) 
Zi =  (6)
 
.. 
 . 
pt (xi , xn )

Definido deste modo, a distância euclidiana entre dois pontos mapeados, Zi e Zj , é:

X X 2
kZi − Zj k2 = |pt (xj , y) − pt (xi , y)|2 = t
Pjk − Pikt = Dt (xi , xj )2 (7)
y∈X k

que, como visto, é a distância de difusão entre os pontos de dados xi e xj .


A redução é realizada negligenciando-se certas dimensões no espaço de difusão. Mas antes,
é necessário apresentar uma alternativa para os cálculos da distância de difusão. Seja ψ n os

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

279
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

autovetores direitos de P associados com os autovalores λk , k = 1, . . . , n. A distância de difusão


entre xi e xj para um t fixo pode ser calculada como:

n
X
2
Dt (xi , xj ) = λ2t k k
k (ψ (i) − ψ (j))
2
(8)
k=1

Aqui, como apresentado, λ são os autovalores de P e ψ k (i) as coordenadas de seus


autovetores direitos. A prova para tal pode ser encontrada no material suplementar do artigo
Moura Neto et al. (2019).
O cálculo da distância de difusão deste modo é menos custoso computacionalmente e de
fácil implementação. A partir do cálculo da matriz P , o algoritmo computa seus autovalores e
autovetores e, dessa forma, consegue o mapeamento de acordo com as distâncias de difusão. O
mapeamento pode, então, ser expresso em termos dos autovetores e autovalores de P como:

 
λt2 ψ 2 (i)
 λt ψ 3 (i) 
 3
Zi =  (9)

.. 
 . 
λtn ψ n (i)

onde ψ 2 (i) indica o i-ésimo elemento do primeiro autovetor não constante de P associado ao
maior autovalor diferente de 1, ψ 3 (i) o i-ésimo elemento do segundo autovetor de P associado
ao segundo maior autovalor diferente de 1, e assim por diante. Os autovetores ortogonais direitos
de P formam uma base para o espaço de difusão e os autovalores, por sua vez, associados a esses,
indicam a importância de cada dimensão. A redução de dimensionalidade pode ser atingida
escolhendo m dimensões associados aos autovetores dominantes (m < n), o que permite que
o conjunto de dados mapeados tenha menos parâmetros do que o conjunto original, fazendo
kZi − Zj k se aproximar da distância de difusão, Dt (xi , xj ), da melhor forma.

3. MAPAS DE DIFUSÃO NA BUSCA DE OUTLIERS

O objetivo dessa seção é a apresentação dos resultados obtidos com a execução do método
exposto anteriormente na busca de outliers em dados reais experimentais expressos na forma
de perfis unidimensionais provenientes de máquinas de sinais eletroquímicos. Tais dados são
os mesmos utilizados em Fabbri et al (2013) - Dois aços inoxidáveis austeníticos comerciais (a
seguir denominados 304 e 316, resumidamente) expostos à uma rotina experimental na intenção
de produzir dados de suas curvas de polarização (Fig. 1). Os detalhes da rotina experimental
podem ser consultados no artigo.
Como é possível observar, apesar de sua composição química diferir no teor de molibdênio,
as curvas se sobrepõem em diversas faixas, principalmente, para os potenciais relacionados
à predominância de processos anódicos (−0, 2 a 0, 2 V × ECS). ECS refere-se ao eletrodo
de calomelano saturado usado como referência de potencial. É nessa faixa que fica visível
a diferença entre os aços com relação à resistência à corrosão localizada junto com alguma
dispersão natural. À primeira vista, é muito difícil atribuir uma determinada curva a um aço
específico quando se tem todos agrupados.
O primeiro passo na busca dos outliers da amostra de cada tipo de aço é a execução do
algoritmo, assim como foi descrito na seção anterior, também para cada tipo de aço. O algoritmo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

280
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- 48 curvas de polarização experimental dos aços inoxidáveis 304 (vermelho) e 316 (verde). Cada
curva consiste em 800 pontos de amostragem.

foi executado considerando α = ε2 , onde ε é o limite de conectividade do conjunto de dados


(ε = min{kxi − xj k , i 6= j, i, j = 1, . . . , n}). Dado que objetiva-se encontrar os outliers, a
matriz de difusão P deve ser o foco principal. O mapeamento dos perfis nesse trabalho não é o
objetivo.
Ao ordenar as colunas e linhas dessa matriz, segundo o primeiro autovetor não constante,
conseguimos uma maneira de agrupar os perfis, onde qualquer bloco (grande o suficiente) é
considerado não-outlier. A justificativa da eficiência do uso deste autovetor na reordenação de
um dado conjunto de perfis pode também ser encontrada no material suplementar do artigo
Moura Neto et al. (2019).
A Fig. 2 mostra como o mapa de difusão unidimensional reorganiza de forma reveladora os
perfis exibindo uma estrutura encoberta no conjunto. Na coluna à direita é possível observar um
bloco de perfis semelhantes conectados pelo processo de difusão nos dois aços. Nas amostras do
aço 304, primeiramente, é possível perceber um bloco que compreende os perfis de índice 6 a 23,
no entanto, não tão uniforme quanto o bloco do aço 316 com os índices compreendidos de 4 a
18.
Para melhorar a visualização, podemos aumentar o tempo de difusão t, o que equivale a
calcular as potências de P , P t , possibilitando conectar melhor os perfis pelo processo de difusão
(Fig. 3).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

281
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Representação das matrizes de difusão dos aços 304 (superior) e 316 (inferior) com t = 1. A
matriz é vista como um tipo de representação do conjunto de níveis de uma função (i, j) → (P )ij ∈ R
com valor de Pij representado por uma cor. Se Pij está próximo de zero, a cor é branca e, quando Pij está
próximo de um, a cor é vermelha. Chamamos esta representação de mapa de cores da matriz de difusão.

Figura 3- Mapa de cores dos aços 304 (superior) e 316 (inferior) agora com t = 5. O processo de difusão
permitiu uma melhora significativa na revelação dos clusters, permitindo assim que perfis semelhantes se
conectem pela evolução do processo de difusão.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

282
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Analisando agora a Fig. 3, podemos ter com maior clareza as informações obtidas
anteriormente. Os blocos aparentes nos dois mapas de cores relativo às matrizes de difusão
ordenadas dão o indicativo de clusters conectados pelo processo de difusão. Conectados, os
caminhos se formam ao longo de saltos curtos e de alta probabilidade. É possível observar
também bloco menores, como no aço 316, com índices de 1 a 3, considerados, contudo, outliers
neste conjunto.
As conclusões então podem ser realizadas. Referente ao aço 314, temos dois grupos:
R1 = {6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23}, relativo ao maior bloco,
e outliers R0 = {1, 2, 3, 4, 5, 24}. Em relação ao aço 316, temos também 2 grupos:
G1 = {4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18}, referente ao maior bloco, e outliers
G0 = {1, 2, 3, 19, 20, 21, 22, 23, 24}. Como observado, seguiu-se a hipótese anterior de que
qualquer bloco grande o suficiente é considerado não-outlier, caracterizando, assim, os demais
perfis como discrepantes.
Ressaltamos que o índices apresentados pelo mapas de cores são os índices da amostra
ordenada e não os índices da amostra original. Fazendo a associação adequada, na Tabela 1
temos o resultado proposto. Considerando que os experimentos tenham sido realizados de modo
completamente randômico, pode-se calcular também a probabilidade de se ter pares consecutivos
de outliers, duplos (23, 24); triplos (1, 2, 3) ou quádruplos (1, 2, 3, 4) por análise combinatória,
encontrando-se respectivamente as probabilidades aproximadas de 0, 362%, 0, 049% e 0, 009%.
Pela baixa probabilidade, pelo menos nos casos triplos e quádruplos, e ainda pelo fato de ser os
primeiros a serem realizados, podemos atribuir estes outliers a erro sistemático de aprendizado
dos ensaios, quando os métodos empregados não estavam sistematizados.

Tabela 1- Classificação das curvas de polarização dos aços segundo análise do mapa de cores utilizando o
algoritmo de Mapas de Difusão.

Aço Não Outliers Outliers


4, 7, 9, 10, 11, 12, 13, 14, 15, 1, 2, 3, 5, 6 e 8
304
16, 17, 18, 19, 20, 21, 22, 23 e 24
5, 6, 7, 8, 9, 10, 11, 12, 1, 2, 3, 4, 13, 14, 20, 23 e 24
316
15, 16, 17, 18, 19, 21 e 22

O mapeamento 1D ou 2D por meio dos Mapas de Difusão pode ser utilizado para
complementar a análise dos outliers por mapa de cores e ajudar a confirmar os perfis discrepantes
pela disposição desses perfis mapeados. Há indícios nessa abordagem, por exemplo, que
adicionalmente o perfil 19 do aço 316 também é um outlier. Isso, contudo, não é feito neste
trabalho.
As curvas de polarização, sem e com outliers de cada aço são exibidas nas Fig. 4, 5 e 6.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

283
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Curvas de polarização experimental do aço 304 com seus possíveis outliers.

Figura 5- Curvas de polarização experimental do aço 316 com seus possíveis outliers.

Figura 6- Curvas de polarização experimental do aços sem os possíveis outliers.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

284
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÕES

A técnica de Mapas de Difusão foi útil na identificação de outliers de um conjunto de dados


experimentais expressos como perfis ao exibir os possíveis candidatos discrepantes por meio
da matriz de difusão. Estes perfis correspondem a curvas de polarização potenciodinâmica
amplamente empregado em estudos de corrosão eletroquímica e, ao extrair os outliers, devem
traduzir de forma adequada o comportamento do material imerso no meio corrosivo a um dado
potencial aplicado.
Em trabalhos futuros, a expectativa é a utilização dos resultados aqui apresentados na
verificação do ganho na classificação em relação a todo o conjunto de dados. O objetivo final é a
identificação e eliminação dos outliers, possibilitando ao especialista da área original dos dados
que tome decisões tendo por base dados confiáveis, pré-selecionados por rigoroso procedimento
numérico-matemático de Mapas de Difusão.

Agradecimentos

Oliveira agradece o suporte financeiro do PBQS/IFNMG. O presente trabalho foi realizado


com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) -
Código de Financiamento 001.

Referências

Coifman, R.R.; Lafon S. (2006), Diffusion Maps. Applied and Computational Harmonic Analysis. 21,
5-30.
Coifman, R.R.; Hirn, M.J. (2014), Diffusion Maps for changing data. Applied and Computational
Harmonic Analysis. 36, 79-107.
Fabbri, R. et al. (2014), Multi-q pattern classification of polarization curves. Physica A: Statistical
Mechanics and its Applications. 395, 332-339.
Lafon, S.S. (2004), Diffusion Maps and Geometric Harmonics. PhD thesis, Yale University, New Haven,
Connecticut.
Moura Neto F.; Souza P.; Magalhães M.S. (2019), Determining baseline profile by diffusion maps.
European Journal of Operational Research. 279, 107-123.
DIFFUSION MAPS IN SEARCHING ELECTROCHEMICAL SIGNAL OUTLIERS

Abstract. This work proposes an approach to a powerful nonlinear dimensionality reduction


technique known as Diffusion Maps in the identification of outliers of polarization curves.
Such curves evaluate the global kinetics of electrochemical electrode processes in corrosive
media under stationary conditions, but which present variations of an experimental nature or
due to systematic errors that may occur. Thus, a search for outliers is necessary because, in
the context in question, it would allow to extract from the set of experimental curves under
analysis, eventually, they do not adequately translate the behavior of the material immersed in
the corrosive environment to a given competent potential. The hope is to achieve a gain in the
classification rate, eliminating very unlikely data from the group of its members. Classifying
them correctly is a challenge because a strong nonlinearity typical of polarization curves makes
such curves overlap making the task difficult. In this work, two stainless steels were studied in
aqueous solution with 3.5% NaCl. Through the diffusion matrix and the associated color map,
the Diffusion Maps technique was able to satisfactorily find outliers for both steels used, proving
useful in view of the proposed approach.

Keywords: Diffusion Maps, Outliers, Polarization curves

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

285
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

O RANKING DOS PAÍSES MAIS INOVADORES, SEUS INDICADORES


ECONÔMICOS DE DESENVOLVIMENTO E A FORMAÇÃO DE CLUSTERS

Grupo 3 : xi – Inteligência Computacional

Camilla Bruna Dias de Souza1 – camillabrunacb@gmail.com


Lays de Matos Azevedo2 – laysmaazevedo@gmail.com
Henrique Rego Monteiro da Hora3 – henrique.dahora@iff.com.br
Edson Terra Azevedo Filho4 – edsonterrafilho@gmail.com
Alline Sardinha Cordeiro Morais5 – amorais@iff.edu.br
1
Instituto Federal Fluminense – IFF, Campos dos Goytacazes, RJ, Brasil
2
Instituto Federal Fluminense – IFF, Campos dos Goytacazes, RJ, Brasil
3
Universidade Estadual do Norte Fluminense Darcy Ribeiro – UENF, Campos dos Goytacazes, Brasil
4
Instituto Federal Fluminense – IFF, Campos dos Goytacazes, RJ, Brasil

Abstract.This article identifies the behavioral pattern of the 129 most innovative
economies according to the 2019 Global Innovation Index (GII) report, associated with its 51
economic development indicators made available by The World Bank for the year 2015. The
methodology to be adopted will be to mine these data via unsupervised k-means algorithm
resulting in clusters of economies, generating the level of correct classifications of these data.
In addition, the decision tree is formed by graphically demonstrating the pattern of each
cluster related to economic development indicators. The justification of this tasl is to
demonstrate how the data mining technique can be a differential in the formation of the
innovation ecosystem of economies, by demonstrating which indicators are considered
relevant in this system, thus serving as a subsidy in the formation of policies public and
treatment for improving economies in their positions in the innovation ranking.

Keywords: Innovation - Ranking - Economic indicators - Data Mining - k-means

1. INTRODUÇÃO

A inovação assume contornos cada vez mais importantes num mundo a cada dia mais
conectado pela internet na medida em que promove bem-estar na vida das pessoas. A
inovação sempre esteve presente na sociedade, porém, atualmente ela é tratada de forma
diferenciada, tendo em vista, o expressivo alcance econômico que atinge. Os investimentos
em pesquisa e desenvolvimento (P&D), as iniciativas de empreendedorismo, a gestão do
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

286
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

conhecimento são uns dos impulsionadores desse modelo essencial as pessoas e por
conseguinte, as economias dos países.
Conforme, Etzkowitz & Zhou (2017) o conceito da Tríplice Hélice é matriz fundamental
no processo de inovação, tendo em vista que sozinho não é possível lograr êxito no processo
de inovação. Segundo os autores, as indústrias, a universidade e o governo formam a tríade
imprescindível para que as inovações de fato aconteçam. A Tríplice Hélice trata de forma
organizada o processo ao configurar esses três atores, Etzkowitz & Zhou (2017) destaca esse
modelo por trás do Vale do Silício, por exemplo. O ecossistema formado nessa configuração
não poderá ser reproduzido igualmente em outros lugares, devido as especificidades
regionais, mas segundo os autores, o formato desses protagonistas e outros atores associados
poderão transpor esse modelo a qualquer lugar no intuito de gerar inovação.
O relatório anual que trata do índice de inovação das economias mundiais através de um
ranking mundial de inovação, denominado Índice Global de Inovação 2019 (IGI)
Universidade Cornell et al. (2019) revela duas preocupações: uma relacionada a redução dos
investimentos em P&D pelos governos algumas economias de alta renda refletindo em riscos
para futuras inovações. A outra preocupação está associada ao aumento do protecionismo
como impacto no comércio internacional. Se essas ações não forem mitigadas, a redução do
fluxo de bens e serviços e mão de obra reduzirão a produtividade e a difusão dos processos de
inovação.
Nesse sentido, Amani (2007) propõe analisar os impactos do cluster de indústrias criativas
nas regiões de inovação e crescimento econômico na China sob duas visões: impacto da
inovação através da emissão de patentes eficientes e do crescimento do valor agregado na
China. Os autores desenvolvem modelos para estimar os efeitos dessas duas vertentes e
concluem que os dados são suportados estatisticamente comprovados por diferentes métodos
e sugerem novas políticas públicas que integrem alta tecnologia à cultura chinesa formando
novos ecossistemas, gerando aumento de inovação eficiente impulsionando o crescimento do
valor agregado no país.
Hongwei & Zhang (2016) analisam através da aplicação de um algoritmo de mineração de
dados os investimentos do governo em P&D e na capacidade de inovação independente para a
província de Hebei na China. Os autores concluem que contra medidas são necessárias para o
aumento da capacidade de inovação nessa província e sugerem três ações: aumentar a
descentralização fiscal da província ao gerar receitas e despesas independentes voltadas para
ciência e tecnologia, a segunda medida seria o aumento da participação do governo em
ciência e tecnologia, essa medida é comprovada por correlação e a terceira medida trata da
maximização da eficiência dos gastos governamentais otimizando os recursos voltados para
P&D.
Para composição do ranking das economias na inovação, o relatório IGI considera oitenta
indicadores econômicos de desenvolvimento e três tipos de índices: o IGI geral, o Subíndice
de Insumos de Inovação e o Subíndice de Produtos de Inovação. A pontuação geral do IGI é a
média das pontuações nos Subíndices de Insumos e Produtos. Já os Insumos de Inovação
consideram cinco pilares que utiliza dados da economia nacional que contribuem para ações
inovadoras: Instituições, Capital humano, Infraestrutura, Sofisticação do mercado e
Sofisticação empresarial. Por fim, o Subíndice de Produtos de Inovação traz dados sobre os

287
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

produtos oriundos das ações inovadoras em cada economia e considera dois pilares: Produtos
de conhecimento e tecnologia e Produtos criativos. Universidade Cornell et al. (2019). Esse
relatório evidencia a importância dos indicadores econômicos de desenvolvimento como
fomento na formação de políticas públicas e na análise das economias envolvidas nos pontos
fracos e fortes de seus ambientes de inovação.
A cada dia há um aumento da capacidade computacional nas organizações e também da
necessidade de sistemas automáticos para reconhecimento de padrões a partir de seus bancos
de dados Medina et al. (2019). Para ampliar os ganhos de conhecimento a partir desses
bancos de dados, houve a união da inteligência artificial e da estatística onde busca-se gerar
conhecimento a partir de algoritmos que tentam encontrar padrões em grandes volumes de
dados. Essa técnica é conhecida como mineração de dados (SALVADOR; CUNHA;
CORRÊA, 2009).
Uma das formas de realizar a mineração de dados é através da formação de clusters, onde
são formados agrupamentos de um conjunto de dados, onde os registros semelhantes são
agrupados em um mesmo cluster e registros diferentes em clusters separados. Muitos são os
métodos propostos para esse tipo de avaliação de dados, mas o mais utilizado é o K-Means
(Islam et al., 2018). Tendo em vista a disseminação de dados via internet a análise desses
insumos através das técnicas de mineração de dados que utiliza algoritmos tem sido utilizada
amplamente nas pesquisas científicas. Os algoritmos de mineração de dados abrangem
aprendizado estatístico, classificação, análise de associação, agrupamento, que contribuem
para modelos decisórios (WU et al., 2008).
Ao analisar vinte e cinco países da Europa De La Paz-Marin et al. (2012) utilizam a
mineração de dados para avaliar o crescimento econômico aplicando indicadores econômicos
relacionados a patentes e investimentos em P&D através do algoritmo k-means formando
agrupamentos resultantes de classes relacionadas ao desempenho das economias desses países
na inovação.
Diante, dos trabalhos citados foi possível identificar uma lacuna de pesquisa que
possibilitou a busca por trabalhos na base Scopus® com os parâmetros de inovação,
mineração de dados e indicadores econômicos de desenvolvimento. Dessa forma, o objetivo
desse artigo é identificar o padrão comportamental das 129 economias mais inovadoras
conforme o relatório IGI de 2019 - Universidade Cornell et al. (2019) associados aos seus 51
indicadores econômicos de desenvolvimento disponibilizados pelo The World Bank Malpass
(1944) referentes ao ano de 2015. A metodologia utilizada é minerar esses dados via
algoritmo k-means não supervisionado resultando em 4 clusters, escolhidos pelos autores
desse trabalho, onde as economias são classificadas de acordo com os seus níveis de renda,
gerando as instâncias classificadas corretamente para os atributos escolhidos. Adicionalmente,
a árvore de decisão é formada demonstrando graficamente o padrão de cada cluster
relacionado aos indicadores econômicos desenvolvimento.
A justificativa desse trabalho é demonstrar como a técnica de mineração de dados pode
contribuir na formação do ecossistema de inovação das economias ao demonstrar quais
indicadores econômicos de desenvolvimento são considerados relevantes nesse sistema,
servindo assim de subsídio na formação de políticas públicas e tratativas para melhoria das
economias nas suas posições no ranking da inovação.

288
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. METODOLOGIA

A metodologia utilizada nesse trabalho é a aplicação do algoritmo k-means não


supervisionado para identificar o padrão comportamental dos clusters resultantes das 129
economias constantes no ranking da inovação do Índice Global de Inovação (IGI) referente ao
ano de 2019 - Universidade Cornell et al. (2019). Essas economias foram classificadas de
acordo com o seu nível de renda - Universidade Cornell et al. (2019)1, conforme publicação
do The World Bank, o GNI per capita (Atlas Method) é o indicador que fornece o parâmetro
de classificação das economias em grupos de renda em 2018 ( renda baixa, renda média
inferior, renda média superior e renda alta) (BANK TEAM, 2018)2 e associadas aos 51
indicadores econômicos anuais referentes ao ano de 2015. As 129 economias do ranking de
inovação 2019, assim como os indicadores considerados na análise estão disponíveis no
Anexo A e no Anexo B desse documento (Tabela 7, Tabela 8 e Tabela 9).
Conforme De La Paz-Marín et al. (2012), a utilização de clusters via algoritmo k-means
nos padrões dos países europeus da pesquisa fornece ganhos ao revelar parâmetros
desconhecidos quando combinados ao mesmo tempo na utilização de atributos múltiplos.
Inicialmente buscamos o relatório do IGI para conhecer os países que compõem o ranking
conforme gráfico 1. Após essa etapa, foi realizada busca na base de dados do The World Bank
Malpass (1944), sendo possível encontrar 51 indicadores relacionados na Tabela 8 e Tabela 9
no Anexo B.
A Figura 1 exibe as 129 economias que constam no ranking da inovação conforme seus
níveis de renda. Logo abaixo seguem características de desenvolvimento econômico de
acordo com a renda relacionadas ao PNB – Produto Nacional Bruto.

Figura 1 – Economias do Ranking IGI 2019 e seus Níveis de Renda

1
A classificação dos grupos de renda segue a Classificação dos Grupos de Renda do Banco Mundial de
junho2018.( (OMPI, 2019, página 59).
2
O endereço do The World Bank (https://blogs.worldbank.org/opendata/new-country-classifications-income-
level-2018-2019) evidencia a classificação das economias quanto à renda em 2018.

289
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Renda Elevada: São as 50 economias que ocupam as posições de 1ª a 88ª no ranking da


inovação conforme relatório IGI 2019. São países cuja o Produto Nacional Bruto per capita
(PNB Atlas1), varia de US$ 11,7 a US$ 93 mil de dólares anuais.
Renda Média Inferior: São as 26 economias do ranking que possuem o Produto Nacional
Bruto per capita (PNB Atlas) que varia de US$ 1,06 a US$ 4,1 mil dólares anuais conforme
relatório IGI 2019.
Renda Média Superior: São as 34 economias que possuem o Produto Nacional Bruto per
capita (PNB Atlas) que varia de US$ 3,6 a US$ 11,96 mil dólares anuais conforme relatório
IGI 2019.
Renda Baixa: São as 19 economias conforme relatório IGI 2019 que possuem o Produto
Nacional Bruto (PNB Atlas) per capita que varia de US$ 0,26 a US$ 1,33 mil dólares anuais.

2.1 Procedimentos Técnicos

Revisão de Literatura
Realizada pesquisa na base Scopus® a fim de pesquisar os trabalhos científicos que
envolvem mineração de dados, inovação e indicadores econômicos de desenvolvimento.
Critério de escolha das economias e indicadores econômicos de desenvolvimento
As economias foram selecionadas conforme relatório do Índice Global de Inovação (IGI
2019) - Universidade Cornell et al. (2019) que lista as 129 economias mais inovadoras do
mundo. Adicionalmente, foram selecionados os mais recentes indicadores econômicos de
desenvolvimento mundial disponibilizados pelo base de dados do The World Bank Malpass,
(1944). Dessa forma, os indicadores são agrupados e referem-se ao ano de 2015.
Aplicação da Metodologia de Mineração de Dados
Na fase de pré-processamento, foram realizadas saneamento de dados, como por exemplo:
exclusão de indicadores econômicos que não tinham dados, inclusão de interrogação para
dados não disponíveis, a fim de que o software escolhido pudesse atuar com eficiência. Foram
feitas conferências de números muito diferentes em relação a outros extraindo os dados
novamente. Adicionalmente, foram incluídas as informações quanto ao nível de renda e as
posições no ranking de inovação 2019 de acordo com o relatório IGI.
Na etapa seguinte que trata da pré operacionalização dos dados, o software WEKA
(Waikato Environment for Knowledge Analysis),Waikato (1993) foi escolhido. Foram
selecionadas as informações consolidadas em extensão csv, após essa fase foi criado um
atributo cluster não supervisionado, o algoritmo selecionado foi o Simple KMeans, a
definição do número de k foi feita pelos autores desse estudo, onde foi determinada a
quantidade 4 para k, pois são 4 os níveis de renda.
Conforme Vianna et al.(2010) a árvore de decisão é a demonstração hierárquica de vários
conceitos que iniciam em um nó na raiz, que são subdivididos em conceitos derivados dessa
raiz até o nível mais inferior. A escolha do software WEKA se deu por três razões: a) fácil
utilização, pois trata-se de um sistema amigável; b) acessibilidade e isenção de custos no sua
execução; c) trata os dados de forma rápida e eficaz.

1PNB Atlas ou RNB Atlas: consiste no total de receitas brutas incluindo impostos e subtraindo os subsídios cujo método de
conversão do câmbio é suavizado tendo em vista as flutuações;

290
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Apresentação dos resultados


Consiste em consolidar os dados resultantes da mineração dos dados e os exibir em
figuras e tabelas a fim de tornar a visualização dos dados de mais fácil entendimento. As
economias serão analisadas com base nos clusters formados pelos critérios A e B conforme
item anterior.

3. RESULTADOS

De acordo com a escolha do número de k pelos autores desse trabalho, que foram 4, o
software WEKA gerou 4 clusters das economias dentre os 51 indicadores econômicos de
desenvolvimentos listados no sistema, o algoritmo demonstrou um padrão de comportamento
que considera como delimitador os indicadores: PNB per Capita (Método Atlas), Taxa de
Fecundidade Total (nascimentos por mulheres em idade fértil), PNB Total (Método Atlas),
Importações de bens e serviços (% do PIB), Exportações de bens e serviços (% do PIB) e
Receitas excluindo doações (% do PIB).
É importante ressaltar que o PIB (Produto Interno Bruno) ou PNB (Produto Nacional
Bruto) medem a produtividade de uma economia quando soma todos os bens e serviços finais
produzidos em uma determinada região por um determinado período. O que diferencia o PIB
do PNB é que o segundo adiciona impostos e subtrai subsídios. Quanto maior o PIB ou PNB
maior é o nível de produtividade dessa economia e maior será seu valor per capita. De outra
forma, quanto maior for o percentual de exportações e importações de bens e serviços em
relação ao PIB, isso evidencia o quanto de produtos e serviços são comercializados com o
resto do mundo (MANKIW, 2015).
As receitas excluindo doações como percentual do PIB demonstram a capacidade de
gerar faturamento, a Taxa de Fecundidade Total exibe dados relacionados a demografia de
uma determinada economia. E países que possuem alta Taxa de Fecundidade associados a
valores baixos de PIB e PNB per capita demonstram a necessidade de políticas tanto para
controle da fecundidade, tanto quanto, para melhoria do desenvolvimento econômico, tendo
em vista ser o desenvolvimento econômico o meio de busca de bem-estar social e econômico
da uma sociedade Mankiw (2015). Os resultados demonstraram que 82,2% de instâncias
foram classificadas corretamente, conforme Tabela 1.

=== Validação Cruzada Estratificada ===


=== Sumário ===
Instâncias Classificadas Corretamente 106 82,17%
Instâncias Classificadas Incorretamente 23 17,83%
Número Total de Instâncias 129
Tabela 1 – Fonte: Weka.

Adicionalmente na Tabela 2 é possível verificar o nível de assertividade dos resultados


por cluster, pois para o cluster 2, por exemplo, deu-se 96% de precisão do padrão
comportamental gerado. O cluster 4, por sua vez, gerou 77% de precisão nos seus resultados.
E a média desses resultados é de 83% de precisão.

291
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

= Precisão Detalhada por Classe =


Precisão Classe
0.82 Cluster 1
0.96 Cluster 2
0.75 Cluster 3
0.77 Cluster 4
0.83 Média Ponderada
Tabela 2– Fonte: Weka.

Através da matriz de confusão (Tabela 3) é possível analisar com maior detalhe a


assertividade dos padrões gerados, visto que a diagonal principal concentra a maior
numeração de classificações, que são os valores previstos corretamente pelo algoritmo.
Através dessa matriz podemos perceber que há uma boa distribuição na assertividade do
mode

=== Matriz de Confusão ===


<--
a b c d
classificado
42 1 6 2 | a = Cluster1
0 23 0 4 | b = Cluster2
8 0 21 0 | c = Cluster3
1 1 1 20 | d = Cluster4
Tabela 3– Fonte: Weka.

Figura 5 – Árvore de Decisão

292
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 5 exibe a Árvore de Decisão gerada pelo software Weka, nessa figura é possível
ver o padrão de comportamento entre os indicadores econômicos e a formação dos clusters
das economias.
A Figura 6 e a Tabela 10 exibem o Cluster 1 que é composto por 50 das 129 economias
que compõem o ranking IGI 2019. Observa-se que o Cluster 1 possui economias sobretudo de
renda média. A Arábia Saudita é o único país com renda elevada, e o Brasil está inserido
nesse Cluster com renda média superior.
De acordo com o algoritmo k-means, quando as economias registraram um PNB per
capita (Atlas Method) menor ou igual a US$ 11.960 mil e por outro lado apresentaram uma
taxa de fertilidade menor ou igual a 3 nascimentos por mulher, e ainda se o PNB per capita
(Atlas Method) dessas economias for maior que US$ 1.600 o resultado é o Cluster 1.
Mas se o PNB per capita (Atlas Method) for igual ou menor que US$ 1.600 e suas
Exportações de produtos e serviços corresponderem a mais de 27% do PIB o resultado
também serão as economias do Cluster 1.
A Figura 7 e a Tabela 11 exibem o Cluster 2 composto por 27 países que estão inclusos
no ranking IGI 2019. Observar-se que o Cluster 2 possui somente economias de renda
elevada. Conforme o algoritmo k-means, quando as economias registrarem um PNB per
capita (Atlas Method) maior que US$ 11.960 mil, seu PNB (Atlas Method) for menor ou
igual que US$ 3 trilhões e na sequência, seu percentual de Importações de Produtos e
Serviços for menor ou igual a 74% do PIB, o Cluster 2 é formado. De outra forma, se o PNB
(Atlas Method) for maior que US$ 3 trilhões e a Receita corresponder a mais de 41% do PIB,
o resultado desse padrão decisório também serão as economias do Cluster 2.

Figura 6 – Cluster 1 Figura 7 – Cluster 2

Cluster 1 Cluster 2
Posição Posição
Região Renda Economia Região Renda Economia
IGI IGI
Cambodia 104 Australia 15
Indonesia 87 Brunei Darussalam 35
RMI Mongolia 73 Hong Kong. China 8
East Asia & Pacific RE
East Asia Philippines 76 Japan 14
& Pacific Viet Nam 63 New Zealand 18
China 26 Republic of Korea 10
RMS Malaysia 34 Austria 19
Thailand 47 Europe & Central Cyprus 28
RE
Europe & Georgia 44 Asia Estonia 27
RMI
Central Republic of Moldova 81 Finland 7

293
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Asia Ukraine 82 France 16


Albania 70 Germany 12
Armenia 85 Greece 40
Azerbaijan 77 Iceland 22
Belarus 50 Italy 30
Bosnia and Herzegovina 71 Latvia 36
Bulgaria 45 Norway 13
Kazakhstan 64 Portugal 31
RMS Montenegro 55 Spain 25
North Macedonia 52 United Kingdom 6

Romania 54 Latin America & Chile 43


RE
Caribbean
Russian Federation 41 Trinidad and Tobago 88
Serbia 62 Kuwait 75
Middle East &
Turkey 56 RE Qatar 53
North Africa
El Salvador 97 United Arab Emirates 24
RMI Honduras 101 Canada 9
North America RE
Nicaragua 108 USA 3
Brazil 60 Tabela 11 – Cluster 2 por região, renda, economia e posição
Colombia 58
Latin Costa Rica 68
America
Dominican Republic 90
&
Caribbean RMS Ecuador 98
Guatemala 105
Jamaica 84
Mexico 59
Paraguay 95
Peru 48
RE Saudi Arabia 49
Egypt 106
Middle RMI Morocco 83
East & Tunisia 74
North Algeria 100
Africa Iran (Islamic Republic of) 86
RMS
Jordan 91
Lebanon 92
South
RMI Sri Lanka 94
Asia
Botswana 80
Sub-
Mauritius 67
Saharan RMS
Namibia 99
Africa
South Africa 51
Tabela 10 – Cluster 1 por região, renda, economia
e posição

294
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 8 e a Tabela 12 apontam os 29 países do ranking IGI 2019 que formam o Cluster
3. Esse Cluster é formado por economias sobretudo de renda baixa e de renda média
inferior.Quando as economias registrarem um PNB per capita (Atlas Method) menor ou igual
a US$ 11.960 mil e a taxa de fertilidade for menor ou igual a 3 nascimentos por mulher e na
sequência seu PNB per capita (Atlas Method) for menor ou igual a US$ 1.600 e desse
resultado, as Exportações de Produtos e Serviços corresponder a um valor menor ou igual a
27% do PIB, as economias resultantes serão do Cluster 3.
Por outro lado, se o PNB per capita (Atlas Method) for maior que US$ 11.960 mil e a
taxa de fertilidade for maior que 3 nascimentos por mulher, o resultado também será o Cluster
3. A Figura 9 e a Tabela 13 indicam o Cluster 4, que é formado por 23 dos 129 países que
compõem o ranking IGI 2019. O Cluster 4 é formado por economias sobretudo de renda
elevada e apenas um país, o Quirquistão está no cluster e possui renda média inferior.
A dinâmica desse cluster ocorre quando as economias registrarem um PNB per capita
(Atlas Method) maior que US$ 11.960 mil, o PNB (Atlas Method) menor ou igual a US$ 3
trilhões e Importações de Produtos e Serviços correspondentes a um valor menor ou igual a
74% do PIB. Esse modelo decisório resulta nas economias do Cluster 4.
Sob outra ótica, se o PNB per capita (Atlas Method) for maior que US$ 11.960 mil, o
PNB (Atlas Method) maior que US$ 3 trilhões e as Receitas corresponderem a valores
menores ou iguais a 41% do PIB, o resultado também será o Cluster 4.

Figura 8 – Cluster 3 Figura 9 – Cluster 4

Cluster 3 Cluster 4
Posição Posição
Região Renda Economia Região Renda Economia
IGI IGI
Europe &
East Asia &
Central RB Tajikistan 107 RE Singapore 1
Pacific
Asia
Latin
Bolivia
America
RMI (Plurinational 102 Belgium 21
&
State of)
Caribbean
Middle Europe &
East & RE
RB Yemen 129 Central Asia Croatia 46
North
Africa
South RB Nepal 93 Czech Republic 29
Asia RMI Bangladesh 117 Denmark 5

10

295
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

India 61 Hungary 39
Pakistan 113 Ireland 20
Benin 114 Lithuania 38
Burkina Faso 111 Luxembourg 23
Burundi 128 Netherlands 11
Ethiopia 124 Poland 37
Guinea 127 Slovakia 42
Madagascar 122 Slovenia 33
Malawi 119 Sweden 4
Mali 120 Switzerland 2
Mozambique 118 RMI Kyrgyzstan 78
RB
Niger 125 Argentina 72
Latin America &
RE
Caribbean
Rwanda 65 Panama 79
Sub- Senegal 103 Uruguay 66
Saharan Togo 121 Bahrain 69
Africa
Uganda 96 Israel 17
United Middle East &
RE
Republic of 115 North Africa Malta 32
Tanzania
Zimbabwe 123 Oman 57
Cameroon 112 Tabela 13 – Cluster 4 por região, renda, economia e posição
Côte d Ivoire 110
Ghana 109
Kenya 89
RMI Nigeria 116
Zambia 126
Kenya 77
Nigeria 114
Zambia 124
Tabela 12 – Cluster 3 por região, renda, economia
e posição

4. CONCLUSÃO

É possível observar que no Cluster 1 é composto pelo maior número de economias do


ranking de inovação, pois são 50 países. Esse cluster concentra países de continentes diversos
como América Latina, Caribe, Europa, Oriente Médio, Ásia e África. As economias possuem
posições no ranking de inovação bem variadas, entre a 14ª e 120ª posição, representados pela
China e Nicarágua respectivamente. O Brasil que assumiu a 66ª posição no ranking IGI 2019
pertence a esse cluster. O Cluster 1 engloba economias com renda média inferior e superior e
seu ecossistema de inovação está diretamente relacionada ao PNB per capita abaixo do valor
limítrofe determinado pelo WEKA, com taxa de fertilidade menor que o limite, PNB per
capita maior que o novo limite, e percentual de Exportações maior que o limite. São países na

11

296
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sua maior parte com desempenho de inovação condizente ou acima das expectativas em
relação aos seus níveis de desenvolvimento de acordo com o relatório IGI 2019, mas com
necessidade de melhorias em seus indicadores econômicos a fim de tornar seu ecossistema
mais eficiente para o surgimento de inovações.
Já o Cluster 3 possui 29 países em sua composição e cujo os níveis de renda são baixas
ou de média inferior. Essas economias ocupam as posições que variam entre a 52ª e a última
posição de número 129 que são Índia e Yemen respectivamente. Os continentes que
participam desse cluster são: Ásia, Europa, América Latina, Caribe, Oriente Médio, África.
Podemos citar os países: Quênia, Ruanda, Tanzania, Sri Lanka, Paquistão, Bolívia, Malaui.
Por outro lado, embora as economias listadas tenham sobretudo renda baixa, muitas
economias em termos de inovação são condizentes ou acima de seus níveis de
desenvolvimento como: Burundi, Malaui, Moçambique, Ruanda, Senegal, Tanzânia,
Tajiquistão, Uganda, Nepal, Etiópia, Mali, Burkina, Madagascar, Zimbábue e Níger. Mas é
importante destacar que o WEKA pontua a alta Taxa de Fecundidade, associados ao PNB per
capita abaixo do limite e baixo percentual de Exportações em relação ao PIB. Esses
indicadores demonstram que o ecossistema econômico e social possui aspectos a serem
melhorados e que irão influenciar diretamente na melhoria de seus processos de inovação e
por consequência, irão gerar um avanço nas posições dessas economias no ranking de
inovação.
O desenvolvimento de políticas de controle de natalidade entre as mulheres em período
fértil assim como, a busca por desenvolvimento interno para produção de bens e serviços para
exportações contribuirão para o aumento do PNB melhorando o ecossistema para gerar
inovação.
Por outro lado, o Cluster 2 é composto por 27 países do ranking e todas as economias
possuem renda elevada. Os continentes que integram esse cluster é a Ásia, Europa, América
Latina e Caribe, além da África, Oriente Médio e América do Norte. Esse cluster concentra
economias com posições no ranking de inovação entre 3ª e 91ª, Estados Unidos e Trinidad e
Tobago respectivamente. Destaque para economias como: Finlândia, Dinamarca, Singapura,
Alemanha, Korea, Japão, França e Islândia.
Com 23 economias, o Cluster 4 é compreendido por países cujo o nível de renda,
sobretudo, é elevada, com exceção do Quirquistão cuja renda é inferior. Os países ocupam
posições no ranking de inovação que variam entre o 1º lugar, ocupado pela Suíça e 90º lugar,
que é o Quirquistão. Destacamos nesse ranking países como Suécia, Holanda, Israel, Reino
Unido, Hong Kong na China que é tratada como uma economia a parte da China pelo ranking
de inovação, Canadá, Luxemburgo, Bélgica, Itália.
Para o Cluster 2 e Cluster 4, nota-se que os indicadores PNB per capita, PNB Total e
Importações como % do PIB, se destacam por estarem acima dos valores limítrofes do
WEKA. Quando PNB total é menor que o valor limite, mas a Receita for maior que o valor
estipulado essas economias formam o Cluster 2 e quando a Receita for menor que o limite
estipulado, o Cluster 4 é formado. De acordo com o relatório IGI 2019 a maioria dessas
economias possuem desempenho em inovação acima ou de acordo com as expectativas em
relação ao seu nível de desenvolvimento. Nesses clusters é possível encontrar alguns países
com desempenho em inovação abaixo das expectativas em relação ao seu desenvolvimento

12

297
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

embora tenham renda elevada: Emirados Árabes, Lituânia, Kwait, Qatar, Arábia Saudita,
Brunei, Panamá, Bahrain, Omã e Trinidad e Tobago. É importante ressaltar que os países de
renda elevada correspondem a 40% do ranking e ocupam as primeiras posições.
Percebe-se que, através da utilização da metodologia de mineração de dados foi possível
aumentar a assertividade na classificação dos países do ranking, visto que, aleatoriamente, a
porcentagem de assertividade em 4 grupos seria de apenas 25%, mas ao se utilizar a
mineração de dados, foi possível elevar essa porcentagem para, no mínimo 77%, com máximo
de 96% e uma média de 83%.
Pode-se concluir que na formação de um ecossistema inovador, a economia
obrigatoriamente deve produzir bens e serviços finais (PIB/PNB) na proporção de seu número
de habitantes, esse indicador evidencia que um ambiente de inovação precisa de uma base de
produtividade com performance e esse desempenho deve estar interagindo com o resto do
mundo via exportações e importações, gerando receitas como expressivo percentual do PIB.
Por outro lado, a taxa de fecundidade associada ao PNB revela o quão desenvolvida essa
economia está para alcançar relevantes posições no ranking.
A inovação contribui para melhoria de um ecossistema na medida em que melhora a
economia e o bem-estar social, mas os indicadores demonstram que uma economia bem
desenvolvida economicamente, com um PIB expressivo, Exportações e Importações em
destaque como percentual do PIB é a estrutura necessária e imprescindível para um
ecossistema inovador. A mineração de dados confirma esse entendimento na medida que
forma os clusters 2 e 4 com as economias que apresentam melhores números nesses
indicadores e melhores posições no relatório do Índice Global de Inovação - IGI 2019.
Esse documento conclui que a mineração de dados pode contribuir no modelo decisório
de políticas públicas voltadas para o desenvolvimento econômico visando formar um
ecossistema de inovação. Nesse trabalho o algoritmo mapeou padrões de comportamento que
são fundamentais nesse ecossistema.

REFERENCES

13

298
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

AMAMI, M. Creative economy, collaboration and coordinating technology. 12th International Conference of
the Association Information and Management 2007, AIM 2007. Anais...Lausanne: 2007Disponível em:
<https://www.scopus.com/inward/record.uri?eid=2-s2.0-
84870474375&partnerID=40&md5=6c174541ff9e7320ccdd1ed4bb1adc90>

BANK TEAM, T. W. World Bank......Blogs, 1 jul. 2018. Disponível em:


<https://blogs.worldbank.org/opendata/new-country-classifications-income-level-2018-2019>

DE LA PAZ-MARÍN, M.; CAMPOY-MUÑOZ, P.; HERVÁS-MARTÍNEZ, C. Non-linear multiclassifier model


based on Artificial Intelligence to predict research and development performance in European countries.
Technological Forecasting and Social Change, v. 79, n. 9, p. 1731–1745, 2012.

ETZKOWITZ, H.; ZHOU, C. Hélice Tríplice: inovação e empreendedorismo universidade-indústria-governo.


Estudos Avançados, v. 31, n. 90, p. 23–48, maio 2017.

HONGWEI, D.; ZHANG, J. Application of data mining algorithm in governmental R&D investment and
independent innovation ability. Revista Tecnica de la Facultad de Ingenieria Universidad del Zulia, v. 39, n.
12, p. 136–143, 2016.

ISLAM, M. Z. et al. Combining K-MEANS and a genetic algorithm through a novel arrangement of genetic
operators for high quality clustering. Expert Systems with Applications, v. 91, p. 402–417, 2018.

MALPASS, D. The World Bank (IBRD - IDA), 1944. Disponível em: <https://www.worldbank.org>

MANKIW, N. G. Macroeconomia. p. 792, 2015.

MEDINA-RODRIGUEZ, R.; CASTANON, C. B.; HASHIMOTO, R. F. Evaluation of the Impact of Initial


Positions obtained by Clustering Algorithms on the Straight Line Segments Classifier. 2018 IEEE Latin
American Conference on Computational Intelligence, LA-CCI 2018. Anais...Institute of Electrical and
Electronics Engineers Inc., 2019Disponível em: <https://www.scopus.com/inward/record.uri?eid=2-s2.0-
85062518799&doi=10.1109%2fLA-
CCI.2018.8625256&partnerID=40&md5=249b2b4200fdd28dd4a90eb4dda41b79>

SALVADOR, H. G.; CUNHA, A. M. D.; CORRÊA, C. S. Vedalogic: um método de Verificação de Dados


Climatológicos Apoiado em Modelos Minerados. Revista Brasileira de Meteorologia, v. 24, n. 4, p. 448–460,
dez. 2009.

UNIVERSIDADE CORNELL,; INSEAD; ORGANIZAÇÃO MUNDIAL DA PROPRIEDADE


INTELECTUAL (OMPI. Índice Global de Inovação 2019 - Criar Vidas Sadias - O Futuro da Inovação
Médica. [s.l: s.n.]. Disponível em: <https://www.wipo.int/edocs/pubdocs/pt/wipo_pub_gii_2019.pdf>.

VIANNA, R. C. X. F. et al. Mineração de dados e características da mortalidade infantil. Cadernos de Saúde


Pública, v. 26, n. 3, p. 535–542, mar. 2010.

WAIKATO, U. OF. WEKA - Waikato Environment for Knowledge Analysis. [s.l: s.n.].

WU, X. et al. Top 10 algorithms in data mining. Knowledge and Information Systems, v. 14, n. 1, p. 1–37, jan.
2008.

ANEXO A – Ranking das economias mais inovadoras do mundo – IGI – 2019

14

299
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Country/Economy Score Rank Country/Economy Score Rank Country/Economy Score Rank


Switzerland 1 Croatia 44 Dominican Republic 87
Sweden 2 Montenegro 45 Lebanon 88
United States of America 3 Russian Federation 46 Sri Lanka 89
Netherlands 4 Ukraine 47 Kyrgyzstan 90
United Kingdom 5 Georgia 48 Trinidad and Tobago 91
Finland 6 Turkey 49 Egypt 92
Denmark 7 Romania 50 Botswana 93
Singapore 8 Chile 51 Rwanda 94
Germany 9 India 52 Paraguay 95
Israel 10 Mongolia 53 Senegal 96
Republic of Korea 11 Philippines 54 United Republic of Tanza 97
Ireland 12 Costa Rica 55 Cambodia 98
Hong Kong, China 13 Mexico 56 Ecuador 99
China 14 Serbia 57 Tajikistan 100
Japan 15 Republic of Moldova 58 Namibia 101
France 16 North Macedonia 59 Uganda 102
Canada 17 Kuwait 60 Côte d’Ivoire 103
Luxembourg 18 Iran (Islamic Republico) 61 Honduras 104
Norway 19 Uruguay 62 Pakistan 105
Iceland 20 South Africa 63 Ghana 106
Austria 21 Armenia 64 Guatemala 107
Australia 22 Qatar 65 El Salvador 108
Belgium 23 Brazil 66 Nepal 109
Estonia 24 Colombia 67 Bolivia 110
New Zealand 25 Saudi Arabia 68 Ethiopia 111
Czech Republic 26 Peru 69 Mali 112
Malta 27 Tunisia 70 Algeria 113
Cyprus 28 Brunei Darussalam 71 Nigeria 114
Spain 29 Belarus 72 Cameroon 115
Italy 30 Argentina 73 Bangladesh 116
Slovenia 31 Morocco 74 Burkina Faso 117
Portugal 32 Panama 75 Malawi 118
Hungary 33 Bosnia and Herzegovina 76 Mozambique 119
Latvia 34 Kenya 77 Nicaragua 120
Malaysia 35 Bahrain 78 Madagascar 121
United Arab Emirates 36 Kazakhstan 79 Zimbabwe 122
Slovakia 37 Oman 80 Benin 123
Lithuania 38 Jamaica 81 Zambia 124
Poland 39 Mauritius 82 Guinea 125
Bulgaria 40 Albania 83 Togo 126
Greece 41 Azerbaijan 84 Niger 127
Viet Nam 42 Indonesia 85 Burundi 128
Thailand 43 Jordan 86 Yemen 129

15

300
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 7

ANEXO B – Indicadores econômicos em inglês e português – The World Bank

Economic Indicators
Foreign direct Poverty headcount
Gross capital Merchandise
Patent applications, investment. net ratio at national
1 11 21 formation (% of 31 trade (% of 41
residents (BoP. current poverty lines (\% of
GDP) GDP)
US$) population)
Adolescent fertility Foreign direct High-technology Prevalence of HIV.
Military
rate (births per investment. net exports (% of total (\% of
2 12 22 32 expenditure (% 42
1.000 women ages inflows (BoP. manufactured population ages 15-
of GDP)
15-19) current US$) exports) 49)
Agriculture. Immunization. Prevalence of
Mobile cellular
forestry. and Forest area (sq. measles (% of underweight. weight
3 13 23 33 subscriptions 43
fishing. value km) children ages 12-23 for age (% of
(per 100 people)
added (% of GDP) months) children under 5)
Mortality rate.
Births attended by Imports of goods Primary completion
GDP (current under-5 (per
4 skilled health staff 14 24 and services (% of 34 44 rate. total (% of
US$) 1.000 live
(% of total) GDP) relevant age group)
births)
Contraceptive
Net barter terms
prevalence. any GDP growth Income share held Revenue. excluding
5 15 25 35 of trade index 45
methods (% of (annual %) by lowest 20% grants (% of GDP)
(2000 = 100)
women ages 15-49)
School enrollment.
Electric power Industry (including primary and
GDP per capita
6 consumption (kWh 16 26 construction). value 36 Net migration 46 secondary (gross).
(current US$)
per capita) added (% of GDP) gender parity index
(GPI)
Net ODA
Energy use (kg of GNI per capita. School enrollment.
Inflation. consumer received per
7 oil equivalent per 17 Atlas method 27 37 47 secondary (\%
prices (annual %) capita (current
capita) (current US$) gross)
US$)
Exports of goods GNI per capita. Personal Start-up procedures
Inflation. GDP
8 and services (% of 18 PPP (current 28 38 remittances. paid 48 to register a
deflator (annual%)
GDP) international $) (current US$) business (number)

External debt GNI. Atlas Population


Life expectancy at Surface area (sq.
9 stocks. total (DOD. 19 method (current 29 39 growth (annual 49
birth. total (years) km)
current US$) US$) %)

Market
GNI. PPP capitalization of
Fertility rate. total Total debt service
10 20 (current 30 listed domestic 40 Population. total 50
(births per woman) (% of GNI)
international $) companies (% of
GDP)
Water productivity.
51
total
Tabela 8

16

301
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Indicadores Econômicos
Investimento Proporção de
FBKF + Estoques Comércio de
Pedidos de estrangeiro direto. trabalhadores em
1 11 21 = Investimentos % 31 mercadorias (% 41
Patentes (2017) líquido (Balanço de situação de pobreza a
PIB do PIB)
pagtos US$ atuais) nacionais (% da pop.)
Taxa de
Investimento
fecundidade de Exportações de
estrangeiro direto. Despesas Prevalência do HIV.
adolescentes alta tecnologia (%
2 12 entradas líquidas 22 32 militares (% do 42 total (% da população
(nascimentos por das exportações de
(Balanço de pagtos. PIB) entre 15 e 49 anos)
1.000 mulheres manufaturados)
US$ atuais)
entre 15 e 19 anos)
Agricultura.
Imunização. Prevalência de baixo
silvicultura. e Assinaturas de
Área florestal sarampo (% de peso. peso por idade
3 pesca. valor 13 23 33 celular (por 100 43
(km2) crianças de 12 a 23 (% de crianças
adicionado (% do pessoas)
meses) menores de 5 anos)
PIB)
Partos assistidos Taxa de
por pessoal de Importação de mortalidade. Taxa de conclusão
4 saúde 14 PIB (US$ atuais) 24 bens e serviços (% 34 menores de 5 44 primária. total (% da
especializado (% do PIB) anos (por 1.000 faixa etária relevante)
do total) nascidos vivos)
Prevalência
Termos de troca
contraceptiva.
Parcela de renda líquida de
qualquer método Cresc. PIB (% Receita. excluindo
5 15 25 realizada pelo 35 índice de 45
(% de mulheres anual) doações (% do PIB)
menor de 20% comércio (2000
entre 15 e 49 anos)
= 100)

Indústria Matrícula escolar.


Consumo de PIB per capita (US$ (incluindo primário e secundário
Migração
6 energia elétrica 16 atuais) 2018 Iran 26 construção). valor 36 46 (bruto). índice de
líquida
(kWh per capita) 2015 adicionado (% do paridade de gênero
PIB) (GPI)
Uso de energia (kg APD líquida
PNB per capita Inflação. preços ao
de óleo recebida per Matrícula escolar.
7 17 Atlas method (US$ 27 consumidor (% 37 47
equivalente per capita (US $ secundário (% bruto)
atuais) anual)
capita) atual)
Procedimentos de
Exportação de Remessas
Inflação. Deflator inicialização para
8 bens e serviços (% 18 PNB per capita 28 38 pessoais. pago 48
do PIB (% anual) registrar uma empresa
do PIB) (US $ atual)
(número)
Expectativa de
Estoques de dívida Crescimento
PNB Atlas (média vida no Superfície (km2)
9 externa. total 19 29 39 populacional 49
da taxa de câmbio) nascimento. total
(DOD. US $ atual) (% anual)
(anos)
PNB Taxas de Capitalização de
Taxa de
câmbio c/ mercado das Serviço total da dívida
fertilidade. total População.
10 20 paridades, mesmo 30 empresas nacionais 40 50 (% do RNB) (juros e
(nascimentos por Total
poder de compra listadas (% do amortizações)
mulher)
US$ americano) PIB)

Produtividade da água.
51
total

Tabela 9

17

302
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ATMOSPHERIC SOURCE RECONSTRUCTION USING PARTICLE SWARM


OPTIMIZATION TECHNIQUE

Roseane A.S. Albani1 - roseanealves75@gmail.com


Vinicius V.L. Albani2 - v.albani@ufsc.br
Antônio J. Silva Neto1 - ajsneto@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil
2 Universidade Federal de Santa Catarina, Departamento de Matemática-Florianópolis, SC, Brazil

Abstract. This work proposes an inverse modeling technique to estimate point source emissions
in the atmosphere. Tikhonov-type regularization with composite misfits functions is used to
identify the emission sources, and the corresponding minimization problem is solved by Particle
Swarm Optimization (PSO). The regularization parameter in the Tikhonov-type functional is
chosen by a discrepancy-based rule. This set of techniques defines the inverse problem solution.
The dispersion model (or forward problem) is solved using a finite element formulation. The
proposed methodology is evaluated with a tracer field experiment. The proposed methodology
performed successfully since it provided a close agreement with the experimental data.

Keywords: Source estimation, PSO, Inverse modeling, Tikhonov-type regularization

INTRODUCTION

Source reconstruction from atmospheric releases using inverse modeling has become an
attractive alternative to obtain relevant source parameters, especially when it is necessary to
identify quickly their origin and the amount of material released. After the sources are tracked
down, their parameters, associated with the local meteorological conditions, can be included
in a dispersion model to investigate the contaminant concentration distribution over a specified
region.
The inverse source characterization usually consists of a dispersion model (or forward prob-
lem), which includes meteorological and topographical information about the study area and an
inverse methodology to obtain the source parameters. The option for a technique to solve the
forward and the inverse problems is of crucial importance for the reliability and accuracy of the
results.
Concerning the forward problem, numerical methods are most appropriate since it allows to
incorporate complex boundary conditions and physical process inherent to the atmospheric dis-
persion. Recent works considering the source identification problem in the atmosphere adopted

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

303
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a numerical approach to the forward model, see for example, Matsuo et al. (2019); Albani and
Albani (2019, 2020); Albani et al. (2020) and references therein.
The inverse problem solution consists of obtaining the source parameters from observed
concentrations, using the solution of the forward problem. Amongst the existing approaches
to solve inverse problems, there are those based on the minimization of an objective function,
which is composed of a data misfit term that evaluates the discrepancy between measured and
evaluated concentrations. They are the so-called optimization methods. When the Tikhonov-
type regularization is applied, the addition of a penalty term makes the estimation process more
stable.
In recent years, metaheuristic optimization methods such as Particle Swarm Optimization
(PSO), Genetic Algorithms (GA) and Simulated Annealing (SA), to mention some of the most
popular to identify atmospheric emissions, have frequently been applied, such as in Ma et al.
(2017); Wang et al. (2018, 2020); Albani et al. (2020). The main advantage of using algorithms
based on this kind of methodology is that they are global search methods, so, they are less likely
to be trapped on local minima points.
This work proposes a combination of the Galerkin/Least-Squares (GLS) formulation devel-
oped by Hughes et al. (1989) to solve the forward problem, and the PSO optimization technique
to minimize the Tikhonov-type functional providing the source parameters. Composite misfit
functionals are incorporated into the Tikhonov-type regularization to consider different kinds of
noise. The regularization parameter is chosen by a discrepancy-based rule. Lastly, the source
estimation is based on data of the well-known Copenhagen Tracer Field experiment Gryning
and Lyck (1984).

FORWARD PROBLEM

In this work, the relevant source parameters such as their Cartesian coordinates (x, y, z) and
the source strength Q of atmospheric emission are retrieved. The study case is the single source
Copenhagen Tracer Experiments performed in Copenhagen (Gryning et al., 1987). During
the Copenhagen experiment, the tracer SF6 was released without buoyancy from a TV tower
from 115 m height and then collected over an array of sensors in concentric arcs ranging from
2 − 6 [km] from the source at 2 − 3 [m] from the ground surface. Concentration data were
sampled every 20 minutes, in a total of one hour. More details about this experiment can be
found in Gryning and Lyck (2002). Figure 1 shows the relative position among the source and
the sensors. To reproduce computationally this experiment, some assumptions were considered:

1. The steady-state regime was established.


2. No chemical reaction, radioactive decay, or deposition process occurs.
3. The wind flows over a flat and homogeneous terrain.
4. The wind did not present a considerable change over the average period used here.

As aforementioned, the source identification problem of atmospheric emissions consists


of a dispersion model and an inverse modeling technique. The atmospheric dispersion model
consists of an advection-diffusion partial differential equation (PDE) for the scalar quantity c,
for which, from the hypotheses 1 − 4, is given by
u · ∇c − ∇ · (K∇c) = Qδ(x − xs )δ(y − ys )δ(z − zs ) ∈ in Ω, (1)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

304
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 1- Position of the source and sampling units during the Copenhagen Tracer experiment. The filled
circle represents the source emission, the empty circles the not used sensors, and the filled ones, the
sensors used in the source estimation. The arrow indicates the wind direction.

and the following boundary conditions:

∇c · n = 0, (2)

with denoting n the outward normal on z = z0 as well as z = H, and

c = 0 elsewhere (3)

where z0 stands for the surface roughness length and H is the Atmospheric Boundary Layer
(ABL) height. u = (u, v, 0) is the wind velocity vector, with u = |u| cos(θ) and v = |u| sin(θ),
θ is the wind direction angle and K represents a diagonal matrix which non-zero entries Kx , Ky
and Kz represent the turbulent diffusion in the x, y and z directions respectively. The wind
velocity and eddy diffusion coefficients strongly depend on the meteorological conditions. In
addition, Q is the source strength, δ is the Dirac delta distribution and (xs ; ys ; zs ) are the source
coordinates.
From the linearity of Eq. (1), it can be written as the so-called adjoint state PDE. The
adjoint equation determine a straight relation between receptors and the sources, where every
experimental concentration C obs (xk ; yk ; zk ) at the k-th sensor can be written as
Z
obs
C (xk , yk , zk ) = c∗k (x, y, z)S(x, y, z)dxdydz = hc∗k , Si, (4)

where
S(x, y, z) = Qδ(x − xs )δ(y − ys )δ(z − zs )
represents the point source and c∗k is the solution of the adjoint-state PDE

−u · ∇c∗ − ∇ · (K∇c∗ ) = Lk , (5)

where
Lk (x, y, z) = δ(x − xsensor,k )δ(y − ysensor,k )δ(z − zsensor,k ),

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

305
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

and (xsensor,k , ysensor,k , zsensor,k ) is the coordinate of the kth sensor. The boundary condi-
tions associated to Eq. (5) are given by

∇c∗ · n = 0, (6)

with n the outward normal on z = z0 as well as z = H, and

c∗ = 0 elsewhere. (7)

The solution for the Eq. (5) was obtained numerically using the Galerkin/Least-Squares
(GLS) formulation proposed by Hughes et al. (1989).

THE INVERSION METHODOLOGY

It is well-known that source emission estimation is a highly ill-posed inverse problem, due
to the effects of atmospheric diffusion in pollutant dispersion, uncertainties in the physical mod-
eling, and noise in the concentration measurements. So, to estimate the location and the strength
of the source emission, an inversion methodology based on Tikhonov-type regularization (Engl
et al., 1996) and Particle Swarm Optimization (PSO) (Holland, 1975; Kennedy and Eberhart,
1995) is proposed.
Let C denote the predicted concentrations at the sensors given by the numerical solution
of the dispersion model, represented by the adjoint-state PDE problem in Eqs. (5)-(7). C obs
denotes the set of measured concentrations at the sensors and (x† , y † , z † , Q† ) stand for the true
parameters of the source. Then, the inverse problem is to find (x† , y † , z † , Q† ) in the computa-
tional domain Ω such that it solves

C(x† , y † , z † , Q† ) = C obs . (8)

As mentioned above, this estimation problem is ill-posed and Tikhonov-type regularization is


applied. In other words, Eq. (8) is replaced by the minimization of the following functional:

F(x, y, z, Q) = Φ(x, y, z, Q) + αΛ(x, y, z, Q), (9)

where Φ is the data misfit functional, α is the regularization parameter and Λ is the regular-
ization functional. The data misfit evaluates the discrepancy between predicted and measured
concentrations and, in the present it assumes the forms below:

kC − C obs k2`2 kC − C obs k`1


Φ= + , (10)
2kC obs k2`2 2kC obs k`1
kC − C obs k`1 k log(C) − log(C obs )k2`2
Φ= + , (11)
2kC obs k`1 2k log(C obs )k2`2
kC − C obs k2`2 k log(C) − log(C obs )k2`2
Φ= + , (12)
2kC obs k2`2 2k log(C obs )k2`2

where the dependency on the source parameters (x,Pny, z, Q)pis dropped to simplify notation, and
p
the `p -norm, with p = 1, 2, is given by kwk`p = j=1 |wj | , for any vector w = (w1 , . . . , wn ).
Notice that, in these composite misfit functions, the `1 term is related to impulsive noise, the
`2 -term accounts for Gaussian noise and the log-term represents log-normal noise.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

306
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The regularization functional is the negative form of the Boltzmann-Shannon entropy, i.e.,

Λ(x, y, z, Q) = (x + 2000) log(x + 2000) + (y + 5000) log(y + 5000)


+ (z − z0 ) log(z − z0 ) + Q log(Q). (13)

The regularization parameter α is chosen according to a discrepancy-based rule. In other words,


starting with a large value for α, say 10−2 , find the corresponding minimizer of the Tikhonov-
type functional in Eq. (9), denoted by (xα , yα , zα , Qα ), and evaluate the data misfit Φ. If it
is below a preset threshold, the chosen α is the right one, otherwise, chose a smaller value
for α and repeat the operation until the threshold is larger than the resulting misfit value. The
threshold depends on the problem under consideration and on the available data. For the present
problem, the threshold is set as 0.15. The minimization of the Tikhonov-type functional is
performed by PSO.

RESULTS

This section describes the numerical solution of the forward and inverse problems consider-
ing meteorological data from the Copenhagen Tracer Experiments.

Forward problem

To account for the meteorological conditions in the dispersion model described in Eq. (5),
parametric profiles for the wind intensity and the vertical turbulent diffusion proposed by Ulke
(2000) are applied. Considering the unstable condition (H/L < 0), these parameterizations are
given respectively by

1 + µ20
      
u∗0 z 1 + µ0
|u(z)| = ln + ln + 2 ln +
κ z0 1 + µ2 1+µ

2L 3 3
2[arctan(µ) − arctan(µ0 )] + (µ − µ0 ) (14)
33H

with r
4 H z
µ= 1 − 22 ,
LH
µ0 = µ(z0 ) and
z  z
Kz (z) = κu∗ Hµ 1− (15)
H H
where L is the Monin-Obukhov length and u∗ is the friction velocity. The simulations are
performed considering the datasets from October 19, 1978. Hence, H = 1120 [m], u∗ =
0.39 [m/s] and L = −108 [m]. The wind direction average during the sampling interval was
θ = 290◦ . Furthermore, we set Kx = Ky = 50 [m2 /s], as suggested by (Arya, 2001, p.
272), for unstable conditions. The mathematical modeling presented to the forward problem
considerably simplifies the solution procedure. It is important to say that it could be applied
because of the assumptions 1 − 4 made in Section 2. Otherwise, the Navier-Stokes equations
associated with a turbulence model need to be solved to provide the wind field.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

307
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

To give more confidence in the proposed modeling for the forward problem, the result-
ing GLS finite element solution for the Eq. (5)-(7), including the parameterizations (14)-(15)
is compared with experimental datasets. In this illustrative simulation, the parameters Q =
3.2 [g/s], and the source coordinates (0, 0, 115) [m] were applied.
The computational domain is a parallelepiped with the dimensions for the base shown in
Fig. 1 and vertical extension is given by the ABL height H. The domain was meshed in about
3.500.000 linear tetrahedral finite elements using an adaptive procedure. Thus, the mesh is
refined according to an error norm, where the highest solution gradients occur, that is, along
the tracer plume centerline. The solution is performed by considering each sensor position
a source, according to the proposed adjoint PDE. In this work, a total of 20 sampling points
which provided non-zero concentrations are used. Convergence mesh tests are performed by
comparing the numerical solution over specific points considering progressively finer meshes
and compare results. Overall, two adaptive mesh refinements are enough to get convergent
solutions.
The assessment of the numerical solution for the dispersion model (5) is performed using
the statistical indices proposed by Hanna (1989). These indices evaluate the agreement between
observed (O) and predicted (P) concentrations, given by:
2
(C0 − Cp )
• Normalized Mean Square Error: NMSE =
C0 C p

(C0 − C0 )(Cp − Cp )
• Correlation Coefficient: R =
σ0 σp

C0 − Cp
• Fractional Bias: FB =
0.5(C0 + Cp )
(σ0 − σp )
• Fractional Standard Deviations: FS =
0.5(σ0 + σp )
Cp
• Factor of two : FAC2 = 0.5 ≤ ≤2
C0
The bars denote the mean values of each quantity.

Table 1- Statistical indices considering the GLS solution of Eq. (5) and the Copenhagen Tracer Experi-
ments datasets.
Method NMSE R FB FS FAC2
Ideal values 0 1 0 0 1
Numerical (GLS) 0.03 0.92 0.02 0.12 1

The positive and small FB value indicates that the proposed numerical solution for the for-
ward problem overestimates the experimental concentration. The Correlation Coefficient near
their ideal value, which is 1, shows that there is a large correlation between the experimental
and the numerical concentrations. Besides, FAC2 indicates that 100% of the proposed numerical
solution provided concentrations between the half and the double of the experimental concen-
trations. Therefore, the close agreement with experimental data is verified, since the numerical
solution provides statistical indices very close to their ideal values.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

308
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Source identification

The minimization of the Tikhonov-type functional in Eq. (9) is performed by the PSO func-
tion from the Global Optimization toolbox from MATLAB. The used setup is

1. Swarm size population 100 and Inertial range of [0.1, 1.2].


2. Self Adjustment Weight = 1 and Social Adjustment Weight = 0.5.
3. Function Tolerance of 10−30 .

More details on the implementation of the PSO function can be found in the MATLAB’s docu-
mentation website (www.mathworks.com/help/matlab/).
To select the appropriate regularization parameter, the values for α = 10−s , with s =
6, 7 . . . , 20 were tested with all the three data misfit functionals in Eqs. (10)-(12). The selected
regularization parameters and the corresponding data misfit values can be found in Tab. 2. Ta-
ble 2 also presents the reconstructed source parameters using the data misfit functionals in
Eqs. (10)-(12).

Misfit x [m] y [m] z [m] Q [g/s] Reg. Param. Misfit Value


(10) 168.30 -44.63 120.58 3.26 10−6 0.11
(11) 221.17 -68.03 123.32 3.26 10−6 0.11
(12) 416.61 -164.90 124.14 3.08 10−6 0.13
True 0 0 115 3.20 - -
Table 2- Source parameters estimated using the misfit functions in Eqs. (10)-(12) and the corresponding
values of the selected regularization parameters and data misfit functions.

As mentioned above, this inverse problem is ill-posedness, due mainly to diffusion, the
noise present in the measurements, and modeling uncertainty. Moreover, the sensors are placed
about 2 [km] away from the emission source, which makes the source parameter identification
problem harder to be solved. It is worth to mention that the present inverse problem was solved
a number of times using different techniques, including, for example, Genetic Algorithms and
Gradient Descent methods (Albani and Albani, 2019; Albani et al., 2020). In all these cases, the
obtained results were similar to the ones provided by the proposed estimation procedure. Thus,
we can assert that the reconstructed parameters are satisfactorily accurate, especially for the
first two data misfits, i.e, the functions in Eqs. (10)-(11). Slightly better results can be achieved
with smaller values for α using the first two misfits, however, we decided to present those in
Tab. 2, since they are the larger α values satisfying the discrepancy-based rule to select the
regularization parameter.
This numerical example was repeated extensively, presenting reconstructions as accurate as
those ones above. Thus, based on the present results, the combination of PSO, Tikhonov-type
regularization with composite data misfits, and an accurate numerical solution of the dispersion
problem forms a robust technique to recover emission source parameters.

CONCLUSIONS

This work proposes a robust methodology to estimate atmospheric emissions from point
sources. The approach consists of a combination of several techniques to solve the forward and

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

309
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

the inverse problems, involved in the source identification process. The Galerkin/Least-Squares
formulation developed by Hughes et al. (1989) is applied to solve the advection-diffusion PDE
or forward problem. The source parameters are estimated by minimizing the Tikhonov-type
regularization functional using the Particle Swarm Optimization technique (Holland, 1975;
Kennedy and Eberhart, 1995).
Different combinations of misfit functionals in the Tikhonov-type regularization are also
taken into account. The combination of misfits considering different norms is well-known to
provide better treatment of different kinds of noise. Also, a discrepancy-based procedure is
applied to choose the regularization parameter. The resulting formulation for the atmospheric
source identification problem performed nicely according to the computational reproduction
and comparison with a field experiment.

Acknowledgements

The authors acknowledge the financial support provided by CAPES-Coordenação de Aperfeiçoamento


de Pessoal de Nı́vel Superior (Finance code 001), CNPq-Conselho Nacional de Desenvolvi-
mento Cientı́fico e Tecnológico, and FAPERJ-Fundação Carlos Chagas Filho de Amparo à
Pesquisa do Estado do Rio de Janeiro.

REFERENCES

Albani, R. and Albani, V. (2019). Tikhonov-Type Regularization and the Finite Element Method
Applied to Point Source Estimation in the Atmosphere. Atmos. Environ., 211:69–78.
Albani, R. and Albani, V. (2020). An Accurate Strategy to Retrieve Multiple Source Emissions
in the Atmosphere. Atmos. Environ., 233:117579.
Albani, R., Albani, V., and Silva Neto, A. J. (2020). Source Characterization of Airborne Pollu-
tant Emissions by Hybrid Metaheuristic/Gradient-based Optimization Techniques. Environ.
Pollut., 267:115618.
Arya, S. P. (2001). Introduction to Micrometeorology. Academic Press.
Engl, H., Hanke, M., and Neubauer, A. (1996). Regularization of Inverse Problems. Kluwer.
Gryning, S. E., Holtslag, A. M., Irwin, J. S., and Sivertsen, B. (1987). Applied modelling based
on meteorological scaling parameters. Atmos. Environ., 21:79–89.
Gryning, S. E. and Lyck, E. (1984). Atmospheric Dispersion from Elevated Sources in Urban
Area: Comparison Between Tracer and Experiments and the Model Calculations. J. Climate
Appl. Meteor., 23:651–660.
Gryning, S. E. and Lyck, E. (2002). The Copenhagen tracer experiments: Reporting of mea-
surements. Technical Report 1054, Technical University from Denmark, Denmark. Forskn-
ingscenter Risoe.
Hanna, S. R. (1989). Confidence limit for air quality models as estimated by bootstrap and
jacknife resampling methods. Atmos. Environ., 23:1385–1395.
Holland, J. (1975). Adaptation in Natural and Artificial Systems. University of Michigan Press.
Hughes, T., Franca, L., and Hulbert, G. (1989). A new Finite Element Formulation for Compu-
tational Fluid Dynamics: VIII. The Galerkin/Least-Square Method for Advective-Diffusive
Equations. Comput. Methods Appl. Mech. Engrg., 73:173–189.
Kennedy, J. and Eberhart, R. (1995). Particle swarm optimization. In IEEE International
Conference on Neural Networks, Perth, Australia.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

310
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ma, D., Tan, W., Zhang, Z., and Hu, J. (2017). Parameter identification for continuous point
emission source based on Tikhonov regularization method coupled with particle swarm opti-
mization algorithm. J. Hazard. Mater., 325:239–250.
Matsuo, T., Shimadera, H., and Kondo, A. (2019). Identification of multiple contamination
sources using variational continuous assimilation. Build Environ, 147:422–433.
Ulke, A. G. (2000). New turbulent parameterization for a dispersion model in the atmospheric
boundary layer. Atmos. Environ., 34:1029–1042.
Wang, Y., Chen, B., Zhu, Z., Wang, R., Chen, F., Zhao, Y., and Zhang, L. (2020). A hybrid strat-
egy on combining different optimization algorithms for hazardous gas source term estimation
in field cases. Process Saf. Environ., 138:27–38.
Wang, Y., Huang, H., Huang, L., and Zhang, X. (2018). Source term estimation of hazardous
material releases using hybrid genetic algorithm with composite cost functions. Engineering
Applications of Artificial Intelligence, 75:102–113.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

311
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELAGEM COMPUTACIONAL DE UM TRANSFORMADOR MONOFÁSICO


ATRAVÉS DO MÉTODO DOS ELEMENTOS FINITOS

Eduardo Chiarello1 – eduardochiarelloufpr@gmail.com


Daniel Nelson Fabiani Sanches1 – danielsanches0732@gmail.com
Thomas da Silva Carneiro Terrana1 – thomasscterrana@gmail.com
Juliana Almansa Malagoli1, 2, 3 – juliana.malagoli@ufpr.br
Adriel Senna de Oliveira Candido1,2 – adriel.candido@ufpr.br
1
Universidade Federal do Paraná, Departamento de Engenharia Elétrica – Curitiba, PR, Brasil
2
Programa de Pós-Graduação em Engenharia Elétrica – Curitiba, PR, Brasil
3
Centro de Estudos do Mar – Pontal do Paraná, PR, Brasil

Resumo. O transformador monofásico é um dispositivo eletromagnético responsável pela


transformação da energia elétrica, proporcionando a redução ou elevação da tensão elétrica
alternada. Neste cenário, configura-se como um interessante tema de pesquisa, já que está
relacionado a sistemas de redução da tensão em diversos equipamentos usados no cotidiano.
Neste contexto, o presente trabalho tem por objetivo modelar um transformador monofásico
usando elementos finitos. Além disso, analisam-se os gráficos das densidades de fluxos
magnéticos no núcleo e no entreferro do dispositivo, por último verifica-se a perda no cobre
nos enrolamentos do equipamento. Os resultados mostram as análises do transformador
monofásico através dos parâmetros que caracterizam o modelo matemático apresentado.

Palavras-Chave: Método dos Elementos Finitos, Modelagem Computacional, Transformador


Monofásico.

1. INTRODUÇÃO

No mundo contemporâneo, é notável como a pauta energia elétrica está presente na vida
das pessoas. Dentro dessa área, tem-se a presença de um dispositivo que revolucionou a
geração, transmissão e distribuição da energia: o transformador Fitzgerald et al. (2014). O
transformador nada mais é do que um aparato que converte, por meio da ação de um campo
magnético, a energia elétrica em um determinado nível de tensão e frequência, para um nível
de frequência igual, porém, de tensão diferente. Assim, torna-se significativo realizar análises
mais aprofundadas para uma maior compreensão do funcionamento do transformador, de tal

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

312
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

maneira que possa explorar a máxima eficiência possível que tal equipamento pode fornecer
(Chapman, 2013).
Substancialmente, um transformador tem como característica um fluxo magnético de
mesma intensidade, variável no tempo, entre dois enrolamentos, conhecidos como primário e
secundário, respectivamente. Ao conectar-se o enrolamento primário a uma tensão elétrica
alternada, produz um fluxo magnético alternado de amplitude equivalente a tensão aplicada
(Alves, 2016). Dessa forma, é realizável a criação de um laço envolvendo o enrolamento
primário com o secundário. Por sua vez, recebe uma tensão induzida oriunda de tal fluxo,
gerando em sua saída, a tensão transformada desejada. É perceptível que melhor ocorre com
os enrolamentos do transformador acoplados através de um núcleo de ferro ou um outro
material ferromagnético, porém, suscetível a perdas ( Vasconcelos, 2013).
Diante do exposto, percebe-se ser de alta relevância uma investigação mais otimizada
acerca das características magnéticas de operação de um transformador. Sendo assim, esse
trabalho tem como objetivo modelar um transformador monofásico, gerar os gráficos da
densidade de fluxo magnético no núcleo e também em seu entreferro, além de verificar os
valores das perdas no cobre, utilizando o método de elementos finitos. Para tal, será
empregado o uso do software de simulação FEMM (Finite Element Method Magnetics).
Este artigo, organiza-se em 6 seções, as quais seguem os seguintes tópicos: a seção 2
apresenta o projeto do transformador monofásico, a seção 3 explana sobre o método dos
elementos finitos, a seção 4 mostra a metodologia adotada, a seção 5 é designada aos
resultados e discussões e por fim, a seção 6 descreve as considerações finais.

2. TRANSFORMADOR MONOFÁSICO

Os transformadores são essenciais para toda a indústria contemporânea e vitais para a


engenharia elétrica. Os primeiros transformadores foram feitos por Michael Faraday como
uma máquina elétrica pensada a partir da própria Lei de Faraday-Lenz e a Lei de
Ampère. Porém, o nome transformador só foi usado pela primeira vez em 1884 pela
companhia húngara Ganz (Chapman, 2013), Fitzgeral et al. (2014).
Muitos dos princípios e ideias dessa época, continuam a serem usados na projeção e
construção de todos os tipos de transformadores, levando também diversos avanços na área.
Essa seção, é dedicada a compreensão dos princípios para a construção de um transformador
monofásico, os materiais usados e as perdas relacionadas.
Um transformador monofásico de duas bobinas não concêntricas, possui um núcleo de
material ferromagnético laminado envolto por duas bobinas separadas. Em funcionamento,
pode ser acoplado a uma fonte de tensão alternada, um resistor e uma carga de reatância. A
Figura 1 mostra um transformador em 3D e a Tabela 1 descreve os principais parâmetros
usados no projeto do transformador.

Figura 1 – Núcleo do transformador monofásico tridimensional com entreferro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

313
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Principais parâmetros do dispositivo eletromagnético.

Parâmetros Valores Unidades no SI


A (comprimento no centro do núcleo) 3,0 cm
B (largura do núcleo) 1,5 cm
C (profundidade) 3,0 cm
D (entreferro) 0,5 mm
N1 (bobina no primário) 250 espiras
N2 (bobina no secundário) 50 espiras
AWG20 (Raio do fio no primário) 0,00041 m
AWG14(Raio do fio no secundário) 0,00081 m
µ0 (Permeabilidade no vácuo) 4π10-7 H/m

2.1 Princípios de Funcionamento

A função de um transformador monofásico é proporcionar um aumento ou diminuição


do nível de tensão mantendo a frequência, assim como isolamento entre os dois circuitos.
Além disso, as leis de conservação de energia não permitem um aumento de potência entre os
circuitos. De uma forma prática, se o nível de tensão aumenta a corrente diminui de forma
proporcional, e devido as perdas do sistema em um transformador real a potência entregue
à carga diminui (Alves, 2016).
Em um transformador, o enrolamento primário é alimentado por uma fonte de
tensão elétrica alternada, juntamente com um resistor gerando uma corrente I que segundo a
Lei de Ampère faz com que um campo magnético H circular seja formado ao redor
do condutor (Consoni, 2018). No caso de uma bobina, esse campo é proporcional ao número
de espiras N com o caminho de integração sendo o comprimento médio do núcleo lm. Pode-se
destacar, os principais cálculos para a modelagem do transformador monofásico.

∮ Hlm = NI (1)

Com um H constante por todo o caminho temos:

NI
H=
lm (2)

Onde: H é o campo magnético (A/m); lm é o campo médio do núcleo (m); N é o número de


espiras (espiras); I é o corrente elétrica (A).
Esse campo magnético H multiplicado pela permeabilidade magnética é por definição a
densidade de fluxo magnético B, que, como o nome indica, a grandeza tem capacidade de
gerar fluxo no núcleo, sendo diretamente proporcional a área da seção transversal A.

 = BA (3)

Onde:  é o fluxo magnético (Wb); B é a densidade de fluxo magnético (T); A é a seção


transversal do núcleo do transformador (m2).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

314
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Além disso, a lei de Faraday mostra que um fluxo variável no tempo entrelaçado com
uma bobina, induz uma tensão que pela lei de Lenz, se opõe a variação produzida carregando
um sinal negativo, conforme demonstra a Equação (4).

d
V1 = −e1ind = N1
dt (4)

Onde: V1 é a tensão do enrolamento primário (V); e1ind é a tensão induzida do enrolamento


primário (V); N1 é o número de espiras do enrolamento primário (espiras); d  / dt é a taxa de
variação do fluxo magnético (Wb/s).
Dessa forma, analogamente para o secundário, tem-se:

d
V2 = −e2ind = N 2
dt (5)

Onde: V2 é a tensão do enrolamento secundário (V); e2ind é a tensão induzida do enrolamento


secundário (V); N2 é o número de espiras do enrolamento secundário (espiras); d  / dt é a
taxa de variação do fluxo magnético (Wb/s).
A partir das Equações (4) e (5), pode-se extrair a principal relação de um transformador, a
razão de transformação, α, dada pela divisão das tensões e1ind e e2ind, ou simplificando N1 e N2,
isso quando o enrolamento secundário está em circuito aberto:

e1ind N
= = 1
e2ind N 2 (6)

Onde: α é a razão de transformação; e1ind é a tensão induzida do enrolamento primário (V);


e2ind é a tensão induzida do enrolamento secundário (V); N1 é o número de espiras do
enrolamento primário (espiras); N2 é o número de espiras do enrolamento primário (espiras).
Com a carga acoplada, pode-se relacionar diretamente a fonte de tensão com a entregue a
carga:

V1
=
V2 (7)

Onde: α é a razão de transformação; V1 é a tensão do enrolamento primário (V); V2 é a tensão


do enrolamento secundário (V).

2.2 Perdas

O transformador age de forma ideal, porém, isso não condiz com a realidade de seu
funcionamento. Além disso, existem perdas envolvidas em todos os processos de um
transformador monofásico, devido a diversos fatores, os principais e apresentados neste
trabalho, são aqueles relacionados às imperfeições nas interações dos materiais do núcleo e
fios condutores com a energia elétrica. São sempre calculadas como potencias, para depois
subtrair da potência ideal entregue Malagoli et al. (2014).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

315
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As perdas no núcleo são duas: por corrente de Foucault e por histerese. Podem-se definir
as perdas no núcleo de um transformador monofásico:
a) Corrente de Foucault: também denominada como corrente parasita ou de escape, esse
fenômeno ocorre, pois, dentro do material são criadas forças eletromotrizes
resultando em correntes que dissipam calor.
b) Histerese: ocorrem devido a energia dissipada durante o processo de alinhamento dos
domínios magnético do material ferromagnético no núcleo.
Já as perdas no cobre são devidas por uma dissipação de potência por efeito Joule, dentro
de um condutor de cobre. Dessa forma, para calcular a resistência elétrica do dispositivo, será
utilizado a seguinte equação:

cobre L
R=
Afio
(8)

Onde: R é a resistência elétrica do enrolamento (Ω); cobre é a resistividade do condutor de


cobre (1,72x10-8 Ωm); L é o comprimento do enrolamento (m); A fio é a área da secção do
condutor (m2). Além disso, para calcular o comprimento do condutor, é usado a Equação (9).

L = 2 Nb (9)

Onde: N é o número de espiras; b é a profundidade do dispositivo eletromagnético (m).


Por fim, a perda no cobre é calculada pela resistência do próprio fio e a corrente que o
percorre ao quadrado, como são duas bobinas no transformador, pode-se calcular como
mostra a Equação (10):

PCu = R1I12 + R2 I 22
(10)

Onde: PCu é a perda no cobre (W); R1 é a resistência no enrolamento primário (Ω); I1 é a


corrente elétrica no enrolamento primário (A); R2 é a resistência no enrolamento secundário
(Ω); I2 é a corrente elétrica no enrolamento secundário (A).

3. MÉTODO DOS ELEMENTOS FINITOS

O Método de Elementos Finitos (MEF) consiste em encontrar soluções aproximadas


envolvendo equações diferenciais parciais ou ordinárias, a partir de requisitos de contorno
pré-estabelecidos. Além disso, é muito útil para resolver problemas eletromagnéticos
(Malagoni, 2012). Portanto, utilizar o MEF nesse estudo veio a torná-lo factível.
São três as etapas para aplicação do MEF:
• pré-processamento,
• processamento, e
• pós-processamento.
Todos os fenômenos eletromagnéticos são descritos por equações clássicas de Maxwell.
Estas constituem um sistema de equações diferenciais parciais que ligam os fenômenos
magnéticos para os fenômenos elétricos e que unificam todos os princípios do
eletromagnetismo (Dular, 1996), (Luz, 2003). Para o modelo magnetostático essas equações
são:
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

316
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

D
rot H = J + (11)
t

div B = 0 (12)

Onde: H é o campo magnético (A/m); J é a densidade superficial de corrente (A/m2); D é a


indução elétrica (C/m2); B é a indução magnética (T).
A Equação (11) diz que um campo magnético H pode ser criado de duas formas, ou
através de uma densidade superficial de corrente J ou por uma variação temporal da indução
elétrica D. Já a Equação (12), expressa que o fluxo magnético que entra em um volume é o
mesmo que sai dele, ou seja, que o fluxo magnético é conservativo.
O campo magnético H é criado quando cargas se movimentam no espaço, dando noção
de corrente elétrica que cria um campo de vetores. A ocorrência de uma corrente elétrica em
materiais condutores ocorre através do trânsito de elétrons na camada de valência, os
chamados elétrons livres. Esses elétrons transitam entre posições vagas dos átomos, fazendo
com que o somatório final das cargas seja nulo, o que faz com que o campo elétrico seja
quase nulo.
A modelagem completa de fenômenos relacionados ao eletromagnetismo exige as leis de
comportamento dos materiais (ou relações constitutivas), que estabelecem a relação entre
campos elétricos e magnéticos, e o meio em que estão inseridos (Malagoni, 2012). A relação
constitutiva é dada pela seguinte Equação (13):

B = µH (13)

Onde: B é a indução magnética (T); µ é a permeabilidade magnética (H/m); H é o campo


magnético (A/m).
Além disso, a permeabilidade magnética descreve o grau de oposição de um material a
passagem de um fluxo. Usualmente, usa-se a permeabilidade relativa de uma substância com
relação a permeabilidade do ar, que equivale a 4π10-7 (H/m). A permeabilidade relativa é dada
pela Equação (14):
µ
µr = (14)
µ0

Onde: µ é a permeabilidade magnética (H/m); µr é a permeabilidade magnética do material


(H/m); µ0 é a permeabilidade magnética no vácuo (H/m);
As condições de contorno homogêneas sobre os campos ocorrem por duas razões, físicas
e por simetria (Luz, 2003):
• Físicas: são condições associadas aos materiais idealizados ou no infinito.
• Simetria: são fixas as direções dos campos.

4. METODOLOGIA

Como mencionado anteriormente, este trabalho consiste na análise da densidade de fluxo


magnético no núcleo e no entreferro do transformador. Além disso, analisa-se os cálculos
analíticos das perdas no cobre com os simulados no computador. Para melhor entendimento
da metodologia empregada neste trabalho, alguns pontos devem ser destacados:
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

317
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• As dimensões do dispositivo eletromagnético são próximas das dimensões reais e a


modelagem foi realizada no software FEMM;
• As correntes nos enrolamentos primário e secundário são: (0.25, 0.50, 0.75 e 1,0A) e
(1.25, 2.50, 3,75 e 5,00A), respectivamente;
• No pós-processamento, pode-se analisar a densidade de fluxo magnético no núcleo e
entreferro graficamente;
• Analisa-se a perda total no cobre das bobinas comparando com os cálculos analíticos.
A Figura 2(a) mostra o desenho do transformador monofásico com entreferro analisado
neste trabalho, usou-se o software FEMM para modelar, processar e analisar os resultados
através do método dos elementos finitos. Além disso, utilizou-se o material aço silício nas
chapas do núcleo. A Figura 2(b) mostra a curva da densidade de fluxo magnético versus
campo magnético. Observa-se que o material satura em torno de 1,80 [T].

Figura 2- Software FEMM: (a) desenho do transformador monofásico e (b) curva BxH
do aço silício usado na chapa do dispositivo eletromangético.

A seção 5 mostra com detalhes todos os resultados analisados deste trabalho, como: o
cálculo analítico e simulações computacionais do transformador monofásico usando o
software FEMM.

5. RESULTADOS E DISCUSSÕES

Na Figura 1 apresentada na seção II, mostra o transformador monofásico em três


dimensões com as principais medidas e a Tabela I mostra os parâmetros do núcleo e das
bobinas do transformador. Além disso, considera-se a corrente elétrica variando na bobina
primária de 0,25 a 1 (A) e na secundária de 1 a 5 (A). Nas simulações, apresentam-se as
densidades de fluxos magnéticos no núcleo e no entreferro, e os gráficos das densidades de
fluxos magnéticos no núcleo e no entreferro do transformador. Por fim, destaca-se os valores
para as perdas nos enrolamentos para as diferentes correntes.
A Figura 3 mostra as densidades de fluxos magnético no núcleo e no entreferro do
transformador. Além disso, mostra a legenda para as quatro diferentes correntes no
enrolamento primário e secundário, as correntes são: (a) 0,25 (A) e 1,25 (A); (b) 0,50 (A) e
2,50 (A); (c) 0,75 (A) e 3,75 (A); (d) 1,00 (A) e 5,00 (A), respectivamente.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

318
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Densidades de Fluxos Magnético e legenda de cores para as diferentes correntes nas
bobinas. Correntes na bobina primária: (a) 0,25 (A); (b) 0,25 (A); (c) 0,75 (A); (d) 1,0 (A).
Correntes na bobina secundária: (a) 1,25 (A); (b) 2,50 (A); (c) 3,75 (A); (d) 5,0 (A).

A Figura 4 mostra os gráficos da densidades de fluxos magnético no núcleo e no


entreferro do transformador para as quatro diferentes correntes no enrolamento primário e
secundário do dispositivo eletromagnético.

Figura 4- Gráficos das densidades de fluxos magnético do transformador para as diferentes


correntes nas bobinas. Correntes na bobina primária: (a) 0,25 (A); (b) 0,50 (A); (c) 0,75 (A);
(d) 1 (A). Correntes na bobina secundária: (a) 1,25 (A); (b) 2,50 (A); (c) 3,75 (A); (d) 5 (A).

A Tabela 2 apresenta as perdas resistivas totais (W) nos enrolamentos para as diferentes
correntes nas bobinas do transformador. Além disso, apresenta o resultado do cálculo
numérico obtido através da Equação (10) e o valor simulado no software FEMM, assim como
o erro percentual.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

319
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2- Perdas resistivas (W) nos enrolamentos.

Corrente Corrente
Simulado Calculado Erro %
Primária (A) Secundária (A)
0,25 1,25 0,035014 0,034930 0,240
0,50 2,50 0,140057 0,139720 0,241
0,75 3,75 0,315127 0,314371 0,240
1,00 5,00 0,560226 0,558883 0,240

Nota-se que as densidades de fluxos magnéticos no núcleo do transformador crescem


quando se aumentam as correntes, uma análise equivalente pode ser aplicada para as perdas
resistivas. Portanto, a corrente é diretamente proporcional ao fluxo magnético e as perdas
resistivas.
Pode-se concluir que não ocorreu saturação do material ferromagnético (aço silício), a
Figura 2(b) mostra que a saturação ocorre em torno de 1,8 (T). O maior valor da densidade de
fluxo magnético é de 1,467 (T). A Análise feita neste trabalho, é o primeiro resultado para
posterior comparação na bancada de testes com transformadores. As próximas etapas deste
trabalho, será minimizar as perdas no cobre, com o objetivo de reduzir as perdas por efeito
Joule, que aumentam a temperatura do dispositivo causando perdas.

6. CONSIDERAÇÕES FINAIS

O vigente trabalho, dispõe como finalidade modelar um transformador monofásico


usando elementos finitos, além disso analisar os gráficos das densidades dos fluxos
magnéticos e também as perdas no cobre. Utilizando a ferramenta de uso público FEMM
proposta, foi possível observar que as diferentes variações nos valores das correntes geraram
densidades de fluxos magnéticos diretamente proporcionais.
Ressalta-se também que, tanto os resultados calculados para a densidade de fluxo no
núcleo quanto as perdas no cobre, são satisfatórios e condizem com a realidade. Portanto, o
método de elementos finitos se provou de tamanha eficácia devido a sua capacidade de
obtenção de dados eletromagnéticos plausíveis. Assim, tornou-se uma proveitosa técnica para
a realização da modelagem do transformador proposto.

Agradecimentos

Os autores agradecem a Fundação Araucária, UFPR/Tesouro Nacional e CAPES pelos


recursos destinados ao desenvolvimento deste trabalho de pesquisa.

REFERÊNCIAS

Alves, B. S. (2016). “Projeto e Modelagem de Transformadores Utilizando a Técnica de Subproblemas


Aplicado ao Método de Elementos Finitos”. Dissertação, 96p, Universidade Federal de Santa Catarina –
Engenharia Elétrica, Florianópolis-SC.

Dular, P. (1996). “Modélisation du champ magnétique et des courants induits dans des systémes
tridimensionnels non linéaires”, Tese de Doutorado, Université de Liége, Bélgica.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

320
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Chapman, S. J. (2013). “Fundamentos de Máquinas Elétricas”. 5ª ed. Porto Alegre, Bookman.

Consoni, S. (2018). “Modelagem e Simulação do Comportamento não Linear de um Transformador”. Trabalho


de Conclusão de Curso,86p, Universidade Tecnológica do Paraná – Engenharia Elétrica, Pato Branco-PR.

Fitzgerald, A. E.; Kingsley Jr., C.; Umans, S. D. (2014). “Máquinas Elétricas”. 7ª ed. Porto Alegre, Bookman.

Luz, M. V. F. (2003). “Desenvolvimento de um software para cálculo de campos eletromagnéticos 3D


utilizando elementos de aresta, levando em conta o movimento e o circuito de alimentação”, Tese de Doutorado,
Universidade Federal de Santa Catarina, Florianópolis-SC, Brasil.

Malagoli, J. A. et al. (2014). “Projeto de Transformador Monofásico Utilizando o Algoritmo de Evolução


Diferencial”. Congresso Nacional de Matemática Aplicada a Indústria, Caldas Novas-GO.

Malagoni, J. A. (2012). “Os elementos finitos no estudo de eletromagnetismo utilizando os software


Gmsh/GetDP”, Dissertação de Mestrado, Universidade Federal de Uberlândia, Uberlândia-MG, Brasil.

Vasconcelos, J. C. (2013). “Análise das Perdas no Transformador Monofásico Para Diferentes Condições de
Operação”. 2013. 95p. Projeto de Graduação. Universidade Federal do Rio de Janeiro, Rio de Janeiro-RJ.

COMPUTATIONAL MODELING OF A SINGLE PHASE TRANSFORMER


THROUGH THE FINITE ELEMENTS METHOD

Abstract. The single phase transformer is an electromagnetic device responsible for the
transformation of electrical energy, providing the reduction or elevation of the alternating
electrical voltage. In this scenario, it is configured as an interesting research topic, since it is
related to voltage reduction systems in various equipment used in everyday life. In this
context, the present paper aims to model a single phase transformer using finite elements. In
addition, the graphs of the densities of magnetic fluxes in the nucleus and in the air gap of the
device are analyzed, finally, the loss in copper in the winding of the equipment is verified. The
results show the analysis of the single-phase transformer through the parameters that
characterize the mathematical model presented.

Keywords: Finite Element Method, Computational Modeling, Single Phase Transformer.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

321
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

DESPACHO DE GERAÇÃO ÓTIMA ATRAVÉS DO MÉTODO DOS PONTOS


INTERIORES VERSÃO PRIMAL-DUAL

Jean Ferguson Pimentel1 – jeanferguson@ufpr.br


Juliana Almansa Malagoli1,2 – juliana.malagoli@ufpr.br
Thelma Solange Piazza Fernandes1 – thelma.fernandes@ufpr.br
1
Universidade Federal do Paraná, Pós-Graduação em Engenharia Elétrica – Curitiba, PR, Brasil
2
Universidade Federal do Paraná, Centro de Estudos do Mar – Pontal do Paraná, PR, Brasil

Resumo. O conhecimento da técnica de otimização através do Método dos Pontos Interiores


versão Primal-Dual é de grande importância para solucionar problemas aplicados ao sistema
elétrico de potência. Neste contexto, o presente trabalho tem por objetivo apresentar uma
solucão ótima de despacho de geração de energia elétrica para 4 usinas térmicas, através de
simulação no software MATLAB. Além disso, o intuito é minimizar o custo de produção,
minimizar as perdas e considerar em dado momento a alteração de limite de geração em um
das unidades geradoras. Os resultados mostram as análises do despacho de geração, ademais,
configura-se como um interessante tema de pesquisa, já que está relacionado ao sistema
elétrico de potência com redução de custos e perdas em usinas térmicas.

Palavras Chave: Método Numéricos, Método dos Pontos Interiores, Otimização, Sistemas
Elétricos de Potência.

1. INTRODUÇÃO

A energia életrica proporciona segurança, conforto, informação e lazer para uma sociedade.
Sendo então, um extraordinário indicador de desenvolvimento social e humano que nos dias
atuais já faz parte da realidade da maioria das casas brasileiras. Dessa forma, a usina térmica é
exclusivamente de um sistema que corresponde as somas das energias cinéticas, pelo efeito de
sua temperatura (Souza, 2019), (Liu et al., 2019).
O planejamento de operações do sistema elétrico de potência é um conjunto de
procedimentos que usa métodos numéricos para a representação dos sistemas. Neste cenário,
avalia-se os comportamentos e as alternativas para garantir o fornecimento de energia. Além
disso, análisa-se os custos de operação e a solução mais econômica. Portanto, destaca-se por
uma operação ótima do sistema (Rodrigues, 2007).
Dessa maneira, busca-se por aplicações de técnicas que proporcione a ótima solução para
geração, transmissão e distribuição de energia elétrica. Ademais, visa sempre a melhor relação
custo/benefício. Sendo assim, o uso do método dos Pontos Interiores versão Primal-Dual auxila

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

322
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

na busca de um despacho ótimo de geração e a redução de perdas (Probst e Oliveira, 2013).


Assim, evita os desperdícios e propociona a redução de custos.
Nesse contexto, evidência-se a relevância cada vez maior da prestação de serviços ancilares
aos sistemas de energia. A partir deles, garante-se não apenas o atendimento apropriado da demanda
da carga por meio da geração e transmissão de energia, como também a estabilidade e segurança da
rede (Oliveira et al., 2003), (Yamagutti, 2019) e (Souza, 2019).
O presente trabalho tem por objetivo minimizar o custo de produção de energia elétrica
através da otimização da distribuição da produção entre os geradores e da utilização eficiente
dos recursos energéticos. Portanto, realiza-se o despacho econômico, que é o estudo da alocação
ótima de uma demanda entre unidades geradoras de usinas térmicas.
Este artigo, organiza-se em 5 seções, as quais seguem os seguintes tópicos: a seção 2
apresenta o método de pontos interiors versão primal-dual, a seção 3 explana sobre a
metodologia adotada, a seção 4 é designada aos resultados e discussões e por fim, a seção 5
descreve as considerações finais.

2. TÉCNICA DE OTIMIZAÇÃO DE PONTOS INTERIORES VERSÃO PRIMAL-


DUAL

O método de pontos interiores primal-dual é desenvolvido através do método de Newton,


às condições de otimalidade desconsiderando-se as restrições de não-negatividade e incluindo
uma perturbação nas condições de complementaridade. O método parte de um ponto
estritamente positivo e não permite que as variáveis se tornem negativas (Oliveira et al., 2003),
(Probst e Oliveira, 2013).
Neste trabalho, pretende-se desenvolver um programa computacional que minimize o custo
de geração e as perdas elétricas através da Técnica de Otimização de Pontos Interiores versão
Primal-Dual. Tendo como objetivo atender uma carga demandada de 400 MW, através de quatro
usinas térmicas geradoras que tem seus custos e capacidade de geração apresentadas na Tabela
1.
Tabela 1: Custos de geração e capacidades de geração.

Produtor Custo [$/h] Capacidade [MW]


1 C1 (Pg1) = 140 + 80Pg2 + 9.10-3 Pg22 0< Pg1<400
2 C2 (Pg2) = 100 + 90 Pg3 + 8.10-3 Pg23 10< Pg2<400
3 C3 (Pg3) = 90 + 70 Pg3 + 8.10-3 Pg23 0< Pg3<400
4 C4 (Pg4) =100 + 80 Pg4 + 0.10-3.Pg4 0< Pg4<300

Onde: Pg é a potência gerada de cada usina (MW); C é o custo de geração por unidade de
energia elétrica. A perda de potência ativa é expressa pela Equação (1).

Pl ( Pg ) = diag ( Pg ) .Bloss.Pg (1)

Sendo, que Pl é perda de potência ativa nas linhas; Bloss é uma matriz (ng x ng) que
relaciona as perdas por barra de geração:
 2 x10−4 1x10 −4 0 1x10 −4 
 
1x10−4 2 x10 −4 1x10 −4 1x10 −4 
Bloss = 
 0 1x10−4 2 x10 −4 1x10 −4 
 
 0 1x10−4 2 x10 −4 3 x10−4 
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

323
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O objetivo do problema é obter os valores de Pg1, Pg2, Pg3 e Pg4 que atenda a carga
demandada de 400 MW para as seguintes condições:

(i) Função objetivo que minimiza custo de produção:

Min C ( Pg ) = Pg t QPg + bt Pg + co (2)

ng

Pg
i =1
i − Pd − Pl (Pg ) = 0 (3)

Pg min  Pg  Pg max (4)

Em que:
(2) Define o valor dos custos de geração de potência ativa de cada unidade;
(3) Define a potência gerada pelas usinas deve ser capaz de atender a carga e as perdas;
(4) Define as equações de restrições operativas que cada máquina deve obdecer.

(ii) Função objetivo que minimiza as perdas elétricas:

C ( Pg ) = ut Pg (5)

ng

Pg
i =1
i − Pd − Pl (Pg ) = 0 (6)

Pg min  Pg  Pg max (7)

Em que:
(5) Define a nova função objetivo do problema que será a somada das potências geradas;
(6) Define que a potência gerada pelas usinas deve ser capaz de atender a carga e as perdas;
(7) Define as equações de restrições operativas que cada máquina deve obdecer.

Além disso, destaca-se a definição de outros parâmetros: Q é a matriz diagonal com


coeficientes quadráticos de custo; b é o vetor de coeficientes lineares de custo; co é a constante
de custo; Pd é o vetor de cargas nas nb barras; u é o vetor unitário.
Após encontrar os valores de Pg1, Pg2, Pg3 e Pg4 para as condições, supõe-se uma alteração
na capacidade máxima de geração da usina 3 para um valor de 100 MW e encontra-se
novamente os valores Pg1, Pg2, Pg3 e Pg4 nessas condições, através das funções objetivo (i) e
(ii).

3. METODOLOGIA
Para obter a solução ótima do problema, faz-se necessário a montagem da Função
Lagrangeana do problema de otimização, onde são consideradas as Equações de custo de cada
usina conforme Equação (8).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

324
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

L(Pg,  , π) = Pg t Q.Pg + bt .Pg + co −   i =1 (ln(smini ) + ln(smaxi ) +


ng

(8)
+ .[ Pd −  i =1 ( Pgi )] + πmax .(Pg-Pgmax+smax) + πmin .(-Pg+Pgmin+smin)
ng t t

As variáveis Pg, smin e smax são as variáveis primal do problema e as variáveis  , πmax
e πmin são as duais. Tendo a função Lagrangeana do problema, aplicou-se as condições de
otimalidade de Karush-Kuhn-Tuck que consiste na primeira derivada:

Pg L = 2.Q Pg + b – λ. e −πmin + πmax =   0 (9)

λ L = Pd − i =1 ( Pgi ) = 0
ng
(10)

 max L = Pg − Pgmax + smax = 0 (11)

 min L = − Pg + Pgmin + smin = 0 (12)

s max L =−μ. e + smax .πmax = 0 (13)

s min L =−μ. e + smin .πmin = 0 (14)

Após isso, aplicou-se o métdo de Newton, supondo uma função f(z), que deseja encontrar
o ótimo da função partindo de um ponto incial ZK, em direção de ∆Z. Assim,

Z K = − W ( Z K )  * f ( Z K )
−1
(15)

Sendo, que a cada iteração k=k+1 atualiza ZK conforme Equação (16).

ZK +1 = ZK + ZK (16)

Onde: W é a matriz Hessiana, com a seguinte estrutura:

 2Q −e diag (e) −diag (e) 0 0 


 [−e]t 0 0 0 0 0 

 diag (e) 0 0 0 diag (e) 0 
W= 
 − diag (e) 0 0 0 0 diag (e) 
 0 0 S max 0  max 
 
 0 0 0 Smin  min 

Com isso, a cada iteração o sistema de equações a serem resolvidos é:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

325
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

 Pg    Pg L 
    
    L 
 πmax   
πmax L
W.   = − 
 πmin    πmin L 
 smax   L
   smax 
 smin    smin L 

A cada iteração, o sistema linear é resolvido, sendo a próxima etapa a determinação do


comprimento do passo nos espaços primal e dual. De modo que, as variáveis de folga smin,
smax sejam todas ≥ 0 e os multiplicadores de Lagrange sejam: πmin ≥0, πmax ≥0. Após cada
iteração, deve-se recalcular o parâmetro barreira µ, conforme Equação (17).

st π
μ=  (17)
2.l .
Resumidamente, o algoritmo para resolução do problema consiste em:
1. Escolha μ0, valores iniciais para variáveis primais e duais. Faça k = 0;
2. Calcule o valor das condições de otimalidade (cálculo de  z L);
3. Se (norma infinita de  z L) < tol = 10-6, FIM, a solução é Zk.
Caso contrário, faça k= k+1 e vá ao Passo 4;
4. Resolução do Sistema Linear: WK*ΔZK= − z L;
5. Atualize todas as variáveis.
6. Atualize o parâmetro barreira μ e retorna para o passo 2.

4. RESULTADOS E DISCUSSÕES

O método proposto foi implementado no software computacional (MATLAB) visando


testar as contingências e as alterações no problema de otimização proposto. Visando obter o
resultado ótimo para o despacho de geração das 4 usinas térmicas, nos quais os custos e as
perdas serão minimizados através do método dos Pontos Interiores versão Primal-Dual.
Além disso, destacam-se os estudos desenvolvidos neste trabalho:
• Caso I: a função objetivo é minimizar o custo de geração, o despacho atende uma
carga de 400 MW, as perdas e os limites operativos são apresentados na Tabela I;
• Caso II: o limite máximo da máquina 3 foi alterado de 400 MW para 100 MW,
usando a mesma função objetivo anterior;
• Caso III: a função objetivo é minimizar as perdas, o despacho atende uma carga de
400 MW, as perdas e os limites operativos são apresentados na Tabela I;
• Caso IV, o limite máximo da máquina 3 foi alterado de 400 MW para 100 MW,
usando a mesma função objetivo anterior.
Os valores de despacho encontrados bem como os valores de custos e das perdas para o
caso I e II são apresentados nas Tabelas 2 e 3.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

326
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 – Custo de operação minimizado para o Caso I.


Usina Geração
Pg1 104,391 MW
Pg2 10 MW
Pg3 307,549 MW
Pg4 0 MW
Custo de operação 126.971,337 $MW/h
Perdas 21,940 MW
Fator de aceleração 1,15

Tabela 3 – Perdas minimizada para o Caso II.


Usina Geração
Pg1 203,709 MW
Pg2 10,017 MW
Pg3 202,891 MW
Pg4 0,816 MW
Perdas 17,435 MW
Fator de aceleração 1,15

A alteração do limite máximo da máquina 3, provocou uma redistribuição de potência ativa


entre as unidades geradoras. Com isso, o custo aumentou em relação ao caso anterior, já as
perdas sofreram uma queda significativa de valor, em torno de 2 MW.
As Tabelas 4 e 5 apresentam os resultados encontrados para os casos III e IV, mas sem o
custo, visto que a função objetivo usada para esses casos é a minimização das perdas.

Tabela 4 – Custo de operação minimizado para o Caso III.


Usina Geração
Pg1 206,535 MW
Pg2 10 MW
Pg3 100 MW
Pg4 103,264 MW
Custo de operação 133.024,906 $MW/h
Perdas 19,800 MW
Fator de aceleração 1,15

Tabela 5 – Perdas minimizada para o Caso IV.


Usina Geração
Pg1 209,5493 MW
Pg2 73,080 MW
Pg3 99,965 MW
Pg4 36,573 MW
Perdas 19,171 MW
Fator de aceleração 1,1

A alteração da função objetivo para os casos III e IV em ambos os casos, tornou-se as


perdas para as duas últimas contingências menores, quando comparadas aos casos I e II. No
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

327
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

caso I em relação ao custo do caso III, teve uma redução de aproximadamente 22% nas perdas
e na comparação com o caso IV essa redução foi de aproximadamente 4%. Nota-se, que a
alteração do limite máximo de geração da máquina 3 prejudicou o valor da função objetivo.

5. CONSIDERAÇÕES FINAIS

Os estudos na área de Sistemas Elétricos de Potência (SEP) estão inteiramente


condicionados a restrições operativas, apenas o cálculo do estado da rede, obtido através da
solução de fluxo de carga, muitas vezes não é suficiente para encontrar um ponto operativo que
atenda todas as restrições do problema. Com isso, problemas de otimização mais complexos
tem sido elaborados buscando modelar os fenômenos existentes no SEP de forma mais coerente.
A aplicação do método dos Pontos Interiores na versão Primal-Dual tem importância
significativa no Sistema Elétrico de Potência. Neste trabalho, foi possível notar essa relevância
uma vez que as alterações apresentadas para o problema, mostraram-se de forma objetiva e
direta os impactos nos custos de produção e nas perdas do sistema. Além disso, através da
aplicação do método com o auxilio de um software, nota-se que a usina 4 tem um custo maior
de produção. Porém, tem uma perda menor, já a usina 3 tem um custo de operação menor, fatos
que só foram comprovados após a aplicação do método.

Agradecimentos

Os autores agradecem a CAPES pelos recursos destinados ao desenvolvimento deste


trabalho de pesquisa.

REFERÊNCIAS

Liu, W. J.; Chi, M.; Liu, Z. W.; Guan, Z. H.; Chen, J.; Xiao, J. W. (2019). “Distributed optimal active power
dispatch with energy storage units and power flow limits in smart grids”, International Journal of Electrical
Power & Energy Systems, Volume 105, 2019, Pages 420-428, https://doi.org/10.1016/j.ijepes.2018.07.060.
Oliveira, A. R. L.; Soares, S.; and Nepomuceno, L. (2003). "Optimal active power dispatch combining network
flow and interior point approaches", in IEEE Transactions on Power Systems, vol. 18, no. 4, pp. 1235-1240,
Nov. 2003, doi: 10.1109/TPWRS.2003.814851.
Probst, R. W.; Oliveira, A. R. L. (2013). “Métodos de pontos interiores aplicados ao problema de pré-despacho
de um sistema hidrotérmico”, Revista eletrônica pesquisa operacional para o desenvolvimento, V. 5, n.1, p.
14-30, Rio de Janeiro-RJ, Brasil.
Rodrigues, N. M. (2007). "Um algoritmo cultural para problemas de despacho de energia elétrica," Dissertação
de Mestrado, Dept. Computação. Ciência da Comp., Universidade Estadual de Maringá, Maringá-PR, Brasil.
Souza, V. M. (2019). "Pré-Despacho Ótimo da Geração Distribuída para Melhoria da Operação de Redes de
Distribuição com Presença de Reguladores de Tensão no Modo Bidirecional", Dissertação de Mestrado, Dept.
Eng. Elet. Eng. Elétrica, Universidade Federal do Pará, Belém-PA, Brasil.
Yamagutti, L. C. (2019). "Despacho ótimo de geração e controle de potência reativa no sistema elétrico de
potência", Dissertação de Mestrado, Universidade Estadual Paulista Júlio de Mesquita Filho, Ilha Solteira-SP,
Brasil.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

328
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

DISPATCH IN OPTIMUM GENERATION THROUGH OF INTERIOR POINTS


METHOD PRIMAL-DUAL VERSION

Abstract. The knowledge of the optimization technique through the Interior Point Method
Primal-Dual version is of great importance to solve problems applied to the electric power
system. In this context, the present paper aims to present an optimal solution for dispatching
electricity generation for 4 plants termal, through simulation in MATLAB software. In addition,
the aim is to minimize the cost of production, minimize losses and at any given time consider
changing the generation limit at one of the generating units. The results show the analysis of
the generation dispatch, in addition, it is configured as an interesting research topic, since it is
related to the electric power system with cost reduction and losses in thermal plants.

Keywords: Numerical Method, Interior Point Method, Optimization, Electric Power Systems.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

329
1. INTRODUCTION

Analysis of Advection Equation Numerical Solution by Finite Volume Method

Samuel Lima Picanço1 - slpicanco2012@gmail.com


Carlos André dos Santos Costa Alonso2 - casecosta@gmail.com
Fábio Freitas Ferreira3 - fabiofreitasferreira@id.uff.br
Wagner Rambaldi Telles4 - wtelles@id.uff.br
1 Pontifı́cia
Universidade Católica, Escola de Ciências Exatas e da Computação - Goiânia, GO, Brazil
2 Mestre em matemática, Profmat/PUC - Rio de Janeiro
3 Universidade Federal Fluminense, Departamento de Ciências da Natureza - Rio das Ostras, RJ, Brazil
4 Universidade Federal Fluminense, Departamento de Ciências da Terra, Biológica e Exatas - RJ, Brazil

Abstract. Partial Differential Equations govern several problems. Obtaining an EDP analytical
solution is not always possible. Thus, numerical methods have been used to obtain approximate
solutions. This article has as objective was to solve the advection equation by the Finite Volume
Method in two different schemes, Central Difference Scheme and Upwind Difference Scheme.
Was used the results to compare them with the results SLM and with the analytical solution.
The Central Difference Scheme was better that Upwind Difference Scheme. The solution ap-
proached more the SLM and of the analytical solution, and has a smooth pseudo-diffusive effect
on the temporal axis. The Upwind Difference Scheme has good accuracy and precision, how-
ever, causes an increasingly evident pseudo-diffusive effect over time.

Keywords: Advection Equation, Finite Volume Method, Numerical Method, Upwind Difference
Scheme

1. INTRODUCTION

In several pro blems of Engineering, Mathematics, Physics and other related areas, we are
faced with phenomena that are modeled by differential equations. The advection equation, also
known as the passive transport equation, or simple wave equation is a hyperbolic partial differ-
ential equation. This equation is widely known, its solution is known, and it is constant along
the characteristic curves. Molenkamp (1967) compared numerical solutions of the advection
equation with known analytical solutions for certain velocity fields, using the finite difference
method to evaluate various characteristics of these approximations. The upward difference
methods introduced a pseudo-diffusive effect. Only the Roberts-Weiss approach moved the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

330
3. DISCRETIZATION BY FINITE VOLUME METHOD

field properly, although it was the most time consuming and required a large amount of time
and central storage. Ferreira (2003) used the finite difference method (FDM) and the SLM to
solve the advection equation. In his work, he presented the terms of numerical pseudo-diffusion
introduced in each adopted FDM scheme. The best results were obtained with the SLM.
A comparison of numerical schemes to solve the advection equation, based on the consis-
tency error, was elaborated by Bouche et al. (2003). The oscillation and damping characteristics
of the numerical solutions were explained by a generalized function, in the specific case of the
advection of a step function, which the solutions of the equivalent equations are systemati-
cally calculated and shown to fix the numerical solutions. With time variation, the dissipation-
dispersion ratio decreased and induced a slower decrease in oscillations when separating from
the front of the step.
Solodushkin (2013) proposed a family of grid methods for numerical solution of an advec-
tion equation with time delay. Their methods were based on the idea of separating the current
state from the prehistory function. The convergence of the coordinated second-order method
and the first-order method with respect to time has been proven.
In this work, it will be used the Finite Volume Method (FVM) with the using the Up-
wind Difference Scheme (UDS) and the Central Difference Scheme (CDS) to solve it (Maliska,
2004), and the results compared with the work of Ferreira (2003).

2. Mathematical Model

The one-dimensional advection equation with constant coefficient is given by

∂u(x, t) ∂u(x, t)


 +c = 0,

 ∂t ∂x
u(x, 0) = u0 (x) (1)


 u(0, t) = ū0

u(L, t) = ūL

where u = u(x, t) is a space-time function, c > 0 is the speed of propagation of the solution,
or transport, 0 ≤ x ≤ L, t > 0 is time, and ū0 and ūL are constant defining the boundary
conditions of the Dirichlet type.
The analytical solution of the equation (1) presented by Ferreira (2003) is given by

 2(x − ct) 1
ct ≤ x ≤ + ct

u(x, t) = 2 (2)
1
 2 − 2(x − ct)
 + ct < x ≤ 1 + ct
2

3. Discretization by Finite Volume Method

To solve the equation (1), the computational mesh shown in Figure 1 is used. Highlighted
is the control volume with a central point P , where u will be evaluated, with faces w and e,
∆x is the size of the control volume, E and W are the central points of the neighboring control
volumes (west and east), and the orange control volumes are fictitious control volumes that will
be used to impose the Dirichlet boundary conditions.

331
3.1 Central Difference Scheme 3. DISCRETIZATION BY FINITE VOLUME METHOD

Figure 1- Computational mesh

Integrating the equation (1) into the control volume


Z e Z t+∆t Z t+∆t Z e
∂u ∂u
dtdx + c dxdt = 0 (3)
w t ∂t t w ∂x

where ∆t is the time step. Solving each term in the equation (3) we have

ut+∆t − utP ∆x + c uθe − uθw ∆t = 0


 
P (4)

where uθ∗ = θut+∆t


∗ + (1 − θ)ut∗ is an interpolating polynomial. If θ = 0 has the explicit for-
mulation, if θ = 1 the formulation is totally implicit, and if θ = 1/2 the formulation of the
Crank-Nicolson type.

3.1 Central Difference Scheme

In the equation (4), a linear interpolation is used for the value of u at the borders of the con-
trol volume, calculating the center of the control volumes. CDS is used, ie, uθ∗ = (uθP + uθ∗ )/2.
Thus, rearranging the discretization parameters, and making α = (c · ∆t)/(2∆x), we have

ut+∆t
P − utP + α(uθE − uθW ) = 0 (5)

Replacing uθ∗ of the interpolator polynomial in the equation (5), making AW = −αθ, AP =
1, AE = αθ, b = utP − α (1 − θ) utE + α (1 − θ) utW , we get the equation of internal volumes,
given by

AW ut+∆t
W + AP ut+∆t
P + AE ut+∆t
E =b (6)

To calculate the value of u in the first point of the grid, you must obtain information on the
volume of fictitious control. Applying an average between the fictitious control volume and the
first control volume, we have uWI = 2ū0 − uP , which replacing in the equation (6), we have

(AP − AW )ut+∆t
P + AE ut+∆t
E = b − AW 2ū0 (7)

Similarly, we have the equation for the last control volume, given by

AW ut+∆t
W + (AP + AE )ut+∆t
P = b − 2AE ūL (8)

Thus, the equations 6-8 form a system of linear equations to be solved.

332
3.2 Upwind Difference Scheme 3. DISCRETIZATION BY FINITE VOLUME METHOD

3.2 Upwind Difference Scheme

In this UDS formulation, as c > 0, ue = uP and uw = uW are used. Thus, rearranging the
discretization parameters, and making α = (c · ∆t)/∆x, we have
ut+∆t
P − utP + α(uθP − uθW ) = 0 (9)
Replacing uθ∗ of the interpolator polynomial in the equation (5), making AW = −αθ,
AP = 1 + αθ, AE = 0, b = α (1 − θ) utW + [1 − α (1 − θ)] utP , the internal volume equa-
tion is obtained, given by
AW ut+∆t
W + AP ut+∆t
P =b (10)
To impose boundary conditions, fictitious control volumes are used. Applying an average
between the fictitious control volume and the first control volume, we have:
(AP − AW )ut+∆t
P = b̄0 − AW 2ū0 (11)
Similarly, we have the equation for the last control volume, given by:
AW ut+∆t
W + (AP + AE )ut+∆t
P = b̄L − 2AE ūL (12)
Thus, the equations (10)-(12) form a system of linear equations to be solved.

3.3 Results and Discussion

The algorithms for obtaining a solution to the equation (1) were implemented in the Octave
(Octave, 2020) software. The spatial mesh used has 1200 points and 4000 time steps, same
configuration used in Ferreira (2003) when solving the equation by the SLM and FDM.

Figure 2- Numerical solution of the advection equation for t = 1/2 s and t = 1 s

It is observed in Figure 2 the result obtained for the time t = 1/2 s and t = 1 s, respectively,
with velocity c = 1 m/s. The CDS solution was better than the UDS solution, and it came
closest to the results obtained by the SLM (Ferreira, 2003).

333
3.3 Results and Discussion 3. DISCRETIZATION BY FINITE VOLUME METHOD

(a) FVM - CDS with t = 1/2 s (b) FVM - CDS with t = 1 s

(c) FVM - UDS with t = 1/2 s (d) FVM - UDS with t = 1 s

Figure 3- Scatter diagram for performance evaluation

A characteristic observed in our solution was the presence of the pseudo-diffusive effect
(Ferreira, 2003; Bouche et al., 2003). To check whether the transported property was con-
served, the integral of the numerical solutions was calculated and compared with the result of
the integral of the analytical solution, which was 0.5. In the Table 1 the results obtained, close
to the expected, are observed, preserving the advected property.
Top numerically
Pn determine the error of approximation of the solution, the Euclidean norm,
|u| = 2
i=1 (ua − un ) , where ua is the analytical solution and un is the numerical solution,
shown in Table 1.
The pseudo-diffusive effect of the numerical solution increases as the wave moves away
from the initial position for the UDS scheme that obtained a difference of 0.1023 between the
1 and 1/2 time solution, however this effect is smoothed out for CDS, the difference of which
was 0.0036.

Integral Norm
t (s)
CDS UDS CDS UDS
1/2 0.50012 0.49999 0.0014 0.0502
1 0.50006 0.49999 0.0050 0.1525
Table 1- Integral and norm of numerical solutions

In Figure 3 it was possible to analyze the precision and accuracy of the numerical solution.
It is observed that both the CDS and UDS are precise and accurate. Both indices d and r2
Willmott (Willmott, 2013) are above 0.99, near the desired value 1.
It is observed in Figure 3 that for the two simulated time instants, the CDS scheme showed
good results. The regression line is close to the 1 : 1 line, showing accuracy. The scatter dia-

334
REFERENCES

gram points are close to each other, that is, the method is accurate. It is possible to observe the
pseudo-dispersive effect in the dispersion diagram close to the points (0, 0) and (1, 1), where
the numerical solution was smoothed.
The UDS scheme showed good accuracy, which can be seen in Figures 3(a)-3(d). But it
was less accurate, especially for the instant of time that the solution is further from the initial
condition. The pseudo-diffusive effect is amplified.

4. CONCLUSIONS

Our main objective was to solve the simple wave equation by the Finite Volume Method
in two different schemes: CDS and UDS. Then, we used the results to compare the solution
obtained with Ferreira (2003), which used the SLM.
The solution that best came close to the semi-Lagrangian method SLM was the CDS scheme,
which has a smooth pseudo-diffusive effect over time. The CDS scheme had good accuracy and
precision, however, over time, the pseudo-diffusive effect appears more and more accentuated.

REFERENCES

Bouche, D.; Bonnaud, G.; F.L.P. and Ramos, D. (2003), Comparison of Numerical Schemes for Solving
the Advection Equation. Applied Mathematics Letters, 16 (2003), 147-154.
Ferreira, F. F. (2003), “Solução Numérica da Equação de Águas Rasas”, Dissertação de Mestrado,
IPRJ/UERJ, Nova Friburgo.
Maliska, C. R. (2004), “Transferência de calor e mecânica dos fluidos computacional”, ISBN
9788521613961, 2004, Livros Técnicos e Cientı́ficos.
Molenkamp, C. R. (1967), Accuracy of Finite-Difference Methods Applied to the Advection Equation,
university of Arizona, Journal of Applied Meteorology, December 1967.
Octave (2020), https://www.gnu.org/software/octave/. Acessed: 2020-08-24.
Solodushkin, S. I. (2008), A Difference Scheme for the Numerical Solution of an Advection Equation
with Aftereffect. Russian Mathematics, 2013, Vol. 57, No. 10, pp. 65–70.
Willmott, C. J. (2013), On the validation of models, Physical Geography, vol. 2:2, pp. 1-7, 2013.

335
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

STUDY OF THE DIFFUSIVE PROCESS DURING THE GROWTH OF METHANE


HYDRATE USING AN INVERSE PROBLEM APPROACH

Leonardo Knupp1 – lknupplk@gmail.com


Ivan Ramos Ferreira Filho1 – ivan.rff@hotmail.com
Yuri Tolêdo de Barros1 – yuribarros95@gmail.com
Kelly Cristine da Silveira1 – kelly.dasilveira@yahoo.com.br
Antônio J. Silva Neto1 – ajsneto@iprj.uerj.br
1
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brazil

Abstract. Gas hydrate is a potential technology for sustainable applications in a variety of


scientific and industrial activities. Applications such as storage and transport of natural gas,
water desalination, and the capture and permanent storage of carbon dioxide (CO2) are
highlighted. Understanding the intrinsic properties of the hydrate crystal formation is essential
for the development of its technologies, ensuring control of its formation and dissociation
kinetics. Thus, aiming to contribute to a better understanding of the diffusive phenomenon
involved in the formation of methane hydrate, this work discusses the application of the Inverse
Problem to estimate the porosity, the effective diffusion coefficient and the rate constant of
formation for methane hydrate from ice, based on a mathematical model proposed by Vlasov.
Advancing this project, the Levenberg-Marquardt algorithm was included in the computational
code and its ability to estimate the parameters related to the methane hydrate formation process
was evaluated. As a result, the method was able to recover only the effective diffusion coefficient
(Deff), a behavior expected due to the results of the sensitivity analysis performed. This
contribution allows the Deff estimation when applying Vlasov's model, which is important for
others clathrates, like cyclopentane hydrates, reducing the number of experiments needed.

Keywords: Methane hydrate growth, Inverse problem, Diffusive model.

1. INTRODUCTION

Gas hydrates are crystalline compounds formed by water molecules, which are similar to
ice structure, but they are capable of trapping small nonpolar molecules, such as methane,
carbon dioxide and cyclopentane. These compounds are formed when hydrocarbons and water
molecules are in an environment with suitable thermodynamic conditions of temperature and
pressure. For instance, the cyclopentane hydrate with sII structure can be formed when

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

336
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

cyclopentane and water molecules reach the equilibrium temperature of 7.7 oC, at atmospheric
pressure (Dirdal et al., 2012; Maeda et al., 2016). Such characteristics make cyclopentane
hydrate an economical and safe compound to be studied in a laboratory-scale.
In nature, gas hydrate can be found at three different structures: sI, sII and sH. Depending
on the size of the trapped molecule. The gas hydrate formation phenomena involve basically
two subjects, the hydrate growth process, and the hydrate nucleation, which can become a
complex study to be mathematically modeled (Sloan and Koh, 2008). Yin et al. (2018) have
presented a review of numerous kinetic models describing the gas hydrate growth behavior.
Their work exposes a group of physicochemical phenomena involved in the hydrate formation
process, such as mass and heat transfer, intrinsic kinetic reaction and multiphase fluid flow in
porous media. Although there are a variety of hydrate growth models reviewed in their
manuscript, most of them are applied in very specific cases, and in none of them are considered
anomalous diffusion effects.
Smirnov and Stegailov (2015) presented a study of diffusion during hydrogen hydrate
formation in structures Co and sT’. These structures are trigonal and tetragonal, and can be
found at -132.6 oC and ~ 0.5 GPa, and – 103.15 oC and ~ 0.7 GPa, respectively. These conditions
are very severe, and difficult to obtain in nature. They showed that hydrogen hydrates presented
a diffusion with anomalous character via analysis of mean square displacements and molecular
dynamics method. The anomalous diffusion occurs in several applications including mass
transfer and multiphase fluid flow in porous media. The diffusion phenomena consider factors
that are not present in the Fick’s laws of diffusion, as retention effects, chemical reactions,
mechanical interactions and others (Silva et al., 2014). Furthermore, the gas hydrate has a
porous structure and the use of ice powder allows the hydrate growth in a more controlled way
(Vlasov, 2015).
Inverse Problem Methods (IPM) are important tools used to recover some parameters
present in physicochemical phenomena, such as diffusion, for instance. These parameters are
unknown, and are needed as an input to solve a mathematical model directly. By means of
experimental data acquisition, it is possible to estimate such unknowns by using some IPM. An
advantage of this technique is to save costs and the time related to the necessity to carry out
additional experiments to estimate these unknowns. But IPM also has disadvantages, one of
them is related to the difficulty to estimate the low sensitivity unknown properties. A parameter
has low sensitivity to a mathematical model when a high variation in its value doesn’t cause
significant interference on the model results (Silva Neto and Moura Neto, 2005).
The technology of gas hydrate has been a topic of great interest due to its applications in
the energy industry, and its use for purification and separation of contaminants, for example,
water desalination, as well as trapping greenhouse gases (Sloan, 2003; Koh et al., 2009; Maeda
et al., 2016). Following the path of sustainability and computational modeling, our research
group at the Polytechnic Institute (IPRJ/UERJ) has been developing experimental research on
the use of recycled textile as gas hydrate promoters (Bucsky et al., 2018; Bucsky, 2020),
experimental and computational modeling on cyclopentane hydrate formation and growth
(Ferreira Filho et al., 2018, 2019), as well as the application of inverse problems to estimate
diffusion parameters during gas hydrate formation (Knupp et al., 2019). Considering the need
for a better understanding of the gas hydrate formation, special attention to the anomalous
diffusion during the hydrate growth is required, and in this work this phenomenon is evaluated
through an inverse problem approach, using Levenberg-Marquardt method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

337
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1.1 Mathematical approach

The gas hydrate growth process has been studied and mathematically formulated using
Fick’s laws of diffusion (Vlasov, 2015). The mathematical formulations applied in this work
consider the idea of an ice sphere decreasing its radius 𝜉(𝑡) as the hydrate radius 𝑅(𝑡) grows,
as represented in Fig. 1. This model requires an experimental method using controlled size ice
spheres (ice powder). Through the ice seeding technique, hydrate is formed from ice and,
therefore, acceleration occurs in the nucleation stage, compared to the formation process from
liquid water (Da Silveira et al., 2016; Maeda et al., 2016). Based on Vlasov’s model, our work
aims at applying a numerical inverse problem approach to estimate the porosity 𝜀ℎ , effective
diffusion coefficient 𝐷𝑒𝑓𝑓 , and the rate constant for the reaction of methane hydrate formation
from ice 𝑘, based on experimental data for methane hydrates (Vlasov, 2015). That is an
important step to recover the same unknown parameters for other clathrates, as cyclopentane
hydrate, without the need of additional experiments.

Figure 1. Schematic representation of the mathematical model studied.

Vlasov (2015) proposed an approach that allows simplifications from Fick’s laws, and the
differential equation for the methane hydrate formation from ice sphere was obtained and given
by

𝑑𝜉(𝑡) −𝑘 𝜔 𝑏 𝐷𝑒𝑓𝑓 𝛿𝑓𝑜𝑟𝑚


= 𝜉(𝑡) , 𝑡>0 (1)
𝑑𝑡 𝑈(1−𝜀ℎ )[𝐷𝑒𝑓𝑓 +𝑘 𝜔 𝑏 𝜉(𝑡)(1− )]
𝑅(𝑡)

where 𝑈 is the molar density of the gas hydrate, 𝜔 is the molar density of ice, 𝑏 is the hydration
number, and 𝛿𝑓𝑜𝑟𝑚 is defined by

𝑃 𝑃𝑒𝑞
𝛿𝑓𝑜𝑟𝑚 = − (2)
𝑍𝑅𝑇 𝑍𝑒𝑞 𝑅𝑇

where 𝑃𝑒𝑞 is the pressure of the ice-gas hydrate-gas equilibrium, P is the pressure, T is the
temperature, 𝑅 is the gas constant, and 𝑍𝑒𝑞 is the compressibility factor under equilibrium
conditions.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

338
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The initial condition for this problem is described as

𝜉(𝑡) = 𝑅0 , for 𝑡 = 0 (3)

Solving the Eq.(1) by using the initial condition shown in Eq. (3), leads to the solution
equation represented by

𝐷𝑒𝑓𝑓 2
1 1
(𝑅0 − 𝜉(𝑡)) + (𝑅02 − [𝑅03 𝜓 − 𝜉 3 (𝑡)(𝜓 − 1)]3 ) + (𝑅02 − 𝜉 2 (𝑡)) =
𝑘 𝜔𝑏 2𝜓−2 2
𝐷𝑒𝑓𝑓 𝛿𝑓𝑜𝑟𝑚 𝑡
,𝑡 ≥ 0 (4)
𝑈(1− 𝜀ℎ )

where

𝜔𝑀𝑤 𝑀𝑔
𝜓= (1 + ) (5)
𝑈𝑀ℎ (1− 𝜀ℎ ) 𝑏𝑀𝑤

and 𝑀𝑔 , 𝑀𝑤 and 𝑀ℎ are the molar masses of the gas, the water and the gas hydrate, respectively.
This paper is based on the computational implementation of Eq. (4) and its solution for each
time step, as described in the methodology.

2. METHODOLOGY

The approach used to estimate the parameters related to methane hydrate growth is
described here. The methodology is separated into three steps: (i) Implementation of Vlasov’s
model into a computational code in Scilab v.6.1.0 software; (ii) Conducting the sensitivity
analysis in order to assess the validity of the applied inverse problem method; and (iii)
Application of the Levenberg-Marquardt method for the solution of the inverse problem.

2.1 Vlasov’s diffusive model in Scilab software

At first, the computational code based on Vlasov’s model was developed using an open
source Scilab software. Equation (4), describing 𝜉(𝑡), is not possible to be solved analytically
to find its roots (Vlasov, 2015). Therefore, Newton-Raphson's numerical method was applied
to calculate the 𝜉(𝑡) values for each time tested. After executing the computational code, it was
possible to find a theorical curve for the formation degree of methane hydrate, 𝑛(𝑡), as given
by Eq. (6), wich is similar to the experimental data analyzed (Vlasov, 2015). Figure 2 shows
the behavior of the diffusion model through the continuous solid lines, and the experimental
data for methane gas hydrate is represented by circles, triangles, and squares, depending on the
temperature. The results obtained are in good agreement with the experimental data used as
reference. Thus, the code was used in the next step, which consists on applying the inverse
problem method to determine the physicochemical parameters of interest.
From the Vlasov’s model,

𝜉(𝑡)3
n(𝑡) = 1 −
𝑅0 3
(6)

where 𝑅0 is the initial ice sphere radius at the beginning of the experiments, as represented in
Eq. (3).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

339
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2. Comparison of Vlasov’s solution for the degree of methane hydrate formation 𝑛(𝑡)
as a function of time and experimental data.

2.2 Sensitivity analysis

Before applying the IPM, a sensitivity analysis is required, in order to investigate the
influence that the gas hydrate formation parameters have on the chosen mathematical model.
The normalized sensitivity coefficients (𝑋) are calculated as

𝜕𝑛𝑐𝑎𝑙𝑐
𝑋𝑍𝑗 (𝑡) = 𝑍𝑗
𝜕𝑍𝑗
, 𝑗 = 1, 2, 3 … , 𝑁𝑢𝑛 (7)

Figure 3. Sensitivity coefficients for 𝜀ℎ = 0.15; 𝐷𝑒𝑓𝑓 = 3.4 x 10-17 (m2 /s) and 𝑘 = 3 x 10-36
(m18.25 /mol5.75 s).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

340
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

where 𝑍𝑗 represents the properties of interest, and 𝑋 is calculated by using the partial derivative
of the hydrate formation degree function with respect to each of the variables of interest. The
results of this analysis can be seen in Fig. 3. By graphical observation, the curve indicates that
the diffusion coefficient has a high sensitivity in Vlasov’s model, while the other properties
showed low sensitivity. This means that any numerical method for estimating these low
sensitivity parameters will present difficulties, yielding poor results.

2.3 Levenberg-Marquardt method

To estimate the three parameters of interest, the Levenberg-Marquardt method was applied.
This method is widely used in solving inverse problems with the implicit formulation, and seeks
to minimize the objective function given by (Silva Neto and Moura Neto, 2005)

𝑄(𝑍⃗) = ∑𝑁𝑒𝑥𝑝 (𝑍) − 𝑛𝑖𝑒𝑥𝑝 )2


𝑐𝑎𝑙𝑐 ⃗
𝑖=1 (𝑛𝑖 (8)

where 𝑍⃗ is the vector of unknowns, i.e. 𝜀ℎ , 𝐷𝑒𝑓𝑓 and 𝑘, to be estimated by the method, 𝑛𝑖𝑐𝑎𝑙𝑐
and 𝑛𝑖𝑒𝑥𝑝 correspond to the values calculated by the mathematical model and the values
measured experimentally for the degree of gas hydrate formation, respectively. The algorithm
was applied to methane hydrate, considering the following initial estimates: 𝜀ℎ = 0.3, 𝐷𝑒𝑓𝑓 = 9
x 10-17 (m2 /s) and 𝑘 = 7 x 10-36 (m18.25 /mol5.75s).
The fluxogram for the solution of the inverse problem with the Levenberg-Marquardt
method is presented in Fig. 4. Besides Eq. (8), Eqs. (9-12) shown next are used:

𝜕𝑛𝑖𝑐𝑎𝑙𝑐
𝐽𝑖𝑗 = , 𝑖 = 1, 2, …, 𝑁𝑒𝑥𝑝 , 𝑗 = 1, 2, …, 𝑁𝑢𝑛 (9)
𝜕𝑍𝑗

𝐹𝑖 = 𝑛𝑖𝑐𝑎𝑙𝑐 (𝑍⃗) − 𝑛𝑖𝑒𝑥𝑝 , 𝑖 = 1, 2, …, 𝑁𝑒𝑥𝑝 (10)

[ 𝐽𝑇 𝐽 + 𝜆 𝐼]∆𝑍⃗ = −(𝐽𝑇 )𝐹⃗ (11)

𝑍⃗ 𝑑+1 = 𝑍⃗ 𝑑 + 𝜁. ∆𝑍⃗ 𝑑 (12)

where 𝑁𝑒𝑥𝑝 is the number of experimental data, 𝐼 is the identity matrix, and 𝐽 is the Jacobian
matrix, and 𝑁𝑢𝑛 is the number of unknowns to be determined.
In the fluxogram in Figure 4, the iterative index is represented by d. In Eq. (9) it was applied
a numerical derivation using a finite difference approximation. It was set a limit of 1000
iterations to run this case, and it took about 5 seconds to run in a computer with dual core I5
intel processor and 8 GB of RAM (Random-access memory). The results obtained are organized
in Table 1.
Comparing the results in Table 1 (LM) with the literature data (RV), this method was able
to estimate only the diffusion coefficient (𝐷𝑒𝑓𝑓 ). This shows that the method was partially
effective. An explanation for this behavior was observed in the sensitivity analysis presented in
the subsection 2.2, and it was, therefore, expected poor estimates could be obtained for the
parameters with lower sensitivity. Based on Table 1, the relative error for the parameter 𝐷𝑒𝑓𝑓
is equal to 7.35 %. Since its error is less than 10 %, that represents a good parameter estimation,
and it is expected that the LM method and Vlasov's model may also be used to estimate 𝐷𝑒𝑓𝑓
for others hydrates. However, for the low sensitivity parameters in the experimental conditions
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

341
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

considered in this work, it is necessary to perform experiments in other conditions that may
allow their determination.

Figure 4. Fluxogram for the solution of the inverse problem with the Levenberg-Marquardt
method.

Table 1. Values estimated by the Levenberg-Marquardt method (LM) and reference values
(RV) present in the literature for the temperature of 245 K (Vlasov, 2015).

Parameters LM RV

𝜺𝒉 0.3 0.15

𝑫𝒆𝒇𝒇 [m2/s] 3.15 x 10-17 3.4 x 10-17

𝒌 [m18.25/mol5.75 s] 1.9 x 10-21 3.0 x 10-36

3. CONCLUSIONS

This study provided a satisfactory result for the effective diffusion coefficient estimation,
with relative error of 7.35%. For the parameters with low sensitivity, the porosity and the rate
constant for the reaction of gas hydrate formation from ice, the Levenberg-Marquardt method
applied to Vlasov’s model doesn’t work with the experimental conditions considered, and they
may be determined under other experimental conditions.
In addition, it was possible to obtain a better understanding about the hydrate formation
model, and notice the importance of carrying out the sensitivity analysis to solve the Inverse

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

342
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Problem. Lastly, this study has applicability for detecting 𝐷𝑒𝑓𝑓 from other types of clathrates
like carbon dioxide hydrates, which has an important impact as a sustainable technology.
In future works it will be addressed also the definition of the confidence intervals for the
parameters estimated.

Acknowledgements

The authors acknowledge the financial support provided by FAPERJ, Fundação Carlos
Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro, CNPq, Conselho Nacional
de Desenvolvimento Científico e Tecnológico, and CAPES, Coordenação de Aperfeiçoamento
de Pessoal de Nível Superior (Finance Code 001).

REFERENCES

Bucsky, C.H., Da Silveira, K. C., Moreira, A. C. F. and Silva Neto, A. J. (2018), Evaluation of solid textile waste
as cyclopentane hydrate promoter, 23º Congresso Brasileiro de Engenharia e Ciência dos Materiais -
CBECiMat, Foz do Iguaçu, Anais do 23º Congresso Brasileiro de Engenharia e Ciência dos Materiais -
CBECiMat. ( In Portuguese).
Bucsky, C. H. (2020), Development of an Experimental Protocol for Hydrate Formation Using Ecological
Promoters Based on Vlasov’s Diffusion Model, Trabalho de Conclusão de Curso em Engenharia Mecânica,
IPRJ-UERJ, Nova Friburgo, RJ, Brasil. (In Portuguese)
Da Silveira, K. C., Sheng, Q., Tian, W., Fong, C., Maeda, N., Lucas, E. F. and Wood, C. D. (2016), High
throughput synthesis and characterization of PNIPAM-based kinetic hydrate inhibitors, Fuel, vol 188, p. 522-
529.
Dirdal, E.G., Arulanantham, C., Sefidroodi, H. and Kelland, M. A. (2012). Can cyclopentane hydrate formation
be used to rank the performance of kinetic hydrate inhibitors ? Chemical Engineering Science, vol 82, p. 177
– 184.
Ferreira Filho, I. R., De Barros, Y. T., Barreira, M. R., Bucsky, C. H., Da Silveira, K, C. and Silva Neto, A. J.
(2019), Preliminary theoretical and experimental study of the diffusive process during the formation of
cyclopentane hydrates from ice powder, Revista Mundi Engenharia, Tecnologia e Gestão, Paranaguá-PR, vol
4, n.3. (In Portuguese).
Ferreira Filho, I. R., De Barros, Y. T., Bucsky, C. H., Da Silveira, K. C. and Silva Neto, A. J. (2018), Preliminary
theoretical and experimental study of the diffusive process during the formation of cyclopentane hydrates from
ice powder, XXI ENMC, Instituto Federal Fluminense, Búzios, RJ, Brasil. (In Portuguese).
Knupp, L., Silva Neto, A. J., Ferreira Filho, I. R., Barros, Y. T. and Da Silveira, K. C. (2019), Optimization of the
experimental apparatus for the formation of cyclopentane hydrates, 28º SEMIC – Uerj, RJ, Brasil. (In
Portuguese).
Koh, C. A., Sum, A. K. and Sloan, E. D. (2009), Gas hydrates: Unlocking the energy from icy cages, Journal of
Applied Physics, vol 106, n. 6, p. 14, ISSN 0021-8979.
Maeda, N., Fong, C., Sheng, Q., Da Silveira, K. C., Tian, W., Seeber, A., Ganther, W., Kelland, M. A., Mady, M.
F. and Wood, C. D. (2016), High-Throughput Testing of Kinetic Hydrate Inhibitors, Energy & Fuel 2016 30(7),
p. 5432-5438, DOI: 10.1021/acs.energyfuels.6b00498.
Silva Neto, A. J. and Moura Neto, F. D. (2005), Inverse Problems - Fundamental Concepts and Applications,
EdUERJ – Editora da Universidade do Estado do Rio de Janeiro, RJ, Brasil. (In Portuguese).
Silva, L. G., Knupp, D. C., Bevilacqua, L., Galeão, A. C. N. R., and Silva Neto, A. J. (2014), Formulation and
solution of an Inverse Problem of Anomalous Diffusion with Stochastic Techniques, Ciência e Natura, Santa
Maria, vol. 36 Ed. Especial, p. 82-96, ISSN 2179-460X. (In Portuguese).
Sloan, E.D. (2003), Fundamental principles and applications of natural gas hydrates, Nature, vol 426, n. 6964, p.
353 – 363, ISSN 0028-0836.
Sloan, E. D. and Koh, C. A. (2008), Clathrate Hydrates of the Natural Gases, CRC Press, 3rd ed, Boca Raton, FL.
Smirnov, G. S. and Stegailov, V. V. (2015), Anomalous Diffusion od Guest Molecules in Hydrogen Gas Hydrates,
High Temperature, vol. 53, n. 6, p. 829 – 836, ISSN 0018-151X.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

343
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Vlasov, V. A. (2015), Diffusion model of gas hydrate formation from ice, Heat and Mass Transfer, vol 52, n. 3, p.
531-537.
Yin, Z., Khurana, M., Tan, H. K. and Linga, P. (2018), A review of gas hydrate growth kinetic models, Chemical
Engineering Journal.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

344
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO DE ESTÁTUA ANTIGA DE N.Sra DA IMACULADA


CONCEIÇÃO POR TÉCNICAS DE RAIOS X

Marcelo Lemos da Silva1 – marcelo.lemos92@hotmail.com


Camile Mansur Mansur1 – camilemansur1994@hotmail.com
Davi Ferreira de Oliveira2 – davi@lin.ufrj.br
Marcelino José dos Anjos2 – marcelin@lin.ufrj.br
Joel Sanchéz Dominguéz1 – jsdominguez@iprj.uerj.br
Joaquim Teixeira de Assis1 – joaquim@iprj.uerj.br
1
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brazil
2
Universidade Federal do Rio de Janeiro, Rio de Janeiro, RJ, Brazil

Resumo. Ao longo do tempo, a preservação do patrimônio histórico está cada vez mais em
evidência. O estudo de peças antigas remete a história de um local ou país, já que traz
consigo inúmeras informações sobre tradições e saberes da cultura de um determinado povo.
Através da caracterização de artefatos históricos é possível correntemente, mensurar em qual
período o artefato foi concebido, identificar as técnicas utilizadas pelo artista, fornecendo
dados para um possível processo de restauro. Neste trabalho, duas técnicas de
caracterização não-destrutivas foram utilizadas: microfluorescência de raios X e
microtomografia de raios X, na caracterização de uma obra sacra, que representa Nossa
Senhora da Imaculada Conceição. Foram selecionados 30 pontos para realização das
medidas de fluorescência de raios X na peça, para identificação dos pigmentos utilizados.
Foi possível identificar camadas de tinta sobrepostas, presença de ouro em alguns
ornamentos, e identificar pigmentos não mais utilizados atualmente. As imagens geradas pela
microCT foram utilizadas na análise de toda a parte estrutural da peça, seus pontos de
fixação, técnicas utilizadas pelo artista, e possíveis pontos de falha na peça. Os resultados
obtidos através da metodologia proposta apresentaram uma alta eficiência, ressaltando a
relevância das técnicas citadas na caracterização de artefatos históricos.

Palavras-chave: Arqueometria, Caracterização de materiais, Microfluorescência de raios X,


Microtomografia computadorizada, Raios X

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

345
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Com o passar do tempo, o interesse pela investigação de obras históricas tem aumentado.
Obras de arte e as relíquias arqueológicas despertam cada vez mais o entusiasmo da
comunidade científica em busca dos mais diversos estudos a fim de revelar informações
acerca destas peças de épocas passadas. Esses estudos na maioria das vezes, envolvem as
mais diversas áreas de conhecimento trabalhando de forma conjunta, em busca de caracterizar
uma peça. Cada vez mais o ramo da caracterização de materiais tem se desenvolvido e sendo
aplicado para os mais diversos fins, como no setor da indústria, na identificação de ligas
comerciais e no campo de pesquisa de solo (NEIVA; DRON, 2008). E quando falamos em
especial da caracterização de peças históricas, o uso de técnicas de caracterização se torna
ainda mais relevante, já que com essa técnica é possível revelar muitas informações sobre a
peça, como as características do período em que o objeto foi concebido, sua procedência e
técnicas de fabricação utilizadas. Além disso, pode apoiar na identificação de falsificações e
na avaliação da conservação e intervenções de restauração (SANCHES et al., 2019).
Neste trabalho foram utilizadas duas técnicas de caracterização não-destrutivas, a
microfluorescência de raios X (μ-FRX), que se trata de um produto microanalítico da
fluorescência de raios X por dispersão em energia (SANTOS et al., 2013) e também utilizou
microtomografia de raios X (microCT) que utiliza os mesmos princípios da tomografia de
raios X só que focado para a análise de pequenas amostras. Tanto a μ-FRX, quanto a microCT
fazem uso dos princípios dos raios X descobertos pelo físico alemão Wilhelm Conrad
Roentgen (CHOMICKI, 1996), no final do século XIX. As técnicas de caracterização
denominadas não-destrutivas, consistem na realização de ensaios que não causam nenhum
tipo de dano a peça estudada e não se faz necessário nenhum tipo de preparação da superfície
da mesma. Quando tratamos de peças de valor histórico, na maioria das vezes, os ensaios
realizados são do tipo não-destrutivo, já que não é desejável qualquer tipo de dano a peça
estudada, a mesma deve prevalecer com todos os aspectos preservados de antes do ensaio.
Os ensaios de caracterização citados a cima, foram realizados em uma escultura católica
que representa a figura de Nossa Senhora da Imaculada Conceição. No momento em que
tomamos posse da peça para as devidas pesquisas e ensaios, não se tinha mais informações
acerca da santa em questão, tanto com respeito a idade da peça, tão pouco de sua origem ou
de qualquer espécie de trabalho de restauração realizado. O curador da peça, acreditava que a
mesma nunca havia sido submetida a nenhum tipo de processo de restauro. A peça foi
disponibilizada pelo Colégio Anchieta, localizado na cidade de Nova Friburgo (RJ), o colégio
conta com um grande acervo de peças históricas, como quadros, peças sacras e ferramentas
datadas do século XIX. Trata-se de um colégio jesuíta fundado em 12 de abril de 1886, que
teve o início das suas atividades na casa-grande da antiga Fazenda do Morro Queimado, local
de alta relevância histórica no contexto da concepção de Nova Friburgo como cidade.

2. FUNDAMENTOS TEÓRICOS

Para a caracterização da peça em questão, foram utilizadas duas técnicas não-destrutivas:


microfluorescência de raios X (μ-FRX) e microtomografia de raios X (microCT), ambas as
técnicas fazem uso dos princípios dos raios X, e com o auxílio dessas técnicas é possível
mensurar o período em que uma obra de arte foi concebida, as técnicas utilizadas pelo artista,
os pigmentos utilizados, assim como pontos de fixação ou possíveis pontos vazios, ou de
falha. Sendo possível realizar um estudo do estado de conservação da peça, e ainda fornecer
dados importantes para um possível trabalho de restauro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

346
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.1 Fluorescência de raios X

A espectroscopia de fluorescência de raios X (FRX), pode ser definida como uma técnica
de caracterização de materiais, que permite identificar e quantificar os elementos de uma
determinada amostra, de forma não destrutiva. A maioria dos elementos existentes podem ser
identificados com esse tipo de técnica.
A utilização da fluorescência de raios X apresenta diversas vantagens no contexto de
caracterização de materiais. Devido a estas vantagens, essa técnica sofreu evoluções e os
equipamentos evoluíram, com o desenvolvimento de novos materiais e técnicas, os
equipamentos utilizados ultimamente, tem um tamanho compacto (SAPKOTA et al., 2019), o
que facilita a análise in situ, ou seja, realizar os ensaios no local em que a peça se encontra, o
que propicia a análise de peças muito grandes ou com alto valor histórico em que se tem
maior restrição quanto a locomoção. Outra grande vantagem a ser destacada é que em uma
única medição, é possível detectar vários elementos presentes na amostra. Sendo que a
superfície da peça na maioria das vezes não precisa de um tratamento prévio, por se tratar de
uma técnica não-destrutiva. A espectroscopia de fluorescência de raios X (XFR) é
amplamente utilizada no estudo de identificação de peças com valor histórico, indústria
farmacêutica, altamente utilizado para identificar ligas metálicas nas indústrias (NEIVA;
DRON, 2008), no campo de pesquisa de solo (OYEDOTUN, 2018) e em outras diversas áreas
importantes.
A medição da intensidade de energia dos raios X característicos emitidos de uma amostra
é o princípio da Fluorescência de Raios X. Cada elemento, terá suas linhas energéticas, já que
são características dos átomos que o compõe. Na técnica de FRX, temos dois tipos de
análises: a quantitativa e a qualitativa. Na análise qualitativa identifica cada elemento presente
na amostra, a partir da análise de cada uma de suas linhas característica. Na análise
quantitativa não somente identifica os elementos presentes na amostra, quanto também estima
a quantidade de determinado elemento no material como um todo. As duas técnicas são
importantes dependendo do caso estudado, pois em alguns casos somente identificando o
elemento já é o bastante, mas em outros caso é necessário identificar a composição exata do
material, com a quantidade exata de cada elemento químico presente na amostra (LUIZ et al.,
2014).

2.2 Microtomografia computadorizada

Outra técnica utilizada para a caraterização da peça foi a microtomografia


computadorizada (microCT). Esta técnica utiliza os mesmos princípios teóricos da tomografia
computadorizada, só que aplicada para amostras menores. Os avanços e desenvolvimentos no
campo de pesquisas, trouxeram a necessidade de muitas vezes se trabalhar em escalas
micrométricas ou nanométricas por exemplo, com isso alguns equipamentos precisaram sofrer
adaptações e melhoramentos para determinada aplicação, como foi o caso da criação dos
microtomógrafos.
As radiografias convencionais retratam uma imagem tridimensional de um objeto como
uma imagem bidimensional (HUDA, 2010). Isso resulta em sobreposição de tecidos
sobrepostos à imagem, uma das principais limitações da radiografia convencional. A
tomografia computadorizada contorna esse problema digitalizando seções finas do corpo com
um feixe estreito de raios X que gira ao redor do corpo, produzindo imagens de cada seção
transversal (ROMANS, 2011).
A tomografia computadorizada utiliza um computador para processar informações
obtidas pela passagem de raios X através de uma determinada área de estudo. As imagens
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

347
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

criadas são transversais, e essas imagens vão sendo obtidas na forma de fatias. A radiação
emitida pelo tubo de raios X passa através da amostra estudada, e uma parte da mesma é
absorvida, o quanto dessa radiação será absorvida, depende do coeficiente de atenuação de
cada material. E a partir da medição da radiação realizada pelo detector, o coeficiente de
atenuação da amostra pode ser calculado e assim as imagens bidimensionais de uma dada
amostra podem ser geradas, criando assim uma das fatias de um conjunto de fatias necessárias
para criar um modelo tridimensional (CID; CARRASCO-NÚÑEZ; MANEA, 2017). Essas
fatias são armazenadas e processadas no computador, e um algoritmo é responsável por unir
essas fatias a fim de formar um modelo tridimensional fruto da tomografia computadorizada.

3. MATERIAIS E MÉTODOS

A peça a ser caracterizada apresenta diversos danos físicos, com partes quebradas e
algumas outras lascadas e também falhas em sua pintura, muito devido a sua idade e a forma
com que a mesma foi curada. A figura 1 apresenta a visão frontal e traseira da peça, como
pode ser observado, a escultura não tem as duas mãos, em sua lateral direita podemos
observar outro dano com o que seria uma espécie de nuvem, está quebrada, e também
próximo da base está danificado, no que provavelmente seria a representação de um ou mais
anjos. Já que as representações de Nossa Senhora Imaculada Conceição apresentam em sua
grande maioria a presença de nuvens e anjos em sua base.

Figura 1- Visão frontal e traseira da escultura.

A base da peça está bem fixada ao restante da obra, sem nenhum tipo de folga, a base da
mesma é também de madeira, com uma espécie de cravo ou prego aparentemente, servindo de
união entre a base e a imagem da santa, somente após o ensaio de microtomografia
computadorizada será possível definir com mais exatidão o tipo de acessório utilizado para a
fixação. A santa tem altura total de 21 cm, uma medida bastante utilizada em esculturas deste
gênero.

3.1 Ensaios de fluorescência de raios X

Num primeiro momento, foi realizado um ensaio de microfluorescência de Raios X (μ-


FRX), utilizando o equipamento ARTAX 200 (Bruker). O ARTAX 200 representou um
grande avanço na área da fluorescência de Raios X por dispersão de energia (ED-FRX), pois
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

348
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

além de apresentar uma resolução espacial de até 70 µm, foi o primeiro espectrômetro µ-FRX
portátil disponível comercialmente. Esse equipamento realiza ensaios não-destrutivos, e é
adequado para análise simultânea de elementos que se encontram no intervalo entre Na (11) a
U (92), ou seja 11 ≤ Z ≥ 92. Apresenta uma tensão máxima de trabalho de 50 kV, uma
corrente máxima de 1000 μA e uma potência máxima de 50 W. Apresenta uma medição mais
rápida durante a varredura e mapeamento de elementos devido às altas tecnologias
empregadas no mesmo (CROSERA et al., 2019).
Foram determinados 30 pontos na escultura para serem estudados através da
microfluorescência de raios X. Esses pontos são apresentados na figura 2, a determinação dos
mesmos foi baseada de forma que todos os pigmentos da peça fossem estudados, também
foram contempladas as partes danificadas da peça e pontos que apresentavam somente o
fundo de preparação ou uma camada de tinta abaixo da principal.

Figura 2- Pontos escolhidos para fluorescência de raios X.

Definidos os pontos a serem estudados, a seguir foi necessário estabelecer os


parâmetros principais de operação do equipamento, os mesmos são apresentados na tabela
1 a seguir.

Tabela 1- Parâmetros operacionais do Artax 200

Parâmetros
Dados
operacionais
Anodo Molibdênio
Voltagem 40 KV
Corrente 200 μA
Live time 100 s
Dead time 1,1 %
Densidade do pulso 4472 cps

3.2 Ensaio de microtomografia computadorizada

Para a realização dos ensaios de microtomografia computadorizada foi utilizado o


equipamento Vtomex M desenvolvido pela General Eletric. O Vtomex M é um sistema
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

349
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

versátil de microtomografia computadorizada amplamente utilizado nas áreas de


metrologia e análise 3D com operação em até 300 kV / 500 W. O sistema conta com um
conjunto exclusivo de detectores para aquisição extremamente rápida de dados de TC, este
equipamento, pode realizar análises em peças de até 500 mm de diâmetro e 600 mm de
altura, e com massa de até 50 kg (SINGHAL; GRANDE; ZHOU, 2013). Os parâmetros
utilizados para o ensaio estão presentes na tabela 2.

Tabela 2- Parâmetros operacionais do Vtomex M

Parâmetros
Dados
operacionais
Tensão 110 kV
Corrente 400 uA
Tempo 250 ms
Integração 5 Frames
Filtro 0,4 mm Al
Número de Projeções 1800
Tamanho do pixel
126 um
efetivo

Para aquisição e processamento dos dados, como também para o processamento de


volume, é utilizado o software Phoenix datos x CT, com ele é possível que toda a cadeia
de processos de TC seja totalmente automatizada. O que muito facilita a repetibilidade e
reprodutibilidade dos resultados da CT. Uma vez programada a configuração apropriada,
todo o processo de digitalização e reconstrução, é realizado de maneira simples e intuitiva
pelo operador.

4. RESULTADOS

Na região da cabeça da escultura, foram analisados 4 pontos: testa, boca, olhos e cabelo.
Na testa da peça, que representa a tonalidade bege de pele, a presença de Zn foi detectada,
juntamente com uma concentração muito baixa de Pb e Fe, devido a uma provável mistura de
uma maior quantidade de branco de Zinco (ZnO) com um pouco de marrom ocre (Fe 2O3.H2O
+ argila + sílica), a fim de se obter essa tonalidade mais clara na coloração bege, a presença
do chumbo provavelmente por uma camada de preparação utilizando branco de Chumbo
(2PbCO3.Pb(OH)2). Já na representação dos olhos além do elemento Zn, também foi
encontrado Fe, como pode ser observado no espectro (figura 3), o que indica um possível uso
de branco de zinco para o branco dos olhos juntamente com o pigmento óxido de ferro preto
(Fe3O4) por cima, a fim de se obter um aspecto escuro dos olhos. Na análise da boca, foi
encontrado o elemento Zn juntamente com uma baixa concentração de mercúrio, fruto de uma
provável mistura de branco de Zinco com o pigmento vermilion (HgS), na busca de uma
coloração avermelhada mais suave. Já no cabelo da peça, foi detectada a presença de Zn, Pb, e
Fe, como pode ser observado no espectro a seguir (figura 3) o que indica a utilização de uma
mistura de branco de Zinco, juntamente com branco de Chumbo e marrom ocre.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

350
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Espectro da região do cabela da escultura.

Analisando os pigmentos utilizados na representação das vestes da escultura, na região


branca do manto, foi identificado somente o elemento Zn, o que mostra um forte indício de
que foi utilizado branco de Zinco. Nas áreas em que a cor azul predomina, existe a forte
presença de Zn com uma menor concentração de Fe, o que leva a crer na utilização de branco
de zinco juntamente com uma camada de azul da Prússia (Fe4[Fe(CN)6]3.14-16H2O) por cima,
já que Ferro foi identificado nesta tonalidade. Todos os detalhes em dourado que são
possíveis identificar na figura 3, apresentam os elementos Zn, Fe, Pb e Cr. A presença do
Zinco deve se tratar do branco de Zinco presente na peça, o Ferro proveniente do azul
identificado anteriormente. A presença de Cromo e Chumbo sugere o uso de amarelo de
Cromo (PbCrO4 ou PbCrO4.2PbSO4), pela presença de Cr e Pb em sua composição química.
Outro ponto que despertou interesse de estudo está destacado na figura 4, um descascado
na base da escultura, com uma camada na cor vermelha ao fundo.

Figura 4- Destaque região descascada na base da peça.

Nesta região vermelha da figura 4 de um lascado na base da escultura, existe alta


concentração de Hg, com a presença também de uma baixa concentração de Zn, Pb e Fe. A
presença de uma alta concentração de Mercúrio indica o uso de vermilion em grande
quantidade de camada de fundo, com um pouco de vermelho ocre pela presença do Ferro.
Outro ponto em que despertou o interesse de uma análise mais profunda está demonstrado na
figura 5, em que é possível observar uma grande área sem a camada mais externa de pintura
da peça com estrelas douradas na camada mais abaixo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

351
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 - Região descascada na região do véu.

Nessa estrela foi detectado uma alta concentração de Pb, seguido de Au e baixa
concentração de Fe. A concentração de Chumbo provável pela preparação com branco de
Chumbo, o ouro proveniente de uso de folhas de ouro ou ouro em pó no formato da estrela,
técnica muito comum antigamente. Vale ressaltar, que o equipamento de microfluorescência
de raios X utilizado, não é capaz de detectar elementos leves com número atômico menor que
11. E as hipóteses levantadas sobre os pigmentos utilizados, são baseadas nos elementos
identificados pelo equipamento nos pontos estudados, juntamente com o histórico de
pigmentos presentes na literatura, acompanhados de suas respectivas cores e composições
químicas.
A análise estrutural da peça foi realizada com o auxílio da técnica de microtomografia
computadorizada, a fim de identificar possíveis pontos que possam ter sido atacados por
pragas, os pontos de fixação e técnicas utilizadas de construção, com as principais imagens
3D analisadas, como pode ser visto na figura 6.

Figura 6 - Regiões de vazio na peça.

É possível observar uma região de vazio na parte inferior da peça (destacado em verde),
próxima à área de fixação entre a base e o restante da escultura, essa região de vazio pode
estar presente desde quando a mesma foi concebida por uma falha na madeira, ou no
momento da fixação, ou até mesmo fruto de algum ataque de praga ao longo dos anos, não é
possível precisar. Já no rosto da peça foi possível encontrar outra região de vazio, e a partir da
análise dessa imagem gerada é possível afirmar que a escultura não apresenta olhos de vidros,
técnica muito comum em obras sacras centenárias, os olhos dessa peça em questão são
pintados. E ainda observando a região do rosto, é possível observar a presença de uma espécie
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

352
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de prego para fixação, que provavelmente tinha por função unir uma coroa a peça, já que as
representações da imagem de Nossa Senhora Imaculada da Conceição costumam apresentar
uma coroa ao topo da cabeça, mas a peça analisada não apresenta, o que indica que a mesma
foi perdida ao longo do tempo. É possível também pela disposição dos veios da madeira,
observar que foi utilizada duas espécies diferentes de madeira, uma na base e outra no restante
da escultura. Após estudar a integridade da peça, buscou-se analisar os pontos de fixação da
mesma, como podem ser observados na figura 7.

Figura 7 - Pontos de fixação da peça.

Na região dos adornos em formato de “chifre”, que, na verdade é uma ponta de lua sempre
presente nesse tipo de imagem, é possível observar um ponto de fixação, logo o adorno foi
confeccionado em separado e posteriormente integrado a peça. Assim como é possível
observar o grande prego utilizado para a fixação entre a base e o restante da peça. Indica o uso
de um prego e não um cravo, pelo formato circular da cabeça e pela definição entre a cabeça e
o restante do prego. Pelo aspecto curvado do mesmo aparenta ser bem antigo, com técnicas
mais rústicas de fabricação.

5. CONCLUSÕES

Analisando os resultados obtidos com o uso das técnicas de microfluorescência de raios


X e microtomografia computadorizada, pode-se afirmar que as mesmas apresentam grande
eficácia no estudo de artefatos históricos, revelando relevantes informações sobre a peça.
Com a utilização da técnica de FRX, foi possível identificar os elementos Au, Pb, Ca,
Cr, Fe, Hg e Zn. E a utilização da câmera do Artax-200 revelou imagens em que é possível
observar regiões com camadas sobrepostas de tinta.
Já com as imagens geradas pela microtomografia computadorizada, pode-se observar os
pontos de fixação da estátua, a integridade estrutual da mesma, com regiões de vazio
presentes, as técnicas utilizadas pelo artista e o uso de mais de uma espécie de madeira.
Através deste trabalho, a utilização de técnicas não-destrutivas ganha destaque, pela
possibilidade da obtenção de muitas informações relevantes sobre a história da peça, técnicas
utilizadas, e integridade da peça, sem causar nenhum tipo de dano a mesma, alcançando os
objetivos estipulados no início do trabalho.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

353
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

"O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001.

REFERÊNCIAS

Chomicki, O. Early years of röntgen’s discovery. Reports of Practical Oncology, v. 1, n. 1, p. 1 – 6, 1996. ISSN
1428-2267. Disponível em: <http://www.sciencedirect.com/science/article/pii/S1428226796700790>.
Cid, H.; Carrasco-Núñez, G.; Manea, V. Improved method for effective rock microporosity estimation using x-
ray microtomography. Micron, v. 97, p. 11 – 21, 2017. ISSN 0968-4328. Disponível em:
<http://www.sciencedirect.com/science/article/pii- /S0968432816302001>.
Huda, W. Review of Radiologic Physics. [S.l.]: Lippincott Williams Wilkins, 2010. 1-255 p.
Luiz, L. et al. Utilização de um sistema portátil de fluorescência de raios x para análise multielementar de
medicamentos: Genéricos e referência. Physicae, v. 10, p. 26–32, 07 2014.
Neiva, A.; Dron, J. Caracterização de bens culturais por espectroscopia de fluorescência de raios x. Revista CPC,
n. 6, p. 188–197, out. 2008. Disponível em: <http://www.revistas.usp.br/cpc/article/view/15631>.
Oyedotun, T. D. T. X-ray fluorescence (xrf) in the investigation of the composition of earth materials: a review
and an overview. Geology, Ecology, and Landscapes, v. 2, p. 1–7, 03 2018.
Romans, L. Baltimore, USA: Wollters Kluwer Health / Lippincott Williams Wilkins, 2011. 1-379 p.
Sanches, F. A. de A. et al. Characterization of a sacred statuette replica of “nossa senhora da conceição
aparecida” using x-ray spectrometry techniques. Radiation Physics and Chemistry, p. 108266, 2019. ISSN
0969-806X. Disponível em: <http://www.sciencedirect.com/science/article/pii/S0969806X18314506>.
Santos, E. S. et al. Espectrometria de fluorescência de raios-x na determinação de espécies químicas.
Enciclopédia biosfera, 2013.
Sapkota, Y. et al. Portable x-ray fluorescence spectroscopy for rapid and cost-effective determination of
elemental composition of ground forage. Frontiers in Plant Science, v. 10, p. 317, 03 2019.

CHARACTERIZATION OF ANCIENT STATUE OF “N.SRA DA IMACULADA


CONCEIÇÃO” USING X-RAY TECHNIQUES

Abstract. Over time, preservation of historical heritage is increasingly in evidence. The study
of historical pieces refers to the history of a place or country, since it brings with it
information about traditions and knowledge of the culture of a specific people. Through the
characterization of historical artifacts it is currently possible to measure in which period the
artifact was conceived, to identify the techniques used by the artist, providing data for
possibles restorations processes. In this work, two non-destructive characterization
techniques were used: X-ray microfluorescence and X-ray microtomography, in the
characterization of a sacred work, which represents Nossa Senhora da Immaculada
Conceição. 30 points were selected to perform X-ray fluorescence measurements on the piece,
to identify the pigments used. It was possible to identify overlapping layers of paint, the
presence of gold in some ornaments, and pigments that are no longer used today. The images
generated by MicroCT were used in the analysis of the entire structural part of the piece, its
attachment points, techniques used by the artist, and possible points of failure in the piece.
The results obtained through the alternative methodology a high efficiency, emphasizing the
obtaining of the techniques mentioned in the characterization of historical artifacts.

Keywords: Archeometry, Material characterization, X-ray microfluorescence, Computed


microtomography, X-rays

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

354
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DE CONFIABILIDADE ESTRUTURAL UTILIZANDO OS


MÉTODOS DE SIMULAÇÃO DE MONTE CARLO, FORM E SORM

Carla Simone de Albuquerque1 – carla19matematica@gmail.com


Mauro de Vasconcellos real1 – mauroreal@furg.br
Universidade Federal do Rio Grande – PPG em Modelagem Computacional, Rio Grande, RS,
1

Brazil

Resumo. A confiabilidade é uma ferramenta que está em processo de crescimento e


importância na engenharia, por permitir quantificar incertezas nas variáveis de projeto,
e assim, auxiliar na tomada de decisões mais precisas em relação à segurança de uma
estrutura. Neste artigo é feita a avaliação do índice de confiabilidade utilizando métodos
como a simulação de Monte Carlo Simples e com amostragem por importância, e os
métodos de transformação FORM (First Order Reliability Method) e SORM (Second
Order Reliability Method) aplicados a sete exemplos de funções estado limite não linear.
Os índices de confiabilidade e a probabilidade de falha são obtidos através da linguagem
Python. Os resultados dos métodos de simulação de Monte Carlo Simples e com
amostragem por importância se mostraram bastante eficiente nos exemplos analisados.
O método SORM melhorou os resultados do FORM, incluindo informações adicionais
sobre a curvatura da função estado limite. O objetivo deste trabalho é comparar métodos
de confiabilidade estrutural, aplicados a exemplos de funções de estado limite e assim,
analisar os resultados quanto à eficiência da aplicação do método, levando em
consideração a precisão dos resultados.

Palavras-chave: Confiabilidade estrutural, MCS, MCAI, FORM, SORM.

1. INTRODUÇÃO

Garantir níveis de segurança adequados nas estruturas, proporcionando um bom


desempenho, é um dos principais desafios da engenharia (Albuquerque e Real, 2020).
Segundo Haldar e Mahadevan (2000), um projeto de engenharia consiste em propor os
elementos essenciais para que um sistema satisfaça vários critérios como: desempenho,
segurança, facilidade de manutenção e durabilidade. No entanto, existem inúmeras fontes
de incerteza nos parâmetros que podem contradizer esses critérios.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

355
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para Albuquerque e Real (2020), a presença de incertezas na segurança das estruturas


pode ser diminuída, analisando a probabilidade de falha de uma situação não desejável.
Conforme Beck (2019), uma ferramenta que proporciona a determinação da
probabilidade de uma estrutura falhar durante sua vida útil projetada é a análise de
confiabilidade estrutural. Dessa forma, os métodos de confiabilidade estrutural são
ferramentas importantes para essa análise da segurança de uma estrutura, pois identificam
e quantificam incertezas em variáveis aleatórias.
De acordo com Santos (2014), os métodos de confiabilidade estrutural, também
conhecidos como métodos de transformação, aproximam a função estado limite no ponto
de projeto por um hiperplano, no caso do FORM (First Order Reliability Method), ou por
uma hipersuperfície quadrática, no caso do SORM (Second Order Reliability Method). A
aproximação desses métodos pode conduzir a erros, principalmente quando a função de
estado limite é fortemente não linear. Assim, pode-se fazer uso da simulação de Monte
Carlo para se ter uma ideia da probabilidade de falha e do índice de confiabilidade
corretos, por ser esse método considerado o mais exato.
O objetivo desse trabalho é comparar os métodos de confiabilidade estrutural (FORM
e SORM) e simulação de Monte Carlo com Amostragem por Importância (MCAI) com a
simulação de Monte Carlo Simples (MCS), aplicados a exemplos de função de estado
limite não linear, analisando os resultados quanto à eficiência da aplicação do método,
levando em consideração a precisão dos resultados.

2. METODOLOGIA

Para Nowak e Collins (2000), a confiabilidade estrutural está relacionada com a


probabilidade de que uma estrutura não atinja a um dado estado limite, durante um
intervalo de tempo e sob determinadas condições de utilização.
Conforme Scherer et al. (2019), um dos aspectos iniciais a serem considerados na
análise de confiabilidade de uma estrutura consiste em definir uma função estado limite
para o modo de falha a ser estudado. Essa função expressa uma relação entre capacidade
e demanda, e caracteriza a estrutura como segura ou insegura. Genericamente, a função
estado limite é expressa na fig. 1, onde é apresentada uma superfície com região de falha,
região segura e função estado limite para um sistema com duas variáveis.

Figura 1 – Função estado limite para um sistema com duas variáveis.


Fonte: Adaptado Rashki et al. (2014)

Conforme Paliga et al. (2011) o problema básico da confiabilidade estrutural é


assegurar que a resistência (R), seja superior a solicitação (S), ou seja, garantir o
desempenho durante a vida útil da estrutura. Sendo assim, esse problema pode ser

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

356
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

formulado em termos da margem de segurança, M = R – S. Sendo R e S variáveis


aleatórias com função de densidade de probabilidade 𝑓𝑅 (𝑟) e 𝑓𝑆 (𝑠). Se R e S são variáveis
aleatórias normais e estatisticamente independentes, onde µ representa a média e σ, o
desvio padrão, a margem de segurança também será uma variável normal. A média e o
desvio padrão da margem de segurança são dadas por:

µ𝑀 = µ𝑅 − µ𝑆 (1)

𝜎𝑀 = √𝜎𝑅2 + 𝜎𝑆 2 (2)

Segundo Sakamato (2016), o índice de confiabilidade (β), é uma medida utilizada


para mensurar a confiabilidade de sistemas. Uma definição bastante utilizada é a razão
entre média e desvio padrão da margem de segurança, e é determinado pelo índice de
confiabilidade de Cornell, dada por:

µ𝑅 − µ𝑆 (3)
𝛽=
√𝜎𝑅2 + 𝜎𝑆 2

Conforme Melchers e Beck (2018), a obtenção do índice de confiabilidade no espaço


das variáveis normais, também pode ser obtido pela interpretação geométrica da função
estado limite. Nesse caso, 𝛽 representa a menor distância entre a origem no espaço normal
e o plano, como mostra a Fig. 1.
A probabilidade de falha pode ser obtida em função do índice de confiabilidade, se
R e S tiverem distribuições normais, dada por:

𝑃𝑓 = 𝛷 (−𝛽) (4)

onde 𝛷 é a função de distribuição acumulada da variável normal padrão.


O método de simulação de Monte Carlo é um método numérico que se baseia em
repetição do processo de simulação, usando em cada simulação um determinado conjunto
de valores. Conforme Silva Junior (2019), o método MCS consiste em obter uma
estimativa da distribuição de probabilidade da função 𝑔(𝑥), através da geração dos
parâmetros das variáveis de entrada. A cada simulação, é verificada a condição da função
𝑔(𝑥 ) ser menor ou maior que zero. A probabilidade de falha e o índice de confiabilidade
na simulação de Monte Carlo pode ser obtida:

1 𝑁 (5)
𝑃𝑓 = ∑ 𝐼𝑔(𝑥𝑖)
𝑁 𝑖=1

𝛽 = −𝛷 −1 (𝑃𝑓 ) (6)

onde 𝐼𝑔(𝑥 ) = 1 se 𝑔 (𝑥 ) < 0 e 𝐼𝑔(𝑥 ) = 0 se 𝑔 (𝑥 ) > 0. N é o número de simulações.


E 𝛷 é a função de densidade de probabilidade acumulada da variável normal padronizada
N(0,1).
Haldar e Mahadevan (2000) descrevem os seis elementos essenciais associados ao
método MCS, apresentados abaixo:
a) Definir as variáveis aleatórias;
b) Definir as distribuições de probabilidade;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

357
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

c) Gerar N amostras para as variáveis;


d) Solucionar a função 𝑔(𝑥 ) para cada conjunto de variáveis;
e) Extrair da amostra a quantidade de vezes que 𝑔(𝑥 ) < 0;
f) Determinar o índice de confiabilidade e probabilidade de falha.
Uma das técnicas para acelerar a convergência da simulação de Monte Carlo é a
utilização de amostragem por importância. A técnica consiste em determinar a
probabilidade da falha na região de estado limite. Beck (2019) afirma que a técnica
amostragem por importância consiste em utilizar uma função de amostragem, a fim de
evitar a geração de amostras longe da região de interesse, ou seja, longe do domínio de
falha. Os pontos são gerados a partir de uma função de amostragem ℎ𝑋 (𝑥). Multiplicando
e dividindo a Eq. (5) por ℎ𝑋 (𝑥), tem-se:

1 𝑁 𝑓𝑋 (𝑥𝑖 ) (7)
𝑃𝑓 ≈ 𝑃̂𝑓 = ∑ 𝐼𝑔 (𝑥𝑖 )
𝑁 𝑖=1 ℎ𝑋 (𝑥𝑖 )

O ponto 𝑥𝑘 está associado a um peso 𝑤𝑘 << 1, que é representado pela razão entre
as funções 𝑓𝑋 (𝑥) e ℎ𝑋 (𝑥). A variância da probabilidade de falha é estimada por:

1 𝑁 (8)
𝑉𝑎𝑟[𝑃̂𝑓 ] = ∑ (𝐼𝑔 [𝑥𝑘 ]𝑤𝑘 − 𝑃̂
𝑓)
2
(𝑁 − 1) 𝑘

De acordo com Haldar e Mahadevan (2000), o algoritmo do método MCAI consiste


em:
a) Definir as variáveis aleatórias;
b) Gerar 𝑁 amostras para a função de amostragem ℎ𝑋 (𝑥);
c) Verificar a ocorrência de falha para cada amostra, através da função indicadora;
d) Estimar a média da probabilidade de falha através da Eq. (7);
e) Estimar a variância de falha através da Eq. (8);
f) Determinar o índice de confiabilidade e probabilidade de falha.
Os métodos de transformação são baseados na busca pelo ponto de projeto. O FORM
aproxima a função estado limite no ponto de projeto por um hiperplano, enquanto o
SORM por uma hipersuperfície quadrática, como representado na Fig. 2.

Figura 2 – Transformação do espaço normal para normal equivalente


Fonte: Adaptado Young et al. (2005)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

358
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Segundo Beck (2019), o método FORM se baseia na construção da função de


probabilidade 𝑓𝑋 (𝑥) e sua transformação para o espaço normal padrão 𝑓𝑌 (𝑦), como
mostrado na Fig. 2. Essa construção envolve a eliminação da correlação entre variáveis
aleatórias e o cálculo das variáveis normais equivalentes.
Para Cordeiro (2009), o método SORM estima a probabilidade de falha através de
uma aproximação de segunda ordem da função estado limite no ponto de projeto. A
curvatura da função estado limite é aproximada pela derivada de segunda ordem dessa
função em relação às variáveis do espaço normal equivalente. O algoritmo do método
SORM é calculado a partir da obtenção do índice de confiabilidade e probabilidade de
falha do método FORM.
O algoritmo dos métodos FORM e SORM são apresentados na Fig. 3.

Figura 3 – Algoritmo dos métodos FORM e SORM


Fonte: Adaptado Cordeiro (2009)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

359
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme Haldar e Mahadevan (2000), a curvatura de qualquer função está


relacionada às derivadas de segunda ordem em relação às variáveis aleatórias. Logo, o
método de confiabilidade de segunda ordem (SORM) melhora o resultado do método de
confiabilidade de primeira ordem (FORM) incluindo informações adicionais sobre a
curvatura da função estado limite.

3. RESULTADOS E DISCUSSÕES

Esta seção apresenta sete exemplos selecionados da literatura. O estudo consiste na


análise comparativa do índice de confiabilidade e probabilidade de falha. Todas as
variáveis aleatórias envolvidas são estatisticamente independentes. Para cada exemplo
são apresentadas as distribuições de probabilidade e os momentos (média e desvio
padrão) das variáveis de projeto, bem como a função estado limite 𝑔 (𝑥 ).
Com o propósito de comparar a eficiência dos resultados nos métodos estudados, os
quatro algoritmos foram desenvolvidos e simulados na linguagem Python, em um
computador Intel® Core™ i5-265U 1,80 GHz 64 bits com 8 GB de memória RAM.

Exemplo 1 [Santosh (2006)]: Função estado limite 𝑔(𝑥 ) = 𝑥13 + 𝑥23 − 67,5, as
variáveis seguem distribuição de probabilidade normal, com valores médios 𝜇𝑥1 = 10 e
𝜇𝑥2 = 9,9, e desvios padrão 𝜎𝑥1 = 𝜎𝑥2 = 5.
Exemplo 2 [Grooteman (2008)]: Função estado limite 𝑔(𝑥) = 2,5 − 0,2357(𝑥1 −
𝑥2 ) + 0,0046(𝑥1 + 𝑥2 − 20)4 , as variáveis seguem distribuição de probabilidade
normal, com parâmetros 𝜇𝑥1 = 𝜇𝑥2 = 10 e 𝜎𝑥1 = 𝜎𝑥2 = 3.
Exemplo 3 [Choi et al. (2007)]: Função estado limite 𝑔(𝑥 ) = 𝑥14 + 2𝑥24 − 20, as
variáveis possuem distribuição de probabilidade normal, com parâmetros 𝜇𝑥1 = 𝜇𝑥2 =
10 e 𝜎𝑥1 = 𝜎𝑥2 = 5.
Exemplo 4 [Santos et al. (2012)]: Função estado limite 𝑔(𝑥 ) = 𝑥13 + 𝑥23 − 18, as
variáveis seguem distribuição de probabilidade normal, com parâmetros 𝜇𝑥1 = 𝜇𝑥2 = 10
e 𝜎𝑥1 = 𝜎𝑥2 = 5.
Exemplo 5 [Santos et al. (2012)]: Função estado limite 𝑔(𝑥 ) = 𝑥13 + 𝑥23 − 18, as
variáveis possuem distribuição de probabilidade normal, com valores médios 𝜇𝑥1 = 10 e
𝜇𝑥2 = 9,9, e desvios padrão 𝜎𝑥1 = 𝜎𝑥2 = 5.
Exemplo 6 [Keshtegar e Chakraborty (2017)]: Função estado limite 𝑔(𝑥 ) = 𝑥13 +
𝑥1 𝑥2 + 𝑥23 − 18, as variáveis possuem distribuição de probabilidade normal, com valores
2

médios 𝜇𝑥1 = 10 e 𝜇𝑥2 = 9,9, e desvios padrão 𝜎𝑥1 = 𝜎𝑥2 = 5.


Exemplo 7 [Keshtegar (2016)]: Função estado limite 𝑔(𝑥 ) = 𝑥14 + 𝑥22 − 50, as
variáveis aleatórias, 𝑥1 possui distribuição de probabilidade lognormal com parâmetros
𝜇𝑥1 = 5 e 𝜎𝑥1 = 1, 𝑥2 segue distribuição Gumbel com parâmetros 𝜇𝑥1 = 10 e 𝜎𝑥1 = 10.

Utilizando o método MCS com uma amostra com 106 elementos, MCAI com 104
elementos e os métodos FORM e SORM, foram determinados o índice de confiabilidade
e a probabilidade de falha para cada exemplo, sendo que seus resultados estão
representados na Tab. 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

360
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 – Resultados da análise de confiabilidade dos exemplos


Métodos
Exemplos MCS MCAI FORM SORM
𝛽 𝑃𝑓 𝛽 𝑃𝑓 𝛽 𝑃𝑓 𝛽 𝑃𝑓
−2 −2 −2
1 2,23 1,27𝑥10 2,23 1,28𝑥10 1,90 1,28𝑥10 2,23 1,28𝑥10−2
−3 −3 −3
2 2,75 2,98𝑥10 2,75 2,94𝑥10 2,50 6,21𝑥10 2,50 6,21𝑥10−3
−3 −3 −3
3 2,91 1,88𝑥10 2,91 1,71𝑥10 2,36 9,01𝑥10 2,84 2,22𝑥10−3
4 2,55 5,33𝑥10−3 2,55 5,32𝑥10−3 2,24 1,25𝑥10−2 2,63 4,27𝑥10−3
5 2,52 5,80𝑥10−3 2,52 5,76𝑥10−3 2,23 1,30𝑥10−2 2,62 4,44𝑥10−3
6 2,52 5,79𝑥10−3 2,52 5,84𝑥10−3 2,30 1,08𝑥10−2 2,62 4,32𝑥10−3
7 3,56 1,86𝑥10−4 3,56 1,89𝑥10−4 3,26 5,58𝑥10−4 3,53 2,06𝑥10−4

Para comparar os valores do índice de confiabilidade e probabilidade de falha da Tab.


1, são utilizados os algoritmos dos quatro métodos programados na linguagem Python.
A análise foi realizada considerando o método MCS como referência. Em todos os
exemplos o método MCAI possui o mesmo resultado do MCS, demostrando que
utilizando a técnica com amostragem por importância, o método além de convergir para
o resultado exato, melhora em relação ao número de simulações. Na Fig. 4 os métodos
MCS e MCAI são apresentados, e por terem os mesmos resultados para o índice de
confiabilidade, as curvas que representam esses métodos coincidem.

3,8
3,6
ÍNDICE DE CONFIABILIDADE

3,4
3,2
3
MCS
2,8
MCAI
2,6
FORM
2,4 SORM
2,2
2
1,8
1 2 3 4 5 6 7
EXEMPLOS

Figura 4 – Comparativo do índice de confiabilidade dos exemplos analisados

A aplicação do método FORM apresentou resultados diferentes em relação a


referência (MCS). Esse método leva em conta as distribuições de probabilidade, mas
aproxima a função estado limite a um plano, na vizinhança do ponto de falha. Logo, se a
superfície for fortemente não linear nesta região, a imprecisão deste método será maior,
como representado na Fig. 4.
Analisando os resultados apresentados na Fig. 4 verifica-se que o método SORM se
mostrou adequado para a análise probabilística e retornou valores iguais ou muito
próximo da referência (MCS) e do método MCAI nos exemplos analisados. O SORM é

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

361
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

calculado a partir da obtenção do índice de confiabilidade do método FORM. Dessa


forma, o SORM se torna mais vantajoso porque melhora o resultado do FORM incluindo
informações adicionais sobre a curvatura do estado limite. No caso do exemplo 2, apesar
da função ser não linear, as curvaturas na região de falha são nulas.

4. CONCLUSÕES

Este artigo apresentou um estudo comparativo da utilização de métodos de


confiabilidade estrutural (Simulação de Monte Carlo, FORM e SORM), levando em
consideração os resultados do índice de confiabilidade e da probabilidade de falha. O
desempenho desses métodos, foram verificados e analisados através de sete exemplos de
função de estado limite não linear.
Os métodos de simulação MCS e MCAI funcionaram bem para todos os exemplos.
Foram os métodos mais eficientes. Porém, o método MCAI apresentou convergência
mais rápida por utilizar um menor número de simulações em comparação com MCS.
O método FORM não obteve bons resultados para as funções não lineares analisadas,
apesar desse método transformar as distribuições que não são normais em normais
equivalentes, trabalha com uma linearização da superfície de falha, se a função for
altamente não linear no entorno do ponto de falha, os resultados desse método não são
tão bons quanto o método de simulação de Monte Carlo.
O SORM apresentou resultados iguais ou muito próximo em relação a referência
(MCS). A aplicação desse método se mostrou bem eficiente em seis dos sete exemplos
analisados, e efetuou a análise de confiabilidade estrutural de segunda ordem para as
funções com eficácia, otimizando de maneira relevante os resultados obtidos pelo método
FORM. O SORM é mais vantajoso porque melhora o resultado do FORM incluindo
informações adicionais sobre a curvatura do estado limite. No exemplo 2, as curvaturas
de segunda ordem são nulas, uma superfície de curvatura zero é um plano, portanto, neste
caso, FORM e SORM obtiveram os mesmos resultados.
Os códigos programados e simulados na linguagem Python, se mostraram bem
eficientes para todos os métodos, pois os resultados foram bastante precisos para a análise
realizada.

AGRADECIMENTOS

Os autores gostariam de agradecer à Coordenação de Aperfeiçoamento de Pessoal de


Nível Superior (Capes) e ao Conselho Nacional de Desenvolvimento Científico e
Tecnológico (CNPq) pelo apoio financeiro no desenvolvimento deste estudo.

REFERÊNCIAS

ALBUQUERQUE, C. S.; REAL, M. V. (2020), “Estudo comparativo de métodos de confiabilidade


estrutural aplicados a estruturas de concreto”, 62º Congresso Brasileiro do concreto.
BECK, A. T. (2019), “Confiabilidade e Segurança das Estruturas”, 1ª ed., Elsevier, Rio de janeiro.
CHOI, S. K.; GRANDHI, R. V.; CANFIELD, R. A. (2007), “Reliability-based Structural Desing”,
Springer-Verlang London Limited.
CORDEIRO, A. L. R. (2009), “Aplicação dos métodos FORM e SORM para avaliação de dutos
corroídos”. Dissertação de Mestrado, Pontifícia Universidade Católica do Paraná, Curitiba.
GROOTEMAN, F. (2008), Adaptive radial-based importance sampling method for structural reliability.
Structural Safety, 30, 533-542.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

362
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

HALDAR, A.; MAHADEVAN, S. (2000), “Reliability assessment using stochastic finite elemento
analysis”, John Wiley & Sons.
KESHTEGAR, B. (2016), Chaotic conjugate stability transformation method for structural reliability
analysis. Computer Modeling in Engineering and Science, 310, 866-885.
KESHTEGAR, B.; CHAKRABORTY, S. (2017), A hybrid self-adaptive conjugate first order reliability
method for robust structural reliability analysis. Applied Mathematical Modelling, 53, 319-332.
MELCHERS, R. E.; BECK, A. T. (2018), “Structural Reliability Analysis and Prediction”, Jonh Wiley &
Sons.
NOWAK, A. S.; COLLINS, K. R. (2000), “Reliability of Structures”, McGraw-Hill Companies.
PALIGA, C. M.; CAMPOS FILHO, A.; REAL, M. DE V.; DINIZ, S. M. C. (2011), Métodos de análise de
confiabilidade aplicados a vigas de concreto armado recuperadas com PRFC. Teoria e Prática na
Engenharia Civil, 17, 57-66.
RASHKI, M.; MIRI, M.; MOGHADDAM, M. A. (2014), A simulation-based method for reliability based
desing optimization problems with highly nonlinear constraints, Automation in Construction, 47, 24-
36.
SAKAMOTO, M.L. (2016), “Análise de confiabilidade estrutural utilizando o método FORM com
múltiplos modos de falha para edifício alto submetido à ação do vento.” Dissertação de mestrado,
Universidade Federal Tecnológica do Paraná.
SANTOS, K. R. M. (2014), “Técnicas de amostragem inteligente em simulação de Monte Carlo”.
Dissertação de mestrado, Universidade de São Paulo – Escola de Engenharia de São Carlos, São Paulo.
SANTOS, S. R.; MATIOLI, L. C.; BECK, A. T. (2012), New optimization algorithms for structural
reliability analysis. Computer Modeling in Engineering and Science, 83, 23-56.
SANTOSH, T. V..; SARAF, R. K.; GHOSH, A. K; KUSHWAHA, H. S. (2006), Optimum step length
setection rule in modified HLRF method for structural reliability. International Journal of Pressure
Vessels and Piping, 83, 742-748.
SCHERER, M.; MORSCH, I. B.; REAL, M. V. (2019), Reliability of reinforced concrete beams designed
in accordance with Brazilian code NBR-6118:2014, Revista IBRACON de Estruturas e Materiais, 12,
1086–1125.
SILVA JUNIOR, F. E. S. (2019), “Estudo da confiabilidade de vigas de concreto armado reforçadas com
fibra de carbono através de modelo computacional.” Dissertação de Mestrado, Universidade Federal
do Rio Grande, Rio Grande do Sul.
YOUN, B. D.; CHOI, K. K.; DU, L. (2005), Adaptive probability analysis using an enhanced hybrid mean
value method. Struct Multidisc Optim 29, 134–148.

STRUCTURAL RELIABILITY ANALYSIS USING MONTE CARLO


SIMULATION METHODS, FORM AND SORM

Abstract. Reliability is a tool that is having a growing and importance in engineering, as


it allows to quantify uncertainties in design variables, and thus, assisting in making more
accurate decisions regarding the safety of a structure. In this article, the reliability index
is evaluated using methods such as Monte Carlo simulation simple and sampling by
importance, and the transformation methods FORM (First Order Reliability Method) and
SORM (Second Order Reliability Method) applied to seven examples of nonlinear limit
state functions. The reliability indexes and the probability of failure are obtained through
the Python language. The results of Monte Carlo simple simulation method and sampling
by importance proved to be quite efficient in the analyzed examples. The SORM method
improved the results of the FORM, including additional information about the curvature
of the limit state function. The objective of this work is to compare methods of structural
reliability, applied to examples of limit state functions and, thus, to analyze the results as
to the efficiency of the application of the method, taking into account their precision.
Keywords: Estructural Reliability, MCS, MCAI, FORM, SORM.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 outubro 2020

363
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

USO DE MODELOS DE SUAVIZAÇÃO EXPONENCIAL PARA ANÁLISE DE


SÉRIE TEMPORAL

Francisco Tadeu Sousa1 – tadeu1205@gmail.com


Carla Simone de Albuquerque1 – carla19matematica@gmail.com
Alejandra Bustillos Vega1 – bvalect@gmail.com
Rudi da Silva Moreira1 – rudicapivarense@gmail.com
Viviane Leite Dias de Mattos1 – viviane.leite.mattos@gmail.com
1
Universidade Federal do Rio Grande – PPG em Modelagem Computacional, Rio Grande, RS, Brazil

Resumo. O presente trabalho consiste na análise de série temporal organizada


cronologicamente para a previsão das emissões de Dióxido de Carbono no Brasil. A série
não é estacionária, razão pela qual foram utilizados métodos de Suavização Exponencial
para modelá-la utilizando diferentes pontos de corte na determinação dos períodos de ajuste
e de validação. As modelagens foram realizadas com pontos de corte em 75%, 80%, 85% e
90% do total da série, sendo o melhor modelo identificado pelos critérios de informação. O
melhor modelo de ajuste e previsão são com o ponto de corte em 90%, embora não tenham
sido o mesmo. A principal contribuição desse estudo consiste em destacar a importância de
uma localização correta do ponto de corte em uma análise de série temporal, que deve ser
determinada levando-se em consideração que o padrão dos dados no período de ajuste seja
similar ao padrão deste no período de validação. Para esse estudo não foi possível escolher
um único e melhor modelo para a análise da série temporal estudada.

Palavras-chave: Série temporal. Ajustes. Previsão. Suavização Exponencial.

1. INTRODUÇÃO

Uma sequência de observações de uma variável aleatória ao longo do tempo é


denominada série temporal, caracterizando-se como uma possível realização de um processo
estocástico. Sua modelagem permite identificar um padrão de comportamento para a variável
aleatória, possibilitando a realização de previsões (Morettin e Toloi, 2006).
Os métodos estatísticos de previsão para séries temporais baseiam-se na ideia de que as
observações passadas da série contêm informações sobre o seu padrão de comportamento no
futuro. A essência desses métodos consiste em identificar o padrão de comportamento da

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

364
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

série, separando-o do ruído contido nas observações individuais, e utilizá-lo para prever os
valores futuros (Henning et al., 2010).
Nesse contexto, analisar uma série temporal relacionada a um conjunto de dados que
difere dos demais por ser ordenado cronologicamente, ou seja, todos os dados se referem ao
mesmo fato, no entanto, em períodos diferentes, é analisar a possibilidade da evolução de
determinado fato ao longo do tempo. Os métodos de análise para séries temporais auxiliam na
compreensão do estudo, assim como, fornecem instrumentais matemático-metodológicos para
fazer previsões.
Esse trabalho consiste na análise de série temporal usando os modelos do método de
Suavização Exponencial para a previsão das emissões de Dióxido de Carbono (CO2) no
Brasil – gás que é o principal responsável pelo aquecimento global e pelas mudanças
climáticas.
Entender o padrão de evolução da série temporal ao longo dos anos e identificar o melhor
modelo para a previsão, além de justificar o desenvolvimento deste estudo, também torna essa
investigação importante. O objetivo desse trabalho é mostrar a importância do período de
validação ter um padrão de comportamento similar ao período de ajuste para identificar o
melhor modelo de previsão, usando alguns modelos do método suavização exponencial.

2. FUNDAMENTAÇÃO TEÓRICA

Tomaz et al. (2018) em seu estudo avaliou o desempenho dos modelos de suavização
exponencial, o que foi feito em quatro séries de dados com diferentes propriedades. Os
resultados encontrados mostram que estes modelos, apesar de sua simplicidade, podem ser
utilizados com sucesso, sendo aconselháveis para previsões de curto prazo e para séries que
não apresentem mudanças severas em seu comportamento. Para previsões de longo prazo,
constataram que esses modelos não apresentaram bom desempenho, sugerindo recorrer a
alternativas, como por exemplo aos modelos de Box- Jenkins.
Martin et al. (2016) utilizaram o método de Suavização Exponencial Simples e os
modelos ARIMA na previsão da evolução do número de automóveis no Município de
Joinville. Foi realizada uma análise dos resíduos para verificar a adequação dos modelos
encontrados que também foram avaliados pelos erros de previsão. Como conclusão, os
autores afirmam que o modelo de Suavização Exponencial pode ser uma alternativa, mas o
melhor modelo foi encontrado por meio do método ARIMA. Os autores ainda salientaram que
os métodos de previsão são fundamentais para auxiliar na tomada de decisão, visto que por
meio deles é possível encontrar informações sobre vendas futuras, mesmo com certo grau de
imprecisão.
Bastos (2016) utilizou e analisou o método de Tendência Linear, o modelo Sazonal de
Holt-Winters e a metodologia Box-Jenkins na previsão da série mensal de produção nacional
de óleo diesel. Os resultados mostraram um melhor desempenho do modelo de Holt-Winters,
porém o método de Tendência Linear foi superior ao modelo ARIMA na previsão.
Diante do exposto, observa-se que dependendo da propriedade dos dados, ambas
metodologias podem apresentar bons resultados. Hyndman e Athanasopoulos (2019)
salientam que os modelos de suavização exponencial lineares são casos especiais dos modelos
ARIMA, o mesmo não acontecendo com os modelos de suavização exponencial não lineares.
Além disso, existem vários modelos ARIMA que não possuem um correspondente entre
aqueles de suavização exponencial.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

365
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. METODOLOGIA

Série temporal é um conjunto de dados de uma determinada variável observada


cronologicamente em intervalos regulares. As séries podem ser analisadas com dados diários,
mensais, trimestrais ou anuais, entre outros.
A série temporal considerada para o presente estudo corresponde ao conjunto de
observações anuais, desde 1960 a 2014, da emissão de CO2 no Brasil, sendo sua modelagem
realizada por meio dos métodos de Suavização Exponencial.
Para classificar estes métodos, deve-se considerar o comportamento da tendência e da
sazonalidade da série. A tendência pode ser caracterizada em cinco tipos: nenhuma (N),
aditiva (A), aditiva amortecida (Ad), multiplicativa (M) ou multiplicativa amortecida (Md). Já
a sazonalidade é classificada em: sem sazonalidade (N), com sazonalidade aditiva (A) ou com
sazonalidade multiplicativa (M). Ao considerar essas variações, pode-se verificar a existência
de vários modelos, sendo considerados neste estudo aqueles apresentados no Tab. 1.

Tabela 1 – Métodos de Suavização Exponencial


MODELO DESCRIÇÃO
ANN Suavização exponencial simples com erros aditivos
MNN Suavização exponencial simples com erros multiplicativos
AAN Tendência linear aditiva
AAdN Tendência linear aditiva amortecida
MMN Tendência multiplicativa
MMdN Tendência multiplicativa amortecida
MAN Tendência linear aditiva com erros multiplicativos
MAdN Tendência linear aditiva amortecida com erros multiplicativos

Os dados foram obtidos em IDA (2019), que possui um enorme conjunto de dados de
vários países, constantemente atualizados com inúmeras variáveis. As informações utilizadas
neste trabalho são observações anuais.
A análise dos dados foi realizada no software R (RStudio, 2019). Para a análise de séries
temporais, fez-se uso do pacote "forecast" (Hyndman e Khandakar, 2008), com o qual é
possível realizar as previsões de demanda pelo método Suavização Exponencial. Depois de
dividir a série em período de ajuste e período de validação, a modelagem foi realizada no
período de ajuste, sendo os melhores modelos identificados pelos Critérios de Informação de
Akaike (AIC), de Akaike corrigido (AICc) e de Schwartz (BIC). Depois de avaliar a presença
de autocorrelação nos resíduos pelo teste de Ljung-Box, para verificar a adequação dos
modelos encontrados para a previsão, os erros de previsão são analisados. Foram eles: MAE
(Erro Médio Absoluto), RMSE (Raiz do Erro Médio Quadrático) e MAPE (Erro Médio
Percentual Absoluto).
As previsões não são exatas e o erro associado é maior quanto maior for o horizonte de
predição (Moreira, 2008). De acordo com essa informação, existem diversas formas de avaliar
uma série temporal para ajustar um modelo aos seus dados no que se refere à definição dos
períodos de ajuste e de validação. Nesse estudo, foram feitas diversas modelagens
considerando o período de ajuste contendo 75%, 80%, 85% e 90% do total de dados da série,
sendo os restantes considerados para a sua validação. A análise foi replicada considerando-se
o mesmo horizonte de previsão para todos os pontos de corte.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

366
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. RESULTADOS

A Figura 1 apresenta o comportamento dos dados ao longo dos anos, enquanto a Fig.
2, o gráfico da função de auto correlação amostral (FAC).

Figura 1 – Comportamento dos dados ao longo dos anos

Figura 2 – Funções de auto correlação amostral

Na Figura 1 o gráfico em linha mostra o desenvolvimento geral da série temporal,


evidenciando que a emissão de CO2 está aumentando entre 1965 e 1980, apresenta uma
estabilidade até 2010 e novamente os dados crescem consideravelmente até 2014, sofrendo
alterações ao longo tempo. Percebe-se facilmente que a série não é estacionária, pois
apresenta uma tendência crescente. Pela Fig. 2, os gráficos de ACF e ACF parcial confirmam
a não estacionariedade da série e a autocorrelação entre os dados.
Para estimação do melhor modelo na realização de previsões, foram analisados alguns
modelos (Tab. 1) de Suavização Exponencial. O melhor modelo de ajuste é aquele com
tendência linear aditiva amortecida (AAdN) para todos os pontos de corte considerados, que
forneceu os critérios de informações considerados neste estudo, que são AIC, AICc e BIC,
apresentados na Fig. 3.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

367
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3 – Critérios de informações para o melhor modelo de ajuste (AAdN)

Observando os critérios é possível perceber que para este modelo, o melhor ponto de
corte é em 90% por apresentar menor critério de informação, como mostra a Fig. 3.
Para identificação do melhor modelo para previsão, foram analisados os valores das
medidas MAE, RMSE e MAPE, dos dados previstos com os observados no horizonte de
previsão. Observa-se que os menores valores de erros com os diferentes pontos de corte são
diferentes daqueles encontrados para o melhor modelo de ajuste (AAdN), como mostra o Tab.
2, mas percebe-se também que o ponto de corte em 90% é também o melhor modelo nos
contextos analisados.

Tabela 2 – Comparativo entre os erros para previsão


Erros do melhor modelo de ajuste
Ponte de corte (modelo) MAE RMSE MAPE
75% (AAdN, h=14) 0,28132 0,19382 8,50612
80% (AAdN, h=11) 0,60965 0,52037 23,22321
85% (AAdN, h=9) 0,44240 0,36379 15,39706
90% (AAdN, h=6) 0,21014 0,17250 7,31076
Erros dos melhores modelos na validação
Ponto de corte (modelo) MAE RMSE MAPE
75% (AAN, h=14) 0,14805 0,17288 7,25853
80% (MAN, h=11) 0,19434 0,27058 8,29053
85% (MAN, h=9) 0,25606 0,31708 10,79161
90% (AAN, h=6) 0,11273 0,13796 4,89985

Considerando que o erro associado é maior quanto maior for o horizonte (h), para
encontrar o melhor modelo com o mesmo horizonte de predição, foi realizada uma análise
com o mesmo período de validação para a previsão em comparação com os dados observados,
nesse caso h=6 para todos os pontos de corte. Analisando o Tab. 3, percebe-se que os menores
erros são com o ponto de corte em 75%, tanto para o melhor modelo de ajuste (AAdN) como
para o de validação (ANN), sendo esse o modelo que apresenta os valores mais baixos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

368
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3 – Comparativo entre os erros de previsão para o mesmo horizonte de previsão


Erros de melhor modelo de ajuste
Modelo de ajuste MAE RMSE MAPE
75% (AAdN, h=6) 0,08132 0,07138 3,91536
80% (AAdN, h=6) 0,28087 0,26228 13,69790
85% (AAdN, h=6) 0,29873 0,24649 11,21788
90% (AAdN, h=6) 0,21013 0,17250 7,31076
Menores erros de modelo de validação
Modelo de previsão MAE RMSE MAPE
75% (ANN, h=6) 0,04013 0,05092 2,20865
80% (MAN, h=6) 0,04668 0,05095 2,41351
85% (MAN, h=6) 0,16650 0,20425 7,56285
90% (AAN, h=6) 0,11273 0,13796 4,89985

Comparando os erros do MAE, RMSE e MAPE, e considerando teoricamente o menor


valor de erro como sendo 0,0401313, correspondente ao modelo ANN, e independente do
modelo o corte que apresenta melhores resultados é 75%. Isso acontece porque o horizonte
levado em conta na análise de validação para cada corte corresponde a padrões de
comportamento diferentes dos ajustes. Logo, o resultado da análise da previsão não
corresponde a um padrão de comportamento real.
Nas Figuras 3 e 4 são apresentados os gráficos de previsão com os melhores modelos de
ajuste e previsão com os pontos de corte em 75% e 90%.

Figura 3 – Melhores modelos para ajuste com ponto de corte em 75%

Figura 4 – Melhores modelos para ajuste com ponto de corte em 90%

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

369
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O comportamento das previsões com pontos corte em 75% e 90% são os que melhor se
ajustam. No caso do ponto de corte em 75% (Figura 3), o modelo ANN tem os menores
valores de erro, mas não cumpre com um padrão similar com os dados de ajuste. Observando
a Fig. 4, os melhores modelos com ponto de corte em 90% possuem um padrão equivalente da
previsão em consideração com os dados de ajuste.

5. CONCLUSÕES

O modelo de suavização exponencial tem a desvantagem de apresentar dificuldade em


realizar previsões a longo prazo. Ao mesmo tempo a facilidade para atualização das previsões
é uma boa vantagem do modelo.
Ao usar todos os modelos ajustados com um horizonte de previsão de 6 anos, há perda de
valores nos casos dos pontos de corte em 75%, 80% e 85%, razão pela qual acredita-se que o
melhor modelo passou a ser aquele com ponto de corte em 75% em comparação com a análise
da previsão usando a validação com quantidade de anos diferentes. Porém, os erros desse
ponto de corte se mostraram bem satisfatórios em relação aos demais. Isso ocorreu porque no
intervalo entre 2000 a 2006 houve uma estabilização, por isso os resultados se mostraram bem
melhores em consideração aos outros analisados. Então, nesse caso, por não ser usado todos
os valores, não seria correto levar em consideração esse ponto de corte com uma validação de
6 anos para escolha do melhor resultado.
Os resultados que apresentaram o melhor modelo de ajuste e previsão são com o ponto de
corte em 90%, mas que pode ter sido influenciado por um horizonte de predição menor. Dessa
forma, a análise dos erros e a verificação dos padrões de comportamento da série temporal é
de fundamental importância na escolha do melhor modelo.
A principal contribuição desse estudo consiste em destacar a importância do ponto de
corte correto em uma análise de série temporal, levando em consideração que o padrão dos
dados no período de ajuste tem que seguir o mesmo padrão do período de validação.
Ainda, conclui-se que para esse estudo não foi possível escolher um único e melhor
modelo para a análise da série temporal estudada. Isso se deve ao fato de não podermos
utilizar os mesmos modelos considerados melhores para ajuste e validação.

AGRADECIMENTOS

Os autores agradecem à Coordenação de Aperfeiçoamento de Pessoal de Nível Superior


(Capes) pelo apoio financeiro no desenvolvimento deste estudo.

REFERÊNCIAS
Bastos, R. F. (2016), “Avaliação de Desempenho de Modelos de Séries Temporais para Previsões da Produção
de Óleo Diesel Nacional”, Simpósio de Pesquisa Operacional & Logística da Marinha (SPOLM), Rio de
janeiro.
IDA (2019), International Development Association. WorCarbon Dioxide Information Analysis Center,
Environmental Sciences Division, National laboratory, Tennessee, United States. Disponível em:
https://data.wordbank.org. Acesso em: nov., 2019.
HENNING, E.; ALVES, C. c.; KONRATH, A. C. (2010), “Previsão de vendas de rodízios para móveis em uma
empresa de médio porte”, Americs International Conference on Production Research, Proceedings,
Colômbia, Bogotá.
HYNDMAN, R. J.; ATHANASOPOULOS, G. (2019), “Forecasting: principles and pratice”, 3 ed., OTexts:
Melbourne, Australia.
HYNDMAN, R. J.; KHANDAKAR, Y. (2008), Automatic time series forecasting: The forecast package for R.
Journal of Statistical Software, 27, 122.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

370
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

MARTIN, A. C.; HENNING, E.; WALTER, O. M. F. C.; KONRATH, A. C. (2016), Análise de series temporais
para previsão da evolução do número de automóveis no município de Joinville. Revista ESPACIOS, 37.
MOREIRA, D. A. (2008), “Administração da Produção e Operações”, 2 ed., Cengage, Learning, São Paulo.
MORETTIN, P. A.; TOLOI, C. M. C. (2006), “Análise de series temporais”, 2 ed., Blucher, São Paulo.
R CORE TEAM. R: A Language and Environment for Statistical Computing (2019), R Foundation for Statistical
Computing, Vienna, Austria. Disponível em: https://www.R-project.org. Acesso em: agosto 2019.
TOMAZ, P. S.; MATTOS, V. L. D.; NAKAMURA, L. R.; NUNES, G. S. (2018), O uso de métodos de
Suavização Exponencial na modelagem de series temporais sem sazonalidade. Anais do 8º MCSul/VIII
SEMENGO.

USE OF EXPONENTIAL SMOOTHING MODELS FOR TIME SERIES ANALYSIS

Abstract. The present work consists of the analysis of a time series organized chronologically
for the prediction of carbon dioxide emissions in Brazil. The series is not stationary, which is
why Exponential Smoothing methods were used to model it using different cutoff points in
determining the adjustment and validation periods. The modeling was carried out with cut-off
points at 75%, 80%, 85% and 90% of the total series, the best model being identified by the
information criteria. The best fit and forecast model is with a cutoff point of 90%, although
they have not been the same. The main contribution of this study is to highlight the
importance of a correct location of the cutoff point in a time series analysis, which must be
determined taking into account that the pattern of the data in the adjustment period is similar
to the pattern of this in the period of validation. For this study it was not possible to choose a
single and best model for the analysis of the studied time series.

Keywords: Time series. Settings. Forecast. Exponential Smoothing.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

371
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

UM MODELO BASEADO EM REDES NEURAIS RECORRENTES PARA PREVISÃO


DA DENSIDADE DE DESCARGAS ELÉTRICAS NA REGIÃO SUL DO BRASIL

Adriano Pereira Almeida1 - adriano.almeida@inpe.br


Alan James Peixoto Calheiros1 - alan.calheiros@inpe.br
Amita Muralikrishna1 - amita@ifsp.edu.br
Felipe Carvalho de Souza1 - felipe.carvalho@inpe.br
Helvécio Bezerra Leal Neto1 - helvecio.neto@inpe.br
1 Instituto Nacional de Pesquisas Espaciais - São José dos Campos, SP, Brazil

Resumo. As tempestades severas e os eventos relacionados a elas são alguns dos fenômenos
naturais com maior poder destrutivo. As descargas elétricas atmosféricas associadas às tem-
pestades severas são responsáveis por causarem grandes prejuı́zos sócio-econômicos. As fa-
talidades humanas causadas por esses fenômenos estão entre as principais motivações para se
estudá-los. Além disso, outros efeitos indiretos podem ser provocados por esses eventos, por
exemplo: a degradação de construções ou interrupções de serviços de transmissão de energia
e comunicação. Este trabalho apresenta um modelo para previsão a curto prazo da densidade
de descargas elétricas na região sul do Brasil utilizando a rede neural recorrente Long Short-
Term Memory. Os dados são provenientes dos instrumentos ABI e GLM, que estão a bordo
do satélite geoestacionário GOES-16. É apresentado como caso de estudo os eventos meteo-
rológicos severos que aconteceram entre os dias 14 e 15 de agosto de 2020, que desencadearam
a formação de tornados que atingiram alguns municı́pios do estado de Santa Catarina. Por fim,
são apresentadas detalhadamente as avaliações do modelo e discutido os resultados obtidos.

Keywords: Redes Neurais Recorrentes, Long Short-Term Memory, Tempestades Severas, Descar-
gas Elétricas Atmosféricas

1. INTRODUÇÃO

Os raios são fenômenos extremamente sinuosos e caóticos que são provenientes do processo
de eletrificação das nuvens (Williams, 2005). Esse processo acontece como consequência da
separação das cargas elétricas no interior da nuvem, uma possı́vel consequência das colisões
entre as partı́culas que a compõe. Segundo a definição atribuı́da por Rakov (2016), o raio é uma
descarga elétrica transitória de alta corrente no ar composta por gás ionizado, cuja temperatura
pode chegar até quase 30000◦ C. O rompimento da resistência do ar pelo canal ionizado por onde
o raio se desenvolve faz com que seja gerado um aquecimento intenso acompanhado de efeitos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

372
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

luminosos (conhecidos como relâmpagos) e sonoros (conhecidos como trovões) (Visacro, 2005,
p. 40).
De acordo com as definições e terminologias definidas nos estudos de Schonland (1956) e
Uman, McLain (1969), as descargas elétricas mais comuns podem ser classificadas em nuvem-
solo (CG - sigla do inglês, cloud-to-ground) e intra-nuvem (IC - sigla do inglês, intra-cloud).
O raios CG são aqueles que interagem entre as nuvens e a superfı́cie da terra ou com objetos
sobre ela (e.g. construções, árvores, etc), podendo estes serem positivos (CG+), quando cargas
de prótons trilham em direção ao solo, ou negativos (CG-), quando partı́culas de elétrons vão
de encontro ao solo a partir das nuvens (Shafer et al., 2000; Lynn et al., 2012). Os raios IC
são consideradas as descargas elétricas que não interagem com a superfı́cie da terra, podendo
acontecer tanto no interior de uma nuvem, como também interagir com outras nuvens ou com
o ar (Williams, 2001, p. 550-552).
O Brasil possui caracterı́sticas bastante favoráveis para o desenvolvimento de tempestades
elétricas, dentre elas estão a sua grande extensão territorial e alta atividade convectiva, sendo
um dos paı́ses com a maior incidência de raios no mundo (Albrecht et al., 2016). Por ser um
paı́s de dimensões continentais, acaba sendo alvo de um grande número de descargas elétricas
atmosféricas ao longo do ano, chegando a serem registrados até 77,8 milhões por ano, de acordo
com estimativa feita pelo Grupo de Eletricidade Atmosférica (ELAT)1 do Instituto Nacional de
Pesquisas Espaciais (INPE). Essa alta incidência de raios é responsável por uma média de 132
mortes por ano (Cardoso et al., 2014).
As tempestades severas com alta atividade elétrica no Brasil podem ser monitoradas princi-
palmente por meio das redes de detecção de raios, radares e satélites meteorológicos. As redes
de detecção de raios podem registrar a ocorrência de raios à dezenas de quilômetros de distância
com uma alta resolução temporal e espacial, porém a cobertura desses equipamentos não é su-
ficiente para suprir a demanda de todo o território brasileiro, limitando sua utilidade somente
para algumas regiões (Huamán, 2018). Assim como as redes de detecção, os radares meteo-
rológicos também possuem limitações de cobertura no Brasil, embora possam ter um alcance
superior às redes anteriormente mencionadas, estes instrumentos são eficazes no monitoramento
de tempestades, mas não medem diretamente as descargas elétricas. Restam aos satélites, que
recentemente, a partir dos sensores Advanced Baseline Imager (ABI) e Geostationary Lightning
Mapper (GLM) a bordo da nova geração de satélites Geostationary Operational Environmen-
tal Satellite (GOES-16) vem fornecendo continuamente informações sobre tempestades para
todo o território brasileiro, mesmo às vezes não tendo uma excelente resolução espacial e a
precisão das estações de superfı́cie, os dados desses instrumentos são bastante úteis para re-
alizar análises em grande escala. No geral, todos os instrumentos de observação possuem suas
vantagens e desvantagens.
Algumas condições podem influenciar no rápido desenvolvimento das tempestades, por-
tanto, identificar essas condições em seus estágios iniciais e estipular com precisão sua evolução,
pode antecipar estratégias para tomadas de decisões cruciais. Dentre as escalas de previsão em
meteorologia, aquele que mais se aplica ao monitoramento e previsão das tempestades é o now-
casting (previsão a curtı́ssimo prazo, até 6 horas). O nowcasting tem como caracterı́stica prin-
cipal levar em consideração as condições ambientais regionais e assimilar a maior quantidade
de informações no menor tempo possı́vel, e a partir delas fornecer subsı́dios para realizar pre-
visões meteorológicas. Sendo assim, esses sistemas tendem a serem especialistas para regiões

1
http://www.inpe.br/webelat/homepage/menu/el.atm/perguntas.e.respostas.php

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

373
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e perı́odos especı́ficos, e a sua adaptação para outros contextos pode ser bem complexa, depen-
dendo da abordagem utilizada para o seu desenvolvimento.
A utilização de técnicas de inteligência artificial tem mostrado resultados promissores na
previsão de tempestades severas (Manzato, 2007; Collins, Tissot, 2016; Nordin Stensö, 2018).
Dentre essas técnicas, estão presentes desde as abordagens que fornecem respostas mais in-
tuitivas como as árvores de decisões até abordagens mais complexas como as redes neurais
com camadas profundas. A partir de dados obtidos através dos mais variados instrumentos
de observação é possı́vel aplicar algoritmos de aprendizado de máquina que podem encontrar
padrões meteorológicos em cada região do Brasil, e com isso prover novas informações que
são importantes para a melhoria de sistemas de previsão, podendo ser tão robustas quanto os
métodos tradicionais de previsão baseado em modelos matemáticos e fı́sicos.
Embora os raios sejam fenômenos de alta variabilidade, tornando-os difı́ceis de prever
(Williams, 2005), os modelos baseados em inteligência artificial podem extrair informações
relevantes a partir de algumas variáveis meteorológicas e assim auxiliar na sua previsão. Sendo
assim, este trabalho apresenta um modelo utilizando a rede neural recorrente (RNN - sigla do
inglês, Recurrent Neural Network) denominada Long Short-Term Memory (LSTM) (Hochreiter,
Schmidhuber, 1997) para previsão de descargas elétricas a curto prazo na região sul do Brasil,
a partir de dados do satélite geoestacionário GOES-16.

2. MATERIAIS E MÉTODOS

Os dados utilizados neste trabalho são provenientes dos sensores ABI e GLM do satélite
GOES-16. O ABI é um radiômetro passivo que possui 16 bandas espectrais operando em difer-
entes comprimentos de onda em canais do visı́vel e infravermelho (Schmit et al., 2005). As
imagens completas obtidas a partir do imageamento dos canais do ABI são utilizadas para iden-
tificar caracterı́sticas distintas na superfı́cie e/ou na atmosfera com resolução espacial de até
500 metros, disponibilizadas gratuitamente a cada 10 minutos. O GLM é um instrumento que
tem como finalidade identificar descargas elétricas atmosféricas a partir da radiância emitida
pelo topo das nuvens a cada 20 segundos (Goodman et al., 2012). O produto base do GLM é o
Evento, que é gerado a partir da detecção de um certo limiar de energia no topo das nuvens. Os
Eventos são agrupados pelo algoritmo Lightning Cluster Filter Algorithm (LCFA) (Goodman
et al., 2012), gerando o produto Grupo, e com a aplicação do LCFA nos Grupos são criados os
produtos Flashes.
Para este trabalho foram utilizadas imagens do canal 13 do ABI. Este canal possui resolução
espacial de 2 km e opera no infravermelho de onda longa com comprimento de 10,35µm.
Através deste canal é possı́vel realçar as temperaturas de brilhos menores que -40o C, com a
finalidade de identificar nuvens formadas exclusivamente por cristais de gelo, caracterı́stica
presente em tempestades severas e bastante favorável para a ocorrência de raios (Lindsey et al.,
2006; Huamán, 2018). Os dados referentes às descargas elétricas são provenientes do produto
Flash do GLM, que consiste de um conjunto de pulsos ópticos agrupados pelo algoritmo LCFA,
que foram detectados dentro do intervalo de tempo de até 330 milissegundos e uma distância
de até 16,5 km. Através dos Flashes é possı́vel identificar o total de raios intra-nuvem e al-
guns tipos de raios nuvem-solo com uma eficiência de até 70% (Goodman et al., 2012). Para
realizar as previsões das descargas elétricas a curto prazo foi utilizada uma rede neural recor-
rente. As arquiteturas tradicionais de redes neurais, denominadas feedforward, possuem uma
certa limitação quando o resultado da previsão está diretamente associada com os dados que a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

374
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

antecedem, uma vez que nesse tipo as informações processadas pelos neurônios são transmiti-
das somente para as camadas subsequentes. Já as arquiteturas das RNN incluem loops, os quais
permitem repassar as informações processadas de forma recursiva para uma representação de
sequência predefinida de neurônios internos antes de enviar para a próxima camada. Esse tipo
de rede usa suas conexões feedback para armazenar as representações de eventos de entradas
recentes, agindo como uma memória de curto prazo (Dupond, 2019). A Figura 1 mostra um
esquema do processo de desenrolamento de um neurônio da rede neural recorrente.
<t>
x
<0> <1> <2> <t>
x x x x

<t>
y
<0> <1> <2> <t>
y y y y

Figura 1- Processo de desenrolamento de um neurônio de uma RNN.

As RNN possuem diversas variações, e a utilizada neste trabalho foi a LSTM. A LSTM
possui uma memória que dura mais tempo em relação às arquiteturas tradicionais de RNN,
garantindo que uma informação importante que foi passada no inı́cio de um série temporal não
seja perdida durante o treinamento, isso acontece devido aos seus blocos de memória denomina-
dos de células (Hochreiter, Schmidhuber, 1997). Para evitar os problemas de desaparecimento
ou explosão de gradiente, as células da LSTM possuem uma estrutura (Figura 2) utilizada para
gerenciar as informações que são aprendidas e esquecidas pela rede, essa estrutura é composta
principalmente pelos seguintes componentes:

Forget gate f: Recebe como entrada a saı́da do estado anterior, que é somado a um bias e apli-
cado à uma função sigmoide (σ) para decidir sobre o que deve ser eliminado (valores próximos
de 0) ou mantido (valores próximos de 1), com isso a rede simula uma memória de longo prazo
que mantém somente as informações relevantes. O forget gate é definido pela Equação 1, onde
Wi são os pesos atribuı́dos aos seus neurônios, ht−1 é a saı́da do estado anterior, xt é a entrada
do estado atual e bi é um bias somado à matriz e pesos.

f = σ(Wi [ht−1 , xt ] + bi ) (1)

Input gate i: Recebe como entrada a saı́da do estado recém calculado pelo forget gate e sub-
mete de forma individual para as funções de ativação sigmoide (σ) e tangente hiperbólica
(tanh), o resultado obtido é multiplicado e enviado para o próximo estado. O input gate pode
ser definido pela Equação 2.

i = σ(Wi [ht−1 , xt ] + bi ) ∗ tanh(Wi [ht−1 , xt ] + bi ) (2)

Cell state c: Recebe a soma das informações geradas pelo forget gate e input gate: c = f + i.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

375
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Output gate o: Recebe como entrada a saı́da gerada pelo cell state aplicada à uma função de
ativação tangente hiperbólica (tanh) multiplicado pela saı́da gerada pelo input gate aplicado à
função de ativação sigmoide (σ). É aplicada uma função de sigmoide no resultado que é enviado
para a próxima camada da rede. O output gate pode ser definido pela Equação 3.

o = σ(tanh(c) ∗ σ(i)) (3)

<t>
x

σ σ tanh σ x

x
tanh

x +

<t>
y

Figura 2- Representação de uma célula de memória da LSTM.

Após realizar alguns testes e ajustes nos hiperparâmetros da rede, foi definida para este tra-
balho a arquitetura representada pela Figura 3. A camada de entrada recebe uma série temporal
que pode variar seu comprimento entre 1 e 12 tempos anteriores. A primeira camada oculta é
composta por uma célula LSTM com 100 neurônios, a segunda e terceira camadas ocultas são
compostas por 50 neurônios cada, ambas utilizando a função de ativação tangente hiperbólica
(tanh) e dropout de 20%, a fim de evitar o overfitting. Foram definidas 500 épocas para o treina-
mento, com lotes de tamanho 32 (batches), método de otimização Adam (Kingma, Ba, 2014),
com a taxa de aprendizado em 0,001. O erro foi medido pela função Mean Square Error (MSE)
e a acurácia pela Mean Absolute Error (MAE).

Entrada Saída

100 Neurônios 50 Neurônios 50 Neurônios 1 Neurônio


20% Dropout 20% Dropout 20% Dropout 0% Dropout
tanh tanh tanh sigmoid

Figura 3- Representação de uma célula de memória da LSTM.

Como supracitado, foram utilizados os dados referentes aos dias 14 e 15 de agosto, tota-
lizando 288 registros. Desse total, 85% dos dados foram utilizados para treinamento e 15% para
teste e validação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

376
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS

Os dados referentes ao perı́odo selecionado contém condições variadas, em que é possı́vel


observar tendências de acréscimo e decréscimo da ocorrência total de raios, tendo seu pico
máximo à 01:00 hora do dia 15 de agosto. A Figura 4 mostra o total raios computados por hora
pelo produto Flash do GLM, com o horário centralizado em 00:00 hora.
TOTAL DE GLM FLASHES POR HORA
14-08-2020
15-08-2020

20000

15000
Total de flashes

10000

5000

0
12:00 13:00 14:00 15:00 16:00 17:00 18:00 19:00 20:00 21:00 22:00 23:00 00:00 01:00 02:00 03:00 04:00 05:00 06:00 07:00 08:00 09:00 10:00 11:00
Hora

Figura 4- Total de raios computados por hora pelo produto Flash do GLM.

Erro durante o treinamento Acurácia durante o treinamento


0.010 GLM GLM
GLM e ABI 0.06 GLM e ABI

0.008
0.05
Mean Absolute Error (MAE)
Mean Squared Error (MSE)

0.006 0.04

0.004 0.03

0.002 0.02

0.01
0.000
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Comprimento da série temporal Comprimento da série temporal

Figura 5- Erro e acurácia após o treinamento da LSTM em diferentes configurações.

Os testes realizados consistiram, de forma geral, em dois tipos: utilizando somente dados
de raios (GLM) e dados de raios com dados da temperatura de brilho do topo das nuvens (GLM
e ABI). Em ambos os casos, foram testadas variações entre 1 e 10 no tamanho da série temporal
de entrada, ou seja, os valores dos dados em tempos anteriores incluindo o tempo atual. A
Figura 5 mostra os valores das funções de erro e acurácia após o treinamento do modelo com
diferentes tamanhos da série temporal. Pode ser observado que com a inclusão dos dados do

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

377
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sensor ABI, o erro tende a ter uma variação menor. Ainda na Figura 5, pode ser notado que
utilizando até quatro tempos, o erro da previsão é menor.
Por ser um evento extremamente caótico, como abordado anteriormente, a previsão exata
do número de raios detectados se torna uma tarefa difı́cil, sendo assim, busca-se na previsão
de eventos meteorológicos a aproximação maior possı́vel dos eventos observados. A Figura
6 mostra o comparativo entre as informações observadas e previstas pela rede com entradas
de tamanho 1 e 4, usando o conjunto de dados separado para teste. Nela, pode ser observado
que para a maioria dos casos, os valores previstos se aproximam do valor real, capturando a
tendência dos eventos de forma coerente.
Série temporal de tamanho 1 Série temporal de tamanho 1
Flashes observados X Flashes previstos Flashes observados X Flashes previstos
Observados
7000 7000 Previstos

6000 6000

5000 5000

Total de GLM flashes


Total previstos

4000
4000

3000
3000

2000
2000

1000
1000

0
0
0 1000 2000 3000 4000 5000 6000 7000
Total observados
Série temporal de tamanho 4 Série temporal de tamanho 4
Flashes observados X Flashes previstos Flashes observados X Flashes previstos
Observados
Previstos
6000 6000

5000 5000
Total de GLM flashes

4000 4000
Total previstos

3000
3000

2000
2000

1000
1000

0
0
0 1000 2000 3000 4000 5000 6000
Total observados

Figura 6- Valores observados e previstos pela LSTM para as entradas de tamanho 1 e 4.

4. CONSIDERAÇÕES FINAIS

Este trabalho teve como objetivo desenvolver um modelo de previsão a curto prazo (10 mi-
nutos à frente) da densidade de raios para a região sul do Brasil, utilizando a LSTM e os dados
do satélite geoestacionário GOES-16. Após serem testadas algumas configurações, pôde ser ob-
servado que o modelo de previsão baseado somente na variável observada, neste caso o próprio

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

378
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

raio, acompanha a tendência dos eventos, porém a variação do erro é maior em comparação ao
modelo treinado com variáveis complementares associadas ao evento. Além disso, por ser um
evento de alta variabilidade e por se tratar de uma previsão a curto prazo, a entrada com séries
temporais muito longas acabaram prejudicando o resultado previsão, sendo ideal para este caso
em especı́fico, séries temporais de no máximo 4 tempos anteriores ao valor que se deseja prever.
A inclusão de novos dados e a previsão em menor escala se destacam como melhorias
futuras que podem ser incorporadas neste trabalho. Além para utilização do modelo em outras
regiões, é necessário que seja realizado um treinamento com o dados referentes a elas, uma vez
que o Brasil possui caracterı́sticas e padrões meteorológicos distintos entre suas regiões.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal


de Nı́vel Superior - Brasil (CAPES) - Código de Financiamento 001 e ao Conselho Nacional de
Desenvolvimento Cientı́fico e Tecnológico (CNPq), Processo 438310/2018-7.

REFERÊNCIAS

Albrecht Rachel I, Goodman Steven J, Buechler Dennis E, Blakeslee Richard J, Christian


Hugh J. Where are the lightning hotspots on Earth? // Bulletin of the American Meteo-
rological Society. 2016. 97, 11. 2051–2068.
Cardoso I, Pinto Jr O, Pinto IRCA, Holle R. Lightning casualty demographics in Brazil and
their implications for safety rules // Atmospheric Research. 2014. 135. 374–379.
Collins Waylon G, Tissot Philippe. Thunderstorm predictions using artificial neural networks //
Artificial Neural Networks-Models and Applications. 2016.
Dupond Samuel. A thorough review on the current advance of neural network structures //
Annual Reviews in Control. 2019. 14. 200–230.
Goodman Steven J, Gurka James, DeMaria Mark, Schmit Timothy J, Mostek Anthony, Jedlovec
Gary, Siewert Chris, Feltz Wayne, Gerth Jordan, Brummer Renate, others . The GOES-R
proving ground: accelerating user readiness for the next-generation geostationary environ-
mental satellite system // Bulletin of the American Meteorological Society. 2012. 93, 7.
1029–1040.
Hochreiter Sepp, Schmidhuber Jürgen. Long short-term memory // Neural computation. 1997.
9, 8. 1735–1780.
Huamán Joao Henry. Uso de Multi-canais do GOES-16 para Previsão Imediata de Densidade
de Descargas Elétricas. Instituto Nacional de Pesquisas Espaciais, São José dos Campos-SP,
2018.
Kingma Diederik P., Ba Jimmy. Adam: A Method for Stochastic Optimization. 2014.
Lindsey Daniel T, Hillger Donald W, Grasso Louie, Knaff John A, Dostalek John F. GOES
Climatology and Analysis of Thunderstorms with Enhanced 3.9-µ m Reflectivity // Monthly
weather review. 2006. 134, 9. 2342–2353.
Lynn Barry H., Yair Yoav, Price Colin, Kelman Guy, Clark Adam J. Predicting Cloud-to-Ground
and Intracloud Lightning in Weather Forecast Models // Weather and Forecasting. 2012. 27,
6. 1470–1488.
Manzato Agostino. Sounding-derived indices for neural network based short-term thunderstorm
and rainfall forecasts // Atmospheric research. 2007. 83, 2-4. 349–365.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

379
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nordin Stensö Isak. Predicting Tropical Thunderstorm Trajectories Using LSTM. 2018.
(TRITA-EECS-EX).
Rakov Vladimir A. Types of lightning discharges and lightning terminology // Fundamentals of
Lightning. 2016. 1–16.
Schmit Timothy J, Gunshor Mathew M, Menzel W Paul, Gurka James J, Li Jun, Bachmeier
A Scott. Introducing the next-generation Advanced Baseline Imager on GOES-R // Bulletin
of the American Meteorological Society. 2005. 86, 8. 1079–1096.
Schonland Basil F J. The lightning discharge // Handbuch der Physik. 1956. 22. 576–628.
Shafer Mark A., MacGorman Donald R., Carr Frederick H. Cloud-to-Ground Lightning
throughout the Lifetime of a Severe Storm System in Oklahoma // Monthly Weather Re-
view. 2000. 128, 6. 1798–1816.
Uman Martin A., McLain D. Kenneth. Magnetic field of lightning return stroke // Journal of
Geophysical Research (1896-1977). 1969. 74, 28. 6899–6910.
Visacro Silvério. Descargas atmosféricas: uma abordagem de engenharia. 2005.
Williams ER. Lightning and climate: A review // Atmospheric Research. 2005. 76, 1-4. 272–
287.
Williams Earle R. The electrification of severe storms // Severe Convective Storms. 2001.
527–561.

A MODEL BASED ON RECURRENT NEURAL NETWORKS FOR PREDICTING


LIGHTNING DENSITY IN SOUTHERN BRAZIL

Abstract. Severe storms and related events are characterized by their high destructive power.
Lightning strikes associated with severe storms are responsible for causing several socio eco-
nomic problems. Human fatalities caused by these phenomena are among the main motivations
for studying them. In addition, other indirect effects may be caused by these events, for exam-
ple: the degradation of buildings or interruptions in energy transmission and communication
services. This paper presents a model for short-term prediction of the density of lightning in
southern Brazil using the recurrent neural network Long Short-Term Memory. The data comes
from the ABI and GLM instruments, which are on board the geostationary satellite GOES-16.
Severe weather events that took place between August 14 and 15, 2020, which triggered the
formation of tornadoes that affected some cities in the brazilian state of Santa Catarina, are
presented as a case study. Finally, the model evaluations are presented in detail and the results
obtained are discussed.

Keywords: Recurrent Neural Network, Long Short-Term Memory, Severe Storms, Lightnings

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

380
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DO ÂNGULO DE CONTATO E DA TENSÃO INTERFACIAL NA


SUPERFÍCIE DE FIBRAS NATURAIS

Michelle Souza Oliveira1 – oliveirasmichelle@ime.eb.br


Fernanda Santos da Luz1 – fsl.santos@gmail.com
Fabio Costa Garcia Filho2 – fdacostagarciafilho@eng.ucsd.edu
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
Sergio Neves Monteiro1 – sergio.neves@ime.eb.br
1
Instituto Militar de Engenharia – Praça Gen. Tibúrcio, 80 - Urca, Rio de Janeiro - RJ, 22290-270, RJ,
Brazil
2
University of California San Diego – UCSD, Department of Mechanical and Aerospace Engineering,
La Jolla, California, USA

Resumo. Um método para verificar a molhabilidade da superfície é por meio da observação


do efeito de lótus, em que a rugosidade em escalas micro e nanométricas são responsáveis
por sua hidrofilicidade. Este trabalho tem como objetivo estudar a capacidade de superfícies
de fibras naturais em absorver ou repelir água. Para isso, foi utilizada uma técnica de
medição do ângulo de contato baseada na teoria de Young-Laplace. Como resultado, o
ângulo de contato e a tensão de interface nas fibras naturais foram medidos. Uma breve
revisão sobre ângulo de contato em fibras naturais foi realizada. Por fim, são apresentadas
as imagens da queda de acordo com o tipo de superfície e uma análise estatística indicando o
valor médio do ângulo de contato. Foi obtido uma média para o ângulo de contato de 101,66
± 5,43 e a tensão de molhabilidade de 14,70 ± 6,70.

Palavra-chave: Molhabilidade, Fibras naturais, Ângulo de contato, Tensão interfacial

1. INTRODUÇÃO

Nas últimas décadas o interesse mundial voltou-se para fibras vegetais muito utilizadas
antes da 2ª Guerra Mundial e deixado de lado devido à ascensão das fibras sintéticas. Fibras
de origem vegetal são também chamadas de fibras naturais lignocelulósicas (FNL), devido a
sua composição química, contendo celulose, hemicelulose e lignina. Atualmente muitos
estudos têm sido realizados objetivando utilizar as FNL na construção civil, indústria
automobilística, aeronáutica e blindagens balísticas em substituição às fibras sintéticas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

381
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Visando obter peças mais leves e de custo reduzido. Isto deve-se à tendência mundial pela
procura de recursos renováveis e de baixo custo.

Muitas pesquisas têm sido desenvolvidas para utilização de FNLs em aplicações


avançadas, como compósitos, sendo uma alternativa de grande importância de inovação
tecnológica, principalmente para blindagem balística, por ser uma fonte renovável, reciclável,
biodegradável e de baixo custo. Apesar da grande quantidade de trabalhos na área de
compósitos reforçados por fibras naturais são poucos que relatam a medida da molhabilidade
entre a resina e a fibra através do ângulo de contato.
A molhabilidade dos materiais é um assunto importante no desenvolvimento de
tecnologias envolvendo as últimas camadas de átomos de uma superfície. Várias técnicas
podem ser utilizadas na obtenção de dados sobre o quanto um material pode repelir ou
absorver fluidos, técnicas que vão desde ensaior de adsorção ou retenção de moléculas. A
técnica mais comum para medir o ângulo de contato versa sobre a análise de uma suérfície no
que tange a sua molhabilidade a partir da teoria de Young-Laplace, em que é possível definir
um material acerca de sua hidrofilicidade ou hidrofobicidade, quando o fluido em questão é a
água, por exemplo. O efeito lótus, comum em plantas, garante um processo de fotossíntese
eficiente apresentando altas taxas de trocas gasosa, o que é possível devido à prevenção da
superfície em relação à exposição à luz, além de ser uma defesa contra agentes patológicos.
Cabe salientar queo arranjo atômico na superfície diferencia-se da disposição dos átomos
em relação ao volume interno. Desta forma, uma maior energia livre estará sobre a superfície
o que contribuirá para que a adsorção de átomos e moléculas consideradas estranhas seja
maior, aumentando a possibilidade de reações entre o material sintético e o biológico.
A natureza da interação fibra/matriz depende basicamente do grau de contato das
superfícies na interface ou seja, da molhabilidade e das forças coesivas na regão, adesividade.
Estes fatores são independentes pois, se não houver área de contato suficiente entre os
componentes será difícil assegurar boa adesividade entre as fases. A molhabilidade de uma
superfície depende por sua vez da energia superficial destas e da área superficial de contato.
A energia livre de superfície de polímeros é geralmente medida por uma grandez
chamada tensão superficial do sólido (γc). Esta grandeza está diretamente ligada à presença de
grupos polares na superfície e à simetria de distribuição de cargas, ou seja, os momentos de
dipolo da superfície. Geralmente a molhabilidade em sólidos é estudada através do ângulo de
contato (θ) de uma fase líquida num substrato sólido no equilíbrio.
O ângulo de contato (θ) de um líquido é considerado como o resultaso do equilíbrio
mecânico de uma gota deste líquido sobre uma superfície sólida, que sofre a ação de três
tensões superficiais na interface das fases líquido/vapor γLV, sólido/líquido γSL,e sólido/vapor
γSV, representado pela Equação 1 de Yong-Laplace para medição de ângulo de contato.

γSV – γSL = γLV cos θ (1)

Tabela 1. Comparação entre os possíveis comportamentos de fluido em uma superfície.


Ângulo de θ<10° θ<90° θ>90° θ>150°
contato
Forma da gota

Comportamento Super- Hidrofílico Hidrofóbico Super-


hidrofílico hidrofóbico
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

382
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Observando-se a representação de uma gota de líquido sobre uma superfície sólida, tem-
se que com θ=0° há uma tendência espontânea de espalhamento do líquido sobre a superfície
em que é exposto; θ=90° é considerado ângulo de contato limite para espalhamento do líquido
sobre a superfície em que é exposto; e θ=180° não há tendência ao contato entre as superfícies
de ambos.
O ângulo de molhabilidade dá uma noção da molhabilidade entre uma superfície sólida e
um líquido, indicando os parâmetro superficiais para a medida, visto que a tendência do
líquido de espalhar-se sobre uma superfície sólida é inversamente proporcional à θ, o ângulo
de contato é uma medida inversa de molhabilidade. Os parâmetros de molhabilidade, por sua
vez, podem ser correlacionados com a energia de adesão do trabalho deadesão (WA),
representado pela Equação 2 de Young-Dupré.

WA = γSV + γLV – γSL = γLV (1+ cos θ) (2)

Da Equação 2 pode-se afirmar que o trabalho de adesão sólido/líquido, ou seja, entre as


fibras e a matriz, iguala ou supera as forças de coesão do líquido quando o ângulo de contato
θ for igual a zero. Um líquido molha uma superfície sólida smente quando as forças de
atração sólido/líquido igualam ou superam as forças de atração líquido/líquido. A influência
da fase sólida sobre o ângulo de contato pode ser representada por três fatores: a tensão
superficial γSV, a rugosidade da superfície ea temperatura de molhabilidade. A rugosidade
macroscópica de uma superfície sólida é dada por um fator de rugosidade r, definido entre a
razão da área real, que considera os poros da superfície, e a área geométrica, que considera a
projeção planar da superfície, de acordo com a Equação 3.

r = cos θ*/cos θ (2)

Onde θ* é o ângulo de contato aparente e θ é o ângulo de contato intrínseco da superfície


real. A adesão mecânica consiste no entrelaçamento mecânico entre a superfície da fibra e a
matriz. É necessário que a fibra e matriz se encaixem o melhor possível para que haja uma
boa adesão. A resistência ao cisalhamento da interface e o mecanismo de extração de fibras da
matriz, pullout, são influenciados pela adesão mecânica. Por sua vez, a adesão é dependente
da rugosidade superficial, pois quanto maior a rugosidade de uma superfície melhor será a
adesão.
Tratamentos químicos de fibras naturais que diminuem a rugosidade da superfície,
favorecem a flha da interface por deficiência de adesão mecânica, além da influência das
tensõesgeradas pela cura ou diferentes coeficientes de expansão térmica entre fibra e matriz,
que propiciam este tipo de falha. De Paula et al. (1996) apresentaram um interessante estudo
para determinação das medidas de ângulo de contato de sisal/epóxi. O tratamento químico
alcalino realizado nas fibras de sisal diminuiu o ângulo de contato entre a resina e a fibra, ou
seja, aumentou a molhabilidade da fibra pela resina. O tratamento reduz a quantidade de
lignina presente na superfície das fibras, deixando as fibrilas que constituem a fibra expostas,
resultando em uma melhor molhabilidade na interface e, portanto, melhorando a adesão
fibra/matriz.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

383
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1. (a) Valores dos trabalho de pullout e ângulos de contato entre a resina epóxi e as
fibras de sisal sem e com tratamentos químicos, (b) micrografias de gota de resina epóxi sobre
a fibra de sisal sem e com tratamento químico (aumento de 40x).
O aumento da concentração de NaOH no tratamento químico o trabalho de pullout
experimental aumentou, até aproximar-se do valor teórico (97,7) para a fibra tratada com
NaOH 5%. Esse comportamento deve-se ao aumento da resistência interfacial fibra/matriz, ou
seja, o tratamento químico provocou uma melhor adesão na interface fibra/matriz, com a
interface mais forte foi necessário aplicar uma tensão mais alta para extrair as fibras da
matrize, portanto, observou-se um aumento no trabalho de pullout experimental. O trabalho
de pullout das fibras sem tratamento químico foi 30% menor que o trabalho teórico,
demosntrando uma adesão pobre ma interface fibra/matriz. O teste de pullout realizado com a
fibra tratada com NaOH 5% obteve o trabalho experimental mais próximo do teórico,
confirmando que o tratamento químico realizado na fibra promoveu aumento na resistência ao
cisalhamento na interface fibra/matriz.
Silva et al (2017) apresentaram resultados do tratamento de por imersão em solução
aquosa de hidróxido de sódio (NaOH) em concentração de 4% (m/m) durante 1 h e lavadas
até pH neutro, como também pela imersão por 1 h em solução aquosa contendo 5% (m/m) de
cada um dos silanos investigados, 3-aminopropiltrimetoxisilano (AMPTS), trietoximetilsilano
(TEMS) e viniltriclorosilano (VTCS). As características da interface das fibras com resina
poliéster foram investigadas em termos de molhabilidade e adesão, por meio de medidas do
ângulo de contato e ensaio de pull-out, respectivamente. A diminuição do ângulo de contato
promovida pelo tratamento AMPTS é consequência de uma maior molhabilidade da fibra pela
resina poliéster. Isto pode ser explicado pela redução do caráter polar promovido pelo silano
na superfície da fibra, assim aumentando a afinidade com a resina hidrofóbica, facilitando seu
espalhamento. Aparentemente, o AMPTS se sobressai ao TEMS por conter grupo
organofuncional amino, com possibilidade de ligação tanto com a resina poliéster quanto com
os grupos hidroxila presentes nas fibras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

384
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2. Valores médios do ângulo de contato, tensão interfacial de cisalhamento (τ)


calculado para os diversos tratamentos e perfil das gotas de poliéster nas fibras de curaua com
diferentes tratamentos superficiais.

O tratamento superficial com AMPTS resultou em um valor médio de τ igual a 20,17


Mpa, aproximadamente 2,5 vezes maior que o valor obtido pelas fibras sem tratamento. Este
aumento significativo pode ser justificado pela ocorrência de ligações de hidrogênio entre os
grupos NH2 presentes no silano e os grupos ésteres presentes na estrutura da resina poliéster.
Fato este que não ocorre para o tratamento com TEMS, devido à ausência de grupos
organofuncionais reativos.
Brisolari et al. (2008) investigaram a molhabilidade para quatro espécies de madeiras
tropicais (Pinus elliottii, Araucaria angustifólia, Eucalyptus grandis e Eucalyptus citriodora)
por medida de ângulo de contato aparente para diferentes solventes (água e etilenoglicol) na
superfície da madeira. As amostras tratadas termicamente no intervalo 100-200°C, por 8h e
foi utilizado o método da gota séssil e um goniômetro. Os valores dos ângulos de contato
foram maiores para as amostras submetidas aos tratamentos térmicos, indicando um aumento
no caráter hidrofóbico da madeira. A técnica de ângulo de contato não foi eficiente para
tratamentos térmicos superiores a 200°C devido a sua degradação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

385
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3. Medidas de ângulos para o envelhecimento da superfície da madeira (a) A.


angustifólia, (b) cerne da A. angustifólia, (c) P. elliottii, (d) E. citriodora alburno, (e) E.
citriodora cerne, (f) E. grandis alburno, (g) E. grandis cerne.
Bastos et al. (2010) estudaram a redução da hidrofilicidade de filmes biodegradáveis de
amido de milho plastificados com glicerol e água com e sem reforço de fibra de bananeira.
Após tratamento por plasma de SF6 a superfície se tornou super-hidrofóbica e a interface entre
a superfície do filme e a gota d’água foi significativamente estabilizada devido à associação
de diferentes fatores: estrutura da superfície, incorporação de flúor e reticulação da superfície.

Figura 4. Perfil de ângulo de contato dos filmes de amido termoplástico obtidos por
vazamento, e tratados por plasma de SF6 em diferentes tensões de autopolarização: (a) -80, (b)
-100, (c) -150 V, e (d) perfil do ângulo de contato dos compósitos A (0% FB), B (1%FB) e C
(10%FB) obtidos por extrusão antes e após tratamento por plasma de SF6.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

386
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Como pode ser observado pela Figura 3, pela cinética de molhabilidade, o ângulo de
contato é mais estável utilizando uma tensão de autopolarização de -100 V. Os filmes de
amido que apresentavam ângulo incial de 35°com a água, tornaram—se hidrofóbicos após o
tratamento por plasma. Além disso, a interface água-amostra é muito mais estável, uma vez
que o ângulo de contato diminui menos de 20% após 600 s de contato da gota d’água com a
superfície dos filmes. Após 1 ano de estocagem os filmes permaneceram hidrofóbicos. O
compósito A, amido termoplástico, que originalmente apresentou ângulo de contato de 25°
com água, obteve aumento após a adição de 10% de fibra de bananeira para 35°, mas a
superfície ainda continuou hidrofílica. Esta diferença é função do diferente teor de água e
também da rugosidade da superfície. A rede tridimensional formada pelas ligações de
hidrogênio após a adição da fibra de bananeira tornou o compósito menos suscetível à água
(θCompósitoA< θCompósitoB< θCompósitoC).

O objetivo desse artigo é avaliar as características da fibra de tucum quanto a


molhabilidade e adesão a água visando dua aplicação em materiais compósitos de matriz
polimérica

2. MATERIAIS E MÉTODOS

A molhabilidade das fibras de tucum foi inferida a partir de medidas de ângulo de contato
gerado por uma gota líquida de água em um monofilamento. Fotografia das gotas foram
obtidas e analisadas através do software Image J a fim de se obter os valores referentes à
altura máxima da gota (Rg) comprimento da gota (Cg)e raio da fibra (rf), a serem utilizados
para o cálculo do ângulo de contato através do método da geometria de gotas em filamentos
cilíndricos.

Figura 5. Parâmetros geométricos medidos de uma gota d’água em uma fibra de tucum.

As medidas do ângulo de contato foram realizadas com o goniômetro de ângulo de


contato FTA 100 (First Tem Angnstroms). Gotas de água deionizada foram depositadas nas
superfícies da amostra a 25°C e 50% de umidade relativa (UR). Em torno de 10 imagens
forama analisadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

387
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÃO

O grau de hidrofilicidade da fibra de tucum foi avaliado por meio da determinação do


ângulo de contato. O perfil típico das gotas d’água formadas está apresentado na Figura 6.

Figura 6. (a) Valores obtidos para o ângulo de contato, tensão interfacial e (b) perfil típico das
gotas d’água na fibra de tucum
A média obtida para o ângulo de contato foi 101,66 ± 5,43 e a tensão de molhabilidade de
14,70 ± 6,70. Os valores de ângulo de contato estão distantes aos verificados na literatura para
outras fibras vegetais. Sirvaitiene et al. (2013) reportaram valores de aproximadamente 23°
para fibras de algodão e 30° para linho, após tratamento dom 5% NaOH por 24h, os ângulos
de contato com a resina poliéster foram de cerca de 16° e 30° respectivamente. Para
sisal/epóxi, Sila e Al-qureshi (1999) obtiveram ângulo de contato em torno de 47° para fibras
sem tratamento e de 34° para fibras tratadas com 5% NaOH por 1h a 100°C.

4. CONCLUSIONS

 O ângulo de contato para a fibra de tucum/DI foi 101,66 ± 5,43 e a tensão de


molhabilidade de 14,70 ± 6,70. Apresentando assim uma caráter hidrofóbico
mesmo sem possuir tratamento químico superficial.
 O tratamento químico das fibras naturais possibilita um aumento na
molhabilidade da fibra pela resina, e portanto um aumento na resistência
interfacial fibra/matriz, respectivamente. O tratamento de maior percentual de
NaOH resultou num ângulo de contato menor e uma maior resistência na
interface.
 Em relação à interface das fibras de curaua tratadas e sua interação com resina
poliéster o único tratamento que exibiu diferenças significativas na molhabilidade
e na adesão foi com AMPTS. Houve diminuição no ângulo de contato pelo
tratamento com AMPTS em relação às fibras sem tratamento, ou seja, o caráter
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

388
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

polar das fibras foi efetivamente reduzido. Após o tratamento, houve aumento do
valor médio de tensão interfacial de cisalhamento, cerca de 2,5 vezes em relação
às fibras sem tratamento. A compatibilidade e adesão entre as fibras de curauá e a
matriz polimérica de poliéster foi comprovadamente melhorada.
 A aplicação de tratamento térmico sobre fibras naturais faz com que os ângulos de
contato aumentem em relação à temperatura ambiente. Esse fato é explicado pelo
aumento da hidrofobicidade da fibra natural com o aumento da temperatura.
Exposição à temperaturas altas não são adequadas pois causam empenamentos e
rachaduras na superfície da fibra naural, além da diminuição da qualidade das
suas propriedades físicas.
 Após tratamento com plasma SF6 a superfície tende a tornar-se super-hidrofóbica.
A interface do filme e a gota d’água se apresentou estabilizada, possivelmente
devido à associação de diferentes fatores, tais como, estrutura da superfície,
incorporação de flúor e reticulação da superfície.
 O artigo em questão traz resultados prévios de ângulo de contato na fibra de
tucum. Há a continuação do levantamento de dados quanto a caracterização da
interface da fibra com diversas matrizes poliméricas e tratamentos superficiais.

Acknowledgements

Os autores agradecem o apoio a esta investigação das agências brasileiras: Conselho


Nacional de Desenvolvimento, CNPq; Coordenação de Aperfeiçoamento de Pessoal de Nível
Superior, CAPES; e Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro, FAPERJ
(processo E-26 / 202.286 / 2018).

REFERENCES

Nayak S.Y.; Sultan, M.T.B.H.; Shenoy S.T.; Kini, C.R.; Samant, R.; Md Shah, A.U.; Amuthakkannan, P.
(2020), Potential of Natural Fibers in Composites for Ballistic Applications – A Review. J. Nat. Fibers.
Benzait, Z.; Trabzon, L. (2018), A Review of Recent Research on Materials used in Polymer–Matrix Composites
for Body Armor Application. J. Compos. Mater. 52(23), 3241-3263.
Hassan, K. M. F., Horvath, P. G., e Alpár, T. (2020), Potential Natural Fiber Polymeric Nanobiocomposites: A
Review. Polymers. 12(5), 1072.
Sanjay, M.R.; Madhu, P.; Jawaid, M.; Senthamaraikannan, P.; Senthil, S.; Pradeep, S. (2018), Characterization
and properties of natural fiber polymer composites: A comprehensive review. J. Clean. Prod. 172, 566–581.
Pickering, K.L.; Efendy, M.A.; Le, T.M. (2016), A review of recent developments in natural fibre composites
and their mechanical performance. Compos. Part A Appl. Sci. Manuf. 83, 98–112.
Mohammed, L., Ansari, M. N. M., Pua, G., Jawaid, M., & Islam, M. S. (2015), A Review on Natural Fiber
Reinforced Polymer Composite and Its Applications. International Journal of Polymer Science.
Faruk, O.; Bledzki, A.K.; Fink, H.P.; Sain, M. (2014), Progress report on natural fiber reinforced composites.
Macromol. Mater. Eng. 299, 9–26.
Shah, D.U. (2013), Developing plant fibre composites for structural applications by optimising composite
parameters: A critical review. J. Mater. Sci. 48, 6083–6107.
Shahinur, S.; Mahbub, H. (2020), Natural Fiber and Synthetic Fiber Composites: Comparison of Properties,
Performance, Cost and Environmental Benefits. Encyclopedia of Renewable and Sustainable Materials. 794–
802.
Monteiro, S. N.; Drelich, J.W.; Lopera, H.A.C.; Nascimento, L.F.C.; Luz, F.S.; da Silva, L.C.; Pereira, A. C.
(2019), Natural Fibers Reinforced Polymer Composites Applied in Ballistic Multilayered Armor for Personal
Protection—An Overview. In: Green Materials Engineering; Ikhmayies S.; Li J.; Vieira C.; Margem
(Deceased) J.; de Oliveira Braga F. Eds.; The Minerals, Metals & Materials Series: Springer, Cham; 33-47.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

389
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dayane T. M. A.1,2, William M. S. (2017), Verificação do ângulo de contato e da tensão interfacial na


superfície de liga de titânio. 14° Congresso da Sociedade Latino Americana de Biomateriais, Orgãos
Artificiais e Engenharia de Tecidos -SLABO, São Paulo.
De Paula, C. M. S. S. et al. (1996), “Influência do tratamento químico em fibras de sisal”, 12° Congresso
Brasileiro de Engenharia e Ciência dos Materiais, São Paulo.
Brisolari, A. (2008), Estudo da molhabilidade em madeirastropicais ou de reflorestamento por medidas de
ângulo de contato e de permeabilidade, Grupo de polímeros Bernhard Gross, USP, São Carlos.
Bastos, D.C. (2010), Estudo da redução da hidrofilicidade de filmes biodegradáveis de amido de milho
termoplástico com e sem reforço de fibra de bananeira através do tratamento por plasma de SF6,
Laboratório de superfície e filmes finos, PEMM/COPPE/UFRJ, Rio de Janeiro.
Brum Da Silva, A. M.; Siva, I.; Winowlin Jappes, J. T.; Amico, S. C. (2015), “Alkali and Silane Effects in the
Crystallinity and Morphology of Brazilian Curauá Fiber”, Indo-Brazil Bilateral International Conference
on Advanced Materials and Manufacturing - ICAMM, Nagercoil, Índia.
Širvaitiene, A. et al. Influence of natural fibre treatment on interfacial adhesion in biocomposites. Fibres and
Textiles in Eastern Europe, v. 100, n. 4, p. 123–129, 2013.
Silva, J. L. .; Al-Qureshi, H. . Mechanics of wetting systems of natural fibres with polymeric resin. Journal of
Materials Processing Technology, v. 92–93, p. 124–128, ago. 1999.

APPENDIX A

EVALUATION OF THE CONTACT ANGLE AND INTERFACE TENSION ON THE


SURFACE OF NATURAL FIBERS

Abstract. A method for verifying the surface wettability is through the observation of the lotus
effect, in which the roughness in micro and nanometric scales are responsible for its
hydrophilicity. This work aims to study the ability of natural fiber surfaces to absorb or repel
water. For this, a contact angle measurement technique based on the Young-Laplace theory
was used. As a result, the contact angle and the interface tension in the natural fibers were
measured. Finally, images of the drop are presented according to the type of surface and a
statistical analysis indicating the average value for the contact angle. A brief review of
contact angle in natural fibers was carried out. Finally, the images of the fall are presented
according to the type of surface and a statistical analysis indicating the average value of the
contact angle. An average for the contact angle of 101.66 ± 5.43 and the wettability tension of
14.70 ± 6.70 was obtained.

Keywords: Wettability, Natural fibers, Angle of contact, Interface tension

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

390
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO DO DESEMPENHO MECÂNICO DE TRAÇÃO DA FIBRA DE CARANÃ


(MAURITIELLA ARMATA)

Andressa Teixeira Souza1 – andressa.t.souza@gmail.com


Sergio Neves Monteiro1 – sergio.neves@ime.eb.br
Lucio Fábio Cassiano Nascimento1 – lucio@ime.eb.br
1
Instituto Militar de Engenharia – Rio de Janeiro, RJ, Brasil

Resumo. A busca por novas fibras para aplicação em engenharia está aumentando
progressivamente para garantir a preservação ambiental e o aumento de desenvolvimento
econômico, principalmente das populações ribeirinhas da região Norte e Nordeste do Brasil.
A fibra de caranã (Mauritiella Armata), extraída do caule de uma palmeira sulamericana,
surge nesse cenário como um novo recurso a ser estudado para futuras aplicações uma vez
que não há indícios na literatura sobre o seu estudo. Diferentes intervalos de diâmetros da
fibra de caranã foram investigados para descobrir como a relação entre eles influencia as
propriedades mecânicas de tração. Pela primeira vez na literatura essas informações foram
estudadas segundo a norma ASTM D2101, aplicando a análise estátistica de Weibull que
determinou as características e tendências de confiabilidade do ensaio de tração dessa fibra
natural lignocelulósica (FNL). Os resultados indicaram que as médias de resistência a tração
das fibras de caranã são estatisticamente iguais a um nível de 5% de significância.

Palavras Chave: Fibra Natural, Caranã, Ensaio de Tração

1. INTRODUÇÃO

Vantagens como biodegradabilidade, fonte renovável, peso e abundância diferenciam


as fibras vegetais das sintéticas (Monteiro et al., 2011). Além disso, as FNLs não são
abrasivas e têm emissão neutra de CO2 além de serem importante fonte de renda para a
população ribeirinha. Comparada às fibras de vidro, sua produção causa menos impactos
ambientais. Isso ocorre porque o cultivo de fibras naturais depende principalmente da energia
solar e precisa de pequena quantidade de energia de combustíveis fósseis no processos de
produção e extração (Alvez et al., 2013). Como reforço em materiais compósitos poliméricos
há algumas desvantagens em sua utilização: comportamendo hidrofílico que é diferente ao da
matriz, heterogeneidade de suas propriedades e a qualidade e eficiência de produção que está
ligada diretamente as condições da natureza (Monteiro et al., 2017).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

391
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Caranã é uma planta do tipo palmeira (Henderson, 1997) e suas fibras possuem uma
baixa densidade, aproximadamente 0,66 g/cm3. No estirpe do caranãzeiro aparecem espinhos
rígidos que medem de 2 (dois) a 3 (três) cm e são bem agressivos. As folhas da palmeira são
muito utilizadas como cobertura de casas e em artesanatos. Além disso, o fruto pode ser
transformado em doce, suco ou após a sua fermentação em vinho (Smith, 2014).
Encontrada nas regiões Centro Oeste, Nordeste, Norte e Sudeste do Brasil é um
recurso natural também visto em regiões tropicais e temperadas como Bolívia, Colômbia,
Guiana, Guiana Francesa, Peru, Suriname e Venezuela (Funk et al., 2007).
Até onde se sabe, os poucos artigos científicos disponíveis nesta palmeira estão
restritos à caracterização botânica (Funk et al., 2007), (Henderson, 1997). Assim o presente
trabalho investiga as propriedades mecânicas relativa a tração da Caranã e sua resistência em
relação aos seus diâmetros.

Figura 1- (a) Morfologia de uma fibra fina de Caranã aumento de 200x (b) Morfologia da
fibra de Caranã aumento de 1200x

2. MATERIAIS E MÉTODOS

Como o objetivo geral do trabalho foi: a caracterização da fibra de Caranã, a fim de se


obter materiais de alto desempenho, foi escolhido ensaio mecânico de tração como o mais
viável para esse estudo. As fibras de Caranã foram providas pela Universidade Federal do
Pará (UFPA) localizada no bairro de Guamá em Belém. As fibras foram extraídas
manualmente, com o auxílio de um estilete e uma pinça metálica, do pecíolo da palmeira.

2.1 Ensaio de Tração

A tensão máxima em tração de uma fibra é uma propriedade importante que influencia
de modo direto no reforço efetivo das fibras em relação à matriz. Utilizando a norma ASTM
D2101, as fibras foram submetidas ao ensaio de tração para os seus diferentes diâmetros. Os
ensaios foram realizados em uma máquina universal Instron modelo 3365 e com velocidade
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

392
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de ensaio de 0,4mm/min, pertencente ao Laboratório de Ensaios Não Destrutivos e de


Corrosão da Universidade Federal do Rio de Janeiro (LNDC/UFRJ). As fibras foram
preparadas de maneira que as suas extremidades estivessem fixadas por uma fita adesiva, tipo
esparadrapo, para evitar o esmagamento da fibra pelas garras da máquina e evitar o
escorregamento da mesma. As fibras foram preparadas de maneira que as suas extremidades
estivessem fixadas por uma fita adesiva, tipo esparadrapo, para evitar seu esmagamento pelas
garras da máquina e dificultar o escorregamento. Na Figura 2 a representação esquemática
para a preparação do ensaio.

Figura 2- Amostra preparada para ensaio de tração das fibras individuais.

Um total de 6 (seis) intervalos de diâmetros foram testados. Para cada intervalo um


número de 10 (dez) corpos de prova foram analisados totalizando um estudo em 60 (sessenta)
fibras de forma aleatória.

2.2 Weibull

A distribuição de Weibull é baseada no princípio da máxima verossimilhança além de


ser a função estatística mais comum em aplicações de engenharia que exijam um nível de
confiabilidade. Sua distribuição pode ser definida pela função de densidade dada pela Eq. (1).

F(x) = 1 – exp [- (x/θ)β] (1)

Em que θ é a unidade característica de Weibull ou parâmetro de escala e β o módulo


de Weibull ou parâmetro de forma. Através de uma manipulação matemática redefine-se a Eq.
(1) para obter a Eq. (2).

ln [ ln (1/1 – F(x)) = βln(x) – [βln(θ)]] (2)

Onde β é o coeficiente angular e −[βln(θ)] o coeficiente linear que compõe uma reta.
Utilizando o programa Weibull Analysis os parâmetros analisados foram colocados em ordem
crescente e obtidos com relativa facilidade. A distribuição de Weibull foi utilizada para
análise de tração das fibras de Caranã.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

393
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS

No gráfico da Figura 3 apresenta-se a tensão máxima de superfície em relação ao


diâmetro das fibras.

Figura 3- Tensão máxima x diâmetro das fibras de caranã.

Na Tabela 1 são apresentados os valores de resistência a tração obtidos para a fibra de


caranã e os resultados de análise Weibull.

Table 1- Resultados para o ensaio de tração das fibras de caranã mais seus parâmetros
de Weibull.

Intervalo Diâmetros Resistência a Desv. Pad β θ R2


médios (m) tração (MPa)
1 388,25 61,45 20,97 1,98 70,03 0,9732
2 549,25 41,37 11,66 2,51 43,11 0,8820
3 710,25 40,55 11,66 2,80 43,87 0,9884
4 871,25 48,72 17,53 2,04 50,34 0,9658
5 1032,25 41,75 23,29 1,83 53,33 0,9802
6 1193,25 39,39 15,91 1,83 43,13 0,8438

Identifica-se valores de θ semelhantes aos encontrados como limite de resistência à


tração. O parâmetro R2 também se aproxima de 1 indicando que todos os resultados obtidos
são estatisticamente confiáveis. Como os valores apresentados na Tabela 1 possuem desvio
padrão relativamente alto, em relação ao valor da resistência à tração para cada intervalo,
realizou-se uma análise estatística de comparação de médias utilizando a ANOVA, Tabela 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

394
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 2- Resultados de ANOVA para comparação de médias para o ensaio de tração das
fibras de caranã.

C 51258,6625
Causas de variação GL SQ QM Fcalc Fcrítico
Tratamentos 5 1934,99 387,00 1,25 2,53
Resíduo 30 9255,59 308,52
Total 35 11190,58 -

De acordo com a Tabela 2, uma vez que Fcalc foi menor que Fcrítico (tabulado), a hipótese
de que as médias são iguais foi aceita (com nível de significância de 5%). Portanto, foi
confirmado que não houve diferença entre a resistência a tração dos diferentes diâmetros da
fibra de Caranã.
Gráficos de confiabilidade Weibull são apresentados na Figura 4. Para cada um dos
intervalos de diâmetros observa-se uma reta unimodal, semelhante aos resultados encontrados
na literatura (Monteiro et al., 2009); (Reis et al., 2020); (Monteiro et al., 2017) que ajusta
todos os pontos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

395
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - Gráficos de confiabilidade Weibull para os intervalos de diâmetro da fibra de


caranã.

4. CONCLUSÕES

Os resultados obtidos apresentam bons valores de resitência a tração para a fibra de


caranã, cerca de 82,42 MPa. Além disso após uma análise estatística de ANOVA para
comparação de médias concluiu-se que os intervalos de diâmetros estudados possuem médias
iguais. A análise de Weibull apresentou uma elevada confiabilidade dos resultados uma vez
que foram encontrados valores de R2 de até 0,98. Sendo assim, pode-se dizer que atenderiam
as específicações para uma futura aplicação em reforço de compósitos poliméricos.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao Laboratório de Ensaios Não Destrutivos e Corrosivos (LNDC) e a UFPA pelo
fornecimento das fibras de Caranã.

REFERÊNCIAS

Alves F. M. E., Pereira T. V. C., Gomes, O. da F. M., De Andrade S. F., e Toledo Filho, R. D. (2013). The effect
of fiber morphology on the tensile strength of natural fibers. Journal of Materials Research and Technology,
2(2), 149–157. doi:10.1016/j.jmrt.2013.02.003
ASTM - D2101. Standard Test Method for Tensile Properties of Single Man-Made Textile Fibers Taken from
Yarns and Tows. 1995.
Funk, V. A.; Berry, P.; Alexander, S.; Hollowell, T.; Kelloff, C. Checklist of the plants of the Guiana Shield
(Venezuela: Amazonas, Bolivar, Delta Amacuro; Guyana, Surinam, French Guiana). [S.l.]: Citeseer, 2007.
Henderson, H. Bromeliaceae. Flora of the Venezuelan Guayana, Missouri Botanical Garden Press St. Louis, v. 3,
p. 548–676, 1997.
Monteiro, S. N.; Lopes, F. P. D.; Barbosa, A. P.; Bevitori, A. B.; Silva, I. L. A. D.; Costa, L. L. D. Natural
lignocellulosic fibers as engineering materials—na overview. Metallurgical and Materials ransactions A,
Springer, v. 42, n. 10, p. 2963–2974, 2011.
Monteiro, S.N.; Lopes, F.P.D.; Ferreira, A.S.; Nascimento, D.C.O. Natural-fiber polymer-matrix composites:
cheaper, tougher, and environmentally friendly. JOM, 2009, 61(1), 17-22.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

396
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Monteiro, S. N.; Margem, F. M.; Braga, F. de O.; Luz, F. S. da; Simonassi, N. T. Weibull analysis of the tensile
strength dependence with fiber diameter of giant bamboo. Journal of Materials Research and Technology,
Elsevier, v. 6, n. 4, p. 317–322, 2017.
Reis, R.H.M.; Nunes, L.F.; Oliveira, M.S.; Veiga Jr, V.F.; Garcia Filho, F.C.; Pinheiro, M.A.; Silva, A.C.R.;
Candido, V.S.; Monteiro, S.N. Guaruman fiber: another possible reinforcement in composites. . Journal of
Materials Research and Technology 2020, 9(1), 622-628
Smith, N. Mauritiella armata. In: Geobotany Studies. Springer International Publishing, 2014. p. 383–389.
Disponível em: <https://doi.org/10.1007/978-3-319-05509-1_48>.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

397
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

APPENDIX A

Abstract. The search for new fibers for application in engineering is progressively
increasing to guarantee environmental preservation and an increase in economic development,
especially among riverside populations in the North and Northeast regions of Brazil. Caranan
fiber (Mauritiella Armata), extracted from the stem of a South American palm tree, appears in
this scenario as a new resource to be studied for future applications since there is no evidence
in the literature about its study. Different ranges of diameters of the caranan fiber were
investigated to discover how the relationship between them influences the mechanical
properties of traction. For the first time in the literature, this information was studied
according to the ASTM D2101 standard, applying Weibull's static analysis that determined
the characteristics and reliability trends of the tensile test of this natural lignocellulosic fiber
(FNL). The results indicated that the average tensile strength of the caranã fibers are
statistically equal to a 5% level of significance.

Keywords: Natural Fiber, Caranan, Tensile Test.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

398
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A NEW SOFTWARE FOR MA-XRF DATA VISUALIZATION

Sergio A. Barcellos Lins1 - sergio.lins@roma3.infn.it


Boris Bremmers1
Giovanni E. Gigante1
1 Università degli Studi di Roma ”La Sapienza” - Rome, Italy

Abstract. Macro X-ray fluorescence (MA-XRF) analysis has experienced an exponential


increase in usage during the last decade, especially in the field of conservation sciences.
This was supported, in parts, by the unceasing development in robotics and electronics, being
now possible to develop in-house systems at a much lower cost than commercially available
ones. Developing home-made systems entails the need for complex data analysis routines or
standalone software to evaluate the large amount of data obtained (sometimes in the order
of few gigabytes). The software herein proposed presents itself as an ad hoc alternative for
currently existing software, providing a simple and fast way of analyzing multiple datasets and
stitch them into a larger set if needed. Moreover, it creates a local user database for easy
navigation through the datasets. The software was written in Python and its interface with the
Tcl/Tk package. High-performance python routines and parallel processing were implemented
to speed up calculation-intensive steps. Automated data extraction routines were written to
simplify the evaluation step, dismissing a deep understanding of the underlying physics process.

Keywords: X-Ray Fluorescence, Imaging, MA-XRF, Data Visualization

1. INTRODUCTION

X-ray fluorescence (XRF) is a well known and established analytical technique, widely
used in the most diverse fields of science and industry (Guerra, 2000; Ridolfi, 2019). In
conservation and heritage sciences its use can be traced back to the late 60’s (Keene Congdon,
1967), being now routinely employed. During the last decade, XRF technique started being
used in a scanning fashion, gathering data representing large surfaces instead of a handful
of spots (Dik, 2008). It first started in synchrotron facilities around 2008 and, thanks to the
advancements and miniaturization of robotics and electronics, it is now possible to perform MA-
XRF scanning analyses in-situ with mobile or portable home-made instrumentation (Ravaud,
2016; Cesareo, 2018; Campos, 2019).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

399
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

This transition entailed the need for new data analysis methods and algorithms. The amount
of data collected through scanning is significantly larger than that obtained with traditional
spot analysis. While for the latter it is possible to evaluate each obtained spectrum manually
and individually, for the former this approach is impossible. Few software and routines were
developed in time to tackle this issue. However, only few are available as software possessing
a distribution package. Currently the default (and only) open-source software used is PyMca
(Sole, 2007). It was developed in 2007 and updated ever since. However, it was not conceived
initially as an ad hoc tool for MA-XRF, and, using it exclusively for this purpose may be a
bit confusing or counter-intuitive at first. Another program used for MA-XRF data processing
is Datamuncher (Alfeld, 2015), built on top of WinAxil routines and running on IDL virtual
machines. It lacks a distribution package and therefore can be difficult to run, especially if the
user has no knowledge or practice with virtual machines.
In this scope, a new and ad hoc software for MA-XRF data processing was developed
(named XISMuS), including different data evaluation routines for a fast, balanced or precise
calculation of elemental maps, all automated. The software provides image manipulation tools
and a data stitching module to merge different datasets together. The latter being extremely
useful when analysing large samples that need to be sub-divided into several parts. Moreover,
the software automatically builds a local sample database, updated through usage, providing a
fast way to change between datasets to load, compare and cross-normalize outputs.
The software implementation and few results are presented and discussed.

2. IMPLEMENTATION

As a MA-XRF analysis software, the routines required for evaluating the data are mostly
based on the extrapolation of firmly established methods for XRF data analysis. These comprise
peak deconvolution, energy calibration (through linear or polynomial regression), peak fitting,
and continuum estimation, to cite a few. The main difference lies in the automatic application of
this series of methods to several spectra at once. This process can be extremely time consuming
depending on the dataset size, and, keeping that in mind, three methods were developed to
calculate the elements’ peaks net area, creating 2D images of the element’s spatial distribution.
Each method has an application, for a fast (first-approach), balanced or precise analysis. They
are labelled in the software as simple roi, auto roi, and auto wizard, respectively.

2.1 Loading and preparing the data

Currently the software supports *.mca and *.txt spectra files. The batch of spectra,
representing one sample (dataset), is loaded either by the user or automatically by the software
when it detects a dataset in an user-defined subfolder. The dataset is packed into a *.cube
file, containing all the necessary information to finally extract the elemental maps. The file-
reading process can become a bottleneck for large datasets readout, significantly increasing the
computing time. Because of that, the reading process is split into several threads, speeding up
the operation. Following the file-reading process, necessary information is calculated. This
information comprises derived spectra, calibration, global image, spectra matrix and continuum
matrix. The latter can be calculated using the Statistical Non-Linear Iterative Peak Clipping
(SNIPBG) or orthogonal polynomial methods (Van Grieken, 2002), chosen by the user.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

400
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Elemental maps extraction

The element’s peaks usually follow a Gaussian distribution, deviations from this profile
are observed when a high number of photons are detected (roughly 107 ) in the peak, or when
fitting K-lines of high Z atoms, such as barium (Van Grieken, 2002). Therefore, in a MA-
XRF perspective, one can set a region of interest (ROI) equal to the peak’s full-width at half-
maximum (FWHM) centred at the peak’s centre.
By ”slicing” both the spectra and continuum matrices synthetically packed in the *.cube
file, in the ROI range, it is possible to obtain a 2D representation of that ROI. Traditionally, this
range is set manually by the user, where he/she gives the start and end indexes. This option
is available in the software, but, to automate the process, the user can simply select chemical
elements from a periodic table and the software will take care of finding those elements’ ROI.
In simple roi method, each polled element is assigned two energy values, Kα and Kβ (or
Lα and Lβ depending on Z). These values are tabulated and the software extracts them from
either xraylib (Brunetti, 2004) (if available in the host machine) or from its internal database.
Next, the energy values distance from the observed corresponding peaks in the summation
spectrum is verified. If needed, the peak centre index is updated and the ROI finally set. The
peak’s FWHM is calculated based on the following relation: F W HM = 2.3548 · σ, where
the standard deviation σ can be defined as a function of the peak energy (in eV), the electronic
noise contribution to the peak’s width, silicon’s fano factor and the energy required to produce
an electron-hole pair in silicon (Sole, 2007; Van Grieken, 2002):
s 2
N OISE
σ(Eline ) = + (wSi ∗ F AN O ∗ Eline ) (1)
2.3548
In auto roi method, the difference is that the peak’s centre is verified in each and every
spectrum instead of the summation derived spectrum. This approach results in several identified
ROI’s, one for each pixel-spectrum. With this method it is possible to extract information from
elements that are only present in small portions of the sample and consequently suppressed
in the summation spectrum. The existence of a peak is assessed with signal-to-noise ratio
(SNR) criteria and second differential curve. Each pixel-spectrum is smoothed with a 3rd order
Savitzky-Golay filter to enhance peak detection. If a peak is detected, it’s net area is calculated
over the non-smoothed (raw) data.
Finally, when using auto wizard method, the net peak areas are calculated through a
Gaussian curve fitting. The software initially runs a peak detection algorithm to identify which
elements are present in the dataset. This algorithm will first smooth the spectra matrix and
then recalculate the continuum matrix. An auxiliary summation spectrum and corresponding
continuum are calculated, where each added spectrum has its values below 1 clipped to 1. In this
way, noise from individual pixel-spectrum is overlooked, thus avoiding the mis-identification of
peaks. Next, the recalculated summation spectrum is convoluted and its convolution variance,
together with its continuum, are used as a criteria to select which peaks will be fitted.
Following, the list of selected and identified peaks is re-checked with simple roi’s algorithm
for peak centring. The user is prompted to add more elements to the fitting pool (if needed) and
then start the operation, calculating the peaks net area by fitting the following equation for each
pixel-spectrum:
"peaks nchan !#
X X Ap ∗ gain (E(i) − Ep )2
f (peaks) = √ · exp − + continuum (2)
p i
2πσp 2σp 2

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

401
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Where E(i) is a function that correlates each channel to an energy value, peaks is an
array containing the energies of the matched peaks in electronvolts, and Ap , Ep , and σp are
the amplitude, energy, and standard deviation of peak p, respectively.
Fitting is performed using scipy’s curve fitting routine. Fitting independent peaks allows
the deconvolution of overlapping ones, not possible with the two previously described methods.
Obviously, this large advantage comes with a drawback in computing time. To speed up the
operation, fitting is performed in as many available cores possible (when multicore option
is enabled by the user), splitting the data into several chunks and launching the processes
sequentially. Fano and noise factors are globally fitted during the dataset first compilation,
further speeding the fitting process, as less variables have to be fitted in each pixel-spectrum.
The processes progress is monitored using a lock and killed if data is left hanging.

2.3 Dataset merge

Datasets can be stitched together using a dedicated module called Mosaic. This module
lists all *.cube files already compiled by the user and gives the possibility to add any number
of datasets to a canvas. The canvas size is set when starting the module. The datasets are
represented by either the sum-map or any elemental map previously calculated. In the canvas,
the user can rotate and drag the datasets around, positioning them accordingly.
Canvases states can be saved and loaded, a feature useful when analysing data in-situ, where
datasets are acquired sequentially and the image is assembled during the scanning campaign.
This option allows the user to load the previous canvas state with n datasets and easily add the
newly acquired n+1 dataset, visualizing the current overall progress of the scanning campaign.
Figure 1 shows a schematic representation of how the Mosaic module works. The canvas
image is refreshed every time the user performs an action (rotate, drag, move layer). The image
is drawn by reading each pixel and checking its priority, given by the layer position. To avoid
redrawing the whole image when dragging, only the modified part is refreshed (refreshed area
in Fig. 1). Then, when compiling the datasets loaded on canvas into one new *.cube file, the
render area will exclude the borders where no data is present.

Figure 1- Schematic representation of the Mosaic module functioning.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

402
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The rendering process can be performed creating or not a scaling mask, according to user
input. In short, the scaling mask is used to correct issues (as discontinuities in the final images)
created from the difference in signal intensity from the different datasets loaded on canvas.
There are three algorithms available: (a) one that averages the datasets as blocks, by assigning
each dataset a scaling factor, (b) one that automatically matches every dataset histogram (based
on the sum map) to the largest dataset histogram, and one last method (c) that applies a variant
of the contrast stretching filter used in image processing, enhancing the contrast in darker areas.
Lastly, the user can manually adjust each dataset histogram if none of the above algorithms suits
his/her needs or do not perform well.

3. SOFTWARE OUTPUTS

To demonstrate few of the software capabilities, two artificially corroded copper coupons
were scanned with a portable MA-XRF acquisition system developed in-house. The system
comprises an x-y scanning stage and a detachable head. The latter supports the X-ray tube and
detector(s), chosen according to need. The system is built in a modular fashion, allowing a
quick exchange of parts, including the scanning stage, if larger samples are to be analysed.
For the data acquisition process, the tube operated with a voltage of 35 kV and a current
of 17 µA. The step resolution used was of 1 mm and the dwell-time set to 5 seconds. This
resulted in a total scanned area of 43 × 13 mm2 acquired in approximately 54 minutes, each
sample. These samples were thoroughly analysed and interpreted elsewhere (Barcellos Lins,
2019). Here, they are used with the sole purpose of giving the reader a general overview of
the software outputs and capabilities. Furthermore, the system and software have been tested
with real archaeological bronze samples (Barcellos Lins, 2020), gilded and painted leathers
and other materials.
The datasets were then loaded into the software and compiled each into a *.cube file.
Following, they were loaded into a Mosaic canvas and merged together by using the counts per
pixel scaling algorithm. Elemental distribution maps were extracted with auto wizard method
using the default configuration values. Elemental maps for sulphur and iron are shown in the
analysis screen in Figure 2.
In Figure 3, some other functionalities of the software can be seen. The proposed software
can apply a series of routines to the obtained outputs, as image addition and subtraction (Fig.
3a), application of imaging filters (Fig. 2), sub-ROI analysis and correlation plots (Fig. 3b).
The latter takes into consideration any filters and sub-ROI applied, therefore being useful to
verify possible correlations between specific regions in the image. For the sub-ROI, the derived
summation spectrum representing the selected area is displayed in live-time and can be saved
separately for further investigation. Image addition/subtraction takes into consideration any
filters previously applied.
To test the software outputs reliability, the first sample’s datacube (dataset 1 - Fig. 2) was
analysed with the default software for MA-XRF analysis. There, the dataset was configured
and then fitted with the fast XRF stack fitting tool. Results were nearly identical except for the
iron elemental distribution map, shown in Figure 4, where a slightly higher contrast image was
obtained with the default software. Sulphur signal is found to be very low, almost suppressed
in the summation spectrum. However, both software managed to fit the low-signal peak and
extract consistent images.
The information provided by the software could give insight on the sulphur-based corrosion

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

403
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- Image analyzer screenshot from the software GUI. Elemental distribution maps obtained from
the rendered datacube of sulphur and iron Kα lines are shown (left and right, respectively).

Figure 3- Image subtraction output between Cu-Kα and S-Kα from the rendered datacube (a) and
correlation plot example from the central portion of dataset one for Cu-Kα and Fe-Kα (b).

Figure 4- Comparison between PyMca and XISMuS outputs for sulphur and iron Kα lines from dataset
one.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

404
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

products spatial distribution, even though the sulphur concentration in the sample’s surface, as
a result of the artificial corrosion process is considerably low (± 2% wt.). Datacube merging,
by using the Mosaic module was useful solely for a more direct comparison and visualization
of both datasets together. It’s full power is only highlighted when dealing with large samples
which have been sub-divided into two or more sub-datasets. Furthermore, the correlation plot
shown in Fig. 3b suggests that there is no correlation between iron and copper in this case,
being iron rather a contamination. This is somewhat plausible, as the samples are 99.96% pure.

4. CONCLUSIONS

The software herein presented demonstrated to be a comparable alternative to the standard


software for MA-XRF data analysis. It provides most of the staple tools required for a
throughout interpretation of data in a fast and automatic way. The simple GUI was developed to
render the (sometimes overwhelmingly confusing) data analysis process as simple and intuitive
as possible. Moreover, most of the software functionalities were presented to the reader,
showing how outputs can be obtained, and the overall functioning of the software and its
underlying methods were explained.

Acknowledgements

This project has received funding from the European Union’s Horizon 2020 research and
innovation programme under the Marie Skłodowska-Curie grant agreement No. 766311. The
authors would like to thank Prof. Dr. Sabrina Grassini and Dr. Elisabetta Di Francia for
kindly providing the datasets used to demonstrate the software functionalities. Furthermore,
the authors also acknowledge Prof. Dr. Roberto Cesareo, Prof. Dr. Antonio Brunetti and Dr.
Stefano Ridolfi for the fruitful discussions, suggestions and comments during the development
of this software.

REFERENCES

Alfeld, M. and Janssens, K. (2015), “Strategies for processing mega-pixel X-ray fluorescence
hyperspectral data: A case study on a version of Caravaggio’s painting Supper at Emmaus”, Journal
of Analytical Atomic Spectrometry, Vol. 30, No. 3, 777-789.
Barcellos Lins, S. A., Di Francia, E., Grassini, S., Gigante, G. E. and Ridolfi, S. (2019) “MA-
XRF measurement for corrosion assessment on bronze artefacts”, Proc. of IMEKO International
Conference on Metrology for Archaeology and Cultural Heritage, Florence, Italy, 4-6 December,
2019, 538-542.
Barcellos Lins, S. A., Ridolfi, S., Gigante, G. E., Cesareo, R., Albini, M., Riccucci, C., Di Carlo,
G., Fabbri, A., Branchini, P., and Tortora, L. (2020) “Differential X-Ray Attenuation in MA-XRF
Analysis for a Non-invasive Determination of Gilding Thickness”, Frontiers in Chemistry, Vol. 8,
March, 1-8.
Brunetti, A., Sanchez Del Rio, M., Golosio, B., Simionovici, A., and Somogyi, A. (2004) “A library for
X-ray-matter interaction cross sections for X-ray fluorescence applications”, Spectrochimica Acta -
Part B Atomic Spectroscopy, Vol. 59, No. 10-11, 1725-1731.
Campos, P. H. O. V., Appoloni, C. R., Rizzutto, M. A., Leite, A. R., Assis, R. F., Santos, H. C., Silva,
T. F., Rodrigues, C. L., Tabacniks, M. H. and Added, N. (2019), “A low-cost portable system for
elemental mapping by XRF aiming in situ analyses”, Applied Radiation and Isotopes, Vol. 152, 78-
85.
Cesareo, R., Lopes, R. T., Gigante, G. E., Ridolfi, S. and Brunetti, A. (2018), “First results on the use of
a EDXRF scanner for 3D imaging of paintings”, Acta Imeko, Vol. 7, No. 3, 8-12.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

405
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dik, J., Janssens, K., Van Der Snickt, G., Van Der Loeff, L., Rickers, K. and Cotte, M. (2008),
“Visualization of a lost painting by vincent van gogh using synchrotron radiation based X-ray
fluorescence elemental mapping”, Analytical Chemistry, Vol. 80, No. 16, 6436-6442.
Guerra, M. F. (2000), “The study of the characterisation and provenance of coins and other metalwork
using XRF, PIXE and Activation Analysis”, Radiation in Art and Archeometry, 378-416.
Keene Congdon, L. O. (1967), “Metallic Analyses of Three Greek Caryatid Mirrors”, American Journal
of Archaeology, Vol. 71, No. 2, 149-153.
Ravaud, E., Pichon, L., Laval, E., Gonzalez, V., Eveno, M. and Calligaro, T. (2016), “Development
of a versatile XRF scanner for the elemental imaging of paintworks”, Applied Physics A: Materials
Science and Processing, Vol. 122, No. 1, 1-7.
Ridolfi, S., Laurenzi Tabasso, M., Askari Chaverdi, A. and Callieri, P. (2019), “The Finishing Technique
of the Stone Monuments of Persepolis: Further Studies and New Findings Through the Use of Non-
Destructive Analytical Techniques”, Archaeometry, Vol. 61, No. 2, 272-281.
Solé, V. A., Papillon, E., Cotte, M., Walter, P. and Susini, J. (2007), “A multiplatform code for the
analysis of energy-dispersive X-ray fluorescence spectra”, Spectrochimica Acta - Part B Atomic
Spectroscopy, Vol. 62, No. 1, 63-68.
Van Grieken, R. E. and Markowicz, A. A. (2002), “Handbook of X-ray spectrometry”, Marcel Dekker,
Inc., pp.983.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

406
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO DE UMA NOVA FIBRA NATURAL CELULÓSICA


EXTRAÍDA DA PALMEIRA SUL-AMERICANA CARANÃ

Andressa Teixeira Souza1 – andressa.t.souza@gmail.com


Sergio Neves Monteiro1 – sergio.neves@ime.eb.br
Lucio Fábio Cassiano Nascimento1 – lucio@ime.eb.br
Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
1 Instituto Militar de Engenharia – Rio de Janeiro, RJ, Brasil

Resumo. Em razão das preocupações crescentes com o meio ambiente e o esgotamento de


recursos fósseis, há algum tempo a busca por materiais provenientes de fontes renováveis em
aplicações de engenharia vem sido discutida. Nesse contexto, o uso de fibras naturais como
reforço em polímeros são uma alternativa viável sobre o tripé da sustentabilidade (equilíbrio
no âmbito ambiental, social e econômico) uma vez que podem gerar produtos finais com
menor custo, menor densidade, boas propriedades mecânicas e com um apelo ambiental.
Com esse cenário, a palmeira Sul-Americana de caranã (Mauritiella Armata), desconhecida
para a literatura em termos de engenharia teve suas fibras investigadas a partir deste
trabalho. Essas fibras naturais lignocelulósicas (FNLs) foram submetidas a espectroscopia
no infravermelho por transformada de Fourier (FTIR), difração de raios x (DRX), densidade
linear e análise diametral. Os resultados obtidos mostram o grande potencial da caranã
como um possível reforço em materiais compósitos.

Keywords: Densidade, Fibras naturais lignocelulósicas, Caranã.

1. INTRODUÇÃO

O Brasil tem papel fundamental no desenvolvimento de políticas de desenvolvimento


sustentável, por concentrar em seu território uma das maiores biodiversidades do planeta: A
Floresta Amazônica (Reis, 2020). Nesse contexto, a utilização de fibras naturais está
aumentando progressivamente para garantir a preservação ambiental. Um dos motivos de
fibras naturais vegetais serem de tal relevância se dá ao fato de serem renováveis e por
possuírem uma variedade de plantas disponíveis na biodiversidade (Güven et al., 2016).
A palmeira caranã (Mauritiella armata), possuí caule geralmente não ramificado, que
apresenta em seu ápice um tufo de folhas costapalmadas com segmentos lineares. É comum

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

407
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ser encontrada em áreas de baixas elevações, podendo, no entanto, ocorrer esporadicamente


em elevações de 1400m (Henderson, 1997).
No Brasil pode ser encontrada nas regiões Norte (Acre, Amazonas, Pará, Rondônia,
Roraima, Tocantins), Nordeste (Bahia, Pernanbuco, Piauí), Centro-Oeste (Goiás, Mato
Grosso) e Sudeste (Minas Gerais), ocorrendo principalmente em florestas, ou outros tipos de
cobertura vegetal nativa, que ficam às margens de rios, igarapés, lagos, olhos d´água e
represas. Além do Brasil é possível encontrá-la em outros paises como Bolívia, Colômbia,
Guiana, Guiana Francesa, Peru, Suriname e Venezuela (Funk, 2007).
Até agora não é encontrado na literatura estudos sobre a fibra de caranã, isso inclui
caracterizações químicas e morfológicas da mesma. Considerando a falta de informação sobre
as propriedades mencionadas anteriormente, este trabalho tem como objetivo um estudo
abrangente e sistemático de caracterização que será apresentado pela primeira vez para uma
futura possibilidade de uso na produção de um compósito. A escolha da fibra de caranã teve
como intenção privilegiar o uso de matéria prima nacional ainda não explorada e oportunizar
o desenvolvimento de regiões menos favorecidas no país.

2. MATERIAIS E MÉTODOS

Todas as fibras de caranã “in natura” utilizadas neste trabalho foram doadas pela
Universidade Federal do Pará (UFPA). As fibras de Caranã que estavam na forma de gravetos
foram limpas, desfibriladas, cortadas num comprimento de 150mm e secas em estufa a 70°C
por 24h. Para visualização da morfologia da fibra foi utilizado um MEV modelo Quanta FEG
250, da FEI localizado no IME. A distância de trabalho utilizada foi de 10mm, potência de
15kV e um spot de 4,5.

2.1 Diâmetro

Este trabalho empregou o método baseado na projeção de luz para medir o diâmetro
das fibras. O equipamento utilizado foi um microscópio óptico, modelo BX53M da marca
OLYMPUS, com amplitude de 5x em modo de campo escuro. Os diâmetros foram obtidos em
micrômetros (m). O grupo amostral foi de um total de 100 (cem) fibras onde cada uma delas
foi medida, ao longo do seu comprimento, 15 (quinze) vezes a 0° e 90° (Figura 1). A fibra foi
medida num ângulo de 0° por e seus valores de diâmetro foram anotados, para fazer uma
média mais real a fibra foi girada 90° e novamente foi anotado os valores obtidos.
A partir desses resultados foram realizadas médias das dimensões e calculada a média
do diâmetro de cada fibra. Com as médias obtidas foi possível separar as fibras em dez classes
de acordo com a sua distribuição de frequência e plotar um histograma.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

408
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Esquema de medição do diâmetro da fibra de caranã.


2.2 Densidade

A densidade foi avaliada preliminarmente medindo-se as dimensões e o comprimento


da seção transversal da fibra como proposto no item 2.1 Considerou-se uma seção transversal
de fibra em forma cilíndrica com volume aproximado calculado a partir da Eq (1).

Vm = (π * d2/4) * l (1)

Em que d é o diâmetro médio obtido pelas medições do microscópio e l o


comprimento da fibra. A partir disso, a densidade das fibras foi obtida de acordo com a Eq
(2).

ρ = m/V (2)

Em que ρ é a densidade da fibra, m a massa da fibra e V o volume da fibra. Para


confirmar o valor obtido foi produzida uma placa compósita de 10% em volume de fibras e
90% em volume de resina empregando a regra das misturas, Eq (3), para comprovar sua
massa especifica (Callister e Rethwisch, 2016).

ρf = ρm – Vmρm/ Vf (3)

Em que ρf é a densidade da fibra, ρm a densidade da matriz, Vm o volume da matriz e


Vf o volume da fibra.

2.3 Difração de raio x (DRX)

Com o objetivo de calcular o índice de cristalinidade da fibra de caranã foi utilizada a


técnica de difração de raio X. O método utilizado para o estudo consiste em empregar a Eq (4)
para realizar o cálculo do índice de cristalinidade (Ic) (Segal, 1959).

Ic= 1 – I1/I2 (4)

Em que I1 é a intensidade do mínimo de difração (parte amorfa) e I2 a intensidade do


máximo de difração (parte cristalina).
O equipamento utilizado foi o difratômetro PANalytical, modelo x’pert PRO, anodo
de cobalto, detetor da marca Pixcel, com velocidade de varredura de 0,05 (2/s), potência
40kW, varredura de 5° a 75°, pertencente ao Instituto Militar de Engenharia (IME). Foi obtido
um Difratograma das Fibras de Caranã “in natura”, isto é, isenta de tratamentos.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

409
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.4 Espectroscopia no infravermelho por transformada de Fourier (FTIR)

O espectro infravermelho fornece informações estruturais de uma molécula. A técnica


permite, em conjuntos com outros dados espectrais, a identificação de estruturas químicas.
Para isso, análises FTIR foram realizadas na fibra de caranã para verificar as vibrações e
alongamentos das ligações efetivas das fibras. A fibra foi moída e convertida a pó para que
fosse levada a análise num espectrofotômetro modelo IRPrestige-21:Shimadzu da
Universidade Federal do Cariri (UFCA). A varredura foi efetuada numa faixa espectral de
4000 a 400cm-1 com 32 scans.

3. RESULTADOS

Para possibilitar maiores valores de resistência é necessário que haja uma boa aderência
da fibra a matriz polimérica. Atendendo a esse conceito (Souza et al., 2020) apresentaram o
comprimento crítico (lc) da caranã (8,40mm ± 0,55 que deve ser excedido para que a fibra
seja rompida sem escorregar da matriz. Considerando valores do comprimento da fibra (L)
abaixo do crítico, espera-se a falha da interface com o descolamento da fibra.
Imagens de MEV da seção transversal da fibra de caranã são mostradas na Figura 2.
Pode-se ver que ela apresenta estruturas semelhantes às de outras FNLs (Monteiro et al.,
2011), (Hamad et al., 2017) com um lúmen no centro, cercado por várias paredes formadas
por fibrilas de celulose semi-cristalina incorporada em uma matriz de hemicelulose e lignina.
A estrutura tem uma forma de lúmen interno quase circular. Além disso, espera-se uma baixa
densidade, em comparação com outras fibras (Reis et al., 2020),(Luz et al., 2018), (Monteiro
et al., 2014) isso pode ser parcialmente explicado devido à grande quantidade de lúmen e a
estrutura fina da parede celular.

a b

Figura 2- Morfologia da fibra de caranã (a) fibra fina (100x) (b) seção transversal
(200x).

3.1 Diâmetro

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

410
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A frequência média das dimensões das seções transversais para as fibras investigadas,
Figura 3, revela uma distribuição quase normal no intervalo de 0,3 a 1,2 μm com 0,79 μm
como a média do diâmetro equivalente. É importante ressaltar que todo o trabalho de
desfibrilação da fibra de caranã é manual, sendo assim, provavelmente há uma influência do
operador para retirada das fibras do pecíolo.

Figura 3- Distribuição de frequências das dimensões médias da seção transversal das


fibras de caranã (μm).

As 10 (dez) classes de diâmetros obtidas para a fibra seguem na Tabela 1. Observa-se que
as classes 4, 5, 6 e 7 possuem uma maior frequência relativa enquanto que as classes 1 e 10
possuem menor quantidade em relação às demais.

Tabela 1- Diferentes intervalos de dimensões da fibra de caranã.

Classe Intervalo de Frequência


dimensão (m) relativa (%)
1 0,310 – 0,406 3
2 0,407 – 0,502 6
3 0,503 – 0,598 4
4 0,599 – 0,694 20
5 0,695 – 0,790 18
6 0,791 – 0,886 18
7 0,887- 0,982 19
8 0,983 – 1,018 3
9 1,019 – 1,174 7
10 1,175 – 1,273 2

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

411
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Como já relatado na literatura por (Monteiro et al., 2017),(Netto et al., 2016), a baixa
porcentagem de fibras no intervalo 1 pode originar-se do fato de ser mais difícil conseguir
fibras finas e longas que não se rompam ao serem desfiadas manualmente. Em relação ao
intervalo 10 admite-se que fibras com maiores diâmetros possuem maior quantidade de
defeitos.

3.2 Densidade

Foram descobertas medidas de densidade para 100 (cem) fibras de caranã


investigadas, com área de seção transversal distinta. Os resultados foram obtidos por meio da
relação massa/volume. Adicionalmente, também foi utilizada a regra das misturas, utilizando
uma placa compósita de 10% em volume de fibra, com o objetivo de comprovar os ensaios
anteriores. O valor médio dos intervalos encontrados, assim como os parâmetros de Weibull
estão apresentados na Tabela 2.

Tabela 2. Parâmetros de Weibull para os intervalos de densidade da fibra de caranã

Classe Intervalo de Densidade β θ R2


dimensão (mm) média (g/cm3)
1 0,310 – 0,406 0,80 4,43 0,83 0,9346
2 0,407 – 0,502 0,73 4,21 0,80 0,8637
3 0,503 – 0,598 0,62 6,71 0,66 0,9895
4 0,599 – 0,694 0,76 6,81 0,82 0,9638
5 0,695 – 0,790 0,71 5,28 0,77 0,9577
6 0,791 – 0,886 0,57 7,84 0,61 0,9125
7 0,887- 0,982 0,66 7,06 0,70 0,8887
8 0,983 – 1,018 0,69 5,54 0,62 0,8179
9 1,019 – 1,174 0,49 9,63 0,53 0,8104
10 1,175 – 1,273 0,53 13,04 0,54 0,8471

Calculando-se a média das densidades e o desvio padrão tem-se uma densidade média
de 0,658 g/cm3 com um desvio padrão de ± 0,097 g/cm3. A Tabela 2 apresenta os valores dos
parâmetros Weibull (β e R2), bem como seus diâmetros característicos θ obtidos através do
software Weibull Analysis. Os valores de R2 indicam que todos os resultados obtidos são
estatisticamente confiáveis ≥ 0,8104. Aqui, é importante notar que o valor relativamente baixo
do módulo de Weibull β (fator de forma) é devido às características heterogêneas relacionadas
ao processo biológico de formação de qualquer FNL (Wang e Shao, 2014) como caranã no
presente trabalho.

3.3 Difração de raio x (DRX)

Segundo Güven et al. (2016), o alto teor de celulose influencia diretamente nas
propriedades mecânicas das fibras uma vez que é o único constituinte a se cristalizar.
Utilizando o método descrito por SEGAL et al. (1959), Eq (4), obteve-se o índice de
cristalinidade a partir da área máxima dos picos relacionados aos planos cristalinos (101) e
(002), os quais estão associados às fases amorfa e cristalina das fibras respectivamente. Ao

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

412
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

observar a Figura 4 os resultados indicam uma alta cristalinidade para as fibras de caranã com
um valor de Ic = 70,09%.

Figura 4- Difratograma das fibras de caranã.

3.4 Espectroscopia no infravermelho por transformada de Fourier (FTIR)

A Figura 5 mostra o FTIR da fibra de Caranã. As duas áreas mais importantes para o
exame preliminar dos espectros são as regiões de 4.000 a 1.300cm -1 e de 900 a 650 cm-1 onde
a região de mais alta frequência é chamada de região dos grupos funcionais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

413
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- FTIR da fibra de caranã.

Esse espectro é muito semelhante aos encontrados na literatura relatado por


Demosthenes et al. (2020) e Reis et al. (2020). Na Tabela 3 um resumo do tipo de deformação
que ocorre com os grupos funcionais da fibra de caranã.

Tabela 3- Resultados de FTIR da fibra de caranã.

Pico (cm-1) Tipo de deformação Literatura


3348,41 OH (Demosthenes et
al., 2020)
2922,56 CH (alifático+aromático) (Neves, 2020)
1741,57 C=O (cetona não (Reis, 2020)
conjugada, éster ou grupos
carboxílicos provenientes
principalmente da
Hemicelulose)
1598,57 CH sp2 (Neves, 2020)
1509,62 (Babu et al., 2019)

1381,53-1048 C-H, C-O e C-O-C (Babu et al., 2019)


1163 C-O de grupos ésteres (Reis, 2020)
conjugados da lignina
900 C-H sp3 (Monteiro, 2014)

Fazendo uma análise desses grupos é possível afirmar que o alongamento de OH


estendendo-se em 3348,41 cm−1 é característico dos grupos hidroxil presentes nas estruturas
de celulose, hemicelulose, água, além de extrativos e ácidos carboxílicos (Demosthenes et al.,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

414
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2020). A banda de absorção de 2922,56 cm−1 é característica em qualquer macromolécula


presente nos componentes de celulose e hemicelulose existentes na fibra natural (Neves et al.,
2020).
Segundo Reis et al. (2020) o estiramento em 1741,57 cm−1 pode ser de uma cetona não
conjugada, éster ou de grupos carboxílicos provenientes principalmente da Hemicelulose.
Ainda os estiramentos de C-O e C-H são resultantes da hemicelulose assim como a vibração
do anel aromático em 1509,62 cm−1 possui relação com a lignina. Bandas de 1381,53 cm−1 à
1048 cm−1, frequentemente encontradas nas FNLs, são atribuídas a grupos de dentro da
celulose e de alguns carboidratos. A banda de 900 cm−1 é proveniente do C-H fora do plano da
hidroxifenila que é uma das principais unidades aromáticas na molécula de Lignina (Monteiro
et al., 2014).

4. CONCLUSÕES

Imagens de MEV da seção transversal da fibra de caranã apresentaram um padrão


circular com micofibrilas e lúmen cercado pela parede de celulose. Análises de diâmetro fibra
de caranã resultaram num diâmetro equivalente de 0,79μm. A densidade média encontrada
para as fibras de caranã foi de 0,66 g/cm3. O DRX revelou uma cristalinidade de
aproximadamente 70%. Por fim, os estudos de FTIR mostraram vibrações características de
FNLs como as bandas de O-H e C-H.
Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao Departamento de Ciência dos Materiais do IME e a UFPA pelo fornecimento das fibras de
Caranã.

REFERÊNCIAS

Babu, B. G.; Winston, D. P.; Senthamaraikannan, P.; Saravanakumar, S.; Sanjay, M. Study on characterization
and physicochemical properties of new natural fiber from phaseolus vulgaris. Journal of Natural Fibers,
Taylor & Francis, v. 16, n. 7, p. 1035–1042, 2019.
Callister, W. D.; Rethwisch, D. G. Ciência e engenharia de materiais: uma introdução. 9. ed. [S.l.]: LTC, 2016.
Demosthenes, L. C. d. C.; Nascimento, L. F. C.; Monteiro, S. N.; Costa, U. O.; Filho, F. da C. G.; Luz, F. S. da;
Oliveira, M. S.; Ramos, F. J. H. T. V.; Pereira, A. C.; Braga, F. O. Thermal and structural characterization of
buriti fibers and their relevance in fabric reinforced composites. Journal of Materials Research and
Technology, Elsevier, v. 9, n. 1, p. 115–123, 2020.
Funk, V. A.; Berry, P.; Alexander, S.; Hollowell, T.; Kelloff, C. Checklist of the plants of the Guiana Shield
(Venezuela: Amazonas, Bolivar, Delta Amacuro; Guyana, Surinam, French Guiana). [S.l.]: Citeseer, 2007.
Güven, O.; Monteiro, S. N.; Moura, E. A.; Drelich, J. W. Reemerging field of lignocellulosic fiber polymer
composites and ionizing radiation technology in their formulation. Polymer Reviews, Taylor & Francis, v. 56,
n. 4, p. 702–736, 2016.
Hamad, S. F.; Stehling, N.; Holland, C.; Foreman, J.; Rodenburg, C. Low-voltage SEM of natural plant fibers:
Microstructure properties (surface and crosssection) and their link to the tensile properties. Procedia
Engineering, Elsevier BV, v. 200, p. 295–302, 2017.
Henderson, H. Bromeliaceae. Flora of the Venezuelan Guayana, Missouri Botanical Garden Press St. Louis, v. 3,
p. 548–676, 1997.
Luz, F. S. da; Ramos, F. J. H. T. V.; Nascimento, L. F. C.; Figueiredo, A.B.-H. da S.; MonteiroO, S. N. Critical
length and interfacial strength of PALF and coir fiber incorporated in epoxy resin matrix. Journal of
Materials Research and Technology, Elsevier, v. 7, n. 4, p. 528–534, out. 2018.
Monteiro, S. N.; Lopes, F. P. D.; Barbosa, A. P.; Bevitori, A. B.; Silva, I. L. A. D.; Costa, L. L. D. Natural
lignocellulosic fibers as engineering materials—na overview. Metallurgical and Materials ransactions A,
Springer, v. 42, n. 10, p. 2963–2974, 2011.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

415
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Monteiro, S. N.; Margem, F. M.; Braga, F. de O.; Luz, F. S. da; Simonassi, N. T. Weibull analysis of the tensile
strength dependence with fiber diameter of giant bamboo. Journal of Materials Research and Technology,
Elsevier, v. 6, n. 4, p. 317–322, 2017.
Monteiro, S. N.; Margem, F. M.; Margem, J. I.; Martins, L. B. de S.; Oliveira, C. G.; Oliveira, M. P. Infra-red
spectroscopy analysis of malva fibers. In: TRANS TECH PUBL. Materials Science Forum. [S.l.], 2014. v.
775, p. 255–260.
Netto, P. A.; Altoé, G. R.; Margem, F. M.; Braga, F. de O.; Monteiro, S. N.; Margem, J. I. Correlation between
the density and the diameter of fique fibers. In: TRANS TECH PUBL. Materials Science Forum. [S.l.], 2016.
v. 869, p. 377–383.
Neves, A. C. C.; Rohen, L. A.; Mantovani, D. P.; Carvalho, J. P.; Vieira, C. M. F.; Lopes, F. P.; Simosassi, N.
T.; Luz, F. S. da; Monteiro, S. N. Comparative mechanical properties between biocomposites of epoxy and
polyester matrices reinforced by hemp fiber. Journal of Materials Research and Technology, Elsevier, v. 9,
n. 2, p. 1296–1304, mar. 2020.
Reis, R.H.M.; Nunes, L.F.; Oliveira, M.S.; Veiga Jr, V.F.; Garcia Filho, F.C.; Pinheiro, M.A.; Silva, A.C.R.;
Candido, V.S.; Monteiro, S.N. Guaruman fiber: another possible reinforcement in composites. . Journal of
Materials Research and Technology 2020, 9(1), 622-628.
Segal, L.; Creely, J.; Martin, A.; Conrad, C. An empirical method for estimating the degree of crystallinity of
native cellulose using the x-ray diffractometer. Textile Research Journal, SAGE Publications, v. 29, n. 10, p.
786–794, out. 1959.
Souza, A. T.; Pereira Junio, R. F.; Neuba, L. M.; Candido, V. S. ; Da Silva, A. C. R. ; De Azevedo, A. R. G. ;
Monteiro, S. N.; Nascimento, L. F. C. Caranan Fiber from Mauritiella armata Palm Tree as Novel
Reinforcement for Epoxy Composites. Polymers, v. 12, p. 2037, 2020
Wang, F.; Shao, J. Modified Weibull Distribution for Analyzing the Tensile Strength of Bamboo
Fibers. Polymers 2014, 6, 3005–3018.

APPENDIX A

CHARACTERIZATION OF A NEW NATURAL CELLULOSIC FIBER


EXTRACTED FROM THE SOUTH AMERICAN PALM TREE CARANAN

Abstract. Due to growing concerns about the environment and the depletion of fossil
resources, the search for materials from renewable sources in engineering applications has
been discussed for some time. In this context, the use of natural fibers as reinforcement in
polymers is a viable alternative on the sustainability tripod (balance in the environmental,
social and economic scope) since they can generate final products with lower cost, less
density, good mechanical properties and with an environmental appeal. With this scenario,
the South American palm tree (Mauritiella Armata), unknown to the literature in terms of
engineering, had its fibers investigated from this work. These natural lignocellulosic fibers
(FNLs) were subjected to infrared spectroscopy by Fourier transform (FTIR), x-ray
diffraction (XRD), density and diametrical analysis. The results obtained show the great
potential of caranan as a possible reinforcement in composite materials.

Keywords: density, natural lignocellulosic fiber, caranan.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

416
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

FIBRAS DE TUCUM COMO REFORÇO EM MATERIAIS COMPÓSITOS:


ANÁLISE ESTATÍSTICA DA RESISTÊNCIA POR WEIBULL

Michelle Souza Oliveira1 – oliveirasmichelle@ime.eb.br


Fernanda Santos da Luz1 – fsl.santos@gmail.com
Artur Pereira Camposo1 – camposo.artur@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
Sergio Neves Monteiro1 – sergio.neves@ime.eb.br
1
Instituto Militar de Engenharia – Praça Gen. Tibúrcio, 80 - Urca, Rio de Janeiro - RJ, 22290-270, RJ,
Brazil

Resumo. O uso de recursos vegetais para produção de materiais é uma alternativa


renovável, biodegradável e de baixo custo. As fibras vegetais não são abrasivas a
equipamentos e geram compósitos mais baratos, com menor densidade e maior tenacidade.
Durante o processo de moldagem convencionais as fibras passam por muitos esforços
mecânicos e ataques termoquímicos, necessitando o estudo de suas propriedades físicas,
químicas e mecânicas. Entre a grande variedade de fibras vegetais existentes, foi escolhida
para ser caracterizada neste trabalho a fibra de tucum. A escolha dessa fibra considerou o
desenvolvimento econômico regional, e a pequena quantidade de estudos da fibra. Assim,
com o objetivo de caracterizar as propriedades mecânicas da fibra de tucum, foram
investigadas suas propriedades de tração. Também foram comparados os resultados
alcançados com a fibra de tucum com outras fibras lignocelulósicas. Com diâmetro entre
0,64 para 0,12, obteve-se um aumento no valor do módulo de elasticidade de 1,90 para 26,9
GPa, um aumento de 14 vezes. E para a tensão de ruptura das fibras obteve-se um aumento
de 16 vezes, de 34,07 para 549,75 MPa.

Palavras-chave: Fibra de tucum, Propriedades mecânicas, Distribuição Weibull

1. INTRODUÇÃO

As fibras vegetais são também conhecidas como fibras celulósicas ou lignocelulósicas.


Estas fibras são abundantes e disponíveis em todo o mundo. No passado, as fibras vegetais
eram utilizadas na fabricação de cordas, fios, carpetes e outros produtos decorativos. Porém,
com o avanço no desenvolvimento das fibras sintéticas, houve um decréscimo no consumo
das fibras vegetais. Atualmente, devido ao elevado custo do petróleo, que é fonte não
renovável de energia com disponibilidade limitada e possibilidade de escassez, além do

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

417
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

crescente apelo ecológico, as fibras naturais voltaram à cena, na produção de compósitos


poliméricos. Isto porque são provenientes de fontes renováveis e biodegradáveis, apresentam
baixa densidade, são relativamente duráveis, de fácil secagem e de baixo custo, além de
apresentar propriedades mecânicas relativamente boas.
Apesar destas dificuldades, fibras vegetais podem e estão sendo adicionadas a polímeros
para a obtenção de compósitos lignocelulósicos. Um exemplo é a fibra de tucum. O Tucum é
uma palmeira encontrada em todo o território brasileiro, principalmente na Amazônia, que
pode atingir até 15 metros de altura. Dele, as folhas, frutos, fibras e sementes são
reaproveitadas. A fibra do tucum é uma espécie de linha bastante resistente, conhecida pelos
amazônidas como “linha da lealdade”. Esse material atraiu a atenção de grupos de artesanato,
que vêem nessa fibra uma matéria-prima forte e resistente, capaz de gerar renda e levar um
desenvolvimento sustentável para regiões necessitadas. No entanto revelou-se que as fibras
naturais tem propriedades bem heterogêneas, de forma que, para que tenhamos uma melhor
ideia de suas propriedades mecânicas temos que fazer uma análise de distribuição para
obtermos uma media de suas propriedades. E uma boa análise estatística de dados de tensão
de ruptura das fibras de tucum é a distribuição de Weibull.
A análise estatística de resultados é aplicada em diversos sistemas em que se destaca uma
ou mais variáveis aleatórias. Proposta por Enerst Weibull em 1951, a distribuição que leva seu
nome, pode ser aplicada na maior parte das ciências. O interesse neste trabalho, do uso da
distribuição de Weibull, vem do conjunto de dados obtidos dos ensaios, constituindo um
conjunto de medidas que não apresentam um valor exato. Como a distribuição de Weibull
satisfaz esses critérios se mostrando eficas na análise estatística dos dados. As principais
vantagens do uso de Weibull são a facilidade de cálculo e aplicação, bem como a
apresentação gráfica de seus resultados. O fato de que as equações consideram restrições
físicas quanto ao comportamento do parâmetro de forma, a aplicação é uma grande contagem
para mensurar a aplicabilidade de certo material. Por definição, a distribuição de Weibull
associa a probabilidade de falha de um material com o valor de tensão correspondente,
levando a uma aproximação que considera a população de defeitos em uma amostra. De
maneira prática, a análise de Weibull em um ensaio de fadiga permite uma estimativa da
probabilidade de falha do material sobre a sua vida útil quando este é submetido a esforços
mecânicos cíclicos para um determinado nível de tensão.
Alguns trabalhos recentes mostram uma relação inversa entre a resistência a tração e o
diâmetro equivalente. A Figura 1 mostra a resistência à tração através da estatística de
Weibull sendo (a) sisal (Monteiro et al., 2010), (b) rami (Margem et al., 2010), (c) curauá
(Ferreira et al., 2009), (d) juta (Bevitori et al., 2010), (e) Bambu (Costa et al., 2010), (f) coco
(Santafe et al., 2009), (g) piaçava (Nascimento et al., 2010) e (h) buriti (Portela et al., 2010).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

418
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1. Resistência à tração através da estatística de Weibull sendo (a) sisal, (b) rami, (c)
curauá, (d) juta, (e) bambu, (f) coco, (g) piaçava e (h) buriti. Adpatado de Monteiro et al.
(2011).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

419
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Estas relações presentes em todos os trabalhos mostram que diâmetro mais finos
apresentam uma resistência relativamente alta. O ponto de maior destaque na Figura 1 são os
menores intervalos de diâmetro do rami, curauá e piaçava que atingiram valores de resistência
a tração acima de 1000 MPa. Neste cenário é necessário a sociedade cientifica e tecnológica
obter conhecimento sobre a fibra de tucum e apontar possíveis aplicações.

2. MATERIAIS E MÉTODOS

As fibras de tucum foram obtidas no mercado local do estado do Amazonas, Brasil. Cada
fibra tem aproximadamente 1 metro de comprimento com uma espessura não uniforme ao
longo de seu comprimento. Para determinar o diâmetro médio da fibra, 100 fibras aleatórias
foram separadas para uma análise estatística, que mediu as dimensões da seção transversal da
fibra, bem como seu comprimento e massa. Cinco posições diferentes e dois ângulos
diferentes (0° e 90°) foram investigados em um microscópio modelo Olympus BX53M.
Foram utilizados na preparação dos corpos de prova papel 90 g/m2 e fita crepe. A preparação
do corpo de prova foi feita conforme a norma ASTM C1557, como ilustra a Figura 2.

Figura 2. Montagem do corpo de prova: (a) molde de papel para fixação das fibras; (b)
preparação do corpo de prova para o ensaio e (c) detalhe do corte do papel antes do ensaio.
Os ensaios de tração foram realizados em um equipamento universal Instron do
Laboratório de Ensaios Não Destrutivos, Corrosão e Soldagem (LNDC) da COPPE/UFRJ,
modelo 3365, com célula de carga de 25kN. A velocidade de ensaio utilizada nos corpos de
prova foi de 1 mm/min. A aplicação da distribuição de Weibull na resistência à tração de
fibras é descrita por diversos autores (Defoirdt et al, 2010; Silva et al, 2008; Tripathy et al,
2000). O módulo de Weibull é uma medida de variabilidade na resistência e módulo elástico
das fibras. A análise de Weibull é dada pela Função Densidade de Probabilidade f(x),
conforme Equação 1.

F(x) = β/α * (x/ α)^(β-1)*e^[-(x/ α)^β] (1)

Onde α é o parâmetro escala e β parâmetro de forma, x corresponde ao número de ciclos


que o material suportou durante o ensaio. Integrando-se a Equação 1, obtém-se a seguinte
relação estabelecida entre esta e a probabilidade de falha (Ff), conhecida como Função
Densidade Acumulada dada pela Equação 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

420
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ff(x) = 1- e^[-(x/ α)^β] (2)

A função Ff indica a probabilidade de falha de um determinado corpo de prova


considerando os perâmetrod da distribuição de Weibull e é indicado como uma percentagem.
De maneira análoga, pode-se relacionar a probabilidade de falha com a confiabilidade (Rx), a
partir da relação, expressa na Equação 3.

Rx = 1- Ff (x) (3)

Considerando, por exemplo, uma probabilidade de falha de Ff (x)=0,20, ou seja, 20% a


um dado nível de tensão, através da relação estabelecidade pela Equação 3 tem-se que a
confiabilidade é o que falta para 1. Portanto a confiabilidade Rx é 0,80, ou seja, 80%. Se
aplicado o logaritmo natural ambos os lados da Equação 2, esta pode ser escrita na forma da
Equação 4.

ln[ln(1 / (1- Ff (x))] = β ln (x) – β ln (α) (4)

Com a linearização da Equação 4, obtém-se a regressão linear demonstrada nas


Equações 5 e 6, da qual os dois parâmetros da distribuição de Weibull, α e β são obtidos e por
fim determinados.

Y= mX + c (5)

α = e^(-c/β) e m=β (6)

Onde β é o coeficiente angular da equação de linearização da distribuição de Weibull, α


é obtido da relação entre o coeficiente linear da linearização e o parâmetro de forma. Ambas
as relações indicadas na Equação 6.

3. RESULTADOS E DISCUSSÃO

Através do ensaio de tração realizado nas fibras de tucum pode-se obter o módulo de
elasticidade para cada fibra. Os valores de módulo de elasticidade foram analisados através da
estatística de Weibull, para todas as faixas de diâmetro, Figura 3, assim como os parâmetros
de módulo de Weibull (β), parâmetro de escala (θ) e parâmetro de ajuste (R²).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

421
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3. Gráficos de probabilidade de Weibull para o módulo de elasticidade característico


das fibras de tucum em diferentes intervalos de diâmetros.
A Tabela 1 mostra os valores de módulo de elasticidade em função dos respectivos
intervalos de diâmetros das fibras de tucum. É possível observar o efeito do tamanho do
diâmetro da fibra de tucum sobre o módulo de elasticidade das fibras.

Tabela 1. Valores de módulo de elasticidade em função dos intervalos de diâmetros de fibras


de tucum.
Intervalo de Módulo Módulo de Ajuste de Módulo de Desvio
diâmetro (mm) de elasticidade precisão elasticidade padrão
Weibull característico (𝜃) (R²) médio (GPa) (GPa)
(𝛽) (GPa)
0,12≤d<0,20 1,122 33,10 0,984 29,60 2,59
0,20≤d<0,29 1,226 9,30 0,949 8,60 0,17
0,29≤d<0,38 1,490 5,30 0,978 5,20 0,30
0,38≤-d<0,46 0,630 4,80 0,906 4,00 0,10
0,46≤d<0,55 4,805 3,00 0,946 2,90 0,09
0,55≤d≤0,64 3,286 1,80 0,951 1,90 0,08

Com base na Tabela 1 pode-se observar que o módulo de elasticidade é inversamente


proporcional ao diâmetro. A Figura 4 mostra o gráfico construído a partir dos valores obtidos
de módulos de elasticidade das fibras de tucum, com tendência de uma curva potencial.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

422
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4. Variação do módulo de elasticidade característico em função dos intervalos de


diâmetros das fibras de tucum.

A Figura 5 mostra os dados estatísticos gerados pela análise de Weibull referentes aos
valores de tensão de tração característica e média.

Figura 5. Gráfico de probabilidade Weibull para tensão à tração máxima e tensão


característica das fibras de tucum em diferentes intervalos de diâmetros.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

423
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Tabela 2 apresenta os valores de tensão média e tensão de resistência característica em


função dos respectivos intervalos de diâmetros das fibras de tucum.

Tabela 2. Resultados probabilístico de Weibull para valores de tensão de resistência à tração


das fibras de tucum em função de seus respectivos intervalos de diâmetros.
Intervalo de Módulo Tensão de tração Ajuste de Tensão de Desvio
diâmetro (mm) de característica (𝜃) precisão resistência padrão
Weibull (MPa) (R²) média à tração (MPa)
(𝛽) (MPa)
0,12≤d<0,20 2,852 516,600 0,992 549,750 170,860
0,20≤d<0,29 2,012 125,800 0,976 124,530 12,590
0,29≤d<0,38 0,432 121,700 0,950 83,019 47,870
0,38≤-d<0,46 0,570 87,360 0,953 74,849 15,209
0,46≤d<0,55 1,362 59,810 0,993 58,363 21,777
0,55≤d≤0,64 3,120 33,600 0,972 34,075 16,960
Nota-se que a tensão de resistência à tração aumenta à medida que os diâmetros das fibras
de tucum diminuem. Analisando a Figura 6 pode ser percebido também que a relação entre o
diâmetro e a tensão de resistência à tração é inversamente proporcional. Isto testifica que as
fibras de tucum com menores diâmetros possuem resistência ao tensionamento de tração
superior às fibras com diâmetros maiores.

Figura 6. Variação da resistência de tensão de tração média em função dos intervalos de


diâmetros das fibras de tucum.
4. CONCLUSIONS

 O método estatístico de Weibull mostrou-se fundamental para a análise dos valores de


densidade em função dos intervalos de diâmetros das fibras de tucum, bem como para
a análise das propriedades mecânicas das fibras de tucum, em função dos intervalos de
diâmetros das mesmas.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

424
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

 As fibras de tucum mostraram-se resistentes ao tracionamento.


 A análise de Weibull foi utilizada para avaliar a variabilidade dos resultados de tração
das fibras.
 Com diâmetro entre 0,64 para 0,12, obteve-se um aumento no valor do módulo de
elasticidade de 1,90 para 26,9 GPa, um aumento de 14 vezes, mostrando que
diamêtros mais finos apresentam maior rigidez.
 Foi possível perceber que a tensão de ruptura das fibras sofre influência do tamanho
do diâmetro. Obteve-se para variação de 0,64-0,12 mm um aumento de 16 vezes o
valor da resistência da fibra, de 34,07 para 549,75 MPa.
 Os valores obtidos para o módulo de elasticidade e resistência a tração mostram que há
um menor número de imperfeições, irregularidades e descolamento entre fibrilas com
menores diâmetros investigados da fibra de tucum, tornando o material mais rígido e
coeso.

Acknowledgements

Os autores agradecem o apoio a esta investigação das agências brasileiras: Conselho


Nacional de Desenvolvimento, CNPq; Coordenação de Aperfeiçoamento de Pessoal de Nível
Superior, CAPES; e Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro, FAPERJ
(processo E-26 / 202.286 / 2018).

REFERENCES

Monteiro, S. N; Perissé, F. D. L; Costa, L. L; Bevitori, A.. B; Silva, I. A. S. Barbosa A.P,(2011) Natural


Lignocellulosic Fibers as engineering materials – na overview. The minerals, metals & materials Society and
ASM International 2011, 2966-Vol 42A, octouber 2011.
Monteiro, S.N., Satyanarayana, K.G., Lopes, F.P.D., (2010) “High strength natural fibers for improved polymer
matrix composites”, Mater Sci. Forum, vol. 638-642, pp. 961-966.
Margem F.M., J. Bravo Neto, S.N. Monteiro (2010) “Ramie fibers mechanical properties evaluation by the
Weibull analysis” (in Portuguese). In: Proceedings of the 19th Brazilian Congress on Materials Science and
Engineering. Campos do Jordão, Brazil, 2010, pp. 1- 10.
Ferreira, A. S. (2009). Características estruturais e propriedades de compósitos poliméricos reforçados com
fibras longas de curauá. Tese (Doutorado engenharia e ciências dos materiais) Campos dos Goytacazes, RJ,
UENF, Universidade Estadual do Norte Fluminense “Darcy Ribeiro”.
Bevitori, A.B. i, I.L.A. Silva, S.N. Monteiro (2010) “Weibull analysis of the tensile strength variation with
diameter for jute fibers”. In: Proceedings of the Biomaterials Symposium,First TMS-ABM International
Materials Congress. Rio de Janeiro, Brazil, 2010, pp. 1-10.
Costa L. L, R.L. Loiola, S.N. Monteiro (2010) “Tensile strength of bamboo fibers: Weibull analysis to
characterize the diameter dependence”. In: Proceedings of the Biomaterials Symposium, First TMS-ABM
International Materials Congress. Rio de Janeiro, Brazil, 2010, pp. 1-10.
Santafe H.P.G. Jr (2011) Características estruturais e propriedades de compósitas poliméricos reforçados com
fibras de coco. Tese (Doutorado em Ciência dos Materiais) Rio de Janeiro, UENF, Universidade Estadual do
Norte Fluminense.
Nascimento D.C.O., Motta L.C., , Monteiro S.N.(2010): “Weibull analysis of tensile tested piassava fibers with
different diameters”, In: Proceedings of the Characterization of Minerals, Metals and Materials Symposium –
TMS Conference, Seattle, USA, 2010, pp. 1-8.
Portela, T.G.R., Costa, L.L., Lopes F.P.D., Monteiro, S.N., (2010a) “Characterization of fibers from different
parts of the buriti palm tree”, In: Proceedings of the TMS –Conference, Characterization of Minerals Metals
& Materials Symposium, pp. 1-7, Seattle, USA, March (2010).
Defoirdt, N., Biswas, S., Vriese, L., Tran, L. Q. N., Acker, J. V., Ahsan, Q., Gorbatikh, L. Vuure, A. V.,
Verpoest, I., 2010, “Assessment of the Tensile Properties of Coir, Bamboo and Jute Fibre”, Composites: Part
A, v. 41, pp. 588–595.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

425
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Silva, F. A., Chawla, N., Toledo Filho, R. D., 2008, “Tensile Behavior of High Performance (sisal) Fibers”,
Composites Science and Technology, v. 68, pp. 3438-3443.
Tripathy, S. S., Landro, L. D., Fontanelli, D., Marchetti, A., Levita, G., 2000, “Mechanical Properties of Jute
Fbers and Interfacial Strength with an Epoxy Resin”, Journal of Applied Polymer Science, v. 75, pp. 1585–
1596.

APPENDIX A

TUCUM FIBERS AS REINFORCEMENT IN COMPOSITE MATERIALS:


STATISTICAL ANALYSIS OF RESISTANCE BY WEIBULL

Abstract. The use of plant resources for the production of materials is a renewable,
biodegradable and low-cost alternative. Vegetable fibers are not abrasive to equipment and
generate cheaper composites, with lower density and greater toughness. During the
conventional molding process, fibers undergo many mechanical efforts and thermochemical
attacks, requiring the study of their physical, chemical and mechanical properties. Among the
great variety of existing vegetable fibers, tucum fiber was chosen to be characterized in this
work. The choice of this fiber considered the regional economic development, and the small
number of studies of the fiber. Thus, in order to characterize the mechanical properties of the
tucum fiber, its tensile properties were investigated. The results achieved with the tucum fiber
were also compared with other lignocellulosic fibers. With a diameter between 0.64 to 0.12,
an increase in the value of the modulus of elasticity was obtained from 1.90 to 26.9 GPa, an
increase of 14 times. And for the tensile strength of the fibers, an increase of 16 times was
obtained, from 34.07 to 549.75 MPa.

Keywords: Tucum fiber, Mechanical properties, Weibull distribution

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

426
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTABILIDADE TÉRMICA DE ESCAMAS DE PIRARUCU E COMPÓSITOS COM


MATRIZ DE RESINA EPÓXI
Wendell Bruno Almeida Bezerra1 – wendellbez@ime.eb.br
Ulisses Oliveira Costa1 – ulissesolie@gmail.com
Fernanda Santos da Luz1 – fsl.santos@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Programa de Pós-Graduação em Ciência dos Materiais – Rio de
Janeiro, RJ, Brazil

Resumo. A sociedade atual demanda cada vez mais por materiais que apresentem soluções
para as questões de sustentabilidade e preservação do ambiente. Dessa forma, os materiais
naturais surgem como potenciais candidatos para o desenvolvimento de compósitos
sustentáveis. Este trabalho se propôs a analisar a estabilidade térmicas de compósitos de
resina epóxi reforçada com escamas de pirarucu. Os compósitos foram preparados utilizando
30%v/v de escamas de pirarucu e foram analisados através de análises dinâmico-mecânicas
(DMA), termogravimétricas (TGA) e calorimetria diferencial de varredura (DSC). Os
resultados de DMA e TGA demonstraram uma melhora nas propriedades térmicas dos
compósitos em relação à resina pura, enquanto os resultados de DSC demonstraram que a
utilização das escamas como reforço não prejudicou a estabilidade térmica da resina.

Palavras-chave: Escamas, Arapaima gigas, Compósito, Estabilidade térmica.

1. INTRODUÇÃO

Diferentes espécies de animais encontradas na natureza possuem em seus organismos


materiais de blindagem como conchas externas, carapaças, escamas e osteodermos. É comum
encontrar semelhanças nas estruturas internas desses sistemas naturais de proteção, o que
demonstra que houve um processo de evolução convergente atuante no decorrer de milhões de
anos (Yang et al., 2014; Yang et al., 2019). O crescente desenvolvimento do conhecimento
destes materiais permite um melhor entendimento das respostas mecânicas e das interações dos
componentes individuais de suas estruturas. Esse entendimento, por sua vez, possibilita tanto a
utilização desses materiais em novas aplicações quanto a mimetização dos mecanismos
intrínsecos à resistência mecânica (Liu et al., 2019; Meyers et al., 2012).
Um exemplo de uma espécie nacional que possui em sua pele uma blindagem natural, o
Arapaima gigas, ou pirarucu, é um dos maiores peixes de água doce e seu potencial em

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

427
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

piscicultura tem sido crescentemente explorado nos últimos anos (Imbiriba, 2001; de Oliveira
et al., 2012). Suas escamas alcançam até 10 cm de comprimento e são capazes de oferecer
proteção contra outros peixes carnívoros, como as piranhas, que habitam as mesmas regiões
(Yang et al., 2014; Meyers et al., 2012; Lin et al., 2011). Essas peças protetoras apresentam
uma estrutura complexa em camadas que, por sua vez, são formadas por lamelas de fibras de
colágeno reforçadas com nanocristais de hidroxiapatita (Yang et al., 2014; Yang et al., 2019;
Liu et al., 2019; Meyers et al., 2012). Essa estrutura é também conhecida como estrutura de
Bouligand e apresenta um gradiente de mineralização das fibras de colágeno ao longo de sua
espessura (Yang et al., 2014; Yang et al., 2019; Liu et al., 2019; Meyers et al., 2012; Lin et al.,
2011).
Vários trabalhos têm sido dedicados ao estudo da estrutura e das propriedades das escamas
de pirarucu nos últimos anos (Sherman et al., 2017; Murcia et al., 2017; Torres et al., 2012;
Arola et al., 2018). Uskokovic et al. (2003) estudaram a estabilidade térmica de biocompósitos
à base de colágeno com precipitados de hidroxiapatita, observando as transições de fase
presentes no material com o aumento da temperatura, principalmente na estrutura nativa das
fibras de colágeno. Torres et al. (2012) estudaram o efeito da quantidade de umidade presente
nas escamas de Arapaima gigas nas transições térmicas de suas estruturas. Eles observaram que
a temperatura de desnaturação do colágeno presente nas escamas tende a aumentar com o
aumento do teor de água das mesmas.
Nos últimos anos, tem crescido o interesse na pesquisa e desenvolvimento de materiais
compósitos em sintonia com as preocupações ambientais. Nessa área, as fibras naturais surgem
como forte alternativa dadas suas características como boa resistência mecânica, baixa relação
preço/custo, entre outros (Braga et al., 2018; Costa et al., 2019; Oliveira et al., 2019a;
Demosthenes et al., 2019; Nascimento et al., 2019a). Vários trabalhos têm se dedicado ao
estudo dos compósitos reforçados com fibras naturais lignocelulósicas, porém são encontrados
apenas alguns utilizando escamas como carga, observando uma variação nas propriedades de
seus compósitos (Chiarathanakrit et al., 2019; Wu, 2019; Razi et al., 2019). A utilização de
escamas de rohu (Labeo rohita) como reforço em compósitos com matriz de epóxi mostrou-se
promissora, dado que os compósitos reforçados obtiveram uma melhor resistência ao desgaste
por erosão quando comparados a resina epóxi pura (Satapathy et al., 2009. Bezerra et al. (2020)
estudaram a utilização das escamas de pirarucu como reforço em uma matriz de resina epóxi,
caracterizando tanto as escamas quanto os compósitos e observando que esses materiais
naturais promovem um aumento no módulo de elasticidade em flexão dos compósitos com
30%v/v.
Dessa forma, observa-se o potencial de utilização das escamas de pirarucu como reforço
em compósitos de matriz polimérica. O objetivo deste trabalho é avaliar a estabilidade térmica
das escamas de pirarucu e de compósitos poliméricos reforçados com 30% vol. através de
análises dinâmico-mecânicas (DMA), termogravimétricas (TGA) e calorimetria diferencial de
varredura (DSC).

2. MATERIAIS E MÉTODOS

As escamas de pirarucu foram adquiridas sem nenhum tratamento, em seu estado natural,
no Mercado Municipal Adolpho Lisboa, em Manaus, Amazonas. Subsequentemente, foram
submetidas a um processo de aplanamento conforme proposto por Bezerra et al. (2020) e
adicionadas na proporção de 30%v/v à uma matriz de resina epóxi DGEBA/TETA, fornecida
pela empresa Epoxyfiber, Rio de Janeiro, Rio de Janeiro, de modo a se obter o material
compósito.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

428
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A estabilidade térmica das escamas de pirarucu e dos compósitos com 30%v/v foi analisada
através das técnicas de TGA/DTG, DSC e DMA, cujo procedimento está descrito abaixo.

2.1 TGA/DTG e DSC

Pequenas quantidades de amostras tanto das escamas quanto do compósito 30%v/v


escamas/resina epóxi foram retiradas e pesadas em cerca de 10mg.
Foi utilizado o equipamento da TA Instruments Systems TGAQ500 para as análises
termogravimétricas (TGA/DTG) do material compósito. Parâmetros utilizados: taxa de
aquecimento de 10°C/min, partindo da temperatura ambiente até 800°C, em atmosferas de
nitrogênio e oxigênio. A partir destes resultados pode-se determinar a perda de massa, a
temperatura de início da perda de massa (onset) e a temperatura de máxima taxa de perda de
massa.
Os ensaios de DSC foram realizados tanto para as escamas quanto para o compósito com
30%v/v, no equipamento de DSC da NETZSCH modelo DSC 404 F1. Os parâmetros de ensaio
usados foram os seguintes: temperatura entre 25°C e 200 °C e taxa de aquecimento de 5°C/min,
em atmosferas de nitrogênio.

2.2 Análise dinâmico-mecânica (DMA)

A análise dinâmico mecânica foi realizada visando identificar os parâmetros de módulo de


armazenamento (E’), módulo de perda (E’’) e tangente delta (Tanδ) relativos ao comportamento
viscoelástico do material, além de outros parâmetros como a temperatura de transição vítrea
dos compósitos. Foram preparados corpos de prova retangulares de resina epóxi reforçada com
escamas de pirarucu, medindo 50x13x5 mm, seguindo o estabelecido na norma ASTM D4065.
O ensaio foi realizado em um equipamento TA Instruments, modelo Q/800, pertencente ao
Instituto de Macromoléculas da Universidade Federal do Rio de Janeiro (IMA/UFRJ), no modo
de flexão de três pontos a 1 Hz de frequência e taxa de aquecimento de 3ºC/min sob atmosfera
de nitrogênio, em um intervalo de temperatura de -50 a 150 ºC.

3. RESULTADOS E DISCUSSÃO

3.1 TGA/DTG e DSC

A Figura 1 exibe as curvas de análise termogravimétrica e sua derivada de primeira ordem


para a amostras do compósito de matriz de resina epóxi com 30%v/v de escamas de pirarucu.
A partir destes resultados, é possível observar uma pequena perda de massa (3,8%) em
temperaturas próximas de 100°C se prolongando até 200°C, que está associada a umidade
absorvida pela matriz epóxi (Oliveira et al., 2019a; Demosthenes et al., 2019; Nascimento et
al., 2019a). Uma maior perda de massa ocorre a partir de 330,77°C (Tonset) onde se inicia a
degradação da resina e das escamas presentes na estrutura do compósito. Além disso, é possível
perceber através da curva DTG uma maior taxa de degradação do material em uma temperatura
de 371,99°C e que houve uma perda total de massa de 85,86%. As temperaturas observadas
apresentam valores próximos àqueles relatados em trabalhos anteriores com compósitos de
resina epóxi e fibras naturais (Demosthenes et al., 2019; Nascimento et al., 2019b).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

429
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 – Curvas de TGA e DTG para o compósito de resina epóxi com 30%v/v de escamas
de pirarucu.

Deste modo, o pico da curva DTG associado à taxa de decomposição da resina epóxi
reforçada com 30%v/v, aparentemente são afetados pela presença das escamas se comparado
ao valor para resina epóxi pura, de 357,16°C, relatado na literatura (Nascimento et al., 2019b).
Portanto, pode-se afirmar que a estabilidade do compósito em relação a resina epóxi antes da
incorporação das escamas não foi prejudicada. Considera-se a temperatura máxima de trabalho
do compósito de 200°C.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

430
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – Curvas de DSC das escamas de pirarucu.

A Figura 2 mostra as curvas de DSC para a escama de pirarucu. Nesta figura, a curva [1,2]
refere-se ao primeiro estágio de aquecimento enquanto a curva [1,5] faz referência ao segundo
estágio de aquecimento. É possível observar a presença de picos endotérmicos em temperaturas
entre 40 e 60°C. Esses picos podem estar associados à perda de umidade presente nas escamas
de pirarucu ou ao início do processo de desnaturação do colágeno tipo I, presente na estrutura
das escamas. Esse fenômeno foi observado em trabalhos anteriores para uma temperatura de
aproximadamente 73°C e varia com a umidade presente nas escamas (Torres et al., 2012).
A Figura 3 apresenta as curvas de DSC obtidas para os compósitos de resina epóxi
reforçados com 30%v/v de escamas de pirarucu. A curva designada [1,2] representa o primeiro
estágio de aquecimento e a curva nomeada [1,5] está relacionada ao segundo estágio de
aquecimento.

Figura 3 – Curvas de DSC dos compósitos de resina epóxi reforçada com 30%v/v de escamas
de pirarucu.

As análises efetuadas por DSC da matriz de epóxi e do compósito com 30%v/v de escamas
evidenciaram muito limitadamente uma pequena variação nos picos endotérmicos observados
nas curvas do primeiro estágio de aquecimento. Devido a limitações do equipamento,
temperaturas superiores a 200°C não puderam ser atingidas o que limitou as transições térmicas
observadas nos materiais.

3.2 Análise dinâmico-mecânica (DMA)

A análise dinâmico-mecânica (DMA) permite avaliar a estabilidade do compósito com o


aumento da temperatura, sua temperatura de transição vítrea e sua natureza viscoelástica
quando estimulada por carga dinâmica. Essas análises foram realizadas nos compósitos de
resina epóxi reforçada com 30%v/v de escamas de pirarucu. As curvas do módulo de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

431
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

armazenamento (E’), módulo de perda (E”) e tan δ foram obtidas a partir dos resultados e são
mostradas na Figura 4.
A partir da Figura 4 é possível determinar que a Tg do compósito com 30%v/v de escamas
de pirarucu é igual a 100,56°C. Esse valor é ligeiramente superior aquele encontrado por outros
autores para a resina epóxi pura. Esse valor e outros são mostrados na Tabela 1. O aumento da
temperatura de transição vítrea pode indicar que a incorporação das escamas de pirarucu
diminuiu a mobilidade das cadeias da resina epóxi, restringindo-as (da Luz et al., 2018). Como
consequência disso, a estabilidade térmica dos compósitos com 30%v/v de escamas de pirarucu
apresenta uma melhora em relação à resina pura.

Figura 4 - Gráficos de DMA para o módulo de armazenamento (E’), módulo de perda (E’’) e
tan δ para amostra com 30%v/v de escamas de pirarucu.

O módulo de armazenamento alcançou cerca de 6500 MPa a temperatura de 25°C e o


módulo de perda em torno de 550 MPa no seu ponto máximo, para os compósitos com 30%v/v
de escamas de pirarucu. Isso representa um aumento médio de 73% e 120%, em relação aos
valores reportados para a resina epóxi pura por da Luz et al. (2018) o que representa um ganho
significativo nas propriedades viscoelásticas. Além disso, na Figura 4 é possível observar uma
queda brusca do módulo de armazenamento a temperaturas em torno de 60-85°C. Essa queda
está relacionada a relaxamentos na matriz polimérica associados à temperatura de transição
vítrea (Tg) do estado cristalino para o amorfo. O pico de relaxação (α), representado pelo ponto
máximo da curva do módulo de perda, ocorreu em temperaturas próximas a 80ºC. Esse valor
encontra-se próximo àqueles obtidos em outros compósitos reforçados com fibras naturais,
como exposto na Tabela 1.

Tabela 1 - Valores de Tg, E’ a 25º, E” e obtidos para o compósito de resina epóxi reforçada
com 30%v/v de escamas de pirarucu e outros compósitos com fibras naturais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

432
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Módulo de
Módulo de Pico de
perda
Material Tg (ºC) armazenamento relaxação Fonte
máximo
(MPa) a 25º  (ºC)
(MPa)
Epóxi+30
%v/v Presente
100,56 6500 550 80
escamas- trabalho
pirarucu
Epóxi+30
Nascimento
%fibras- 96,91 4300 600 85
et al. (2019b)
malva
Epóxi+30
Oliveira et
%tecido- 89,38 1300 180 85
al. (2019b)
fique
Epóxi+30
da Luz et al.
%fibras- 73,16 3800 430 75
(2018)
coco
da Luz et al.
Epóxi pura 82,73 3800 280 80
(2018)

4. CONCLUSÃO

Os compósitos de resina epóxi reforçados com 30%v/v de escamas de pirarucu foram


estudados por meio de análises de TGA, DTG e DSC, a fim de determinar o comportamento
térmico da resina após incorporação do reforço de escamas.
As análises de TGA e DTG permitiram observar a perda de massa para as escamas de
pirarucu em torno de 3,8%, que está associado com a perda de umidade no compósito. Uma
degradação mais acentuada foi observada entre 200°C e 600°C. A partir da curva pode-se obter
a temperatura de início da degradação (Tonset) de aproximadamente 330,8°C e a máxima taxa
de perda de massa para a resina epóxi reforçada com 30%v/v de escamas teve um aumento para
372°C em relação ao valor reportado na literatura para a resina pura (351°C) (Nascimento et
al., 2019b). Isso pode ser associado a um aumento de estabilidade do compósito quanto à resina
epóxi pura e das escamas de pirarucu (Torres et al., 2012). O teor de cinzas restante foi de cerca
de 14,2%, possivelmente relacionado aos componentes que não sofreram degradação nas
temperaturas mais altas. O início da degradação manteve-se próximo de 200°C, temperatura
esta que é considerada a temperatura máxima de trabalho para o compósito (Monteiro et al.,
2012a; Monteiro et al., 2012b).
Os gráficos de DSC mostraram certa similaridade no comportamento térmico das escamas
de pirarucu com o que foi relatado em trabalhos anteriores (Torres et al., 2012). Pode-se
observar eventos endotérmicos entre 40 e 60°C provavelmente associados a perda de umidade
das escamas e ao início do processo de denaturação do colágeno tipo I presente na estrutura. A
partir das curvas dos compósitos, pode-se observar que não houve variação considerável nos
eventos da estabilidade térmica dos componentes do compósito.
Através das curvas de DMA foram calculadas as temperaturas de transição vítrea (Tg) para
os compósitos reforçados 30%v/v de escamas de pirarucu, encontrando-se o valor de 101°C,
aproximadamente. Os módulos de armazenamento e perda apresentaram um aumento com a
adição de 30%v/v de escamas quando comparados à resina epóxi pura. O módulo de
armazenamento aproximou-se a 6500 MPa na temperatura de 25°C e o módulo de perda foi de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

433
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

cerca de 550 MPa no seu valor máximo. O pico de relaxação (α), representado pelo ponto
máximo da curva do módulo de perda, foi de 79°C.
De modo geral, pode-se afirmar que houve uma melhora nas propriedades térmicas da
resina epóxi após a incorporação de 30%v/v de escamas de pirarucu, dado que houveram
incrementos nos módulos de armazenamento e perda e a temperatura de início de degradação
da resina não sofreu decréscimo considerável. Esses resultados indicam o potencial de aplicação
das escamas de pirarucu como reforço em compósitos poliméricos.

Agradecimentos

Os autores agradecem o apoio das agências brasileiras: CNPq, FAPERJ e CAPES para o
desenvolvimento deste trabalho.

REFERÊNCIAS

Arola, D. et al. (2018), The limiting layer of fish scales: Structure and properties. Acta Biomaterialia, 67, 319-330.
Bezerra, W.B.A. et al. (2020), Processing and characterization of Arapaima gigas scales and their reinforced epoxy
composites. Journal of Materials Research and Technology, 9, 3005-3012.
Braga, F.D.O. et al. (2018), Ballistic comparison between epoxy-ramie and epoxy-aramid composites in
Multilayered Armor Systems. J Mater Res Technol, 7, 541–9.
Chiarathanakrit, C. et al. (2018), Transforming fish scale waste into an efficient filler for starch foam. Carbohydr
Polym, 188, 48–53.
Costa, U.O. et al. (2019), Effect of graphene oxide coating on natural fiber composite for multilayered ballistic
armor. Polymers, 11, 1356.
da Luz, F.S. et al. (2018), Evaluation of Dynamic Mechanical Properties of PALF and Coir Fiber Reinforcing
Epoxy Composites. Materials Research, 21, e20171108.
de Oliveira, E.G. et al. (2012), Effects of stocking density on the performance of juvenile pirarucu (Arapaima
gigas) in cages. Aquaculture, 370–371, 96–101.
Demosthenes, L.C.C. et al. (2019), Thermal and structural characterization of buriti fibers and their relevance in
fabric reinforced composites. J Mater Res Technol, 9, 115–23.
Imbiriba, E.P. (2001), Potencial de criação de pirarucu, Arapaima gigas, em cativeiro. Acta Amazonica, 31, 299-
316.
Lin, Y.S. et al. (2011), Mechanical properties and the laminate structure of Arapaima gigas scales. J Mech Behav
Biomed Mater, 4, 1145–56.
Liu, Z. et al. (2019), Adaptive structural reorientation: Developing extraordinary mechanical properties by
constrained flexibility in natural materials. Acta Biomater, 86, 96–108.
Meyers, M.A., Lin, Y.S., Olevsky, E.A. et al. (2012), Battle in the Amazon: Arapaima versus Piranha. Advanced
Engineering Materials. 14, 279-288.
Monteiro, S.N. et al. (2012a), Thermogravimetric behavior of natural fibers reinforced polymer composites - An
overview. Materials Science & Engineering A, 557, 17-28.
Monteiro, S.N. et al. (2012b), Thermogravimetric Stability of Polymer Composites Reinforced with Less Common
Lignocellulosic Fibers – An Overview. Journal of Materials Research and Technology, 1, 117-126.
Murcia, S. et al. (2017), The natural armors of fish: A comparison of the lamination pattern and structure of scales.
Journal of the Mechanical Behavior of Biomedical Materials, 73, 17-27.
Nascimento, L.F.C. et al. (2019a) Curing kinetic parameters of epoxy composite reinforced with mallow fibers.
Materials, 12, 1–9.
Nascimento, L.F.C. et al. (2019b), “Análise térmica do compósito epóxi-fibra de malva para aplicação em
blindagem balística multicamada”. ABM Week Proceedings, São Paulo.
Oliveira, M.S. et al. (2019), “Evaluation of Dynamic Mechanical Properties of Fique Fabric / Epoxy Composites”,
in Green Materials Engineering: An EPD Symposium in Honor of Sergio Monteiro, Springer (ed.), New
York.
Oliveira, M.S. et al. (2019), “Thermal Behavior of Epoxy Composites Reinforced with Fique Fabric by DSC”, in
Green Materials Engineering: An EPD Symposium in Honor of Sergio Monteiro, Springer (ed.), New York.
Razi, Z.M. et al. (2019), Mechanical, structural, thermal and morphological properties of a protein (fish scale)-
based bisphenol-A composites. Polym Test, 74, 7–13.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

434
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Satapathy, A. et al. (2009), A study on processing, characterization and erosion behavior of fish (Labeo-rohita)
scale filled epoxy matrix composites. Mater Des, 30, 2359–71.
Sherman, V.R. et al. (2017), A comparative study of piscine defense: The scales of Arapaima gigas, Latimeria
chalumnae and Atractosteus spatula. Journal of the Mechanical Behavior of Biomedical Materials, 73, 1–16.
Torres, F.G. et al. (2012), The effect of water on the thermal transitions of fish scales from Arapaima Gigas.
Materials Science and Engineering C, 32, 2212-2214.
Uskokovic, V. et al. (2003), Synthesis and characterization of Hydroxyapatite-collagen biocomposite materials.
Mater. Sci. Forum., 413, 269–274.
Wu, C.S. (2019), Comparative assessment of the interface between poly(3-hydroxybutyrate-co-3-hydroxyvalerate)
and fish scales in composites: Preparation, characterization, and applications. Mater Sci Eng C, 104, 109878.
Yang, W. et al. (2014), Protective role of Arapaima gigas fish scales: Structure and mechanical behavior. Acta
Biomaterialia, 10, 3599–3614.
Yang, W. et al.. (2019), Structural architectures with toughening mechanisms in Nature: A review of the materials
science of Type-I collagenous materials. Prog Mater Sci, 103, 425–83.

APÊNDICE A

THERMAL STABILITY OF ARAPAIMA SCALES AND THEIR REINFORCED


EPOXY COMPOSITES

Abstract. Nowadays, society demands more and more for materials that present solutions to
sustainability and environmental preservation issues. In this perspective, natural materials
appear as potential candidates for the development of sustainable composites. This work aimed
to analyze the thermal stability of epoxy resin composites reinforced with pirarucu (Arapaima
gigas) scales. The composites were prepared using 30% v/v of Arapaima scales. The composites
were analyzed through dynamic mechanical analysis (DMA), thermogravimetric analysis
(TGA) and differential calorimetry scanning (DSC). The DMA and TGA results demonstrated
an improvement in the thermal properties of the composites in relation to the plain resin, while
the DSC results demonstrated that the use of Arapaima scales as reinforcement did not impair
the thermal stability of the resin.

Keywords: Scales, Arapaima, Composites, Thermal stability.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

435
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

PROPRIEDADES MECÂNICAS DE COMPÓSITOS DE RESINA EPÓXI


REFORÇADA COM ESCAMAS DE PIRARUCU
Wendell Bruno Almeida Bezerra1 – wendellbez@ime.eb.br
Ulisses Oliveira Costa1 – ulissesolie@gmail.com
Fernanda Santos da Luz1 – fsl.santos@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Programa de Pós-Graduação em Ciência dos Materiais – Rio de
Janeiro, RJ, Brazil

Resumo. A ressignificação de materiais naturais para aplicações de maior demanda


tecnológica é uma abordagem economicamente atrativa para o desenvolvimento de novos
materiais sustentáveis. Dessa forma, a utilização de materiais naturais como reforços em
compósitos surge com um grande potencial. Este trabalho se propôs a analisar as propriedades
mecânicas estáticas e dinâmicas de compósitos de resina epóxi reforçada com escamas de
pirarucu. Os compósitos foram preparados utilizando 20, 30 e 40%vol de escamas de pirarucu
e foram analisados através de ensaios de impacto Izod, ensaio de compressão e análise da
absorção de energia de impacto por velocidade residual. Os resultados de impacto Izod
demonstraram um aumento significativo na energia absorvida para os compósitos com 40%vol
de escamas, enquanto os com 20% não demonstraram alteração considerável. Os ensaios de
compressão dos compósitos com 30%vol de escamas demonstraram um aumento significativo
no módulo de elasticidade e na resistência à compressão, em relação à resina pura, bem como
no ensaio de velocidade residual houve um aumento na energia absorvida pelo compósito com
a incorporação das escamas de pirarucu na resina epóxi.

Palavras-chave: Escamas, Compósitos, Velocidade residual, Propriedades mecânicas.

1. INTRODUÇÃO

A natureza é capaz de produzir através dos processos evolutivos materiais com


propriedades extremamente interessantes e capazes de resistir à perfuração, fornecendo
proteção aos seus donos (Yang et al., 2014; Yang et al., 2019; Liu et al., 2019; Meyers et al.,
2012). O pirarucu, Arapaima gigas, é um exemplo de uma espécie de peixe, nativo da
Amazônia, considerado um dos maiores peixes osteoglossiformes de água doce. Esse peixe
possui escamas que apresentam cerca de 1mm de espessura e podem chegar a 10 cm de
comprimento. Elas apresentam uma estrutura interna dividida em camadas que possuem um

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

436
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

gradiente de mineralização, sendo esta maior na superfície e menor na camada mais interna. As
camadas mais internas são formadas por lamelas, com aproximadamente 50 μm de espessura,
de fibras de colágeno tipo I reforçadas com nanocristais de hidroxiapatita. Essas lamelas são
empilhadas com orientações que variam em um ângulo característico, entre 45-90⁰, formando
uma estrutura do tipo Boulingand (Lin et al., 2011; Sherman et al., 2017; Murcia et al., 2017;
Arola et al., 2018; Torres et al., 2008).
Considerando a motivação de desenvolver materiais sustentáveis e mais amigáveis ao meio
ambiente, a utilização das escamas de peixe com sua proteção natural torna-se uma potencial
alternativa na criação de novos compósitos. Para tanto é necessário entender a resposta
mecânica estática e dinâmica desses materiais. Nos últimos anos, muitas pesquisas têm se
dedicado aos materiais compósitos reforçados com fibras naturais, principalmente as
lignocelulósicas (Costa et al., 2019; Demosthenes et al., 2019; Ku et al., 2011; Nascimento et
al., 2019a; Oliveira et al., 2019). No entanto, pouco tem sido publicado sobre a aplicação das
escamas de peixe como reforços em materiais compósitos e suas propriedades mecânicas
(Chiarathanakrit et al., 2018; Wu, 2019; Razi et al., 2019; Satapathy et al., 2009). Em um dos
poucos trabalhos sobre utilização das escamas de pirarucu, Bezerra et al. (2020) analisaram a
estrutura e algumas propriedades mecânicas das escamas de pirarucu e de seus compósitos com
resina epóxi, reportando que sua utilização como reforço resultou em um aumento no módulo
de elasticidade em flexão dos compósitos com 30%vol de escamas de pirarucu.
Nesse contexto, o objetivo do presente estudo é documentar o comportamento mecânico
através da absorção de energia por impacto Izod, a resposta mecânica sob compressão e a
resposta dinâmica através da energia absorvida de um projétil de alta velocidade, do compósito
de resina epóxi reforçada com 30%vol de escamas de pirarucu.

2. MATERIAIS E MÉTODOS

Escamas de pirarucu foram obtidas de um Mercado Municipal de Manaus, Amazonas. As


escamas foram submetidas a um processo de aplanamento de modo a facilitar sua utilização
para a fabricação do material compósito, conforme proposto por Bezerra et al. (2020).
O compósito de resina epóxi reforçada com 20, 30 e 40%vol de escamas de pirarucu foram
produzidos através de um processo de moldagem por compressão. A resina epóxi utilizada foi
a DGEBA/TETA, com um phr de 13 partes de endurecedor para 100 partes de resina, fornecida
pela Epoxyfiber, Rio de Janeiro, Brasil.

2.1 Ensaio de impacto Izod

Com o objetivo de aferir a energia de fratura dos compósitos, em Joules por metro (J/m),
os ensaios de impacto Izod foram realizados no Laboratório de Fibras Naturais, na Universidade
Estadual do Norte Fluminense (UENF), com o equipamento Pantec, Modelo XC-50, utilizando
um martelo de 11J e seguindo a norma ASTM D256.
Dessa forma, os ensaios foram realizados nos compósitos de resina epóxi reforçada com
escamas de pirarucu nos percentuais de 20 e 40 %vol. Foram preparados sete corpos de prova
de cada fração selecionada, apresentando dimensões de 63,5x12,7x10 mm, conforme a FIG.
3.7. Uma fresa em aço, disponível no Laboratório de Fibras Naturais, será utilizada para a
confecção do entalhe com 2,54 mm de profundidade, ângulo de 45º e raio de curvatura de 0,25
mm.
Os resultados obtidos foram submetidos à análise de variância (ANOVA) e as médias
foram comparadas utilizando o teste de Tukey, conforme descrito na literatura (Costa et al.,
2020).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

437
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Ensaio de compressão

O ensaio de compressão foi realizado em dez corpos de prova preparados a partir da resina
epóxi pura e dos compósitos de resina epóxi com 30%vol de escamas de pirarucu, segundo as
recomendações da norma ASTM D6641.
As placas de compósito foram cortadas em peças menores com dimensões de 10x10x20
mm e os testes de compressão foram realizados em um equipamento EMIC DL10000,
utilizando uma velocidade de deformação fixada em 5 mm/min.

2.3 Ensaio de velocidade residual

O ensaio balístico objetiva verificar a capacidade de um material de proteção de absorver


a energia cinética de um corpo em movimento. No presente trabalho, foram avaliadas as placas
de compósito com a fração volumétrica de 30% de escamas de pirarucu, através da avaliação
da perda de energia do projétil após impacto no material da camada intermediária (ensaio de
velocidade residual).
Foi utilizada munição de calibre 7,62 x 51 mm M1, como fornecida comercialmente ao
Exército, de modo a avaliar o nível de proteção III, conforme a NIJ 0101.04. Foram realizados
sete disparos para que a estatística de Weibull pudesse ser aplicada. Os ensaios foram realizados
no Centro de Avaliações do Exército (CAEx), no Rio de Janeiro. Nestes ensaios foi utilizado
um projétil de calibre 7,62 mm, um dispositivo de fixação do alvo e um radar doppler WEIBEL
SL-520P, para medição da velocidade do projétil.

3. RESULTADOS E DISCUSSÃO

3.1 Ensaio de impacto Izod

Os resultados obtidos no ensaio de impacto Izod para os compósitos epoxídicos reforçados


com 20% e 40%vol de escamas de pirarucu, juntamente com aqueles obtidos anteriormente
para a resina pura (0%) (Costa et al., 2020), são expostos na Tabela 1.

Tabela 1 - Resultados do ensaio de impacto Izod para os compósitos de matriz epóxi


reforçados com escamas de pirarucu.

Energia absorvida (J/m)


Fração volumétrica 0% 20% 40%
Média 6,30 29,75 292,36
Desvio Padrão 1,94 13,54 59,48
Fonte Costa et al. (2020) Presente trabalho Presente trabalho

Pela observação dos resultados apresentados na Tabela 1, é possível notar a presença de


dois incrementos na energia de impacto Izod. Inicialmente, com a incorporação de 20%vol de
escamas e em segundo caso com o aumento da fração volumétrica do reforço de 20 para 40%.
A variação de energia observada nesses casos provavelmente está relacionada a uma mudança
nos mecanismos de fratura atuantes. A resina epóxi pura inicialmente apresenta um mecanismo
completamente frágil, com uma absorção de energia menor, e transiciona para um
comportamento de transição dúctil-frágil com a adição de 20%vol de reforço. Isto ocorre devido
a alteração do caminho de propagação transversal da trinca na matriz. Com o aumento da fração
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

438
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

volumétrica das escamas de pirarucu, estas passam a funcionar como barreiras a propagação
das trincas, desviando sua trajetória e aumento a energia de impacto do sistema, de modo
semelhante aos compósitos reforçados com fibras naturais e tecidos (Gomes et al., 2015). Outro
aumento, porém mais expressivo, ocorreu com a variação de 20 para 40%vol de escamas de
pirarucu, evidenciando uma transição no mecanismo de ruptura para esta fração volumétrica de
reforço, esse fenômeno também é observado em compósitos reforçados com fibras naturais
(Costa et al., 2020; Oliveira et al., 2019).
Após os ensaios, foi observada a ruptura completa de todos os corpos de prova, validando
os resultados obtidos. A superfície de fratura dos corpos de prova foi inspecionada através do
microscópio eletrônico de varredura de modo a identificar os mecanismos de fratura presentes.
A Figura 1 (a) apresenta a superfície de fratura dos compósitos reforçados com 20%vol de
escamas de pirarucu. É possível observar a presença de duas camadas de escamas que
aparentam fratura frágil nesta região da seção transversal do compósito. Pode-se ver a presença
de trincas nas camadas internas das escamas que estão associadas aos mecanismos de
propagação de trincas na matriz interna composta lamelas de colágeno (estrutura de Bouligand)
(Yang et al., 2014; Yang et al., 2019; Liu et al., 2019; Meyers et al., 2012; Lin et al., 2011).
Além disso, podem ser observadas marcas de rio na matriz epóxi, o que caracteriza a presença
de um mecanismo de fratura completamente frágil (Costa et al., 2020).

(a) (b)

Figura 1 – Microscopia eletrônica de varredura da superfície de fratura dos compósitos de


resina epóxi com 20%vol de escamas de pirarucu, com (a) 50x e (b) 1.000x de aumento.

Na Figura 1 (b), com um aumento maior na região das escamas é possível observar os
mecanismos de deformação e fratura presentes neste material. Pode-se observar a ruptura das
fibras de colágeno orientadas perpendicularmente ao plano da fratura e, concomitantemente,
rotação, delaminação e ruptura das fibras presentes nas lamelas orientadas paralelamente ao
plano de fratura, como indicado por estudos anteriores (Yang et al., 2014; Yang et al., 2019.
Além dos mecanismos citados anteriormente, foi possível observar a presença do efeito
pullout de feixes de fibras de colágeno orientadas na direção perpendicular à superfície de
fratura, como mostrado na Figura 2.
As Figuras 2 (a) e 2 (b) apresentam imagens de microscopia eletrônica de varredura obtidas
para a superfície de fraturas dos compósitos de resina epóxi reforçada com 40%vol de escamas
de pirarucu, após ensaio de flexão.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

439
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Figura 2 (a) pode-se rapidamente constatar a diferença quanto ao número de camadas


de escamas presente na matriz de epóxi. Nessa figura, é possível observar ainda as marcas de
praia e marcas de rios associadas ao mecanismo de fratura frágil da resina epóxi (Costa et al.,
2020). Além disso, há regiões de lamelas de fibras de colágenos orientadas perpendicularmente
à superfície de fratura que parecem ter sido arrancadas da escamas de pirarucu, todavia em uma
escala bem maior que aquela observada nas escamas dos compósitos com 20%vol de reforço.
Esse mecanismo provavelmente está associado à absorção maior de energia nos compósitos
com 40%vol de escamas de pirarucu como reforço. Além disso, trincas interlamelares
observadas nas escamas que reforçavam os compósitos com menor reforço não estiveram
presentes, como pode ser observado na Figura 2 (b).

(a) (b)

Figura 2 - Microscopia eletrônica de varredura da superfície de fratura dos compósitos com


40%vol de escamas de pirarucu, com aumento de (a) 50x e (b) 200x.

Na Figura 2 (b) é possível observar os mecanismos de rotação, delaminação e ruptura das


fibras de colágeno presentes próximas à camada limite, de maior mineralização. Além dos
mecanismos citados, é possível observar a presença de pequenos fragmentos provavelmente
provenientes da região externa mais mineralizada e dura.
A análise de variância (ANOVA) foi realizada a fim de verificar a existência de diferença
significativa entre os valores da energia de impacto Izod para os compósitos apresentando 0
(Costa et al., 2020), 20 e 40%vol de escamas de pirarucu como reforço. Os resultados são
apresentados na Tabela 2.

Tabela 2 - Análise de variância da energia de impacto Izod para os compósitos epoxídicos


reforçados com 0%, 20% e 40%vol com escamas de pirarucu.

Causas de variação GL SQ QM F calc F crít (tab.)


Tratamentos 2 353127,53 176563,77 142,22 3,55
Resíduo 18 22346,13 1241,45
Total 20 375473,67

A partir da Tabela 2, é possível afirmar que as médias não são iguais com nível de
significância de 5%, visto que F calculado (142,22) > F crítico (3,55). Dessa forma, pode-se
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

440
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

concluir que a fração volumétrica das escamas de pirarucu como reforço na matriz epóxi
apresenta efeito diferente na energia de impacto Izod. Sendo assim, o Teste de Tukey foi
utilizado, com nível de confiança de 95%, para avaliar a fração volumétrica que oferece
melhores resultados quanto a energia absorvida. Foi obtida uma diferença média significativa
(d.m.s) de 59,79. Os resultados encontrados para as diferenças entre os valores médios da
energia de impacto Izod para as diferentes frações volumétricas de escamas testadas mostraram
que com a incorporação de 40%vol de escamas de pirarucu na resina epóxi, os compósitos
resultantes apresentaram melhor desempenho, apresentando maior valor de energia média de
impacto Izod (292,36 J/m). Resultados semelhantes foram observados em outros trabalhos
relacionados a energia de impacto em compósitos reforçados com fibras naturais (Oliveira,
2018).
Além disso, foi possível observar também diferença significativa entre os valores de
energia média de impacto Izod entre as frações de reforço com 20 e 40%vol, evidenciando uma
ligação direta entre o aumento da percentagem de escamas de pirarucu e a energia de impacto
Izod.

3.2 Ensaio de compressão

Foram obtidas curvas de força versus deslocamento para os corpos de prova submetidos ao
ensaio de compressão. A análise das curvas permite constatar a ocorrência de um aumento
levemente não-linear da força, seguido de falha catastrófica após a força máxima de resistência,
como exposto na Figura 3. Foi possível observar também uma pequena variação no
comportamento mecânico, que é comum em materiais naturais. Nos casos extremos, os
compósitos epóxi/30%vol de escamas suportaram uma carga máxima superior de 8.577 N com
um deslocamento de 1,80 mm, enquanto apresentaram uma resistência à compressão máxima
inferior de 5.645 N, com 0,90 mm de deslocamento até a falha.

Figura 3 – Curvas de força vs deslocamento do ensaio de compressão dos compósitos de


resina epóxi reforçada com 30%vol de escamas de pirarucu.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

441
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Após a falha, o compósito da resina epóxi-escamas de pirarucu foi completamente


desintegrado. O mecanismo de falha primária foi a falha frágil devido à delaminação na
interface entre as escamas de pirarucu e as camadas epóxi. O mecanismo de falha secundária
foi a flambagem das camadas internas de resina/escamas com alguma delaminação sob força
compressiva, devido ao início e propagação de trincas nas interfaces das escamas com a matriz
epóxi, resultando em propagação de trincas na matriz. Geralmente, as propriedades mecânicas
dos compósitos são acentuadamente melhoradas com a adição de um reforço, considerando-se
que a fase de reforço apresenta valores de resistência e rigidez superiores aos da fase matriz.
Da mesma forma, deve-se observar o efeito reforçador da escama de pirarucu na matriz epóxi
através do aumento nas propriedades de resistência à compressão, como exposto na Tabela 3.

Tabela 3 - Propriedades mecânicas da resina epóxi pura e dos compósitos com escamas de
pirarucu.

Material Módulo de Young Limite de resistência à Deformação (%)


(MPa) compressão (MPa)
Epóxi+30%vol 1406,20 ± 241 68,40 ± 11,69 5,61 ± 1,90
escamas
Epóxi pura 710,88 ± 98 20,80 ± 7,14 2,89 ± 1,19

Os dados da Tabela 3 apresentam uma comparação entre os resultados do ensaio de


compressão do compósito epóxi/30%vol de escamas de pirarucu e da epóxi pura. É possível
observar claramente um aumento nas propriedades da resina epóxi após a incorporação das
escamas de pirarucu. Além da resistência à compressão inerente à estrutura interna das escamas,
a adesão na interface matriz e reforço pode ser entendida como outro mecanismo de aumento
da resistência no compósito.

3.3 Ensaio balístico de velocidade residual

A Tabela 4 apresenta os dados obtidos para o compósito com 30%vol de escamas de


pirarucu.

Tabela 4 - Velocidades de impacto e residual obtidas para os compósitos reforçados com


30%vol de escamas de pirarucu.

Tiro Vi Vr
1 850,20 804,60
2 847,50 816,10
3 846,10 811,00
4 842,40 805,10
5 833,70 791,60
6 848,80 814,30
7 860,00 828,70
Desvio Padrão 7,97 11,53
Média 846,90 810,20

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

442
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A análise de Weibull também foi aplicada nos resultados do teste de velocidade residual e
o gráfico está exposto na Figura 6, para o compósito com reforço de 30%vol de escamas de
pirarucu. Nessa análise, a unidade característica resultante da estatística de Weibull representa
a velocidade limite (VL) para cada componente testado. Os valores mais característicos obtidos
de VL foram de 254,2m/s para o compósito com escamas de pirarucu, apresentando um módulo
de Weibull de 14,88. Quanto ao valor de R², o componente da blindagem multicamada estudado
apresentou um valor razoável, igual a 0,86. Esse fator indica que os resultados obtidos para o
compósito de escamas de pirarucu possuem cerca de 14% não explicado pela variação
estatística da distribuição de Weibull. Para as placas compósitas avaliadas, o mecanismo de
absorção de energia pode ser associado à fragmentação frágil da matriz em conjunto com o os
mecanismos atuantes das escamas e a presença de vazios.

Figura 4 - Gráfico de Weibull da velocidade limite (VL) para o compósito com reforço de
30%vol de escamas de pirarucu.

A placa compósita com 30%vol de escamas de pirarucu apresentou maior absorção da


energia de impacto (295,07J), em torno de 8,5%, que compósitos com fibras de curauá com
absorção de 3% da energia (da Silva, 2014). Os valores obtidos para o compósito com reforço
de escamas encontram-se bem próximos aos observados para o compósito com 20%v/v de
fibras de malva (Nascimento et al., 2019b). Embora a diferença entre essas porcentagens seja
pequena, essa diferença pode ser atribuída ao volume de vazios dentro da placa compósita,
sendo maior no compósito com escamas de pirarucu. Além disso, os parâmetros obtidos para o
ensaio de velocidade residual no compósito com 30%v/v de escamas de pirarucu, foram
superiores aqueles encontrados para o tecido de aramida (212 m/s e 221 J) (da Silva, 2014).

4. CONCLUSÃO

A adição de 20 e 40%vol de escamas de pirarucu promoveu um aumento sensível na


energia de impacto Izod, em comparação à resina epóxi pura. O acréscimo da fração
volumétrica de 20 para 40% proporcionou um aumento de 29,75 para 292,36 J/m, o que pode
indicar que é interessante utilizar frações maiores de escamas. Além disso, a avaliação da
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

443
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

superfície de fratura através de microscopia eletrônica de varredura pode comprovar os


mecanismos de deformação e fratura associados às escamas de pirarucu, que, por sua vez, são
semelhantes àqueles observados em compósitos reforçados com fibras.
O módulo de Young e o limite de resistência à compressão do epóxi foram
consideravelmente aumentados com a adição de 30% em volume de escamas de pirarucu. O
módulo de Young foi dobrado e a resistência ao escoamento aumentou 30% em comparação
com a epóxi pura. Essas são melhorias substanciais, o que podem indicar o potencial de
utilização das escamas como reforço em materiais compósitos.
O compósito reforçado com 30%vol de escamas de pirarucu apresentou uma absorção de
energia de aproximadamente 8,5%, com velocidade limite de 246m/s, o que indica um aumento
de 18% e 8% em média, respectivamente, em relação aos valores obtidos para a resina epóxi
pura e são maiores que aqueles observados no tecido de aramida.

Agradecimentos

Os autores agradecem o apoio das agências brasileiras: CNPq, FAPERJ e CAPES para o
desenvolvimento deste trabalho.

REFERÊNCIAS

Arola, D. et al. (2018), The limiting layer of fish scales: Structure and properties. Acta Biomaterialia, 67, 319-330.
Bezerra, W.B.A. et al. (2020), Processing and characterization of Arapaima gigas scales and their reinforced epoxy
composites. Journal of Materials Research and Technology, 9, 3005-3012.
Chiarathanakrit, C. et al. (2018), Transforming fish scale waste into an efficient filler for starch foam. Carbohydr
Polym, 188, 48–53.
Costa, U.O. et al. (2019), Effect of graphene oxide coating on natural fiber composite for multilayered ballistic
armor. Polymers, 11, 1356.
Costa, U.O. et al. (2020), Evaluation of Izod impact and bend properties of epoxy composites reinforced with
mallow fibers. . J Mater Res Technol, 9, 373-82.
da Silva, L.C. (2014), “Comportamento balístico do compósito epóxi-curauá em blindagem multicamada”, Tese
de Doutorado, IME, Rio de Janeiro.
Demosthenes, L.C.C. et al. (2019), Thermal and structural characterization of buriti fibers and their relevance in
fabric reinforced composites. J Mater Res Technol, 9, 115–23.
Gomes, M.A. et al. (2015), “Izod impact test of PALF reinforced polymeric composites” in ABM Week
Proceedings, São Paulo.
Ku, H. et al. (2011), A review on the tensile properties of natural fiber reinforced polymer composites. Composites
part B, 42, 856-873.
Lin, Y.S. et al. (2011), Mechanical properties and the laminate structure of Arapaima gigas scales. J Mech Behav
Biomed Mater, 4, 1145–56.
Liu, Z. et al. (2019), Adaptive structural reorientation: Developing extraordinary mechanical properties by
constrained flexibility in natural materials. Acta Biomater, 86, 96–108.
Meyers, M.A., Lin, Y.S., Olevsky, E.A. et al. (2012), Battle in the Amazon: Arapaima versus Piranha. Advanced
Engineering Materials. 14, 279-288.
Murcia, S. et al. (2017), The natural armors of fish: A comparison of the lamination pattern and structure of scales.
Journal of the Mechanical Behavior of Biomedical Materials, 73, 17-27.
Nascimento, L.F.C. et al. (2019a) Curing kinetic parameters of epoxy composite reinforced with mallow fibers.
Materials, 12, 1–9.
Nascimento, L.F.C. et al. (2019b), “Evaluation of the Absorbed Energy and Velocity Limits of Reinforced Epoxy
Composites with Mallow Natural Fibers Used in Ballistic Protection” in Green Materials Engineering: An
EPD Symposium in Honor of Sergio Monteiro, Springer (ed.), New York.
Oliveira, M.S. et al. (2018), “Comportamento Balístico de Blindagem Multicamada com Compósito de Epóxi
Reforçado com Tecido de Fique”, Dissertação de Mestrado, IME, Rio de Janeiro.
Oliveira, M.S. et al. (2019), “Thermal Behavior of Epoxy Composites Reinforced with Fique Fabric by DSC”, in
Green Materials Engineering: An EPD Symposium in Honor of Sergio Monteiro, Springer (ed.), New York.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

444
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Razi, Z.M. et al. (2019), Mechanical, structural, thermal and morphological properties of a protein (fish scale)-
based bisphenol-A composites. Polym Test, 74, 7–13.
Satapathy, A. et al. (2009), A study on processing, characterization and erosion behavior of fish (Labeo-rohita)
scale filled epoxy matrix composites. Mater Des, 30, 2359–71.
Sherman, V.R. et al. (2017), A comparative study of piscine defense: The scales of Arapaima gigas, Latimeria
chalumnae and Atractosteus spatula. Journal of the Mechanical Behavior of Biomedical Materials, 73, 1–16.
Torres, F.G. et al. (2008), Characterization of the nanocomposite laminate structure occurring in fish scales from
Arapaima Gigas. Materials Science and Engineering C, 28, 1276-1283.
Wu, C.S. (2019), Comparative assessment of the interface between poly(3-hydroxybutyrate-co-3-hydroxyvalerate)
and fish scales in composites: Preparation, characterization, and applications. Mater Sci Eng C, 104, 109878.
Yang, W. et al. (2014), Protective role of Arapaima gigas fish scales: Structure and mechanical behavior. Acta
Biomaterialia, 10, 3599–3614.
Yang, W. et al.. (2019), Structural architectures with toughening mechanisms in Nature: A review of the materials
science of Type-I collagenous materials. Prog Mater Sci, 103, 425–83.

APÊNDICE A

MECHANICAL PROPERTIES OF ARAPAIMA SCALES REINFORCED EPOXY


COMPOSITES

Abstract. The repurposing of natural materials for applications with greater technological
demand is an economically attractive approach to the development of new sustainable
materials. Thus, the use of natural materials as reinforcement in composites arises with great
potential. This work proposed to analyze static and dynamic mechanical properties of
Arapaima scales reinforced epoxy composites. The composites were prepared using 20, 30 and
40vol% Arapaima scales and were analyzed using Izod impact tests, compression tests and
ballistic analysis of impact energy absorption by residual velocity. The results of Izod impact
tests demonstrated a significant increase in the absorbed energy for the 40vol%composites e,
while the 20% did not a considerable change. Compression tests of the 30vol% composites
demonstrated a significant increase in the Young modulus and compressive strength, as
compared to the plain epoxy. A similar result was seen in residual velocity tests, where an
increase in the absorbed impact energy was observed with the incorporation of the 30vol% of
arapaima scales in epoxy resin.

Keywords: Arapaima Scales, Epoxy Composites, Residual velocity, Mechanical properties.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

445
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE QUANTITATIVA DO DESPERDÍCIO DE MOVIMENTAÇÃO DE


PRODUTOS EM UMA INDÚSTRIA DE BENEFICAMENTO DE ALGODÃO

Wanessa Mendanha Salomao Batista1 – wanessamsalomao@hotmail.com


Camila Silva Ferreira2 – camilaferreira71@outlook.com
Júlia Fabiana Santana Amorim3 – juliafabysantana@gmail.com
Everton Costa Santos4 – everton.santos@ufvjm.edu.br
1
Faculdade Arnaldo Horácio Ferreira – Luís Eduardo Magalhães, BA, Brazil
2
Universidade Federal dos Vales do Jequitinhonha e Mucuri, Campus do Mucuri – Teófilo Otoni,
MG, Brazil
3
Universidade Federal dos Vales do Jequitinhonha e Mucuri, Campus do Mucuri – Teófilo Otoni,
MG, Brazil
4
Universidade Federal dos Vales do Jequitinhonha e Mucuri, Campus do Mucuri – Teófilo Otoni,
MG, Brazil

Resumo. Devido à alta produtividade do algodão nos últimos ano na região oeste da Bahia e
competitividade, as indústrias algodoeiras precisam estar atentas ao bom planejamento.
Sendo assim, realizou-se um estudo de simulação com o objetivo de avaliar os impactos dos
desperdícios de movimentação dos fardos de algodão, em função da dersordem no local de
armazenagem. Para isto, foi obtida e tratada estatisticamente uma amostra de tamanho 149,
referente ao tempo em que o operador demora procurando o produto. O modelo deste
processo foi construído e validado, considerando o erro tipo I de 5%. Com o auxílio do
software ©FlexSim Solved Problem, gerou-se a distribuição estatística para representar a
aleatoriedade dos tempos, neste caso, Weibull (0; 38,48504; 1,49351) e o intervalo de
confiança obtido para a validação do modelo computacional foi [-2,9; 10,1]. Com estas
informações, concluiu-se que para cada unidade de tempo de procura reduzida, é possível
movimentar 3 fardos, desde que se mantenham as mesmas características aleatórias do
sistema durante o período de trabalho. Este estudo mostrou-se de grande valia por
possibilitar a quantificação prévia do impacto da melhoria, neste caso, a organização do
produto supracitado.

Palavras-chave: Indústria algodoeira, Produtividade, Simulação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

446
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

O oeste baiano firma-se como uma região de grande importância no cenário agropecuário
nacional, com produção diversificada e alta produtividade. Segundo Carneiro (2020), trata-se
de uma grande geradora de empregos e renda, responsável por boa parte da economia do
estado.
Segundo a ABAPA (2020), a previsão em 2020 é que a Bahia alcance a produtividade de
300 arrobas de fibras/hectare em uma área total de 313.566 hectares, sendo o oeste do estado
um dos principais pólos agrícolas de algodão do Brasil, com 93% de toda a produção de
pluma, consistindo ainda no segundo maior produtor brasileiro de algodão, perdendo apenas
para o Mato Grosso. A Bahia, por meio da região oeste, contribuiu para o cenário favorável
do algodão no Brasil, cuja produção, em sua maioria, atende às indústrias de fiação do
Nordeste e o restante é destinado ao mercado internacional.
Diante de uma área tão rica em termos de produção e de tamanha importância para o
país, torna-se oportuno propor melhorias no processo de beneficiamento na indústria
relacionada, demonstrando diretamente como as técnicas da engenharia de produção, neste
caso a modelagem e simulação, conhecimentos de estatística e princípios do lean
manufacturing, tem uma aplicação ampla em várias áreas produtivas, inclusive no
agronegócio.
As atividades da empresa em estudo consistem no beneficiamento do algodão. Ao se
analisar o processo, foi verificado um problema na atividade de movimentação dos fardos do
produto não beneficiado, ou seja, o operador de uma empilhadeira ao tentar movimentar um
fardo específico, da área de armazenagem para o beneficiamento, não tinha informações sobre
a localização do produto, sabendo somente qual produto movimentar mas não a sua posição
no armazém. Desta forma, surge então a perda de tempo com a procura, movimento este que
não agrega valor. Sendo assim, este trabalho tratou de realizar uma análise de simulação para
a quantifição das perdas em termos de produtividade nesta operação em específico.

2. METODOLOGIA

A criação de um modelo computacional tem como objetivo a imitação de um sistema real


para a realização de análises diversas em um produto ou processo, buscando a redução de
custos com protótipos, economia de tempo e precisão em implementações. Segundo Bateman
et al. (2013), simulação consiste em um processo de experimentação que busca avaliar como
o sistema real responderá a mudanças em sua estrutura, ambiente ou condições de contorno.
Os próximos tópicos descrevem as etapas principais utilizadas neste artigo para a
aplicação da modelagem e simulação na indústria de beneficiamento de algodão em estudo.

2.1 Modelagem de dados e modelo conceitual

O início do processo consiste em definir o chamado modelo conceitual, onde se


identificam os elementos do sistema real que de fato vão impactar no indicador de
desempenho alvo de estudo. No caso deste trabalho, o indicador foi produtividade. Com o
cronômetro em mãos chega-se à modelagem de dados, que segundo (CHWIF-MEDINA,
2015, p. 20), pode ser resumida em: coleta de dados, tratamento dos dados, inferência e testes
de aderência.
Os outliers, ou valores discrepantes, precisam ser identificados e retirados da amostra. A
metodologia para a identificação dos mesmos consiste em definir um gráfico boxplot, como
mostra a Fig. 1. Desta forma, qualquer valor que esteja fora dos limites [Q1 – 1,5A; Q3+
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

447
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1,5A] é considerado outlier moderado e precisa ser retirado da amostra, sendo Q1 e Q3,
respectivamente, o primeiro e o terceiro quartil.

Figura 1 – Identificação de outliers através do gráfico boxplot


Fonte: Adaptado de Chwif e Medina (2015)

A amplitude interquartil (A) é calculada através da Eq. (1):

A = Q3 – Q 1 (1)

O passo seguinte é verificar se existe ou não correlação entre os valores da amostra, neste
sentido, é desejável que a mesma seja aleatória para a aplicação posterior do teste de
aderência. Sendo x1, x2,..., xn os valores consecutivos, ao se desenhar no plano cartesiano os
pares, na ordem, (x1,x2); (x2,x3); (x3,x4);...(xn-1, xn), é possível saber se a amostra retirada é
adequada para o prosseguimento dos estudos.

2.2 Verificação e validação

O processo de validação e verificação do modelo é importante, pois garante o sucesso


com uma certa margem de erro, de todo o processo de modelagem. Vale ressaltar que
qualquer tomada de decisão com base em seus resultados deve ser precedida de uma avaliação
de sua qualidade e apropriação (FREITAS FILHO, 2008).
A validação do modelo computacional pode ser realizada através da proposta de Kleijnen
(1995), a qual propõe uma comparação entre as saídas dos dados reais versus dados
simulados:

S s2  S r2
Xs  Xr t 
(2)
2 n  2,
2
n

onde,
X s - média do modelo simulado;
X r - média do modelo real;
t  - distribuição t de Student para 2n – 2 graus de liberdade a um nível de significância
2 n 2,
2
de α/2;
S s2 - desvio padrão do modelo simulado;
S r2 - desvio padrão do modelo real;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

448
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

n - número de replicações.

Após a aplicação deste intervalo de confiança e verificação do número zero presente


neste, conclui-se que o modelo computacional está validado. Caso contrário, pode-se dizer
que as diferenças estatísticas entre o modelo real e o simulado são expressivas e o modelo
computacional não pode ser validado.

2.3 Regressão linear

Com o modelo validado em mãos, é fundamental avaliar os indicadores de desempenho a


partir de replicações sucessivas do modelo de simulação. Com as informações obtidas, foi
verificada uma relação linear entre o tempo de procura dos fardos de algodão e a quantidade
movimentada destes itens.
O termo ‘regressão’ foi proposto pela primeira vez por Sir Francis Galton em 1885 num
estudo onde demonstrou que a altura dos filhos não tende a refletir a altura dos pais, mas
tende sim a regredir para a média da população. Maroco (2003), diz que, o termo “Análise de
Regressão” define um conjunto vasto de técnicas estatísticas usadas para modelar relações
entre variáveis e predizer o valor de uma ou mais variáveis dependentes (ou de resposta) a
partir de um conjunto de variáveis independentes (ou preditoras). Os parâmetros úteis para
este trabalho foram o coeficiente de Pearson (r), que mede o grau de correlação entre as
variáveis, o coeficiente angular (b) e coeficiente linear (a).

n( xy )  ( x)( y ) (3)


r
n( x 2

)  ( x ) 2 n ( y 2 )  ( y ) 2 
n( xy )  ( x )( y ) (4)
b
n( x 2 )  ( x ) 2

a  y  bx (5)

Sendo x, y os pares ordenados e n o tamanho da amostra.

3. RESULTADOS E DISCUSSÕES

Nesta seção será apresentada o processo escolhido para a realização do estudo de caso
proposto, bem como todas as etapas necessárias de modelagem e simulação para uma
posterior análise matemática de cenário.

3.1 Etapas consideradas do processo produtivo

Realizado nas algodoeiras, previamente à industrialização do algodão, o método de


beneficiamento consiste na separação da fibra e das sementes por processos mecânicos, com
mínima depreciação das qualidades intrínsecas da fibra, de forma a comercializar um bom
tipo de pluma de algodão que atenda às exigências das indústrias de fiação, tecelagem e têxtil.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

449
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1: Apresentação do processo de beneficiamento de algodão


Fonte: Autores, 2019

Para a realização de um estudo de simulação em um processo produtivo ativo, uma das


etapas fundamentais é a coleta de dados, ou seja, registrar os tempos de processamento de
cada umas das operações relacionadas. Como mostra a Fig. 2, o operário ao chegar à pilha de
fardos (cada um com uma especificação diferente), para iniciar a pesagem, demora um certo
intervalo de tempo para identificar o produto de interesse, realizar o carregamento na
empilhadeira, para então dar prosseguimento com a operação. Isto ocorre porque os fardinhos
encontram-se desorganizados no estoque. Neste contexto, fica claro que existe um desperdício
de tempo, o da procura do produto, se tornando este o principal alvo de estudo deste trabalho.

3.2 Coleta e tratamento de dados

Em busca de estudar cenários, obteve-se então uma amostra de tamanho 149 (Apêndice
A), através de cronoanálises, seguindo as recomendações de (SHWIF e MEDINA, 2015),
onde cada valor representa o tempo em que o operário demorou para identificar cada fardo de
interesse e pegá-lo, em diferentes momentos.
A partir do Apendice A, obteve-se: Q1 = 19, Q2= Me = 30 (mediana), Q3 = 50, A = 31, Li
= -27,5 (considera-se zero), Ls = 96,5. A representação gráfica encontra-se na Fig. 3, e como
todos os valores estão situados entre 0 e 96, não existem outliers moderados, tornando a
amostra inicial adequada para que sejam realizadas conclusões estatísticas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

450
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3: Gráfico boxplot para os tempos de identificação dos fardinhos


Fonte: Autores, 2019

Seguindo a aplicação da metodologia, os pares ordenados foram representados em um


gráfico de independência. Observando a Fig. 4, pode ser verificado que não existe correlação
entre os valores, ou seja, a amostra apresenta um padrão aleatório e torna-se adequada para os
posteriores estudos estatísticos.

Figura 4: Aleatoriedade entre os valores da amostra


Fonte: FlexSim, 2019

Após criação e análise dos gráficos de independência, os dados foram inseridos no Expert
Fit (complemento do software ©Flexsim Solved Problem) onde o mesmo sugeriu a
distribuição Weibull como a mais aderente, com os parâmetros de localização, escala e forma,
respectivamente de 0; 38,48504; 1,49351.

3.3 Validação do modelo computacional

A etapa presente consiste em validar o modelo computacional. O sistema representado no


©Flexsim Solved Problem está ilustrado na Fig. 5.

Figura 5: Representação do modelo computacional


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

451
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fonte: FlexSim, 2019

Os tempos de carregamento (procura do item pelo operador) foram aleatórios, regidos


pela distribuição estatística já mencionada e o modelo virtual (Fig. 5) foi replicado 18 vezes,
objetivando obter em cada uma das replicações o número de fardos movimentados. O
complemento Experimenter, presente no software, foi fundamental para que as replicações do
modelo virtual fossem realizadas.

Figura 6: Replicações a partir do complemento Experimenter


Fonte: FlexSim, 2019

O eixo horizontal da Fig. 6 representa o número da amostra (18), já o eixo vertical mostra
as quantidades de produtos movimentados a cada 40 minutos. Essas quantidades obtidas
virtualmente foram comparadas com as quantidades reais, e ambas estão representadas na
Tabela 1.

Tabela 1: Quantidade de fardos movimentados em 40 minutos

Nº Amostra Quant. Reais Quant. Simul.


1 65 82
2 70 69
3 63 71
4 66 75
5 77 72
6 68 64
7 71 76
8 39 72
9 46 62
10 78 85
11 75 78
12 82 64
13 65 68
14 71 70
15 80 63
16 49 72
17 73 73
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

452
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

18 79 66
Média 67,6111 71,2222
Desvio P. 12,0496 6,3944
Fonte: Autores, 2019

Em posse dos dados reais e dos dados simulados, foi possível validar o modelo
estatisticamente. Esta conclusão foi obtida ao se aplicar a Eq. (2).

É esperado que a redução do tempo de procura se reflita no aumento da quantidade de


produtos que podem ser movimentados. Diante deste cenário, buscou-se realizar um estudo
quantitativo de cenários para verificar a relação entre estas duas variáveis, mantendo as
mesmas características randômicas, definidas pela distribuição de Weibull. A partir do
complemento Experimenter, gerou-se números aleatórios com reduções sucessivas do tempo
médio de procura dos fardos de algodão, cujo intervalo definido, em segundos, equivale a
[24,8; 35,4]. Replicando novamente o modelo computacional validado, com estes tempos
médios, obteve-se as quantidades de produtos movimentados.
Existe uma relação aproximadamente linear entre estas duas variáveis e a mesma está
representada na Fig. 7. A função y = -2,995x + 176,6 representa matematicamente este
cenário e mostra que um tempo de procura igual a zero, fornece uma movimentação de itens
equivalente a aproximadamente 176, em 40 minutos. Na prática isso pode acontecer em caso
de organização dos produtos e conhecimento por parte do funcionário onde se encontra,
exatamente, cada item.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

453
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7: Relação entre tempo de procura e número de fardinhos movimentados


Fonte: Autores, 2019

Através da reta decrescente e um valor de coeficiente de correlação equivalente a -0,999,


pode-se verificar uma forte correlação negativa entre as variáveis em estudo. Ao se obervar o
coeficiente angular da função ilustrada na Fig. 7, percebe-se que para cada unidade de
variação de x, temos uma aumento em y de aproximadamente 3 vezes. Em outras palavras,
uma pequena redução no tempo médio em que o funcionário demora procurando o produto
para depois fazer o carregamento na empilhadeira, promove um ganho expressivo na
quantidade de fardos que o mesmo consegue movimentar (levar até o processo de pesagem).

4. CONCLUSÃO

O objetivo deste artigo foi alcançado, pois se verificou quantitavamente que pequenos
deperdícios de movimentação impactam negativamente na produtividade ao longo de uma
jornada de trabalho. Para trabalhos futuros, sugere-se a aplicação desta mesma metodologia
nos demais processos da empresa ou até mesmo em atividades particulares, pois a ineficiência
nas mesmas geram expressivas perdas na organização como um todo.
Este artigo mostrou interdisciplinaridade entre diferentes áreas da ciência e engenharia e
o quanto isto é importante para o avanço do conhecimento científico. Contribui também para
a disseminação de trabalhos focados em um dos pilares da indústria 4.0: a simulação virtual.
Isto se comprova ao observar a integração entre os sete desperdícios da produção, conceitos
da metodologia 5S, procedimentos estatísticos aplicados à simulação discreta e conceitos de
regressão linear. Desta forma, presencia-se a utilidade do lean manufacturing e estatística na
área do agronegócio.

REFERÊNCIAS

Associação Baiana dos Produtores de Algodão (ABAPA). Disponivel em: < https://abapa.com.br/ >. Acesso em
10 de Setembro de 2020.
Bateman, R. Et. Al. (2013) Simulação De Sistemas: Aprimorando Processos De Logística, Serviços E
Manufatura. Rio De Janeiro: Elsevier. 161 P.
Carneiro, J. Disponivel em: < http://upb.org.br/noticias/regiao-oeste-e-importante-para-a-sustentabilidade-do-
estado >. Acesso em 10 de Setembro de 2020.
Chwif, L., & Medina, A. C. (2015) Modelagem E Simulação De Eventos Discretos: Teoria & Aplicações – 4.
Ed. – Rio De Janeiro: Elsevier.
Freitas Filho, P. J. (2008) Introdução À Modelagem E Simulação De Sistemas Com Aplicações Em Arena. 1ª
Edição. Florianópolis: Visual Books.
Kleijnen, Jack P.C. Verification and validation of simulation models: Theory e Methodology. European Journal
of Operational Research 82 (1995) 145-162.
Maroco, J.; Análise Estatística – Com utilização do SPSS, 2ª edição; Edições Sílabo; 2003.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

454
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

APÊNDICE A
Tempos cronometrados em segundos

64 26 21 92 51 15
70 19 6 68 25 46
25 28 26 22 36 26
35 17 18 11 89 19
34 40 24 17 28 39
40 76 42 40 11 10
13 73 63 33 40 26
0 7 17 48 12 23
35 11 26 62 53 13
17 45 24 29 43 78
18 60 15 65 55 61
34 84 17 60 46 50
16 78 14 12 62 38
27 29 20 27 37 24
26 36 19 36 8 53
37 23 16 59 16 64
3 25 10 50 29 42
1 29 16 53 67 19
4 13 19 74 35 94
32 33 31 13 30 70
41 19 37 21 22 57
7 84 43 32 28 40
26 25 47 18 56 51
20 9 74 35 33 68
40 25 70 6 60
Fonte: Autores, 2019

QUANTITATIVE ANALYSIS OF THE MOVEMENTATION LOSSES IN A COTTON


INDUSTRY

Abstract. Due to the high productivity of cotton in recent years, in the western region of
Bahia, and competitiveness, cotton industry need to be attentive to good planning. Thus, a
simulation study was carried out with the objective of evaluating the impacts caused by the
movement of cotton bales, due to disorder in the storage location. For this, a sample of size
149 was obtained and statistically treated, referring to the time the operator spent looking for
the product. The model of this process was constructed and validated, considering the
probability type I error of 5%. With the aid of the ©FlexSim Solved Problem software, a
statistical distribution was generated to represent the randomness of times, in this case,
Weibull (0; 38.48504; 1.49351) and the confidence interval obtained for the validation of the
computational model was [-2.9; 10.1]. With this information, it was concluded that for each
unit of reduced search time, it is possible to move 3 bales, as long as the same random
characteristics of the system are maintained during the work period. This study proved to be
of great value for making it possible to previously quantify the impact of the improvement, in
this case, the organization of the aforementioned product.

Keywords: Cotton industry, Productivity, Simulation.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

455
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

DISCRETIZAÇÃO DA EQUAÇÃO DE RICHARDS COM TERMOS DE


SUMIDOUROS

Bruno Santos Barradas da Conceição1,2 - b.s.barradas@gmail.com


Fabiana da Costa Barros1,2 - fabianabarrosufrrj@gmail.com
Fábio Freitas Ferreira3 - fabifreitasferreira@id.uff.brl
Wagner Rambaldi Telles4 - wr telles@yahoo.com.br
Gustavo Bastos Lyra5 - gblyra@gmail.com
Sthefany Peixoto de Queiroz1,6 - sthefanypeixoto163@gmail.com
Renan de Melo Netto1,6 - renan.mnetto@gmail.com
1 Universidade Federal Fluminense, RJ, Brazil.
2 Programa de Pós-Graduação em Engenharia de Biossistemas - PGEB
3 Departamento de Ciências da Natureza - Rio das Ostras, RJ, Brazil
4 Departamento de Ciências Exatas, Biológicas e da Terra - Santo Antônio de Pádua, RJ, Brazil
5 Universidade Federal Rural do Rio de Janeiro, Departamento de Ciências Ambientais - Seropédica, RJ, Brazil
6 Ciência da Computação - Rio das Ostras, RJ, Brazil

Abstract.Com o crescente avanço e desenvolvimento das indústrias vem aumentando a poluição


ambiental e contaminação do solo. Essa preocupação com a qualidade do solo, torna-se
necessário o estudo que envolve o fluxo de água nos solos não-saturados. Como a água no
solo é um dos principais fatores para os sistemas agrı́colas com a finalidade de manejo de
irrigações, drenagem, estudos de contaminantes e soluto no solo, por isso uma preocupação
relevante. Constatando essa realidade e a partir dos avanços de modelos matemáticos aliados
aos modelos numéricos, será mostrado nesse trabalho a solução da equação de Richards
pelo Método de Volumes Finito e suas fontes de sumidouro, que são parâmetros empı́ricos
que dependem da textura do solo e caracterı́sticas intrı́nsecas com uma alta variabilidade de
profundidade e espaço.

Keywords: Movimento de água no solo, equação de Richards, método volumes finitos

1. INTRODUÇÃO

Problemas que envolvem a infiltração de água no solo e seu movimento, conhecido como
percolação, resulta na determinação da carga de pressão d’água. Além disso, na percolação

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

456
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

é possı́vel também observar a umidade volumétrica do solo. Em ambos os casos verifica-


se a relevância das diversas abordagens das engenharias e da agricultura. A percolação
depende de um conjunto de fatores do solo, a extração de água pelas raı́zes das plantas, a
evaporação da água, além da ação da gravidade que faz a água se mover para as camadas
mais profundas do solo (TEMPERINI, 2018). Esses fatores podem ser considerados empı́ricos
quanto matemáticos. A equação de Richards (RICHARDS, 1931), é o modelo matemático, que
combina a lei de Darcy e equação da continuidade e, permite determinar a umidade volumétrica
de água no solo e a carga de pressão (SADEGHI, 2011). Para resolver a equação de Richards
será utilizado o Método de Volumes Finitos (MVF). Temperini (2018) em seu trabalho de
resolveu a equação de Richards utilizando o MVF, porém sem os sumidouros e sem o balanço
de água na superfı́cie do solo. O presente trabalho tem o objetivo de apresentar a discretização
da equação de Richards com termos de sumidouros. Este trabalho é a continuação do trabalho
de Temperini (2018), que tem como objetivo adicionar o balanço de água na superfı́cie do solo,
assim como o termo de extração de água no solo pelas raı́zes das plantas. Para resolver a
equação de Richards é necessário conhecer os parâmetros da curva de retenção de água no solo,
assim como a função condutividade hidráulica.

2. Modelo Matemático

Para o desenvolvimento desse trabalho foi utilizado como modelo matemático a equação
de Richards, que é uma combinação da equação de Buckingham-Darcy e a equação da
continuidade. Assim, introduzindo os termos de fonte/sumidouro (Kroes et al., 2008), tem-se
 
∂ψ ∂ ∂(ψ − z)
C(ψ) = k(ψ) − Sa (ψ) − Sd (ψ) − Sm (ψ) (1)
∂t ∂t ∂z

em que ψ é a tensão em (cm), C(ψ) é a capacidade hı́drica (cm−1 ), t é o tempo (s), K(ψ) é a
condutividade hidráulica (cm s−1 ), z é a coordenada vertical (cm), Sa (ψ) é a taxa de extração
de água do solo pelas raı́zes (cm−3 s−1 ), Sd (ψ) é a taxa de extração por descarga de dreno na
zona saturada(s−1 ) e Sm (ψ) é a taxa de transferência com os macro poros (s−1 ) .
A umidade volumétrica de água no solo é obtida por meio da curva de retenção de água no
solo θ = θ(ψ), e a capacidade hı́drica é dada por C(ψ) = ∂θ/∂ψ. Existem várias equações
matemáticas que relacionam θ e ψ. Pode-se citar as curvas de retenção de água no solo de
Garner (1858), Brooks e Corey (1964), Campbell (1988), Haverkamp (1980), van Genuchten
(1980) e Omuto (2009).

3. Discretização

A malha computacional é apresentada na Figura 2. Observa-se que P é o ponto central do


volume de controle, e N e S são os pontos centrais dos volumes de controles vizinhos, ∆z?
o tamanho do volume de controle, δZ? é a distância entre os centros dos volumes de controles
vizinhos, Nf ic o centro do primeiro volume de controle fictı́cio, e Sf ic o centro do último volume
de controle fictı́cio.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

457
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 1- Representação dos fenômenos fı́sicos abordados no modelo matemático.

Figure 2- Malha computacional indicando as fronteiras, os volumes de contorno fictı́cios, e os volumes


de contorno internos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

458
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Integrando a equação (1) no volume de controle,


Z t+1 Z n Z t+1 Z n   Z t+1 Z n
∂ψ ∂ ∂ψ ∂K
C(ψ) dz dt = K(ψ) dz dt − dz dt
t s ∂t t s ∂z ∂z t s ∂z
Z t+1 Z n Z t+1 Z n Z t+1 Z n
− Sa (ψ)dz dt − Sd (ψ)dz dt − Sm (ψ)dz dt , (2)
t s t s t s

em que o sobrescrito t + 1, utilizado na malha computacional temporal, representa o instante de


tempo t + ∆t, sendo ∆t o passo de tempo.
C(ψ) é avaliada em P , e ∆zP será trocado pela média 1/2(∆zn + ∆zs ), devido a
possibilidade de utilizar camadas diferentes de malhas durante o processo. As derivadas
serão aproximados por diferenças obtidas pela expansão p de série de Taylor, Ks e Kn serão
avaliados utilizando-se a média geométrica Ks (ψs ) = KP (ψP )KS (ψS ) (XX). O sobrescrito
Φ é utilizado para indicar a função interpoladora ψ Φ = Φψ t+1 + (1 − Φ)ψ t , podendo-se optar
por um método totalmente implı́cito (Φ = 1), explı́cito (Φ = 0) ou do tipo Cranck-Nicolson
(Φ = 1/2).
Os termos de fonte/sumidouro são linearizados por uma função interpoladora, i.e.
Z t+1 Z n Z t+1 Z n
(S?P ψP + S?C ) dz dt = S?P ψPθ + S?C ∆ZP ∆t (3)

S? (ψ)dz dt =
t s t s

Os coeficientes S?P e S?C são discutidos em Patankar (XX) e Maliska (XX).


Os termos de fonte/sumidouro são multiplicados por parâmetros de ativação, ω? ,
Z t+1 Z n Z t+1 Z n Z t+1 Z n
−ω1 Sa (ψ)dz dt − ω2 Sd (ψ)dz dt − ω3 Sm (ψ)dz dt (4)
t s t s t s

em que ω? = 1 ativa o termo de fonte/sumidouro, e ω? = 0 os desativa.


Fazendo-se τ = (1/4)(Cnt + Cst )(δZN + δZS ), e agrupando todas as integrações realizadas,
tem-se
t+1
AN ψN + AP ψPt+1 + AS ψSt+1 = b (5)

em que AP = τ + ∆tKnt Φ/2δZN + ∆tKst ∆t/2δZS + ∆ZP ∆tΦ (ω1 SaP + ω2 SdP + ω3 SmP ),
AN = −Knt Φ∆t/2δZN , AS = −Kst Φ∆t/2δZS , b = τ ψPt + [Knt (1 − Φ)∆t/2δZN ](ψN t
− ψPt ) +
[Kst (1 − Φ)∆t/2δZS ](ψSt − ψPt ) − (Knt − Kst )∆t − ∆ZP ∆t {−ω1 [SaP (1 − Φ)ψPt + SaC ] −
ω2 [SdP (1 − Φ)ψPt + SdC ] −ω3 [SmP (1 − Φ)ψPt + SmC ]}.

4. Condições de Contorno

As condições de contorno são calculadas utilizando uma fórmula geral, de maneira a


contemplar o fluxo de Darcy, assim como as três condições clássicas - Dirichlet, Newmann
e Robin - e as condições de Robin e Darcy combinadas, dada por
0
aq + bψf + cψf = d . (6)

em que q é o fluxo de água no solo (cm s−1 ).


Na Tabela 1 são apresentados os valores dos parâmetros a, b, c e d, presentes na equação
(6), os quais variam de acordo com a condição de contorno desejada. Enquanto na Figura 2 é
mostrada a discretização do domı́nio espacial na coordenada cartesiana z.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

459
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1- Condições de contorno.

Coeficientes a b c d
Fluxo de Darcy 1 0 0 constante
Dirichlet 0 0 1 constante
Newmann 0 1 0 constante
Robin 1 1 1 constante
Robin + Darcy 0 0 1 constante

Assim, no contorno z = 0, utilizando o volume de controle fictı́cio, fazendo-se ∆ZSf ic =


∆ZP e levando em consideração a = 0, b = 0 e c = 1 na equação (6), realizando uma média
nos centros do volumes de controle comuns a ψs e fazendo ψs = ds , a condição do tipo Dirichlet
é dada por
ψSf ic = −ψP + 2ds (7)
Para as demais condições de contorno em z = 0, tem-se
 
∆ZP
ψSf ic = ψP + [−as Ks − cs ψs + ds ] (8)
as Ks − bs
No contorno z = L, fazendo-se ∆Znf ic = ∆ZP e levando em consideração a = 0, b = 0 e
c = 1 na equação (6), de forma análoga obtém-se a condição do tipo Dirichlet, ou seja
ψNf ic = −ψP + 2dn (9)
Para as demais condições de contorno em z = L, tem-se:
 
∆ZP
ψNf ic = ψP + [−an Kn − cn ψn + dn ] (10)
−an Kn + bn

5. Fluxograma de trabalho

Para melhor entendimento da geometria abordada no presente trabalho, foi elaborado um


fluxograma descrevendo as etapas que mostram a consolidação no desenvolvimento do estudo,
conforme adiante se descreve:
1. Definir a quantidade de camadas no solo e o modelo SWRC para cada uma;
2. definir a malha espacial para cada camada de solo;
3. definir a malhar temporal;
4. definir a condição inicial e as condições de contorno;
(a) definir o balanço de água no topo do solo;
(b) definir a condição de contorno no fundo (bottom);
5. definir quais termos de fonte/sumidouro serão ativados;
6. resolver a equação de Richards por FVM;
7. gerar gráficos e salvar solução.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

460
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3- Flowchat.

6. Conclusão

Neste trabalho obteve-se a discretização da equação de Richards com os termos de


sumidouros por meio do método de volumes finitos. Este artigo faz parte de um projeto de
dissertação de mestrado, onde serão estudados o balanço de água no solo e a extração de água
no solo pelas raı́zes das plantas.

REFERENCES

Brooks, R. H, Corey, A. T. (1964), “Hydraulic properties of porous media”, Hydrology Papers, Colorado
State University, March.
Campbell, G. S. (1974), “A simple method for determining unsaturated conductivity from moisture
retention data”, Soil Science, vol 117, 6, 311-314.
Fredlund, D. G., Xing, A. (1994), “Equations for the soil-water characteristic curve”, Canadian
Geotechnical Journal, vol 31, 4, 521-532.
Gardner, W. R. (1958), “Some steady-state solutions of the unsaturated moisture flow equation with
application to evaporation from a water table”, Soil science, vol 85, 4, 228-232.
Guterres, M. X. (2013), “Avaliação dos algoritmos de Picard-Krylov e Newton-Krylov na solução da
equação de Richards”, Tese de Doutorado, IPRJ/UERJ, Nova Friburgo.
Haverkamp, R., Vauclin, M., Touma, J., Wierenga, P. J., Vachaud, G. (1977), “A comparison of
numerical simulation models for one-dimensional infiltration”, Soil Science Society of America
Journal, vol 41, 2, 285-294.
Kroes, J. G., van Dam, J. C., Groenendijk, P., Hendriks, R. F. A., Jacobs, C. M. J. (2008), “SWAP
version 3.2. Theory description and user manual”, Alterra Report1649(02), Wageningen, Alterra,
ISSN 1566-7197.
Omuto, C. T. (2009), “Biexponential model for water retention characteristics”, Geoderma, vol 149, 3,
235–242.
Queiróz, B. F. (2017), “Estudo de soluções numéricas da equação de Richards através do método de
elementos finitos e diferenças finitas para simulação de fluxo unidimensional em solo não-saturado”,
Dissertação de Mestrado, ICE/PGMMC/UFRRJ, Seropédica.
Rebouças, A. da C. (2001), “Água e desenvolvimento rural”, Estudos Avançados, vol 15, 43, São Paulo.
Richards, L. A. (1931), “Capillary conduction of liquids through porous mediums”, Journal of Applied
Physics, 1, 318, DOI: 10.1063/1.1745010.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

461
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Russo, D. (1988), “Determining soil hydraulic properties by parameter estimation: On the selection of a
model for the hydraulic properties”, Water Resources Research, vol 24, 3, 453–459.
Sadeghi, M., et al. (2011), “Scaling to generalize a single solution of Richards equation for soil water
redistribution”, Sci. Agric., vol 68, 5, 582-591.
Telles, W. B. (2009), “Simulação do transporte horizontal bidimensional de substância conservativa”,
Dissertação de Mestrado, IPRJ/UERJ, Nova Friburgo.
Telles, W. B. (2014), “Previsão do comportamento hidráulico de um rio com base na estimativa de
coeficientes que controlam seu escoamento. Estudo de caso: Rio Bengalas, Nova Friburgo-RJ”, Tese
de Doutorado, IPRJ/UERJ, Nova Friburgo.
van Genuchten, M. T., “A closed-form equation for predicting the hydraulic conductivity of unsaturated
soils”, Soil Science Society of America Journal, 44 (5), 892-898.

APPENDIX A

Abstract
With the increasing advance and development of industries, environmental proliferation
and soil contamination have increased. This concern with the quality of the soil, it becomes
necessary the study that involves the flow of water in the unsaturated soils. As water in the soil
is one of the main factors for agricultural systems with irrigation management, drainage, studies
of contaminants and solute in the soil, therefore it is a relevant concern. Realizing this reality
and from the advances of mathematical models combined with numerical models, before this
work, the solution of the Richards equation by the Finite Volume Method and its sink sources
will be, which are empirical parameters that depend on the texture of the soil and intrinsic
characteristics with a high variability of depth and space.
Keywords: Water, irrigation, Richards equation, finite volume method

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

462
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

VAN GENUCHTEN SENSITIVITY ANALYSIS BY MORRIS METHOD

Fábio Freitas Ferreira1 - fabifreitasferreira@id.uff.br


Antônio José da Silva Neto2 - ajsneto@iprj.uerj.br
Gustavo Bastos Lyra3 - gblyra@gmail.com
Sthefany Peixoto de Queiroz3 - sthefanypeixoto163@gmail.com
1 Departmentof Natural Sciences, IHS, Federal Fluminense University, Rio das Ostras, RJ, Brazil.
2 Departmentof Mechanical Engineering and Energy, Polytechnic Institute, UERJ, Nova Friburgo, RJ, Brazil.
3 Departament of Environmental Sciences, Forest Institute, UFRRJ, Seropédica, RJ, Brazil.
4 Computer Science, Federal Fluminense University, Rio das Ostras, RJ, Brazil.

Abstract. Agribusiness is the bigger responsible to waste of water in the world. The Richards
equation is the mathematical model that prescribe the soil water content and pressure. However,
to solve the Richards equation is necessary a function, soil water retention curve, that relates
these quantities. This function needs some parameters that are obtained by experiments or
inverse problem. In this work was used the Morris method and SAlib library to analyse the
importance this parameters for model.

Keywords: Inverse problem, Sensitivity analyzis, Morris method, SAlib library, Richards
equation

1. Introduction

Richards proposed an equation that describes the movement of water on unsaturated soil,
relating the Darcy-Buckingham equation and the continuity equation (Kroes et al., 2008). being
used up to now as one of the main equation for that purpose. Many works in the last decades
have been dedicated to the numerical solution of the equations that involve the infiltration and
percolation of water in the soil, using methods such as Finite Differences and Finite Elements
(Celia et al., 1990). Recently Guterres (Guterres, 2014) and (Gusterres et al., 2017) present
a numerical formulation using the Finite Volume Method for the two-dimensional solution of
the Richards’ Equation. Queiroz (2017) and Temperini (2018) tackled the solution of the one-
dimensional Richards’ equation, using both methods of Finite Elements and Finite Volumes.
In order to solve the Richards’ equation, a correlation is needed to represent the relationship
between the volumetric water content of soil and the pressure head (van Genuchten, 1980;

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

463
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Gardner, 1958; Mualem, 1976), which is the soil water retention curve. Since Gardner (1958),
several authors have proposed different equations that model the soil water retention curve. In
this work, the sensitivity of the parameters of the curve proposed by van Genuchten (1980),
one of the most widespread in academia, will be analyzed, using the algorithm proposed by
Temperini (2018).
Inverse problems have increasily being to obtain parameters from experiments (Moura Neto
and Silva Neto, 2012). One key issue for that purpose is related to the sensitivity of the direct
problem to small variations in the parameters of interest.
Currin et al. (1986) and Sacks et al. (1989) discuss statistically motivated procedures
to predict the output of a computational model. Morris (1991) comments that inputs to a
model are important, and have an influence on outputs. Thus, a sensitivity analysis of the
input data of the problem addressed is necessary. For King and Perera (2013), who used
the Morris’ method, sensitivity analysis provides a structure, and many techniques, that can
identify important variables in a computational model. Pianosi et al. (2016) presents a review
on sensitivity analysis for environmental models, including One-At-a-Time (OAT), All-At-a-
Time (AAT), and the Pearson’s correlation coefficient. The latter will not be used in this work
due to the non-linear nature of the problem addressed. In this work we will use OAT methods.
Ferreti et al. (2016), in their study on trends in sensitivity analysis, showed that there is a
lack of reviews on good practices in this subject, and that the main generalist journals could
contribute in this regard. Mengistu et al. (2019), using the HYDRUS-1D software, for the
study of water infiltration in the soil, showed that the volumetric water content in the saturated
soil and the saturated hydraulic conductivity are the parameters that have greater influence
on the result. This result was also observed by Ferreira et al (2019), who also identified the
correlation between these two quantities for the case addressed, making the saturated hydraulic
conductivity not to be optimized.
Lugon Junior et al. (2002) present the modified coefficients dimensionless to analyse the
sensitivity of isotherms of gas-liquid adsorption model. Parolin et al. (2015) presented the
sensitivity analysis of the parameters of the term source of contaminants in the Macaé River, and
through Pearson’s correlation, showed a strong correlation between the parameters. Pinheiro
et al. (2004) presented the sensitivity analysis for radioactive transfer problems, allowing
decision making for work with inverse problems.
In this work will be presented the sensitivity of the Richards’ equation solved by finite
volume method with relation each input parameter. It was used the Morris’ method to analyse
the sensitivity and correlation through the mean and standard deviation.

2. Mathematical Model

Richards coupled the continuity equation to Darcy’ equation in order to prescribe soil
moisture content and pressure head over time, thus creating the Richards’ equation (1931).

2.1 Richards Equation

To model the problem of water infiltration and percolation in the soil, we use the Richards
equation, which was first described involving the soil water content, θ(cm3 cm−3 ), and pressure,
ψ(cm), in a mixed formulation, which can be described in the forms θ-based or ψ-based (Kroes
et al., 2008). In this work, we used the formulation ψ-based, which was solved by Temperini

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

464
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(2018) using the Finite Volume Method (MVF), given by


 
∂ψ ∂ ∂ (ψ − z)
C(ψ) = K(ψ) (1)
∂t ∂z ∂z

where C(ψ) is the water capacity (cm−1 ), t is the time (s), K(ψ) is the hydraulic conductivity
(cm−1 ) and z is the vertical coordinate (cm), in the direction of the origin for the negative axis
(Guterres, 2014).
The solution to this equation, ψ-based, is the pressure over position in the domain and time,
ψ(z, t). To determine the volumetric water content, it is necessary to use the soil water retention
curve, i.e. θ(ψ). There are several functions that model this relationship, however, in this study,
we will use the van Genuchten (1980) retention curve, given by

θ(ψ) = θr + (θs − θr ) (1 + |αψ|n )−m (2)

where θs is the volumetric water content in the saturated soil (cm3 cm−3 ), θr is the volumetric
water content in the residual soil (cm3 cm−3 ), α (cm−1 ), and n and m (dimensionless) are
empirical factors. Besides, the parameters m and n are related by m = 1 − 1/n (Kroes et al.,
2008).
However, to solve eq. (1), it is necessary to know the function C(ψ) and K(ψ). Water
capacity, C(ψ), is obtained from the soil water retention curve, θ(ψ), that is, C(ψ) = ∂θ/∂ψ,
or

C(ψ) = (−mnαn )(θs − θr )(1 + αn |ψ|n )−(m+1) |ψ|n ψ −1 (3)

The hydraulic conductivity function of van Genuchten and Mualem (Mualem, 1976) is given
by
−m 2 −m/2
K(ψ) = Ks 1 − (α|ψ|)n−1 [1 + (α|ψ|)n ] [1 + (α|ψ|)n ] (4)

where Ks is the saturated hydraulic conductivity (cm s−1 ).


The computation of the infiltration and percolation of water in the soil depends on six
parameters of van Genuchten, α, n, m, θr , θs and Ks . Knowing these parameters, we know θ and
ψ. Now, to obtain the values of these parameters using Inverse Problems and the water content
measured in the soil, it is necessary to evaluate the sensitivity to them and prior evaluation if
they are correlated.

3. Sensitivity Analyzis and Morris Method

Solving the direct problem with two different sets of parameters, two different solutions are
expected. This means that the problem is sensitive to the parameters. If a parameter and that
same parameter with a small addition results in the same solution as the direct problem, the
direct problem will not be sensitive to that parameter. This is not suitable, as there will be a set
of values for this parameter whose solution to the direct problem will be the same. Thus, the
value of the object function, which is to be minimized in the inverse problem, will always be the
same, making its optimization impossible. This parameter must be excluded from the process,
as it cannot be obtained using inverse problems.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

465
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

In the Morris method the Elementary Effects (EE) are calculated for each input parameter
using the following equation
θ(P̃1 , . . . , P̃i−1 , P̃i + ∆, P̃i+1 , . . . , P̃n ) − θ(P̃)
EEi = , i = 1, 2, . . . , n (5)

where P̃ belongs to an experimentation region, Ω, which is a p-level n-dimensional mesh
(hypercube), n is the total number of parameters and p the number of intervals for each edge
of the hypercube. Thus, P̃i ∈ [0, 1] and ∆ ∈ {0, 1/(p − 1), 2/(p − 1), . . . , 1} . Observe that
the parameter values P have been normalized, P̃, to the range [0, 1]. To investigate the global
sensitivity of P̃i , the elementary effects of N different values of each P̃i are obtained randomly
from Ω. In this work it was made an interpolation between each edge of the hypercube and,
therefore, in the interval where the van Genuchten parameters belong. To evaluate the effects of
the input parameters on the output of model, ie, the Richards’ equation solution, the modified
Morris’ index (Campolongo et al., 2007) is used,
N
1 X
µ?i = |EEi,r |, i = 1, 2, . . . , n (6)
N r=1

and the standard deviation,


v
u
u 1 X N
σi = t (EEi,r − µi )2 , i = 1, 2, . . . , n (7)
N − 1 r=1

where EEi,r corresponds to the r-th elementary effect of Pi .


Thus, according to Morris: (a) an entry is said to be non-influential, if µ?i is close to zero;
(b) an entry is said to be influential with negligible nonlinear effects, if µ?i is high, but σi is low;
or (c) an input is said to be influential with nonlinear effects and / or strong interactions with
other inputs, if µ?i and σi are high.

3.1 Test case

The test case used in this work is the same one considered by Vasconcellos and Amorim
(2001). The soil domain of observation is 60.0 cm in depth. However, for some types of
sandy soil, it was necessary to increase this depth. This is explained by the fact that the
infiltration and percolation process occurs more quickly in such soils. We represent that depth
by Lz , and consider a total simulation time of 1200 seconds, Dirichlet boundary conditions,
ψ(0, t) = −10.0 cm, t > 0, ψ(Lz , t) = −350.0 cm, t > 0, and the initial condition
ψ(z, 0) = −350.0 cm, 0 ≤ z ≤ Lz .

3.2 van Genuchten Parameters

The parameters considered were obtained from the SWAP Guide (Kroes et al., 2008). In
Table 1 are presented different sets of parameters, one for each kind of soil for the Morris
method application were selected the minimum and maximum values shown for each parameter
in the table.
Due to kinds of soil, was make an investigation a priori and detected which depths are
necessary to analyse. The test case was run for each set of parameter in the Table 1, and the
choice happened in depths who presented variation in a soil water retention curve.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

466
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1- van Genuchten parameters for eleven kinds of soil (Kroes et al., 2008).
van Genuchten parameters
Soil
α(cm−1 ) n m θr (cm3 cm−3 ) θs (cm3 cm−3 ) Ks (cm d−1 )
Sand 0.145 2.68 0.6269 0.045 0.43 8.25E − 01
Loamy sand 0.124 2.28 0.5614 0.057 0.41 4.05e − 01
Sandy loam 0.075 1.89 0.4709 0.065 0.41 1.23E − 01
Loam 0.036 1.56 0.3590 0.078 0.43 2.89E − 02
Silt 0.016 1.37 0.2701 0.034 0.46 6.94E − 03
Silt loam 0.020 1.41 0.2908 0.067 0.45 1.25E − 02
Sandy clay loam 0.059 1.48 0.3243 0.100 0.39 3.64E − 02
Clay loam 0.019 1.31 0.2366 0.095 0.41 7.22E − 03
Silty clay loam 0.010 1.23 0.1870 0.089 0.43 1.94E − 03
Sandy clay 0.027 1.23 0.1870 0.100 0.36 3.33E − 03
Clay 0.008 1.09 0.0826 0.068 0.38 5.56E − 03

4. Results and Discussion

To perform the sensitivity analysis, the SAlib library developed in Python was used (Herman
and Usher, 2017), with minor adaptations. During the simulations, the soils sand, loamy sand
and sandy loam were the most complex, due to the infiltration process having a higher speed in
these soils which is related to their higher saturated hydraulic condutivity Ks , see Table 1. As a
result, as already mentioned, it was necessary to increase the depth of the soil profile to 160 cm.
Another point observed was the need to refine the time step to 0.2 s, in the simulation for these
three types of soil, while for the other types of soil a time step equal to 1 s or greater was used.
This may be linked to the Courant–Friedrichs–Lewy condition (CFL) K(ψ) · ∆t/∆z, which
can be investigated.
In Table 2 are presented the summarized results about the Morris method for all depths.

Table 2- Results of Morris method to van Genuchten parameters at six different depths.
van Genuchten Depth
Morris index
parameters 1 cm 15 cm 35 cm 65 cm 95 cm 125 cm
α 1.090 0.370 0.320 0.294 0.258 0.250
n 0.022 0.014 0.011 0.013 0.013 0.011
µ? θr 0.551 0.763 0.758 0.758 0.754 0.767
θs 0.208 0.062 0.057 0.064 0.062 0.044
Ks 99.09 2.4e-15 2.2e-15 2.9e-15 3.1e-15 1.3e-15
α 0.834 0.437 0.403 0.385 0.280 0.364
n 0.026 0.013 0.0107 0.011 0.012 0.011
σ θr 0.268 0.080 0.074 0.081 0.077 0.075
θs 0.184 0.082 0.070 0.072 0.074 0.057
Ks 108.4 7.9e-15 8.6e-15 9.5e-15 9.0e-15 5.2e-15

Figure 1 shows a random sampling, performed by the Morris method, between the maximum
and minimum values for each parameter in Table 1, which were divided into eight parts, ie,
p = 8. The parameter was not considered separately because it is related to parameter n, i.e.
m = 1 − 1/n as already described.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

467
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Depth = 1 cm (b) Depth = 15 cm (c) Depth = 35 cm

(d) Depth = 65 cm (e) Depth = 95 cm (f) Depth = 125 cm

Figure 1- Random distribution between the minimum and maximum values for each parameter at six
different depths.

Figure 2 shows the distribution of the elementary effects (EEs) for each parameter, at the
selected depths. With the exception of Figure 2(a), whose depth is 1 cm, there was no variation
with Ks . In the first layer of soil Ks was extremely sensitive. This fact indicates that we can
propose a finer mesh in the first layers of the soil, and a coarser mesh from a certain depth, from
15 cm on for example. The parameter n had an almost insignificant sensitivity, and the others
showed on overall good sensitivity.

(a) Depth = 1 cm (b) Depth = 15 cm (c) Depth = 35 cm

(d) Depth = 65 cm (e) Depth = 95 cm (f) Depth = 125 cm

Figure 2- Elementary Effect per parameter generated by random distribution.

In Fig. 3(a) are shown Ks is influential and has interactions with other parameters or has
non-linear effects at the 1 cm depth. However for the other depths, Figs. 3(b)-3(f), Ks is a
non-influential entry, confirming the observations in Fig. 2. The parameter θr is an influential
entry with non-linear effects, while α, n and θs are influential, and may have interactions with

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

468
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

other parameters or non-linear effects, for all depths levels considered.

(a) Depth = 1 cm (b) Depth = 15 cm

(c) Depth = 35 cm (d) Depth = 65 cm

(e) Depth = 95 cm (f) Depth = 125 cm

Figure 3- Covariance plot with Morris coefficients at different depths in the soil.

5. Conclusions

The sensitivity analysis of the proposed algorithm to solve the Richards equation using the
finite volume method allowed us to understand the behavior of the van Genuchten retention
curve parameters as well as the parameters of the hydraulic conductivity function. As a result,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

469
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

it is possible to improve decision making in the process of obtaining these parameters through
inverse problems. An important observation was that in the first layers it may used a refinament
of the mesh because the parameter Ks is extremely sensitive.
The parameter θr can be obtained by an inverse problem approach because it has a good
sensitivity and do not have interactions with others parameters. The parameters α, θs and n
can indicate interations with others parameters or non linear solution. However they can not be
excluded of process of the optimization process used for the inverse problem solution.

6. Acknowledgements

The authors acknowledge the financial support provided by FAPERJ, Fundação Carlos
Chagas Filhos de Suporte à Pesquisa do Estado do Rio de Janeiro, CNPq, Conselho Nacional
de Desenvolvimento Cienttı́fico e Tecnológico, and CAPES, Coordenação de Aperfeiçoamento
de Pessoal de Nı́vel Superior (Finance code 001),

REFERENCES

Campolongo, F.; Cariboni, J. and Saltelli, A. (2007), An effective screening design for sensitivity
analysis of large models. Environ. Model. Softw. 22, 1509–1518.
Celia, M. A.; Bouloutas, E. T.; Zarba, R. L. (1990), A general mass conservative numerical solution for
the unsaturated flow equation. Water Resources Research, 1990, v. 26, n. 7, p. 1483-1496.
Currin, C., Mitchell, T. J., Morris, M. D., and Ylvisaker, D. (1986), Bayesian Prediction of Deterministic
Functions, With Applications to the Design and Analysis of Computer Experiments. Journal of the
American Statistical Association.
Ferreira, F. F.; Silva Neto, A. J.; Carneiro Neto, R. M. and Lyra, G. B. (2019) Parameters of the van
Genuchten equation obtained by the Levenberg-Marquardt method with restrictions (In Portuguese).
Anais do Encontro Nacional de Modelagem Computacional, Juı́z de Fora, Brasil.
Ferretti, F.; Saltelli, A. and Tarantola, S. (2016), Trends in sensitivity analysis practice in
the last decade. Science of The Total Environment, v. 568, p. 666 - 670, issn 0048-9697,
doi.org/10.1016/j.scitotenv.2016.02.133.
Gardner, W. R. (1958), “Some steady-state solutions of the unsaturated moisture flow equation with
application to evaporation from a water table”, Soil science, vol 85, 4, 228-232.
van Genuchten, M. T. (1980), A closed-form equation for predicting the hydraulic conductivity of
unsaturated soils, Soil Science Society of America Journal, 44:5:892-898.
Guterres, M. X. (2014), Evaluation of the Picard-Krylov and Newton-Krylov algorithms in the solution
of the Richards equation, Tese de doutorado, IPRJ/UERJ (In Portuguese).
Guterres, M. X.; Vasconcellos, J. F. V.; Silva Neto, A. J.; Peralta, C. B. L. and L. G. M. F. Teixeira
(2017), Approximation of a Solution for the Richards 2D Equation by the Finite Volume Method with
the Aid of the Picard-Krylov Algorithms (In Portuguese), Águas Subterrâneas, Volume 31:2:89-108.
Herman J. and Usher W. (2017), SALib: An open-source Python library for Sensitivity Analysis. Journal
of Open Source Software, vol. 2, n. 9, p. 97, The Open Journal, doi = 10.21105/joss.00097.
King, D. M. and Perera, B. J. C. (2013) Morris method of sensitivity analysis applied to assess the
importance of input variables on urban water supply yield – A case study. Journal of Hydrology, v.
477, p. 17 - 32, issn 0022-1694, doi.org/10.1016/j.jhydrol.2012.10.017.
Kroes, J. G.; van Dam, J. C.; Groenendijk, P.; Hendriks, R. F. A. and Jacobs, C. M. J. (2008), SWAP
version 3.2. Theory description and user manual, Wageningen, Alterra, Alterra Report 1649(02). ISSN
1566-7197.
Lugon Junior, J.; Silva Neto, A. J. and Santana, C. C. (2002), Estimation of Gas-Liquid Adsorption
Isotherms Using the Inverse Problem Approach (In Portuguese). Revista Trends in Applied and
Computational Mathematics - TEMA, v. 3, n. 2, doi.org/10.5540/tema.2002.03.02.0161.
Mengistu, A. G.; Mavimbela, S. S. W. and van Rensburg, L. D.(2019), Characterisation of the
soil pore system in relation to its hydraulic functions in two South African aeolian soil groups.
South African Journal of Plant and Soil, v. 36, n. 2, p. 107-116, 2019, Taylor & Francis, doi
10.1080/02571862.2018.1487594.
Morris, M. D. Factorial Sampling Plans for Preliminary Computational Experiments. Technometrics, v.
33, n. 2, p. 161-174, 1991, Taylor & Francis, doi = 10.1080/00401706.1991.10484804.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

470
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Moura Neto, F. D. and Silva Neto, A. J. (2012), An Introduction to Inverse Problems with Applications.
Springer-Verlag, 2012.
Mualem, Y. A new model for predicting the hydraulic conductivity of unsaturated porous media. Water
Resources Research, 1976, v. 12, n. 3, p. 513-522.
Parolin, R. S.; Rodrigues, P. P. G.; Domı́nguez, D. E. M.; Santiago, O. L. and Silva Neto, A. J (2015),
Sensitivity analysis and estimation of a source of contaminants in the Macaé River estuary. Brazilian
Journal of Water Resources (In Portuguese). Revista Brasileira de Recursos Hı́dricos, vol. 20, n. 1, p.
24 - 33, Porto Alegre.
Pianosi, F.; Beven, K.; Freer, J.; Hall, J. W.; Rougier, J.; Stephenson, D. B. and Wagener,
T (2016), Sensitivity analysis of environmental models: A systematic review with practical
workflow. Environmental Modelling & Software, v. 79, p. 214 - 232, 2016, issn 1364-8152,
doi.org/10.1016/j.envsoft.2016.02.008.
Pinheiro, R. P. F.; Silva Neto, A. J. and Roberty, N. C. (2004), Development of a Family of Regularization
Terms for the Solution of Inverse Radiative Transfer Problems. Anais do Congresso Brasileiro de
Matemática Aplicada e Computacional, CNMAC 2004.
Queiróz, B. F. (2017), “Study of numerical solutions of the Richards equation using the finite element and
finite difference method for simulation of unidimensional flow in unsaturated soil” (In Portuguese),
Dissertação de Mestrado, ICE/PGMMC/UFRRJ, Seropédica.
Richards, L. A. (1931), “Capillary conduction of liquids through porous mediums”, Journal of Applied
Physics, 1, 318, DOI: 10.1063/1.1745010.
Temperini, M. O. (2018), Inverse modeling to obtain parameters for Richards equation (in Portuguese),
Dissertação de Mestrado, PGEB/UFF, 2018.
Sacks, J., Schiller, S. B., and Welch, W. J. Designs for Computer Experiments. Technometrics, v. 31, p.
41-47, 1989.
Vasconcellos, C. A. B. and Amorim, J. C. C. (2001), Simulation of the water infiltration in homogeneous
unsaturated porous media (in Portuguese). Revista Brasileira de Recursos Hı́dricos, ABRH.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

471
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

COMPUTATIONAL SIMULATION OF THE DOWNSTREAM WAVE FLOOD


AFTER THE JUTURNAIBA DAM COLLAPSE

Fernanda Albuquerque dos Reis Veríssimo1 – nandareis83@gmail.com


Wagner Rambaldi Telles2 – wr_telles@yahoo.com.br
Mauricio Mussi Molisani1 – molisanimm@yahoo.com.br
Jader Lugon Junior3 – jlugonjr@gmail.com
1
Programa de Pós-Graduação em Ciências Ambientais e Conservação, Instituto de Biodiversidade e
Sustentabilidade, Universidade Federal do Rio de Janeiro - Macaé, RJ, Brazil
2
Instituto do Noroeste Fluminense de Educação Superior, Universidade Federal Fluminense – Santo
Antônio de Pádua, RJ, Brazil
3
Instituto Federal Fluminense, IFF Fluminense - Macaé, RJ, Brazil

Abstract. As publicized by WWA/UNESCO (2019), the world demand for water will increase
40% by 2030, as also for energy request. To supply water and energy demand, dams has been
built around the world and with them, increase the possibility to occur accidents. In Brazil, the
latest data obtained by the Dam Safety Report 2018, presented a total of 17,064 indexed dams,
with the State of Rio de Janeiro presenting 29 indexed dams. Two of such dams in the Rio de
Janeiro appointed with structural damage, one of them is the Juturnaiba reservoir located at
the São João river basin. To prevent accidents, studies simulated the downstream course of the
flood wave. In this study, the IBER and MOHID software were used to simulate the downstream
flood wave that would result from the Juturnaiba dam’s disruption. The results obtained
demonstrated that the flood spreads through the downstream floodplains and can reach the
urban areas of Tamoios and Barra de São João districts and in some areas of the Rio das
Ostras municipality, approximately, 34 hours after the spillway’s rupture began.

Keywords: IBER, MOHID, Computational simulation, Dam-break, Juturnaiba reservoir

1. INTRODUCTION

The water demand has growing over the years with 40% increasing projections by 2030
and 55% by 2050 (WWA/UNESCO report, 2019). In Brazil, the water demand projection is to
growth 24% until 2030. Today, the water consumption is 2.1 million liters per second, thus, in
2030, it will surpass 2.5 million liters for second (ANA, 2019). For supply demands, dams have
been constructed to flood reservoirs with a varied purposed such as provide drinking water,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

472
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

industrial uses, river flow regulation to reduce the effects of floods and droughts, irrigation,
energy production, recreation, among others.
Milliman (1997) verified that between 1950 and 1982, more than 30,000 dams were
upraised and, until the early 90’s, more than 13% of river flow were interrupted. The forecast
was that this percentage would be higher than 20% at the beginning of the 21st century.
However, the predictions were exceeded, as demonstrated by Van Capellen and Maavara
(2016), who observed that, in this period, more than 50% of the world's river flows pass over
one or more dams, and that by 2030 the percentage could reach 90%. Lehner (2011) identified
more than 16 million of dams around the world, among then, 50,000 dams are considered large
impoundments, with dam wall heights higher than 15 meters. Frederikse et al. (2020) observed
that impoundment reduces, albeit temporary, the sea level rise. Thereat, Groeskamp and
Kjellson (2020), suggested a construction of a Northern European Enclosure Dam (NEED) to
minimize the impacts of the sea level rise as a result of global warming to prevent flooding in
the areas near the coast.
Dam construction restarts to growth in the world, after a decline period of construction
mainly in view of scientific studies that described the dam impacts on river fluxes,
biogeochemistry cycle, water quality and biodiversity (Reidy Liermann et al., 2012; Suwarno
et al., 2014; Van Cappellen e Maavara, 2016; Maavara et al., 2017; Zeng et al., 2018; Wang et
al., 2018). In Brazil, the latest issue of the Dam Safety Report (2018) listed 17,604 indexed
dams, from which 39% are under supervision of the National Dam Safety Policy (NDSP)
(ANA, 2018). In accordance with the NDSP’s 12,334/2010 law, dams need to have, at least,
one of the mentioned characteristics: minimum crest height of 15m; reservoir storage capacity
higher than 3.0 million of cubic meters; hazardous waste storage in accordance with applicable
technical standards and medium to high associated potential damage category (BRASIL, 2010).
The dam construction to supply water occurred at least for the last 5,000 years and with
the impoundments also started the dam collapses, as occurred with the first dam built, Sadd el
Kafara, that collapsed soon after your construction has been completed, due failures on your
project, as the absence of spillways (Jansen, 1983). Aguiar (2014) related the greatest accidents,
between 1864 and 1976, that caused from 11 to 230,000 fatal victims – including indirect deaths
arising from downstream flooding. He identified 17 accidents that mostly happened because by
dam failure. Balbi (2008) observed a correlation between the countries that excelled in dam
building and the negative experiences arising from the accidents with these structures.
With the several tragedies observed over the history, some studies simulated the
downstream water behavior and analyze the accident consequences from dam failure. Some
simulations applied diversified modelling techniques to describe several scenarios of water and
particulate material behavior considering the dam breaking (Lai & Kahn, 2012; Dewals et al.,
2014). Some studies simulated the dam collapse by using mathematical models which has been
accurate by comparing to data from accidents that have already occurred (Gallegos, Schubert
& Sanders, 2009; Cleary, Prakash & Rothauge, 2010; Prakash, Rothauge & Cleary, 2014; Ali,
Boualem & Mohamed, 2017).
Among the various computer simulators, we have the MOHID and IBER. These
softwares can work with 1D, 2D or 3D models, depending on the response to be achieved at
simulations. These programs attempt to detailed the water way and predict flood inundation (da
Silva Tavares et al., 2018; Castelltort et al., 2020), river fluxes influenced by impoundments
(Canuto et al., 2019), create environment scenarios to support management of waterbodies
(Tosic et al., 2019), simulate biogeochemical processes and behavior of trace metals and
suspended particulate matter on riverine systems (Trancoso et al., 2009; Duarte et al., 2014;
Garneau et al., 2017) and hydrodynamics of the waterbodies (Vaz et al., 2007)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

473
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Considering that there are 29 indexes dams in the State of Rio de Janeiro and two dams
have important structural damage, it is urgent to simulate the downstream waterway after the
dam spill of the reservoir water volume, using computer simulation tools. The Juturnaíba
reservoir is classified as medium risk and high potential damage and it is included in the 39%
of dams submitted to National Dam Safety Policy (NDSP) (ANA, 2018). According to the Dam
Safety Report 2018, the dam presents: “Structural problems on the controlled spillways, in the
bottom unloaders, operational problems due to the supernatant extant in the reservoir and
concerning the island downstream of the dam” (ANA, p. 37, 2018). The Emergency Action
Plan (ANA, 2016) recommended the utilization of hydrodynamics models to simulate scenarios
of dam break. Thus, this study applied the IBER and MOHID hydrodynamic models to simulate
scenarios of the Juturnaíba dam collapse and flooding of downstream urban and rural areas of
the São João river watershed, and to support the elaboration of an Emergency Action Plan to
the Juturnaíba reservoir and the watershed, as the dam is classified as high potential damage.

2. METHODS

2.1 Study Area

The Juturnaíba reservoir is located in the middle basin of the São João River at the UTM
coordinates 23K zone, 780971.07m E longitude and 7499593.53m S latitude. The reservoir is
supplied by three main rivers: Capivari, Bacaxá e São João. The Capivari and Bacaxá rivers
born in the Rio Bonito and Lavras mountains, respectively, at 1,100 m height, while the São
João river headwaters are located at the Cachoeiras de Macacu and Sambê mountains at 600 m
height (Bidegain & Volckër, 2003; Hora, Massera & Porto, 2001). However, most of the
watershed is composed by lowlands with long navigable stretches (Bidegain & Volckër, 2003).
The São João river basin has 2,160 km2 and seven municipalities are partially (Cachoeiras
de Macacu, Casimiro de Abreu, Rio Bonito, Araruama, São Pedro da Aldeia, Cabo Frio and
Rio das Ostras) or totally (Silva Jardim) insert within the basin (Bidegain & Volckër, 2003;
Bidegain & Pereira, 2005), summing about 139 thousand people living in the basin (IBGE,
2010). The upstream watershed area contributing to the reservoir is 1,280 km2, where 559 km2
corresponding to the São João river, 528 km2 to the Bacaxá river and 193 km2 to the Capivari
river. Each sub-basin (São João, Bacaxá and Capivari) contributes to the reservoir with 29, 5.6
and 4.4 m3/s /, respectively (PCE, 1997; Bidegain & Volckër, 2003). The upper and middle
basin are composed by forest fragments, pasture, agriculture, urbanization. The lower river was
straightened with large agricultural and cattle lands and mangrove and urbanizations in the
estuarine portion (Cunha, 1991; Bidegain & Volckër, 2003; INEA, 2011).

.2.1.2 The dam construction and reservoir flooding

In 1960’s the São João’s river had its 3.0 km of its channel strengthened to flood control
of low lands. With the beginning of the dam construction more 20 km of the lower river basin
was also strengthened and the channel enlarged (Cunha, 1991). The dam construction initiated
in the late 1970’s and early 1980’s, and for security reason, the dam was first constructed and
then the spillways. The dam was constructed with compacted clay soils and its left side has
1,300 m in length and 2,160 in the right side which are fixed on natural hills. The maximum
height of the dam is 12 m. The spillways were built with concrete mass and has Creager profile
with a crest at 8.4 m height. To resist the highest flow estimated at 862 m3/s with recurrence
time of 200 years, the dam would have 700 m in length, but the area did not have this extension.
Then the solution was to build a maze spillway type containing four segments with 180 m each.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

474
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

In order to dissipate energy downstream of the shed area. There are two structures: sheaf and
dissipation teeth (Figure 1) (Borges, 1991; PCE, 1997).

Figure 2 – Juturnaiba’s dam and its structures: (1) spillways with Crager profile; (2) sheaf and
(3) dissipation teeth (photo from Jornal O Globo, 2019)

The maximum operation quota is 8.4 m and with this condition, the reservoir area has 42
km2, maximum width of 3 km and maximum length of 15 km. The average depth of the
reservoir is around 2.6 m, reaching up to 6.4 m (PCE, 1997; Bidegain & Pereira, 2005; Melo &
Nascimento, 2019). The water volume ranging from 9.2 x 107 to 1.3 x 108 m3 (Wasserman,
2014). The water residence times was estimated at 34 and 38 days (PCE, 1997; Bidegain &
Pereira, 2005). The water behind dam supply drinking water for 771,259 inhabitants in the
Região dos Lagos and Casimiro de Abreu and part of Rio Bonito, as well as control flood
downstream and ensure irrigation to agriculture fields (Cunha, 1995; Bidegain & Volckër,
2003; Noronha, 2009; IBGE, 2019).

2.2 Flood simulation from the dam collapse

We choose to simulate a overtop spillway, by the fact that this type of accident is more
frequent in Brazil, according to the Dam Safety Report 2018. To simulate the flood wave, the
MOHID platform and IBER were applied to ensure a better simulation. The MOHID Land
module is a three-dimensional numerical hydrodynamic model, which was developed, initially,
to realize studies related to surface waters in the coastal and oceanic zone (Neves, Chambel-
Leitão & Leitão, 2000; Duarte et. al, 2014). It is a model that can be used for various purposes:
water quality simulation, three-dimensional flows, nutrient transport simulation for coastal
zone, oil spill simulation, predict flood, among others (Neves, Chambel-Leitão & Leitão, 2000;
Duarte et al., 2014; Paiva et al., 2017; Lugon Junior et al., 2019). With the input data, the
software works as a hydrodynamic model and related equations are capable to solve
incompressible three-dimensional flow (Paiva et al., 2017). The IBER is a software which
consists of a flow simulation model in rivers and estuaries, developed by the collaboration
among the Grupo de Ingeniería del Agua y del Medio Ambiente (Universidade da Coruña),
Grupo de Ingeniería Matemática (Universidade de Santiago de Compostela), Instituto Flumen
(Universitat Politècnica de Catalunya y Centre Internacional de Mètodes Numèrics en
Enginyeria) and promoted by Centro de Estudios Hidrográficos do CEDEX (Bladé et al., 2014).
It allows simulating unsteady free-surface turbulent flow and transport processes in shallow
water flows, divided into three main modules: hydrodynamic module, turbulence module, and
sediment transport module, which are based on an unstructured mesh of finite volumes formed
by triangular or quadruple elements. For hydrodynamic processes, the IBER calculates the
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

475
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

depth-averaged two-dimensional shallow water equations (2D Saint-Venant Equations) (Cea


et. al., 2019). From both models, it is possible to estimate the partial or complete reservoir
emptying time and the time period of the inundation wave would reach the downstream places
below the reservoir.

2.2.1 Hydrographic area

In the MOHID software, the hydrographic area of the São João river basin was obtained
from the GIS interface of the program, comprising the area from the dam until the estuary outlet.
From the Digital Terrain Model (DTM) and watershed delineation, the horizontal grid of 50 m-
quadratic cells was obtained. Altimetric data was supplied by the TOPODATA dataset, which
provide a Digital Elevation Model (DEM) based on the SRTM data refined to the 30 m
resolution (Valeriano, 2005). To obtain the greatest accuracy of physical terrain, the depressions
were removed which avoid risk of emergence or loss channel areas (Telles et al., 2012; 2016).
In order to work with the same hydrographic area in both models, the Digital Terrain Model
built in the MOHID platform was exported as shapefile format and then to Raster format. In the
IBER software, the study area was delimited, as well as, the construction of an unstructured
mesh containing triangular 50-m long elements.

2.2.2 Input data

For receive the input data, the Module Runoff in MOHID works with the difference
between adjacent cells, known as dynamic wave, to simulate the water flow from cells with
higher to lower slopes. The flow was calculated using the Saint Venant equation, that consider
the inertia effects in the 2D approach. In the IBER Model, the same equation was applied to
simulation, whose numerical resolution is given by the Finite Volume Method.
The reservoir’s volume was obtained from Wasserman (2014) whom performed depth
measurements in 600 sites throughout the reservoir. For both simulations we adopted the
elevation of 8.4 m, that would be on the crest of the spillways. The outlet boundary condition
was considered the elevation equal to zero because the outlet is at sea level. The tidal variation
was not taken into account in the calculations; thus, the water flow found no resistance. The
Manning Coefficient was calculated considering a constant value equal to 0.03 m. Finally, the
simulation time was three days and eight hours (80 hours); that was the time the wave took to
reach the height of the disruption and stop the leakage.

3. RESULTS AND DISCUSSION

Considering the computational effort, MOHID simulation took 4 hours to be finished


while IBER took only 3 hours, both of them using Intel i5 processors with 8GB ram memory.
The simulations results revealed that the flood wave spread for almost 30 km downstream until
reach the river mouth in the estuary. The resultant water depth varied from 0.05 m to more than
1.20 m. Water velocity was calculated from 0.05 m/s to more than 1.20 m/s, with the flood
wave arriving in the estuary in three days considering the MOHID simulation. According to the
IBER modelling, the flood waves does not reach the river mouth.
From the MOHID simulation, the wave floods downstream not only large pasture and
agriculture fields, but also reaches the urban region of Tamoios and Barra de São João districts
and part of the Rio das Ostras municipality. Higher depths of 1.2 m were observed near the
spillway rupture traversing, approximately 11km downstream, reaching the floodplain of the
river along the strengthened river channel until its mouth. For other downstream flooded areas,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

476
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

was calculated water depth around 0.05 m and 0.48 m (Figure 3). The wave gets the river outlet
after 18 hours according to the simulation, and after 34 hours flood the small portion of urban
areas of Tamoios and Barra de São João districts, and in 52 hours reaches part of the Rio das
Ostras municipality.
The IBER simulation presented that only pasture and agricultural areas were impacted
and the flood wave does reach the river outfall in the estuarine portion. The simulated depth
ranges from 0.00 m to 1.20 m, with the maximum values observed along all the riverbed of the
strengthened river section and near the rupture area. We also observed the maximum depths,
approximately, 11 km distance away from dam in the right bank (Figure 4).

Figure 3 – MOHID simulation of water depth (m) after dam collapse across the downstream
São João river basin.

Figure 4 – IBER simulation of water depth (m) after dam collapse across the downstream São
João river basin.

The MOHID simulation velocity after dam collapse demonstrated that the higher values
were calculated near the river channel and adjacent floodplains, reaching more than 1.2 m/s.
For most of downstream reaches, velocity varies between 0.05 m/s and 0.41 m/s. The model
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

477
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

considered the wind influence in the estuarine zone, increasing the water velocity values to ≥
1.2 m/s which contribute to the water overflow the riverbed and reach the urban area in the
Tamoios and Barra de São João districts (Figure 5). The IBER velocities simulations were
similar to the MOHID results, with the higher values of ≥1.20 m/s in the floodplains near the
dam and the predominance of values between 0.00 m/s and 0.45 m/s (Figure 6).

Figure 5 – MOHID simulation of water velocity (m/s) after dam collapse across the downstream
São João river basin.

Figure 5 – IBER simulation of water velocity (m/s) after dam collapse across the downstream
São João river basin.

Da Fonseca Santos and Chargel (2019) also realized hypothetical simulation


disruption of the Juturnaiba’s dam, but they used the HEC-RAS software and the simulation
was the piping type, in the land barrier, not in the spillways. The Manning coefficient was
also constant with value equal 0.03m, without considering the tidal influence as well.
Comparing the three simulations, similarities between results were found for flooding area,
velocity and water depth. The HEC-RAS model simulations, just like the MOHID, the flood
wave reach the river mouth, but flood different areas in the coastal zone, as the periphery of

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

478
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

the Casimiro de Abreu municipality, deviating the path of the sinuous stretch near from the
river mouth; and get close to the seaside, instead of MOHID.

4. CONCLUSION

The simulation of Juturnaíba dam collapse and downstream flooding indicated which
regions of the basin will be affected by the flood wave, its arrival time and water velocity and
depth. Pasture and agricultural fields will be affected by the waves as part of the urban areas in
the river mouth. Higher depth and velocity were estimated at 1.2 m and 1.2 m/s, respectively,
near the dam and in the outlet after dam spill. The wave gets the river outlet after 18 hours
according to the simulation, and after 34 hours flood the small portion of urban areas of
Tamoios and Barra de São João districts, and in 52 hours reaches part of the Rio das Ostras
municipality. In part, MOHID and IBER models has similar results. Despite it is a preliminary
simulation yet without discrimination of the Manning Coefficient for each use of the soil, the
behavior of the flood wave can support governmental authorities to elaborate an Emergency
Action Plan to notify the population living downstream the Juturnaíba dam in the situation of
collapse. Complementary studies are needed to improve the simulation by adjusting the
Manning coefficients which will accuracy the simulations of the flood wave behavior.

Acknowledgments

This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de


Nível Superior – Brasil (CAPES) – Finance Code 001, and Conselho Nacional de
Desenvolvimento Científico e Tecnológico (CNPq).

REFERENCES

ANA - Agência Nacional de Águas (Brasil). (2016), Guia de Orientação e Formulários dos Planos de Ação de
Emergência – PAE -Volume IV. Disponível em: <http://www.snisb.gov.br/portal/snisb/downloads/volume-iv-
guia-de-orientacao-e-formularios-dos-planos-de-acao-de-emergencia-2013-pae/view>. Acesso em
05/07/2020.
______. (2018), Relatório de segurança de barragens 2018. Agência Nacional de Águas – Brasília, ANA, 103p.
______. (2019), Manual de Usos Consuntivos da Água no Brasil. Agência Nacional de Águas – Brasília, ANA,
75p.
Aguiar, D.P de O. (2014), Contribuição ao Estudo do Índice de Segurança de Barragens-ISB. 166 f. Dissertação
(Mestrado em Engenharia Civil, na Área de concentração em Recursos Hídricos, Energéticos e Ambientais) –
Faculdade de Engenharia Civil, Arquitetura e Urbanismo, UNICAMP. Campinas.
Ali, H.; Boualem, R.; Mohamed, R. (2017), Numerical modelling of solid trnasport caused by an extreme flood:
Case of the Hamiz dam failure (Algeria). Journal of King Saud University – Engineering Sciences, 29, 221-
236.
Balbi, D.A.F. (2008), Metodologias para elaboração de planos de ações emergenciais para inundações induzidas
por barragens. Estudo de caso: Barragem de Peti – MG. 353 f. Dissertação (Mestrado em Saneamento, Meio
Ambiente e Recursos Hídricos) – Escola de Engenharia, UFMG. Belo Horizonte.
Bidegain, P.; Pereira, L.F.M. (2005), Plano das Bacias Hidrográficas da Região dos Lagos e do Rio São João.
Rio de Janeiro: CILSJ.
Bidegain, P.; Völcker, C. M. (2003), Bacias hidrográficas dos Rios São João e das Ostras: Águas, terras e
conservação ambiental. Rio de Janeiro: Consórcio Intermunicipal para gestão das Bacias Hidrográficas da
Região dos Lagos, Rio São João e Zona Costeira.
Bladé, E.; Cea, L.; Corestein, G.; Escolano, E.; Puertas, J.; Vázquez‐Cendón, M. E.; Dolz, J.; Coll, A. (2014), Iber:
herramienta de simulación numérica del flujo en ríos. Revista Internacional de Métodos Numéricos para
Cálculo y Diseño en Ingeniería, 30 (1), 1‐10.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

479
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Borges, J. B. (1991), Análise do adensamento da fundação da barragem de Juturnaíba. 185 f. Tese (Mestre em
Ciências em Engenharia Civil) – Engenharia, UFRJ. Rio de Janeiro.
BRASIL. Lei nº 12.334, de 20 de setembro de 2010. Diário Oficial da União, Poder Executivo, Brasília, DF, 21
set. 2010. Seção 1, p. 1. Disponível em: < https://www2.camara.leg.br/legin/fed/lei/2010/lei-12334-20-
setembro-2010-608607-publicacaooriginal-129691-pl.html> Acesso em: 26 abr. 2019.
Canuto, N.; Ramos, T. B.; Oliveira, A. R.; Simionesei, L.; Basso, M.; Neves, R. (2019), Influence of reservoir
management on Guadiana streamflow regime. Journal of Hydrology: Regional Studies, 25, 1-19.
Castelltort, F. X.; Bladé, E.; Balasch, J. C.; Ribé, M. (2020), The backwater effect as a tool to assess formative
long-term flood regimes. Quaternary International, 538, 29-43.
Cea, G. L.; Bladé, C. E.; Sanz, R. M.; Bermúdez, P. M.; Mateos, A. Á. (2019), Iber applications basic guide. A
Coruña. Universidade da Coruña, Servizo de Publicacións. ISBN: 978-84-9749-717-6. DOI:
https://doi.org/10.17979/spudc.9788497497176.
Cleary, P.W.; Prakash, M.; Rothauge, K. (2010), Combining digital terrain and surface textures with large-scale
particle-based computational models to predict dam collapse and landslide events. International Journal of
Image and Data Fusion, 1(4), 337-357.
Cunha, S.B. (1991), Rectificação do Rio S. João-Efeitos na morfologia do canal e na ecologia, 185-193.
______. (1995), Impactos das obras de engenharia sobre o ambiente biofísico da Bacia do Rio São João (Rio de
Janeiro – Brasil). Edição do autor.
Da Fonseca Santos, L.; Chargel, L. T. (2019), Simulação do rompimento hipotético da Barragem de Juturnaíba,
localizada no estado do Rio de Janeiro. Anuário do Instituto de Geociências, 42(3), 299-310.
Da Silva Tavares, L. P., Junior, J. L., Da Silva, J. A. F., Wasserman, J. C., Rodrigues, P. P. G. W. (2018), Water
management and urban flood mitigation: studies and proposals for the Macaé River Basin in Brazil. Journal of
Urban and Environmental Engineering, 12 (2), 188-200.
Dewals, B.; Erpicum, S.; Pirotton, M.; Archambeau, P. (2014), Dam break flow modelling with uncertainty
analysis. In Advances in Hydroinformatics. Springer Hydrogeology, Singapore, 107-116.
Duarte, B.; Valentim, J.M; Dias, J.M.; Silva, H.; Marques, J.C.; Caçador, I. (2014), Modelling sea level rise (SLR)
impacts on salt marsh detrital outwelling C and N exports from an estuarine coastal lagoon to the ocean (Ria
de Aveiro, Portugal). Ecological Modelling, 289, 36-44.
Frederikse, T.; Landerer, F.; Caron, L.; Adhikari, S.; Parkes, D.; Humphrey, V.W.; Dangendorf, S.; Hogarth, P.;
Zanna, L.; Cheng, L.; Wu, Y-H. (2020), The causes of sea-level rise since 1900. Nature, 584, 393-408.
Gallegos, H.A.; Schubert, J.E.; Sanders, B.F. (2009), Two-dimensional, high-resolution modeling of urban dam-
break flooding: A case study of Baldwing Hills, California. Advances in Water Resources, 32, 1323-1335.
Garneau, C.; Sauvage, S.; Sánchez-Pérez, J. M.; Lofts, S.; Brito, D.; Neves, R.; Probst, A. (2017), Modelling trace
metal transfer in large rivers under dynamic hydrology: A coupled hydrodynamic and chemical equilibrium
model. Environmental Modelling & Software, 89, 77-96.
Groeskamp, S.; Kjellsson, J. (2020), NEED: The Northern European Enclosure Dam for if climate change
mitigations fail. Bulletin of the American Meteorological Society (BAMS), 101 (7), E1174-E1189.
https://journals.ametsoc.org/bams/article/101/7/E1174/345599/NEED-The-Northern-European-Enclosure-
Dam-for-if.
Hora, A.; Massera, M.A.G.; Porto, M.A.D. (2001), Bacias hidrográficas e rios fluminenses. Síntese informativa
por macrorregião ambiental. Rio de Janeiro: Semads/GTAZ.
IBGE. (2010), Sinopse por setores. Disponível em: <https://censo2010.ibge.gov.br/sinopseporsetores/?nivel=st>.
Acesso em: 13 nov. 2019.
______. (2019), IBGE cidades - Panorama. Disponível em : <https://cidades.ibge.gov.br/brasil/rj/panorama>
Acesso em: 14 nov. 2019.
INEA. (2011), O estado do ambiente: Indicadores ambientais do Rio de Janeiro.
Jansen, R.B. (1983), Dams and Public Safet: A Water Resources Technical Publication. U.S. Department of the
Interior, Bureau of Reclamation, Denver.
Lai, W.; Khan, A. A. (2012), Modeling dam-break flood over natural rivers using discontinuous Galerkin
method. Journal of Hydrodynamics, 24 (4), 467-478.
Lehner, B.; Liermann, C.R.; Revenga, C.; Vörösmarty, C.; Fekete, B.; Crouzet, P.; Döll, P.; Endejan, M.; Frenken,
K.; Magome, J.; Nilsson, C.; Robertson, J.C.; Rödel, R.; Sindorf, N.; Wisser, D. (2011), High-resolution
mapping of the world’s reservoirs and dams for sustainable river-flow management. Front. Ecol. Environ., 9,
494–502.
Lugon Junior, J.; Tavares, L.P.S.; Kalas, F.A.; Rodrigues, P.P.G.W.; Wasserman, J.C.A. (2019), Reservoir
implantation for flood dampening in the Macaé River basin using the Mohid Land Model. Cie. e Nat., 41 (29),
01-10.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

480
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Maavara, T.; Lauerwald, R.; Regnier, P.; Van Cappellen, P. (2017), Global perturbation of organic carbon cycling
by river damming. Nature Communications, 8(15347), 1-9.
Melo, M.L.; Nascimento, R. (2019), Moradores de Araruama relatam vazamento em barragem. O Dia [Rio de
Janeiro]. 06 fev. Disponível em:< https://odia.ig.com.br/rio-de-janeiro/2019/02/5617918-moradores-de-
araruama-relatam-vazamento-em-barragem.html>. Acesso em: 04 jun. 2019.
Milliman, J.D. (1997), Blessed dams or damned dams?. Nature, 386, 325-327.
Neves, R.; Chambel-Leitão, P.; Leitão, P.C. (2000), Modelação numérica da circulação da água no solo. O modelo
MOHID. Pedologia, 28, 46-55.
Noronha, G. C. (2009). Avaliação Hídrica do Lago de Juturnaíba como Alternativa de Abastecimento de Água do
Complexo Petroquímico do Rio de Janeiro – COMPERJ. Latec. Universidade Federal Fluminense. Niterói,
RJ.
Paiva, P.M.; Lugon Junior, J.; Barreto, A.N.; Silva, J.A.F.; Silva Neto, A.J. (2017), Comparing 3d and 2d
computational modeling of na oil well blowout using MOHID platform – A case study in the Campos basin.
Science of the Total Environment, 595, 633-641.
PCE-Projetos e Consultoria de Engenharia Ltda. (1997), Investigações e estudos das condições de segurança e
operacionais. Relatório final nº PJ208-RT JUT01.
Prakash, M.; Rothauge, K.; Cleary, P.W. (2014), Modelling the impact of dam failure scenarios on flood
inundation using SPH. Applied Mathematical Modelling, 32, 5515-5534.
Reidy Liermann, C.; Nilsson, C.; Robertson, J.; Ng, R.Y. (2012), Implications of dam obstruction for global
freshwater fish diversity. BioScience, 62 (6), 539-548.
https://academic.oup.com/bioscience/article/62/6/539/249111
Suwarno, D.; Löhr, C.; Kroeze, B.; Widianarko, B.; Strokal, M. (2014), The effects of dam in rivers on N and P
export to the coastal waters in the Indonesia in the future. Sustainability of Water Quality and Ecology, 3-4,
55-66.
Telles, W.R.; Silva Neto, A.J.; Rodrigues, P.P.G.W. (2012), Avaliação do sistema de modelagem MOHID na
delimitação de bacias hidrográficas. Anais do Congresso de Modelagem Aplicada e Computacional.
Telles, W.R., Rodrigues, P.P.G.W.; Silva Neto, A.J. (2016), Calibração automática de um simulador aplicado a
um rio de montanha empregando dados experimentais de precipitação e nível. Estudo de Caso: Córrego Dantas,
RJ. Revista Brasileira de Recursos Hídricos, 21 (1), 143-151. DOI: http://
dx.doi.org/10.21168/rbrh.v21n1.p143-151.
Tosic, M.; Martins, F.; Lonin, S.; Izquierdo, A.; Restrepo, J. D. (2019), Hydrodynamic modelling of a polluted
tropical bay: Assessment of anthropogenic impacts on freshwater runoff and estuarine water renewal. Journal
of environmental management, 236, 695-714.
Trancoso A.R.; Braunschweig, F.; Chambel-Leitão, P.; Obermann, M.; Neves, R. (2009), An advanced modelling
tool for simulating complex river systems. Science of the Total Environment, 407, 3004–3016.
Valeriano, M.M. (2005), Modelo digital de variáveis morfométricas com dados SRTM para o território nacional:
o projeto TOPODATA. In: Anais do XII Simpósio Brasileiro de Sensoriamento Remoto, Goiana, INPE, Abr
16-21, 1-8.
Van Cappellen, P.; Maavara, T. (2016), Rivers in the Anthropocene: Global scale modifications of riverine nutrient
fluxes by damming. Ecohydrol. Hydrobiol, 16 (2), 160-111.
Vaz, N.; Dias, J. M.; Leitão, P. C.; Nolasco, R. (2007), Application of the Mohid-2D model to a mesotidal
temperate coastal lagoon. Computers and Geosciences, 33 (9), 1204-1209.
Wang, X.; Yang, S.; Ran, X.; Liu, X-M.; Bataille, C.P.; Su, N. (2018), Response of the Changjiang (Yangtze
River) water chemistry to the impoundment of Three Gorges Dam during 2010-2011. Chemical Geology, 487,
1-11.
Wasserman, J.C.F.A. (2014), Estudo da UFF avalia volume de água da represa de Juturnaíba. OADS. 11 mai.
Disponível em: < http://www.oads.org.br/noticia.php?id=49>. Acesso em: 16 nov. 2019
WWAP (UNESCO World Water Assessment Programme). (2019), The United Nations world water development
report 2019: leaving no one behind. Paris, UNESCO.
Zeng, L.; McGowan, S.; Cao, Y.; Chen, Y. (2018), Effects of dam construction and increase pollutants on the
ecohyrological evolution of a shallow freshwater lake in the Yangtze floodplain. Science of the Total
Environment, 621, 219-227.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

481
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SIMULAÇÃO NUMÉRICA DE ENCHENTES EM ÁGUAS RASAS VIA ELEMENTOS


FINITOS

Rafael Zanovelo Perin1 - rafael-perin@hotmail.com


Régis Sperotto de Quadros2 - quadros99@gmail.com
Armando Miguel Awruch3 - amawruch@ufrgs.br
Renato Vaz Linn4 - renatolinn@ufrgs.br
1,2,3 Universidade Federal de Pelotas, Instituto de Fı́sica e Matemática - Capão do Leão, RS, Brazil.
4 Universidade Federal do Rio Grande do Sul, Escola de Engenharia - Porto Alegre, RS, Brazil.

Resumo. A modelagem em sistemas de águas rasas possibilita importantes contribuições


na previsão de desastres ambientais, uma vez que é possı́vel representar o comportamento
hidrodinâmico de um domı́nio bidimensional com variação da altura. Assim, consegue-
se descrever o comportamento horizontal do fluido bem como do nı́vel d’água, essencial
para a previsão de enchentes. Para isso, neste trabalho faz-se a discretização espacial das
equações pelo método dos elementos finitos do tipo Galerkin, preenchendo o domı́nio com
elementos triangulares de três nós e funções de interpolação lineares. Já o método das linhas
caracterı́sticas emprega-se na discretização temporal, estabilizando os termos de advecção.
A metodologia é aplicada na Praia do Laranjal, localizada na zona urbana da cidade de
Pelotas, estado do Rio Grande do Sul, Brasil, realizando simulações numéricas em casos teste,
representando o escoamento no corpo hı́drico e verificando a elevação da altura da água.

Palavras-chave: Modelagem hidrodinâmica, Método das linhas ou direções caracterı́sticas,


Método dos elementos finitos, Praia do Laranjal.

1. INTRODUÇÃO

Desde o princı́pio da civilização a água é referência para o desenvolvimento e a manutenção


das necessidades humanas, tanto ligadas à alimentação, a geração de energia, o lazer, entre
outros. Com isso, o controle e o uso dos recursos hı́dricos tornaram-se fundamentais para a
prosperidade da sociedade.
A dependência d’água deixou as comunidades submissas a adversidades provenientes dos
recursos hı́dricos, a medida que o seu excesso ocasiona inundações, sejam por enchentes ou
até pelo rompimento de barragens, trazendo nefastas consequências à saúde e a economia dos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

482
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

municı́pios. Deste modo, a modelagem hidrodinâmica vem a colaborar nos estudos sobre os
corpos d’água, propiciando contribuições na previsão de desastres ambientais, sendo fonte
de informação na tomada de decisões por parte dos governantes. E, no contexto atual, os
investimentos no combate a inundações são uma alternativa para a recuperação econômica pós-
pandemia somado a preservação de vidas humanas, considerando o aumento na recorrência de
inundações (Kuzma; Luo, 2020).
Neste trabalho utilizam-se as equações de águas rasas para a modelagem matemática de
recursos hı́dricos pouco profundos, as quais são discretizadas pelo método dos elementos
finitos e pelo método das linhas caracterı́sticas, no espaço e no tempo, respectivamente. A
aplicação da metodologia se da na cidade de Pelotas, localizada no Rio Grande do Sul, Brasil.
A geometria do objeto de estudo é preenchida por elementos triangulares com três nós e funções
de interpolação lineares.

2. O modelo de águas rasas

A obtenção do sistema de equações de águas rasas provém da integração das equações da


conservação de massa e da quantidade de movimento ao longo da profundidade, aplicando a
regra de Leibniz para integrais de contorno variáveis (Awruch, 1983). O modelo adota a massa
especı́fica constante, as dimensões horizontais muito superiores a dimensão vertical, a pressão
distribui-se hidrostaticamente, a topografia do fundo não varia no tempo, a velocidade vertical é
muito pequena e sua aceleração negligenciada, a velocidade no fundo é nula e as componentes
horizontais da velocidade não são uniformes, sendo conveniente trabalhar com um valor médio
que é constante com a profundidade (Zienkiewicz et al., 2005).
Deste modo, um sistema de águas rasas pode ser representado por:
∂h ∂Ui
+ = 0, (1)
∂t ∂xi
    
∂Ui ∂Fij g ∂η ∂H ∂ ∂Ui ∂Uj i g |U |
+ + − χ + +(−1) νUk + 2 2 Ui = cd |W |Wi , (2)
∂t ∂xj 2 ∂xi ∂xi ∂xj ∂xj ∂xi cm h
no domı́nio Ω com i, j = 1, 2 e k = i + (−1)i+1 , onde ui (x1 , x2 , t) é a componente da
velocidade instantânea na direção de xi , Ui (x1 , x2 , t) é a componente do fluxo (vazão por
unidade de largura) na direção de xi , h(x1 , x2 , t) é a profundidade total, H(x1 , x2 ) é a distância
do plano de referência ao fundo (assume-se como independente do tempo) e η(x1 , x2 , t) é a
elevação da superfı́cie livre em relação ao plano de referência. Ainda, Ui = Ûi h, Fij = Ûi Uj ,
h = H +η, χ é um coeficiente de viscosidade generalizado (m2 /s, usualmente utiliza-se χ = 0),
g é a aceleração da gravidade (m/s2 ), Ûi (x1 , x2 , t) é a componente da velocidade constante na
profundidade na direção xi , ν = 2 ω sin Θ = 1, 4.10−4 sin Θ é o coeficiente de Coriolis (
sendo ω = 7.10−5 rad/s é a velocidade angular de rotação para o planeta Terra e Θ é a latitude
1
do ponto considerado), cm é o coeficiente de Chezy (m 2 /s), que está vinculado ao coeficiente
1 1
de Manning υ pela expressão cm = h 6 /υ (cujo υ é dado em s/m 3 e g/c2m é adimensional), cd é
um coeficiente de arrasto adimensional, |W |W1 = |W ||W |cosϑ e |W |W2 = |W ||W |sinϑ, onde
|W | é o valor absoluto da velocidade do vento e ϑ é a direção do vento (Bukatov; Zav’yalov,
2004).
Em sistemas de águas rasas os comprimentos de ondas são grandes, ondas longas, cuja

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

483
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

celeridade cw vem dada por:


dp 1 ∂p
cw ∼
p
= gh; c2w = = 2 , (3)
dh cw ∂t

sendo p a pressão dada por p = 12 g(h2 − H 2 ).


As condições iniciais e de contorno devem ser fornecidas às equações (1) e (2). As
condições iniciais consistem em fornecer valores de U e h em t = 0 e as condições de contorno
~ · ~n = Ui ni = 0 em Γw (contorno ”sólido” ou ”fechado”);
forçadas, de tipo Dirichlet, são: a) U
b) U~ · ~n = Ui ni = U n em ΓU (contorno ”aberto”); c) h = h em Γh (contorno ”aberto”).
U n e h são valores prescritos das incógnitas nas partes ΓU e Γh do contorno total Γ. E, ni
é a componente do versor unitário. O contorno total Γ é a união de todas as partes, ou seja,
Γ = Γw ∪ ΓU ∪ Γh .

2.1 Discretização das Equações

2.2 Discretização espacial

A discretização espacial das equações (1) e (2) é realizada pela técnica dos resı́duos
ponderados de Galerkin para empregar o método dos elementos finitos, usando elementos
triangulares de três nós com funções de interpolação lineares (Zienkiewicz et al., 2005).
A aplicação da metodologia as equações governantes do escoamento se da ao nı́vel de um
elemento finito genérico de área A, conduzindo as expressões:

Z  
∂h ∂Ui
+ δh dA = 0 (4)
A ∂t ∂xi
Z    
∂Ui ∂Fij g ∂η ∂H g |U |
+ + + (−1)i νUk + Ui − cd |W |Wi δUi dA = 0 (5)
A ∂t ∂xj 2 ∂xi ∂xi c2m h2
com i, j = 1, 2 e k = i + (−1)i+1 , sendo χ = 0 e cujo δh e δUi são os fatores de ponderação.
As variáveis são interpoladas no elemento com funções lineares φ = [φ1 φ2 φ3 ] e os fatores
de ponderação são simplificados, assim as equações da conservação de massa e da quantidade
de movimento podem ser compactadas como:

M ḣ + Ai U i = 0, (6)

M U̇ i + K i U i + K k U k + g h Ai h = P Ui , (7)
onde o sı́mbolo ”–” abaixo da variável indica uma quantidade nodal e acima da variável indica
∂U
os valores no baricentro do elemento, ḣ = ∂h ∂t
e U̇ i = ∂ti , h = φ h = (h1 +h32 +h3 ) cujos hi
(i = 1, 2, 3) são os valores de h nos nós do elemento finito.
As matrizes e os vetores introduzidos são dados por:
R  T ∂φ 
M = A (φ φ) dA Ai = A φ ∂xi dA K k = [(−1)i ν M ] P = A φT dA
T
R R

h    i R   T
g |U | ∂φ
Ki = Auj + c2m 2 M Auj = A
φT ∂xj Û j dA P Ui = (cd |W | Wi )P − g h Ai H
h

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

484
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O método dos elementos finitos é uma técnica pela qual transforma-se um problema
contı́nuo em discreto, de modo que a solução seja obtida num número finito de pontos, sendo
eles os nós dos elementos cujo domı́nio em estudo foi discretizado. Neste trabalho tem-se
um domı́nio espacial bidimensional, sendo utilizado um elemento de forma triangular com nós
localizados em seus vértices, utilizando funções lineares para interpolar as coordenadas e as
incógnitas do problema. Um elemento finito triangular genérico é apresentado na Figura 1 com
seus nós (1, 2 e 3) e suas respectivas coordenadas.

Figure 1- Elemento triangular com três nós localizados em seus vértices

Um ponto qualquer B localizado no interior do triangulo, de coordenadas x e y permite


subdividir o triângulo de área A em três triângulos de áreas B1 , B2 e B3 , de tal forma que
dão origem a um novo sistema de coordenadas adimensionais, chamadas de coordenadas
triangulares ou naturais. Elas estão relacionadas com as coordenadas espaciais por:

(ai + bi x + ci y)  
Li = (i = 1, 2, 3), L1 + L2 + L3 = 1 e φ = L1 L2 L3 , (8)
2A
onde ai = xj yk − xk yj , bi = yj − yk e ci = xk − xj (i, j, k = 1, 2, 3 e i 6= j 6= k).
Deste modo são montadas as matrizes para cada elemento, então deve-se fazê-la para todo o
sistema, aplicar as condições de contorno e adotar um esquema para integrar no tempo. Depois
de realizar estes passos, calculam-se as incógnitas do problema h e Ui em cada nó da malha.

2.3 Discretização temporal

Para aplicar o método baseado nas linhas ou direções caracterı́sticas (em inglês:
“Characteristic Based Split Method” - CBS), para o sistema de equações de águas rasas, se
faz uma separação das variáveis do problema, que são as componentes do fluxo por unidade de
largura Ui (ou as componentes da velocidade Ûi ) e a profundidade total h.
O esquema é apresentado com detalhes por Zienkiewicz et al. (2005), cuja variável é obtida
a partir da expansão em Série de Taylor, com incremento de tempo ∆t = tn+1 + tn . A
primeira etapa do esquema CBS consiste em resolver a equação da conservação da quantidade
de movimento sem os termos de pressão, dividindo-a em ∆Ui = ∆Ui∗ + ∆Ui∗∗ , onde a pressão
é considerada como um termo fonte em ∆Ui∗∗ . Depois de calcular ∆Ui∗ , a pressão é calculada.
Por fim, na última etapa, ∆Ui é determinado a fim de obter o fluxo médio Uin+1 avaliado no
tempo n + 1 através de Uin+1 = Uin + ∆Ui .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

485
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O procedimento apresentado pelos três passos podem ser resolvidos de forma explı́cita ou
implı́cita, para um esquema totalmente explı́cito, como será adotado neste trabalho, utiliza-se
1
2
≤ θ1 ≤ 1 e θ2 = 0. Para isso, a condição para estabilidade é que o passo de tempo adotado
l
seja menor ou igual ao intervalo de tempo crı́tico. Ou seja, ∆t ≤ ∆tcrit , sendo ∆tcrit = cw +|U i|
,
cujo l é um tamanho caracterı́stico do elemento, cw é dado por (3) e |Ui | é o valor absoluto de
Ui (Grave, 2016).
Dados tais pressupostos, faz-se a discretização no tempo das equações obtidas com a
aplicação de elementos finitos. Então:
Passo 1:

(M D ∆U ∗i )m+1 = −∆t{ (Auj + M β )U i + M ν U k + AH w


 
i H − P i +

∆t h u,β u,ν u,H u,w


i
− (−Dkj + Ak )U i + Ak U s − Dki H − P k,i + f kj }n + (M D − M )(∆U ∗i )m ; (9)
u u
2
Passo 2:
 m+1
h
c2
M D ∆p =
w

   n
1 ∗ ∆t 0 1
= −∆t Aj U j + ∆U j − h(−D kj p + f p ) + 2 (M D − M )∆pm ; (10)
2 2 cw
Passo 3:
 n
m+1 ∆t u u
(M D ∆U i ) = M ∆U i − ∆t h Ai p − (−Dki p + f p ) + (M D − M )(∆U i )m ; (11)
2

Cálculos finais:
i 21
U n+1
h n+1
2p
U n+1
i = U ni + ∆U i , pn+1 = pn + ∆p, hn+1 = H 2 + g
e Û i = i
hn+1
,

com i, j, k = 1, 2 e s = i + (−1)i+1 , sendo m o número de iterações e n o instante de tempo.


E, as matrizes e vetores são:

M = Ω φT φ dΩ M ν = ν0 M Mβ = β M
R

R  ∂φ
 
∂φ

M D = Ω3 I φT ∂xj dΩ Auj = φT
R
Aj = Ω Ω

∂xj j
dΩ
  R T  ∂φ 
∂φ ∂φ
Au,β T u,ν 0
AH (φT ∂xi )dΩ
R R
k = Ω
φ Û k ∂xk dΩ A k = ν Ω
φ Û k ∂xk dΩ i = g η Ω

∂φT ∂(Û k φT )
Pw φT dΩ P 0k = P u,w
R R R
i = γi Ω Ω ∂xk
dΩ k,i = γi Ω ∂xk
dΩ

0 ∂φT ∂φ ∂(Û k φT ) ∂(Û j φ) ∂(Û k φT ) ∂φ


Dukj = Du,H
R R R
Dkj = Ω ∂xk ∂xj Ω ∂xk ∂xj
dΩ ki = g η Ω ∂xk ∂xi

g |U |
φT qnp dΓ
R
f= Γ
γi = cd |W | Wi β= 2
c2m h

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

486
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

∂(Û j φ) ∂(φp)
f ukj = (Û k φT ) (Û k φT )qnu dΓ f up = (Û k φT ) (Û k φT )qnp dΓ
R R R R
Γ ∂xj
nj dΓ = Γ Γ ∂xj
nj dΓ = Γ

h i
∂(φ Û j ) ∂(Ûj ) ∂p ∂(φ p)
qnu = ∂xj
nj = ∂xj
nj qnp = ∂xn
= ∂xj
nj

0 0
Dukj (m, n) = Dkj [(m), (n)]Û k [(m)]Û j [(n)] P u,w
k,i (n) = P k [(n)]U k [(n)]

Au,β
k (m, n) = β Û k [(n)]Ak [m, (n)] Au,ν
k (m, n) = ν Û k [(n)]Ak [m, (n)]

onde I é a matriz identidade 3x3, ν 0 = (−1)i ν, η = h − H e i, j, k = 1, 2.

2.4 Objeto de estudo

A cidade de Pelotas localiza-se, conforme a Figura 2, no estado do Rio Grande do Sul (RS),
no sul do Brasil (latitude: −31o 460 19”; longitude: −52o 200 3300 ). O municı́pio ocupa uma área
de 1.600 km2 , aproximadamente, sendo a quarta cidade mais populosa do estado, com cerca de
343.000 habitantes, que na sua maioria reside na zona urbana (Lima, 2016).

Figure 2- Localização de Pelotas (zona urbana).

Pelotas possui recorrentes inundações devido a fenômenos meteorológicos, que somados a


urbanização e a poluição ocasionam situações de emergência em razão do alagamento de ruas,
da interrupção do fornecimento de energia elétrica, dos danos econômicos e outros. O bairro do
Laranjal é constantemente afetado pelas enchentes da Lagoa dos Patos, destaca Lima, uma vez
que é banhado pelo “Saco do Laranjal”, lado direito da Figura 2 que é destacado na Figura 3,
o qual faz parte da laguna.
Na orla da praia há pontos de despejo de efluentes na água, dados por Sanches Filho et
al. (2012) e enumerados na Figura 3, potencializando os danos econômicos e a vida humana.
O ”Saco do Laranjal” foi reproduzido com o software AutoCAD (Pelotas, 2016) para o
desenvolvimento da malha computacional em elementos finitos, Figura 3 (b), por meio do
software GiD, com 988 nós e 1.859 elementos triangulares. Ainda, na malha computacional
destacam-se os contornos abertos em vermelho. Enquanto, a margem da praia é um contorno
fechado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

487
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3- Praia do Laranjal: (a) recorte do mapa; (b) malha computacional.

3. Resultados

A aplicação da metodologia apresentada na Praia do Laranjal foi realizada utilizando-se do


código validado por Grave (2016) para a simulação numérica em águas rasas, aplicando-o em
diferentes situações. Neste trabalho foram considerados os efeitos de Coriolis e do vento.
Para as simulações numéricas utilizou-se υ = 0, 020 devido ao fundo ser composto
majoritariamente de areia (Coon, 1998), Θ = −31o de latitude da cidade (Lima, 2016),
ϑ = 179o e W = 3, 93 m/s devido a média aritmética das direções e das rajadas máximas
do vento para o dia 09 de outubro de 2020 (Windfinder, 2020), cd = 3, 2.10−6 para o arrasto
(Gill, 1982) e fluxos prescritos de entrada (ΓU ) representando a laguna e nos pontos 2, 3 e 4. As
condições iniciais são h(x1 , x2 , 0) = 1 m e Ui (x1 , x2 , 0) = 0 m2 /s.

Figure 4- Simulações da Praia do Laranjal: t = 90 s e t = 1.800 s.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

488
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 5- Simulações da Praia do Laranjal: t = 3.600 s e t = 21.600 s.

Na Figura 4 observa-se o inı́cio das simulações, em t = 90 s (0, 025 h), a altura h varia
nas proximidades dos fluxos de entrada. Em t = 1.800 s (ou 0, 5 h), o nı́vel d’água aumenta,
os vetores indicam a intensidade e a direção do escoamento com ondas longas. Ao longo do
tempo, apresentado na Figura 5, aumenta o volume dentro da geometria de controle, sendo esta
a enchente. Em t = 21.600 s (ou 6 h), a altura total máxima chega a 7, 25 m, a qual ocasionaria
inundações no bairro localizado nas proximidades.

4. Considerações finais

A modelagem hidrodinâmica propicia importantes contribuições para a sociedade, dada


a relevância da água e as adversidades que a mesma pode ocasionar. O modelo de águas
rasas torna-se bastante viável na representação de escoamentos pouco profundos, uma vez
que fornece as velocidades e o nı́vel da água mesmo sendo bidimensional. A utilização
de elementos finitos viabiliza a discretização do domı́nio, enquanto o método das linhas ou
direções caracterı́sticas estabiliza o problema de advecção dominante.
Neste trabalho a aplicação da metodologia mostrou-se eficiente ao simular o comportamento
do escoamento, motivado pelas altas precipitações aliadas ao vento, e que após 21.600 s (ou 6
h) a altura total da água septuplicou. Este evento ocasionaria um avanço da água pela orla da
praia e talvez no bairro, ou seja, inundações. Para avaliar o impacto dessa enchente sobre a
cidade pode-se, em trabalhos futuros, incluir as construções no domı́nio. E, se houver o intuito
de evitar as inundações, é possı́vel combinar ao modelo de águas rasas a teoria do controle
ótimo, planejando alguma estratégia para manter o nı́vel da água por meio de uma função de
saı́da.
Por fim, a simulação em águas pouco profundas traz importantes contribuições na
representação de recursos hı́dricos, possibilitando também que seja acoplada a equação de
difusão-advecção-reação para estudos de poluição e os impactos ambientais. Sendo assim, o
modelo utilizado oportuniza diversas perspectivas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

489
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

Os autores agradecem a Secretaria Municipal de Gestão da Cidade e Mobilidade Urbana de


Pelotas por disponibilizar os dados topográficos e o apoio da Coordenação de Aperfeiçoamento
de Pessoal de Nı́vel Superior - Brasil (CAPES).

REFERÊNCIAS

Awruch, A. M. (1983), Modelos numéricos em hidrodinâmica e fenômenos de transporte usando o


método dos elementos finitos. Tese (Doutorado) - COPPE/UFRJ, Rio de Janeiro.
Bukatov, A. E. and Zav’yalov, D. D. (2004), Wind-induced motion of water in shallow-water closed
basins. Physical Oceanography, 5, vol 14, 284–294.
Coon, W. F. (1998), Estimation of roughness coefficients for natural stream channels with vegetated
banks. US Geological Survey, vol 2441, New York (USA).
Gill, A. E. (1982), Atmosphere-Ocean dynamics (International Geophysics Series). Academic Press, vol
30, London (UK).
Grave, M. (2016), Simulação e Controle de Enchentes Usando as Equações de Águas Rasas e a Teoria
do Controle Ótimo. Dissertação (Mestrado) - PPGEC/ UFRGS, Porto Alegre.
Kuzma, S. and Luo, T. (2020), The Number of People Affected by Floods Will Double Between 2010
and 2030. World Resources Institute. Disponı́vel em: < www.wri.org/blog/2020/04/aqueduct −
f loods − investment − green − gray − inf rastructure >, n 4. Acesso em: 19 ago. 2020.
Lima, G. F. (2016), Avaliação das Áreas de Risco de Inundação no Municı́pio de Pelotas, RS: Uma
proposta Metodológica. Trabalho de conclusão de curso (Bacharelado) - CENG/UFPel, Pelotas.
Pelotas, Prefeitura Municipal. (2016), GeoPelotas: Portal de Informações Geográficas da Prefeitura de
Pelotas. Disponı́vel em: < geopelotas − pmpel.hub.arcgis.com >. Acesso em: 08 out. 2020.
Sanches Filho, P. J.; da Luz, L. P.; Betemps, G. R. and Camarão, E. B. (2012), Evaluation of surface
sediment contamination by polycyclic aromatic hydrocarbons in the “Saco do Laranjal”–(Patos
Lagoon, Brazil). Elsevier: Marine pollution bulletin, 9, vol 64, 1933–1937.
WINDFINDER. Previsão de vento, ondas e tempo: Lagoa dos Patos, Laranjal. Disponı́vel em: <
pt.windf inder.com/f orecast/lagoadospatoslaranjal >. Acesso em: 08 out. 2020.
Zienkiewicz, O. C.; Taylor, R. L. and Nithiarasu, P. (2005), Finite Element Method for Fluid Dynamics.
Butterworth-Heinemann, vol 2, 6o ed., Oxford (UK).

NUMERICAL SIMULATION OF FLOODS IN SHALLOW WATER BY FINITE ELEMENT

Abstract. Modeling in shallow water systems enables important contributions to the prediction
of environmental disasters, since it is possible to represent the hydrodynamic behavior of
a two-dimensional domain with height variation. Like this, it is possible to describe the
horizontal behavior of the fluid as well as the water level, essential for flood forecasting. In
this work, discretization is done of equations by the Galerkin finite element method, domain
with triangular elements with nodes at their vertices and interpolation function linear. Since the
characteristic lines method is used in temporal discretization, stabilizing the terms of adveccion.
The methodology is applied in Praia do Laranjal, located in the urban area of the city of Pelotas,
state of Rio Grande do Sul, performing numerical simulations in cases test, representing the
flow in the water body and verifying the increase in the height of the water.

Keywords: Hydrodynamic modeling, Characteristic based split method, Finite element method,
Laranjal beach.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

490
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

PARALELIZAÇÃO DO MÉTODO DIAMOND DIFFERENCE APLICADO A


PROBLEMAS DE TRANSPORTE DE NÊUTRONS EM MEIOS COM ELEVADA
RAZÃO DE ESPALHAMENTO E GEOMETRIA X,Y

Iram B. Rivas Ortiz1 – ibrivasortiz92@gmail.com


Joel Sanchez Dominguez1 – joel.iprj@gmail.com
Dany Sanchez Dominguez2 – dsdominguez@gmail.com
Ricardo Barros1 – dickbarros.apple@gmail.com
1
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brazil
2
Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil

Resumo. Em problemas de transporte de nêutrons com meios materiais de elevada razão de


espalhamento, os esquemas iterativos usados convergem lentamente à solução correta. Na
literatura são reportadas várias técnicas para acelerar a convergência como a aceleração de
Chebychev, reequilíbrio da malha e técnicas aceleração sintética. Neste trabalho,
apresentamos a paralelização com OpenMP, como uma técnica de aceleração, usando o
método numérico Diamond Difference (DD) com iteração da fonte de espalhamento. Para a
paralelização do código usamos a técnica de inversão de ciclos e isolamos as seções críticas
fora dos ciclos em cada iteração. Os resultados gerados pelo método convergem a solução de
referência para grades espaciais finas e requerem elevados tempos de processamento no caso
serial em problemas de alta razão de espalhamento. Para grades grossas, o método é instável
obtendo-se valores negativos do fluxo escalar. A implementação paralela do método diminui
os tempos de processamento. Melhores tempos de processamento e maiores valores de
speedup são reportados com o aumento de número de CPUs usados na execução da versão
paralela.

Keywords: Paralelização, Problema de Transporte de Nêutrons, Aproximação em Ordenadas


Discretas, Geometria X,Y

1. INTRODUÇÃO

Os esquemas numéricos usados em problemas de transporte de partículas pouco difusivos


convergem lentamente, necessitando de um elevado número de iterações para atingir
resultados precisos. Nessas circunstâncias, nêutrons que já fizeram colisões dentro de um

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

491
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

determinado grupo de energia provavelmente farão uma contribuição substancial para a


distribuição do fluxo escalar. Numerosas técnicas têm sido usadas para a aceleração das
iterações na fonte de espalhamento. Alguns deles, como a aceleração de Chebychev, são
adaptações específicas de técnicas de iteração de matriz mais gerais (Adams e Larsen, 2002).
Outros como o reequilíbrio da malha faz uso do fato de que a solução convergente deve
obedecer à equação de conservação de nêutrons (Ozgener, 2012; Jarrett et. al., 2016). Com
esta condição imposta na solução não convergente, é possível obter um procedimento
iterativo acelerado que geralmente converge mais rapidamente para a solução correta. Na
aceleração sintética, a teoria de difusão invariável é usada como um mecanismo para acelerar
a solução numérica (Zika e Adams, 2000; Longoni et. al., 2004; Wang et. al., 2014, Willert et.
al., 2014; Picca et. al., 2016). A maioria dos métodos de aceleração podem se tornar instáveis
no sentido de que a solução não converge à solução correta no caso de que as malhas não
sejam o suficientemente finas.
Neste trabalho, usamos a paralelização do esquema de iteração da fonte no método Diamond
Difference (DD) como uma técnica de aceleração para problemas com elevada razão de
espalhamento. A continuação, presentarmos as equações SN de balanço espacial do método
DD. Na seção 3 e 4 escrevemos as equações auxiliares e deduzirmos o esquema de varredura
usado. Por último, apresentamos os resultados obtidos para um problema modelo de
blindagem associado a um meio material com elevada razão de espalhamento.

2. EQUAÇÕES SN DE BALANÇO ESPACIAL

Começamos com as equações de transporte de nêutrons em aproximação de ordenadas


discretas (SN), geometria retangular, monoenergéticas, com espalhamento isotrópico
aplicadas na célula de discretização espacial (Fig. 1):

(1)

onde . representa o fluxo angular de


nêutrons que viajam na direção , onde e ,
. , e são a sessão de choque macroscópica total, de
espalhamento isotrópico e fonte externa, e são assumidas constantes no interior da célula de
discretização espacial . N representa a ordem da quadratura que aproxima o termo da fonte
por espalhamento no lado direito da Eq. (1) e é o número de direções de
discretização angular.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

492
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1. Discretização do domínio de trabalho em células espaciais

Para obter as equações SN de balanço espacial de ordem cero aplicamos o operador

(2)

usando . e representam os polinômios de Legendre de grau e ,


respectivamente. e são a largura e espessura da célula de discretização espacial .
e foram definidos como os pontos médios por e por nos respectivos nodos. Podemos
escrever as equações SN de balanço espacial como

(3)

onde definimos os fluxos angulares médios nas direções e como

(4)

(5)

e o fluxo angular médio na célula de discretização espacial como

(6)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

493
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Equação (3), . As equações SN de balanço espacial constituem um


sistema de equações lineares algébricas com incógnitas em cada célula de
discretização espacial. Sabendo que as condições de contorno aos lados esquerdo, direito,
inferior e superior fornecem equações cada, reduzimos a quantidade de incógnitas do
problema. Isto é, ( ). Logo, temos como resultado equações e
incógnitas. As equações faltantes são fornecidas pelo esquema numérico usado. Neste
trabalho vamos usar o método Diamond Difference (DD) como esquema numérico modelo
(Lewis e Miller, 1984).

3. EQUAÇÕES AUXILIARES E ESQUEMA DE VARREDURA

Para que seja possível a solução única das equações de balanço espacial SN utilizamos
as equações auxiliares do método DD que escrevemos na forma

(7)

(8)

Na Fig. (2) mostramos os varridos usados no esquema iterativo SI (Source Iteration) para
resolver numericamente as equações de balanço espacial SN junto com as equações auxiliares
do método DD e condições de contorno prescritas (Lewis e Miller, 1984). O esquema de
varredura consta de quatro direções de varrido: 1. Varrido do sudoeste para nordeste (A), 2.
Varrido do sudeste para noroeste (B), 3. Varrido do nordeste para sudoeste (C), e 4. Varrido
do noroeste para sudeste (D). A continuação, derivaremos as equações de varredura para o
caso (A).

Figura 2. Esquemas de varredura

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

494
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Primeiramente, explicitamos os fluxos angulares emergentes das Eqs. (7) e (8). Substituímos
o resultado nas equações SN e resolvemos para o fluxo angular médio na célula de
discretização espacial . Podemos escrever o resultado da forma

(9)

(10)

(11)

O algoritmo do esquema iterativo SI consta de quatro passos: 1. Com o fluxo angular


incidente e a estimativa inicial ou da iteração anterior do fluxo angular médio em cada nodo,
atualizamos o fluxo angular médio usando a Eq. (11) no caso A, 2. Calculamos o fluxo
emergente a partir do fluxo angular médio atual e os fluxos angulares incidentes usando as
Eqs. (9) e (10) no caso A em cada célula de discretização espacial, 3. Percorremos pelas
quatro direções de varredura aplicando os passos (1) e (2), e usando a lei da continuidade nas
células adjacentes, 4. Atualizamos o termo de fonte de espalhamento e fazemos o mesmo
procedimento até satisfazer um critério de parada prescrito. Estes quatro passos devem ser
executados para cada uma das direções de varredura (A, B, C e D, vide Fig. 2) ajustando em
cada caso os fluxos incidentes e emergentes.

4. PARALELIZAÇÃO DO ESQUEMA ITERATIVO

Para distribuir o processamento entres os núcleos neste trabalho é utilizada a interface


de programação de aplicativos OpenMP (Open Multi-Processing) que possibilita a criação de
programas paralelos em máquinas de memória compartilhada através da implementação
automática e otimizada de um conjunto de threads. O OpenMP não é uma linguagem de
programação, ele representa um padrão que define como os compiladores devem gerar
códigos paralelos através da incorporação, nos programas sequenciais, de diretivas que
indicam como o trabalho será dividido entre os processadores (Chapman, 2008).
Para a paralelização do esquema numérico SI primeiramente precisamos aplicar a técnica de
inversão de ciclo no algoritmo descrito anteriormente (Pacheco, 2011). No caso clássico, as
direções de varredura são percorridas fazendo um ciclo primário por todas as células de
discretização espacial e um ciclo secundário pelas direções dos nêutrons. No ciclo primário
têm dependências entre nodos adjacentes, mas no ciclo secundário, não há dependências entre
direções. A estratégia de inversão de ciclos consiste em paralelizar as direções pelas que
viajam os nêutrons, isto é, distribuir equitativamente as direções de discretização angular
entre os processadores disponíveis. Portanto, nosso código é baseado em um ciclo primário
donde se percorrem todas as direções pelas quais viajam os nêutrons, e depois um ciclo
secundário percorrendo todas as células de discretização espacial. A paralelização é feita no
ciclo primário onde cada grupo de direções é tratada independentemente nos processadores
disponíveis.
Por outro lado, no código serial geralmente o cálculo do fluxo escalar, requerido para a
atualização do termo de fonte de espalhamento, é feito dentro do ciclo primário. Neste casso,
identificamos uma sessão crítica onde o tempo de execução é prejudicado pois em cada
atualização é preciso a comunicação entre processadores. Para evitar problemas de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

495
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

rendimento em nosso código, fazemos um ciclo serial adicional fora do ciclo primário para
atualização do termo de fonte de espalhamento dentro de cada iteração.

5. RESULTADOS E DISCUSSÃO

O problema modelo corresponde a um cálculo de blindagem para um meio material com


alta razão de espalhamento (Barros, 1990). A geometria do problema é mostrada na Fig. 3. O
problema consta de dois zonas. Na zona 1 as sessões macroscópicas total e de espalhamento
isotrópico são 0,80 cm-1 e 0,00 cm-1, respetivamente. Na zona 2 temos 1,00 cm-1 e 0,95 cm-1,
respetivamente.

Figura 3. Geometria do problema modelo

Na Tabela 1 mostramos a estimação da fuga de nêutrons pela fronteira da blindagem para


diferentes grades de discretização espacial. Devido às condições de simetria do problema, a
fuga de nêutrons pela fronteira superior é igual à fuga de nêutrons pela fronteira direita. Os
cálculos foram realizados utilizando a quadratura LQn para ordem 6 (Lewis e Miller, 1986), e
o critério de parada das iterações foi tal que a norma máxima do desvio relativo do fluxo
escalar médio da célula espacial não excedesse a . A solução de referência
considerada neste problema foi a reportada por (Barros, 1990) no caso do método SGF-CN
para uma grade espacial de nodos. Na medida que a grade espacial é mais fina os
resultados das fugas de nêutrons pelos contornos direito e superior gerados pelo método DD
tendem a um valor fixo. O método é instável para os casos de grades espaciais 100 x 100 e
200 x 200 onde são reportados valores da fuga de nêutrons negativos. Na Fig. 4 mostramos a
distribuição do fluxo escalar de nêutrons para o caso de uma grade espacial de 200 x 200. Os
valores em azul escuro representam os fluxos escalares não-físicos com valores negativos
gerados em esse caso.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

496
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1. Fuga de nêutrons gerada pelo método DD para várias grades de discretização
espacial

Método Grade espacial Fuga de nêutrons (n/cm2)


DD 100 x 100 -1,782e-08a
200 x 200 -6,737e-10
500 x 500 5,526e-09
1000 x 1000 5,911e-09
SGF-CN 500 x 500 5,998e-09
a
-1,782 x 10-8

Figura 4. Fluxo escalar de nêutrons para uma grade de discretização espacial 200 x 200.

Para os testes das versões serial e paralela foi usado um computador com o sistema operativo
(SO) Ubuntu 16.04 de 64 bits com dois processadores XEON E5-2420 Hexa Core da Intel,
totalizando 12 núcleos físicos e 12 núcleos hyper-threading, disponibilizando 24 núcleos com
velocidade de 1.90 GHz; e 16 GB de memória RAM. Na Tabela 2 mostramos os resultados
dos tempos de execução variando a quantidade de processadores usados para executar a
versão paralela. Na tabela 2 reportamos as métricas de programas paralelos (speedup e
eficiência) nos experimentos numéricos realizados. Para os testes foi usada uma grade de
discretização espacial de 1000 x 1000 nodos e uma quadratura LQn de ordem 6. Na Fig. 4
plotamos o speedup do código em função do número de processos. De forma geral ao
usarmos um maior número de processos conseguimos tempo de processamento menores. O
menor tempo de execução foi obtido ao usar os 24 processadores disponíveis conseguindo um
speedup de 7,53 em comparação com a simulação serial. O speedup apresenta comportamento
sublinear, com valores próximo do comportamento linear para poucos processos, e um forte
afastamento do comportamento linear ao aumentar o número de processos. Ao analisarmos a
eficiência, nota-se que entre 2 e 12 processos os valores de eficiência são satisfatórios com
resultados entre 0,5 e 0,8. Entretanto, para 24 processos se observa uma queda pronunciada na
eficiência.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

497
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2. Tempo de execução e aceleração dos resultados do problema modelo para o caso de
uma grade de discretização espacial de 1000 x 1000 nodos.

CPUs Tempo em CPU (s) Speedup Eficiência


1 1929 - -
2 1269 1,52 0,76
4 689 2,80 0,70
6 579 3,33 0,56
8 436 4,42 0,55
12 305 6,32 0,53
24 256 7,53 0,31

Figura 4. Speedup v.s. numero de processadores

6. CONCLUSÕES

Neste trabalho mostramos os resultados da paralelização com OpenMP do método DD,


como técnica de aceleração, para um problema de cálculo de blindagem em um meio material
com elevada razão de espalhamento. Conforme esperado, os resultados gerados pelo método
convergem para um valor fixo em grades espaciais finas e para os casos de malhas grossas o
método apresenta um comportamento instável. O menor tempo de execução foi de 256 s
atingindo a maior aceleração ao usar os 24 CPUs, o máximo número disponível na máquina
paralela disponível. Em relação as métricas paralelas de desempenho (speedup e eficiência)
nota-se um deterioro dos valores ao aumentar o número de processos, o que sugere que
melhorias podem ser introduzidas no código paralelo.
Os desdobramentos futuros deste trabalho, envolvem o aprimoramento do código paralelo
usando OpenMP, e a utilização de um paradigma paralelo hibrido que combine MPI
(Messasge Passing Interface) com OpenMP e permita utilizar maquinas paralelas de memória
distribuída.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

498
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Reconhecimentos

Este trabalho foi parcialmente financiado pela Coordenação de Aperdeiçoamento de


Pessoal Nível Superior - Brasil (CAPES) - Código Financeiro 001. Os autores também
gostariam de expressar sua gratidão ao apoio do Conselho Nacional de Desenvolvimento
Científico e Tecnológico - Brasil (CNPq ) e Fundação Carlos Chagas Filho de Amparo à
Pesquisa do Estado do Rio de Janeiro - Brasil (FAPERJ).

REFERÊNCIAS

Adams, M,L., Larsen, E.W. (2002), “Fast iterative methods for discrete-ordinates particle transport calculations”.
Progress in Nuclear Energy, 40, 3-159.
Barros, R.C. (1990), “A spectral Nodal method for the solution of discrete ordinates problems in one and two
dimensional cartesian geometry”, Doutorado – University of Michigan, USA.
Chapman, B., Jost, G., Van Der Pas, R. (2008), Using OpenMP portable shared memory parallel programming.
MIT Press.
Jarrett, M., Kochumas, B., Zhu, A., Downar, T. (2016), “Analysis of stabilization techniques for CMFD
acceleration of neutron transport problems”, Nuclear Science and Engineeting, 184, 208-227.
Lewis, E.E., Miller, J.W. (1984), “Computational methods of neutron transport”, Jhon Wiley & Sons, New York,
1 ed.
Longoni, G., Haghighat, A., Sjoden, G. (2004), “A new synthetic acceleration technique based on the simplified
even-parity SN equations”, Transport Theory and Statistical Physics, 33, 347-360.
Ozgener, B. (2012), “An assessment of acceleration techniques in scattering source iterations”, Fusion Science
and Technology, 61, 308-313.
Pacheco, P.S. (2011), “An introduction to parallel programming”, Morgan Kaufmann, Burlington, MA 01803,
USA.
Picca, P., Furfaro, R., Ganapol, D. (2016), “Application of non-linear extrapolations for the convergence
acceleration of source iteration”, Journal of Computational and Theoretical Transport, 0, 1-17.
Wang, Y., Zhang, H., Matineau, R.C. (2014), “Diffusion acceleration schemes for self-adjoint angular flux
formulation with void treatment”, Nuclear Science and Engineering, 176, 201-225.
Willert, J., Park, H., Knoll, D.A. (2014), “A comparison of acceleration methods for solving the neutron
transport k-eigenvalue problem”, Journal of Computational Physics, 274, 681-694.
Zika, M.R., Adams, M.L. (2000), “Transport synthetic acceleration with opposing reflecting boundary
conditions”. Nuclear Science and Engineering, 134, 159-170.

APPENDICE A

PARALLELIZATION OF THE DIAMOND DIFFERENCE METHOD


APPLIED TO NEUTRON TRANSPORT PROBLEMS IN MEDIA WITH HIGH
SCATTERING RATIO AND X, Y GEOMETRY

Abstract. In neutron transport problems with high scattering material media, the iterative
schemes used converge slowly to the correct solution. Various techniques to accelerate
convergence are reported in the literature, such as Chebychev acceleration, mesh
rebalancing and synthetic acceleration techniques. In this work, we present the
parallelization with OpenMP, as an acceleration technique, using the numerical method
Diamond Difference (DD) with iteration of the scattering source. For the parallelization of
the code we use the technique of inversion of cycles and isolate the critical sections outside
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

499
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

the cycles in each iteration. The results generated by the method converge the reference
solution for fine spatial grids and require high processing times in the serial case in high
scattering ratio problems. For thick grids, the method is unstable, obtaining negative scalar
flow values. The parallel implementation of the method decreases the processing times. Better
processing times and higher speedup values are reported with the increase in the number of
CPUs used in the execution of the parallel version.

Keywords: Parallelization, neutron transport problem, discrete ordinate approximation, X,Y


geometry

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

500
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

COMPARAÇÃO ENTRE A DUREZA POR MICROIDENTAÇÃO VICKERS EM


BRONZE RECOBERTO COM CHUMBO (CuAl + Pb) E BRONZE RECOBERTO
COM ESTANHO(CuAl + Sn)

Rangel de Paula Almeida1 – almeida.rangel95@gmail.com


Lucas de Mendonça Neuba2 – lucasmneuba@gmail.com
Raí Felipe Pereira Junio2 – raivsjfelipe@hotmail.com
Alexsandro de Oliveira3 – alexoliveira.40@hotmail.com
Alexandre Alvarenga Palmeira4 – alex.a.palmeira@gmail.com
Sergio Neves Monteiro2 – snevesmonteiro@gmail.com
1
Universidade Federal Fluminense, Escola de Engenharia Metalúrgica -Volta Redonda, RJ, Brasil.
2
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brasil.
3
Centro Universitário de Volta Redonda, MEMAT UniFOA - Volta Redonda, RJ, Brasil.
4
Universidade do Estado do Rio de Janeiro, Departamento de Mecânica e Energia UERJ - Resende,
RJ, Brasil.

Resumo. A microestrutura dos metais Babbitt consiste na junção de uma matriz dúctil com
particulados intermetálicos duros (SnSb ou Cu6Sn). A maioria dos novos materiais aplicados
em rolamentos são baseados em ligas do metal Babbitt. O presente trabalho busca estudar a
possibilidade da substituição de um anel de vedação de bronze (CuAl) com adição supercial
de estanho (Sn), por um anel de bronze com adição superficial de chumbo (CuAl +Pb),
aplicados em uma bomba de deslocamento positivo. Foram utilizadas amostras de SAE 68D
com dimensões de 2,5 x 2,5 x 50 cm, as quais foram submetidas a processos de tratamento
termoquímico, os quais se baseam em diferentes períodos de tempo (3, 4 e 5 horas). Durante
esse processo, ocorreu a difusão do elemento químico Pb para a superfície das amostras. A
dureza por microidentação foi realizada conforme a norma ASTM E92, seguido de uma
comparação entre os resultados obtidos para a liga em estudo (CuAl + Pb) e a liga de bronze
com estanho supercial (CuAl + Sn).

Palavras-chave: Babbitt, Chumbo, Dureza por microidentação, Bronze.

1. INTRODUÇÃO

Os metais babbit, foram inventados por Isaac Babbitt em 1839, sendo os mateirias mais
comuns usados como matéria prima para rolamentos clássicos, funcionam em máquinas
rotativas que variam de pequenos eixos à alta rotação usado em motores, sopradores,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

501
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

compressores, ventiladores, bombas, grandes turbinas e motores aeroespaciais (Burenin V. V.,


2012; Thomson J et al., 2010). Os rolamentos Babbitt possuem segmentos operacionais
autoajustáveis, são autolubrificantes e podem operar bem na presença de um lubrificante
contaminado (Zeren A et al., 2007). A estrutura de metais Babbitt representam uma matriz
ductil de estanho (Sn) com reforços de particulados constituídos de compostos intermetálicos
SnSb e Cu6Sn. A resistência limitada e estabilidade térmica fazem os metais Babbitt serem a
linha de materiais usados principalmente como material de revestimento de rolamentos de
guia para dispositivos pesados (E’lbaeva RI et al., 1978). Os rolamentos Babbitt são
tradicionalmente fabricados por pulverização turbulenta de gás de fundição ou plasma
(Korobov Y.S, et al., 2012; Yanguo Y, 2006).
Entretanto a resistência a fadiga e resitência ao calor do Babbitt são pobres,isso é
evidenciado ao se comparar a performace apresentada por esses materiais à temperatura
ambiente e a elevadas temperaturas. De maneira geral essas propriedades são reduzidas em
cerca de 33% em temperaturas de 150°C (Yanguo Y, 2006). É inevitável o contato por fricção
entre rolamentos Babbitt e os eixos e mancais deslizantes, isso acarreta elevado desgaste por
adesão severo, devido a baixa dureza e grãos grosseiros em sua microestrutura. Além disso, o
Babbitt dúctil apresenta baixas propriedades mecânicas em alta temperaturas e resultando em
equipamentos operando com vibrações (Biswas S. et al., 1984; Barykin N.P, 2000).
Por essa razão um método de adição de microelementos como: Cd, Ni, As, Pb, Al, Co e
Zn se faz necessário. Tal método é escolhido para melhorar a microestrutura e
consequentemente melhorar a performace de como um todo destes metais, principalmente
para os que são baseados em estanho (Sn) (Leszczynska, 2016). Ademais, o desevolvimento
de novos materiais para rolamentos evidenciam que, um rolamento ideal deve apresentar
insolubilidade ao Fe ou a outra solução sólida. Portanto, elementos adicionados ao metais
Babbitt devem ser elementos metálicos que são levemente mísciveis à matriz liga (El-Bediwi
A., 2011; Abu-Barker, et al., 2003; Ishihara S. 2010).
Dessa forma, o presente trabalho, buscou adicionar o chumbo (Pb) na matriz de bronze
CuAl através de tratamentos termoquímicos de 3, 4 e 5 horas. Com o intuito de obter um
material que com aplicabilidade viável em rolamentos, similar aos metais Babbitt, entretanto
apresentando baixo custo de fabricação. O material foi submetido a um ensaio de dureza por
microidentação e comparado com um material de bronze CuAl com Sn superficial em termos
de dureza. O material de bronze CuAl já era previamente empregado como um anel de
vedação em bombas de deslocamento positivo.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

Na realização dos ensaios e caracterizações foram utilizadas seis amostras de bronze


alumínio SAE-68D. As amostras foram adquiridas nas seguintes dimensões: 2,5 x 2,5 x 50
cm. O corte foi realizado em uma serra circular com disco de corte de Óxido de Silicato,
responsável por gerar ranhuras na face de corte, acarretando a necessidade de acabamento
posterior, buscando garantir a uniformidade superficial e assim uma homogeneidade de
contato da face da amostra. O acabamento foi realizado segundo NBR 13284, sendo utilizadas
lixas de Óxido de Alumínio com numerações entre 100 e 120.
Antes da realização do processo de difusão, as amostras foram preparadas na seguinte
ordem: As barras foram divididas em seis setores, cada um com quatro posições (Borda
Externa, Centro, Borda Interna e Corte Longitudinal), em seguida foi aplicado pasta para
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

502
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

soldagem na superfície das amostras a fim de se retirar a película de óxido e ajudar na


aderência do chumbo.
As amostras foram colocadas em recipientes e receberam camadas de chumbo na parte
inferior e superior. Foi aplicado uma camada de pó de chumbo na parte inferior do recipiente
refratário, logo em seguida a amostra foi acondicionada. O restante de espaço foi com o pó,
realizando a compactação manual para garantir o máximo de contato entre as superfícies e o
pó.
No tratamento termoquímico, utilizou-se um forno elétrico da marca Mufla Quimis, o
qual foi ligado uma hora antes do início de inserção das amostras para homogeneização da
temperatura. Após atingida a temperatura de 150 ºC, foram introduzidas todas as amostras no
forno. Devido a abertura do forno para a introdução das amostras a temperatura decaiu
levemente, com isso decidiu-se contar o tempo quando esta retornasse aos 150 °C,
objetivando uma homogeneização da temperatura, sendo que esse procedimento foi tomado a
cada retirada de amostra do forno.
Foram utilizadas 6 amostras de Bronze divididas em 3 grupos, sendo submetidas à
temperatura de 150 ºC em forno elétrico. As amostras permaneceram no interior do forno com
a temperatura previamente homogeneizada por 3, 4 e 5 horas cada grupo. Retiradas do forno
foram submetidas a resfriamento ao ar livre. O primeiro grupo foi retirada do forno em 3
horas, o segundo em 4 horas e o terceiro e última em 5 horas de tratamento. Após decorrido
12 horas de resfriamento as amostras foram retiradas dos recipientes, onde foi removido o
excesso de pó de chumbo sobre as amostras.
Foram realizados ensaios de micro dureza Vickers segundo a norma ASTM E92 com um
Microdurômetro Time DHV – 1000 utilizando carga de 2,94 N ou 300 g/f por tempo de
identação de 15 segundos, com penetrador de pirâmide de diamante de base quadrada e
apresentando ângulo de 136° entre as faces. Para a leitura e exposição dos resultados foi
utilizada uma objetiva de 40X em conjunto com uma ocular de 10X perfazendo um total de
400X de alcance. No experimento envolvendo a liga CuAl (Sn) na medição dos índices de
dureza foi utilizada a tabela Rockwell B, para a medição de dureza. Para a tomada de medidas
do CuAl (Pb) foi utilizada a tabela Vickers. As amostras recobertas por chumbo são
representadas na Fig. 1.

Figura 1- Amostras de bronze CuAl com uma camada de Pb em sua superfície

2.2 Resultados e Discussão

Foram realizadas medições na superfície das 6 amostras conforme representado na Fig. 2


a seguir.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

503
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Representação da localiação das medições de dureza.

Foram realizadas 5 medidas de identações, ponto 1 ao ponto 5, na face da amostra que


entrou em contato direto com o chumbo durante o experimento. Dessa forma buscou-se
observa a alteração de durezas. Na face da amostra que não entrou em contato direto com o
chumbo foram realizadas 7 medidas de identações, ponto 6 ao ponto 12, a fim de se investigar
uma possível migração do chumbo para o interior da amostra, dessa forma, poderia ser
possível realizar a comparação entre a dureza observada nos pontos 1 ao 5. Foram realizadas
identações nos setores 1 a 5 e 6 a 12 conforme Fig. 2 visando a obtenção das durezas
superficiais que posteriormente seriam analisadas afim de se verificar a variação das mesmas.

Tabela 1- Variação da dureza Vickers e Rockwell ao tempo de 3 horas de tratamento.

Vickers Rockwell Vickers Rockwell


Identações B B
1ª Grupo - 3 horas
1ª Amostra 2ª Amostra
1 264,4 - 263,7 -
2 254,6 100,2 270,2 -
3 256,6 - 239,6 98,9
4 260,8 - 259,4 -
5 263,7 - 247,9 100
6 200 92 234,1 98
7 208,8 94 169 85
8 173,2 86 190,8 90
9 185,6 89 167,2 84
10 210,8 94 170,5 85
11 196,7 91 182,3 88
12 197,6 91 158,8 82

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

504
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Variação da dureza Vickers e Rockwell ao tempo de 4 e 5 horas de tratamento.

Rockwell Rockwell Rockwell Rockwell


Vickers Vickers Vickers Vickers
Identações B B B B
2ª Grupo - 4 horas 3ª Grupo - 5 horas
3ª Amostra 4ª Amostra 5ª Amostra 6ª Amostra
1 145,9 78 146,2 78 132,0 73 143,3 77
2 151,7 81 156,5 81 154,9 81 150,8 79
3 159,2 82 139,9 76 153,9 81 149 79
4 155,9 81 148,9 79 145,1 78 153 80
5 172,8 86 138,3 76 162,6 83 158,5 82
6 174,7 86 164,7 84 158,8 82 145,1 78
7 161,6 83 152,3 80 163,0 83 156,9 82
8 170,5 85 161,9 83 170,5 85 159,2 82
9 173 83 159,5 82 171 77 154,6 81
10 160,5 83 153,3 80 166,8 84 143,6 77
11 164,7 84 146,2 78 155,2 81 166,8 84
12 149,6 79 156,2 81 147,1 78 149,9 79

As medições de dureza realizadas nos corpos de prova, nos pontos de 1 a 5, conforme


apresentadas esquematicamente na Fig. 2, revelaram uma diminuição na dureza ao longo do
tempo, como pode ser observado na Fig. 3. Mantendo-se porém estável após o período de 4
horas de tratamento, o que indica a presença da migração do chumbo já no período entre 3 e 4
horas.

Figura 3- Variação Dureza Vickers para os tempos de 3, 4 e 5 horas para os setores 1


a 5.

Para o tempo de 3 horas, observou-se pouca ou quase nenhuma variação da dureza em


relação as durezas obtidas na amostra antes do tratamento. Na Fig. 4, observamos que para o
tempo de 3 horas foram medidas as durezas para os pontos 1, 2, 3, 4 e 5 que teve contato
direto com o chumbo, variando de 270,2 a 239,6,9 HV. E medido as durezas dos que foram
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

505
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

revelados após o lixamento e preparação e que não tiveram contato com o Chumbo (Pb), 6 a
12. Sendo o ponto 9 o mais distante do contato com o chumbo, variando as durezas entre
185,6 a 141,0 HV, revelando assim uma diminuição da dureza, demostrando que os átomos de
chumbo não penetraram na rede cristalina do bronze; como citado por Fernandes R. F. (2013).
Tal fato é ocasionado pela diferença entre os diâmetros atômicos do Chumbo e do Cobre,
principal elemento do Bronze, não permitiu que houvesse difusão para as camadas profundas
do metal base.

Figura 4- Variação de Dureza Vickers para o tempo de 3 horas das amostras 1 e 2


entre os setores 1 a 5 (com Pb) e 6 a 12 (sem Pb).

Na figura 5, é representada a variação da dureza entre 3h x 4h e 3h x 5h. Na


representação do gráfico 3h x 4h, revela uma nítida diferença entre as durezas nos setores 1 a
5 para os tempos de 3 e 4 h, que foras expostos à ação da temperatura e contato direto com o
Chumbo (Pb), nos revelando que nesse tempo a dureza já apresenta um significativo
decréscimo e que demonstra também uma distribuição homogênea do chumbo pela superfície
da amostra.Essa homogeneidade é extremamente importante, pois se refletirá na eficiência da
ação do Chumbo (Pb) como elemento auto lubrificante, características inerentes para que o
constituinte macio adapte-se as deformações produzidas por pequenas irregularidades que por
ventura possam ocorrer no metal base. Na represemtação do gráfico 3h x 5h, verifica-se uma
notável diferença entre as amostras de tempos diferentes, nos revelando que esse tempo entre
3 e 5 horas é primordial para que se obtenha os resultados satisfatórios.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

506
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Variação de Dureza Vickers entre os tempos de exposição de 3h x 4h e 3h x


5h para os setores 1 a 5.

Segundo especificações do fabricante as amostras antes do experimento apresentavam a


dureza superficial em 170 HB (Brinell) equivalendo a 85 HRB (Rockwell B) e 169 HV
(Vickers), sendo feita uma análise comparativa com o ponto 9, pois sendo este o mais
afastado das extremidades, poderiamos encontrar valores equivalentes, o que foi nitidamente
comprovado conforme demonstrado na Fig. 6.

Figura 6- Comparação entre a dureza original da amostra e o ponto 9.

Na figura 7, podemos observar um gráfico representativo de 4h x 5h, que entre os


períodos de 4 e 5 horas não foram encontradas significativas diferenças, indicando que o
tempo de 4 horas já é o suficiente que os níveis de difusibilidade do chumbo (Pb) já se
mostrem satisfatórios. Para o tempo de 4 e 5 horas os valores se mantiveram relativamente no
mesmo patamar de dureza, como visto na Fig. 7, um comparativo demonstrando que o tempo
de 4 horas já se mostrou suficiente para a obtenção de resultados de difusibilidade.
Conseguimos observar na Fig. 7, um gráfico de confronto dos setores 6 a 12 de todas os
períodos de tratamento, observamos que em nenhum dos tempos houve brusca variação na
dureza, demonstrando assim que para nenhum deles houve difusão para o interior da amostra
não havendo, portanto, a possibilidade de alterações na estrutura interna do metal base.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

507
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(A) (B)
Figura 7- Variação de Dureza Vickers das amostras (A) para os tempos de 4 e 5 horas
nos setores 1 a 5 e (B) para os tempos 3, 4 e 5 horas nos setores 6 a 12.

Segundo SILVA,L.A (2014). os anéis tratados com estanho (Sn) apresentaram


diferenças significativas em se tratando do tempo. No anel tratado por 3 horas foram
encontradas durezas bem próximas as do anel sem tratamento como registrado na Fig. 8
enquanto os tratados por 4 e 5 horas as durezas se apresentaram bem próximas entre si e
significativamente inferiores às dos anéis sem tratameno ou os tratados por 3 horas.

Figura 8- Durezas encontradas nos anéis tratados com Sn.

Tabela 2- Dureza Rockwell em diferentes setores dos 4 anéis de vedação.

Dureza Rockwell
Amostras Setor 1 Setor 2 Setor 3 Setor 4
Original 94 93 94 94
Anel 1 t: 3h 96 97 95 93
Anel 2 t: 4h 8 14 8 8
Anel 3 t: 5h 15 11 14 14

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

508
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. CONCLUSÃO

Conforme observado por Pereira, R. L (1982), as características atômicas do Pb em


relação ao CuAl criam uma limitação na difusão fazendo assim que o processo ocorra
somente nas camadas superficiais do metal base preservando as camadas inferiores da rede
cristalina da ação do Pb impedindo portanto, que suas propriedades mecânicas sejam
comprometidas.
Como os resultados de medição de dureza apontam para mudanças nesta, somente na
superfície do Corpo de Prova, e considerando o descrito no item anterior. Pode-se comprovar
por analogia que o Pb difunde somente através dos planos (111). Fato esse que pode explicar
o aparecimento de “ilhas” de Pb, conforme observado por Anderson, M. L. et al. (2003).
Com temperatura da ordem de 150°C durante 5 horas de aquecimento do Corpo de Prova,
obtemos uma dureza superficial entre 147 e 264 HV, em camadas superficiais extremamente
pequenas, sem assim ocorrer a perda das propriedades mecânicas originais da liga CuAl.
Estas são características ideais para aplicações onde há atrito relativo entre metais, tais como
anéis de vedação, anéis de segmento e barramento de máquinas ferramenta.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj, ao


departamento de Ciência dos Materiais do IME, ao departamento de mestrado em Engenharia
Metalúrgica da UFF e ao departamento de mestrado profissional em Ciência dos Materiais da
UniFOA.

REFERÊNCIAS

Abu-Baker EB. (2003), Radiat. Eff. Defects Solids. 158:475-479.


Anderson ML, Bartelt NC, Swartzentruber BS. (2003), The importance of Pb-vacancy attractions on diffusion in
the Pb/Cu(0 0 1) surface alloy, Sandia National Laboratories, Albuquerque, USA.
Barykin NP, Sadykov FA, Aslanian IR. (2000). Wear and failure of babbit bushes in steam turbine sliding
bearings. Journal of Materials Engineering and Performance. 9(1):110-115.
Biswas S, Chander T, Gole DS. (1984). Some observations on the surface and subsurfacefeatures of failed
babbitt pads. Tribology International. 17(2):99-105.
Burenin VV. (2012) New Slip Bearings for Rotating Shafts, Russian Engineering Research. 32(4):412-416.
E’lbaeva RI, Tkhagapsoev KG. (1978). Structure of the Transition Layer in Steel-Babbitt Bimetals, Metal
Science and Heat Treatment. 20(8):661–663.
El-Bediwi A, Kamal M. Mater. Sci. Au Indian J. (2013);9:73-77.
El-Bediwi A, Lashin AR, Mossa M, Kamal M. (2011). Materials Science and Engineering: A.5(28):3568–72.
Fernandes RF. (2013). Revista de Ciência Elementar, Faculdade de Ciências da Universidade do Porto. 1(1).
Ishihara S, Tamura K, Goshima T. (2010). Effect of amount of antimony on sliding wear ressitance of White
metal. Tribology international. 43(5-6):935-938.
Korobov YS, Nevezhin SV, Filippov MA, Ilyushin VV, Potekhin BA, Gogolev LV. (2012). Effect of Production
Methods on Tribological Characteristics of Babbitt Coatings, Journal of Friction and Wear. 33(3):190–194.
Leszczyńska-Madej B, Madej M. (2016). The tribological properties and the microstructure investigations of Tin
Babbit with Pb addition after heat treatment. Archives of Metallurgy and Materials. 61(4):1861-1868.
Lin CM, Chiou YC, Lee RT. (2004). Effect of MoS2 additive on electrical pitting echanism of lubricated surface
for Babbitt alloy/bearing steel pair under ac elctric filed. Wear. 257(7-8):833-842.
Lisyanskii AS, Egorov NP, Shklyarov MI, Lebed’ko NS, Spiridonov AF, Kovalskii RK, Yazykov AE. (2006).
Generalization of the Results from Investigations on Perfecting the Design of Journal Bearings for Large
Steam Turbines for Nuclear Power Stations, Thermal Engineering. 53(2):81–87.
Pereira RL. (1982). Noções Sobre Diagrama de Equilíbrio de Fases Aplicadas aos Sistemas Metálicos.Edição
(3a), Escola de Engenharia – Seção de Publicações, São carlos, São Paulo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

509
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Silva LA. (2014). Substituição de anéis de vedação de ptfe por anéis de bronze (cual) com adição DE Sn
SUPERFICIAL. Dissertação (Mestrado Profissional em Materiais) – Fundação Oswaldo Aranha do Campus
Três Poços, Centro Universitário de Volta Redonda, Volta Redonda.
Thomson J, Zavadil R, Sahoo M, Dadouche A, Dmochowski W, Conlon M. (2010). Development of a Lead-
Free Bearing Material for Aerospace Applications, International Journal of Metalcasting. 4(1):p 19–30.
Yanguo Y, Minghua J, Ting X, Zhixiang Z, Kun L, Jianwei L. (2006). ResearchProgress in Sliding Bearing
materiaMaterials. Lubrification Engineering.177:183-187.
Zeren A, Feyzullahoglu E, Zeren M. (2007). A Study on Tribological Behavior of Tin-Based Bearing Material in
Dry Sliding, Materials & Design. 28(1):318–323.

COMPARATIVE STUDY OF VICKERS HARDNESS OF A BRONZE CuAl


COATED WITH SUPERCIAL Pb WITH A BRONZE CuAl COATED WITH
SUPERCIAL Sn

Abstract. A Babbitt metal microstructure consists of a soft matrix and hard intermetallic
particles of SnSb e Cu6Sn. Most of the new bearing materials are based on Babbitt metal
alloys. The present work aims to study the possibility of substituting a sealing ring of CuAl
Bronze coated with Tin (Sn) for a sealing ring of CuAl coated with superficial lead (Pb) on a
functional positive displacement pump. samples of SAE-68D with dimensions of 2.5 x 2.5 x 50
cm were used as specimens. These specimens were subjected to a thermochemical treatment
process, based on different periods ranging from 3, 4, and 5 hours. During these periods a
diffusion of the chemical element Pb occurred on the surface of the specimens. A Hardness
microindentation have been done following the procedures of ASTM E92, after that a
comparison between the different groups was analyzed. Besides the results were compared to
the previous operating sealing ring of CuAl bronze coated with superficial Sn.

Keywords: Babbitt, Lead, Hardness microidentation, Bronze.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

510
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DE WEIBULL DA RESISTÊNICA À TRAÇÃO DE DIFERENTES


INTERVALOS DE DIÂMETROS DA FIBRA DE JUNCO-SETE-ILHAS

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Andressa Teixeira Souza1 – Andressa.t.souza@gmail.com
Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Matheus Pereira Ribeiro1 – m.pereiraribeiro@hotmail.com
Ulisses Oliveira Costa1 – ulissesolie@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo. As fibras extraídas do caule da planta de junco-sete-ilhas (cyperus malaccensis lam.)


foram investigadas como um possível reforço para compósitos, visando descobrir uma nova
fibra para aplicações em engenharia. Análises da distribuição do diâmetro e como isso afeta
as propriedades mecânicas do junco-sete-ilhas. De acordo com ASTM D2101, pela primeira
vez na literatura o diâmetro dessas fibras foi analisado pelo método de Weibull, indicando uma
dependência inversa para altos valores de resistênicia alcançados para as fibras mais finas.
Além disso, uma investigação da microestrutura pelo microscópio eletrônico de varredura
exibriam um mecanismo de fratura para essa dependência. Uma relação matemática
hiperbólica revelou um ajuste para a correlação inversa.

Palavras-chave: Junco-sete-ilhas, Fibras naturais, Ensaio de tração, ASTM D2101.

1. INTRODUÇÃO

O Brasil é um país que se destaca apresentando vantagens para a utilização das fibras
naturais lignocelulósicas (FNLs), por possuir uma extensa variedade e potencial para fibras
ainda não estudadas. Aliado ao desenvolvimento regional de regiões rurais e ribeirinhas que
não apresentam uma forte economia, permitindo um outro cenário a empregabilidade da
população envolvida na produção de fibras. Assim, uma variedade extensa de estudos voltados
ao uso de uma matriz polimérica com fibras naturais lignocelulósicas para proteção balística
confirma tal empregabilidade (Abtew et al, 2019; Braga et al., 2018, Da luz et al., 2015;
Oliveira et al., 2019; Silva et al., 2018)
A planta de Junco-sete-ilhas (Cyperus malaccensis Lam.) apresenta um número limitado
de estudos em aplicações de caracterização, composição e estrutura de suas fibras. A qual
encontrada na região do Vale do Ribeira no estado de São Paulo, na cidade de registro onde o

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

511
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

cultivo é concentrado, exclusivamente nessa região no Brasil. Recebendo esse nome por ter sua
origem na região de sete ilhas no Japão. A Fig. 1 representa a planta de junco-sete-ilhas. (Hiroce
et al., 1988)

Figura 1- (a) zona de cultivo da planta Cyperus malaccensis Lam. (b) caule com
raízes da planta após colheita. (Shioya et al., 2019)

O desenvolvimento crescente de novos materiais sustenstentáveis que proporcionam alta


performance aliados a um custo benefício se tornou uma grande motivação para cientistas nas
últimas décadas, além de gerar oportunidades na melhoria dos padrões de vida da população ao
redor do mundo. Muitos dos materiais renováveis são baseados em produtos provindos da
agricultura, como o emprego de fibras naturais lignocelulósicas como um reforço para materiais
compósitos. Dessa forma, pode ser gerado novos empregos tendo em vista que o processo de
extração desses materiais é um processo importante na determinação de certas propriedades das
fibra. Portanto o presente trabalho busca explorar propriedades mecânicas relacionadas a sua
resistência à tração, por sua vez, são de extrema importância para avaliar o seu uso em
aplicações de engenharia.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

Para preparação dos corpos de prova as fibras foram extraídas de uma esteira de junco-
sete-ilhas adquiridas por meio da empresa Artevale, localizada na cidade de Registro

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

512
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

pertencente ao estado de São Paulo. Foram utilizadas “in natura” e estavam na forma de caule,
por isso foram limpas, desfiadas e cortadas.
Os procedimentos para a preparação das 36 amostras, divididas em seis grupos de intervalo
de diâmeto, e os procedimentos recomendados durante a realização dos ensaios estão em
conformidade com a norma ASTM D2101 e foram realizados em uma máquina universal de
tração modelo EMIC, de acordo com a Fig. 2, com célula de carga de 20 kN e com uma taxa
de deformação de 0,9 mm/min. A confecção das amostras foi feita, com o intuito de prender
as extremidades das fibras com o auxílio de uma fita adesiva visando evitar o escorregamento
das fibras entre as garras da máquina de tração e o seu esmagamento.

Figura 1 - (a) Máquina universal EMIC (b) amostra antes de ser feito o ensaio de tração.

O ensaio foi realizado no laboratório de ensaios mecânicos da UFF, em volta redonda. O


objetivo do trabalho foi analisar a variação da tensão máxima no limite de ruptura em 6
intervalos de diâmetro, dessa forma é possível obter uma relação de tração média máxima
relacionados diretamente com o diâmetro da seção transversal de cada intervalo. Posteriormente
foi realizado uma análise estatística de Weibull. (Abernethy et al., 1983).

2.2 Resultados e Discussão

Baseado na carga máxima, a resistência à tração de cada fibra foi obtida e seus valores
foram analisados estatisticamente pelo método de Weibull para cada diâmetro de intervalo
[9,10]. A Fig. 3 mostra os gráficos de confiabilidade para os seis intervalos de diâmetro.
Além disso, é possivel observar que todas as figuras são unimodais com uma curva retilínea
ajustando os pontos do mesmo intervalo de diâmetro, gráficos similares estão presentes na
literatura a cerca de outras fibras naturais lignocelulósicas. (O'connor, PD & Kleyner, 2012;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

513
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Monteiro et al., 2011; Faruk et al., 2012; Thakur et al., 2014; Güven et al., 2016; Pickering et
al., 2016; Trujillo et al., 2014)
A Tabela 1 demonstra os valores de tensão máxima obtida no ensaio de tração relacionados
com os intervalos de diâmetro, além disso estão presentes os parâmetros de β, R² e a tensão
máxima característica (θ).

Figura 3 - Gráficos de confiabilidade Weibull para a resistência a tração de diferentes


intervalos de diâmetro.

Tabela 1 - Resultados referente ao ensaio de tração das fibras de junco-sete-ilhas e


parâmetros de Weibull.

Tensão Coeficiente
Tensão
Diâmetro Desvio Módulo de característica de
máxima
médio (mm) Padrão Weibull (β) Θ correlação
(MPa)
(MPa) (R²)
0,2300 163,4800 84,8800 2,0740 189,4000 0,9776
0,3600 81,7300 14,2800 6,6850 87,2600 0,8895
0,4800 66,0200 47,8300 1,4750 76,6700 0,9279
0,6100 32,3500 282,700 0,4586 46,9400 0,7648
0,7400 61,8300 33,1200 1,9950 71,3300 0,9735
0,8600 40,7400 20,6600 2,1360 47,3500 0,7506

Baseado nos valores do parâmetro βpode ser concluído que os dados seguem uma
distribuição estatística de Weibull com boa precisão para os intervalos que apresentam um
maior valor do módulo. Além disso, o parâmetro R² indica um bom ajuste linear para os
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

514
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

intervalos com valores acima de 0,9. Dessa forma, os valores encontrados em intervalos com
bom ajsutes lineares são mais homogêneos e não apresentam uma dispersão muito elevada entre
os resultados encontrados para um mesmo grupo. No gráfico da Fig. 4 mostra a tensão máxima
em função do diâmetro médio das fibras de junco-sete-ilhas. A tabela constata a existência de
uma tendência de aumento significativa com a diminuição do diâmetro, evidenciando uma
diferença significativa das propriedades mecânicas em fibras com maiores diâmetros. Uma
menor presença de quantidades de defeitos presentes em fibras de menor diâmetro justifica essa
diferença nas propriedades mecânicas.

Figura 4 - Tensão máxima a tração em função dos intervalos de diâmetro.

As barras de erro que indicam uma dispersão grande nos valores de resistência à tração
são devidos a heterogeneidade e a características aleatórias no processo de formação biológico
das fibras naturais. Os valores de tensão característica da fibra de junco-sete-ilhas foram
adquiridos através da estatística de Weibull. O resultado obtido é demonstrado na Fig. 5 e
fornece uma visualização de uma queda abrupta do valor da tensão característica do primeiro
intervalo para o segundo e uma constante tendência a diminuição da tensão até o intervalo de
maior diâmetro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

515
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 - Tensão máxima característica (θ) em função do diâmetro.

Ainda foi realizado uma aproximação linear através de um gráfico, na Fig. 6,


representando a relação da tensão característica com o inverso do diâmetro. Segundo
Satyanarayana et al. (2011), é possível formular uma equação relacionando a tensão em função
do inverso do diâmetro adotando dados obtidos pela aproximação linear.

Figura 6 - Ajuste linear da tensão característica em função do inverso do diâmetro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

516
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Através de correlação matemática conferindo uma equação hiperbólica, conforme Eq.


(1) a seguir.
41,66141
𝜎 = – 6,7533 (1)
𝐷

O fato do valor da tensão diminuir com o aumento do diâmetro está estatisticamente


associado com o maior número de fibrilas presentes em fibras mais grossas, podendo causar
uma ruptura prematura e isso atuar como um defeito causando o rompimento da fibra em um
valor de tensão baixo se comparado a fibras mais finas por possuírem menos fibras e
apresentarem uma ruptura mais uniforme. A redução nas propriedades mecânicas ainda é
associada com um acúmulo de defeitos dentro das variações de diâmetro da fibra (Wang &
Shao, 2014). É possivel observar através de uma micrografia realizada por um microscópio
eletrônico de varredura (MEV) a ponta de uma fibra rompida, demonstrada na Fig. 8,
fornecendo evidências a respeito do mecanismo de fratura de uma fibra grossa e microfibrilas
rompidas presentes no ponto de ruptura não uniforme justificando a correlação hiperbólica.

Figura 7: microestrutura da fratura de uma superfície grossa com uma ampliação de 500x.

3. CONCLUSÃO

Os resultados indicam que a fibra de junco-sete-ilhas apresentam maiores valores de


resistência à tração acima de 150 MPa para fibras mais finas o que seria uma condição desejável
para aplicações como reforço em compósitos de matriz polimérica.
A Micrografia obtida pela análise de MEV revelou evidências que fibras mais grossas de
junco-sete-ilhas contêm mais microfibrilas em sua seção transversal e pode levar a ruptura em
um valor de tensão mais baixo. Estatisticamente, existe uma maior variação nos valores de
resistência à tração, variando mais devido a presença de mais fibrilas nas fibras mais grossas
permitindo fibrilas frágeis romperem antes do que as poucas fibrilas presentes em fibras mais
finas. Justificando uma maior não uniformidade presente em fibras grossas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

517
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A análise estatística de Weibull revelou uma relação inversa entre os diâmetros das fibras
a resistência à tração. Demonstrando que a tensão tende a aumentar a medida que o diâmetro
das fibras diminuem.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj, ao


departamento de Ciência dos Materiais do IME, e ao laboratório de mecânica aplicada da UFF.

REFERÊNCIAS

Abernethy RB, Breneman JE, Medlin CH, Reinman GL. (1983). “Weibull Analysis Handbook”.
Abtew MA, Boussu F, Bruniau, P, Loghin, C, Cristian, I. (2019). Ballistic impact mechanisms – A review on
textiles and fibre-reinforced composites impact responses. Composite Structures, 223, 110966.
ASTM D2101-94 Test Method for Tensile Properties of Single Man-Made Textile Fibers Taken from Yarns and
Tows (Withdrawn 1995), ASTM International, West Conshohocken, PA, 1995.
Braga FDO, Milanezi TL, Louro LHL, Gomes AV, Lima EP. (2018). Ballistic comparison between epoxy-ramie
and epoxy-aramid composites in Multilayered Armor Systems. Journal of Materials Research and Technology,
7(4), 541-549.
Da luz FS, Junior EPL, Louro HL, Monteiro SN. (2015). Ballistic test of multilayered armor with intermediate
epoxy composite reinforced with jute fabric. Materials Research, 18(2), 170-177.
Faruk O, Bledzki AK, Fink HP, Sain M. (2012). Biocomposites reinforced with natural fibers: 2000–2010.
Progress in Polymer Science, 37, 1552–96.
Güven O, Monteiro SN, Moura EAB, Drelich JW. (2016). Re-emerging field of lignocellulosic fiber-polymer
composites and ionizing radiation technology in their formulation. Polymer Reviews, 56, 702–36.
Hiroce R, Benatti JR, Feitosa CT. (1988). Estudos nutricionais em junco: adubação e calagem. Bragantia, 47(2),
313–323.
Monteiro SN, Lopes FPD, Barbosa AP, Bevitori AB, Silva IL, Costa LL. (2011). Natural lignocellulosic fibers as
engineering materials – an Overview. Metallurgical and Materials Transactions A, 42, 2963–74.
O'connor, PD & Kleyner A. (2012), “Practical Reliability Engineering”, 5° ed., John Wiley & Sons, Chinchester.
Oliveira MS, Filho FCG, Pereira AC Nunes, LF Luz, FS Braga FO, Colorad HA, Monteiro SN. (2019). Ballistic
performance and statistical evaluation of multilayered armor with epoxy-fique fabric composites using the
Weibull analysis. Journal of Materials Research and Technology, 8(6), 5899-5908.
Pickering KL, Efendy MGA, Le TM. (2016). A review of recent developments in natural fibre composites and
their mechanical performance. Composites Part A, 83, 98–112.
Satyanarayana KG, Arizaga GGC, Wypych F. (2009). Biodegradable composites based on lignocellulosic fibers-
An overview. Progress in Polymer Science (Oxford), 234(9), 982–1021.
Silva AO, Monsores KGC, De oliveira SS, Weber RP, Monteiro SN. (2018). Ballistic behavior of a hybrid
composite reinforced with curaua and aramid fabric subjected to ultraviolet radiation. Journal of Materials
Research and Technology, 7(4), 584–591.
Shioya M, Myoga A, Kitagawa A, Tokunaga Y, Hayashi H, Kogo Y, Satake SI. (2019). Analysis of deflection
and dynamic plant characteristics of Cyperus malaccensis Lam. Plant Production Science, 22(2), 242-249.
Thakur VK, Thakur MK, Gupta RK. (2014). Review: raw natural fibers based polymer composites. International
Journal of Polymer Analysis and Characterization, 19, 256–71.
Trujillo E, Moesen M, Osorio L, Van Vuure AW, Ivens J, Verpoest I. (2014). Bamboo fiber for reinforcement in
composite materials: Strength Weibull analysis. Composites Part A, 61, 115–25.
Wang F, Shao J. (2014). Modified Weibull distribution for analyzing the tensile strength of bamboo fibers.
Polymers, 6, 3005–18.

WEIBULL ANALYSIS OF THE TENSILE STRENGHT FOR DIFFERENT


DIAMETERS OF SEVEN-ISLAND-SEDGE FIBERS

Abstract. The fibers extracted from the stem of the seven-islands-sedge (cyperus malaccensis
lam.) plant have been investigated as possible composite reinforcement, aiming to discover a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

518
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

possible new fiber for an engineering aplication. Analysis of the distribution of the diameter
and how it affects the mechanical properties of seven-islands-sedge. Acording to , ASTM
D2101, for the first time in the literature the diameters of the fibers were analyzed by the
Weibull method, indicating an inverse depence and higher tensile strenght were achieved for
the thinnest fibers. Besides an investigation of the microstructure by a scanning electron
microscopy have shown a mechanism for this dependence. Also a mathematical hyperbolic
relationship have been found to adjust the inverse correlation.

Keywords: Seven-islands-sedge, Natural fibers, Tensile strenght, ASTM D2101.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

519
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DA SUBSTITUIÇÃO DE UM ANEL DE VEDAÇÃO PTFE POR UM


ANEL DE BRONZE CuAl COM Sn SUPERFICIAL PELAS TÉCNINCAS DE MEV E
EDS

Rangel de Paula Almeida1 – almeida.rangel95@gmail.com


Lucas de Mendonça Neuba2 – lucasmneuba@gmail.com
Raí Felipe Pereira Junio2 – raivsjfelipe@hotmail.com
Leandro Anselmo da Silva3 – ansil30@hotmail.com
Alexandre Alvarenga Palmeira4 – alex.a.palmeira@gmail.com
Sergio Neves Monteiro2 – snevesmonteiro@gmail.com
1
Universidade Federal Fluminense, Escola de Engenharia Metalúrgica -Volta Redonda, RJ, Brasil.
2
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brasil.
3
Centro Universitário de Volta Redonda, MEMAT UniFOA - Volta Redonda, RJ, Brasil.
4
Universidade do Estado do Rio de Janeiro, Departamento de Mecânica e Energia UERJ - Resende,
RJ, Brasil.

Resumo. O metal Babbitt está sendo amplamente utilizado durante anos como material de
rolamento, embora possua um alto custo. O presente trabalho visa o uso de uma liga bronze
alumínio CuAl com estanho (Sn) superficial como um substituto para o polímero
politetrafluoroetileno (PTFE) usado pela indústria em muitas aplicações tribológicas,
destacando seu uso em rolamentos, selos e anéis de vedação. Embora, possuam muitas
características positivas fornecidas pelo material os mesmos falham em altas pressões e
temperaturas. Por essa razão e visando reduzir custos adquirindo um material que atue sob
essas condições possuindo um alto custo, a presente pesquisa utilizou amostras de bronze
alumínio CuAl SAE-68D submetido a um processo de tratamento termoquímico para
diferentes períodos de 3, 4 e 5 horas em temperaturas acima de 150°C. A maior difusão se
encontra presente no período de 5 horas. Depois disso algumas análises de microscopia
eletrônica por Varredura e EDS foram realizadas para verificar as diferenças de gradiente
presentes nas amostras.

Palavras-chave: PTFE, Bronze CuAl, MEV, EDS.

1. INTRODUÇÃO

A pesquisa e desenvolvimento se tornou muito importante para o avanço da ciênica e


tecnologia e o desenvolvimento de novos materiais baseados em estanho (Kamal M, et al.,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

520
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1994; Kamal M, 2010). Até então, muitos materiais foram testados como componente de
rolamento. Em 1839, uma liga consistindo de Sn-Sb-Cu foi patenteada por Babbitt para esse
propósito. A liga de Babbitt, conhecida como metal branco, se tornou indispensável para
mancais de deslizamento e como um bom material de revestimento em aços (Zeren A, et al.,
2007; Goudarzi MM, et al., 2009). Essas ligas são amplamente usadas como rolamentos e a
microestrutura é constituída de uma matriz dúctil e dois compostos particulados
intermetálicos (Goudarzi MM, et al., 2009; Chen SW, et al., 2012). Possuem uma excelente
resistência a corrosão, entretanto seu custo é elavado (Bora MO, et al., 2010; Roberts EW,
1990).
Lubrifiçação por meio de lubrificantes sólidos são concebidas em aplicações que
necessitam de um bom componente tribologico. Entretanto, as formas utilizadas para
aplicação de revestimento apresentam desvantagem em relação a durabilidade curta de filmes
finos aplicados por deposição sputter (Roberts EW, 1990).
Devido a esses conceitos, o presente trabalho, buscou substituir um anel de vedação de
politetrafluoretileno (PTFE), amplamente usado em muitas aplicações tribologicas, aplicado
em uma bomba de deslocamento positivo que apresentava diversas falhas prematuras antes do
tempo de troca recomendado. Visando incorporar um material resistente à altas pressões e
temperaturas e um custo benefício, optou utilizar um bronze aluminio CuAl tratatado
termoquimicamente com um pó de estanho (Sn) em contato com a superfície do metal base.
Análise feitas por um microscopio de varredura e a técnica de EDS foram utilizadas para
verificar se o estanho difundiu pela superfície modificando a microestrutura e
consequentemente as propriedades do material como um todo.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

Para realização dos ensaios e caracterizações foram utilizados três anéis de bronze
alumínio SAE-68D. As amostras foram adquiridas nas seguintes dimensões: diâmetro interno
35,4 mm e diâmetro externo 46,9 mm.
As amostras foram preparadas seguindo algumas etapas antes da realização do processo
de difusão. As amostras dos anéis de vedação foram divididos em quatro setores. Com quatro
posições sendo, (a) borda externa, (b) centro, (c) borda interna, (d) e (e) corte transversal. A
técnica de marcação ajuda mapear cada área da amostra conforme Fig. 1, a seguir. O
primeiro digito é composto da letra “S” indicando o setor mais o número da partição e o
segundo digito identifica a posição do setor em relação a análise .

Figura 1- Identificação dos setores das amostras.

As amostras foram colocadas em recipientes e receberam camadas de estanho na parte


inferior e superior. Para o tratamento termoquímico, foi utilizado um forno elétrico da marca
Mufla Quimis, o qual foi ligado uma hora antes do início de inserção das amostras para
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

521
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

homogeneização da temperatura. Após atingido a temperatura de 150 ºC, foram introduzidas


todas as amostras no forno. A primeira amostra foi retirada do forno em 3 horas, a segunda
em 4 horas e a terceira e última em 5 horas de tratamento. Depois de 12 horas de resfriamento
as amostra foram retiradas dos recipientes e removido o excesso de pó de estanho. Para
revelar e definir os vários componentes de uma microestrutura as amostras foram submetidas
ao lixamento com lixas de carbeto de silício à base de água com granulométrica 220, 320,
400, 600, 1000, 1200 e 1500, polidas com solução aquosa de alumina de 1 micron e atacadas
com cloreto férrico à 5%. Cada ataque teve a duração de 10 segundos e depois as amostras
foram lavadas com água fria e álcool e após foram secadas com ar quente, ficando com
aparência conforme Fig. 2, a seguir.

Figura 2- Amostra após ataque com Cloreto Férrico a 5%.

A microscopia eletrônica de varredura é uma técnica que permite a geração de imagens


de alta resolução da topografia de superfícies e determinação de variações especiais de
composição química, por meio de análise química quantitativa. As análises por microscopia
eletrônica de varredura foram realizadas em um aparelho da marca Hitachi modelo TM 3000.
O equipamento dispõe de detectores de elétrons secundários (SE) e elétrons retroespalhados
(BSE), de Analisador de Raios X por dispersão de Energia (EDS).

2.2 Resultados e Discussão

As imagens obtidas por microscopia eletrônica serão apresentadas a seguir, para isso, os
anéis de bronze 1, 2 e 3 foram divididos em setores para análise de suas microestruturas.O
anel 1, tratado termoquimicamente, por 3 horas é representado pela figura 3 (a) e (b) que
compõe a borda externa, onde é visível o surgimento de duas estruturas distintas. Observa-se
que a Fig. 3(c) representada pelo o centro do anel é visível o surgimento de alguns pontos
isolados de estanho. A figura 3(d) representa a borda interna do anel, onde novamente aparece
o mesmo cenário das figuras iniciais, ou seja, duas estruturas distintas. Já no corte transversal
representado pela imagem 3(e) aparece uma pequena área de migração de estanho.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

522
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Micrografias do anel que sofre um tratamento durante 3 horas no setor 2


com um ampliação de 500 X.

A figura 4 representada pela imagem (a) borda externa e imagem (b) borda interna do
anel tratado termoquimicamente no período de 4 horas é possível visualizar alguns poros na
estrutura do bronze com início de migração do estanho. O centro e o corte transversal do anel
representado respectivamente pela imagem (c) e (d) exibe pontos isolados de poros e estanho
em suas estruturas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

523
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Micrografias do anel tratado durante um periodo de 4 horas com ampliação de


300X (a,b), 500X(d) e 1200X(c).

Na figura 5 representada pelas seguintes imagens: (a) borda externa, (b) centro, (c) borda
interna e (d) corte transversal do anel 3, são marcadas com diversos pontos com migração do
estanho na estrutura do bronze. A grande concentração do estanho no anel foi devido ao
tratamento termoquímico que foi realizado no período de 5 horas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

524
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Micrografias do anel tratado termoquimicamente durante um período de 5


horas com uma amplicação de (a) 300X, (b) 800X, (c) e (d) 500X.

O tratamento no período de 5 horas ajudou no gradiente de concentração do estanho na


superfície do bronze conforme lei de Fick. A distribuição do soluto, para gerar uma
distribuição uniforme ou homogênea são necessários longos períodos de temperaturas e
proximidade das substancias (Askeland DR & Phulé PP, 2008).
No entanto, torna-se visível que concentração do estanho no cobre do anel 3 tratado
termoquimicamente no período de 5 horas foi superior que nos anéis 1 e 2.
As amostras são compostos dos seguintes elementos químicos: Cu, Al, Fe, Mn e Ni. Na
figura 6, é listada a evolução quantitativa do teor de estanho no bronze na análise de EDS,
após o processo de difusão. Conforme a Lei de Fick, observa-se que no período de três horas
de tratamento não houve um valor de migração de estanho significativo nos setores do anel 1,
apenas 0,3%. Já no período de quatro horas, nota-se um aumento entre 4,8 a 4,9% de
concentração do estanho nos setores do anel 2. Após cinco horas, o gradiente de concentração
aumenta quase o dobro de estanho em relação aos setores do anel 3 ficando entre 7,6 à 8,5 %.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

525
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6- Teor de estanho nos diferentes setores dos anéis.

As comparações dos elementos das amostras são representadas na tabela 1, a seguir e


ficou evidente que no processo de difusão alguns elementos aumentaram e outros diminuíram
completamente. O valor da amostra como recebido é mostrado como referência para ajudar na
análise dos elementos tratados na difusão.

Tabela 1- Concentração de estanho nos setores das amostras.

Concentração de elementos (%)


Elementos Recebido Anel 1 – 3h Anel 2 – 4h Anel 3 – 5h
1.2 1.3 2.2 2.3 3.2 3.3
Cu 66,3 73,1 73,1 71,7 71,3 84,2 85,7
Al 18,7 11,8 11,0 0,4 0,0 0,7 7,6
Fe 4,5 4,6 4,6 0,0 0,9 0,0 0,0
Mn 1,7 1,7 1,7 0,0 0,0 0,0 0,1
Ni 5,6 6,0 6,1 0,7 0,6 0,6 0,6
Sn - 0,3 0,3 4,8 4,9 8,5 7,6

A tabela 1 retrata o fluxo de difusão e o gradiente de concentração em algum ponto


particular em determinado sólido varia com o tempo, resultando um acúmulo ou decréscimo
das espécies difusoras. Observa-se que no período de 5 horas de tratamento ocorrem grandes
transformações nos elementos químicos. O teor de estanho aumenta 57% em relação ao
período de 4 horas, nesse período o cobre atinge o valor máximo em relação aos períodos
anteriores 85,7% de concentração e os demais elementos como: Al, Fe, Mn, Ni diminuem
seus valores.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

526
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. CONCLUSÃO

O bronze alumínio passou por um processo de difusão com pó de estanho nos períodos de
três, quatro e cinco horas com a temperatura 150 ºC. Foi observado que os anéis tratados
termicamente com estanho no período de quatro e cinco horas de tratamento, foram
suficientes para o estanho se difundir em sua superfície e através de toda a espessura da
amostra. Além disso, a concentração do estanho colaborou na auto lubrificação do bronze,
devido o estanho também agir como lubrificante.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj, ao


departamento de Ciência dos Materiais do IME, ao departamento de mestrado em Engenharia
Metalúrgica da UFF e ao departamento de mestrado profissional em Ciência dos Materiais da
UniFOA.

REFERÊNCIAS

Askeland DR, Phulé PP. (2008), Ciência e Engenharia dos Materiais. Cengage Learnig.
Bora MO, Coban O, Sinmazcelik T, Gunay V, Zeren M. (2010), Instrumented indentation and scratch testing
evaluation of tribological properties of tin-based bearing materials. Materials & Design. 31(6):2707-2715.
Chen SW, Zi AR, Gierlotka W, Yang CF, Wang CH, Lin SK, Hsu CM. (2012), Phase equilibria of Sn–Sb–Cu
system. Materials Chemistry and Physics. 132(2-3):703-715.
Goudarzi MM, Jahromi SJ, Nazarboland A. (2009), Investigation of characteristics of tin- based white metals as
a bearing material. Materials & Design. 30(6):2283-2288.
Kamal M, Shaban AM,El-Kady M, Shalaby RS. (1994), Second International Conference on Engineering
Mathematics and Physics. 2:107-121.
Kamal AM, Issa MA. (2010), Heat Treat. Surf. Eng. Romania. 9(3):41.
Lapper K, James M, Chashechkina J, Rigney DA. (1997), Sliding behaviour of selected aluminum alloys. Wear.
203:46-56.
Roberts EW. (1990), Thin solid lubricant films in space. Tribology International. 23(2):95-104
Zeren A, Feyzullahoglu E, Zeren, M. (2007), A study on tribological behaviour of tin-based bearing material in
dry sliding. Materials & Design. 28(1):318-323.
Zeren A, Feyzullahoglu E, Zeren M. (2007). A Study on Tribological Behavior of Tin-Based Bearing Material in
Dry Sliding, Materials & Design. 28(1):318–323.

EVALUTION OF THE SUBSTITUTION OF A PTFE SEALING RING FOR A


BRONZE CuAl WITH COATED SUPERFICAL Sn SEAL RING BY MEV AND EDS
TECHNIQUES

Abstract. Babbitt metal alloys are widely applied as bearing materials for years, despite their
high cost. The present work aims to use a bronze aluminum CuAl alloy coated with superficial
tin (Sn) as a replacement of polytetrafluoroethylene (PTFE) polymer widely used in industry
for many tribological applications, highlighting their use in plain bearings, rings and seals.
Despite, some positive characteristics given by this material it may fail and lose their
properties at high pressures and temperatures. For this reason and aiming to reduce some
costs by acquiring expensive materials, the present research worked with samples of CuAl
bronze SAE-68D subjected to a thermochemical treatment processes for different periods of
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

527
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3, 4 and 5 hours at temperatures above 150°C. The higher diffusion has occurred in the
period of 5 hours. After that some analysis of scanning electron microscopy (SEM) and EDS
have been done to verify the differences of the gradients of Sn present on the specimens.

Keywords: PTFE, CuAl Bronze, SEM, EDS.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

528
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

USO DE NEURAL ARTIFICIAL PARA ESTIMATIVA DA ALTURA DE PLUMA DE


SEDIMENTOS GERADA DURANTE A REMOÇÃO DE DUTOS FLEXÍVEIS
OFFSHORE

Arthur Azevedo Battisaco1 – art.battisaco@gmail.com


Jader Lugon Junior1 – jlugonjr@gmail.com
Pedro Mello Paiva2 – pedromellopaiva@gmail.com
1
Instituto federal fluminense – Macaé, RJ, Brasil
2
Universidade Federal do Rio de Janeiro – Macaé, RJ, Brasil

Resumo. O fim do período de maior produtividade dos campos de petróleo e gás na Bacia de
Campos no litoral sudeste brasileiro, tem sido amplamente discutido em ambientes industriais
e acadêmicos, dado que remoção das muitas estruturas off shore, pode gerar impactos
significativos e demanda uma atenção minuciosa dos órgãos ambientais. Dentro dessa etapa
denominada “descomissionamento”, as perturbações relacionadas à remoção dos dutos
flexíveis submarinos precisam ser avaliadas, pois é formada uma pluma de sedimentos em
suspenção durante a operação de recolhimento, podendo gerar impactos na vida marinha local.
Modelos computacionais de dispersão de sedimentos são largamente utilizados em estudos para
fins de avaliação de impactos ambientais, permitindo estimar a altura da pluma formada, assim
como o volume de material ressuspendido, que são variáveis fundamentais para avaliação das
dimensões da trincheira formada durante a operação. Entretanto, a obtenção destes dados
depende da disponibilidade de boas imagens da operação que são capturadas por um veículo
remotamente operado. Para possivelmente sanar a falta informação em algumas imagens, é
proposto então, o uso de um modelo matemático gerado por uma rede neural que, dada as
dimensões de uma trincheira, pode-se prever a altura da pluma. A deficiência de variáveis pode
muitas vezes inviabilizar a avaliação pretendida, para tal, a previsão de dados faltantes a partir
daqueles conhecidos se mostra útil.

Palavras-chave: Redes neurais, Modelagem de sistemas, Modelagem não-linear,


Descomissionamento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

529
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Muitos campos de produção de petróleo e gás offshore no Brasil atingiram o fim de suas
vidas economicamente produtivas e muitas instalações também estão atingindo, ou já
excederam, a vida útil de projeto (Mimmi et al., 2017). Como resultado, a demanda por
descomissionamento de campos de petróleo e gás no Brasil tem aumentado significativamente
e operadoras e reguladores precisam decidir as melhores opções disponíveis para desativá-los
(Bond et al., 2018). Neste contexto, compreender os efeitos ambientais do descomissionamento
e das possíveis alternativas de uso destas estruturas é uma prioridade (Sommer et al., 2019).
Para explorar as reservas de petróleo e gás offshore, uma ampla infraestrutura é instalada
no leito marinho, incluindo as estruturas das plataformas, linhas de ancoragem, equipamentos
de poço e dutos submarinos. Os dutos submarinos a serem descomissionados na Bacia de
Campos são estruturas instaladas no leito marinho, que viabilizam o controle e operação do
sistema de produção (Rouse et al., 2018).
O descomissionamento dos campos de produção apresenta desafios financeiros, de
segurança, técnicos, ambientais e socioeconômicos para as partes interessadas e reguladores
(Fowler et al., 2014), e está submetido a padrões muito distintos de avaliação e proteção
ambiental ao redor do mundo que carecem de uma legislação com maior embasamento
científico (Cordes et al., 2016).
As características dos sistemas submarinos no Brasil (operação em águas rasas,
profundas e ultra profundas; amplo uso de dutos flexíveis; e grandes extensões de dutos
submarinos) e as condições ambientais (presença de rodolitos e corais de águas profundas) são
muito diferentes daquelas encontradas em projetos de descomissionamento em outras regiões
do mundo, especialmente no Mar do Norte (Nicolosi et al., 2018).
As atividades de remoção dos dutos submarinos podem causar danos físicos com
deslocamento ou remoção destas estruturas, perturbações associadas à qualidade da água,
causadas pela dispersão de sedimentos durante a operação, e soterramento do ambiente
bentônico pela deposição dos sedimentos (Paiva et al., 2020).Essas perturbações ambientais
estão relacionadas às particularidades da operação de recolhimento do duto, à hidrodinâmica
da região, à sedimentologia do leito marinho, e, especialmente, à quantidade de material
ressuspendido.
A avaliação de risco ambiental em áreas com presença de coral é normalmente analisada
a partir da modelagem da propagação dos sedimentos na água e da deposição destes sobre os
corais, levando em consideração os níveis de tolerância estabelecidos em estudos de campo ou
de laboratório (DNV, 2013). A estimativa de descargas e exposições a sedimentos
ressuspendidos na coluna d'água é uma tarefa complexa e varia entre as diferentes locações,
criando desafios para operadores e pesquisadores desenvolverem cenários realistas (Baussant
et al., 2018).
O volume de material ressuspendido pode ser estimado como uma função das
dimensões da trincheira formada durante o recolhimento do duto, uma abordagem análoga a
utilizada por Mengual et al. (2016) em operações de pesca de arraste. Assim como a altura da
pluma formada, a largura e altura da trincheira podem ser obtidas por meio do tratamento das
imagens capturas por ROV (Remotely Operated underwater Vehicle) durante a operação de
recolhimento dos dutos, e são dados de entrada fundamentais para a modelagem do transporte
de sedimentos, que pode ser utilizada na avaliação de impactos ambientais das atividades de
recolhimento dos dutos flexíveis submarinos.
Entretanto, as análises dos vídeos e imagens capturadas durante estas operações de
recolhimento demonstram limitações para a aquisição destas medidas ao longo de toda a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

530
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

operação. Em alguns casos, foi possível estimar com maior precisão a altura da pluma, por
exemplo, mas não houve qualidade de imagem suficiente para estimar as dimensões da
trincheira. Houveram também momentos da operação, em que as imagens estavam favoráveis
a estimar com clareza as dimensões da trincheira, mas não era possível avaliar a altura da pluma.
Neste cenário, é proposto utilizar uma rede neural, que auxilia no preenchimento de falhas
nos dados necessários para simulação da dispersão de sedimentos, e que pode servir na
avaliação dos riscos ambientais ocasionados pela operação de recolhimento de dutos flexíveis.

2. REDES NEURAIS PARA MODELAGEM DE SISTEMAS

Segundo Haykin (1999) redes neurais representam uma tecnologia de raízes


multidisciplinares, assim como possuem aplicações em diversas áreas como modelagem ou
controle, tendo a característica de aprender a partir de dados de entrada. De uma maneira
prática, valor de entrada é passado para os neurônios da próxima camada, que é composta por
um número variado de outros neurônios. O valor passado de entrada ou de um neurônio para
outro, é então multiplicado pelo peso que o “levou” até o próximo neurônio, em sequência esse
valor calculado é passado como parâmetro para a função de ativação daquele neurônio. Assim
ele passa o resultado da operação para a próxima camada em sentido direto até gerar um
resultado final. Esse processo é comumente conhecido como “feedforward”.
A diferenciação entre redes neurais é principalmente devido a sua utilização. Suas
mudanças estruturais estão ligadas a seus hiperparâmetros, que são valores selecionados
durante a construção de maneira manual. Sua seleção influencia diretamente no aprendizado
dos parâmetros, que são os coeficientes dos cálculos realizados pelas redes neurais, seus pesos
e unidades de bias. Para alcançar sua forma otimizada para uma determinada tarefa,
tradicionalmente é usado o método de tentativa e erro, em conjunto com um conhecimento e
estudo prévio (Snoek et al., 2015; Coulibaly et al., 2001).
A avaliação de uma rede neural e dada por sua função de perda, sendo ela a responsáveis
por determinar o valor numérico do erro entre entrada e saída. É necessária uma adequação com
o tipo de saída, por exemplo, erro quadrático médio (MSE, “Mean squared error”), não é
utilizado em problema de regressão logística ou classificação, pois para esses casos a saída é
um valor binário, e acabaria acarretando em problemas de não encontrar o valor mínimo global
da função de custos durante o processo de treinamento (Haykin, 1999).
Por conta de sua natureza não linear, as redes neurais são altamente adaptáveis e podem
servir como regressor para funções não lineares. Sua utilização esse propósito é algo que veem
mostrado a sua eficiência, por exemplo, Hornik et al., (1989) mostra em seu trabalho como um
modelo não profundo de redes neurais possui potencial para ser utilizada em generalização de
funções. Cobourn et al. (2000) apresentou uma comparação da efetividade entre de um modelo
de regressão não linear e uma rede neural para a previsão da concentração de ozônio e mostrou
resultados promissores para sua utilização para outras aplicações.
A utilização de rede neurais é viável nos dias de hoje decorrente aos avanços da
capacidade de processamento dos computadores (Wasserman et al., 1988). A linguagem Python
3 é comumente usada para a aplicação dessas, pois contam com bibliotecas que viabilização a
sua implementação em alto nível, tal como “numpy” ou “pandas” (McKinney, 2010), que são
usualmente usadas tanto em ciências de dados quanto em aprendizado de máquina.
Em meio computacional, tendo conhecimento sobre como utilizar as estruturas necessárias,
e parametrizar, é possível implementar uma rede neural em alto nível de programação. Para
tanto, é necessário possuir um conjunto de entradas e saídas para o treinamento da rede,
atentando ao tipo de problema, podendo-se escolher os hiperparâmetros que melhor otimizam
sua rede (Smith et al., 2018).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

531
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. METODOLOGIA

O recolhimento de dutos flexíveis na Bacia de Campos ocorre, tipicamente, por meio da


técnica conhecida como remoção por bobina reversa, aplicada em larga escala para dutos
flexíveis, devido aos diâmetros reduzidos. Esta técnica oferece uma remoção rápida, quando
comparada às demais, e, a depender do diâmetro da tubulação, uma mesma embarcação é capaz
de recolher alguns quilômetros de dutos flexíveis antes de precisar retornar para o porto. Nesta
operação, a embarcação do tipo PLSV (Pipe Laying Support Vessel) executa o recolhimento,
respeitando a trajetória definida pelo duto flexível que se encontra lançado sobre o leito
marinho, enrolando o trecho recolhido em bobinas dispostas no convés da embarcação (Fig. 1).
A operação segue até que todo o trecho previsto seja recolhido, ou até que se alcance a
capacidade máxima das bobinas. Durante a operação, os registros de vídeo podem ser realizados
pelo ROV do próprio PLSV, pelo ROV de uma embarcação dedicada, do tipo RSV (Remotely
Support Vessel), ou por ambos os recursos disponíveis.

Figura 1 – Representação do processo de remoção de dutos flexíveis offshore

Este estudo teve acesso a quatro vídeos de diferentes operações de recolhimento de dutos
flexíveis na bacia de Campos. Três destes registros são referentes a operações na plataforma
continental (com lâmina d’água inferior a 200 m) nos campos de produção de Pargo, Corvina
e Bicudo. O quarto vídeo disponibilizado registrou uma operação de recolhimento de duto no
campo de Marlim, no talude continental.
O objetivo da análise dos vídeos foi permitir o entendimento sobre os principais
mecanismos pelos quais se dá a ressuspensão de sedimentos, e sobre a dinâmica inicial da pluma
de sedimentos, para que sejam propostos parâmetros adequados para as descargas de sedimento
para o modelo de transporte de sedimentos, ou seja, a altura da descarga, e volume de material
ressuspendido.
Com o apoio do software ImageJ, e de seu “plugin” FIJI (Schindelin et al., 2012), as
capturas de tela dos vídeos, em diversos estágios da operação de recolhimento, foram
analisadas, com o objetivo de identificar as dimensões da trincheira (rastro) deixada pela
operação, em uma abordagem análoga à realizada para estimar o volume ressuspendido durante
a pesca de arraste (Mengual et al., 2016). Dado que o diâmetro externo do duto é conhecido
(Dd), por meio da contagem de pixels das demais medidas indicadas na imagem, o software
ImageJ auxilia na estimativa da altura (ht) e largura (wt) da trincheira aberta durante a operação,
e a altura (Hp) alcançada pela pluma de sedimentos no momento imediatamente após a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

532
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ressuspensão, em uma abordagem similar à realizada por Bombrun et al. (2018) na estimativa
das dimensões da pluma vulcânica, exemplificada na Fig. 2.

Figura 2 – Representação das fotos utilizadas no trabalho

Tendo os dados tabelados, pode-se dar início ao tratamento deles e pôr seguinte efetuar
o treinamento. Com a ajuda da biblioteca de manipulação e análise de dados, pandas
(McKinney, 2010), foram feitos ajustes no conjunto. Assim, foi criado um dataframe para cada
um dos conjuntos de imagem, tendo as informações das dimensões da trincheira e altura da
pluma.
Nem todas as fotos apresentaram as variáveis de forma nítida, sendo assim, houveram
casos onde não se conseguiu obter todos os dados necessários, assim, no caso dessas imagens,
seus dados foram descartados por completo. Os dados também foram normalizados, pois
utilização dessa técnica gera redução tanto no erro em um fator de 5 a 10, quanto no tempo de
treinamento (Sola, J., Sevilla, J. 1997), pois os pesos conseguem de adequar melhor a dados
que estão dentro de uma sorte de números delimitados.
Após o tratamento dos dados, para fins de visualização, foram gerados gráficos de
correlação (Fig. 3), onde o eixo vertical representa a altura da pluma e o eixo horizontal a largura
(Fig. 3 (a)) e altura (Fig. 3 (b)) das trincheiras. Também foi gerado um gráfico para cada
conjunto provenientes dos outros campos de produção.

(a) (b)
Figura 3 - correlação dos dados de Corvina. (a) Relação entre largura da trincheira e altura da
pluma. (b) Relação entre altura da trincheira e altura da pluma.

As informações faltantes foram retiradas para não atrapalhar o treinamento do modelo,


pois como houve uma perda de mais de 40% destes, não é recomendado a utilização de um

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

533
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

método de imputação, como por regressão, sequencial entre outros (Song, Shepperd ,2007).
Para contornar esse problema, optou-se pela junção dos dados dos 4 conjuntos em apenas um

(a) (b)

Figura 4 – Representação dos dados concatenados (a) Relação entre largura da trincheira e
altura da pluma. (b) Relação entre altura da trincheira e altura da pluma.

Para elaboração da rede neural existem frameworks em python, que facilitam a


implementação de um novo modelo. Tendo como base as arquiteturas disponibilizadas pelo
“framework”, foram escolhidos hiperparâmetros que melhor se adaptassem a tarefa. Utilizando
a API Keras, o modelo foi rapidamente criado, visto que sua implementação foi em alto nível,
ou seja, diminuindo o número de ações humanas para desenvolver aprendizado de máquina
(Chollet et al., 2015).
Como se trata de um problema de regressão não linear, foram ajustados parâmetros que
comportassem ao conjunto de dados. Por mais que haja estudos sobre ajuste de hiperparâmetros,
para alcançar a otimização de alguma tarefa é mais intuitivo o processo de tentativa e erro
(Hegazy et al, 2008).
Para problemas de regressão é comumente usada a arquitetura básica “feedforward” com
camadas densas. Como objetivo foi gerar uma função que reproduza o comportamento das
plumas, modelar seu comportamento em forma de função, para tal, a estrutura foi formada de
8 camadas escondidas,1 de entrada com 2 neurônios (altura e largura da trincheira) e 1 de saída
(altura da pluma). As camadas escondidas apresentam número variado de neurônios, formando
uma espécie de funil, onde as quatro primeiras camadas tiveram 16 neurônios, as três seguintes,
tiveram 8 neurônios, seguindo de 4, 2 na sétima e oitava camada respectivamente. Esses
resultados vieram de testes de tentativa e erro, até apresentar melhorias significantes em relação
a tentativas anteriores. A Fig. 5 é uma representação visual do modelo gerado.

Figura 5 – Rede neural, elaboração dos autores


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

534
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para o treinamento do modelo, foi feito o processo de “backpropagation”, que consiste em


calcular a rede neural de maneira normal e ajustar os valores dos pesos e unidades de bias em
relação ao erro da previsão em relação a saída esperada. Para esse método funcionar, é
necessária a inicialização aleatória dos parâmetros, que serão ajustados conforme o passar das
épocas, termo usado para simbolizar uma atuação do algoritmo de backpropagation.
No atual estudo foi utilizada a função de perda “huber loss” Eq. (1), pois em relação a
outras funções, é menos sensível a “outliers”, fazendo com que seus efeitos no modelo sejam
mais suavizados (Chen, et al., 2017). Utilizou-se o otimizador “Adam”, o qual apresenta, de
uma maneira geral, resultados melhores que o algoritmo de gradiente descendente, apto para
tarefas de regressão (Kingma, Ba, 2014). As camadas escondidas possuem em todos seus
neurônios a função de ativação tangente hiperbólica Eq. (2), pois pelo processo de tentativa e
erro essa configuração chegou nos melhores resultados.

(1)

(2)

3. RESULTADOS E DISCUSSÃO

Tanto a relação entre largura ou altura da trincheira com a altura da pluma se mostrou fraca
pela métrica de correlação de Pearson, tendo 0.185 e 0.277, podendo ser considerada uma fraca
relação entre os dados (Schober et al., 2018). Lidando como um modelo de regressão, as
métricas de avaliação em geral são ligadas ao erro, para verificação de quão o modelo foi bem
implementado. Fazendo o cálculo de MSE entre os resultados finais, temos o valor de 0.21
pontos, que equivalem a 21cm de diferença, a pontuação R2, tem o valor de 0.51. Levando em
consideração a não linearidade do modelo, valores como esses representam progresso.
Predições exatas poderiam representar que houve sobreajuste nos dados, ou seja, estaria deveras
adaptado a aquele conjunto, mas valores diferentes provavelmente não teriam o mesmo efeito.

Figura 5 –Previsão sob dado reais e Erro total. Dado predito (azul) em relação a dados
experimentais (vermelho).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

535
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 – Erro absoluto para cada valor analisado.

Na Fig. 5, tem-se uma visualização 3D dos dados previstos sobrepostos aos dados originais.
De maneira separada, tanto a altura quanto a largura da trincheira apresentaram baixa correlação
com a altura da pluma, porém, ainda assim, foi possível construir um modelo que pudesse
predizer com uma precisão considerável. Na Fig. 5 os dados reais estão representados por
pontos vermelhos e os previstos por triângulos azuis. É possível observar que a os dados
previsto não estão muito distantes do que foi estimado. E na Fig. 6 tem-se o gráfico com erro
total absoluto, as previsões tiveram um erro médio absoluto de 0.32.

4. CONCLUSÃO

O modelo apresentou ser promissor. Entretanto, pode ser melhorado, com novos testes de
outras funções de ativações, mudanças na sua estrutura e arquitetura que podem promover em
resultados melhores.
A implementação desse modelo permitiu mostrar a viabilidade de usar redes neurais para
gerar novos modelos a partir de dados de imagens, principalmente para suprir a necessidade de
informações faltantes de operações em que seja difícil conseguir imagens nítidas.
A vantagem de prever a altura da pluma é ter uma solução alternativa para a falta de tais
informações, que inviabilizariam o uso de todo experimento para simulação da dispersão de
sedimentos na operação. O uso da ferramenta em conjunto com o modelo de dispersão permitirá
uma melhor previsão do comportamento dos sedimentos durante a operação de recolhimento
de dutos e consequentemente possibilitará um melhor controle do impacto causado ao meio
ambiente no descomissionamento de dutos flexíveis interligados às plataformas de produção.

REFERÊNCIAS

Baussant, T., Nilsen, M., Ravagnan, E., Westerlund, S., Ramanand, S. (2018), “Effects of suspended drill cuttings
on the coral Lophelia pertusa using pulsed and continuous exposure scenarios.”, Journal of Toxicology and
Environmental Health, Part A, 81(10), 361–382.
Bombrun, M., Jessop, D., Harris, A., Barra, V., (2018), “An algorithm for the detection and characterisation of
volcanic plumes using thermal camera imagery.”, Journal of Volcanology and Geothermal Research, 352,
26–37.
Bond, T., Prince, J., Partridge, J. C., White, D., McLean, D. L. (2018), “The Value of Subsea Pipelines to Marine
Biodiversity.”, Offshore Technology Conference Asia, Kuala Lumpur, Malaysia.
Chen, C., Yan, C., Zhao, N., Guo B., Liu G., (2017), “A robust algorithm of support vector regression with a
trimmed Huber loss function in the primal.”, Soft Computing, 21(18), 5235–5243.
Chollet, F. and others. Keras [Internet]. (2015), GitHub. Available from:https://github.com/fchollet/keras, acesso
em: 28/08/2020.
Cobourn W. G., Dolcine L., French M., Hubbard M. C. (2000), “A Comparison of Nonlinear Regression and
Neural Network Models for Ground-Level Ozone Forecasting”, Journal of the Air & Waste Management
Association, 50(11), 1999-2009.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

536
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cordes, Erik E. et al. (2016), “Environmental Impacts of the Deep-Water Oil and Gas Industry: A Review to Guide
Management Strategies.” Frontiers in Environmental Science, 4(58), 1-26.
Coulibaly P., Anctil F., Aravena R., Bobée B. (2001), “Artificial neural network modeling of water table depth
fluctuations”, Water resources research, 37(4), 885-896.
DNV. (2013), “Monitoring of drilling activities in areas with presence of cold water corals”, n. 2012–1691. [s.l.]:
Det Norske Veritas.
Fowler, A. M., Macreadie, P. I., Jones, D. O. B., Booth, D. J. (2014), “A multi-criteria decision approach to
decommissioning of offshore oil and gas infrastructure.” Ocean Coastal Management, 87, 20–29.
Haykin, S. O, (1999), “Neural Networks: A comprehensive foundation”, 2. ed, McMaster University, Ontario
Canada, Pearson.
Hegazy T., Moselhi O., Fazio P. (1994), “Developing practical neural networkapplications using back-
propagation.”, Microcomputers in Civil Engineering, 9(2),145–59.
Hornik, K., Stinchcombe, M., White, H. (1989), “Multilayer feedforward networks are universal approximators.
Neural Networks”, 2(5), 359–366.
Kingma D., Ba J., (2015), “Adam: A Method for Stochastic Optimization”, 3rd International Conference for
Learning Representations, San Diego.
McKinney, W., (2010), “Data structures for statistical computing in python”. Proceedings of the 9th Python in
Science Conference, 56–61.
Mengual, B., Cayocca, F., (2016), “Influence of bottom trawling on sediment resuspension in the ‘Grande-Vasière’
area (Bay of Biscay, France)”. Ocean Dynamics, 66(9), 1181–1207.
Mimmi, F., Ralston, S., Silva, M. M., Silva, P. M. (2017), “Baseline for Planning and Cost Estimation of Brazilian
Decommissioning.”, Offshore Technology Conference. Houston, Texas, USA.
Nicolosi, E. R., Abreu, B. B., Gomes, E. H. Z., Dutra, E. S. S. (2018), “Descomissionamento de Sistemas de
Produção Offshore de Óleo e Gás: Cenário Atual e Perspectivas Futuras. ”, Rio Oil & Gas Expo and
Conference 2018. Rio de Janeiro, Brazil.
Paiva, P. M., Lugon, J., Calderon, E.N, Jullano, M.M.F., Mollsanl, M.M., (2020), “Decommissioning of subsea oil
and gas production pipelines: hydrodynamic modeling for preliminary assessment of sediment resuspension
and burial onto benthic organisms”, Journal of Integrated Coastal Zone Management, 20(3), 161-168.
Rouse, S., Hayes, P., Davies, I. M., Wilding, T. A. (2018), “Offshore pipeline decommissioning: Scale and
context.” Marine Pollution Bulletin, 129(1), 241–244.
Schindelin, J., Arganda-Carreras, I. Frise, E. et al. (2012), "Fiji: an open-source platform for biological-image
analysis", Nature methods, 9(7), 676-682.
Schober, P., Boer, C., Schwarte, L. A. (2018), “Correlation Coefficients.”, Anesthesia & Analgesia, 126(5), 1763–
1768.
Smith, L. N., (2018), “A disciplined approach to neural network hyper-parameters: Part 1 -- learning rate, batch
size, momentum, and weight decay”, https://arxiv.org/abs/1803.09820v2, acesso em: 01/10/2020
Sommer, B., Fowler, A. M., Macreadie, P. I., Palandro, D. A., Aziz, A. C., Booth, D. J. (2019), “Decommissioning
of offshore oil and gas structures – Environmental opportunities and challenges.”, Science of The Total
Environment, 658, 973–981.
Snoek J., Rippel O., Swersky K., (2015), “Scalable Bayesian Optimization Using Deep Neural Networks”,
https://arxiv.org/abs/1502.05700, acesso em: 28/08/20.
Sola, J., Sevilla, J. (1997), “Importance of input data normalization for the application of neural networks to
complex industrial problems”, IEEE Transactions on Nuclear Science, 44(3), 1464–1468.
Song, Qinbao, Shepperd, Martin. (2007), “Missing Data Imputation Techniques”. International Journal of
Business Intelligence and Data Mining , 2(3), 261-291.
Wasserman P.D., Schwartz T., (1988), “Neural networks. II. What are they and why is everybody so interested in
them now?”. IEEE Experts, 3(1), 10-15.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

537
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

USE OF ARTIFICIAL NEURAL NETWORK TO ESTIMATE THE HEIGHT OF


SEDIMENT PLUME GENERATED OF OIL OFFSHORE PIPES REMOVAL

Abstratc. The end of the period of most productivity of oil and gas fields in the Campos Basin
on the southeast coast of Brazil has been widely discussed in industrial and academic
environments, since the removal of the many off shore structures can generate significant
impacts and demands thorough attention from environmental agencies. Within this stage called
"decommissioning", the disturbances related to the removal of the submarine flexible pipelines
need to be evaluated, since a plume of sediments is formed in suspension during the collection
operation, which may generate impacts on local marine life. Computational models of sediment
dispersion are widely used in studies for environmental impact assessment, allowing the
estimation of the height of the plume formed, as well as the volume of resuspended material,
which are fundamental variables for assessing the dimensions of the trench formed during
operation. However, the obtaining of this data depends on the availability of good images of
the operation that are captured by a remotely operated vehicle. In order to possibly remedy the
lack of information in some images, it is proposed then, the use of a mathematical model
generated by a neural network that, given the dimensions of a trench, can predict the height of
the plume. The deficiency of variables can often make the intended assessment impossible, so
the prediction of missing data from those known is shown to be useful.

Keywords: Neural Networks, Systems modeling, non-linear modeling, Decommissioning.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

538
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

OTIMIZAÇÃO DO PROCESSO DE DESSULFURANTE EM PANELAS DE FERRO


GUSA LÍQUIDO

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Rangel de Paula Almeida2 – almeida.rangel95@gmail.com
Darlan Rodrigues Azevedo3 – darlanzinhoazevedo@gmail.com
Alexandre Alvarenga Palmeira4 – alex.a.palmeira@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil
2
Universidade Federal Fluminense, Escola de Engenharia Metalúrgica -Volta Redonda, RJ, Brasil.
3
Centro Universitário de Volta Redonda, MEMAT UniFOA - Volta Redonda, RJ, Brasil.
4
Universidade do Estado do Rio de Janeiro, Departamento de Mecânica e Energia UERJ - Resende, RJ,
Brasil.

Resumo. O presente trabalho tem como objetivo avaliar a importância do uso de uma taxa de
injeção variável de um processo de redução de enxofre em panelas de ferro-gusa líquido que
ofereçam eficiência com menor custo operacional com a redução do consumo específico do
agente dessulfurante. O resultado obtido através deste estudo pode ser praticamente aplicado
no processo operacional por meio de um procedimento de dessulfurização, o que proporciona
melhores condições operacionais e econômicas, alcançando resultados que podem ser
extendidos a outras unidades de dessulfurização existentes nas diversas fábricas no mundo. As
amostras foram analisadas pelo equipamento LECO S230. Foi comprovado que o processo de
redução oferecia ganhos econômicos para a indústria siderúrgica, aliados a uma economia de
insumos e tempo de processo.

Palavras-chave: Desulfuração, LECO S230, Taxa de Injeção, Ferro gusa.

1. INTRODUÇÃO

O enxofre é considerado um elemento problemático que prejudica as propriedades


mecânicas do aço como a ductilidade, tenacidade, conformabilidade, soldabilidade e
resistência à corrosão, sendo assim possui uma especifição menor do que 0,025% para aços
comuns como vergalhões, fio-máquina e perfilados. Já nos aços LC (baixo carbono) e ULC
(ultra baixo carbono), de forno elétrico, chapa de estanho, grande gama dos aços longos,
apresentam faixa de enxofre entre 0,005% a 0,010% ou até teores menores. Além disso,
existe um grupo de aços conhecidos como ULS (Ultra baixo enxofre) com teores muito
exigentes, 0,001% ou até em percentuais menores devido a alta necessidade pela demanda
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

539
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de qualidade para resistir a HIC (trinca introduzida por hidrogênio) e aços de alta resistência
para atender o mercado de chapas blindadas ou chapas para tanques de GNL (gás natural
liquefeito) ( Kuttner, 2014).
O enxofre no ferro gusa líquido possui origem no redutor, sendo o processo de
dessulfuração realizado na panela de transferência e no carro torpedo. A retirada do enxofre
do ferro gusa é uma reação química de redução e não ocorre de forma limitada a uma parte
oxidante (Freikmut & Ainring, 2004; Silva, 2012).
A eficiência do processo de dessulfuração do gusa pode levar a redução do consumo
de agentes dessulfurantes e consequentemente os custos de dessulfuração, testes industrias
foram realizados. Conforme a eficiência do processo de dessulfuração pode ser medida pelo
fator K (Silva et al., 2012).
Os principais agentes dessulfurantes, ou melhor, o que é comum encontrar nos
processos, são aqueles que apresentam o cálcio em sua composição devido ao fator afinidade
do enxofre com o mesmo. Assim, temos o CaO como uma fonte comum e economicamente
viável para servir como matéria prima ao insumo, mas o mesmo deve ter combinações para
que haja a eficiência no processo. Conforme é descrito, há também outros dessulfurantes
comuns, bem usuais nas usinas: o Carbureto de Cálcio (CaC2), Magnésio (Mg) e Soda
(NaCO3). Estes três dessulfurantes são muito mais eficientes que o CaO, porém o custo
R$/ton (real por tonelada) é maior (Yang, 2012).
Devido a esses conceitos, o presente trabalho, buscou avaliar o ganho em relação a
possibilidade de diminuir a quantidade de agente dessulfurante a injetar ganhos no processo
operacional e ganho de tempo das pesquisas realizadas por Azevedo e colaboradores (2019)
no qual foram apresentadas no 74° Congresso Anual da ABM, que buscou vericar o
mecanismo de reação do carbureto de cálcio através do microscópio eletrônico de varredura
(MEV) e espectroscopia de energia dispersiva (EDS), além de ultilizar o FactSage 7.1
(Sistema de Banco de Dados Termodinâmicos) para simulação do mecanismo de reação e
entendimento do comportamento do agente dessulfurante frente ao oxigênio.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

Através dos resultados obtidos por Azevedo e colobaradores (2019) da análise do


mecanismo de reação do processo de dessulfuração do ferro gusa utilizando o agente
dessulfurante a base de carbureto de cálcio (CaC2) no software Factsage, foi planejado a
aplicação de uma metodologia no processo, de forma prática, para obter resultados
operacionais. Verificando o mecanismo de reação do CaC2 e o comportamento do agente
dessulfurante, os impactos que os parâmetros operacionais influenciam no processo, em
destaque para a taxa de injeção e o impacto que há na eficiência com a cinética do processo,
visualizou-se uma possibilidade de alterar a metodologia operacional, do processo em panelas
por imersão profunda. Uma taxa de injeção baixa pode proporcionar uma maior eficiência, visto
que o agente dessulfurante, caminha no interior da panela até a escória, promovendo a reação
com o enxofre (Araújo et al., 2013). A Fig. 1 abaixo, mostra um processo de dessulfuração em
panelas, onde se realizou uma redução na metodologia da taxa de injeção, onde a redução
proporcionou uma economia de 25% no consumo de agente dessulfurante.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

540
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Redução da taxa de injeção em uma dessulfuração em panelas.

Com essa alteração operacional pode-se atingir a redução de 25% no consumo de agente
dessulfurante, conforme Fig. 2. Onde as novas misturas são referentes a formação de escória
CaS, CaO e CaC2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

541
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Consumo específico do agente dessulfurante emu ma dessulfuração em panelas.

A aplicação do conceito de coeficiente cinético relacionando um parâmetro K ao processo


de dessulfuração em panela foi utilizado. Considerando o teor de enxofre (S) inicial como Si e
o teor de enxofre final como Sf, além de considerar que a vazão (Q) é o consumo (C) sobre o
tempo de tratamento (t), a Eq. (1) foi obtida.

Sf = Si ×e^ (-kt) (1)

Ajustando a equação uma função logarítmica natural, obtem-se:

Si
ln =k×t (2)
Sf

Dessa forma substituindo os termos de Q e C pelo tempo de tratamento a Eq. (3) foi
utilizada para o presente estudo.

Si C
ln =k× Q (3)
Sf

É possível incluir a vazão na constante K pelo fato dessa vazão ser constante, dessa forma
é possível calcular o parâmetro K utilizado, geralmente, para medir a eficiência de
dessulfuração. As amostras foram analisadas no aparelho LECO S230, sendo reponsável pela
queima da amostra coletada e através de uma célula de enxofre, juntamente com uma calibração

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

542
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

adequada gera o resultado em percentual de enxofre. O teste 1, foi realizado sob uma vazão
constante a cada 4 minutos.

2.2 Resultados e Discussão

A Tabela 1 exibe os resultados do enxofre nos intervalos de tempo gerados pelo


analisador de enxofre LECO S-230.

Tabela 1: Resultados obtidos para o primeiro teste.

Teste 1 - LECO S-230


Tempo (min) Enxofre (%)
0 0,01369
4 0,01259
8 0,00867
12 0,00624
16 0,00482
20 0,00400
22 0,00246
Enxofre Objetivado (%) 0,00200
Injeção Constante (Kg/min) 56
Material Injetado (Kg) 1246
Constante de Eficiência (K) 0,28000
Quantidade de Ferro Gusa (ton) 205
Consumo Específico (Kg/ton) 6,04000

Além disso, foi possível gerar um gráfico para saturação do enxofre conforme
observado na Fig. 3.

Figura 3- Redução do enxofre x tempo de tratamento com a vazão variável.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

543
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No segundo teste, foi realizado a variação da taxa de injeção, com o conceito de iniciar
o processo com um valor de taxa de injeção mais elevado, diante da oferta de enxofre no metal
líquido e após injetados 50% do agente dessulfurante proposto. Além de reduzir a taxa de
injeção visando a redução da velocidade de subida do agente dessulfurante para a escória e
assim, possibilitando que o mesmo faça a reação com o enxofre dissolvido no banho metálico,
que neste momento tende a estar com um percentual menor na panela. Diante desse conceito, a
Tabela 2 foi gerada sendo referente ao segundo teste.

Tabela 2: Resultados adquiridos referentes ao segundo teste realizado.

Teste 2 - LECO S-230


Tempo (min) Enxofre (%)
0 0,01037
4 0,00850
8 0,00651
12 0,004500
16 0,00327
20 0,00295
22 0,00122
26 0,00095
Enxofre Objetivado (%) 0,00200
Injeção Variável (Kg/min) 48
Material Injetado (Kg) 1239
Constante de Eficiência (K) 0,39
Quantidade de Ferro Gusa (ton) 200
Consumo Específico (Kg/ton) 6,08

A Figura 4, apresenta a saturação do enxofre para o segundo teste realizado.

Figura 4: Redução do enxofre x tempo de tratamento com a vazão variável.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

544
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Realizando um comparativo de eficiência do primeiro teste com o segundo, foi possível


verifica um valor para o parâmtero K maior no segundo teste, conforme a Tabela 3, sendo
utilizado a Eq. (3) para a presente comparação.

Tabela 3: Eficiência do processo nos testes para a taxa de injeção.


Teste K Taxa de Injeção (Kg/min)

1 0,28 Constante

2 0,39 Variável

Com este resultado, pode-se criar uma metodologia de processo, com padronização, para
aplicação na operação, visando melhora na eficiência e com isso, redução no consumo de agente
dessulfurante. Observa-se que, no segundo teste, a operação poderia ter interrompido o
processo, no tempo de injeção de 21 minutos, aproximadamente, ou seja, o resultado objetivado
do teor de enxofre, foi alcançado antes do tempo final, de 26 minutos. Com isso, teria-se um
ganho na redução do agente dessulfurante injetado e menor tempo da panela no tratamento,
liberando o metal mais rápido para a aciaria. Analisando o resultado do fator K, constante de
eficiência, nos testes, podemos verificar que é possível reduzir a quantidade de dessulfurante a
ser injetado, conforme Tabela 4 e, assim, tornar o processo de dessulfuração em panelas mais
econômico, com ganho de eficiência, visto que, o agente dessulfurante é o maior responsável
pelo custo do processo.

Tabela 4: Redução na quantidade de agente dessulfurante.

Quantidade
Taxa de Quantidade à Injetar
Real Previsto Economia
Teste K Injeção real Injetada Utilizando o
(Kg/Ton) (Kg/Ton) Prevista (%)
(Kg/min) (Kg) Método
(Kg)
1 0,28 Const. 6,04 1246
- - -
2 0,40 Variável 6,08 1239 823 4,11 33

Tomando conhecimento do custo em dólares ($) por tonelada (ton), para chegar a um
tratamento que tem como objetivo final, em enxofre de 140 parte por milhão (ppm) . Podendo
ser utilizado os valores encontrados na tabela 5, juntamente com a aplicação do conceito do
segundo teste. (Iron & steel technology, 2013).

Tabela 5: Valores de custo do processo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

545
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

S ppm 200 300 400 500 600 700 800 900

$/ton 2,60 3,90 4,50 5,10 5,90 6,10 6,50 7,95

$/ton
1,74 2,61 3,02 3,42 3,95 4,09 4,36 5,33
Previsto

Além disso, na Fig. 5 são apresentados os dados referentes à Tabela 5, onde pode-se
observar o ganho com a aplicação do conceito para o segundo teste.

Figura 5: Custo do processo aplicando o procedimento operacional ($/ton).

Dentro do procedimento operacional atual, pode-se dividir as faixas de taxa de Injeção,


buscando valores menores, que alinhe com o tempo disponível para a aciaria.
Assim, dentro da linha de operação, aplicando o conceito do segundo teste, pode-se
desenvolver métodos de trabalho com taxas menores, buscando a eficiencia desejada. O
objetivo é começar com uma taxa de Injeção mais elevada e, após 50% do agente dessulfurante
injetado, diminuir o valor da taxa, para alcançar uma melhor eficiência no processo, conforme
demonstrado no segundo teste. A padronização estará conceituada da seguinte forma: o
processo sempre deve terminar com a Taxa de Injeção mínima permitida pela planta de
dessulfuração (esse valor pode ser alterado conforme a planta que será utilizado o conceito).
Trabalhar com uma Taxa de Injeção menor do que o valor permitido do sistema, pode causar
parada do equipamento, em função de obstrução da lança refratária.

3. CONCLUSÃO

Com o estudo do mecanismo de reação do carbureto de cálcio, conhecendo o


comportamento no processo de dessulfuração de gusa, permitiu-se criar um procedimento
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

546
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

operacional, visando o aumento de eficiência do processo e redução de custos, pois possibilita


a diminuição da quantidade de agente dessulfurante a injetar.
A alteração da metodologia operacional, visualizada no segundo teste, se comparado
com o comportamento do primeiro teste (rotina atual), conclui-se uma melhor eficiência pois,
gera a possibilidade de diminuição da quantidade de agente dessulfurante a injetar, uma vez
que a constante de eficiência aumenta com a redução da Taxa de Injeção
O resultado alcançado no segundo teste, indica uma redução no consumo de agente
dessulfurante em próximo a 33% e mesmo com essa redução de consumo, o resultado final é
alcançado
A diminuição da quantidade de agente dessulfurante a injetar, acarreta também em
ganho de tempo para aciaria, pois reduz o tempo de tratamento da panela, diminuição no
consumo do gás de arraste – N2, redução do desgaste da lança refratária e diminuição do volume
de escória gerado.
Há a possibilidade também de ganhos no processo operacional quanto a adição do
carbureto de cálcio pois, conhecendo o mecanismo de reação, pode-se atuar na metodologia do
processo buscando as melhores práticas.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj, ao


departamento de Ciência dos Materiais do IME, ao departamento de mestrado profissional em
Ciência dos Materiais da UniFOA, a empresa Tecnosulfur S/A, setor de pesquisa e
Desenvolvimento e ao Engenheiro José Flávio Viana, por todo apoio e suporte para este
trabalho.

REFERÊNCIAS
Araújo, CMS, Melo, AD, Azevedo, DR. (2013). “Melhoria na eficiência da dessulfuração em panelas
CSN-UPV através de alteraçoes na taxa de injeção do agente dessulfurante”, 44° Seminário de Aciaria
Internacional – ABM, Araxá, Minas Gerais.
Azevedo, DR, Viana, JF, Palmeira, AV. (2019). “Estudo do mecanismo de reação do agente dessulfurante
carbureto de cálcio no processo de dessulfuração do ferro gusa”, 50° Seminário de Aciaria, Fundição e
Metalurgia de Não-Ferrosos, São Paulo, 235-245.
Freikmut A, Ainring AGH. (2004). Die entschwefelung von Roheise: eine bibliographische studie.
Deutsch.
Iron & Steel Technology. (2013). Desulfurization strategies in oxygen steelmaking.
Kuttner news. (2014). estratégias de dessulfuração na fabricação de aço com oxigênio. Informativo
Trimestral, Contagem.
Silva, MA. (2012). Avaliação da utilização de agentes dessulfurantes a base de carbureto de cálcio
contendo sodalita em substituição à fluorita em carro torpedo. Universidade Federal de Minas Gerais, Belo
Horizonte.
Silva, SN, Vernelli, F, Justus, SM, Santos, CM, Longo, E, Varela, JA, Lopes, JMG, Almeida, BV. (2012).
Selection of desulfurizing agents and optimization of operational variable in hot metal desulfurization. Steel
research.
Yang, A. (2012). A pre-study of hot metal desulphurization. Department of Materials Science and
ngineering. Royal Institute of Technology, Sweden.

OPTIMIZATION OF THE DESULPHURATION PROCESS IN POTS OF HOT


METAL

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

547
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Abstract. The present work aims to evaluate the importance of using a variable injection rate
of a sulfur reduction process in hot metal pans that gives efficiency with a lower operating cost
with the reduction of the specific consumption of the desulphurizing agent. The result obtained
through this study can be practically applied in the operational process through a pig
desulphurization procedure, which provides better operational and economic conditions,
reaching results that can be extended to other desulphurization units existing in the various
plants around the world. The samples were analyzed by LECO S230 equipment. It proved that
the reduction process offered economic gains for the steel industry allied to an economy of
insumes and time of process.

Keywords: Desulfurization, LECO S230, Injection rate, Pig iron.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

548
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO DO COMPORTAMENTO DE DEGRADAÇÃO EM MEIO HIDROLÍTICO


DE BIONANOCOMPÓSITOS PELO MÉTODO IN VITRO

Arquimedes Lopes Nunes Filho1 – arquimedesfilho@ime.eb.br


Sergio Neves Monteiro2 – sergio.neves@ime.eb.br
Tatianny Soares Alves3 – tatiannysoares@ufpi.edu.br
Renata Barbosa4 – rrenatabarbosa@yahoo.com
1
Instituto Militar de Engenharia, IME – Rio de Janeiro, RJ, Brazil
2
Instituto Militar de Engenharia, IME – Rio de Janeiro, RJ, Brazil
3
Universidade Federal do Piauí, Campus Ministro Petrônio Portella - Teresina, PI, Brazil
4
Universidade Federal do Piauí, Campus Ministro Petrônio Portella - Teresina, PI, Brazil

Resumo. Alguns polímeros degradam-se por processos hidrolíticos, geralmente resultando


em espécies de baixo peso molecular, que podem ser metabolizados ou bioabsorvidos pelo
corpo. O meio fisiológico humano proporciona as condições adequadas para esses processos
hidrolíticos, o teste de degradação hidrolítica regulamentado pela ASTM D1635 é de baixo
custo, possibilitando avaliações das propriedades das amostras frente ao processo de
degradação, sob condições de temperatura e de pH controlados. Este trabalho objetivou
avaliar a degradação hidrolítica in vitro, de bionanocompósitos com matriz polimérica PHB
(Polihidroxi-3-butirato), argila bentonita e agente compatibilizante, PP-g-MA. As
composições foram obtidas por extrusão e os corpos de provas foram conformados através de
prensagem a quente, as amostras também foram avaliadas por Microscopia Ótica (MO)
antes e após aos testes de degradação hidrolítica. Na microscopia óptica pode-se observar
superfícies mais regulares sem marcas de prensagem em resposta da adição de argila,
também se notou o aspecto da degradação difusa na superfície de todas as composições, em
destaque para o PHB1. A PHB3 apresentou uma possível formação de aglomerados e as
composições PHB1 e PHB3 atingiram a etapa de erosão.

Keywords: Polihidroxibutirato, Degradação-hidrolítica, In Vitro, Bionanocompósitos.

1. INTRUÇÃO

Com a crescente pressão global para a substituição de resinas sintéticas utilizadas pelas
indústrias. O desenvolvimento de biopolímero e polímeros verdes tornou-se motivação para o
desenvolvimento de produtos que possuam propriedades semelhante às resinas sintéticas,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

549
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

gerando menor quantidade de resíduos no meio ambiente além de possuírem tempo de


degradação inferior quando comparado aos polímeros de fonte petroquímica (Arrieta, et al.
2016).
Os poli-hidroxialcanoatos (PHAs), são biopolímeros compostos de ácidos
hidroxialcanóicos oriundos das reações de fermentação de bactérias, obtidos a partir de
subprodutos na forma de grânulos intracelulares de reserva de carbono e energia, que atingem
até 80 % em peso seco da biomassa bacteriana. A sua síntese é alcançada por bactérias em um
meio nutritivo ocorrendo quando há excesso de fontes de carbono e a limitação de pelo menos
um nutriente necessário à multiplicação das células (N, P, Mg, Fe e etc.) implicam em sua não
produção (Brandl H, Gross RA, Lenz RW; Fuller, R. C. 1990). Porém, por serem
termoplásticos, biodegradáveis, biocompatíveis e sintetizados a partir de matérias-primas
renováveis pela agricultura, como da cana-de-açúcar despertam grande interesse da
comunidade científica (Da Silva, et al. 2007)( Lopez-Arenas, et al. 2017).
O Polihidroxibutirato PHB é um dos polímeros mais estudado dentre os PHAs, por
possuir propriedades termoplásticas e características físicas e mecânicas semelhantes às do
polipropileno sintético, ascendendo sua importância a nível mundial. Porém, sua principal
limitação diz respeito ao custo, sendo relativamente alto frente a outros polímeros oriundos
das indústrias petroquímicas, isso porque os substratos, processo de fermentação e
recuperação do produto, têm um alto impacto no custo de produção (Steinbüchel A, Valentin
HE. 1995).
Referente aos atributos do PHB, sua característica de biocompatibilidade favorece novas
propostas de aplicações nos campos médico e farmacêuticos, onde a composição química e a
pureza do são aspectos cruciais. Por exemplo, na área biomédica, polímeros e biopolímeros
vêm substituindo materiais não poliméricos, principalmente metais utilizados como implantes,
em reparo de crânio, reconstrução facial, reconstrução de cavidade, periodontal,
preenchimento das partes alveolares, lentes intraoculares e válvulas cardíacas ( Lopez-Arenas,
et al. 2017).
A norma ASTM F1635 é uma forma de estudo amplamente utilizada na avaliação do
comportamento de implantes cirúrgicos frente ao processo de degradação em meio hidrolítico.
Nesta técnica, as amostras poliméricas (semi-acabadas, ou implantes cirúrgicos acabados) são
imersas em solução salina tamponada a temperaturas fisiológicas. As amostras são
periodicamente removidas a fim de testar suas propriedades, sejam elas mecânicas, estrutura
cristalinas ou de massa.
O PHB por ser um material rígido e quebradiço, que escoa facilmente durante o
processamento, apresenta sensibilidade frente ao estresse térmico e cisalhante possuindo
temperatura de degradação térmica próxima de sua temperatura de fusão (177 °C) (Machado
et al. 2010). Sendo assim, a modificação deste polímero pode ser feita pela mistura com
outros biopolímeros ou polímeros convencionais, cargas de enchimento (argila organofílica),
e/ou com a adição de agente compatibilizantes conferindo adesão interfacial e melhores
propriedades desejadas (Rabello, 2000).
Estes aditivos possuem inúmeras finalidades, como por exemplo, auxiliar no
processamento, modificação de propriedades finais de polímeros, estabilização quanto a
velocidade oxidativa, evitar degradação por microrganismos, entre outros (Rabello, 2000).
Neste presente trabalho fez-se o uso de argila bentonita organofílica como cargas de reforço e
um agente compatibilizante, Polipropileno grafitizado com Anidrido Maleico (PP-g-MA), em
uma matriz polimérica PHB, formando um bionanocompósito.
Os agentes compatibilizantes permitem uma maior adesão entre as fases, seja de um
sistema compósito ou uma blenda polimérica, de forma que ocorra melhor transferência de
carga entre as fases, isto porque, a alteração da polaridade de cadeia poliméricas em alguns
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

550
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sítios específicos permite a interação a nível molecular entre polímeros polares e apolares, ou
entre polímeros. O anidrido maleico é o monômero mais utilizado na funcionalização do PP,
por diminuir a tensão interfacial e com isso, melhorando a adesão entre as fases e a dispersão
de partículas, devido as duplas ligações (Souza MA, Pessan, L. A.; Rodolfo, A.).
A carga utilizada foi a argila bentonítica com tamanho de partícula em escala
nanométrica, que já têm sido incorporadas em polímeros biodegradáveis, uma vez que, além
de manter sua capacidade de biodegradação, atuam como reforço mecânico e podem diminuir
a permeabilidade ao vapor de água (Park, et al. 2003). Nanocompósitos de polímeros
biodegradáveis e argilas como a montmorilonita, saponita e hectonita também têm sido
bastante estudados (Vanin, M. et al. 2003)
No tocante às formas de incorporar uma carga à uma matriz polimérica, existem duas mais
utilizadas, a polimerização in situ e o método de intercalação por fusão. Na polimerização in
situ, as camadas da argila dilatam-se pela adição de um monômero líquido e um iniciador
antes da adição. Na intercalação pelo estado fundido ou intercalação por fusão (método que
foi utilizado neste presente trabalho), a mistura e dispersão da argila é promovida com matriz
polimérica no estado fundido (Peixoto, 2012).
Segundo Peixoto (2012), a síntese de um nanocompósito por intercalação via estado
fundido implica no recozimento estático ou sob cisalhamento por extrusão da mistura de um
polímero (matriz) e uma argila organofilizada (carga) acima da temperatura de estado viscoso
(para termoplásticos amorfos) ou de fusão (para termoplásticos semicristalinos) de um
polímero.
Desta forma, teve como principal objetivo o desenvolvimento de bionanocompósitos a
partir da matriz polimérica de PHB, um agente compatibilizante PP-g-MA com adição de
argila bentonítica organofílica, cloisite 20A, por meio da técnica de intercalação por fusão, e
posteriormente, concentrar-se no estudo e avaliação sobre o comportamento de degradação
hidrolítica dos bionanocompósitos, pelo método in vitro.

2. MATERIAIS AND MÉTODOS


2.1 Materiais

Os materiais utilizados para o desenvolvimento dos sistemas avaliados neste trabalho,


seguem na Tabela 1.

Tabela 1 – Materiais utilizados nos sistemas e suas respectivas descrições.


Materiais Características
Polihidroxi-3-butirato (PHB) fornecido pela Biocycle, com massa
Matriz molecular de 563.110,00 g.mol-1. Densidade: 1,23 g.m-3; índice de
polimérica fluidez: 18g/10 minutos e temperatura de fusão de 178,4 °C.
Polipropileno grafitizado com anidrido maleico (PP-g-MA)
Agente
Polybond 3150, fornecido pela Chemtura, com 0,5% anidrido
compatibilizante
maleico e índice de fluidez de 50 dg/min.
argila bentonita organofilizada de nome comercial Cloisite 20A,
Carga
fornecida pela Southern Clay Products.

Os reagentes utilizados para o preparo da solução tampão para posterior avaliação do


comportamento de degradação hidrolítica dos sistemas compósitos, seguem na Tabela 2.

Tabela 2 – Reagente utilizados no preparo da solução hidrolítica.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

551
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Reagentes
Fosfato de Potássio (KH2PO4), da marca Dinâmica, com peso molecular (M) igual
a 136,09 g/mol.

Fosfato de Sódio (Na2HPO4), da marca Impex, com peso molecular (M) igual a
141,96 g/mol.
Cloreto de Sódio (NaCl), da marca Dinâmica, com peso molecular (M) igual a
58,44 g/mol.

Os percentuais em peso de carga de argila bentonia organofílica foram definidos 1% e


3%, baseados em estudos desenvolvidos por Bordes, Pollet e Averous (2009), visando avaliar
o efeito sinergético entre os componentes dos compósitos. As simbologias junto aos
percentuais de cada sistema estão definidos na Tabela 3.

Tabela 3 – Percentual de material em cada composição


Legenda PHB %p PP-g-MA %p Argila %p
PHB 100 0 0
PHB1 96,5 2,5 1
PHB3 64,5 2,5 3

2.2 Métodos
2.2.1 Processamento dos Bionanocompósitos

Para o processamento dos sistemas, as composições foram previamente misturadas pelo


método de tamboreamento manual, e posteriormente, processados em uma extrusora de
laboratório monorosca da marca AX Plásticos, de L/D igual a 26, com três zonas de
temperaturas. As temperaturas utilizadas em cada zona foram 160 °C para zona 1, 165 °C
para zona 2 e 175 °C para zona 3 e velocidade de rotação de rosca de 50 rpm. Após a etapa de
extrusão das composições, as mesmas foram peletizadas com o auxílio de um granulador com
velocidade de corte programada em 40 rpm.

2.2.2 Conformação dos filmes bionanocompósitos

Os corpos de provas de cada composição foram conformados, em formato de filmes,


utilizando uma prensa termo hidráulica de modelo MH-08-MN da MH Equipamentos Ltda.
As mesmas condições foram utilizadas para as três composições: temperatura da chapa
superior e inferior a 175°C, carga de prensagem definida em 6 toneladas e o tempo de
prensagem de 2 minutos. Para a conformação dos filmes de cada sistema, foram utilizadas 10
g de pellets intercaladas por duas folhas de teflon, sendo estas posicionadas sobre uma chapa
de apoio com finalidade de transportar as composições antes e após o processo de prensagem

2.2.3 Caracterizações

Foi utilizada a técnica de microscopia óptica (MO) antes e após o processo de degradação
hidrolítica utilizando um microscópio óptico Leica Microsystems MD500, operando em modo
de transmissão, com câmera de captura modelo ICC 50E e ampliação de 100X (200 µm) na
região da superfície do bionanocompósito.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

552
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para o preparo da solução fosfato salino foram utlizados os reagentes: 9,0 g de NaCl,
dissolvido em 1 L de água destilada. Em seguida, foram diluídos KH2PO4 (2,92 g) e Na2HPO4
(11,5 g) em solução de NaCl, obtendo-se então, uma solução tampão com pH = 7,4.
As amostras foram acondicionadas em tubos de ensaio contendo 5 mL da solução tampão
e mantidas em um banho termostatizado, modelo SL-150, à temperatura de 37 °C. A solução
foi trocada semanalmente e, ao final de períodos predeterminados em 15, 30 e 45 dias, 5
amostras para cada composição foram retiradas, lavadas em água deionizada com o objetivo
de retirar o excesso de solução salina, e posteriormente pesadas para obtenção do percentual
de absorção hidrolítica. Após quantificar o percentual de absorção hidrolítica, as mesmas
amostras foram submetidas a secagem em estufa a 60 °C durante um período de 24 horas,
possibilitando mensurar o percentual de perda de massa.
Para a determinação da massa dos filmes foi utilizada uma balança analítica Shimadzu –
ATY 224. Os as curvas de Perda de Massa e Absorção hidrolítica foram construídas com
auxílio do programa Origin pro 8.

As Equações 1 e 2 foram utilizadas para determinar o percentual de Absorção Hidrolítica


e de Perda de Massa, respectivamente:

(1)

(2)

Onde, para as Equações 1 e 2 os termos:


Massa da amostra umedecida, corresponde a massa após ser retirada dos tubos de ensaio
Massa seca (i) é a massa da amostra antes do teste.
Massa Seca (f) é à massa seca da amostra após sua retirada.

3. RESULTADOS E DICUSSÃO
3.1 Microscopia Óptica (MO)

Através da análise por Microscopia Optica, pode-se observar que a adição de argila
bentonita organofílica proporcionou um melhor aspecto e homogeneidade aos filmes em
resposta da redução das marcas de prensagem, como observado na Figura 1.a para a Figura
1.b, e com o aumento do teor em carga a superfície dos bionanocompósitos tornaram-se ainda
mais regular, desaparecendo as marcas de prensagem, como ilustrado na Figura 1.b para a
Figura 1.c.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

553
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 - Microscopia Óptica com ampliação de 100X da superfície dos bionanocompósitos:


a. PHB; b. PHB1; c. PHB3, antes do teste de degradação hidrolítica.

O possível efeito implicado pela a adição e aumento no percentual de argila para as


composições PHB1 e PHB3, foi o desenvolvimento de melhor aspécto de superficie em
consequência de uma melhor estabilidade dimensional. Através de estudos realizados por
Leite et al. (2006), observou-se que a adição de argila em quantidades de 1%p a 5%p na
composição de nanocompósitos pode proporcionar melhores propriedades mecânicas,
térmicas, de barreira, retardância à chama e estabilidade dimensional.
Analisando as diferenças entre a Figura 2.a e Figura 2.b, pose-se observar, além de uma
superfície regular, um processo de degradação difuso na superfície das amostras, que
possivelmente foi decorrente de boa distribuição da argila na matriz. Porém, quando
comparado as superfícies do bionanocompósitos, Figura 2.b e Figura 2.c, é possível observar
que o sistema PHB3 apresentou regiões de manchas claras e opacas distintas. A ocorrência
deste efeito pode ter sido ocasionada pela pouca distribuição da argila na matriz polimérica
formando regiões mais afetadas pelo o processo de degradação hidrolítica.

Figura 2 - Microscopia Óptica com ampliação de 100X da superfície dos bionanocompósitos:


a. PHB; b. PHB1; c. PHB3, após 45 dias de exposição ao ambiente hidrolítico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

554
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Segundo um estudo realizado por Knowles e Hastings (1991), envolvendo a análise de


superfície de polímeros por microscopia óptica. Os autores confirmaram que o polímero se
degrada por rotas significativamente diferentes, dependendo do pH do meio circundante.
Soluções neutras e ácidas produzem uma degradação superficial mais difusa, enquanto a
solução alcalina mais agressiva, com locais específicos de ataque, produzindo pontos
profundos de erosão (regiões opacas) na superfície, o que povoca reflexão da luz com difusão
mais acentuadas, gerando regiões mais opacas.
Na Figura 3, pode-se observar a formação de sais cristalinos na superfície do sistema
polímero puro, PHB, que possivelmente pode conferir durante o envelhecimento em meio
hidrolítico ganho de massa para tempos específicos, além da redução na taxa de degradação.
No trabalho de Vanin et al. (2004), o mesmo comportamento foi observado.

Figura 3 - Formação de sais cristalinas na superfície do filme de PHB.

3.2 Teste de Degradação Hidrolítica in vitro

Para o processo de absorção hidrolítica, Figura 4, pode-se observar o ganho de massa


para todas as composições no período de 15 dias. A composição PHB(1), absorveu menos
solução (20,78%) comparado às composições PHB(P) e PHB(3), que absorveram 23,34% e
23,85, respectivamente. O bionanocompósito PHB1 absorveu menos solução, podendo ser
justificado pela propriedade de barreira atribuída a presença de argila. A possível explicação
para os sistemas PHB(P) e PHB(3) terem absorvido mais solução pode ser pela maior
capacidade de acesso da solução à fase amorfa na estrutura do polímero ou matriz, pois ela é
constituída de vazios gerados pelo processo de recristalização (Ayres, 2006).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

555
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 – Curvas de Absorção Hidrolítica de todos os sistemas.

No período de 30 dias observou-se novamente o aumento no percentual de absorção para


todas as composições, porém, o sistema PHB1 absorveu menos solução que as outras
composições (38,02%), o que torna evidente um comportamento sinérgico entre o
compatibilizante, matriz com o percentual de 1% em argila implicando como barreira e
evitando a difusão de solução tampão para o interior das amostras (Leite, 2010). A explicação
para o sistema PHB3 ter absorvido mais solução que o PHB (1), possivelmente é atribuída a
presença de aglomerados (visto em resultados anteriores), o que facilitou na absorção de
solução.
No quadragésimo quinto dia, os valores de absorção hidrolítica decrescem para todas as
três composições, como observado na Figura 4. O comportamento observado deve-se à última
etapa de degradação, a erosão, onde a fase amorfa da matriz sofre degradação significativa e
inicia-se a degradação da fase cristalina. A queda na taxa de absorção é ocasionada pela
predominância da fase cristalina, que por sua vez, oferece maior resistência ao processo de
difusão de solução (Ayres, 2006).
Na Figura 7 apresentam-se as curvas de perda de massa para todos os sistemas, onde
observou-se maior redução para o bionanocompósito PHB3 com queda em até 3,36% de sua
massa inicial, em seguida 1,54% para o polímero puro (PHB), e por fim 0,71% para o sistema
com 1% em argila, PHB1.

4.50
PHB
PHB1
3.75
PHB3
Perda de Massa (%)

3.00

2.25

1.50

0.75

0.00

0 15 30 45
Tempo (Dias)

Figura 5 - Curvas de perda de massa em porcentagem.

O sistema PHB1, apresentou comportamento estável em relação aos outros sistemas até o
trigésimo dia. Do trigésimo ao quadragésimo quinto dia houve um aumento na perda de massa
em torno 0,19%, enquanto o sistema PHB e o PHB3 perderam 1,06% e 2,35%,
respectivamente. O sistema PHB1 obteve menor perda de massa, apresentando maior
resistência ao processo de degradação. Este evento possivelmente deve-se a propriedade de
barreira imposta pela presença da argila, diminuindo a permeabilidade do polímero e
dificultado a difusão de solução tampão para o interior das amostras.
O sistema PHB3 perdeu maior percentual de massa até o final do teste, 3,36%. Durante o
processo de troca de solução, observou-se a flutuação de pequenas partículas, onde
supostamente pode ter ocorrido o desprendimento de matrial da superfície do biocompósito.
Uma eventual explicação para este efeito é a presença de glomerados e o inchamento
interlamelar possibilita maior área de contato entre a superfície da amostra com a solução,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

556
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

implicando em uma taxa de degradação da matriz mais veloz eliminando o suporte estrutural
da a argila organofílica. A deterioração deste suporte evidencia o desprendimento de
partículas na solução (Ayres, 2006).
O comportamento de perda de massa deve-se a redução da fase amorfa da matriz
polimérica, ocasionada por a fácil acessibilidade da solução tampão às cadeias poliméricas na
superfície dos sistemas estudados. Segundo estudos realizados por Malmonge (2017), esta
primeira etapa de degradação é caracterizada pela penetração e difusão de água nas regiões
amorfas do polímero e cisão hidrolítica das ligações ésteres das cadeias poliméricas, após essa
etapa, inicia-se o segundo estágio de degradação, no qual envolve a fase cristalina, pois com o
decorrer da degradação da fase amorfa ocorre simultaneamente um aumento percentual de
fase cristalina, em detrimento da redução de fase amorfa. Então a terceira e última etapa é
caracterizada pela a erosão do polímero, consequência da acentuada degradação da fase
cristalina.

3. CONCLUSÃO

Por meio da avaliação dos resultados de Microscopia Óptica, foi possível observar que a
superfície das amostras dos bionanocompósitos apresentaram melhor aspecto superficial e
homogeneidade, não sendo observado marcas de prensagem nos bionanocompósito,
possivelmente devido a presença da argila. A redução do percentual de absorção hidrolítica
apresentada por todos os sistemas bionanocompósitos após o 45º dia de exposição, deve-se a
etapa de erosão na superfície das amostras.
No teste de Degradação Hidrolítica, tanto as amostras do polímero puro (PHB) quanto os
sistemas bionanocompósitos PHB1 e PHB3 atingiram a etapa de erosão da fase polimérica. A
composição PHB1 apresentou maior estabilidade frente a perda de massa, reflexo da
resistência a difusão de solução na superfície das amostras, dificultando o processo de
hidrólise. Esta resistência pode ter sido ocasionada pelo efeito de barreira implicada pela
presença da carga. Sendo assim, através deste estudo, observou-se que a composição PHB1
apresentou maior estabilidade frente a perda de massa e a absorção hidrolítica e a composição
PHB3 apresentou maior taxa de degradação, possivelmente em resposta da presença de
aglomerados, que implicam em maior área de contato possibilitando maior zonas de acesso
para difusão de solução hidrolítica.

REFERENCES

Arrieta, MP et al. (2016). Biodegradable electrospun bionanocomposite fibers based on plasticized PLA–PHB
blends reinforced with cellulose nanocrystals. Industrial Crops and Products. 93: 290-301.
Ayres E. (2006). Poliuretanos e nanocompósitos biodegradáveis derivados de dispersões aquosas projetados
para aplicações biomédicas.
Bordes, P.; Pollet, E.; Averous. L. Nano-biocomposites: Biodegradable polyester/nanoclay systems: Progress in
Polymer Science. 2009; 34: 125–155.
Brandl H, Gross RA, Lenz RW; Fuller, R. C. (1990) Plastics from bacteria and for bacteria: poly (β-
hydroxyalkanoates) as natural, biocompatible, and biodegradable polyesters, Advanc. Biochem. Engineer.
Biotechnol. 141: 77-93.
Da Silva, LF et al. (2007). Produção Biotecnológica de Poli-hidroxialcanoatos para a Geração de Polímeros
Biodegradáveis no Brasil. Quim. Nova. 2007; XY(00): 1-12.
KNOWLES, J. C.; HASTINGS, G. W.(1991) In vitro degradation of a PHB/PHV copolymer and a new
technique fop monitoring early surface changes. Biomaterials. 12(2): 210-214.
Leite, IF et al. Efeito da incorporação de argilas organofílicas nas propriedades térmicas dos compósitos de PET.
Revista Eletrônica de Materiais e Processos. 2010, 5(3).
Lopez-Arenas, T et al. (2017). Analysis of the fermentation strategy and its impact on the economics of the
production process of PHB (polyhydroxybutyrate). COMPUTERS & CHEMICAL ENGINEERING.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

557
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Machado, M. LC et al. (2010). Estudo das propriedades mecânicas e térmicas do polímero poli-3-
hidroxibutirato (PHB) e de compósitos PHB/pó de madeira. Polímeros: Ciência e Tecnologia. 20(1).
Malmonge SM (2017). Estudo da Degradação Hidrolítica de Arcabouço Porosos de Poli(ε-Caprolactona)(PCL)
e Poli(Hidroxibutirato-co-Hidroxivalerato)(PHBV). São Bernardo do Campo, SP.
Nonato R, Mantelatto P, Rossell C. (2001). Integrated production of biodegradable plastic, sugar and ethanol.
Applied microbiology and biotechnology. 57(1-2): 1-5.
Park HW, Lee WK, Park CY, Cho WJ, Ha, C.-S; (2003) Environmentally friendly polymer hybrids Part I
mechanical, thermal, and barrier properties of thermoplastic starch/clay nanocomposites. Journal of
Materials Science. 38: 909–915.
Peixoto, Luciana De Souza (2012). Preparação de Compósitos e Nanocompósitos Poliméricos In Situ .Luciana
de Souza Peixoto – Rio de Janeiro: UFRJ/COPPE.
Rabello, MARCELO SILVEIRA (2000). Aditivos de Polímeros / Marcelo Silveira Rabello. São Paulo: Artliber
Editora.
Souza MA, Pessan, L. A.; Rodolfo, A. (2006). Nanocompósitos de poli(cloreto de vinila)(PVC)/argilas
organofílicas. Polímeros: Ciência e Tecnologia. 16(4): 257-262.
Steinbüchel A, Valentin HE. (1995) Diversity of bacterial polyhydroxyalkanoic acids. FEMS Microbiology
Letters. 128: 219 – 228.
Vanin M et al. (2004). Estudo da degradação in vitro de blendas de poli (beta-hidroxibutirato)(PHB)/poli (L-
ácido latico)(PLLA) na forma de filmes. Polímeros.

STUDY OF DEGRADATION BEHAVIOR IN HYDROLYTIC ENVIRONMENT OF


BIONANOCOMPOSITES BY IN VITRO METHOD

Abstract. Some polymers degrade by hydrolytic processes, generally resulting in low


molecular weight species that can be metabolized or bioabsorbed by the body. The human
physiological environment offers the right conditions for these hydrolytic processes, the
hydrolytic degradation test regulated by ASTM D1635 is of low cost, allowing evaluations of
the properties of the previous ones to the degradation process, under controlled temperature
and pH conditions. This work aimed to evaluate the hydrolytic degradation by the in vitro
method of biocomposites with polymeric matrix PHB (Polyhydroxybutyrate), bentonite clay
and compatible agent, PP-g-MA. The compositions were mixed by extrusion and the
specimens were coformed by hot pressing, the samples were also evaluated by Optical
Microscopy (MO) before and after the hydrolytic degradation tests Under optical microscopy,
more regular surfaces without press marks can be observed as a result of the addition of clay
and diffuse surface degradation of all compositions, especially PHB1. The PHB3 sample
showed a possible formation of clusters and compositions PHB1 and PHB3 reached the
erosion stage.

Keywords: Polyhydroxybutyrate, Hydrolytic degradation, In vitro, Bionanocomposites.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

558
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DA SUBSTITUIÇÃO DE UM ANEL DE VEDAÇÃO PTFE POR UM


ANEL DE BRONZE CuAl COM Sn SUPERFICIAL

Rangel de Paula Almeida1 – almeida.rangel95@gmail.com


Artur Camposo Pereira2 – camposo.artur@gmail.com
Lucas de Mendonça Neuba2 – lucasmneuba@gmail.com
Raí Felipe Pereira Junio2 – raivsjfelipe@hotmail.com
Leandro Anselmo da Silva3 – ansil30@hotmail.com
Alexandre Alvarenga Palmeira4 – alex.a.palmeira@gmail.com
Sergio Neves Monteiro2 – snevesmonteiro@gmail.com
1
Universidade Federal Fluminense, Escola de Engenharia Metalúrgica -Volta Redonda, RJ, Brasil.
2
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brasil.
3
Centro Universitário de Volta Redonda, MEMAT UniFOA - Volta Redonda, RJ, Brasil.
4
Universidade do Estado do Rio de Janeiro, Departamento de Mecânica e Energia UERJ - Resende, RJ,
Brasil.

Resumo. A seleção de materiais inadequados para certas aplicações pode levar a altos
prejuízos financeiros para uma empresa. O presente trabalho focou na solução de problema de
um material inapropiado empregado em um sistema de vedação de uma bomba de
deslocamento positivo. Tal material é conhecido como politetrafluoroetileno (PTFE) que foi
submetido sob condições de serviço de altas pressões e temperaturas levando a ocorrência de
diversas falhas. Nesse contexto, visando confeccionar um material de elevado custo benefício,
uma liga SAE 68D de bronze alumínio foi submetida a um tratamento termoquímico durante
diferentes períodos de 3, 4 e 5 horas com o intuito de introduzir o elemento químico estanho na
superfície através de um processo de difusão. Um ensaio de dureza por microidentação foi feito
como requerido pela norma NBR ISO 6508-1 para confirmar se ocorreu modificações nas
propriedades mecânicas ocasionadas pela presença de estanho na superfície do bronze CuAl.
Além disso, foi realizado uma avaliação desse material operando em condições de serviços de
alta temperatura e pressão no interior de um sistema de vedação através da coleta de dados.

Palavras-chave: PTFE, Estanho, Dureza, NBR ISO 6508-1.

1. INTRODUÇÃO

O presente trabalho buscou solucionar diversas falhas em uma bomba de deslocamento


positivo levando a uma parada indesejada em uma linha de produção resultando em prejuízo
muito alto. A razão das inúmeras falhas que ocorreram em períodos curtos foi devido a uma
seleção inadequada de um anel de vedação polimérico conhecido como politetrafluoroetileno
(PTFE) operando em sistema de vedação de uma bomba de deslocamento positivo sujeito a
altas pressões e temperaturas. Apesar de ser uma material com propriedades tribólogicas

559
favoravéis, em condições de serviço que exigem altas pressões e temperaturas, esse material
falha antes do seu tempo de vida útil recomendado. Em virtude disso, ligas de Babbit possuem
propriedades favoráveis incluindo boa adaptação a um desalinhamento entre eixos inicial e boas
propriedades antifricionais, dessa forma são extensivamente aplicados em componentes de
rolamento (Zhang D, et al., 2015; Zhang X, et al., 2019).
Ligas de Sn-Pb-Cu são frequentemente utilizadas em ambientes agressivos para aplicações
de engenharia como em máquinas rotativas e turbinas. A microestrutura dessas ligas contém
uma matriz de estanho dúctil com precipitados duros conferindo boa conformabilidade e
dureza (Dong Q, et al., 2018; Lashin AR, et al., 2013; Wei M, et al., 2018). Adicionalmente as
partículas duras tomam um importante papel de distribuir a carga submetida durante o serviço
(Zeren A, et al., 2007). Geralmente sob altas cargas e velocidades em operações de trabalho
quando altas temperaturas podem ocorrer, a performance mecânica é comprometida e sofre uma
redução na resistência e dureza (Zeren A, et al., 2007; El-Bediwi A, et al., 2011; Kamal M, et
al., 2009).
O nome Babbitt tem sido utilizado para outras ligas baseadas em ingredientes simillares. O
estanho (Sn), por sua vez, possui um baixo coeficiente de fricção que é a primeira condição a
se considerar para o uso como um material de rolamento. É estruturalmente fraco quando usado
para aplicações de rolamento, por essa razão cobre (Cu) e antimônio (Sb) são adicionados em
sua liga para conferir maior dureza, resistência á tração e à fadiga. Por ter uma boa resistência à
corrosão, baixo custo e excelentes propriedades friccionais o estanho é largamente utilizado
(Kamal M, et al., 2010; Stachoviak GW, et al., 2001).
Dessa forma, visando um custo benefício, uma liga de bronze alumínio CuAl foi submetida
a tratamento termoquímico onde ocorreu um processo de difusão de estanho na superfície da
liga. Em busca de verificar boas propriedades que conferem uma possibilidade de aplicação no
sistema de vedação foi realizado um ensaio de dureza por microidentação e posteriormente foi
coletado e monitorado as informações de como o material se comportou diante de altas pressões
e temperaturas em seu uso no sistema de vedação durante diversos meses.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

Para realização dos ensaios e caracterizações foram utilizados três anéis de bronze alumínio
SAE-68D. As amostras foram adquiridas nas seguintes dimensões: diâmetro interno 35,4 mm e
diâmetro externo 46,9 mm.
As amostras foram preparadas seguindo algumas etapas antes da realização do processo de
difusão. As amostras dos anéis de vedação foram divididos em quatro setores, com quatro
posições sendo, (a) borda externa, (b) centro, (c) borda interna, (d) e (e) corte transversal. A
técnica de marcação ajuda mapear cada área da amostra conforme Fig. 1, a seguir. O primeiro
digito é composto da letra “S” indicando o setor mais o número da partição e o segundo digito
identifica a posição do setor em relação a análise.

560
Figura 1– Amostra dividida em setores

Depois foi aplicado uma pasta nos anéis de bronze para retirar a película de óxido do
material e ajudar na aderência do estanho. As amostras foram colocadas em recipientes e
receberam camadas de estanho na parte inferior e superior. Para o tratamento termoquímico, foi
utilizado um forno elétrico da marca Mufla Quimis, o qual foi ligado uma hora antes do início
de inserção das amostras para homogeneização da temperatura. Após atingido a temperatura de
150 ºC, foram introduzidas todas as amostras no forno. A primeira amostra foi retirada do forno
em 3 horas, a segunda em 4 horas e a terceira e última em 5 horas de tratamento. Depois de 12
horas de resfriamento as amostra foram retiradas dos recipientes e removido o excesso de pó de
estanho. As amostras foram submetidas ao ensaio de Dureza Rockwell B e F conforme
recomendado pela norma NBR ISO 6508-1 de 2015, na execução do ensaio foi aplicado uma pré
carga de 10 Kg e uma carga de 100 Kg para o anel 1, para os anéis 2 e 3 foi utilizado uma carga
de 60 Kg. O equipamento utilizado no ensaio foi de marca Pantec, modelo rasn-rs com
penetrador aço temperado de Ф 1/16.Visando obter resultados estatisticamente confiáveis, foram
realizados 12 identações por anel.
Para monitoramento da temperatura e pressão dos anéis foram utilizados os transmissores
integrados no próprio processo. As informações de pressão e temperatura são transmitidas e
enviadas para o software de gerenciamento do processo. Esse sistema tem comunicação com os
equipamentos da planta de processo, em tempo real e sua função é monitorar e armazenar as
condições operacionais dos equipamentos.
Foram coletadas informações das pressões e das temperaturas diariamente no período de 12
meses, do PTFE. O mesmo procedimento foi adotado com o bronze após a substituição.

2.2 Resultados e Discussão

Normalmente os polímeros em baixas velocidades de deslizamento, desgastam por abrasão


devido à sujeira ou à rugosidade da superfície do eixo, outro fator de desvantagens do material é
sua baixa condutividade térmica (Hutchings IM, 1992; Neale MJ, 1995; Gahr KHZ, 1987;
Yamaguchi Y, 1990; Bento RE, 2011). Se polímeros são usados em altas velocidades, as
superfícies podem fundir. Existem três soluções para problemas térmicos: Primeira é operar com
baixa pressão de contato e baixa velocidade; Segunda é colocar um filme de metal no polímero
para aumentar a taxa de fluxo de calor; Terceira é selecionar um material que atenda aos
requisitos solicitados por uma aplicação. O material polimérico em contato provoca aumento da
temperatura causando desgaste por fusão devido à baixa condutividade térmica e podendo
agravar sua situação quando o mesmo opera em situações adversas onde as aplicações exigem

561
altas temperaturas e altas pressões (Derek ET, et al., 1990). Será apresentado na Fig. 2, o cenário
que o PTFE não suportava, uma pressão e temperatura média respectivamente de 115 ºC e 3019
psi.

Figura 2– Partes afetada da bomba.

Foram realizadas 5 medidas de identações, ponto 1 ao ponto 5, na face da amostra que


entrou em contato direto com o chumbo durante o experimento. Dessa forma buscou-se observa
a alteração de durezas. Na face da amostra que não entrou em contato direto com o chumbo
foram realizadas 7 medidas de identações, ponto 6 ao ponto 12, afim de se investigar uma
possível migração do chumbo para o interior da amostra, dessa forma, poderia ser possível
realizar a comparação entre a dureza observada nos pontos 1 ao 5. Foram realizadas identações
nos setores 1 a 5 e 6 a 12 conforme Fig. 2 visando a obtenção das durezas superficiais que
posteriormente seriam analisadas afim de se verificar a variação das mesmas.
Conforme explicito na Fig. 2, a parte mais afetada foi os anéis de PTFE do sistema de
vedação da bomba, totalizando 16 falhas. Sendo que 9 falhas foram registradas no ano de 2012 e
7 falhas registradas no ano de 2013.Essas falhas ocorreram aos longos dos 12 meses de cada ano
mencionado anteriormente.A indisponibilidade da bomba, ocasionada pelo sistema de vedação
gerou um custo para a unidade de produção de R$757.226,19. O referido custo global foi
coletado do sistema SAP R3, o custo detalhado não foi possível coletar, devido à não
disponibilidade a todos os usuários do sistema. Com base nas falhas ocorrida no sistema de
vedação da bomba nos anos de 2012 e 2013, observa-se que a durabilidade do sistema de
vedação está abaixo do estipulado pela norma API-674, listada na tabela 1, a seguir, que define
o tempo de vida útil dos anéis e gaxetas entre 4 e 12 meses para substituição, ao contrario do
ocorrido na realidade pelo sistema de vedação, que promoveu uma média de 3 substituições a
cada 4 meses em 2012 e 2 substituições a cada 4 meses em 2013. Essas informações coletadas
deixam evidente a necessidade de melhoria no sistema de vedação da bomba.

Tabela 1- Vida útil dos componentes API-674.

Itens Vida útil (meses)


Gaxetas - Anéis 4-12
Válvulas 9-24
Válvulas de assento 9-24
Êmbolos 12-36

562
A figura 3 aponta o acompanhamento das temperaturas e pressões sobre o polímero ao
longo de 12 meses, deixando evidente que a temperatura média atingida foi de 115 ºC e a
pressão média foi de 3.019 psi. Com base no exposto a variação da temperatura e pressão obtida
no sistema de vedação comprometeu a integridade do PTFE, levando a deformação do material.
Conforme Bento RE. (2011), o polímero e deixa claro, que o PTFE, sob uma temperatura de 23
ºC e carga de 500 à 2.000 psi, sofre deformação.

Figura 3- Temperatura e pressões coletadas do PTFE em 2012.

Na figura 4 é exposto a transição dos materiais, onde PTFE ficou como parte integrante do
sistema de vedação até agosto de 2013, nesse período foi registrado a temperatura mínima de
100 ºC e máxima de 116 ºC. As pressões também variaram entre 2.913 psi e 3.022 psi. Em
setembro de 2013 o anel de bronze tratado termoquimicamente no período de 5 horas com
estanho foi instalado no sistema de vedação da bomba alternativa. A temperatura e pressão
mínima ficaram em torno de 90 ºC e 2.813 psi, a temperatura e a pressão máxima atingiram 113
ºC e 3.073 psi. No mês de junho e novembro não foram registrados temperatura e pressão, pois o
equipamento estava fora de operação.

Figura 4- Temperatura e pressões coletadas do PTFE versus Bronze 2013.

Os resultados de 2014 obtidos do bronze tratado por 5 horas, destacando o monitoramento


das temperaturas e pressões são mostrados na Fig. 5. A temperatura e pressão média com a
instalação do anel bronze tratado foram de 94ºC e 2.925 psi, diferente do apresentado pelo PTFE
em 2012 a temperatura e pressão media ficaram em torno de 116 ºC e 3.016 psi. O bronze
comportou positivamente, pois apresentou uma reação diferente do polímero, não deformou sob

563
altas pressões e temperaturas, colaborando no processo de dissipação de calor no interior do
sistema de vedação.
O bronze possui características favoráveis para o ambiente exigido, como: boa capacidade
de manter sua característica em altas e baixas temperaturas, resistente a abrasão, resistentes
tensões cíclicas ou alternadas e ótimas qualidades anti-fricção (Derek ET, et al., 1990). Esses
resultados explicam o desempenho positivo do material na redução da temperatura dentro da
caixa de vedação da bomba, evitando possíveis falhas.

Temp.Média

Figura 5- Temperaturas e Pressões coletadas do bronze em 2014.

É exposto a média das durezas dos anéis de bronze na figura 6. No anel 1 o período de
tratamento foi de três horas, nos anéis 2 e 3 o período de tratamento foram respectivamente
quatro horas e cinco horas. A dureza do anel 1 foi superior em relação aos anéis 2 e 3, essa
dureza é justificada pelo curto tempo de tratamento termoquímico no anel. Observa-se que os
anéis 2 e 3 ficaram aproximadamente 90% mais macios que o anel 1, isso foi devido a maior
concentração do estanho na superfície dos mesmos, conforme descrito a seguir.

Figura 6- Dureza Rockwell para os tempos de 3, 4 e 5 horas.

564
Tabela 2- Dureza Rockwell em diferentes setores dos 4 anéis de vedação.

Dureza Rockwell
Amostras Setor 1 Setor 2 Setor 3 Setor 4
Original 94 93 94 94
Anel 1 t: 3h 96 97 95 93
Anel 2 t: 4h 8 14 8 8
Anel 3 t: 5h 15 11 14 14

Diante disso o fator econômico foi o ponto crucial para o processo de substituição dos
anéis do sistema de vedação da bomba, pois além do aumento de disponibilidade,
proporcionou redução de custo. A tabela 3, a seguir, lista o histórico anual da bomba,
exibindo um comparativo da situação antes e após a instalação do anel de bronze.

Tabela 2: Produtividade e custo de manutenção.

Indisponibi TMEF
Disponibili Fal Custo
Ano lidade (dias)
dade(dias) ha (Reais)
(dias)
2012 165 - 18 9 517.258,48
2013 215 - 30 7 239.967,1
2014 300 - - 0 -
757.226,19

Em 2012 quando o sistema de vedação era composto pelo PTFE, a taxa de


indisponibilidade da bomba era de 195 dias, com um TMEF de 18 dias, nesse período a
bomba gerou um custo de R$ 517,258,71 referente as falhas ocorridas no sistema de vedação.
Em setembro de 2013 o anel de bronze tratado com estanho foi instalado, nesse período é
observado que houve uma redução da taxa de indisponibilidade para 145 dias com um tempo
médio entre falhas de 30 dias. Nesse ano foi registrado um custo de manutenção de R$
239.967,71, devido a bomba ter operando com o PTFE de janeiro a agosto gerando 7 falhas
no sistema de vedação. Em 2014 a bomba operou de janeiro a outubro sem registra falhas no
sistema de vedação, com isso comprova-se a eficiência do anel de bronze em relação ao anel
PTFE.

3. CONCLUSÃO

Após as análises realizadas, conclui-se que o presente estudo demonstrou ser eficaz para
avaliar as falhas provocadas pelo o anel de polímero no sistema de vedação. O PTFE quando
operava em pressões e temperaturas altas, sofria deformações. Essas deformações geradas
pela alta temperatura proporcionavam perda de materiais quando o mesmo estava em contato
com o pistão da bomba. As perdas de material e a deformação levou o polímero alcançar altos
níveis de temperatura, provocando a fusão do PTFE.
Com a instalação do anel 3 os resultados foram positivos, o material obteve bom
desempenho durante as altas pressões e temperaturas. O bronze durante a operação não sofreu
deformações sob altas pressões e temperaturas, devido possuir característica positiva como:
boa resistência mecânica, baixo coeficiente de fricção contra aço, resistência à fadiga e
dissipação de calor.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

565
Além disso, os resultados de Dureza Rockwell comprovaram que ocorreu uma
diminuição na dureza superficial em mais de 90% quando comparado aos valores adquiridos
para uma amostra do mesmo anel de vedação sem tratamento.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj, ao


departamento de Ciência dos Materiais do IME, ao departamento de mestrado em Engenharia
Metalúrgica da UFF e ao departamento de mestrado profissional em Ciência dos Materiais da
UniFOA.

REFERENCES

Bento RE. (2011), Estudo do comportamento da resina base na formulação de compósitos de


politetrafluoretileno com bronze. Campinas, SP.
Derek ET, Bleker WT. (1990), Introduction to Copper and Copper Alloys, ASM, Metals Handbook.
Dong Q, Yin Z, Li H, Zhang X, Jiang D, Zhong N. (2018), Effects of Ag micro-addition on structure and
mechanical properties of Sn-11Sb-6Cu Babbitt. Materials Science and Engineering: A. 722:225–30
El-Bediwi A, Lashin AR, Mossa M, Kamal M. (2011), Materials Science and Engineering: A. 5(28):3568–72.
Gahr KHZ. (1987), Microstruture and Wear of Materials. Tribology Series.Elsevier Science Publishers. 437-447.
Hutchings IM. (1992), Tribology: Friction and Wear of Engineering Materials. Cambridge: Butterworth
Heinemann.
Kamal M, El-BediwI A, El-Shobaki MR. (2009), Heat Treat. Surf. Eng., Romania. 9(2):42.
Kamal M, Issa A,.Yousfan MA. (2010), Heat Treat. Surf. Eng., Romania. 9(3):41
Lashin AR, Mossa M, El-Bediwi A, Kamal M. (2013), Study of some physical properties of the rapidly
solidified Sn-Sb-Cu-Zn alloys. Materials & Design. 43:322–6.
Neale, MJ. (1995), The Tribology Handbook. Edição(2a) Butterworth – Heinemann.
Stachoviak GW, Batchelor AW. (2001), Engineering Tribology. Edição(3a). EUA: Butterworth Heinemann.
Wei M, Sun K, Zhang X, Zhang C, Chen Z, Zhou J, Xue F. J. (2018), Adhes. Sci. Tech. 32:2150–61.
Yamaguchi Y. (1990), Tribology of Plastic Materials: Their Characteristics and Applications to Sliding
Components. New York: Elsevier Science Publishers.
Zeren A, Feyzullahoglu E, Zeren M. (2007), A study on tribological behaviour of tin-based bearing material in
dry sliding. Materials &Design. 28(1):318–23.
Zhang D, Ho JKL, Dong G, Zhang H, Hua M. (2015), Tribological properties of Thin-based Babbitt bearing
alloy with polyurethane coating under dry and starved lubrification conditions. Tribology International.
90:22-31.
Zhang X, Yin Z, Dong Q. (2019), An experimental study of axial misalignment effect on seixure load of jornal
bearings. Tribology International. 13:476-487.

EVALUTION OF THE SUBSTITUTION OF A PTFE SEALING RING FOR A


BRONZE CuAl WITH COATED SUPERFICAL Sn SEAL RING.

Abstract. The selection of inappropriate materials for certains applications can lead to a high
financial loss for a company. The present work focused on solving a problem of inappropriate
material used in a sealing system of positive displacement pump. Such material is known as
polytetrafluoroethylene (PTFE) which was subjected to a working condition of high pressures
and temperatures leading to several ruptures. In this context, aiming to produce a new
material with high cost benefit, a bronze aluminum SAE 68D was subjected to a
thermochemical treatment process for different periods of time of 3, 4 and 5 hours in order to
introduce tin (Sn) by a diffusion process. A Hardness microidentation test has been done as
required by NBR ISO 6508-1 in order to confirm the mechanical properties modification
made by atoms of Sn presents on the surface of bronze. Besides an evaluation of the CuAl
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

566
bronze coated with Sn operating in working conditions of high pressures and temperatures
inside the sealing system was made by means of data collection.

Keywords: PTFE, Tin, Hardness microidentation, NBR ISO 6508-1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

567
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE TÉRMICA POR CALORIMETRIA DIFERENCIAL DE VARREDURA


(DSC) DAS FIBRAS DE JUNCO-SETE-ILHAS E COMPÓSITOS EPOXÍDICOS
REFORÇADOS COM FIBRAS DE JUNCO-SETE-ILHAS

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Artur Camposo Pereira1 – camposo.artur@gmail.com
Rangel de Paula Almeida2 – almeida.rangel95@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brasil.
2
Universidade Federal Fluminense, Escola de Engenharia Metalúrgica -Volta Redonda, RJ, Brasil.

Resumo. Nos anos recentes, o interesse no desenvolvimento de compósitos reforçados com


materiais renováveis cresceu tremendamente devido a interesses sociais relativos a produtos
que causam menor impacto ambiental. Fibras naturais lignocelulósicas são amplamente
usadas como reforço em compósitos de matriz polimérica e quando comparados a fibras
inorgânicas, como vidro e carbono, as fibras naturais apresentam baixo custo, são leves e
possuem maiores resistências à tração e flexão específicas. O presente trabalho foi dedicado
a análise de uma fibra lignocelulósica cientificamente nova em termos de estudo para um
possível novo material de engenharia conhecida como junco-sete-ilhas no brasil onde é
exclusivamente cultivada na região do Vale do Ribeira, São Paulo. Se preocupando em
conhecer seu comportamento em altas temperaturas da fibra natural foi realizado uma
análise de calorimetria diferencial de varredura (DSC), além de analisar compósitos
reforçados com 10, 20 e 30% de fração volumétrica.

Palavras-chave: Fibra lignocelulósica, Junco-sete-ilhas, Compósito, DSC.

1. INTRODUÇÃO

Nos últimos anos, o interesse em compósitos baseados em materiais renováveis


cresceu tremendamente devido a questões sociais relacionadas a solicitações para o baixo
impacto ambiental, baixa necessidade de manutenção, produtos de alta durabilidade e alta
durabilidade aos raios ultravioletas (UV) (Starl & Matuana, 2004; Heydy, 1998; Espert et
al., 2003; Cui et al., 2008). Por essa razão, fibras naturais a base de celulose como,
cânhamo, sisal, rami, juta e diversas outras atraíram muita atenção por causa das suas

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

568
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

propriedades especiais (Ishak et al., 2013; kabir et al., 2012; Saw et al., 2011; Zhou et al.,
2014) .
As fibras naturais lignocelulósicas (FNLs) são amplamente utilizadas como fase
reforço em matrizes poliméricas, pois quando comparados às fibras inorgânicas
tradicionais, como vidro e carbono, são baratos e com um peso leve, possuem resistência
específica à tração e um módulo de elasticidade específico relativamente altos e são
biodegradáveis. (Zhou et al., 2012; Pietak et al. 2007; Ho et al., 2012)
No entanto, as principais desvantagens das fibras naturais estão presentes na sua
incompatibilidade polar com matrizes poliméricas não polares gerando uma adesão
interfacial ruim entre as fases reforço e matriz. Sua absorção de umidade, devido a sua
característica hidrofílica e suas instabilidades térmicas das fibras naturais durante o
processamento dos compósitos que geralmente ocorrem em altas temperaturas (Tajvidi et
al., 2006). Portanto, uma grande limitação frequentemente encontrada ao usar fibras
naturais como reforço em uma matriz polimérica é a degradação térmica. Essas fibras são
compostas principalmente por celulose, hemiceluloses e lignina que exibem diferentes
perfis de degradação. Análises termogravimétricas de celulose, hemicelulose e lignina sob
vácuo mostraram que lignina é a mais resistente térmicamente, a celulose possui uma
resistênica intermediária e a hemicelulose é a menos estável. (Ramiah et al., 1970)
A degradação das fibras durante o processamento pode ter um efeito desfavorável
sobre as propriedades mecânicas dos compósitos principalmente por dois motivos: altera a
estrutura da fibra com um impacto negativo em sua propriedades mecânicas e os produtos
voláteis da degradação geralmente criam microvazios na interface que atuam como falhas
críticas e levam a um deslocamento extensivo e falha do material em serviço. A degradação
térmica é também um aspecto crucial no desenvolvimento de fibras naturais compósitos,
uma vez que afetará fortemente a temperatura máxima usada no processamento dos
compósitos. Sendo assim, A degradação das fibras naturais leva a deterioração de suas
propriedades mecânicas. (Renneckar et al., 2004).
Diversa fibras naturais podem ser empregadas como reforço em compósitos de
matriz polimérica, pois diferentes fibras naturais são compostas de diferentes porcentagens
de constituintes, sendo assim seus perfis de decomposição térmica não seriam os mesmos.
Em virtude disso, o presente trabalho, busca avaliar a estabilidade térmica de uma fibra
extraída da planta de junco-sete-ilhas, sendo uma planta originária do japão e cultivada no
Brasil na cidade de Registro na região do vale do Ribeira. (Hiroce et al., 1988)
Essa planta é desconhecida cientificamente em relação a conhecimentos de interesse
de uma possível aplicação como um material de engenharia. Dessa forma, a resposta
térmica das fibras de junco-sete-ilhas e compósitos incoporando essas fibras em diferentes
frações volumétricas correspondentes a 10, 20 e 30% v/v em matrizes epóxidicas foram
avaliadas por uma análise calorimetria diferencial de temperatura.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

As fibras foram extraídas de uma esteira de junco-sete-ilhas adquiridas por meio da


empresa Artevale, foram utilizadas “in natura” e estavam na forma de caule, por isso foram
limpas, desfiadas e cortadas em um comprimento equivalente a 150 mm e secas em estufa a
70 °C por 24h com a finalidade de se retirar a umidade presente. Além disso, essas fibras não
sofreram nenhum tipo de tratamento químico em suas superfícies.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

569
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para a fabricação dos compósitos foi utilizada uma matriz metálica possuindo dimensão
de 15 x 12 x 1,19 cm, com um volume interno correspondente a 214,2 cm³. Sendo as placas
confeccionadas em uma prensa SKAY de 30 toneladas, aplicando uma carga de 5 toneladas
durante 24 horas. Uma camada de graxa de silicone foi adicionada em toda a superfície da
matriz de modo a evitar uma elevada aderência da placa na matriz e facilitar a retirada. O
valor da densidade da resina epóxi foi baseado em dados disponíveis na literatura,
considerando um valor de 1,1 g/cm³ (Callister & Rethiwishc, 2016). A resina, fornecida pela
distribuidora RESINPOXY Ltda foi endurecida utilizando o catalisador Trietileno Tetramina
(TETA), adotando a proporção estequiométrica de 13 partes de endurecedor para 100 partes
da resina. As fibras foram inseridas manualmente na matriz, alinhadas e distribuídas
uniformemente pelo molde após serem molhadas com a resina. Sendo divididos em três
grupos diferentes baseados no seu percentual de 10, 20 e 30% em volume.
Pela definição da norma ASTM E473-04, a calorimetria de varredura diferencial (DSC)
é uma técnica na qual a diferença da taxa de fluxo de calor entre uma substância e um
material referencial é medido, por sua vez, é uma função da temperatura enquanto a
substância e o referencial são submetidos a uma temperatura controlada e programada.
Nenhum medidor de fluxo de calor é necessário para medir o calor que entra ou sai da
amostra. Isto pode ser feito se tivermos uma referência além da amostra e a diferença de
temperatura deles for monitorada continuamente. No estado estacionário, essa diferença de
temperatura é proporcional à capacidade de calor da amostra e ao calor que flui para dentro ou
para fora da amostra. (Menczel et al., 2020)
Para a análise de calorimetria diferencial de varredursa (DSC) as amostras de fibra de
junco-sete-ilhas foram cominuídas e inseridas em um cadinho de alumínio, o mesmo
procedimento foi feito para as amostras de epóxi puro e compósitos epóxidicos com
diferentes percentuais de fibra de 10, 20 e 30% v/v, sendo um total de 5 amostras. As
condições de operação envolveram uma atmosfera de nitrogênio com taxas de aquecimento de
10 °C/min com um intervalo de 30 a 600 °C, as amostras foram ensaiadas no Instituto de
Pesquisas da Marinha (IPQM) utilizando o equipamento DSC-60 da Shimadzu. Os
parâmetros estabelecidos para o ensaio foram as temperaturas entre 25 °C e 250 °C, com uma
vazão de gás de 50 ml/min, taxa de aquecimento de 10 °C/min em atmosfera de Nitrogênio.

2.2 Resultados e Discussão

O gráfico da Fig. 1 exibe o fluxo de calor versus a temperatura para a análise de DSC da
fibra de junco-sete-ilhas submetidas a uma taxa de aquecimento de 10 °C/ min.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

570
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Curva DSC da fibra de junco-sete-ilhas.

O pico endotérmico em 97,4°C está associado ao aquecimento e perda de umidade


presente das fibras de junco-sete-ilhas (Martin et al., 2009). O aumento do fluxo de calor em
torno da temperatura de 250°C possivelmente está relacionado com a presença de um pico
exotérmico responsável por gerar maior perda de massa do junco-sete-ilhas iniciando na faixa
de 255°C , conforme foi observado pela análise termogravimétrica. A Fig. 2, demonstra o
comportamento da resina epóxi DGEBA/TETA e os compósitos epoxídicos reforçados com
10, 20 e 30% em volume de fibras de junco-sete ilhas que foram submetidos ao ensaio de
DSC com uma taxa de aquecimento equivalente a 10°C/min.
A curva para a resina epóxi apresenta um pico de caráter endotérmico em 81,1°C sendo
associado com a temperatura de transição vítrea (Tg) (Canevarolo, 2003; Lucas et al., 2001).
Em relação as curvas que representam os compósitos podem ser observados picos
endotérmicos variando entre 66,8 e 81,1°C, possivelmente associado com a temperatura de Tg
e picos exotérmicos são observados. Entre as temperaturas de 119 e 122°C podendo ser
relacionado ao início de degradação dos componentes estruturais da fibra de junco-sete-ilhas,
entretanto se encontram em divergência os valores encontrados na literatura (Monteiro et al.,
2012).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

571
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Curva DSC para resina epóxi DGEBA/TETA e os compósitos epoxídicos


reforçados com 10, 20 e 30%v/v de fibras de junco-sete-ilhas.

3. CONCLUSÃO

Através das análises de DSC das fibras de junco-sete-ilhas foi possível descobrir um dado
importante referente a faixa de temperatura em que o pico endotérmico relacionado a perda de
umidade presente nas superfícies dessa fibra se encontra. Além disso, essa temperatura
encontrada está em conformidade com o esperado para fibras naturais lignocelulósicas na
literatura.
Ademais, foi possível obter uma avaliação das faixas de temperatura em que os picos
endotérmicos aparecem para os compósitos epoxídicos reforçados com junco-sete-ilhas,
evidenciando que essa faixa de temperatura não possui uma variação muito grande em torno
de 66,8 a 81,1°C. Confirmando a perda de umidade presente nas superfícies das fibras
incorporadas na matriz de epóxi. Em relação ao pico endotérmico de 81,1°C presente na
resina epóxi DGEBA pura está diretamente relacionado com a temperatura de transição vítrea
(Tg), conforme é encontrado em outros estudos presentes na literatura.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao departamento de Ciência dos Materiais do IME e ao Instituto de Pesquisas da Marinha
(IPQM).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

572
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS
Callister, WD. & Rethiwisch, DG. (2016). Materials science and engineering: An Introduction. Edição (9).
New York: John wiley & Sons.
Canevarolo JR, S V. (2003). Livro: Técnicas de caracterização de polímeros –Câmara brasileira do livro.
São Paulo: Editora Artliber,
Cui YH, Tao J, Noruziaan B, Cheung M, & Lee S. (2008). DSC Analysis and Mechanical Properties of
Wood—Plastic Composites. Journal of Reinforced Plastics and Composites, 29(2), 278–289.
Espert A, Camacho W and Karlson S. (2003). Thermal and Thermo-mechanical Properties of
Biocomposites Made from Modified Recycled Cellulose and Recycled Polypropylene. Journal of Applied
Polymer Science, 89, 2353–2360.
Heydy, M. (1998). Ecological Considerations on the Use and Production of Biosynthetic and Synthetic
Biodegradable Polymers. Polymer Degradation Stability, 59, 3–6.
Ho MP, Wang H, & Lau KT. (2012). Effect of degumming time on silkworm silk fibre for biodegradable
polymer composites, Applied Surface Science, 258(8), 3948–3955.
Hiroce R, Benatti JR, Feitosa CT. (1988). Estudos nutricionais em junco: adubação e calagem. Bragantia.,
47(2), 313-323.
Ishak MR, Sapuan SM, Leman Z, Rahman MZA, Anwar UMK, Siregar JP. Sugar palm (Arenga pinnata):
its fibres, polymers and composites. Carbohydrate Polymers. (2013);91:699–710.
Kabir MM, Wang H, Lau KT, & Cardona, F. (2012). Chemical treatments on plant-based natural fibre
reinforced polymer composites: an overview. Composites Part B, 43(7), 2883–2892.
Lucas EF, Soares BG, Monteiro E. (2001). Caracterização de polímeros. Rio de Janeiro: e-papers.
Martin AR, Martins MA, Mattoso, LHC, Silva, ORRF. (2009). Caracterização química e estrutural de fibra
de sisal da variedade agave sisalana. Polímeros: Ciência e Tecnologia, 19(1), 40-46.
Menczel JD, & Kohl WS. (2020). Differential scanning calorimetry (DSC) in fiber research. Thermal
Analysis of Textiles and Fibers, 17–69.
Monteiro SN, Calado V, Margem FM, Rodriguez RJS. (2012). Thermogravimetric stability behavior of less
common lignocellulosic fibers - A review. Journal of Materials Research and Technology. 1(3), 189-199.
Pietak A, Korte S, Tan E, Downard A, Staiger MP. (2007). Atomic force microscopy characterization of
the surface wettability of natural fibres, Appl. Surf. Sci, 253(7), 3627–3635.
Ramiah, MV. (1970). Thermogravimetric and Differential Thermal Analysis of Cellulose, Hemicellulose
and Lignin. Journal of Applied Polymer Science, 14, 1323–1328.
Renneckar S, Sharp ZAG., Ward TC, & Glasser WG. (2004). Compositional Analysis of Thermoplastic
Wood Composites by TGA. Journal of Applied Polymer Science, 93, 1484–1492.
Saw SK, Sarkhel, G, & Choudhury A. (2011). Surface modification of coir fibre involving oxidation
oflignins followed by reaction with furfuryl alcohol: characterization and stability, Applied Surface Science,
257(8), 3763–3769.
Stark, NM & Matuana, LM. (2004). Surface Chemistry and Mechanical Property Changes of Wood
Flour/High Density Polyethylene Composites after Accelerated Weathering. Journal of Applied Polymer
Science, 94, 2263–2273.
Tajvidi M, Najafi, KS. & Moteei, N. (2006). Long-term Water Uptake Behavior of Natural
Fiber/Polypropylene Composites. Journal of Applied Polymer Science, 99, 2199–2203.
Zhou F, Cheng G, & Jiang B. (2014). Effect of silane treatment on microstructure of sisal fibers. Applied
Surface Science, 292, 806–812.
Zhou Z, Wang J, Huang X, Zhang L, Moyo S, Sun S, & Qiu Y. (2012). Influence of absorbed moisture on
surface hydrophobization of ethanol pretreated and plasma treated ramie fibers, Applied Surface Science,
258(10), 4411–4416.

THERMAL ANALYSIS OF SEVEN-ISLANDS-SEDGE FIBERS AND EPOXY


MATRIX COMPOSITES REINFORCED WITH SEVEN-ISLANDS-SEDGE FIBERS

Abstract. In recent years, the interest of developing composites reinforced with renewable
materials has grown tremendously since social requests demands products that cause low
environmental impact. Natural lignocellulosic fibers are extensive used as a reinforce for
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

573
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

matrix polymeric composites and when compared to inorganic fibers such as carbon and
glass, the natural fibers presents low cost, low weight and have higher specific tensile
strenght and flexural strenght. The present work have been dedicate to analyze a scientifically
new ligocellulosic fiber for engineering aplications known as seven-islands-sedge in Brazil
where it has an exclusive cultivation in the region of Vale do Ribeira, São Paulo. Concerning
to discover how it behaves in high temperatures the natrual fiber was subjected to an
differential scanning calorimetry (DSC) analysis , besides composites reinforced with 10, 20
an 30% of volumetric fractions of this fiber were also analysed.

Keywords: Lignocellulosic fiber, Seven-islands-sedge, composite, TGA.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

574
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS PARCIAIS


FRACIONÁRIAS TEMPORAIS E ESPACIAIS

William Júnio de Lima1 - william.lima@ufu.br


Fran Sérgio Lobato2 - fslobato@ufu.br
1 Instituto de Fı́sica
2
Faculdade de Engenharia Quı́mica
1,2
Universidade Federal de Uberlândia - Uberlândia, MG, Brasil

Resumo. Este trabalho tem por objetivo apresentar uma metodologia sistemática para a
resolução numérica de Equações Diferenciais Parciais Fracionárias usando a aproximação
da derivada fracionária e o Método da Colocação Ortogonal. Em linhas gerais, o termo
diferencial fracionário é substituı́do por uma aproximação numérica que leva em consideração
a ordem diferencial e o número de pontos de colocação. A metodologia proposta é validada com
a resolução de dois estudos de caso que possuem aplicações em diversas áreas do conhecimento
e que apresentam solução analı́tica. Os resultados obtidos demonstram que a abordagem
proposta configura-se uma boa alternativa para a resolução desta classe de problemas.

Keywords: Equação Diferencial Parcial Fracionária, Aproximação Numérica, Método da


Colocação Ortogonal.

1. Introdução

Diversas áreas do conhecimento tais como Biologia, Economia, Fı́sica e Engenharia fazem
uso de equações diferenciais parciais para representar os fenômenos observados na natureza,
dentre as quais pode-se citar as equações de um oscilador harmônico clássico, da difusão de
calor, de onda, de movimento das cargas em circuitos elétricos, de escoamento de fluidos, entre
outras aplicações (Nussenzveig, 2013).
Nas últimas décadas, para a modelagem destes sistemas tem-se empregado o uso de
equações diferencias fracionárias (EDFs). O interesse pelo estudo deste tipo de equacionamento
se deve à necessidade do desenvolvimento de modelos que sejam capazes de capturar as mais
variadas contribuições que podem ser observadas quando se estuda um determinado fenômeno.
No contexto fracionário parcial, inúmeras aplicações podem ser encontradas, tais como estudos
de caso em quı́mica (Kirchner et al., 2000), finança (Sabatelli et al., 2002), hidrologia (Schumer

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

575
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

et al., 2003), biologia (Magin, 2006), difusão anômala (Zhang et al., 2017), advecção-dispersão
(Yuan, 2016; Zhang, 2018; Li & Rui, 2018), estudo de efeitos relacionados com atraso no tempo
e com efeito de memória (Oliveira & Machado, 2014), entre outras. No campo da fı́sica, um
dos primeiros no contexto fracionário é a representação do movimento Browniano (Mandelbrot,
1982). Além disso, também observa-se aplicações como a Equação de Schrödinger Fracionária
(Laskin, 2017) e a Equação de Calor Fracionária (Zhang et al., 2014).
O Cálculo fracionário pode ser usado de modo a tornar o tradicional cálculo diferencial
e integral mais abrangente, proposto de forma independente por Isaac Newton e Leibniz
(Oliveira & Machado, 2014). Diversos trabalhos encontrados na literatura dissertam sobre a
linha do tempo do desenvolvimento do Cálculo fracionário (Camargo & Oliveira, 2015), o
desenvolvimento de algumas técnicas para analisar modelos fı́sicos (Mainardi, 2001, 1996;
Gomes et al., 2016), bem como algumas aplicações(Rodrigues & Oliveira, 2015; Andrade
et al., 2016). É importante enfatizar que, do ponto de vista matemático, resolver um EDF
ordinária ou parcial representa uma tarefa desafiadora, dada a sua generalização em relação as
equações diferenciais com ordem inteira (Mainardi, 2001, 1996; Gomes et al., 2016; Rodrigues
& Oliveira, 2015).
Diante do que foi apresentado, este trabalho tem como objetivo empregar a aproximação de
derivada fracionária de Riemann-Liouville em conjunto com o Método da Colocação Ortogonal
(MCO) para a resolução de Equações Diferenciais Parciais Fracionárias (EDPFs) espaciais e
temporais. Este trabalho esta estruturado como segue. A Seção 2. apresenta os problemas de
interesse. Já na Seção 3. apresenta a descrição da metodologia considerada neste trabalho. Os
resultados obtidos com a aplicação desta abordagem em dois estudos de caso são apresentados
na Seção 4. As conclusões são apresentadas na última seção.

2. MODELAGEM MATEMÁTICA DOS PROBLEMAS DE INTERESSE

Conforme descrito anteriormente, o presente trabalho objetiva resolver EDPFs no espaço


e no tempo. De forma geral, este modelo parcial em relação ao tempo e ao espaço pode ser
descrito como segue:

∂ α ϕ(x, t) ∂ β ϕ(x, t) ∂ γ ϕ(x, t)


D + ν = ζ (1)
∂xα ∂xβ ∂tγ
em que %(x, t) é a variável dependente, x e t são variáveis independentes espacial e temporal,
respectivamente, F é uma função que define a condição inicial, D, ν e ζ são os coeficientes
que, no caso da difusão, representam os efeitos de propagação, atenuação e acúmulo,
respectivamente. α, β e γ representam as ordens fracionárias relacionados ao modelo sendo
que, 1 < α ≤ 2, 0 < β ≤ 1 e 1 < γ ≤ 2.
Particularmente, tem-se o interesse nos seguintes modelos particulares (temporal e espacial)
(Kreyszig , 2011):

∂ 2 ρ(x, t) ∂ α ρ(x, t)

∂ρ(x, t)
D + ν =


∂x2 ∂x ∂tα




∂ρ

ρ(x, 0) = P (x), (x, 0) = 0, 0 < x < L (2)


 ∂t
 ∂ρ(0, t) = 0, ∂ρ(L, t) = 0



∂x ∂x

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

576
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e
 α β
 ∂ %(x, t) + ν ∂ %(x, t) = ∂%(x, t)

α D ∂xβ
 ∂x ∂t



%(x, 0) = P (x), 0 < x < L (3)


 ∂%(0, t) = 0, ∂%(L, t) = 0



∂x ∂x
em que ρ e % são variáveis dependentes, L é o comprimento máximo relacionado a variável
espacial x.

3. METODOLOGIA

Para a resolução dos modelos descritos será considerado a extensão do MCO para o contexto
fracionário. Inicialmente será apresentada uma breve revisão sobre o MCO para o contexto
inteiro (Villadsen & Michelsen, 1978).

3.1 MCO para Ordem Inteira

O MCO consiste em definir uma função, geralmente um polinômio, para aproximar a


solução em determinados pontos do domı́nio de interesse, denominados de pontos de colocação.
Nestes pontos, a solução aproximada coincide com a equação original, bem como satisfaz as
condições inicial e de contorno. Geralmente, o Polinômio de Lagrange é a função escolhida,
uma vez que este possibilita a redução do custo computacional associado a necessidade de
obtenção de derivadas em relação a outros tipos de aproximações, e suas raı́zes são escolhidas
como pontos de colocação por reduzir naturalmente os pontos de discretização, i.e., reduzir
a dimensão do problema a ser resolvido (Villadsen & Michelsen, 1978; Larangeira & Pinto,
2001).
A seguir são apresentadas as etapas básicas para a aplicação do MCO empregado para a
resolução de equações diferenciais parciais com ordem inteira (Larangeira & Pinto, 2001):

• Definir os parâmetros de entrada: domı́nio do problema, função peso para a determinação


do polinômio ortogonal, grau N da aproximação (o polinômio tem N +1 coeficientes);

• Calcular o polinômio ortogonal de grau N +1−N CC, onde N CC é o número de


condições de contorno que precisam ser satisfeitas;

• Calcular as N +1−N CC raı́zes (pontos de colocação) do polinômio ortogonal;

• Determinar as equações (resı́duo nos pontos de colocação) e as equações derivadas das


condições de contorno;

• Resolver o sistema de equações resultantes;

• Verificar se a solução obtida não é modificada com o aumento do grau da aproximação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

577
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3.2 Extensão do MCO para Ordem Fracionária

Para que o MCO possa ser empregado para a resolução de uma EDPF é necessário avaliar
cada uma das derivadas fracionárias que aparecem no modelo de interesse. Para essa finalidade,
considere a aproximação para a derivada de Riemann-Liouville (RL Dxα F (x)) de um função
genérica F (x) com relação à variável independente x (Miller & Ross, 1993):
 
y Zx
α d  1
RL Dx F (x) = (x − t)y−α−1 F (t)dt (4)
dt y Γ(y − α)
0

em que α é a ordem fracionária, Γ é a função Gamma e y é um número inteiro, definido como


sendo y=[α]+1, em que [α] é a parte inteira da ordem fracionária. Neste operador, a derivada
fracionária é substituı́da pela avaliação de uma integral fracionária.
Assim, a avaliação da derivada referente à aproximação considerando o PL deve ser obtida
via aplicação da derivada de Riemann-Liouville. Neste caso, para os problemas definidos
pelas Eqs.(2) e (3), os modelos originais (parcial fracionário com relação ao tempo e parcial
fracionário com relação ao espaço) são transformados em equivalentes puramente algébricos
(Lobato et al., 2020). Finalmente, estes sistemas de equações algébricas, geralmente não-
lineares, são resolvidas considerando uma abordagem numérica apropriada.

4. RESULTADOS E DISCUSSÃO

Para avaliar a metodologia proposta, a seguir são apresentados dois estudos de caso, a saber,
um fracionário no tempo e o outro fracionário no espaço. Em cada um destes foi definido um
conjunto de parâmetros de entrada de forma que ambos apresentassem solução analı́tica, obtida
considerando a Técnica da Separação de Variáveis (TSV) associada a função de Mittag Leffler.

4.1 Equação de Difusão Fracionária no Tempo

Considere a equação de difusão-advecção fracionária no tempo descrita na Eq.(2), em que


P (x) é dado pela relação
r r !
2 ν2 λn  ν 
P (x) = cos − 2 − x exp − x (5)
L 2D D 2D

Para este caso, aplicando a TSV a solução analı́tica é dada por:


r r !!
2 ν 2 λ  ν 
n
ραn (x, t) = cos − 2− x exp − x Ea (−λn tα ), (6)
L 2D D 2D

em que Ea é a função de Mittag-Leffler para o parâmetro a (Mainardi, 2001), λn é um parâmetro


descrito em função dos parâmetros L, ν e D, sendo o mesmo definido por:
Dn2 π 2 ν2
λn = − − (7)
L2 2D
A Figura 1 apresenta os perfis analı́tico e numérico considerando α = 1, 2 e α = 1, 8,
N =6 (grau da aproximação polinomial) e os seguintes parâmetros L = 40 mm, D = 1 mm2 /s

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

578
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e ν = 1 mm/s. De forma geral pode-se observar nestas figuras que a metodologia proposta
foi capaz de obter boas estimativas para os perfis simulados em comparação com a solução
analı́tica. Fisicamente, na Fig. 1(a) (α = 1, 2) observa-se um comportamento tipicamente
difusivo, cuja atenuação é influenciada pelos parâmetros definidos anteriormente. Este mesmo
comportamento também pode ser observado para α = 1, 8 (Fig. 1(b)). Todavia, fica evidente a
influência da ordem fracionárias entre estes perfis, i.e., quanto mais próximo a ordem for de 2,
mais pronunciado é o comportamento oscilatório do modelo.

0, 4
0,013046 0,013046
0,283302
0, 2 0,283302
0,425562
0, 2
0,425562
ρ1 (x, t)

ρ1 (x, t)
0,574437 0,574437
0,716697 0,716697
0, 1 0,986953 0,986953 0
0,013046 0,013046
0,283302 0,283302
0,425562
0 −0, 2 0,425562
0,574437 0,574437
0,716697 0,716697
0,986953 0,986953
−0, 1 −0, 4
0 40 80 120 160 200 0 40 80 120 160 200
t(s) t(s)
(a) α=1,2. (b) α=1,8.

Figura 1- Soluções analı́tica (linha sólida) e numérica (sı́mbolos) da equação de difusão-advecção


fracionária no tempo considerando seis pontos de colocação.

A Tabela 1 apresenta a comparação entre os resultados analı́ticos e numéricos considerando


diferentes combinações entre os valores de α e N . Nesta tabela observa-se que, o aumento no
valor de N implica na redução do erro computado - Φ (definido como sendo o somatório do erro
absoluto quadrático entre a solução analı́tica e a numérica). Este resultado já era esperado visto
que o aumento do número de pontos de colocação implica no aumento da ordem da aproximação
polinomial considerada e, consequentemente, em uma melhor concordância entre a solução
analı́tica e numérica.

Tabela 1- Erro calculado considerando diferentes valores para α e N para o problema de difusão-
advecção de ordem fracionária no tempo.
α N Φ
1, 2 5 1, 48697 × 10−8
1, 2 10 6, 77765 × 10−12
1, 8 5 7, 18788 × 10−8
1, 8 10 2, 81121 × 10−12

4.2 Equação de Difusão Fracionária no Espaço

O próximo estudo de caso considera a equação de difusão-advecção fracionária no espaço


(Eq.(3)) considerando F (x) definido como:
r
ν2
  
2  ν
β
 λn
P (x) = Eβ − x Eα + xα (8)
L 2D D 2D2

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

579
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para este caso, a solução analı́tica usando a TSV é dada por:


r
ν2 −Dn2 π 2
    
α 2  ν
β
 λn α
%n (x, t) = Eβ − x Eα + x exp t , (9)
L 2D D 2D2 L2

em que Ea é a função de Mittag-Leffler para o parâmetro a (Mainardi, 2001) e λn é um


parâmetro descrito em função de L, ν e D e definido como:

Dn2 π 2 ν2
λn = − − (10)
L2 2D
A Figura 2 apresenta os perfis obtidos pelo MCO para a equação de difusão-advecção
fracionária no espaço considerando diferentes ordens (α=[1,01 1,4 1,75 1,99]), N =6 (grau da
aproximação polinomial) e os seguintes parâmetros L = 40 mm, D = 1 mm2 /s e ν = 1
mm/s. É importante ressaltar que, para estas simulações, considerou-se que β é igual a α/2.
Como pode ser observado nesta figura, é possı́vel constatar uma boa concordância entre os
perfis simulados e analı́ticos, demonstrando a qualidade da metodologia proposta. Além disso,
também observa-se a tendência de atenuação das curvas quanto o processo entrar em regime
permanente. A diferença de amplitude inicial é esperada devido a diferença de comportamento
da expressão considerada para P , que é função das ordens α e β.

0,046910 0,046910 0,046910 0,046910


(a) α = 1, 01 0,230765 0,230765 (b) α = 1, 4 0,230765 0,230765
0, 2 0,500000 0,500000 0, 2 0,500000 0,500000
0,769234 0,769234 0,769234 0,769234
̺1 (x, t)

̺1 (x, t)

0,953089 0,953089 0,953089 0,953089


0, 1 0, 1

0 0

−0, 1 −0, 1
0 40 80 120 160 200 0 40 80 120 160 200
t (s) t (s)

0,046910 0,046910 0,046910 0,046910


(c) α = 1, 75 0,230765 0,230765 (d) α = 1, 99 0,230765 0,230765
0, 2 0,500000 0,500000 0, 2 0,500000 0,500000
0,769234 0,769234 0,769234 0,769234
̺1 (x, t)

̺1 (x, t)

0,953089 0,953089 0,953089 0,953089


0, 1 0, 1

0 0

−0, 1 −0, 1
0 40 80 120 160 200 0 40 80 120 160 200
t(s) t(s)

Figura 2- Soluções analı́tica (linha sólida) e numérica (sı́mbolos) da equação de difusão-advecção


fracionária no espaço.

Já a Tabela 2 apresenta a comparação entre os resultados analı́ticos e numéricos


considerando diferentes combinações entre os parâmetros α e β e seis pontos de colocação.
Assim como observado para o estudo de caso anterior, observa-se que a metodologia proposta
foi capaz de obter boas estimativas para os perfis em comparação com os analı́ticos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

580
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2- Erro calculado considerando diferentes valores para α para o problema de difusão-advecção
de ordem fracionária no espaço.
α β (=α/2) Φ
1, 01 0, 505 2, 05547 × 10−7
1, 4 0, 7 1, 66667 × 10−7
1, 75 0, 875 1, 79898 × 10−7
1, 99 0, 995 2, 69785 × 10−7

5. CONCLUSÕES

O presente trabalho teve por objetivo associar o Método da Colocação Ortogonal à


aproximação da derivada de Riemann-Liouville para a resolução de Equações Diferenciais
Parciais Fracionárias. Para avaliar a metodologia proposta, dois estudos de caso de grande
interesse da comunidade cientı́fica foram resolvidas. Os resultados obtidos demonstraram a
qualidade da solução obtida pela metodologia proposta, visto a boa concordância entre os perfis
numéricos e analı́ticos apresentados, bem como pelo cálculo do erro cometido. Além disso,
também foi possı́vel observar a influência da ordem fracionárias nos perfis simulados. Neste
caso, observa-se que a escolha das ordens deve ser, cuidadosamente analisada de forma que
somente perfis fisicamente viáveis sejam encontrados. É importante ressaltar que o aumento
indiscriminado do número de pontos de colocação não, necessariamente, promove a redução do
erro. Isto se deve ao comportamento inerentemente oscilatório observado em polinômios com
elevado grau.
Como sugestão de trabalho futuro pretende-se simular outros estudos de caso em engenharia
e áreas afins, bem como resolver problemas inversos para a determinação da ordem fracionária
considerando pontos experimentais reais.

REFERÊNCIAS

Andrade, A. M. F., Lima, E. G., Dartora, C. A. (2016), “Uma introdução ao cálculo fracionário e suas
aplicações em circuitos elétricos”, Revista Brasileira de Ensino de Fı́sica, vol 40, 3314.
Camargo, R. F., Oliveira, E. C. (2015), “Cálculo Fracionário”, Livraria da Fı́sica.
Gómez, F., Escalante, E., Calderón, C., Morales, L., González, M., Laguna, R. (1996), “Analytical
Solutions for the fractional diffusion-advection equation describing super-diffusion”, Open Physics,
vol 14, 668–675.
Kirchner, J. W., Feng, X., Neal, C. (2000), “Fractal stream chemistry and its implications for
contaminant transport in catchments”, Nature, vol 403, 524–527.
Kreyszig, E. (2011), “Advanced Engineering Mathematics”, Nature, 10th Edition, John Wiley & Sons.
Laranjeira, P., Pinto, J. C. (2001), “Métodos Numéricos em Problemas de Engenharia Quı́mica”, Editora
E-Papers.
Laskin, N. (2017), “Time fractional quantum mechanics”, Chaos, Solitons & Fractals, vol. 102, 16–28.
Li, X., Rui, H. (2018), “A high-order fully conservative block-centered finite difference method for the
time-fractional advection-dispersion equation”, Applied Numerical Mathematics, vol. 124, 89–109.
Lobato, F. S., Lima, W. J., Borges, R. A., Cavalini Jr, A. Ap., Steffen Jr, V. (2020), “The solution of direct
and inverse fractional advection–dispersion problems by using orthogonal collocation and differential
evolution”, Soft Computing, vol. 24.
Oliveira, E. C., Machado, J. A. T., “A review of definitions for fractional derivatives and integral”. Math.
Probl. Eng., 1-6, (2014).
Magin, R. L. (2006), “Fractional Calculus in Bioengineering”, Begell House Publishers.
Mainardi, F. (1996), “The fundamental solutions for the fractional diffusion-wave equation”, Applied
Mathematics Letters, vol 9, 23–28.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

581
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mainardi, F., Luchko, Y., Pagnini, G. (2001), “The fundamental solution of the space-time fractional
diffusion equation”, Fract. Calc. Appl. Anal., vol 4, 153–192.
Mandelbrot, B. B. (1982), “The Fractal Geometry of Nature”, Times Books.
Miller, K. S.; Ross, B. “An Introduction to the Fractional Calculus and Fractional Differential
Equations”, Wiley-Interscience: John Wiley & Sons, 1993.
Nussenzveig, H. M. (2013), “Curso de Fı́sica Básica”, Blucher, vol 1,2,3 and 4.
Rodrigues, F. G., Oliveira, E. C. (2015), “Introduçãao às técnicas do cálculo fracionário para estudar
modelos da fı́sica matemática”, Revista Brasileira de Ensino de Fı́sica, vol. 37.
Sabatelli, L., Keating, S., Dudley, J., Richmond, P. (2002), “Waiting time distributions in financial
markets”, Eur. Phys. J. B, vol 27, 273–275.
Schumer, R., Benson, D. A., Meerschaert, M. M., Baeumer, B. (2003), “Multiscaling fractional
advection-dispersion equation and their solutions”, Water Resour. Res., vol 39, 1022–1032.
Villadsen, J., Michelsen, M. L. (1978), “Solution of Differential Equation Models by Polynomial
Approximation”, Prentice-Hall, Inc..
Yuan, Z.B., Nie, Y.F., Liu, F., Turner, I., Zhang, G.Y., Gu, Y.T. (2016), “An advanced numerical
modeling for Riesz space fractional advection-dispersion equations by a meshfree approach”, Applied
Mathematics Modelling, vol 40, 7816-7829.
Zhang, W., Cai, X., Holm, S. (2014), “Time-fractional heat equations and negative absolute
temperatures”, Computers & Mathematics with Applications, vol 67, 164–171.
Zhang, X., Liu, L., Wu, Y., Wiwatanapataphee, B. (2017), “Nontrivial solutions for a fractional
advection-dispersion equation in anomalous diffusion”, Applied Mathematics Letters, vol 66, 1–8.
Zhang, J. (2018), “A stable explicitly solvable numerical method for the Riesz fractional advection-
dispersion equations”, Applied Mathematics and Computation, vol 332, 209–227.

NUMERICAL SOLUTION FOR TIME AND SPACE FRACTIONAL PARTIAL


DIFFERENTIAL EQUATIONS

Abstract. This work aims to present a systematic methodology for numerical resolution of
Fractional Partial Differential Equations using a fractional derivative approximation and the
Orthogonal Collocation Method. In general, the fractional differential term is replaced by
a numerical approximation that takes into account the differential order and the number of
collocation points. The proposed methodology is validated in two case studies that have
applications in different areas of knowledge and that presents analytical solution. The results
obtained shows that the proposed approach is a good alternative for solving this class of
problems.

Keywords: Fractional Partial Differential Equation, Numerical Approximation, Orthogonal


Collocation Method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

582
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISES ESTATÍSTICAS DA RESISTÊNCIA AO IMPACTO IZOD DE UM


COMPÓSITO COM MATRIZ EPÓXI REFORÇADO COM FIBRAS DE JUNCO-
SETE-ILHAS

Magno Torres Carvalho1 – magnotorres7@gmail.com


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Teixeira Souza1 – Andressa.t.souza@gmail.com
Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Matheus Pereira Ribeiro1 – m.pereiraribeiro@hotmail.com
Michelle Souza Oliveira1 – oliveirasmichelle@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo. Compósitos epoxídicos reforçados com 10, 20 e 30% em volume de uma fibra
lignocelulósica cientificamente nova em termos de sua aplicação como um material de
engenharia conhecida no Brasil como junco-sete-ilhas. Por essa razão propriedades
mecânicas associadas com o ensaio de impacto Izod foram investigadas. As dimensões dos
corpos de prova foram de 60,25x12,7x10 mm conforme a norma ASTM D256 e confeccionados
em um molde de aço misturando fibras alinhadas com uma resina epóxi endurecida com
trietileno tetramina. Os resultados demonstraram que os compósitos de 30%v/v apresentam
um reforço mais efetivo. As análises estatísticas foram realizadas pela análise de Weibull,
análise de variância (ANOVA) e teste de Tukey confirmaram que reforço de 30% em volume
de fibras de junco-sete-ilhas apresentaram a maior absorção de energia, entretantto somente
apresentaram uma diferença significativa entre a fração volumétrica de 10% em volume e a
matriz de epóxi pura. A análise de Weibull exibiu um ajuste linear satisfatório confirmando
uma homogeneidadade dos corpos de prova de cada grupo.

Palavras-chave: Junco-sete-ilhas, Ensaio de impaco Izod, Epóxi, ASTM D256.

1. INTRODUÇÃO

Uma preocupação com a possibilidade de substituir materiais tradicionais que requerem


um custo de energia maior por materiais naturais considerados como ambientalmente
favoráveis por não emitir gases de efeito estufa, serem renováveis e biodegradáveis ( Weart,
2004; Houghton, 2004; Gore, 2006). Por esse motivo, fibras lignocelulósicas estão sendo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

583
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

extensivamente investigadas nas últimas décadas como possíveis substitutos para fibras
sintéticas que são tradicionalmente aplicadas como uma fase reforço em compósitos de matriz
polimérica. Essas fibras são extraídas de plantas como a juta, sisal, canhâmo, coco, linho,
abacaxi e muitos outros materiais naturais (Nabi & Jog, 1999; Bledzki & Gassan, 1999;
Mohanty et al., 2000).
O uso da aplicação de fibras naturais como uma alternativa para fibras sintéticas em
compósitos de matriz polimérica já acontece em produtos disponíveis no mercado. Como a
substituição de alguns componentes de um veículo aplicando compósitos reforçados com uma
variedade de fibras naturais (Suddel et al., 2002; Marsh, 2003; Hill, 1997; Zah et al., 2007).
Vale ressaltar que cada tipo de fibra lignocelulósica tem características morfológicas
específicas em sua superfície, afetando de diversas maneiras o comportamento mecânico dos
compósitos, sendo capaz de melhorar as suas propriedades mecânicas de forma satisfatória. O
uso dessas fibras em materiais compósitos é fortemente promissor, visando um futuro que
utilize materiais ecologicamente corretos, resistentes e com baixo custo. (Balla et al., 2019).
Compósitos poliméricos são confeccionados por uma matriz termorrígida ou termoplástica
possuindo função de acomodar adequadamente a fase dispersa e transferir a essa a tensão
aplicada. Para aplicações estruturais os polímeros termorrígidos são os mais comumente
aplicados, produzindo produtos com alta resistência. Uma das resinas mais empregadas como
matriz em compósitos é a resina epóxi, devido a proporcionar baixas taxas de contração do
material durante a cura e promove uma ótima aderência com a fibra (Monteiro et al., 2009)
Buscando investigar novas fibras naturais para uma possível aplicação em compósitos de
matriz polimérica, o presente trabalho, buscou explorar a introdução de uma fibra extraída de
uma planta conhecida como junco-sete-ilhas, o cultivo exclusivo dessa no Brasil é empregado
na cidade de registro em São Paulo. Sendo uma fibra nunca antes explorada em termos de
propriedades mecânicas, fisicas e térmicas para uso e aplicações de engenharia. O presente
trabalho consiste em inserir fibras de junco-sete-ilhas em uma matriz epóxi e avaliar em
diferentes percentuais de fração volumétrica o seu comportamente ao sofrer um ensaio de
impacto. (Hiroce et al., 1988)

2. DESENVOLVIMENTO

2.1 Materiais e métodos

A fase matriz utilizada na confecção dos compósitos foi o polímero termorrígido


empregado como material da matriz para confecção das amostras se tratou da resina epóxi
comercial (DGEBA). O catalisador utilizado à resina foi o Trietileno Tetramina (TETA),
adotando a proporção estequiométrica de 13 partes de endurecedor para 100 partes da resina.
As fibras utilizadas no presente trabalho foram extraídas de uma esteira de junco-sete-ilhas
adquiridas por meio da empresa Artevale, Foram utilizadas “in natura” e estavam na forma de
caule, por isso foram limpas, desfiadas e cortadas em um comprimento equivalente a 150 mm
e secas em estufa a 70°C por 24h com a finalidade de se retirar a umidade presente. Essas fibras,
por sua vez, não sofreram nenhum tipo de tratamento químico.
Para a fabricação dos compósitos foi utilizada uma matriz metálica, sendo as placas
produzidas em uma prensa SKAY de 30 toneladas. Uma camada de graxa de silicone foi
adicionada em toda a superfície da matriz de modo a evitar uma elevada aderência da placa na
matriz e facilitar a retirada.
A preparação para a confecção dos corpos de prova (CPs) consistiu em utilizar fibras
cortadas com 120 mm de comprimento de modo que fosse possível acomodar as fibras dentro
do molde metálico retangular de aço possuindo as dimensões 150 x 120 mm, além disso as
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

584
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

fibras foram inseridas em uma estufa a 70°C durante 24 horas previamente à realização de
confecção das placas. O total de placas confeccionadas se basearam nos percentuais de uma
matriz com 0, 10, 20 e 30% em fração volumétrica de fibra de junco-sete-ilhas com diâmetro
aleatório, contínuas e alinhadas uniformemente. Assim, as quatro placas seguiram o processo
baseado em realizar a mistura da resina epóxi com o endurecedor e adicionar o mesmo
conforme as fibras são acomodas no interior do molde. Em seguida, depois de se obter todas as
fibras molhadas pela resina, foi imposto uma pressão de 5 toneladas na matriz em temperatura
ambiente por um período de 24 horas. Após esse processo, as placas foram cortadas com o
auxílio de uma serra até se obter um total de 10 amostras com dimensões de 60,25 x 12,7 x 10
mm para cada grupo, de acordo com a norma ASTM D256. Foi necessário desbastar as amostras
com lixas de água com numerações de grão 80 e 220, buscando eliminar possíveis defeitos
superficiais e atingir as dimensões necessárias para estar em conformidade com a norma dos
corpos de prova que excediam os valores. Foi necessário ser feito um entalhe com auxílio de
um entalhador manual de dente único da marca Pantec Iz/Ch-50, sendo realizado
individualmente para cada corpo de prova seguindo a norma, no qual o raio de curvatura é de
0,25 mm ± 0,05 mm, ângulo de 45° ± 1° e profundidade de 2,54 mm. Com a finalidade de
calcular a energia absorvida por comprimento, foi necessário medir as dimensões de todos os
corpos de prova.
Os ensaios foram realizados no laboratório de Fibras Naturais da Universidade Estadual do
norte Fluminense Darcy Ribeiro (UENF), na cidade de Campos dos Goytacazes. O
equipamento utilizado da marca Pantec modelo XC-50, empregando um martelo de 22J.
Durante a realização dos ensaios os corpos de prova foram fixados verticalmente com o entalhe
centralizado voltado para o lado em que o martelo impacta. Os resultados da energia absorvida
foram analisados estatisticamente. A Fig. 1 demonstra os corpos antes de se realizar o entalhe
.

Figura 1: Corpos de prova para impacto Izod de compósitos reforçados com fibras de junco-
sete-ilhas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

585
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os resultados adquiridos foram submetidos à análise estatística de Weibull com o auxílio


do programa Weibull Analysis e os dados obtidos foram analisados por uma análise de variância
(ANOVA) e teste de Tukey baseados em um nível de confiança de 95%.

2.2 Resultados e Discussão

Os resultados obtidos para o ensaio de impacto Izod para compósitos epoxídicos reforçados
com fibras de junco-sete-ilhas contínuas e alinhadas, nas frações volumétricas de 0, 10, 20 e
30% evidenciaram existir uma capacidade baixa de absorção de energia destes materiais
comparativamente a diferentes compósitos reforçados com FNLs (Costa et al., 2019; Thakur et
al., 2014). Os resultados dos grupos mencionados estão presentes na Tabela 1.

Tabela 1: Resultados do ensaio de impacto Izod para os compósitos de matriz epoxídicas


reforçados com fibras de junco-sete-ilhas contínuas e alinhadas.

Energia absorvida (J/m)


Corpo de prova 0% 10% 20% 30%
1 19,47 9,74 48,54 68,43
2 14,53 33,52 66,29 80,64
3 19,45 17,46 43,48 58,82
4 14,66 11,48 59,14 78,74
5 14,68 20,45 40,48 67,63
6 24,58 46,46 33,52 59,17
7 19,57 39,22 42,55 38,76
8 19,55 17,48 24,42 78,97
9 38,87 22,42 45,09 59,35
10 43,82 22,94 65,57 39,56
Média 22,38 23,29 43,75 63,01
Desvio padrão 9,19 10,47 13,13 14,31

Foi possível notar que os valores de energia absorvida tendem a crescer à medida que
as frações de reforço aumentam, como acontece em outros estudos (Mariatti et al., 2008;
Pereira et al., 2017). Uma análise de variância (ANOVA) com o intuito de determinar se
existe diferença significativa entre os resultados adquiridos para a energia de impacto Izod
entre os compósitos de 0, 10, 20 e 30% foi realizada. A tabela 2 demonstra os resultados
obtidos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

586
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2: Análise de variância da energia de impacto Izod para os compósitos epoxídicos


reforçados com 10, 20 e 30% com fibras contínuas e alinhadas.

Fonte da Soma de Quadrado F


GL Valor P F crítico
Variação quadrados Médio calculado
Entre
11188,48 3 3729,492 22,6844 2,02 е-8 2,8662
grupos
Dentro dos
5918,61 36 164,4078
grupos
Total 17107,16 39

Diante dos resultados obtidos na análise de variância, a hipótese de que as médias são
iguais com nível de significância de 5%, pois pela estatística se tem F calculado (22,6844) maior
do que F crítico (2,8662). Ainda, o valor de P simboliza um número muito menor do que 5%
de significância. Dessa forma, é possível dizer que os efeitos do percentual das frações
volumétricas das fibras nos compósitos possuem efeitos diferentes na energia de impacto Izod.
Sendo assim, o teste de Tukey foi utilizado para comparação de médias aplicando um nível de
confiança de 95% para averiguar qual proporção do percentual de fibras de junco-sete-ilhas
proporcionou resultados melhores em termos de energia de impacto Izod. A diferença média
significativa (d.m.s) obtida foi de 16,32. Na Tabela 3 os resultados para as diferenças entre os
valores médios da energia de impacto entre as fraçãos volumétricas de fibras são demonstrados.

Tabela 3: Resultados para as diferenças entre os valores médios da energia de impacto Izod
após aplicação do teste de Tukey

Fração volumétrica de
0% 10% 20%
fibras de junco-sete-ilhas
0% 0 1,20 3,99
10% 1,2 0 22,79
20% 23,99 22,79 0

Baseado nos resultados com nível de significância de 5%, o compósito reforçado com
30%v/v de fibras de junco-sete-ilhas exibiu melhor desempenho, justificado por apresentar um
valor médio de energia de impacto Izod (63,0084 J/m), obtendo uma diferença significativa
entre os valores de 0% e 10% devido as diferenças encontradas se mostrarem superiores ao
d.m.s de 16,32. Esse comportamento também é observado em outros estudos na literatura
(Costa et al., 2019).
Com a finalidade de verificar se as propriedades dos corpos de prova fabricados não
variaram significativamente de um para o outro, os valores da energia absorvida foram tratados
estatisticamente pela análise de Weibull. Os parâmetros da distribuição β, θ e R² estão presentes
na Tabela 4 e a Fig. 2 demonstra o gráfico da distribuição de Weibull que ilustra tal análise.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

587
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4: Valores médios das energias de impacto Izod absorvidas e os parâmetros de


Weibull.

Fração
Média Desvio
volumétrica β θ R²
(J/m) Padrão
(%)
0 22,38 9,26 2,63 25,53 0,74
10 23,29 10,32 2,40 26,26 0,94
20 43,75 13,13 3,83 49,80 0,95
30 63,01 17,59 4,03 69,66 0,91

Figura 2: Gráficos de Weibull para diferentes frações volumétricas de reforço na


matriz epoxídica e a resina epóxi pura.

Os valores relacionados aos percentuais de 10, 20 e 30% v/v demonstraram valores acima
de 0,9 indicando uma boa qualidade do ajuste linear e certificando que os dados estão
distribuídos de acordo com o a função de Weibull de parâmetros β e θ. Dessa forma os valores
são satisfatórios, apesar de o valor de R² de 0% ser inferior ao valor necessário para um bom
ajuste linear caracterizando uma certa heterogeneidade entre as propriedades dos corpos de
prova.

3. CONCLUSÃO

Os resultados indicam que o corpo de prova contendo uma fração de 30%v/v em reforço
de fibras de junco-sete-ilhas apresentou um melhor desempenho na absorção de energia em
relação as demais frações volumétricas de 10 e 20%v/v. Como era esperado ocorreu um
crescimento gradual na resistência ao impacto com o aumento percentual do volume de fibras.
Nas análises estatísticas de ANOVA e Tukey provaram, com um nível de 95% de
confiança, que a incorporação de fibras de junco-sete-ilhas melhoram o desempenho com o
aumento da fração volumétrica.No teste de Tukey o compósito que apresentou melhor
desempenho foi o de 30%v/v. Entretanto apresenta diferença significativa somente em relação
ao compósito reforçado com 0 e 10%v/v de fibras. Sendo pela primeira vez estatísticamente
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

588
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

comprovado. Além disso, a fração volumétrica contendo 10% em volume de fibras não
apresentou diferença significativa se comparado a matriz epóxi sem reforço de fibras.
Ademais, a análise de Weibull comprovou que os resultados são satisfatórios uma vez
que todos os parâmetros de R² para as frações de 10, 20 e 30% exibiram um valor de ajuste
superior a 0,9. Entretanto o valor de R² para a matriz epóxi sem reforço de fibras apresentou
ser inferior ao valor necessário para um bom ajuste linear caracterizando uma certa
heterogeneidade entre as propriedades obtidas dos corpos de prova ensaiados.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao departamento de Ciência dos Materiais do IME e ao Laboratório de Fibras Naturais da
Universidade Estadual do norte Fluminense Darcy Ribeiro (UENF).

REFERÊNCIAS

Weart SR. (2008). The discovery of global warming. Harvard University Press.
Houghton J. (2004). Global Warming: The complete Brienfing. Edição (3a). Cambridge.
Gore A. (2006) An incovenient truth: the planetary emergency of global warmig and what we can do about
ir. Rodale.
Nabi SD, Jog JP. (1999). Natural fibre polymer cmposites: A review. Advanced Polymer Technology, 16(4),
351-363.
Bledzki AK, Gassan J. Composites reinforced with cellulose based fibres. Progress in Polymer Science.
1999;24(2):221-274.
Mohanty AK, Misra MA, Hinrichsen, GI. (2000). Biofibres, biodegradable polymers and biocomposites: An
overview. Macromolecular materials and Engineering, 276(1), 1-24.
Suddel BC, Evans WJ, Issac DH, Crosky A. (2002). “A survey into the application of natural fiber
composites in the automotive industry”. International Symposium on Natural Polmers and Composites. Brazil, São
Paulo, 455-461.
Marsh, GP. (2003). Man and nature. University of Washington Press.
Hill, S. (1997). Cars that grow on trees. New Scientist, 153(2067), 36-9.
Zah R, Hischier R, Leão AL, Braun I. (2007). Curauá fibers in the automobile industry- a sustainability
assessment. Journal of cleaner production, 15(11-12), 1032-1040.
Balla VK, Kate KH, Satyavolu J, Singh, P, Tadimeti JGD. (2019). Additive manufacturing of natural fiber
reinforced polymer composites: Processing and prospects. Composites Part B: Engineering. 174(3), 10695.
Monteiro SN, Lopes FPD, Ferreira AS, Nascimento DCO. (2009). Natural-fiber polymer-matrix composites:
Cheaper, tougher, and environmentally friendly. Jom, 61(1), 17-22.
Hiroce R, Benatti JR, Feitosa CT. (1988). Estudos nutricionais em junco: adubação e calagem. Bragantia,
47(2), 313-323.
Costa UO, Nascimento LFC, Garcia JM, Monteiro SN, Luz FS, Pinheiro, WA, Filho FGF. (2019). Effect of
graphene oxide coating on natural fiber composite for multilayered ballistic armor. Polymers, 11(8).
Thakur VK, Thakur MK, Gupta RK. (2014). Review: Raw Natural Fiber-Based Polymer Composites.
International Journal of Polymer Analysis and Characterization, 19(3), 256-271.
Mariatti M, Jannah M, Bakar AA, Khalil HPSA. (2008). Properties of Banana and Pandanus Woven Fabric
Reinforced Unsaturated Polyester Composites. Journal of Composite Materials, 42(9), 931-941.
Pereira AC, Monteiro SN, Assis FS, Colorado HA. (2017). Izod Impact Tests in Polyester Matrix Composites
Reinforced with Fique Fabric. The Minerals, Metals & Materials Series, 365-372.

STATISTICAL ANALYSIS OF IZOD IMPACT RESISTANCE OF AN EPOXY


MATRIX REINFORCED WITH SEVEN-ISLANDS-SEDGE

Abstract. Epoxy composites reinforced with 10,20 and 30% of volume fraction of a scientifically
new natural lignocellulosic fiber in terms of its use as an engineering material known in Brazil
as seven-islands-sedge were, for this reason, investigated for mechanical properties associated
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

589
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

with Izod impac test. The specimens dimensions were 60,25x12,7x10 mm as required by ASTM
D256 and were fabricated in a steel mold by mixing aligned fibers with an epoxy resin hardened
with triethylene tetramine. The results have shown that composite that have 30% of volume
fraction presents more effective reinforcement. The statitiscal analysis of the impact energy’s
data obtained, were performed by Weibull analysis, ANOVA statistics ad Tukey test. Both of
the Anova and Tukey test analysis were based on a 95% confidence level, therefore, the Tukey
test confirmed that the reinforcement of 30% seven-islands-sedge fibers reinforced epoxy
composites presents the highest absorption energy altough it just have shown a significant
difference for a pure epoxy matrix and a 10% of volume fraction reinforcing composites. The
weibull analysis exhibited a satisfactory linear adjustment confirming an homogeneity in the
specimens group.
Keywords: Seven-islands-sedge, Izod impact test, Epoxy , ASTM D256.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

590
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

COMPRIMENTO CRÍTICO E RESISTÊNCIA INTERFACIAL DE FIBRAS DE


JUNCO-SETE-ILHAS EMBUTIDAS EM UMA MATRIZ DE EPÓXI

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Magno Torres Carvalho1 – magnotorres7@gmail.com
Andressa Teixeira Souza1 – Andressa.t.souza@gmail.com
Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Matheus Pereira Ribeiro1 – m.pereiraribeiro@hotmail.com
Raphael Henrique Morais Reis1 – raphael.reis.a@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo. Uma preocupação crescente a respeito da limitacão de recursos não renováveis


trouxe um foco no desenvolvimento de materiais compósitos de alta resistência específica e
ambientalmente sustentáveis e biodegradáveis. Nesse contexto, uma tendência no
desenvolimento de fibras naturais usadas como reforço em compósitos possui um crescimento
constante. Portanto, nesse trabalho, pela primeira vez na literatura, demonstra resultados da
fibras de junco-sete-ilhas caracterizados fisicamente por difração de raio X (DRX) e o indíce
de cristalinidade, a partir do difratograma obtido. Além disso, uma avaliação da adesão
interfacial entre a fibra e a matriz foi feita através do comprimento crítico obtido por um
ensaio de pullout.

Palavras-chave: Junco-sete-ilhas, Pullout, DRX, Comprimento crítico

1. INTRODUÇÃO

Nos últimos anos, uma preocupação crescente com a limitação de recursos não
renováveis trouxe um foco no desenvolvimento de materiais compósitos ambientalmente
sustentáveis e biodegradáveis. Aliados a uma legislação ambiental conectada com a demanda
industrial e consumidora ao redor do mundo, impulsionam novos estudos e pesquisas em
busca de materiais que substituam fibras sintéticas atenuando a dependência de produtos à
base de petróleo. Nesse contexto, a tendência crescente no desenvolvimento de materiais
biocompósitos em diversas aplicações de engenharia e com uma grande variedade de
aplicações empregando fibras naturais como reforço (Lofti et al., 2019; Rajak et al., 2019).
Atualmente o interesse no emprego de compósitos de matriz polimérica reforçados com fibras

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

591
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

naturais tem aumentado. Esses compósitos não exigem muita energia para o seu
processamento e apresentam baixo custo. Além disso, a produção de fibras naturais necessita
de menos energia se comparado a fibras sintéticas como a de vidro (Balla et al., 2019).
Entretanto a natureza hidrofílica é a principal desvantagem da fibra natural provocando
uma compatibilidade ruim entre a fibra e a matriz relativa a alta absorção de umidade.
Portanto, a umidade presente na superficie da fibra reduz a adesão interfacial dentro dos
compósitos devido ao fato de polímeros comomumente usados como fase matriz em
compósitos possuirem características hidrofóbicas (Monteiro et al., 2011; Bledzki et al.,
1999; Monteiro et al., 2011).
Por essa razão para determinar o comprimento crítico e a resistência interfacial associada
com a eficiência de ligação entre a interface fibra/matriz, um teste de pullout foi propossto por
Kelly e Tyson (1965) com o intuito de avaliar a adesão interfacial e posteriormente adaptado
por Monterio e D’Almeida (2006).

Além disso, fibras naturais lignocelulósicas (FNLs) são comparadas como um material
compósito natural constituído basicamente de duas fases distintas: uma cristalina e outra
amorfa. A fase cristalina principal é a celulose microfibrilar considerada como a fase reforço e
a lignina por sua vez é considerada como a fase matriz amorfa (Monteiro et al., 2011;
Satyanarayana et al., 2009; Maya et al., 2008; Mohanty et al., 2002; Mohanty et al., 2000;
Thakur et al., 2014). A celulose confere a maior porção em peso das fibras naturais (Rowell et
al., 2000), além disso o percentual de celulose na fibra afeta diretamente propriedades como
a densidade, módulo de Young e resistência à tração das fibras. Pois cada unidade de
repetição de celulose contém três grupos de hidroxila e esses grupos, juntamente com sua
habilidade em formar ligações de hidrogênio, atuam como o principal meio de governar
propriedades físicas da celulose (Abdul et al., 2007).
Devido a esse fato, o presente trabalho procurou obter informações sobre o grau de
cristalinade de uma fibra de junco-sete-ilhas extraídas da planta (Cyperus malaccensis
Lam.), sendo ainda desconhecida cientificiamente em termos de propriedades físicas. Bem
como realizar um teste de pullout buscando avaliar seu comportamento crítico e como isso
pode afetar a interface fibra/matriz.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

As fibras foram extraídas de uma esteira de junco-sete-ilhas adquiridas por meio da


empresa Artevale, situada na cidade de Registro pertencente Região conhecida como Vale do
Ribeira no estado de São Paulo. Foram utilizadas “in natura” e estavam na forma de caule, por
isso foram limpas, desfiadas e cortadas em um comprimento equivalente a 150 mm e secas
em estufa a 70°C por 24h com a finalidade de se retirar a umidade presente. Essas fibras, por
sua vez, não sofreram nenhum tipo de tratamento químico.
Com a finalidade de se calcular o índice de cristalinidade e o ângulo microfibrilar das fibras
de junco-sete-ilhas foi utilizada a técnica de difração de raios X. O difratômetro PANalytical
de modelo x’pert PRO, juntamente com um detetor da marca Pixcel e anodo de cobalto foram
utilizados com os seguintes parâmetros: velocidade de varredura de 0,05 (2θ/s), varredura de
5° a 75°, potência de 40 KW. Esse equipamento pertence ao Instituto Militar de Engenharia

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

592
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(IME), através desse ensaio foi possível adquirir um difratograma das fibras de junco-sete-
ilhas.
Buscando avaliar a relação de aderência da fibra e a matriz, foi realizado um ensaio de
escorregamento das fibras. Um total de 80 amostras contendo uma única fibra inserida na
matriz de resina epóxi, foram divididas em grupos contendo diferentes comprimentos de
embutimento, para cada grupo foi separado dez amostras, considerando L como o
comprimento, L = 2, 4, 6, 8, 10, 15, 20 e 25 mm. O comprimento adotado para resina, em
formato cilíndrico, foi de 50 mm e 8 mm de diâmetro. O ensaio de tração foi realizado no
laboratório de Ensaios Não Destrutivos, Corrosão e Soldagem (LNDC) da COPPE/UFRJ e
com uma taxa de deformação de 0,75 mm/min, célula de carga de 25 kN e um equipamento
Instron de modelo 3365.
O polímero termorrígido empregado como material da matriz para confecção das amostras se
tratou da resina epóxi comercial (DGEBA) fornecida pela distribuidora RESINPOXY Ltda e
fabricada pela empresa Dow Chemical do Brasil, localizada no Rio de Janeiro. O catalisador
utilizado à resina foi o Trietileno Tetramina (TETA), adotando a proporção estequiométrica
de 13 partes de endurecedor para 100 partes da resina.

2.2 Resultados e Discussão

Segundo a literatura, o índice de cristalinidade e ângulo microfibrilar das FNLs possuem


relação direta com propriedades mecânicas como o caso da resistência mecânica e o módulo
de elasticidade, embora outros fatores, sendo um deles, o tratamento superficial influencie
diretamente na redução ou aumento dessas propriedades (Oudrhiri et al., 2019; Reis et al.,
2019; Teli et al., 2019). Após a análise feita a partir da fibra de junco-sete-ilhas foi possível
obter um difratograma apresentado pela Fig. 1, de acordo com a literatura de diversos estudos
os picos presentes em fibras naturais são associados com as fases amorfa e cristalina, sendo
pertences aos planos (1 0 1) e (0 0 2) respectivamente. O pico encontrado a 18,10° das fibras
de junco-sete-ilhas representam a presença de lignina, pectina, hemicelulose enquanto o pico
correspondente a 25,63° representa a celulose. A proeminência e encurtamento do pico
relativo à celulose aumenta à medida que o conteúdo presente de celulose cristalina na fibra se
torna maior . (Vijay et al., 2019; Lee et al., 2015)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

593
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1:Difratograma das fibras de junco-sete-ilhas sem tratamento.

O método formulado por Segal e colaboradores (1959) foi utilizado para calcular o índice de
cristalinidade a partir da Eq. (1) e indicou uma cristalinidade elevada para as fibras de junco-
sete-ilhas com o valor de IC = 62,47%. Esse índice está diretamente relacionado ao conteúdo
de celulose presente, por sua vez, quanto maior o conteúdo de celulose melhor serão as
propriedades relacionadas a rigidez e resistência. Além disso, ainda são ligadas diretamente a
um ângulo microfibrilar pequeno (Segal et al., 1959; Demosthenes et al., 2019).
IC = 1 – (1180,9/3146,7) (1)

IC = 0,6247 (1)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

594
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os resultados obtidos pelo ensaio de pullout permitiram construir o gráfico presente na Fig. 2
um comportamento similar ao modelo proposto por Kelly e Tyson (1965) pode ser observado.
No primeiro estágio, a resistência à tração aumenta linearmente com o comprimento de
embutimento da fibra na matriz. Quando a resistência atinge a tensão limite da fibra, ocorre a
ruptura da fibra. O comprimento de embutimento no qual a fibra falha é conhecida como
comprimento crítico (lc). O valor do comprimento determina se a fibra é longa o suficiente
para agir como reforço ou se é apenas uma carga incorporada, ou seja, se ocorre transferência
de carga da matriz para a fibra (Luz et al., 2018).

Figura 2: Tensão de pullout versus comprimento de embutimento.

A Eq. (2) e (3) correspondem aos ajustes lineares das fibras de junco-sete-ilhas
presentes no gráfico Tensão de pullout versus comprimento de embutimento.

(2)

(3)

A interseção das Eqs. (2) e (3) definem o comprimento crítico (lc), sendo alcançado
quando o valor é de 10,77 mm. A partir desse valor do lc é possível obter o valor da
resistência da ligação interfacial da fibra/matriz (𝜏c), através da Eq. (4). Além disso, foi usado
os valores do diâmetro médio das fibras de 0,675 mm e o valor da tensão média de 32,35
MPa.

(4)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

595
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(4)

Comparando com outras valores presentes na literatura (Nirmal et al., 2011; Oliveira
et al., 2019) pode se assumir que a interface entre fibra de junco-sete-ilhas e a matriz
epoxídica se apresenta consideravelmente razoável. Sendo que, outras interfaces como a de
noz de bétele/epóxi apresenta um valor de 0,88, fique/epóxi assumindo um valor de 0,27,
coco/epóxi com um resultado de 1,42 e PALF/epóxi com 4,93, são comparativamente mais
fortes. Entretanto, sob condições de impacto, uma resistência da ligação interfacial baixa
promove a separação entre a interface fibra/matriz pela propagação longitudinal de trincas,
associado diretamente a uma maior energia ao impacto e maior resistência ao impacto
(Margem et al., 2016).

3. CONCLUSÃO

Através do difratograma analisado para as amostras da fibra de junco-sete-ilhas é


possível observar um percentual de 62,47% para o indíce de cristalinidade (IC), estando
dentro da média de diversas FNLs citadas na literatura.
Em relação ao comprimento crítico (lc) de 10,77mm e um valor de resistência da
ligação interfacial da fibra/matriz (𝜏c) de 1,014 MPa, sendo consideravelemente baixo ao ser
comparado com demais valores de diversas FNLs presentes na literaruta. Indicando uma
interface entre a fibra de junco-sete-ilhas e a matriz epoxídica razoável.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao departamento de Ciência dos Materiais do IME e ao Laboratório de Ensaios Não
Destrutivos, Corrosão e Soldagem da UFRJ.
.

REFERÊNCIAS

Lotfi A, Li H, Dao DV, Prusty G. (2019). Natural fiber–reinforced composites: A review on material,
manufacturing, and machinability. Journal of Thermoplastic Composite Materials.
Rajak DK, Pagar DD, Menezes PL, Linul E. (2019). Fiber-reinforced polymer composites: Manufacturing,
properties, and applications. Polymers, 11(10).
Balla VK, Kate KH, Satyavolu J, Singh, P, Tadimeti JGD. (2019). Additive manufacturing of natural fiber
reinforced polymer composites: Processing and prospects. Composites Part B: Engineering,174(3), 10695.
Monteiro SN, Lopes FPD, Barbosa AP, Bavitori AB, Silva ILA, Costal LL. (2011). Natural lignocellulosic
fibers as engineering materials – an overview. Metal Mater Trans A, 242, 2963–74.
Bledzki AK, Gassan J. (1999). Composites reinforced with cellulose based fibres. Prog Polym Science, 4,
221–74.
Monteiro SN, Satyanarayana KG, Margem FM, Ferreira AS, Nascimento DCO, Santafé HPG Jr, et al.
(2011). Interfacial shear strength in lignocellulosic fibers incorporated polymeric composites. In: Kalia S, Kaith
BS, Kaur I, editors. Cellulose fibers: bio- and nano-polymer composites. Berlin, Germany: Springer, 241–62.
Kelly A, Tyson WR. (1965). Tensile properties of fibre-reinforced metals: copper/tungsten and
copper/molybdenum. J Mech Phys Solids, 13(6), 329–38.
Monteiro SN, D’Almeida JRM. (2006). Pullout testing in lignocellulosic fibers – an analysis of
methodology. Revista Materia, 11(3), 189–96.
Monteiro SN, Lopes FP, Barbosa AP, Bevitori AB, Da Silva IL, Da Costa LL. (2011). Natural
lignocellulosic fibers as engineering materials – an overview. Metall Mater Trans A, 42(10), 2963–74.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

596
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Satyanarayana KG, Arizaga GG, Wypych F. (2009). Biodegradable composites based on lignocellulosic
fibers—an overview. Prog Polymer Science, 34(9), 982–1021.
1Maya JJ, Sabu T. (2009).Biofibres and biocomposites. Carbohydr Polymer, 71(3), 343-64.
Mohanty AK, Misra M, Drzal LT. (2002) Sustainable bio-composites from renewable resources:
opportunities and challenges in the green materials world. J Polym Environ, 10(1–2), 19–26.
Mohanty AK, Misra MA, Hinrichsen GI. (2000). Biofibres, biodegradable polymers and biocomposites: an
overview. Macromolecular material engineering. 276(1), 1-24.
Thakur VK, Thakur MK. (2014). Processing and characterization of natural cellulose fibers/thermoset
polymer composites. Carbohydrate Polymer, 109, 102-17.
Rowell RM, Han JS, Rowell JS. (2000). Characterization and factors effecting fiber properties. In E.
Frollini AL, Leão LHC. Mattoso (Eds.), Natural polymers and agrofibers based composites, 115-134.
Abdul KHPS, Issam AM, Ahmad SMT, Suriani R,Awang AY. (2007). Conventional agro-composites from
chemically modified fibres. Industrial Crops and Products, 26(3), 315–323.
Oudrhiri HF, Merbahi N, Oushabi A, Elfadili MH, Kammouni A, Oueldna N. (2019). Effects of corona
discharge treatment on surface and mechanical properties of Aloe Vera fibers. Materials Today: Proceedings.
Reis RHM, Nunes LF, Oliveira MS, Junior VFV, Filho FCG, Pinheiro MA, Silva, ACR, Candido, VS,
Monteiro SN. (2019). Guaruman fiber: Another possible reinforcement in composites. Journal of Materials
Research and Technology, 9(1), 622-628.
Teli MD, Terega JM. (2019). Effects of alkalization on the properties of Ensete ventricosum plant fibre.
Journal of the Textile Institute, 110(4), 496-507.
Vijay R, Singaravelu DL, Vinod A, Paul ID, Sanjay MR, Siengchin S. (2019). Characterization of Novel
Natural Fiber from Saccharum Bengalense Grass (Sarkanda), Journal of Natural Fibers.
Lee CM, Kafle K, Belias DW, Park YB, Glick RE, Haigler CH, Kim SH. (2015). Comprehensive analysis
of cellulose content, crystallinity, and lateral packing in Gossypium hirsutum and Gossypium barbadense cotton
fibers using sum frequency generation, infrared and Raman spectroscopy, and X-ray diffraction. Cellulose, 971–
989.
Segal L, Creely J, Martin AE, Conrad C. (1959). An empirical method for estimating the degree of
crystallinity of native cellulose using the X-ray diffractometer. Textile Research, 29, 786-794.
Demosthenes LCC, Nascimento LFC, Monteiro SN, Costa UO, Garcia FFC, Luz FS, Braga FO. (2019).
Thermal and structural characterization of buriti fibers and their relevance in fabric reinforced composites.
Journal of Materials Research and Technology.
Luz FS, Ramos FJHTV, Nascimento LFC, Figueiredo ABHS, Monteiro SN. (2018). Critical length and
interfacial strength of PALF and coir fiber incorporated in epoxy resin matrix. Journal of Materials Research and
Technology.
Nirmal U, Singh N, Hashim J, Lau ST, Jamil N. (2011). On the effect of different polymer matrix and fibre
treatment on single fibre pullout test using betelnut fibres. Materials & Design, 32(5), 2717-2726.
Oliveira MS, Pereira AC, Filho, FGC, Demosthenes, LCC, Nunes LF, Braga FO, Monteiro SN. (2019).
Comparison of Interfacial Adhesion Between Polyester and Epoxy Matrix Composites Reinforced with Fique
Natural Fiber. In Green Materials Engineering. Springer, 69:76.
Margem JI, Gomes VA, Margem FM, Ribeiro CGD, Braga FO, Monteiro SN. (2016). Pullout Tests
Behavior of Polyester Matrix Reinforced with Malva Fiber. Materials Science Forum, 371-376.

CRITICAL LENGTH AND INTERFACIAL STRENGHT OF SEVEN-ISLANDS-


SEDGE FIBER EMBEDDED IN EPOXY MATRIX

Abstract. A growing concern about the limitation of non-renewable resources has brought a
focus on the development of environmentally sustainable and biodegradable composite
materials. In this context, a trend in the development of natural fibers used as a reinforce in
composites is ever increasing. Therefore, in this work, for the first time in the literature,
shows results of the seven-islands-sedge physically characterized by X-ray diffraction (XRD)
and the cristallinity index were obtained. Besides an evaluation of the interface adhesion of
the fiber and a epoxy resin was made by the critical lenght obtained in a pullout test.

Keywords: Seven-islands-sedge, Pullout, XRD, Critical length.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

597
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

RECENT ADVANCES IN A METHODOLOGY FOR X-Y CARTESIAN GEOMETRY


NEUTRON TRANSPORT PROBLEMS IN NON-MULTIPLYING MEDIA USING THE
MULTIGROUP DISCRETE ORDINATES FORMULATION

Rafael Barbosa Libotte1 - rafaellibotte@hotmail.com


Jesús Perez Curbelo1 - jcurbelo86@gmail.com
Hermes Alves Filho1 - halves@iprj.uerj.br
Ricardo Carvalho de Barros1 - rcbarros@pq.cnpq.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Abstract. In this work, we propose an extended study of a deterministic numerical nodal


methodology to solve the linearized Boltzmann equation applied to two-dimensional cartesian
geometry neutron shielding problems using the transport theory in the discrete ordinates formu-
lation (SN ), considering the multigroup problems. This method, denominated Modified Spectral
Deterministic–Constant Nodal (MSD-CN), is based on a structural modification of the coarse-
mesh method Spectral Deterministic Method (SDM). Some modifications were implemented in
the SDM’s iterative process, based in the Source Iteration scheme. The MSD-CN is used in the
solution of discretized problems in order to calculate neutron angular fluxes in non-multiplying
media, aiming to test the precision of the results obtained in the solution of a model-problem.
The numerical results were generated and validated using the language C++.

Keywords: Neutron Transport, Fixed-Source Problems, Discrete Ordinates, Multigroup Theory

1. INTRODUCTION

The modelling and solution of neutron transport problems is the subject of several studies
in the engineering field. Since there is some difficulty in the direct analytic solution of realistic
neutron shielding problems, researchers work in the development of numerical methodologies
that are capable of obtaining more precise results in less computational time.
These problems are modelled by the linearized Boltzmann equation (Duderstadt & Hamil-
ton, 1976). It is a integro-differencial equation with 7 independent variables. The angular
variables are discretized using the discrete ordinates formulation (Lewis & Miller, 1993), and
the energetic variable is treated according to the multigroup theory (Bell & Glasstone, 1970).
The modelling presented here considers stationary bidimensional problems.
We discuss in this paper the precision of a method for the solution of two-dimensional
fixed-source problems, named Modified Spectral Deterministic–Constant Nodal (MSD-CN). It

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

598
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

is a modification of the Spectral Deterministic Method (SDM) (Oliva, 2018), which is a coarse-
mesh method that uses the intranodal analytical solution of the neutron transport equation and
an iterative process to calculate the neutron angular fluxes in the node-edge of the modelled
domain. This study aims to test the union of this intranodal analytic solution with a modification
of the iterative process Source Iteration (Lewis & Miller, 1993), which is used in the traditional
fine-mesh method Diamond Difference (Lewis & Miller, 1993).
At this point, we give an outline of the remainder of this paper. In Section 2, it is showed
the mathematical modelling of the neutron transport problem in a non-multiplying host media
considering a rectangular cartesian X-Y geometry. In Section 3 is introduced the Modified
Spectral Deterministic–Constant Nodal. In Section 4 the results of a neutron shielding problem
are presented, along with a comparison with conventional methods from the literature. Finally,
in Section 5, it is showed the conclusions and and suggestions for future works.

2. MATHEMATICAL MODEL

The equation that describes the neutron transport phenomenon in X-Y cartesian geometry
in a non-multiplying media, stationary form, with isotropic scattering, in the discrete ordinates
formulation, using the energy multigroup theory is given by

∂ ∂
µm ψm,g (x, y) + ηm ψm,g (x, y) + σT,g (x, y)ψm,g (x, y)
∂x ∂y
G M
1 X g0 →g X
= σS (x, y) ψn,g0 (x, y)ωn + Qg (x, y), m = 1 : M, g = 1 : G. (1)
4 g0 =1 n=1

In Eq. (1), ψ represents the neutron angular flux, σT the macroscopic total cross section, σS
the macroscopic isotropic scattering cross section, and Q and external neutron source with
fixed value. The energetic variable is divided in G energy groups. For the angular variable
discretization, it is used the Level Symmetry quadrature (LQN ) (Lewis & Miller, 1993), which
uses a set of discrete ordinates in each one of the cartesian plane quadrants to describe the
neutron angular fluxes incoming and outgoing directions. From the quadrature order N , the
total number of discrete directions can be calculated using the equation

N (N + 2)
M= ,
2
with M coordinates µm and ηm , see Figure 1, and M weigths ωm .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

599
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Now, for the spatial variable discretization, consider Figure 2.

Figure 2- Spatial grid Γx,i × Γy,j


Figure 1- Directions and axial coordination
representation.

Let us consider an arbitrary spatial grid Γx,i × Γy,j in a rectangular domain D of width X and
height Y , where each spatial cell, termed node Γi,j , has constant macroscopic cross sections
g 0 →g
σT,g,i,j , σS,i,j and a constant interior source Qg,i,j . After this step, Eq. (1) can be applied in
the interior of each Γi,j node, which physical-material parameters are constant, resulting in the
intranodal spatial balance transport equation in the discrete ordinates formulation (SN ), given
by

∂ ∂
µm ψm,g (x, y) + ηm ψm,g (x, y) + σT,g,i,j ψm,g (x, y)
∂x ∂y
G M
1 X g0 →g X
= σ ψn,g0 (x, y)ωn + Qg,i,j , m = 1 : M, g = 1 : G. (2)
4 g0 =1 S,i,j n=1

3. MODIFIED SPECTRAL DETERMINISTIC–CONSTANT NODAL (MSD-CN)

The first step to the fixed-source neutron transport problem’s solution using the MSD-CN is
the application of the operator

Z us+ 1
1 2
(.)du (3)
hu,s us− 1
2

in Eq. (2), where u = x (or y) and s = i (or j). For the coordinated direction y, it is obtained

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

600
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

d e ηm  
µm ψm,g,j (x) + ψm,g,j+ 1 (x) − ψm,g,j− 1 (x) + σT,g,i,j ψem,g,j (x)
dx hy,j 2 2

G M
1 X g0 →g X e
= σ ψn,g0 ,j (x)ωn + Qg,i,j , m = 1 : M, g = 1 : G (4)
4 g0 =1 S,i,j n=1

for the coordinated direction x, we obtain

µm   d
ψm,g,i+ 1 (y) − ψm,g,i− 1 (y) + ηm ψbm,g,i (y) + σT,g,i,j ψbm,g,i (y)
hx,i 2 2 dy
G M
1 X g0 →g X e
= σ ψn,g0 ,j (x)ωn + Qg,i,j , m = 1 : M, g = 1 : G, . (5)
4 g0 =1 S,i,j n=1

Where the transverse integrated angular fluxes, respectively in the coordinated directions x and
y are given by

Z yj+ 1
1 2
ψem,g,j (x) = ψm,g (x, y)dy
hy,j yj− 1
2

and

Z xi+ 1
1 2
ψbm,g,i (y) = ψm,g (x, y)dx.
hx,i xi− 1
2

Eqs. (4-5) represents two systems, each one with GM equations and 2GM unknowns,
 GM
unknowns represented by the neutron angular fluxes ψm,g,j (x) and ψm,g,i (y) , and GM un-
e b
knowns represented by the transverse neutron leakage terms, described by the equations

ηm  
ψm,g,j+ 1 (x) − ψm,g,j− 1 (x)
hy,j 2 2

and

µm  
ψm,g,i+ 1 (y) − ψm,g,i− 1 (y) .
hx,i 2 2

In this point, the only appoximation in this method is performed, the transverse leakages are
approximated by constants (Barros & Larsen, 1992), in the form

ψm,g,i,j± 1 (x) ≈ ψbm,g,i,j± 1


2 2

and

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

601
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ψm,g,i± 1 ,j (y) ≈ ψem,g,i± 1 ,j .


2 2

With theses equations, the transverse leakages can be rewritten as

ηm  b 
ψm,g,i,j+ 1 − ψbm,g,i,j− 1 = L
bm,g,i,j
hy,j 2 2

µm  e 
ψm,g,i+ 1 ,j − ψem,g,i− 1 ,j = L
em,g,i,j
hx,i 2 2

After performing these approximations, it is guaranteed the unicity of the transverse inte-
grated intranodal equation solution in the Γij node. Thus, Eqs. (4-5) can bee rewritten as

d e
µm ψm,g,j (x) + L
bm,g,i,j + σT,g,i,j ψem,g,j (x)
dx
G M
1 X g0 →g X e
= σ ψn,g0 ,j (x)ωn + Qg,i,j , m = 1 : M, g = 1 : G, (6)
4 g0 =1 S,i,j n=1

em,g,i,j + ηm d ψbm,g,i (y) + σT,g,i,j ψbm,g,i (y)


L
dy
G M
1 X g0 →g X e
= σ ψn,g0 ,j (x)ωn + Qg,i,j , m = 1 : M, g = 1 : G. (7)
4 g0 =1 S,i,j n=1

3.1 Spectral Analysis of the SN Transverse Integrate Equations

The solution of Eqs. (6-7) is divided in two components: and homogeneous one and a
particular one, a set for each coordinated direction, described as

h p
ψem,g (x) = ψem,g (x) + ψem,g

h p
ψbm,g (y) = ψbm,g (y) + ψbm,g

The particular solution in the coordinated axis x, is presented in the form (Oliva, 2018)

G X
M  
X 1 g0 →g p
σT,g,i,j δmn δg0 g − σS,i,j ωn ψen,g 0 = Qg,i,j − Lm,g,i,j .
b
g 0 =1 n=1
4

where δ representes Krönecker’s Delta.


For the homogeneous component, it is considered the expression

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

602
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

−(x − xj− 1 )
2
h
ψem,g,j (x) = axm,g (ϑx )e ϑx . (8)

Substituting Eq. (8) in the homogeneous part of Eq. (6), it is obtained an eigenvalue problem,
given by

G M  
1 XX 1 g0 →g 1
σT,g,i,j δmn δg0 g − σS,i,j ωn axn,g0 (ϑx ) = x axm,g (ϑx )
µm g0 =1 n=1 4 ϑ

Here, a set of GM real and symmetric eigenvalues (ϑ) are obtained, as well as a set of GM
eigenvectors (a(ϑ)) with GM × GM order.
At this point, the general intranodal solution of Eq.(6) can be written as

−(x − xi− 1 )
GM 2

ϑxl
X
ψem,g,j (x) = αlx axm,g (ϑxl )e + ψegp (9)
l=1

where αx represents a set of GM arbitrary parameters in each one of the Γij nodes. These pa-
rameters are updated in each one of the iterations, in order to weigth the neutron angular fluxes
in each direction. Similarly, the general intranodal solution of the neutron transpor equation in
the coordinated axis y can be written as

−(y − yj− 1 )
GM 2

ϑyl
X
ψbm,g,i (y) = αly aym,g (ϑyl )e + ψbgp . (10)
l=1

After obtaining Eq. (9-10), we present a a numerical algorithm to solve Eqs.(6-7).

3.2 Iterative Process

To deduce the equations used in the iterative process of the MSD-CN, the first step is to
calculate the average angular fluxes in each coordinated axis, for x we have

−h
 
x,i
Z xi+ 1 GM
x 1 1 X x x x
αl am,g (ϑxl ) e ϑl − 1 + ψegp
2
ψ m,g,i,j = ψem,g,i (x)dx = (11)
 
hx,i xi− 1 hx,i l=1
2

Analogously, in the coordinated axis y, the average angular neutron flux is given by the expres-
sion

−hy,j
 
GM
y 1 y
αly aym,g (ϑyl ) e ϑl − 1 + ψbgp .
X
ψ m,g,i,j = (12)
 
hy,j l=1

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

603
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Now, we consider the operator

Z xi+ 1 Z yj+ 1
1 2 2
= (.)dydx
hx,i hy,j xi− 1 yj− 1
2 2

applied to Eq. 2, resulting in two equations for updating the neutron angular fluxes. To obtain
the outgoing x direction node-edge average angular fluxes in the right and left faces of the
nodes, we have the equation

ψem,g,i+ 1 ,j = ψem,g,i− 1 ,j
2 2
G M
!
hx,i,j x 1 X g0 →g X x
+ −L
bm,g,i,j − σT,g,i,j ψ m,g,i,j + σ ψ 0 ωn + Qg,i,j (13)
µm 4 g0 =1 S,i,j n=1 n,g ,i,j

ψem,g,i− 1 ,j = ψem,g,i+ 1 ,j
2 2
G M
!
hx,i,j x 1 X g0 →g X x
+ −L
bm,g,i,j − σT,g,i,j ψ m,g,i,j + σ ψ 0 ωn + Qg,i,j (14)
|µm | 4 g0 =1 S,i,j n=1 n,g ,i,j

Now, to obtain the flux in the upper and bottom faces of the node, it is applied the operator

Z yj+ 1 Z xi+ 1
1 2 2
= (.)dxdy (15)
hy,j hx,i yj− 1 xi− 1
2 2

in Eq. (2), resulting in the equations to outgoing y direction node-edge average angular fluxes

ψbm,g,i,j+ 1 = ψbm,g,i,j− 1
2 2
G M
!
hy,i,j y 1 X g0 →g X y
+ −L
em,g,i,j − σT,g,i,j ψ m,g,i,j + σ ψ 0 ωn + Qg,i,j (16)
ηm 4 g0 =1 S,i,j n=1 n,g ,i,j

and

ψbm,g,i,j− 1 = ψbm,g,i,j+ 1
2 2
 G M 
hy,i,j y 1 X g0 →g X y
+ − Lm,g,i,j − σT,g,i,j ψ m,g,i,j +
e σ ψ 0 ωn + Qg,i,j (17)
|ηm | 4 g0 =1 S,i,j n=1 n,g ,i,j

In order to perform the iterative process, 4 sweeping directions across the spatial grid are
adopted: SW → N E, SE → N W , N E → SW and N W → SE (Figure 1), where the
outgoing fluxes of each node are calculated using the incoming fluxes and the interior neutron
sources, using Eqs. (13-14) and Eqs. (16-17). Before each sweep, the average neutron angu-
lar fluxes and scatering sources are updated in each node, as in the iterative process Source
Iteration, as shown in Lewis & Miller (1993).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

604
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

After this process, the average scalar fluxes are calculated in each node, according to the
equation

M
u 1X u
φg,i,j = ψ ωn ,
4 n=1 n,g,i,j

where u can represent any of the coordinated axis. In this work, it was used as the stopping
criterion a comparison between the maximum relative deviation of the average scalar fluxes of
two subsequent interations

u,k+1 u,k

φ
g,i,j − φg,i,j
u,k <ξ (18)
φ g,i,j

where k represents the iteration number and ξ is a predefined precision parameter.

4. NUMERICAL RESULTS

In this section, we present the solution of a model-problem simulated with MSD-CN. The
results are compared to the codes TWOTRAN (K.D. Lathrop & F.W. Brinkley, 1973), DOT-II
(A. F. Dias, 1980) and the method Response Matrix (RM) (da Silva, 2018), besides a fine-mesh
reference, that uses the Diamond Difference method (Lewis & Miller, 1993). This problem, that
was suggested by the Argonne Code Center (Argonne National Laboratory, 1972), is about a
realistic neutron shielding model in an absorver media with 2 groups of energy.
This model presents a problem with constant physical-material parameters and a neutron
source (Qg ) evenly distributed in one of the regions of the domain. The geometry of this problem
can be seen in Figure 3.

Figure 3- Model-problem geometry

The physical-material parameters are shown in Table 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

605
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1- Physical-material parameters of the model-problem


σT,g [cm−1 ] Qg g0 = 1 g0 = 2
g=1 0,092104 0,006546 0 0,006947 0,000000
σSg →g [cm−1 ]
g=2 0,100877 0,017701 0,023434 0,004850

In the solution of this problem was used the quadrature orders S8 and S12 , and a stopping
criterion ξ = 10−6 . The region that contains the source was divided in 13 × 14 nodes, the 68
cm region in the x direction was divided in 14 nodes, and the 80 cm one in the y direction in 16
nodes. For the fine-mesh reference, it was used a 39 × 42 grid in the fixed-source region, and
for the outer region, a 36 × 48 mesh. The results for the neutron leakage in the right face of the
domain in shown in Table 2.

Table 2- Neutron leakage in the right face


SN Group DD TWOTRAN DOT-II MSD-CN RM
1 5,7400E-04 5,0000E-04 4,9900E-04 5,4736E-04 5,4743E-04
8
2 9,2100E-04 8,0000E-04 7,7500E-04 8,7819E-04 8,7831E-04
1 5,7400E-04 4,9600E-04 4,9900E-04 5,4836E-04 5,4832E-04
12
2 8,9100E-04 7,7500E-04 7,7600E-04 8,7880E-04 8,7868E-04

The numerical results obtained with each quadrature orders used were close to the fine-mesh
reference. In a precision point of view, the results presented by the MSD-CN, this work’s main
goal, are compatible with the ones presented by the DD and RM methods, and the DOT-II and
TWOTRAN codes, that uses the SN transport theory.

5. CONCLUSIONS

In this work, recent advances in a methodology to solve fixed-source problems in two-


dimensional cartesian geometry, named Modified Spectral Deterministic–Constant Nodal (MSD-
CN), was presented. In the mathematical modelling of the problem, the angular variables were
discretized with the discrete ordinates formulation, and the energy multigroup theory. More-
over, the neutron scattering phenomenon was considered isotropic. A problem was solved using
the MSD-CN and compared the results with the fine-mesh codes DOT-II and TWOTRAN and
Diamond Difference and the coarse-mesh method Matrix Response.
In the solution of the proposed model-problem, two orders of quadrature were used, S8 and
S12 . In the domain’s discretization, it was used grid similar to the one used in Oliva (2018),
in order to compare the neutron leakages with this work. The results calculated with MSD-CN
were relatively close to the fine-mesh reference for each one of the tested quadrature orders,
according to the literature.
The Modified Spectral Deterministic–Constant Nodal showed itself promissing in the solu-
tion of model proposed in this work, with regard to the precision of the calculated results in the
tested conditions. More accurate tests with respect to the spatial variable discretization mesh,
in order to find a good cost/benefit relationship, when comparing the precision of the calculated
result and the CPU time in the execution of fixed-source problems.
For future works, we intend to increase the anisotropic scattering degree, implement a larger
number of energy groups, make a performance test, comparing the CPU time and number of

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

606
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

iterations with other coarse-mesh methods, and develop the MSD-CN using parallel program-
ming.

Acknowledgments

This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de Nı́vel
Superior - Brasil (CAPES) - Finance Code 001. The group would like to thank the Laboratório
de Modelagem Multiescala e Transporte de Partı́culas (LabTran).

REFERENCES

O. P. da Silva (2018), “Um método de matriz resposta para cálculos de transporte multigrupos de
energia na formulaçáo de ordenadas discretas em meios não-multiplicativos”, Tese de Doutorado,
IPRJ/UERJ, Nova Friburgo.
E. E. Lewis, W. F. Miller. (1993),“Computational methods of neutron transport”, 2o ed., Wiley, New
York.
G. I. Bell, S. Glasstone (1970), “Nuclear Reactor Theory”, 2o ed. Krieger Pub Co.
J. J. Duderstadt, L. J. Hamilton, et al. (1976),“Nuclear reactor analysis”, 1o ed., Wiley, New York.
R. C. Barros, E. W. Larsen (1992),“A spectral nodal method for one-group X,Y-geometry discrete ordi-
nates problems”,v. 111, n. 1, p. 34-45.
A. M. Oliva. (2018), “Método Espectral Determinı́stico para a solução de problemas de transporte
de nêutrons usando a formulação das ordenadas discretas”, Tese de Doutorado, IPRJ/UERJ, Nova
Friburgo.
K.D. Lathrop, F.W. Brinkley (1973),“TWOTRAN-II, an interfaced exportable version of TWOTRAN
code for two-dimensional transport”, Los Alamos, New Mexico 87544, Los Alamos Scientific Labo-
ratory, 1973.
A. F. Dias (1980),“Estudo e aplicação dos códigos ANISN e DOT-II em problemas de fı́sica de reatores”,
Dissertação de Mestrado, Instituto de Pesquisa Energéticas e Nucleares, Universidade de São Paulo.
Argonne National Laboratory (1972),“Argonne Code Center: Benchmark Problem Book. Numeri-
cal Determination of the Space, Time, Angle, or Energy Distribution of Particles in an Assem-
bly”, Report, January 1, 1972; Illinois. University of North Texas Libraries, UNT Digital Li-
brary, https://digital.library.unt.edu; crediting UNT Libraries Government Documents Department.
(https://digital.library.unt.edu/ark:/67531/metadc837889/: accessed September 9, 2020)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

607
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE TÉRMICA DAS FIBRAS DE JUNCO-SETE-ILHAS E COMPÓSITOS


EPOXÍDICOS REFORÇADOS COM FIBRAS DE JUNCO-SETE-ILHAS

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Michelle Souza Oliveira1 – oliveirasmichelle@gmail.com
Vanessa Ermes Santos1 – vanessa_ermess@hotmail.com
Artur Camposo Pereira1 – camposo.artur@gmail.com
Rangel de Paula Almeida2 – almeida.rangel95@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil
2
Engenheiro Mecânico, Mestrando em Engenharia Metalúrgica pela UFF, Volta Redonda, RJ, Brasil.

Resumo. Uma preocupação crescente a respeito do gás efeito estufa para o meio ambiente
motivam esforços de pesquisadores visando promover a aplicação de materiais naturais menos
prejudiciais ao meio ambiente e a qualidade de vida dos seres vivos. Por essa razão o uso de
fibras lignocelósicas aparece como uma alternativa para substituir compósitos reforçados com
fibras sintéticas. Uma diversidade dessas fibras já foram amplamente pesquisadas como a juta,
sisal, linho, cânhamo, algodão e muitas outras variedades de fibras e até aplicadas como
reforço em compósitos empregados em componentes veiculares, por exemplo. No entanto,
essas fibras apresentam certas desvantagens, uma em específico é relacionada à baixa
estabilidade térmica, o que reflete em uma limitação dos compósitos. O presente trabalho foi
dedicado a análise de uma fibra lignocelulósica cientificamente nova em termos de estudo,
conhecida como junco-sete-ilhas no Brasil, cujo cultivo é exclusivo na região do Vale do
Ribeira/São Paulo. Se preocupando em conhecer seu comportamento em altas temperaturas
da fibra natural, foi realizado uma análise de termogravimetria (TGA), além de analisar o
comportamento térmico dos compósitos reforçados com 10, 20 e 30% de fração volumétrica.
Onde se observou uma Tonset de 255,68°C para a fibra e uma faixa de 292 até 300,5°C para os
compósitos.

Palavras-chave: Fibra lignocelulósica, Junco-sete-ilhas, Compósito, TGA.

1. INTRODUÇÃO

Fibras sintéticas experimentaram um crescimento exponencial depois da segunda guerra


mundial e se tornaram a classe de materiais de engenharia mais bem sucedida (Agarwal &

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

608
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Broutman, 1990; Ashbee, 1993; Chawla, 2012), aplicada em praticamente todos os campos de
interesse humano, de próteses cirúrgicas até componentes aeroespaciais. Entretanto, no fim do
século passado uma preocupação a respeito da poluição generalizada causada por materiais não
biodegradáveis, gerada especialmente por plásticos com um processo lento de degradação, e
mudanças climáticas resultantes de emissão de gás carbônico, levou a uma tendência em
substituir materiais compósitos reforçados com fibras sintéticas. Materiais naturais, em
particular as fibras ricas em celulose, conhecidas popularmente como fibras lignocelulósicas
(FNLs) foram selecionadas como substitutas da fase reforço constituídas por fibras inorgânicas,
através de diversas pesquisas nas últimas décadas (Nabi & Jog, 1999; Eichhorn et al., 2001;
Netravali & Chabba, 2003; Satyanarayana et al., 2007; Crocker, 2008; Monteiro et al., 2009).
Atualmente, componentes automotivos, equipamentos de esporte e próteses médicas são
alguns exemplos de utilização de compósitos reforçados com FNLs (Kalia et al., 2011). Quando
comparada às fibras de vidro as FNLs são mais baratas, leves e menos abrasivas em contato
com equipamentos (Wambua et al., 2003; Joshi et al., 2004). Entretanto, as dimensões das
fibras vegetais apresentam uma dispersão estatística elevada e são anatomicamente restritas,
enquanto que por outro lado, as fibras inorgânicas são fabricadas com dimensões precisas
(Monteiro et al., 2011). Além disso, a natureza hidrofílica das fibras naturais provoca uma
adesão fraca em relação aos polímeros hidrofóbicos, geralmente empregados como matrizes
poliméricas (Bledzki & Gasssan, 1999; Mohanty et al., 2000; Mohanty et al., 2002; Mohanty
et al., 2005).
Condições associadas à aplicação de altas temperaturas durante o processo de fabricação
do compósito compromete o processamento com o uso de fibras naturais como fase reforço,
pois apresentam uma estabilidade térmica inferior se comparadas aos compósitos reforçados
com fibras sintéticas. De acordo com a literatura, a temperatura de processamento usual de um
compósito termoplástico é estabelecida em torno de 180-200°C. Entretanto, é possivel aplicar
temperaturas acima de 200°C por curtos períodos de tempo para algumas fibras lignocelulosicas
em particular (Agarwal & Broutman, 1990; Ashbee, 1993; Sanadi et al., 1996).
Em virtude disso, o presente trabalho busca avaliar a estabilidade térmica de uma fibra
extraída da planta de junco-sete-ilhas, que por sua vez, é uma planta originária do japão e
cultivada exclusivamente no Brasil na cidade de Registro na região do Vale do Ribeira. (Hiroce
et al., 1988).
Essa planta é desconhecida cientificamente com relação as suas propriedades térmicas.
Sendo assim, a resposta das fibras de junco-sete-ilhas e compósitos incorporando essas fibras
em diferentes frações volumétricas correspondentes a 10, 20 e 30% em volume, em matrizes
epóxidicas, foram avaliadas por uma análise termogravimétrica.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

As fibras foram extraídas de uma esteira de junco-sete-ilhas adquiridas por meio da


empresa Artevale. Foram utilizadas “in natura” e estavam na forma de caule, por isso foram
limpas, desfiadas e cortadas em um comprimento equivalente a 150 mm e secas em estufa a
70°C por 24h com a finalidade de se retirar a umidade presente. Essas fibras, por sua vez, não
sofreram nenhum tipo de tratamento químico. A fase matriz utilizada na confecção dos
compósitos foi a resina epóxi comercial (DGEBA), fornecido pela distribuidora RESINPOXY
Ltda e fabricada pela empresa Dow Chemical do Brasil. O catalisador utilizado à resina foi o

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

609
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Trietileno Tetramina (TETA), adotando a proporção estequiométrica de 13 partes de


endurecedor para 100 partes da resina.
Para a fabricação dos compósitos foi utilizada uma matriz metálica, em forma de placas,
que foram produzidas em uma prensa SKAY de 30 toneladas. Uma camada de graxa de silicone
foi adicionada em toda a superfície da matriz de modo a minimizer a aderência da placa na
matriz e facilitar a retirada. As fibras foram inseridas de forma continua e alinhadas no molde,
posteriormente molhadas pela mistura da resina e endurecedor. Após um período de 24 horas
foram retiradas da prensa e do molde metálico.
Com relação a análise Termogravimétrica (TGA), as amostras de fibra de junco-sete-ilhas
foram cominuídas e inseridas em um cadinho de platina, de modo que o mesmo procedimento
foi feito para as amostras de epóxi puro e compósitos epoxídicos com diferentes percentuais de
fibra de 10, 20 e 30% v/v, sendo um total de 5 amostras. As condições de operação envolveram
uma atmosfera de nitrogênio com taxas de aquecimento de 10°C/min com um intervalo de 30
a 600°C. As amostras foram ensaiadas no Instituto de Pesquisas da Marinha (IPQM) em um
equipamento da marca Shimadzu, modelo DTG-60H. Temperaturas associadas com diversas
etapas de degradação dos materiais, como a degradação dos componentes estruturais das fibras
e perda de umidade foram identificados durante a análise.

2.2 Resultados e Discussão

A Fig. 1 mostra os resultados da análise de TGA juntamente com a derivada de primeira


ordem (DTG). Considerando a variação da perda de massa com a temperatura, ocorreu uma
perda de 10,2% entre as temperaturas de 26 a 100°C devido a uma liberação de água
provocando uma desidratação das fibras. Boa estabilidade térmica das fibras é observada até
uma temperatura de 241°C no qual a perda de massa foi de 13,23%. Uma queda abrupta no
peso, de 241 até 351°C, apresentam a maior perca de 63,07%. Depois uma perda de 96,04%
ocorreu entre 351 a 496°C, seguindo inalterada até a temperatura de 600°C. Possivelmente
resultante das cinzas remanescentes.
Vale ressaltar que as temperaturas de 255,68°C (Tonset) e a máxima taxa em 300,95°C
estão, possivelmente, diretamente relacionadas com o início de degradação dos componentes
estruturais da fibra de junco-sete-ilhas como a lignina e hemicelulose. Em quanto em torno de
349°C se inicia uma outra perda associada ao início de degradação da celulose, segundo
Monteiro e colaboradores (2012).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

610
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Curva TGA/DTG para as fibras de junco-sete-ilhas.

Curvas de TGA/DTG para a resina epóxi e os compósitos nas frações volumétricas de


10, 20 e 30% v/v de fibras contínuas e alinhadass foram adquiridas. A Fig. 2 exibe a curva
obtida para a resina epóxi.

Figura 2- Curva TGA/DTG para a resina epóxi.

Nota-se que a perda de massa é extremamente baixa, cerca de 1,64% até


aproximadamente 230°C, estando diretamente relacionada com a baixa umidade presente nas
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

611
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

resinas poliméricas sintéticas, como a resina epóxi DGEBA-TETA, e pelo fato de serem
hidrofóbicas. A grande perda de massa acontece na Tonset (344, 74°C) e a máxima taxa
representada na curva DTG em 388,5°C ambas diretamente relacionadas com a degradação e
ruptura das cadeias poliméricas, chegando a uma perda de 70,59% de massa. Uma terceira etapa
ocorrendo na temperatura de 455 até 600°C, confere um teor de cinzas final correspondendo a
cerca de 19,6%. Os parâmetros termogravimétricos adquiridos para as curvas de TGA/DTG do
epóxi e dos compósitos de 10, 20 e 30%v/v de fibras de junco-sete-ilhas estão presentes na
Tabela 1.

Tabela 1: Parâmetros termogravimétricos do epóxi e dos compósitos reforçados com fibras de


junco-sete-ilhas até 30% em volume.

Fração
0% 10% 20% 30%
volumétrica
Degradação das
- 80,2 97 90,4
Fibras (°C)
Final do
primeiro estágio 227 228 224,2 219,6
(°C)
Tonset (°C) 344,7 292 287,08 300,5
Máxima Taxa
388,5 341,6 362,1 334,2
(°C)
Início do
Terceiro estágio 455,5 420 420,3 421,9
(°C)
Resíduo final
19,6 27,38 27,64 26,8
(%)

As fig. 3 e 4 demonstram, respectivamente, as curvas de TGA e DTG para os compósitos


epoxídicos reforçados com fibras contínuas e alinhadas em 10%,20% e 30% v/v. Os resultados
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

612
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresentados pela Tabela 1 e da fig. 3 e 4 apresentam pequenos picos inicias entre as


temperaturas de 80 a 100°C, considerando perdas variando de 3 a 4,2% em massa estão
associados a liberação de umidade presentes na superfície de todas as fibras lignocelulósicas.
Podendo ser considerado como um primeiro limite da estabilidade térmica de compósitos
poliméricos reforçados com fibras naturais de junco-sete-ilhas. Outra diferença está relativa à
temperatura correspondente a máxima taxa de degradação, o qual os compósitos apresentam
uma temperatura variando na faixa de 334,2 a 362,1°C ligeiramente inferior a 388,5°C referente
a matriz epóxi pura. Outro fator muito relevante é a queda da Tonset nos compósitos variando
de uma faixa de 292 a 300,5°C em contrapartida com o valor de 344,7°C para a matriz epóxi.
Esse comportamento é semelhante ao reportado por alguns autores na literatura (Mohanty et
al., 2006; Monteiro et al., 2012). A redução da temperatura de início da degradação, sendo o
limite aceito de estabilidade para os compósitos ocorre devido ao processo de decomposição
térmica das fibras de junco-sete-ilhas, bem como qualquer outra fibra lignocelulósica. De
acordo com a Tabela 1, fica evidente que a incorporação das fibras diminuiu a estabilidade
térmica dos compósitos, promovendo uma diminuição crescente a medida que o volume de
fibras incorporadas aumentou. Dessa forma, os compósitos epoxídicos reforçados com fibras
de junco-sete-ilha possuem aplicações no mercado em que a temperatura de processamento seja
inferior a Tonset dos mesmos.

Figura 3- Curvas TGA da resina epóxi e matriz epoxídica reforçada com 10,20 e 30%
em volume de fibras de junco-sete-ilhas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

613
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4: Curvas DTG da resina epóxi e matriz epoxídica reforçada com 10,20 e 30%
em volume de fibras de junco-sete-ilhas.

A lignina é o primeiro componente estrutural das fibras naturais lignocelulósicas a iniciar


sua degradação, por isso o início do processo occorre em temperaturas mais baixas a partir de
220°C e continua em temperaturas elevadas, acima de 440°C (Monteiro et al., 2012). Dessa
forma, a degradação da lignina é responsável diretamente pelo limite de estabilidade térmica de
um compósito reforçado com fibras naturais lignocelulósicas. Sendo assim, o limite de
estabilidade dos compósitos é representado pela temperatura de início de decaimento da
segunda fase. A razão para a diminuição das temperaturas em que ocorre máxima taxa de
degradação está diretamente relacionada com a presença das fibras de junco-sete-ilhas. Na
última etapa é apresentado um aumento do percentual de resíduo final variando de 26,8 a
27,38% enquanto na matriz epóxi esse percentual é de 19,6%. Isto pode ser atribuído com a
menor perda de massa na segunda fase da curva TGA.

3. CONCLUSÃO

Através das análises termográvimetricas das fibras de junco-sete-ilhas foi possível


descobrir dados importantes relacionados às etapas de degradação das principais estruturas que
compõem uma fibra lignocelulósica, dados esses foram as temperaturas de 26 a 100°C onde
ocorreu uma perda de massa relacionado a liberação de água presente nas superfícies das fibras.
Além das temperaturas de início da grande perda de massa relacionadas à degradação das
estruturas presentes nas fibras como a na Tonset (344,74°C), a máxima taxa representada na
curva DTG em 388,5°C e o percentual em massa restante relacionado às cinzas.
Além disso, foi possível avaliar como ocorre a degradação dos compósitos reforçados
com fibras de junco-sete-ilhas, de modo que as temperaturas limites da estabilidade térmica
foram superiores a temperatura de 200°C, permitindo a incorporação dessas fibras em
compósitos termoplásticos e o uso em pequenos períodos de tempo. Adicionalmente, foi
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

614
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

possível observar pequenos picos iniciais entre as temperaturas de 80 a 100°C, relacionados a


perda de água das fibras. Outro comportamento, conforme esperado se baseando na literatura,
foi a redução na faixa de temperatura em que ocorre o início da degradação do epóxi, variando
de uma faixa de 292 a 300,5°C em contrapartida com o valor de 344,7°C, devido ao processo
de decomposição térmico das fibras naturais. Foi apresentado um acréscimo no percentual de
massa restante de cinzas variando entre 26,8 a 27,38% enquanto na matriz epóxi esse percentual
é de 19,6%. Isto pode ser atribuído com a menor perda de massa no seu processo de degração.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao departamento de Ciência dos Materiais do IME e ao Instituto de Pesquisas da Marinha
(IPQM).

REFERÊNCIAS
Agarwal BD, Broutman LJ. 1990. Analysis and Performance of Fiber Composites. Edição (2). John Wiley
& Sons.
Ashbee KH. 1993. Fundamental Principles of Fiber Reinforced Composites. Edição (2). CRC Press.
Chawla KK. 2012. Composite Materials Science and Engineering. Springer Science & Business.
Bledzki AK, Gassan J. Composites reinforced with cellulose-based fibers. Progress in Polymer
Science.1999; 4:221–747
Mohanty AK, Misra M, Hinrichsen G. Biofibres, biodegradable polymers and biocomposites: An overview.
Macromolecular Materials and Engineering. 2000; 276(1):1–24.
Nabi SD, Jog JP. Natural fibre polymer cmposites: A review. Advanced Polymer Technology.
1999;16(4):351-363.
Eichhorn SJ, Baillie CA, Zafeiropoulos N, Mwaikambo LY, Ansell MP, Dufresne A, Hughes, M. Review –
Current international research into cellulosic fibres and composites. Journal of materials Science.
2001;36(9):2107–2131.
Mohanty AK, Misra M, Drzal LT. Sustainable bio-composites from renewable resources: opportunities and
challenges in the green materials world. Journal of Polymers and the Environment. 2002; 10(1-2):19–26.
Netravali AN, Chabba S. Composites get greener. Materials Today.2003;4 (6):22–9.
Mohanty AK, Mishra M, Drzal LT. Natural Fibers, Biopolymers and Biocomposites. CRC press. 2005.
Satyanarayana KG, Guimarães JL, Wypych FERN. Studies on lignocellulosic fibers of Brazil. Part I:
Source, production, morphology, properties and applications. Composites Part A: Applied Science and
Manufacturing.2007; 38(7):1694–709.
Crocker J. Natural materials innovative natural composites. Materials Technology. 2008; 2–3:174–8.
Monteiro SN, Lopes FPD, Ferreira AS, Nascimento DCO. Natural fiber polymer matrix composites:
cheaper, tougher and environmentally friendly. JOM. 2009; 61:17–22.
Kalia S, Kaith BS, Kaurs I. Cellulose Fibers: Bio and Nano Polymer Composites: green chemistry and
technology. Springer Science & Business Media. 2011.
Monteiro SN, Lopes FPD, Barbosa AP, Bevitori AB, Silva ILA, Costa LL. Natural lignocellulosic fibers as
engineering materials – an overview. Metallurgical and Materials Transactions A. 2011;42(10):2963.
Wambua P, Ivens J, Verpoest I. Natural Fibres: can they replace glass in fibre reinforced plastics?
Composites Science and Technology. 2003; 63(9):1259–1264.
Joshi SV, Drzal LT, Mohanty AK, Arora S. Are natural fiber composites environmentally superior to glass
fiber reinforced composites?. Composites Part A: Applied science and maufacturing. 2004;35(3):371–376.
Sanadi AR, Rowell RM, Caulfield DF. Agro based fiber/polymer composites, blends and alloys. Polymer News.
1996;21(1):7–17.
Hiroce R, Benatti JR, Feitosa CT. Estudos nutricionais em junco: adubação e calagem. Bragantia.
1988,47(2):313-323.
Mohanty S, Verma SK, Nayak SK. Dynamic Mechanical and Thermal Properties of MAPE Treated
Jute/HDPE Composites. Composites Science and Technology. 2006;6:538-547.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

615
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Monteiro SN, Calado V, Rodriguez RJ, Margem FM. Thermogravimetric stability of polymer composites
reinforced with less common lignocellulosic fibers - An overview. Journal of Materials Research and
Technology. 2012;1(2):117-126.
Monteiro, SN, Calado V, Margem FM., Rodriguez RJS.Thermogravimetric stability behavior of less
common lignocellulosic fibers - A review. Journal of Materials Research and Technology. 2012;1(3):189-199.

THERMAL ANALYSIS OF SEVEN-ISLANDS-SEDGE FIBERS AND EPOXY


MATRIX COMPOSITES REINFORCED WITH SEVEN-ISLANDS-SEDGE FIBERS

Abstract. A growing concern about the environmental reasons involving green gas motivated
researchers efforts aiming to providade natural materials less harmful to the enviromennt and
the humanbeings’s quality of life. For this reason the use of lignocellulosic fibers replaces
sinthetic fibers composites, a diversity of them have already been investigated such jute, sisal,
flax, hemp, cotton and other variets of fibers and even apllied as reinforcement in polymeric
matrices in automobile components, for instance. However, theses fibers presents certains
drawbacks, specifically one of them is relative to their low thermal stability reflecting on a
limitation to their composites. The present work have been dedicate to analyze a scientifically
new ligocellulosic fiber for engineering aplications known as seven-islands-sedge in Brazil
where it has an exclusive cultivation in the region of Vale do Ribeira/São Paulo. Concerning
to discover how it behaves in high temperatures the natrual fiber was subjected to an
thermogravimetric analysis (TGA), besides composites reinforced with 10, 20 and 30% of
volumetric fractions of this fiber were also analysed.

Keywords: Lignocellulosic fiber, Seven-islands-sedge, composite, TGA.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

616
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

OTIMIZAÇÃO COMPUTACIONAL DE CADEIAS DE MARKOV EM TEMPO


CONTÍNUO APLICADAS AO MODELO SIR UTILIZANDO SUB AMOSTRAGEM

Igor Morgado1 - igor.morgado@ime.uerj.br


Michelle Lau1 - michelle.lau@ime.uerj.br
Zochil González Arenas1,2 - zochil@ime.uerj.br
1 PPG em Ciências Computacionais, Instituto de Matemática e Estatística, UERJ - RJ, Brasil
2 Dept. de Matemática Aplicada, IME, Universidade do Estado do Rio de Janeiro - RJ, Brasil

Resumo. O novo Coronavirus (COVID-19) espalhou-se rapidamente pelo mundo e dinamizou a


pesquisa da modelagem matemática aplicada à epidemiologia. Um dos modelos utilizados
para estudar a propagação da COVID-19 é o modelo compartimental do tipo Suscetível-
Infectado-Recuperado (SIR) com uma abordagem determinística. Neste trabalho, apresentamos
a modelagem computacional do modelo SIR com uma abordagem estocástica, utilizando
Cadeias de Markov de Tempo Contínuo (CTMC). A simulação de processos estocásticos impõe
barreiras computacionais em processamento e, principalmente, encontra limites na memória
física dos meios de cômputo. O método apresentado nesse trabalho permitiu um speedup de
aproximadamente 20x e conseguimos manter o uso de memória fixo, independente do tamanho
da simulação. Além disso, apresentamos o algoritmo que permite solucionar o modelo SIR
CTMC.

Keywords: Processos estocásticos, Cadeias de Markov, SIR CTMC, Otimização Computacional,


Subamostragem

1. INTRODUÇÃO

Os modelos matemáticos são ferramentas importantes para realizar a análise da propagação


e de controle de doenças infecciosas. Além dos modelos, a realização de simulações compu-
tacionais também é útil para construir e testar teorias e determinar a sensibilidade a mudanças
nos valores dos parâmetros. A modelagem epidemiológica pode contribuir para fazer previsões
gerais e estimar as incertezas nas previsões (Hethcote, 2000).
Os modelos compartimentais são amplamente utilizados na simulação e estudo de doenças
infecciosas. Esses modelos dividem a população em classes (ou compartimentos) que represen-
tam os vários estados da doença. Eles podem ser determinísticos ou estocásticos. No modelo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

617
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

determinístico, o processo epidêmico é representado por um conjunto de equações diferenciais


ordinárias que, dada uma condição inicial, descrevem a evolução temporal da doença. Por outro
lado, através dos modelos estocásticos pode-se inserir uma certa aleatoriedade nos parâmetros.
Os modelos estocásticos estimam as distribuições de probabilidade dos resultados possíveis e,
dessa forma, oferecem diferentes cenários aos quais não se tem acesso através dos modelos
determinísticos. Enquanto os modelos determinísticos descrevem uma dinâmica entre comparti-
mentos, os modelos estocásticos consideram a evolução de cada indivíduo da população. Dessa
forma, os modelos determinísticos são convenientemente usados na epidemiologia matemática
com populações grandes. O modelo estudado neste trabalho é o modelo compartimental SIR
(Suscetível-Infectado-Recuperado). Em (Lau et al, 2020) foi demonstrado que o modelo SIR
estocástico apresenta resultados com as mesmas tendências quando comparado com o modelo
SIR determinístico utilizando os mesmos parâmetros.
Na modelagem estocástica, para populações muito grandes, calcular esses valores tem um
custo computacional muito alto (Greenwood-Gordillo, 2009). Combinar a capacidade com-
putacional com precisão numérica e um código otimizado continua a ser um desafio nessa
área de pesquisa. Com o objetivo de usar a modelagem estocástica no estudo da COVID-19,
doença respiratória infecciosa transmitida de pessoa para pessoa através de contato próximo
com indivíduo infectado, com dimensões de pandemia, foi estritamente necessário desenvolver
métodos para controlar o uso de memória e reduzir o tempo de computação de cada iteração na
simulação. Os resultados obtidos foram excelentes, permitindo o estudo da evolução da doença
para populações grandes. Neste trabalho, apresentamos os métodos utilizados bem como o
algoritmo que permitiu realizar as simulações.
O trabalho está organizado da seguinte forma. Na Seção 2., alguns conceitos importantes
para realizar a modelagem estocástica são definidos. Na seção seguinte é definido matematica-
mente o modelo compartimental SIR estocástico utilizado. Após, na Seção 4., é apresentado o
modelo computacional, incluindo as otimizações realizadas como uma subseção. Na Seção 5.
são discutidos os resultados e, por fim, são apresentadas as conclusões do trabalho e referências.

2. CONCEITOS PRELIMINARES

Para trabalhar com modelos compartimentais estocásticos a estrutura natural a ser utilizada
são os processos estocásticos denominados processos de Markov.
Um processo estocástico é uma coleção de variáveis aleatórias {Xt (ω) : t ∈ T, ω ∈ Ω},
onde T é o conjunto de índices e Ω é o espaço amostral, denominado espaço de estados. Um
processo estocástico markoviano caracteriza-se por não ter memória, isto é, o conhecimento
do estado futuro do processo depende apenas do seu estado atual. Isto é, matematicamente,
representado da seguinte forma,

P rob(Xtk+1 ≤ xk+1 |Xtk = xk , · · · , Xt0 = x0 ) = P rob(Xtk+1 ≤ xk+1 |Xtk = xk ) (1)

para t0 < t1 < · · · < tk < tk+1 , ti ∈ T , com i = 0, 1, 2, · · · , k + 1, sendo xi o estado que a
variável aleatória pode assumir.
Se as variáveis aleatórias Xt (ω) assumem valores discretos, então o processo markoviano é
denominado Cadeia de Markov. Uma Cadeia de Markov pode ser classificada, a depender de
se o tempo é considerado discreto ou contínuo, como Cadeia de Markov de Tempo Discreto,
DTMC, pelas siglas em inglês (Discrete Time Markov Chain), ou como Cadeia de Markov de
Tempo Contínuo, CTMC (Continuous Time Markov Chain). O modelo compartimental proposto

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

618
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

neste trabalho é o CTMC, pois suas variáveis aleatórias assumem valores discretos e o tempo é
analisado em um intervalo contínuo.
Cada variável aleatória X(t) do processo possui uma distribuição de probabilidade
{pi (t)}∞
i=0 associada, tal que

pi (t) = P rob{Xt = i}. (2)

A probabilidade dos estados possíveis que a variável aleatória X(t) pode assumir é repre-
sentada pela Eq. (2). Pode-se representar essa distribuição de probabilidade através do vetor
p(t) = (p0 (t), p1 (t), . . . )T , onde T denota a transposta.
As variáveis aleatórias Xs e Xt , com s < t, em uma Cadeia de Markov, podem ser
relacionadas através da probabilidade de transição entre estados, oferecendo assim informações
acerca do sistema.
Essa probabilidade de transição, denotada por pji (t, s), é definida como a seguinte probabi-
lidade condicional:

pji (t, s) = P rob{Xt = j|Xs = i}, s < t (3)

A probabilidade da variável aleatória X no instante de tempo t encontrar-se no estado j dado


que no instante de tempo s estava no estado i, para i, j = 0, 1, 2, · · · é definida pela Eq. (3). Por
outro lado, as probabilidades de transição são soluções das equações de Chapman-Kolmogorov

X
pjk (s)pki (t) = pji (t + s). (4)
k=0

Considerando que as probabilidade de transição dependem apenas do tamanho do intervalo


t − s, ou seja, não dependem do tempo s ou t, elas são denominadas probabilidades de transição
estacionárias. Por conveniência, as probabilidades de transição tratadas neste trabalho são assu-
midas como estacionárias. Portanto, tem-se,

pji (t − s) = P rob{X(t − s) = j|X(0) = i}, s < t (5)

Um aspecto importante no trabalho com cadeias de Markov é a forma em que o tempo é


analisado. Em DTMC há um “salto” para um novo estado no tempo discreto 1, 2, . . ., ao passo
que em CTMC o “salto” pode ocorrer em qualquer tempo t ≥ 0. Tendo em vista essa diferença,
é analisado a seguir como calcular esse salto em uma CTMC.
Em uma cadeia de Markov de tempo contínuo, considerando o estado inicial X(0) = i,
tem-se que o processo permanece no estado inicial i por um período aleatório de tempo W1 até
passar para um novo estado j, ou seja, X(W1 ) = j. Em seguida, ele permanece no estado j
por um novo período aleatório de tempo W2 até alcançar o novo estado X(W2 ) = k, e assim
sucessivamente. Portanto, pode-se definir Wi como a variável aleatória para expressar o tempo
do i-ésimo salto. Considera-se, inicialmente, W (0) = 0. O conjunto de variáveis aleatórias
{Wi }∞i=0 é denominado como tempo de salto ou tempo de espera do processo.
Para realizar simulações estocásticas em uma CTMC é necessário conhecer a distribuição
para o tempo entre sucessivos eventos, também denominado, tempo entre eventos. É definida,
portanto, uma variável aleatória para o tempo entre eventos denominada Ti , contínua e não-
negativa, de modo que Ti = Wi+1 − Wi ≥ 0, onde Wi é o tempo do i-ésimo salto.
Por outro lado, é necessário usar o fato de que o tempo entre eventos tem uma distribuição
exponencial, para calcular numericamente um caminho de amostra de um modelo CTMC.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

619
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Isso resulta da propriedade de Markov. A distribuição exponencial tem o que é chamado de


propriedade sem memória, memoryless property. Portanto, a variável aleatória Ti do tempo
entre eventos é uma variável aleatória exponencial.
Considere que X(Wi ) = n, ou seja, no i-ésimo salto o processo está no estado n. Seja
α(n)∆t + o(∆t) a probabilidade do processo mover-se para um estado diferente de n no período
de tempo ∆t, ou seja,
X
pjn (∆t) = α(n)∆t + o(∆t). (6)
j6=n

As mudanças de estado do sistema ocorrem com probabilidade α(n)∆t + o(∆t), num intervalo
de tempo pequeno ∆t, portanto a função de distribuição para o tempo entre eventos é
Fi (t) = P rob{Ti ≤ t} = 1 − e−α(n)t . (7)
Como α(n) é independente do estado do processo, o tempo entre eventos é o mesmo para todo
salto i. Define-se Ti ≡ TE para todo i. Então, o tempo entre eventos, TE , é uma variável
aleatória contínua definida em [0, ∞), e pode ser expressa em função de uma outra variável
aleatória uniforme, U , definida no intervalo [0, 1]. Pode-se definir o tempo entre eventos, TE , a
partir da Eq. (7), como
ln U
TE = F −1 (U ) = − , (8)
α(n)
onde F é a função de distribuição acumulada da variável aleatória TE .

3. MODELO MATEMÁTICO

O modelo compartimental considerado neste trabalho é o modelo (S)uscetível-(I)nfectado-


(R)ecuperado, também denominado SIR (Kermack-McKendrick, 1927). Os compartimentos
S(t), I(t) e R(t), no modelo estocástico denominado SIR CTMC, são considerados como variá-
veis aleatórias, sendo S(t) + I(t) + R(t) = N , onde N representa o número total de indivíduos
e é um valor constante, ou seja, não há nascimentos ou mortes durante o estudo da dinâmica
evolutiva da doença. Considera-se que não há período latente, período no qual os indivídu-
os infectados ainda não transmitem a doença, e também que indivíduos, quando recuperados,
tornam-se imunes.
Nesse modelo, apenas duas das variáveis aleatórias são independentes, S e I. A probabi-
lidade conjunta dessas variáveis será utilizada para determinar a probabilidade de transição de
um estado para outro (Allen, 2010). A dinâmica do modelo estocástico considera a evolução de
cada indivíduo da população, dessa forma, o modelo é definido através das probabilidades de
transição indicadas na Tabela 1. A mudança dos estados S e I durante um intervalo de tempo
pequeno ∆t é definida como ∆S = S(t + ∆t) − S(t) e ∆I = I(t + ∆t) − I(t).

Tabela 1- Probabilidades de transição para o modelo SIR CTMC.

(∆S, ∆I) Probabilidade


β
(−1, 1) S(t)I(t)∆t + o(∆t)
N
(0, −1)  γI(t)∆t + o(∆(t)

β
(0, 0) 1− S(t)I(t) + γI(t) ∆t + o(∆t)
N

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

620
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na primeira coluna da Tabela 1, o par (∆S, ∆I) representa a variação de cada compartimento
considerando a evolução de um indivíduo da população, isto é, os valores −1 e 1 representam
que um indivíduo saiu do compartimento ou entrou nele, respectivamente, ao passo que o valor 0
indica que não houve variação. Nas expressões para as probabilidades de transição, na segunda
coluna, β representa a taxa de infecção ou taxa de contágio e γ representa a taxa de recuperação
de um indivíduo infectado. Supondo que inicialmente não há indivíduos recuperados, define-se
a distribuição inicial do sistema como (S(0), I(0)) = (s0 , i0 ), sendo i0 > 0 e s0 + i0 = N .
Considerando (S(t), I(t) = (s, i)), analisamos o caso em que ocorre transição do estado
(s, i) para o estado (s, i − 1), onde um indivíduo infectado é recuperado e sua probabilidade é
dada por
γi γ
ps = = . (9)
γi + (β/N )si γ + (β/N )s

Quando ocorre transição do estado (s, i) para o estado (s − 1, i + 1), onde é considerada a
infecção de um indivíduo suscetível, sua probabilidade é

γ (βN )s
1 − ps = 1 − = . (10)
γ + (β/N )s γ + (β/N )s

Para realizar simulações estocásticas de um modelo SIR CTMC, calcula-se o tempo entre
eventos utilizando a soma das probabilidades de transição entre estados do processo, definida na
Eq. (6), o que corresponde com
 
X β
pjn (∆t) = S(t)I(t) + γI(t) ∆t + o(∆t) (11)
j6=n
N

sendo α(n) = (β/N )S(t)I(t) + γI(t).


O tempo entre eventos, definido na Eq. (8), pode ser então calculado utilizando essa expres-
são para α(n),

ln U
TE = − β
(12)
N
S(t)I(t) + γI(t)

onde U é uma variável aleatória uniforme definida no intervalo [0, 1].

4. MODELO COMPUTACIONAL

A modelagem computacional apresentada tem como objetivo reproduzir o comportamento


do sistema de equações diferenciais estocásticas representado na Tabela 1. Neste modelo, ao
invés de uma simulação direta dos processos de Markov através da transição estocástica discreta
entre estados, utilizamos a abordagem contínua (CTMC), computando o intervalo de tempo
entre eventos e realizando o salto no tempo de simulação. Uma vez computado o salto devemos
computar o tipo de evento ocorrido, que no modelo SIR, possui somente duas possibilidades: 1.
Há um contágio; ou 2. Há uma recuperação.
O tempo entre eventos derivado na Eq. (12) é computado na linha 4 do algoritmo 1. Desta
forma, cada passo do laço representa um evento, não havendo assim iterações onde o estado
do sistema mantém-se constante. A decisão do tipo de resultado (contágio ou recuperação)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

621
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Algoritmo 1 SIR Estocástico


1: procedure S I R E S T O C(N, i0 , β, γ, T )
2: t, S, I, R ← 0, N − i0 , i0 , 0 . Inicialização
3: enquanto (I > 0) ∧ (t < T ) faça . Critério de parada
4: t ← t − ln (U[0,1]∈R )/ Nβ SI+γI . Tempo entre eventos
βS

5: se P X ≤ N /( βS N
+γ ) então
6: S, I, R ← S − 1, I + 1, R . Houve infecção
7: senão
8: S, I, R ← S, I − 1, R + 1 . Houve recuperação
9: fim se
10: A R M A Z E N A (t, S, I, R)
11: fim enquanto
12: fim procedure

apresentado nas Eqs. (9) e (10) são avaliadas na linha 5 do Algoritmo 1, o estado do sistema
é então alterado dependendo da variável aleatória uniforme (linhas 6 e 8). Este novo estado é
então armazenado (linha 10).
A condição de parada do laço ocorre quando um dos seguintes critérios é satisfeito; ou não
há mais infectados, I = 0, ou o tempo de simulação T (dias) é alcançado. O tempo de simulação
representa a quantidade máxima de dias que são simulados dentro do algoritmo.

4.1 Otimizações

O tempo de execução do Algoritmo 1 cresce linearmente com o número de indivíduos, alcan-


çando tempos de até 1 hora para simulações na ordem de 2e8. Também, o aumento do número
de indivíduos escala linearmente (com um coeficiente de 6,8) o uso de memória. Para obter
melhor performance tanto em memória como em processamento, procedemos com modificações
no algoritmo original.

Algoritmo 2 SIR Estocástico com decimação


1: procedure S I R E S T O C D E C(N, i0 , β, γ, T, D)
2: x, t, S, I, R ← 0, 0, N − i0 , i0 , 0 . Inicialização
3: enquanto (I > 0) ∧ (t < T ) faça . Critério de parada
4: t ← t − ln (U[0,1]∈R )/ Nβ SI+γI . Tempo entre eventos
βS

5: se P X ≤ N /( βS N
+γ ) então
6: S, I, R ← S − 1, I + 1, R . Houve infecção
7: senão
8: S, I, R ← S, I − 1, R + 1 . Houve recuperação
9: fim se
10: se x ≡ 0 mod D então . Sub amostragem
11: A R M A Z E N A (t, S, I, R)
12: fim se
13: x←x+1
14: fim enquanto
15: fim procedure

Devido à propriedade Markoviana dada pela Eq. (1), necessita-se somente do estado anterior

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

622
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

para encontrar o estado seguinte. Assim, optamos por não armazenar todos os estados de
transição. Utilizando as técnicas de subamostragem (Bellman, 1961) é possível manter uso de
memória limitado. O método utilizado é também chamado decimação, onde somente cada i-
ésimo elemento é utilizado. Aplicamos então a decimação durante o armazenamento dos estados
reduzindo o número de requisições de realocações de memória e escrita em disco. Apesar
da alta frequência inerente dos processos estocásticos, a amplitude das componentes de alta
frequência são negligenciáveis, comparado ao componente de baixa frequência do modelo SIR.
Esta abordagem nos permitiu executar simulações com populações expressivas em computadores
pessoais conforme podemos ver na Figura 1. No Algoritmo 2, a decimação é realizada utilizando
aritmética modular (linha 10) com um contador auxiliar (linha 13) de iterações.

Figura 1- Comparativo de uso de memória com relação ao número de indivíduos.

Apesar do tempo computacional não ser um impeditivo para a execução de uma única si-
mulação, processos estocásticos são normalmente simulados em bateria, para a compreensão do
comportamento emergente do modelo e o estudo de suas tendências. Por esta razão, utilizamos
a biblioteca Numba e otimizações em linguagem C, tudo o qual nos permitiu utilizar a expres-
sividade da linguagem Python com uma performance computacional ótima. O algoritmo final
apresentou um speedup de 20,67, conforme mostrado na Figura 2.

5. RESULTADOS

Os experimentos foram realizados em um computador Intel I5-8400 com frequência


2.8/4.0GHz, com 4 módulos de memória RAM F4-3200C16-16GVK 16384MB DIMM DDR4
2133MT/s totalizando 64GB, com disco Samsung SSD 960 PRO 512GB NVME para o sistema
operacional e Western Digital WD8003FRYZ-01JPDB1 8TB para dados. O sistema operacional
é um Debian GNU/Linux Bullseye x86_64 com kernel 5.8.0-1-amd64 padrão. Para computação
foram utilizadas as linguagens Python 3.8 com as bibliotecas NumPy 1.19.1, Scipy 1.4.1,
MatplotLib 3.2.2 e Numba 0.48 e o compilador GNU C versão 10.2.0 para otimizações com
Numba.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

623
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Comparativo de tempo de processamento em relação ao número de indivíduos.

Figura 3- Comparativo de resultado entre modelo regular (18337048 pontos) e otimizado (185 pontos).

Figura 4- Aproximação em intervalo crítico com Figura 5- Aproximação em intervalo crítico com
amostragem de 185 pontos amostragem de 1850 pontos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

624
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Fig. 3 mostra o comportamento do modelo onde inicialmente há uma quantidade


de indivíduos suscetíveis alta que através do contato com indivíduos infectados tornam-se
infectados e, consequentemente, a curva dos infectados cresce até alcançar determinado tempo
(denominado “pico” da epidemia) e então começa a decrescer, já que os infectados se recuperam
da doença simultaneamente, aumentando assim a curva dos recuperados. O modelo otimizado
consegue reproduzir com grande fidelidade a simulação regular (Fig. 3) com perfis de decimação
agressiva (1:100.000), há uma pequena perda de precisão em regiões onde o tempo entre eventos
é longo (Fig. 4). Se necessário, a correção pode ser feita com uma pequena redução na razão
da decimação (1:10.000) (Fig. 5), mantendo economia na memória, redução do número de
movimentos de objetos em memória e com resultados precisos.
Como estratégia, foi decidido utilizar decimação variada, baseando-se no número de indi-
víduos na simulação. Para simulações entre a ordem de 1e4 e 1e6, utilizamos razões de 1:100.
Acima destes valores, optou-se por escolher uma proporção que mantém o número de pontos
armazenados na ordem de 1e5, fixando o uso de memória em todas as simulações, independente
do número de indivíduos (N ).

6. CONCLUSÕES

Neste trabalho demostramos que, na simulação de uma Cadeia de Markov em tempo contínuo
(CTMC), é possível otimizar o modelo computacional, o algoritmo e as tecnologias utilizadas,
de modo que estas simulações sejam computáveis em computadores pessoais atuais com um
tempo de processamento extremamente reduzido. Isto pode ser realizado sem perder a precisão
do modelo e com o mesmo grau de convergência e tendência, que não é afetado de qualquer
forma devido à propriedade de Markov.
As técnicas apresentadas permitiram um speedup de 20x no tempo de processamento e o
controle do uso da memória para um limite superior arbitrário, independente do tamanho da
amostragem do modelo SIR.
Pretendemos estender análises para otimizações às Cadeias de Markov de tempo discreto
(DTMC), que impõem grande barreira computacional devido às largas matrizes de transição e à
dificuldade inerente de paralelizar um processo estocástico.
Os dados destes experimentos, bem como os códigos fontes estão livremente disponíveis
para verificação e reprodução. O código (Morgado-Lau, 2020) é disponibilizado de acordo
com a licença Creative Commons (CC BY). Esperamos que isto possa fomentar colaborações
científicas.

Agradecimentos

Os autores agradecem o apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível


Superior - Brasil (CAPES) - Código de Financiamento 001, e da Fundação de Amparo à Pesquisa
do Rio de Janeiro (FAPERJ) para financiamento e desenvolvimento da pesquisa.

Referências

Allen, L (2010). An Introduction to Stochastic Processes with Applications to Biology. Globo.


Bellman, R. and Karreman Mathematics Research Collection (1961). Adaptive Control Processes: A
guided tour. Princeton Legacy Library.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

625
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Daley, D. J. and Gani J. M (1999). Epidemic modelling : an introduction. Cambridge University Press.
Cambridge studies in mathematical biology, 14.
Greenwood, P. E. and Gordillo, L. F. (2009). Stochastic epidemic modeling. In Mathematical and
statistical estimation approaches in epidemiology (pp. 31-52). Springer, Dordrecht.
Hethcote, H. W. (2000). The mathematics of infectious diseases. SIAM review, 42(4), 599-653.
Lau, M. and Morgado, I. and Arenas, Z. G. (2020). Modelo SIR Estocástico na Transmissão da COVID-
19 no Rio de Janeiro — Abordagem preliminar. Anais do XXIII Congresso Brasileiro de Automática.
Kermack, W. O. and McKendrick, A. G. (1927). A contribution to the mathematical theory of epidemics.
Proceedings of the royal society of london. Series A, Containing papers of a mathematical and
physical character, 115(772), 700-721.
Morgado, I. and Lau, M. (2020). Biblioteca Python Modelo SIR estocástico. https://github.
com/igormorgado/sir. Último acesso em 15/09/2020.
Whittle, P. (1955). The outcome of a stochastic epidemic—a note on Bailey’s paper. Biometrika, 42(1-2),
116-122.

COMPUTATIONAL OPTIMIZATION OF CONTINUOUS TIME MARKOV CHAINS


APPLIED TO SIR MODEL USING SUBSAMPLING

Abstract. The recent Coronavirus (COVID-19) quickly spread around the world, boosting the
research of mathematical modeling applied to epidemiology. One of the commonly used models
to analyze the COVID-19 propagation is the deterministic version of the Susceptible-Infected-
Recovered (SIR) model. In this work, we present the computational model of a stochastic version
of the SIR model, using Continuous Time Markov Chain (CTMC). The simulation of stochastic
processes introduces computational barriers in execution time, but, mostly finds its limits in
system phsysical memory. The approach presented in this work gave us a speedup around 20
times while keeping the memory usage constant, independent of simulation parameters. We also
present an algorithm that solves the SIR CTMC model.

Keywords: Stochastic processes, Markov Chains, SIR CTMC, Computational optimization,


Subsampling

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

626
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

AVALIAÇÃO DO MÉTODO DOS VOLUMES FINITOS COM FORMULAÇÕES


EXPLÍCITA E IMPLÍCITA NA SOLUÇÃO DE UM PROBLEMA DE TRANSPORTE
DE CONTAMINANTES

Anna Luisa Soares Castro Coimbra1 - anna_luisa@id.uff.br


Wagner Rambaldi Telles2 - wtelles@id.uff.br
Fábio Freitas Ferreira 3 - fabiofreitasferreira@id.uff.br
Jader Lugon Junior 4 - jlugonjr@gmail.com
1,2 Universidade Federal Fluminense, Instituto do Noroeste Fluminense de Educação Superior - Santo
Antônio de Pádua, RJ, Brasil
3 Universidade Federal Fluminense, Instituto de Humanidades e Saúde - Rio das Ostras, RJ, Brasil
4 Instituto Federal Fluminense - Macaé, RJ, Brasil

Resumo. Devido ao crescimento populacional ligado ao tratamento de esgoto de modo


inadequado, às atividades agrícolas e industriais, a poluição hídrica tem se agravado cada vez
mais, sendo este o principal motivo da escassez de água potável. Assim, o presente trabalho
buscou simular um cenário de poluição acidental no curso de água, com o intuito de formular e
implementar um modelo matemático, em que o seu resultado numérico se aproxime do problema
real a cerca do transporte de contaminantes em rios, com dados experimentais obtidos em um
trabalho de campo realizado no rio São Pedro que está situado na região serrana do Estado do
Rio de Janeiro. Para a modelagem, foi usado um modelo matemático unidimensional resolvido
através do Método dos Volumes Finitos, com as formulações explícita e implícita, o qual
tem como base as integrais múltiplas e as séries de Taylor. Foi observado que os resultados
numéricos se aproximam do problema real relacionado ao transporte de contaminantes em
rios.

Palavra-chave: Poluição Hídrica, Modelo Matemático, Método dos Volumes Finitos.

1. INTRODUÇÃO

A água sempre esteve presente na história humana, às margens dos rios e mares, civilizações
construíram impérios e travaram guerras. Segundo Bacci (2008), nosso planeta não teria se transformado
em ambiente apropriado para a vida sem a água. Entretanto, 97% da água do mundo é salgada, sendo
apenas 3% água potável, ou seja, própria para consumo e, desse percentual, apenas 29% se encontra
acessível, já que o resto está localizado nas calotas polares.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

627
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tomando como princípio que a demanda de água no Brasil (vazão de retirada), é de 1.592 m3 /s,
sendo que cerca de 53% deste total (841 m3 /s) são consumidos, não retornando às bacias hidrográficas
(ANA, 2005), sua preservação é dever de todos, previsto, inclusive, na Constituição de 1988 Art. 225
- defendê-la e preservá-la para as presentes e futuras gerações. Porém, atualmente se vive em um dos
piores momentos possíveis relacionado ao conceito de poluição hídrica, em especial, dos rios, uma que o
cenário é preocupante devido ao fato dessa poluição ser uma das causadoras da escassez de água potável
(Coimbra, 2019).
Cabe ressaltar ainda, que boa parte da água potável proveniente dos rios sofre constante ameaça de
poluição, devido à expansão urbana, aliada ao desenvolvimento da indústria e das atividades agrícolas
(ONU, 2010), o que levou o Conselho Nacional do Meio Ambiente (CONAMA), por meio das leis
No 430 e No 467, reconhecer a importância de estabelecer critérios e procedimentos para uso de
produtos nos corpos hídricos, bem como seu monitoramento para se determinar o nível de impurezas
da água em decorrência do lançamento desse poluente. Até mesmo a Organização das Nações Unidas
(ONU) enfatiza a necessidade de uma maior fiscalização no que se refere à qualidade da água nos rios
(ONU, 2010). Mas, na prática é muito diferente, visto que o monitoramento e avaliação pelos órgãos
responsáveis acabam acarretando problemas financeiros e logísticos, já que se necessita de material
específico e mão de obra qualificada para o trabalho, tornando assim o processo caro.
Nesse contexto, torna-se essencial a utilização de modelos matemáticos, e consequente solução
numérica envolvendo algoritmos computacionais para simular o transporte e dispersão de poluentes em
cursos d’águas naturais, uma vez que estes podem contribuir para o processo de tomada de decisões,
possibilitando a geração de diferentes cenários realísticos sem a necessidade de vários trabalhos de
campo para essa finalidade, agregando um melhor custo/benefício no que tange a análise desse tipo
de problema.
Para a modelagem do presente trabalho, foi adotado um modelo matemático unidimensional devido
à geometria da área de estudos, resolvido utilizando o Método dos Volumes Finitos, com as formulações
explícita, a qual é condicionalmente estavél, e a formulação implícita, que é incondicionalmente estável.

2. ESTUDO DE CASO

Quando um poluente atinge um corpo hídrico, o mesmo sofre alterações devido às características
biológicas, físicas e químicas existentes na natureza, logo, é importante ter conhecimento da área de
estudo. Nesse sentido, nessa seção é apresentada uma breve descrição da região de interesse.

2.1 Área de Estudo – Rio São Pedro

A área de estudo para a qual se aplicou a simulação analisada neste trabalho está situada na região
serrana do Estado do Rio de Janeiro, dentro da bacia hidrográfica do rio Macaé, a qual possui uma área
de drenagem de aproximadamente 1.765 km2 e engloba praticamente toda a área dos limites territoriais
do município de Macaé, onde se localiza sua foz.
Em particlar, o rio São Pedro, região escolhida para a realização do experimento, está situada em
São Pedro da Serra, 7o Distrito de Nova Friburgo (RJ), local que foi afetado por um rápido processo de
transformação espacial, social e econômica, com fortes impactos ambientais (LimaVerde, 2005).
A região tem como característica uma pequena profundidade e margens repletas de rochas. Além
de conter trechos sinuosos e grande biodiversidade, tem como principais atividades econômicas a
agricultura familiar e o turismo, dado que a área engloba atrativos como as cachoeiras e a mata,
possibilitando a prática de trilhas. Tais fatores levaram a criação da Área de Proteção Ambiental (APA)
de Macaé de Cima.
Sendo o rio São Pedro afluente da bacia do rio Macaé, que tem importância econômica inquestionável
para o país, justificada pelo abastecimento de toda a área próxima ao rio, assim como a exploração de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

628
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

petróleo e gás natural na região oceânica, torna-se evidente a necessidade de uma melhor avaliação desse
corpo hídrico, visto que, segundo Freitas (2015), a qualidade e a quantidade de água que chega à foz do
rio Macaé depende do que está acontecendo nas áreas mais altas da bacia. Todos os impactos ambientais
que o rio sofrer ao longo do seu curso serão refletidos, de alguma forma, em sua foz, situada em Macaé.

2.2 Descrição do Experimento

Os dados experimentais utilizados nesse trabalho, tem como base o experimento realizado e descrito
por Sousa (2009), o qual ocorreu no dia 26 de janeiro de 2009, com início às 10:50:28 h e participação
de 5 pessoas, onde buscou-se simular um cenário de poluição acidental no curso de água em questão.
Para isso, foi utilizada uma solução de cloreto de sódio (NaCl) como traçador. Se comparado com outros
traçadores, o NaCl apresenta vantagens como, por exemplo, solubilidade em água, presença natural quase
nula, não possui efeitos nocivos ao impacto ambiental, facilidade de armazenamento ou de quantificação
e também um custo muito baixo. As medições foram feitas em um trecho do rio localizado na saída da
vila de São Pedro da Serra, em frente à estrada do cemitério (22 19.155S, 42 19.897W). Na Figura 1 é
apresentada a vista parcial do trecho de interesse do rio São Pedro.

Figura 1- Vista parcial do trecho do rio São Pedro.


Fonte: Sousa, 2009.

Para a preparação da solução salina, foram utilizados 2000 g de cloreto de sódio, diluídos em
aproximadamente 15 L de água em um balde, os quais foram liberados instantaneamente em um ponto
da seção de injeção, sobre a linha de corrente central do escoamento. A primeira seção foi escolhida a
50 m do ponto de injeção e, a segunda, a 100 m. Foram colhidas amostras de 200 mL da água a cada
15 s, totalizando 60 amostras, as quais, posteriormente, foram analisadas em laboratório. Na Tabela 1
são mostradas as configurações do rio.

Tabela 1- Características do rio no ponto de lançamento do traçador.


Parâmetros Valores
Vazão Q = U A 0, 43 m3 /s
Área A 1, 05 m2
Largura B 2, 40 m
Profundidade H = A/B 0, 43 m
Velocidade U 0, 41 m/s
Declividade S 0, 03 m/m
Concentração inicial C0 15, 50 mg/L

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

629
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. MODELAGEM MATEMÁTICA E SOLUÇÃO DO PROBLEMA PROPOSTO

O modelo matemático para o problema proposto neste trabalho leva em consideração o fato de o
trecho do rio estudado ser suficientemente estreito e raso, fazendo com que as variações nas direções
transversal e vertical sejam desprezíveis em relação às variações longitudinais. Logo, um modelo
unidimensional que considera apenas as variações na referida direção, sendo expresso pela Equação
de Advecção-Dispersão, Eq. (1), que descreve o comportamento de um constituinte em relação ao seu
deslocamento e sua dispersão ao longo do rio, com condições inicial e de contorno, descritas pelas Eq.
(2a) e (2b), respectivamente:

Equação de Advecção-Dispersão:

∂C ∂C ∂2C
+U = EL 2 , −∞ < x < ∞, t > 0 (1)
∂t ∂x ∂x

Condições inicial e de contorno:

M
C(x, 0) = C0 + δ(x), −∞ < x < ∞ (2a)
A
C(±∞, t) = C0 , t > 0 (2b)

onde C é a concentração (mg/L), t é a variável temporal (s), x é a variável espacial (m), U é a


velocidade no sentido longitudinal do escoamento (m/s), EL é o coeficiente de dispersão longitudinal
(m2 /s), M é a massa do constituinte (mg), A é a área da seção transversal do rio (m2 ) e δ(x) é a função
Delta de Dirac.

A solução analítica para o modelo matemático descrito na Eq. (1), com condições de contorno e
inicial, dadas pelas Eq. (2a) e (2b), é dada pela Eq. (3) (Sousa, 2009):

(x − U t)2
 
M
C(x, t) = C0 + √ exp − , −∞ < x < ∞, t > 0 (3)
A 4πEL t 4EL t

Para a resolução numérica da Eq. (1) foi aplicado o Método dos Volumes Finitos, o qual utiliza
a forma integral da equação para obter sua aproximação, dando origem às formulações explícita e
implícita, o qual é descrito na próxima seção.

3.1 Método dos Volumes Finitos

Para o trecho do rio São Pedro analisado neste trabalho foi realizada a discretização do domínio
unidimensional, dando origem às malhas espaciais, para que possa ser aplicado o Método dos Volumes
Finitos. Na Figura 2 é mostrada uma representação ilustrativa da malha espacial para o Método dos
Volumes Finitos, onde as letras W e E indicam as direções Oeste e Leste, respectivamente, as letras w e
e representam suas faces e a letra P é centro do volume de controle.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

630
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Ilustração da malha espacial para o Método dos Volumes Finitos.


Fonte: Adaptado de Malalasekera e Versteeg, 1995.

Aplicando o método na Eq. (1), pode-se realizar a integração ao longo do tempo, em intervalos de
tempo ∆t (constantes), e no espaço, de w até e, do termo transiente (primeiro termo do lado esquerdo da
referida equação), da seguinte forma:

t+∆t
Z Ze
∂C
dxdt = ∆x(CPt+∆t − CPt ) (4)
∂t
t w

A integração do termo advectivo (segundo termo do lado esquerdo da Eq. (1)) pode ser feita através
do esquema Upwind (UDS), o qual consiste na substituição do valor da função nas interfaces w e e de
cada volume de controle pelo valor da mesma no ponto a montante, o qual varia de acordo com o sentido
da velocidade do escoamento (Versteeg; Malalasekera, 1995), ou seja:

t+∆t
Z Ze
∂C
U dxdt = U ∆t(CPθ − CW
θ
) (5)
∂x
t w

Para a integração do termo dispersivo longitudinal (termo do lado direito da Eq. (1)) foi usada a
expresão de Taylor para aproximar a derivada primeira em x, via diferenças centrais. Logo:

Z Ze
t+∆t
∂2C CEθ − 2CPθ + CW
θ
 
EL 2 dxdt = EL ∆t (6)
∂x ∆x
t w

Observe que o termo transiente, expresso na Eq. (4), possui as concentrações avaliadas nos instantes
de tempo t e t + ∆t, enquanto os termos advectivo, Eq. (5), e dispersivo, Eq. (6), apresentam
concentrações em função de θ. Portanto, esses termos devem ser manipulados através de uma função
de interpolação, dada pela Eq. (7), de forma a poder avaliar as concentrações nos mesmos instantes de
tempo presentes no termo transiente, gerando assim, as formulações explícita e implícita.

C θ = θC t+∆t + (1 − θ) C t (7)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

631
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para a utilização da formulação explícita, toma-se θ = 0, ou seja, a concentração em função de θ


será analisada no instante t. Dessa forma, obtém-se a Eq. (8):

     
U ∆t ∆t U ∆t ∆t ∆t
CPt+∆t = + EL t
CW + 1− − 2EL t
CP + EL CEt (8)
∆x ∆x2 ∆x ∆x2 ∆x2

Devido ao critério de estabilidade, é necessário levar em consideração a relação entre as malhas


espacial e temporal, bem como a velocidade e o coeficiente de dispersão, de forma a satisfazer as
desigualdades:
∆t 1 ∆x
EL ∆x 2 < 2 ou U 2EL
<1

Agora, adotando a formulação implícita, onde θ = 1 e, a concentração em função de θ é analisada


no instante t + ∆t, obtém-se a Eq. (9):

     
U ∆t ∆t t+∆t U ∆t ∆t t+∆t ∆t
+ EL CW + 1− − 2EL CP + EL CEt+∆t = CPt (9)
∆x ∆x2 ∆x ∆x2 ∆x2

Ambas as formulações podem ser escritas através de um sistema linear e resolvidas na forma
matricial, sendo a formulação explícita resolvida diretamente utilizando o produto entre matrizes e
vetores e, a formulação implícita, resolvida através do método iterativo de Gauss-Seidel.

4. RESULTADOS E DISCUSSÕES

Tendo como enfoque validar e calibrar o modelo matemático resolvido pelo Método dos Volumes
Finitos, foram realizadas diversas simulações, com a variação da malha computacional, além de ser
comparados os resultados numéricos obtidos com o mesmo, com a solução analítica, dada pela Eq. (3),
e os dados experimentais obtidos no trabalho de campo descrito em Sousa (2009), as quais tiveram com
base os parâmetros das Tabelas 1 e 2. Para a implementação foi utilizado o software Scilab versão 5.5.0.

Tabela 2- Dados utilizados na simulação para a região de interesse.


Parâmetros Valores
Comprimento do trecho do rio sob análise 500 m
Tempo do experimento (tempo final) 550 s
Posição de lançamento do poluente no domínio 100 m
Posição de coleta do poluente no domínio 200 m

Com o intuito de determinar uma discretização espacial que possa representar, de forma coerente, a
solução analítica e as concentrações obtidas experimentalmente, bem como mostrar as diferenças entre
as formulações explícita e implícita, foram realizadas algumas variações na malha especial para mostrar
a influência do critério de estabilidade em ambas as formulações, conforme apresentado nas Figuras 3
a 5, onde foi fixada a velocidade em 0, 59 m/s, bem como o coeficiente de dispersão longitudinal em
1, 82 m2 /s, ambos retirados de Sousa (2009). Já o intervalo de tempo da malha temporal com relação à
duração do experimento, foi de 1 s, ou seja, 550 nós.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

632
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Formulação Explícita. (b) Formulação Implícita.

Figura 3- Resultados obtidos considerando 200 volumes na malha espacial.

(a) Formulação Explícita. (b) Formulação Implícita.

Figura 4- Resultados obtidos considerando 225 volumes na malha espacial.

(a) Formulação Explícita. (b) Formulação Implícita.

Figura 5- Resultados obtidos considerando 250 volumes na malha espacial.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

633
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Deste modo, foi possível constatar que, para o método com formulação explícita, a partir de 225
volumes, a solução começa a apresentar inconsistência nos resultados, como mostrado na Figura 4(a)
e, ao utilizar 250 volumes (Figura 5(a)), essa instabilidade se torna mais evidente, inviabilizando a
visualização dos dados experimentais e solução analítica de maneira adequada.

Em seguida, foi realizado um maior refinamento da malha para a formulação implícita, onde
dobrou-se a quantidade de volumes de uma simulação para a seguinte, ou seja, adotou-se 500 e 1000
volumes, cujo o intuito foi mostrar que esta formulação é incondicionalmente estável, uma vez que, uma
malha mais refinada não ocasiona as oscilações ocorridas na formulação explícita (Figuras 4(a) e 5(a)),
conforme Figura 6.

(a) 500 volumes na malha espacial. (b) 1000 volumes na malha espacial.

Figura 6- Refinamento da malha espacial para a formulação implícita.

É importante destacar que, devido ao critério de estabilidade da formulação explícita, não houve
um maior refinamento da malha espacial. Para uma malha com maior número de volumes espaciais,
seria necessário adotar intervalos de tempo muito pequenos para que os resultados não apresentassem
oscilações, acarretando em um elevado custo computacional. Por outro lado, é possível verificar que,
após o refinamento da malha para a formulação implícita, não houve uma variação significativa do pico
de concentração quando se dobrou a quantidade de volumes (500 para 1000 volumes).
Analisando os resultados obtidos com as formulações explícita e implícita, pode-se verificar que a
formulação implícita torna-se a mais indicada no que se refere à maior flexibilidade ao se combinar a
variação das malhas espacial e temporal, bem como a velocidade e o coeficiente de dispersão, uma vez
que esta é incondicionalmente estável.

5. CONCLUSÕES

O presente trabalho teve o intuito de investigar a estabilidade da solução numérica utilizando o


experimento de campo que buscou simular o transporte de contaminantes em um trecho específico do
rio São Pedro, afluente do rio Macaé, onde buscou-se o ajuste mais coerente entre a solução numérica
do modelo matemático dada pelo Método dos Volumes Finitos, bem como solução analítica e dados
experimentais.
Diante dos resultados obtidos, tendo como enfoque somente a análise da malha espacial, foi possível
constatar que a formulação explícita apresentou uma instabilidade para malhas acima de 200 volumes, já
a formulação implícita se mostrou incondicionalmente estável, independente da quantidade de volumes
utilizados. Ademais, ambas as formulações tiveram desempenho similar para 200 volumes, no entanto,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

634
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

uma malha mais refinada, possibilitou uma maior robustez do modelo resolvido com a formulação
implícita.
Verificou-se ainda que, após os resultados numéricos, obtidos na resolução do modelo matemático
utilizando o Método dos Volumes Finitos com formulações explícita e implícita, bem como a comparação
dos mesmos com a solução analítica e os dados experimentais, foi possível configurar o modelo para que
as simulações por ele realizadas se comportassem de maneira satisfatória na região de interesse, sendo
uma alternativa para o diagnóstico e monitoramento das águas de maneira a assemelhar-se à realidade.
No que se refere a futuros desdobramentos, o modelo em questão pode ser aplicado em corpos
hídricos com características similares ou, até mesmo, ser adaptado para regiões que possuírem a
geometria parecida com a que foi analisada, podendo alterar seus parâmetros a fim de calibrá-lo de
acordo com cada caso específico.
Ademais, podem ser realizadas investigações a cerca das variações no valor da velocidade e do
coeficiente de dispersão e, por consequência, originar diferentes perfis de concentração com o intuito de
ajustar adequadamente aos dados experimentais. Logo, sugere-se a aplicação de métodos de otimização
para a estimativa desses parâmetros baseada em uma abordagem de problemas inversos de modo a
estimar o valor ótimo dos mesmos.

Agradecimentos

À Universidade Federal Fluminense (UFF) e ao Conselho Nacional de Desenvolvimento Científico


e Tecnológico (CNPq) pela bolsa de Iniciação Científica referente ao Programa Institucional de Bolsas
de Inciação Científica (PIBIC).

Referências

Agência Nacional de Águas (Brasil) - ANA. (2005), Cadernos de Recursos Hídricos. Rio de
Janeiro. Disponível em:<https://www.ana.gov.br/noticias-antigas/ana-publica-a-sa-c-rie-acadernos-
de-recursos.2019-03-14.1329568974>. Acesso em 10 de Jan. de 2020.
Bacci, D. C.; Pataca; E. M. (2008), Educação para a água. Estudos avançados, v. 22, n. 63, p. 211-226,
2008. Disponível em: <http://www.periodicos.usp.br/eav/article/vi ew/10302/11957>. Acesso em: 08
de janeiro de 2020.
Conselho Nacional do Meio Ambiente. (2011), Resolução CONAMA N o 430, de 13 de maio de 2011.
Disponível em: <http://www2.mma.gov.br/port/conama/legiabre.cfm?codlegi=646>. Acesso em: 12
de janeiro de 2020.
Conselho Nacional do Meio Ambiente. (2011), Resolução CONAMA N o 467, de 16 de junho de 2015.
Disponível em: <http://www2.mma.gov.br/port/conama/legiabre.cfm?codlegi=712>. Acesso em: 12
de janeiro de 2020.
Freitas, L. E.; Nunes, F. S. B.; Cruz, J. C. H. O.; Vilela, C.; Mendes, S., Silva, A. C. S.; Borges, G.
(2015), Atlas Ambiental da Bacia Hidrográfica do Rio Macaé, 1o ed. Rio de Janeiro: Editora Nova
Tríade do Brasil Ltda.
Sousa, E. P. (2009), Avaliação de Mecanismos Dispersivos em Rios Através de Problemas Inversos.
Dissertação (Mestrado em Modelagem Computacional), Instituto Politécnico, Universidade do Estado
do Rio de Janeiro, Nova Friburgo, RJ.
Versteeg, H. K.; Malalasekera W. (1995), An introduction to Computational Fluid Dynamics: The Finite
Volume Method. Longman Scientific Technical: England.

EVALUATION OF THE FINITE VOLUME METHOD WITH EXPLICIT AND IMPLICIT


FORMULATIONS IN THE SOLUTION OF A CONTAMINANT TRANSPORT PROBLEM

Abstract. Due to the population growth linked to the inadequate treatment of sewage, agricultural and
industrial activities, water pollution has worsened more and more, this being the main reason for the
scarcity of drinking water. Thus, the present work sought to simulate a scenario of accidental pollution
in the watercourse, in order to formulate and implement a mathematical model, in which its numerical
result approaches the real problem about the transport of contaminants in rivers, with data experimental

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

635
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

results obtained in fieldwork carried out on the São Pedro River, which is located in the mountainous
region of the State of Rio de Janeiro. For the modeling, we used a one-dimensional mathematical model
solved using the Finite Volume Method, with the explicit and implicit formulations, which are based on
multiple integrals and Taylor series. The numerical results were observed to be close to the real problem
related to the transport of contaminants in rivers.

Keywords: Water Pollution, Mathematical Model, Finite Volume Method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

636
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

COMPORTAMENTO BALÍSTICO DE COMPÓSITO DE MATRIZ EPOXÍDICA


REFORÇADA COM FIBRAS DE CURAUÁ FUNCIONALIZADAS COM ÓXIDO DE
GRAFENO

Ulisses Oliveira Costa1– ulissesolie@gmail.com


Lucio Fabio Cassiano Nascimento1 – lucio_coppe@yahoo.com.br
Wendell Bruno Almeida Bezerra1 – wendellbez@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia-IME

Resumo. As fibras naturais têm mostrado um grande potencial como materiais de


engenharia, em especial para aplicações balísticas. A fibra de curauá Ananas erectifolius é
uma candidata promissora a substituir as fibras sintéticas como por exemplo as fibras de
vidro e aramida. A adição de óxido de grafeno (GO) em sua superfície mostrou ser uma
excelente solução para otimizar propriedades por meio da melhor compatibilidade entre a
fibra hidrofílica e sua matriz polimérica (hidrofóbica). A funcionalização das fibras de
curauá otimizou a característica de integridade do compósito após o disparo, sendo então de
suma importância para aplicações balísticas.

Palávras-chave: Fibras de Curauá, compósitos, Comportamento Balístico, Funcionalização,


Óxido de Grafeno

1. INTRODUÇÃO

Nas últimas décadas, a crescente eficiência das proteções balísticas emergiu como um
fator relevante na segurança pessoal e veicular, para proteção civil e militar. A busca por
materiais para proteção balística tanto mais leves quanto mais resistentes têm aumentado
proporcionalmente à medida que a sofisticação no desenvolvimento de armas de fogo também
evoluiu (Benzait, 2018). Estudos mostram que os compósitos poliméricos reforçados com
fibras lignocelulósicas naturais (FNLs) apresentam eficiência balística em sistemas de
blindagem multicamada (SBMs), com cerâmica frontal, comparável ao tecido de aramida de
mesma espessura (Assis et al., 2018; Luz et al., 2015 and 2017; Braga et al., 2017; Monteiro
et al., 2017).
A grande maioria desses estudos foi realizada utilizando 3 camadas na blindagem
balística, como indicado na Figura 1. Sendo a primeira camada cerâmica, responsável por

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

637
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

erodir a ponta do projétil e absorver a maior parte da energia do impacto. A segunda camada
geralmente é a compósita, podendo ser com fibras naturais ou sintéticas, responsável por reter
os fragmentos tanto do projétil quanto da primeira camada, assim como absorver boa parte da
energia do impacto. A terceira camada geralmente utiliza-se uma liga de metal leve,
responsável por absorver a energia remanescente do impacto, a plastilina é utilizada para
simular a consistência do corpo humano e consiste em um dos métodos para avaliar o
comportamento desses SMBs.

Figura 1 - Esquema do sistema de blindagem de múltiplas camadas (SBM).

O fator integridade é primordial numa blindagem balística, nestas blindagens, cujos quais
são formadas por 3 camadas, o resultado é satisfatório. No entanto, o sistema por si só já
apresenta proteção para nível III segundo a NIJ 0101.04. Significa dizer que não seria
necessário um colete, como é o caso da placa de Dyneema, que é utilizada como insertos para
aumentar a proteção de coletes nível IIIA para III. Porém, esses SBMs com 3 camadas não
são flexíveis o bastante para se fabricar uma armadura e devido a isso esse trabalho tem por
objetivo avaliar um SBM composto apenas de duas camadas: a cerâmica frontal e o
compósito para serem usados como insertos em coletes nível IIIA afim de otimizá-los para
nível III.
Em geral, os compósitos que utilizam as FNLs têm a vantagem da sustentabilidade
ambiental em associação com a relação custo-benefício, densidade mais baixa e fabricação
fácil em comparação com compósitos de fibras sintéticas (Sanjay et al., 2018; Pickering et al.,
2016; Thakur et al., 2014; Monteiro et al., 2011). No entanto, tem as desvantagens de falta de
compatibilidade com a matriz polimérica, prejudicando assim a integridade para aplicações
balísticas. Com isso, o oxido de grafeno (GO), se destaca sobretudo em recobrimento de
fibras para aplicação em compósitos poliméricos, isto é, devido aos grupos funcionais
presentes em sua estrutura dando a esse a característica de anfifilicidade que influencia a
resistência da interface entre a matriz polimérica e as fibras, otimizando suas propriedades
(Sarker et al., 2018; Chen et al., 2018; Tsagkalias et al., 2017).
O presente trabalho tem por objetivo a avaliação do comportamento balístico assim como
o fator integridade de compósitos de matriz epoxídica reforçada com fibras de curauá
funcionalizadas com óxido de grafeno.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

638
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. MATERIAIS E MÉTODOS

2.1 Materiais utilizados

Foram utilizadas fibras de curauá fornecidas pela Universidade Federal do Pará (UFPA).
A Figura 2 mostra as fibras de curauá como fornecidas.

Figura 2 - Fibras de curauá como fornecidas pela UFPA

Para a fabricação da primeira camada do SBM foi utilizada uma cerâmica avançada de
Al2O4 dopada com Nb2O5, que não foi alvo de estudo do presente trabalho. Foram utilizadas
placas laminadas de tecido de aramida para simular coletes nível IIIA com 12 camadas para
atingir a espessura correta.

2.2 Preparação das fibras de curauá para funcionalização com óxido de grafeno

Primeiramente as fibras foram limpas, cortadas na dimensão de 150mm e secas em estufa


à 80 °C por 24h. Obtendo assim as fibras de curauá sem tratamento (FC). Essas fibras de
curauá foram imersas em uma solução de GO na concentração de 0,56 mg/ml correspondendo
a 0,1 %p. das fibras, permanecendo sob agitação por 1 hora em um agitador mecânico
universal, afim de garantir e otimizar o contato do GO com a fibra. Em seguida essas fibras
embebidas nessa solução foram colocadas em estufa a 80 °C por 24 horas, obtendo ao final as
fibras de curauá tratadas com GO (FCGO).

2.3 Preparação dos compósitos epóxi-fibras de curauá

O polímero utilizado como o material da matriz da placa compósita foi a resina epóxi
comercial do tipo éter diglicidílico do bisfenol A (DGEBA), endurecida com trietileno
tetramina (TETA), utilizando-se a proporção estequiométrica de 13 partes de endurecedor
para 100 partes de resina. A empresa fabricante da resina foi a Dow Chemical do Brasil e
fornecida pela distribuidora Epoxyfiber Ltda.
Para fabricar os compósitos foi utilizado um molde metálico com dimensões de 15 x 12 x
1,19 cm. As placas foram produzidas em uma prensa hidráulica de 30 toneladas. Utilizou-se
uma carga de 5 toneladas durante 24 horas para possibilitar a cura do polímero. Para as fibras
de curauá utilizou-se como referência inicial a densidade de 0,92 g/cm3, e para a resina epóxi
(DGEBA-TETA) o valor de 1,11 g/cm3. O percentual de fibras utilizado no trabalho foi de
30% vol.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

639
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.4 Montagem do SBM

No presente estudo, o sistema de blindagem balístico utilizado constituiu-se de 2


camadas: a primeira camada cerâmica, de Al2O4 dopada com Nb2O5, e a camada secundária
compósita, o sistema montado está mostrado na Figura 3. O conjunto é montado utilizando
uma cola de Poliuretano (PU) para fixação das camadas.

a) b)
Figura 3 - SBM montado com camada intermediária compósita: a) FC/E; b) FCGO/E

A terceira camada de tecido de aramida que pode ser vista na Figura 2, foi pensada para
simular um colete nível IIIA segundo a NIJ 0101.04 (NIJ Standard, 2000). E com isso o
sistema Cerâmica/compósito se torna diferente daqueles que utilizam
Cerâmica/Compósito/Liga metálica.

3 RESULTADOS E DISCUSSÕES

3.1 Camada intermediária de compósito com 20%vol. de fibra

Na presente pesquisa 10 ensaios balísticos em blindagens com camada intermediária de


epóxi reforçado com 20% de fibras de Curauá contínua e alinhadas foram realizados, sendo
esses, 5 para o grupo FCGO/E e 5 para o grupo FC/E. Na Figura 4, são mostradas essas
blindagens após o impacto balístico. Não houve perfuração e a camada intermediária sofreu
fragmentação, em geral, em pequenas partes para ambos os grupos. No entanto, a separação
das partes do compósito não foi completa, permanecendo algumas fibras sem sofrer ruptura.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

640
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - Blindagem multicamada com 20%vol. de Curauá após o impacto balístico: (a)
Compósito com FC (b) Compósito com FCGO.

Pode-se notar que o SBM com camada intermediária de compósito do grupo FCGO
sofreu menos fragmentação quando comparado ao grupo FC. Isto pode ser justificado pela
ação do óxido de grafeno na interface das fases do compósito que dificulta a ocorrência de
alguns mecanismos de fratura, como a delaminação e pullout.

Tabela 1 - rofundidade da indentação para as blindagens com camada intermediária de epóxi


com 20%vol. fibras.
Amostra 20%FC/E 20%FCGO/E
1 24,80 23,60
2 18,33 33,33
3 18,10 21,47
4 22,27 26,00
5 21,13 24,80
Médias 20,93 25,84
DP 2,81 4,51

Contudo, as blindagens de epóxi com 20% de FC e FCGO obedeceram ao critério da NIJ-


0101.04 (2000) de indentações abaixo de 44 mm. Na Tabela 1, são mostrados os valores de
indentação na plastilina, com média e desvio padrão para ambos, sobretudo, ainda indica que
utilizando apenas duas camadas de um SBM, tais como cerâmica frontal e compósita, é
possível aumentar o nível de proteção balística de um colete nível IIIA para nível III.

Tabela 2 - Parâmetros de Weibull, média e desvio padrão da indentação para a blindagem


com epóxi reforçado com 20%vol. fibras
Média
Característica Desvio padrão (mm) β θ R²
(mm)
Indentação 20%FC/E 20,93 2,81 7,37 22,20 0,8982
Indentação 20%FCGO/E 25,84 4,51 5,76 27,82 0,8345

Observa-se pela Tabela 2, que a dispersão nos valores de indentação não se ajusta tão
bem à distribuição de Weibull, como indicado pelo valor de R² = 0,8982 para o grupo FC e R²
= 83,45 para o grupo FCGO. Isso pode ser devido à falta homogeneização entre as fases do
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

641
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

compósito e o fator de aresta, devido a alguns disparos não ocorrerem exatamente no centro
da placa cerâmica (Braga et al., 2018).

3.2 Camada intermediária de compósito com 30%vol. de fibra

Os resultados de indentação para os compósitos com 30%vol. de fibras em ambas as


condições estão mostrados na Tabela 3.

Tabela 3 - Profundidade da indentação para as blindagens com camada intermediária de epóxi


com 30%vol. fibras.
Amostra 30%FC/E 30%FCGO/E
1 24,40 26,53
2 29,67 26,07
3 25,07 28,47
4 25,20 29,93
5 22,40 22,80
Médias 25,35 26,76
DP 2,66 2,70

Tabela 4 - Parâmetros de Weibull, média e desvio padrão da indentação para a blindagem


com epóxi reforçado com 30%vol. fibras
Média Desvio padrão
Característica β θ R²
(mm) (mm)
Indentação 30%FC/E 25,35 2,66 9,29 26,61 0,834
Indentação 30%FCGO/E 26,76 2,70 9,92 28,00 0,975

Dos resultados mostrados na Tabela 3, é possível observar um ligeiro aumento do valor


da penetração na plastilina dos grupos que foram tratados com óxido de grafeno. No entanto,
a integridade que é um fator essencial para aplicações práticas, mostrou-se melhor para o
grupo com a adição do GO, visto que no grupo das amostras sem tratamento as placas
fraturaram em duas grandes partes como pode ser visualizado na Figura 5a). Por outro lado,
nas amostras do grupo com tratamento se mantiveram relativamente íntegras como pode ser
visto na Figura 5b). De acordo com a Tabela 4, a dispersão dos resultados para o grupo FCGO
foi melhor tendo em vista o valor de R2 = 0,975 contra 0,834 do grupo FC.
As placas cerâmicas hexagonais, camada frontal do SBM, foram completamente
destruídas, com o impacto do projétil. Em um colete real, esses ladrilhos compõem um
mosaico para permitir vários disparos nos quais um único ladrilho é atingido por vez, sem
comprometer a proteção da armadura. A Figura 6 mostra por MEV a superfície rompida de
uma cerâmica totalmente destruída. Essa ruptura ocorre por fratura intergranular, absorvendo
a maior parte da energia cinética do projétil. A imagem ampliada na Figura 6Figura 6b mostra
em detalhes uma microfissura intergranular associada a esse mecanismo de fratura,
semelhante ao verificado por outros autores (Luz et al., 2015, Leâo et al., 1988).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

642
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)
Figura 5 - Vista do alvo SBM após teste balístico: com segunda camada de a) 30 % em
volume de compósito de epóxi reforçado com fibras de curauá; b) 30% em volume de
compósito de epóxi reforçado com fibra de curauá tratadas com GO.

(a) (b)
Figura 6 - Superfície de fratura das pastilhas cerâmicas: a) 3000x; b) 10000x

Outra participação importante da placa composta como segunda camada de um SBM é a


captura de fragmentos cerâmicos resultantes da cerâmica frontal estilhaçada, que corresponde
a uma quantidade significativa da energia de impacto absorvida (Monteiro et al., 2015a). A
Figura 7 ilustra a captura de fragmentos cerâmicos por fibrilas que compõem cada fibra de
curauá no compósito epoxídico.
É importante observar não apenas a extensa incrustação de microfragmentos que cobre as
fibrilas, mas também uma separação eficaz destas. A onda de choque resultante do impacto do
projétil nos presentes testes balísticos, além de destruir completamente a cerâmica frontal,
Figura 5, também causou a separação das fibrilas claramente mostradas na Figura 7.
Portanto, pela primeira vez, é relatado uma visão completa dos mecanismos responsáveis
pela dissipação da energia restante, após o impacto do projétil contra a cerâmica frontal, pelo
composto de fibras de curauá como segunda camada do SBM. Os resultados da indentação
indicam que esses mecanismos são responsáveis por um desempenho balístico comparável ao
laminado Kevlar™, que é um material muito mais forte. Enquanto os mecanismos Kevlar™
de absorção de energia, como segunda camada do SBM, são basicamente a captura de
fragmentos (Monteiro et al., 2009). O compósito de fibra de curauá está associado a vários
mecanismos com participação distinta do revestimento GO. A combinação dos seguintes 6
mecanismos torna os compostos epóxi FC/E e FCGO/E tão eficazes quanto o Kevlar™.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

643
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 - Fibra de curauá presente nos compósitos FCGO/E coberta de fragmentos cerâmicos

(1º) Captura de fragmentos, Figura 7, o mesmo mecanismo mostrado primeiro em Kevlar™


(Golmohammadi et al., 2017) e posteriormente relatado para compósitos de polímeros de
fibras de curauá [18] e de manta de curauá (Braga et al., 2017). Aparentemente, essa captura
de fragmentos não é afetada pelo revestimento GO. No entanto, foi possível encontrar
fragmentos da resina epóxi após o impacto do projétil, indicando uma melhora na resistência
da interface fibra/matriz.
(2º) A separação de fibrilas, também ilustrada na Figura 7, é um mecanismo específico para
fibras de curauá submetidas a tensão (Monteiro et al., 2009), que contribui para dissipar
energia ao gerar área livre de superfície entre as fibrilas. Evidências observadas sugerem que
o revestimento GO dificulta a separação das fibrilas e possui, comparativamente, uma energia
dissipada reduzida. Essa separação em fibras simples de curauá (FCs) pode revelar cadeias
individuais de nano e microcelulose com comportamento especial (Braga et al., 2017,
Golmohammadi et al., 2017, Du et al., 2017).
(3º) O sacamento da fibra é mostrada na Figura 8, na qual um furo deixado em um local da
superfície da fratura foi causado por uma retirada de fibra de curauá. A pastilha com maior
ampliação revela uma fibrila anexada restante, separada da fibra puxada. Nesse caso, a
energia é dissipada pela superfície livre de fibras criada por orifício/extração. Nenhuma
evidência de arrancamento foi encontrada nos compósitos FCGO/E, o que também indica
uma absorção de energia de impacto reduzida.

Figura 8 - Pullout das fibras do compósito 30%FC/E

(4º) Delaminação composta, Figura 5a, que é um mecanismo macro de dissipação de energia
que envolve a criação de uma área de superfície livre relativamente grande associada à
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

644
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

extensa separação entre a fibra de curauá/matriz epóxi. Como mencionado acima, a


delaminação prejudica a integridade dos compósitos de 30 %vol de FC, apesar da energia de
impacto dissipada. Em contraste, a delaminação não é eficaz no FCGO a 30% em volume,
Figura 5b. Nesse caso, a integridade é mantida conforme exigido pelo padrão para testar
coletes à prova de blindagem de acordo com a NIJ 0101.04, (2000).
(5º) A ruptura de fibra, representada na Figura 9, é um mecanismo geral comum às fibras
naturais e sintéticas, incluindo as fibras de aramida do Kevlar™ (Lee et al., 2003). Em
princípio, a quebra de fibra é uma alternativa ao arrancamento. Em outras palavras, uma fibra
bem aderida à matriz quebrará em vez de ser arrancada. É o caso dos compósitos FCGO/E
nos quais se espera que o revestimento de óxido de grafeno melhore a adesão da fibra de
curauá à matriz epóxi. Portanto, não ocorre arrancamento nas fibras FCGO, que dissipam
comparativamente mais energia quebrando. É interessante observar na Figura 9 a ruptura de
fibras curauá intactas e fibrilas divididas, ambas indicadas pelas setas correspondentes.

Figura 9 - Ruptura da fibra na superfície de fratura do compósito 30%FCGO/E

A ruptura da matriz é exemplificada na Figura 10 por uma superfície plana fraturada do


epóxi (lado direito) ao redor de uma fibra FCGO bem aderida (lado esquerdo). Este é um
mecanismo específico para compósitos de polímeros frágeis que sofrem extensa ruptura de
matriz com um impacto balístico. Uma quantidade significativa de energia é dissipada.
Entretanto, fibras bem aderidas, como no caso atual de 30% em volume de FCGO, são
importantes para evitar a perda de integridade, como mostra a Figura 5b.
Como observação final, vale lembrar que a combinação de mecanismos de dissipação de
energia garante a um compósito epóxi reforçado com fibra de curaua a 30% vol, curauá
funcionalizado com óxido de grafeno, como segunda camada de um SBM, um desempenho
balístico aceitável, semelhante ao de um laminado e um compósito de Kevlar™ com a mesma
espessura (Braga et al., 2018). Esse desempenho, fornecido pela indentação inferior a 44 mm
segundo a NIJ 0101.04 é um pouco superior nos compósitos FCGO/E, devido à melhor
adesão de fibra/matriz fornecida pelo revestimento GO, em alguns dos itens acima
mencionados. Por outro lado, essa melhor adesão suporta a integridade do FCGO/E que é
essencial para o SBM no colete balístico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

645
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 10 - Superfícies de fratura dos compósitos 30%FCGO/E

Os SBMs testados somente com camada cerâmica frontal e última camada compósita de
epóxi reforçado com fibras de curauá mostraram-se igualmente eficientes quando comparado
aos SBMs com camada intermediária compósita de polímeros reforçados com fibras, seja
sintética ou natural, camada cerâmica frontal e camada traseira de alumínio. Em ambos os
casos resultaram em indentações na plastilina abaixo do trauma limite estabelecido por
norma. No entanto, a integridade é um fator primordial em um sistema de blindagem
balístico, obtendo-se melhora com o tratamento com GO, porém, para os grupos com 20 e
30% de fibras ainda não foi satisfatória.

3.3 Camada intermediária de compósito com 40%vol. de fibra

Os resultados obtidos para a blindagem balística multicamada com camada secundária de


compósito com 40%vol. de fibras FC e FCGO estão apresentados na Tabela 5. Esses
resultados mostraram-se em boa concordância com Monteiro et al., (2017) e relativamente
melhores do que aqueles encontrados por Braga et al., (2017) em seu trabalho com manta de
curauá.
Tabela 5 - Profundidade da indentação para as blindagens com camada intermediária de epóxi
com 40%vol. fibras.
Amostra 40%FC/E 40%FCGO/E
1 27,40 27,93
2 29,40 28,40
3 21,53 20,53
4 21,07 22,33
5 33,47 31,20
Médias 26,57 26,08
DP 5,29 4,47

Tabela 6 - Parâmetros de Weibull, média e desvio padrão da indentação para a blindagem


com epóxi reforçado com 40%vol. fibras
Característica Média (mm) Desvio padrão (mm) β θ R²
Indentação 40%FC/E 26,57 5,29 4,91 28,90 0,9031
Indentação 40%FCGO/E 26,08 4,47 5,68 28,09 0,9351
De acordo com os resultados do ajuste de Weibull para os SBMs com camada
secundária de compósito de matriz epoxídica reforçada com 40 %vol. de FC e FCGO vistos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

646
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

na Tabela 6, pode-se observar através do parâmetro R2 que ambos os grupos obtiveram um


ajuste mais estreito em relação aos demais grupos. Isto indica que o material é mais
homogêneo, resistente, além de possuir uma fração maior de fibras, se manteve relativamente
íntegro com pouca delaminação como pode ser visto através da Figura 11.

(a) (b)
Figura 11 - Vista do alvo SBM após teste balístico: com segunda camada de a) 40 % em
volume de compósito de epóxi reforçado com fibras de curauá e b) 40% em volume de
compósito de epóxi reforçado com fibra de curauá tratadas com GO.

A partir dos resultados obtidos na análise de variância (ANOVA) considerando todos os


grupos, com e sem o tratamento com GO mostrados na Tabela 7, aceita-se a hipótese de que
as médias são iguais com nível de significância de 5%, pois pela estatística “F”, têm-se: F
calculado 1,57 < F crítico (tabelado) 2,62. Portanto, não houve diferença entre os grupos da
Figura 12.

Figura 12 - Profundidade de indentação para todos os grupos estudados

Tabela 7 - Análise de variância (ANOVA) para profundidade da indentação na plastilina em


todos os grupos estudados
Fonte da variação SQ GL MQ F valor-P F crítico
Entre grupos 118,8661 5 23,77323 1,574827 0,205093 2,620654
Dentro dos grupos 362,2986 24 15,09578
Total 481,1647 29
Analisando-se todas as condições dos SBMs após o impacto pelo projetil, verificou-se
que, apesar de não possuir diferença significativa no que diz respeito ao valor da indentação
causada na plastilina, as placas dos grupos 20%FC/E e 20%FCGO/E ficaram bastante
fragmentadas, assim como algumas das placas com 30%FC/E e 30%FCGO/E também
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

647
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sofreram delaminação comprometendo a integridade do SBM. Este comportamento torna


esses grupos inadequados para utilização em proteção individual, já que não seria possível
resistir a impactos subsequentes, além do primeiro projétil.
Por outro lado, os grupos com 40%FC/E e 40%FCGO/E, mantiveram-se relativamente
íntegros, com pouca delaminação sofrida, sendo capazes de resistir a mais de um evento
balístico de mesma ou menor energia de impacto. Além do mais, considerando o custo dos
materiais necessários para fabricação de uma proteção balística como essa, quanto mais fibras
forem usadas, mais economicamente viável será o compósito e também o SBM. Logo, o SBM
com 40% FCGO foi considerado o mais adequado e economicamente viável para utilização
em um SBM como camada secundária se tornando um painel balístico para coletes nível IIIA
de modo a otimizar sua capacidade de proteção para o nível III. Além disso, esse SBM é
igualmente eficiente aos que utilizaram ainda uma terceira camada de alumínio, realmente, a
profundidade do trauma sobre a plastilina se manteve semelhante usando apenas um SBM
com duas camadas (cerâmica e compósito) como pode ser observado na Tabela 8 e na Figura
13. Mostrou-se assim que é possível otimizar de forma econômica um colete nível IIIA para
nível III.

Tabela 8 - Resultados do ensaio balístico na plastilina para compósitos reforçados com


Profundidade de Número de
Camada
indentação na Camadas no Referência
intermediária
plastilina SBM
Epóxi reforçado com
40 %vol. Fibras de 26,57 ± 5,29 2 PT
curauá
Epóxi reforçado com
40 %vol. Fibras de
26,08 ± 4,47 2 PT
curauá funcionalizadas
com GO.

Kevlar™ 23,00 ± 3,00 18 LUZ et al., 2015

Epóxi reforçado com


BRAGA et al.,
30 %vol. manta de 28,00 ± 3,00 3*
2017
curauá.
Epóxi reforçado com
30 %vol. manta de 24,00 ± 6,00 3* LUZ et al., 2017
coco.
Epóxi reforçado com
ASSIS et al.,
30 %vol. manta de 24,00 ± 7,00 3*
2018
juta.
*Terceira camada de alumínio
PT-Presente trabalho

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

648
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

* Resultados extraídos da literatura.


Figura 13 - Gráfico dos resultados do ensaio balístico na plastilina para os compósitos
reforçados com 40%vol.

3. CONCLUSÕES

O desempenho balístico de um SBM com duas camadas comparável ao da mesma


espessura de Kevlar, foi interpretado pela primeira vez como relacionado a uma combinação
dos seguintes mecanismos de energia de impacto: (i) captura de fragmentos; (ii) separação de
fibrilas; (iii) arrancamento de fibras; (iv) delaminação composta; (v) quebra de fibra; e (vi)
ruptura da matriz.
A melhor aderência do FCGO à matriz epóxi reduz, comparativamente, a quantidade de
energia pelos mecanismos (ii), (iii), (iv) e (vi). Isso resulta em uma indentação na plastilina
ligeiramente maior, mas uma integridade melhor para os compósitos FCGO de 30% em
volume, o que é uma condição necessária para uma blindagem. O desempenho balístico do
grupo FC é semelhante ao de outras fibras naturais.
Também é descartada a necessidade de uma chapa de metal dúctil como terceira camada
em um SBM, uma vez que O composto FCGO de 10 mm de espessura é suficiente para o
desempenho balístico padrão necessário. E o grupo 40% FCGO foi considerado o mais
adequado devido a integridade ter sido mais favorável e o fato da quantidade de fibras ser
maior.

Agradecimentos

Os autores deste trabalho agradecem ao CNPq, FAPERJ, CAPES e a UFPA pelo apoio e
fornecimento das fibras de curauá..

REFEREÊNCIAS

Assis, F. S.; Pereira, A. C.; da Costa Garcia Filho, F.; Lima JR, É. P.; Monteiro, S. N.; Weber, R. P. (2018),
Performance of jute non-woven mat reinforced polyester matrix composite in multilayered armor. Journal of
materials research and technology, 7(4), 535-540.
Benzait, Z.; Trabzon, L. (2018), A review of recent research on materials used in polymer–matrix composites for
body armor application. J. Compos. Mater, 52, 3241–3263.
Braga, F.; Luz, F. S.; Monteiro, S. N.; Lima JR, É. P. (2018), Effect of the impact geometry in the ballistic
trauma absorption of a ceramic multilayered armor system. Journal of materials research and technology, v.
7, n. 4, p. 554-560.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

649
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Braga, F.O.; Bolzan, L. T.; Luz, F. S.; Lopes, P. H. L. M.; Lima JR, É. P.; Monteiro, S. N. (2017), High energy
ballistic and fracture comparison between multilayered armor systems using non-woven curaua fabric
composites and aramid laminates. Journal of Materials Research and Technology, 6(4), 417-422.
Chen, J; Huang, Z; Lv, W; Wang, C. (2018), Graphene oxide decorated sisal fiber/MAPP modified PP
composites: Toward high‐performance biocomposites. Polymer Composites, 39, E113-E121.
Du, X.; Zhang, Z.; Liu, W.; Deng, Y. (2017), Nanocellulose-based conductive materials and their emerging
applications in energy devices—A review. Nano Energy, 35, 299–320.
Golmohammadi, H.; Morales-narvaez, E.; Naghdi, T., Merkoci, A. (2017), Nanocellulose in sensing and
biosensing. Chem. Mater. 29, 5426–5446.
Leão, A. L; Tan, I. H.; Caraschi, J. C. (1998), Proceedings of the international conference on advanced
composites. Hurghada, Egypt, p. 557.
Lee, Y.S.; Wetzel, E.D.; Wagner, N.J. (2003), The Ballistic Impact Characteristic of Kevlar Woven Fabrics
Impregnated with a Colloidal Shear Thickening Fluid. Journal of Materials Science, Vol.38, pp. 2825–33.
Luz, F. S. D.; Júnio, L.; Pereira, E.; Louro, L. H. L.; Monteiro, S. N. (2015), Ballistic test of multilayered armor
with intermediate epoxy composite reinforced with jute fabric. Materials Research, 18, 170-177.
Luz, F. S. D.; Monteiro, S. N.; Lima, E. S.; Júnior, L.; Pereira, É. (2017), Ballistic application of coir fiber
reinforced epoxy composite in multilayered armor. Materials Research, 20, 23-28.
Monteiro, S. N.; Braga, F.O.; Lima Jr., E.P.; Louro, L.H.L.; Drelich, J.W. (2017), Promising curaua
fiber‐reinforced polyester composite for high‐impact ballistic multilayered armor. Polymer Engineering &
Science, v. 57, n. 9, p. 947-954.
Monteiro, S. N.; Lima, É. P.; Louro, L. H. L.; da Silva, L. C.; Drelich, J. W. (2015a), Unlocking Function of
Aramid Fibers in Multilayered Ballistic Armor. Metallurgical and Materials Transactions A, Vol. 46A, p. 37-
40.
Monteiro, S. N.; Lopes, F. P. D.; Ferreira, A. S.; Nascimento, D. C. O. (2009), Natural-fiber polymer-matrix
composites: cheaper, tougher, and environmentally friendly. Jom, 61(1), 17-22.
Monteiro, S.N.; Lopes, F.P.D.; Barbosa, A.P.; Bevitori, A.B.; da Silva, I.L.A.; da Costa, L.L. (2011), Natural
lignocellulosic fibers as engineering materials—An overview. Metall. Mater. Trans. A., 42, 2963.
N.I.J. STANDARD 0101.04. Ballistic Resistance of Personal Body Armor. (2000), U.S. Department of
Justice/Office of Justice Programs - National Institute of Justice.
Pickering, K.L.; Efendy, M.A.; Le, T.M. (2016), A review of recent developments in natural fibre composites
and their mechanical performance. Compos. Part A Appl. Sci. Manuf., 83, 98–112.
Sanjay, M.R.; Madhu, P.; Jawaid, M.; Senthamaraikannan, P.; Senthil, S.; Pradeep, S. (2018), Characterization
and properties of natural fiber polymer composites: A comprehensive review. J. Clean. Prod, 172, 566–581.
Sarker, F; Karim, N; Afroj, S; Koncherry, V; Novoselov, K.S; Potluri, P. (2018), High-Performance Graphene-
Based Natural Fiber Composites. ACS applied materials & interfaces, 10(40).
Thakur, V.K.; Thakur, M.K.; Gupta, R.K. (2014), Raw natural fiber–based polymer composites. Int. J. Polym.
Anal. Charact., 19, 256–271.
Tsagkalias, I; Manios, T; Achilias, D. (2017), Effect of Graphene Oxide on the Reaction Kinetics of Methyl
Methacrylate In Situ Radical Polymerization via the Bulk or Solution Technique. Polymers, v. 9, n. 9, p. 432.

BALLISTIC BEHAVIOR OF EPOXY MATRIX STRENGTH REINFORCED WITH


CURAUA FIBERS FUNCTIONED WITH GRAPHEN OXIDE

Abstract: Natural fibers have shown great potential as engineering materials, especially for
ballistic applications. Curaua fiber Ananas erectifolius is a promising candidate to replace
synthetic fibers such as glass and aramid fibers. The addition of graphene oxide (GO) to its
surface proved to be an excellent solution to optimize properties through the best
compatibility between the hydrophilic fiber and its polymeric (hydrophobic) matrix. The
functionalization of curaua fibers optimized the composite's integrity characteristic after
firing, and is therefore of paramount importance for ballistic applications.

Keywords: Curaua fibers, Composites, Ballistic behavior, Functionalization, Graphene oxide

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

650
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DAS PROPRIEDADES DE IMPACTO IZOD DO COMPÓSITO DE


MATRIZ EPÓXI REFORÇADA COM FIBRAS DE CURAUÁ FUNCIONALIZADAS
COM ÓXIDO DE GRAFENO

Ulisses Oliveira Costa1– ulissesolie@gmail.com


Lucio Fabio Cassiano Nascimento1 – lucio_coppe@yahoo.com.br
Wendell Bruno Almeida Bezerra1 – wendellbez@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia-IME

Resumo. As desvantagens das fibras naturais lignocelulósicas (FNLs) para aplicações em


compósitos de matrizes poliméricas levaram à necessidade de estudar novos tratamentos
para otimizar a compatibilidade entre esses materiais por meio de tratamentos superficiais.
Estudos recentes mostram que a funcionalização de fibras tanto sintéticas quanto naturais
com óxido de grafeno (GO), tem se tornado uma solução eficiente contra essa desvantagem,
devido ao caráter anfifílico do GO, tanto a fase hidrofílica (FNLs) quanto a fase hidrofóbica
(polímero) que se utilizam dessa característica para formar uma interface mais resistente.
Com isso, o compósito final tende a ter propriedades otimizadas. O presente trabalho
objetivou o estudo da capacidade de absorção de energia de impacto Izod de compósitos de
matrizes epóxi reforçadas com fibras de curauá tratadas com GO. A análise foi feita dentro
de três grupos variando a fração volumétrica de fibras entre 20, 30 e 40%vol em duas
condições: compósitos com fibras de curauá (grupo controle) e compósitos com fibras de
curauá funcionalizadas com GO a 0,1%. A porcentagem de fibras foi predominante para o
aumento da capacidade de absorção de energia e a funcionalização com GO foi efetiva em
diminuir a dispersão dos resultados, homogeneizando as propriedades do compósito.

Keywords: Compósitos; Fibras de curauá; Óxido de grafeno; Impacto Izod

1. INTRODUÇÃO

A importância e necessidade de se ter materiais mais ecologicamente corretos alavancou


o estudo e desenvolvimento de compósitos a base de fibras naturais (Gowda et al., 2018;
Pickering et al., 2016; Güven et al., 2016; Mohammed et al., 2015; Faruk et al., 2014; Thakur
et al., 2014; Shah, 2013; Faruk et al., 2012; Ku et al., 2011; Zini & Scandola 2011; Monteiro
et al., 2009 e 2015; Satyanarayana et al., 2009). Atualmente, essas estão substituindo as fibras

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

651
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sintéticas, sobretudo a fibra de vidro comum, como reforço de compósitos poliméricos em


muitas aplicações de engenharia, mostrando ser alternativas viáveis especialmente em
aplicações onde se requer baixo peso como por exemplo, componentes de interiores de
automóveis, capacetes de ciclistas, painéis de caixas, embalagens e aletas de moinhos de
vento (Sanjay & Yogesha, 2017; Di bela et al., 2014; Majeed et al., 2013 Dittember &
Gangarao, 2012; Thomas et al., 2011; Goda et al., 2009; Holbery & Houston, 2006). Diversos
estudos mostram que esses compósitos de fibras naturais possuem boa resistência elétrica,
boas propriedades mecânicas, boas propriedades isolantes térmicas e acústicas, além de maior
resistência à fratura (Sanjay et al., 2018).
A tecnologia desses materiais tem foco em criar componentes de baixo custo, alto
desempenho e materiais leves e isto está atrelado as vantagens das fibras naturais. A fibra de
curauá (Ananas erectifolius) é uma fibra vegetal extraída da Amazônia brasileira com grande
potencialidade para produção de artesanatos de excelente qualidade e também possui
resistência mecânica específica e módulo comparáveis às fibras de vidro (de Oliveira Braga et
al., 2019; Maciel et al., 2018; Simonassi et al., 2018; Silva & Aquino, 2008; Monteiro et al.,
2008).
No entanto, as fibras naturais apresentam diversas desvantagens quando usadas em
aplicações de engenharia que podem influenciar no momento da escolha dos materiais a
serem usados no projeto: baixa resistência térmica, heterogeneidade de propriedades,
superfície irregular, incompatibilidade com matrizes poliméricas devido a sua hidrofilicidade
(Pereira et al., 2012). Com isso, diversos tratamentos de superfície foram desenvolvidos em
busca de otimização de propriedades. Trabalhos recentes vêm estudando a possibilidade de
funcionalização de fibras tanto sintéticas como naturais com óxido de grafeno (GO) com
intuito de avaliar as propriedades do novo compósito e a influência do GO na interface
fibra/matriz (Sarker et al., 2018; Chen et al., 2018; Papageorgiou et al., 2017).
Sabendo disso, esse trabalho objetivou estudar a capacidade de absorção de energia de
impacto Izod de compósitos de matriz epoxídica reforçada com fibras de curauá
funcionalizadas com óxido de grafeno.

2. MATERIAIS E MÉTODOS

2.1 Materiais utilizados

Foram utilizadas fibras de curauá fornecidas pela Universidade Federal do Pará (UFPA).
A Figura 1 mostra as fibras de curauá como fornecidas.

Figura 1 - Fibras de curauá como fornecidas pela UFPA


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

652
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Preparação das fibras de curauá para funcionalização com óxido de grafeno

Primeiramente as fibras foram limpas, cortadas na dimensão de 150 mm e secas em


estufa por 24 h. Sendo então foram funcionalizadas com GO. A seguir, as fibras de curauá
foram imersas em uma solução de GO na concentração de 0,56 mg/ml, produzida pelo
método de Hummers modificado, permanecendo sob agitação por 1 hora em um agitador
mecânico universal, afim de garantir e otimizar o contato do GO com a fibra. Em seguida as
fibras embebidas nesta solução foram colocadas em estufa a 80 °C por 24 horas, obtendo ao
final as fibras de curauá tratadas com GO. O procedimento está indicado na Figura 2. Nesta
figura está mostrado que inicialmente as fibras de cuaruá foram penteadas e cortadas, Figura
2(a). Em um agitador mecânico universal, Figura 2(b), essas fibras foram então imersas ena
solução de GO. Figura 2(c) estando preparadas como reforço de compósito após secagem,
Figura 2(d).

(a) (b)

(c) (d)
Figura 2 - Fibras de curauá durante o tratamento com GO: a) fibras de curauá penteadas e
cortadas; b) solução de GO e agitador mecânico universal utilizados; c) fibras de curauá
imersas na solução de GO; d) fibras de curauá após o tratamento com o GO.

2.3 Preparação dos compósitos epóxi-fibras de curauá

O polímero utilizado como o material da matriz da placa compósita foi a resina epóxi
comercial do tipo éter diglicidílico do bisfenol A (DGEBA), endurecida com trietileno
tetramina (TETA), utilizando-se a proporção estequiométrica de 13 partes de endurecedor
para 100 partes de resina. A empresa fabricante da resina foi a Dow Chemical do Brasil e
fornecida pela distribuidora Epoxyfiber Ltda.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

653
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para fabricar os compósitos foi utilizado um molde metálico com dimensões de 15 x 12 x


1,19 cm. As placas foram produzidas em uma prensa hidráulica de 30 toneladas. Utilizou-se
uma carga de 5 toneladas durante 24 horas para possibilitar a cura do polímero. Para as fibras
de curauá utilizou-se como referência inicial a densidade de 0,92 g/cm3, e para a resina epóxi
(DGEBA-TETA) o valor de 1,11 g/cm3. O percentual de fibras utilizado no trabalho foi de
30% vol.

2.4 Preparação dos corpos de prova para ensaio de impacto Izod


Foram cortados segundo ASTM D256-10, 5 corpos de prova de ambas as condições FC/E
e FCGO/E para todas as frações volumétricas de fibras estudadas: 20, 30 e 40%vol. As
seguintes nomeclaturas, na Tabela 1 indica os diferentes corpos de prova para ensaios de
impacto izod.
Tabela 1 - Nomeclatura dos corpos de prova de impacto Izod

Descrição do compósito com matriz epóxi Nomeclatura


X %vol de fibras de curauá FCX
X %vol de fibras de curauá funcionalizadas GO FGX

Os ensaios de impacto foram realizados utilizando um pendulo de 22 J pantec XC-50


pertencente a Univercidade Estadual Do Norte Fluminence Darcy Ribeiro (UENF).

3. RESULTADOS E DISCUSSÕES

Os resultados obtidos correspondem aos três grupos de amostras com duas condições
diferentes cada um quanto à capacidade de absorção de impacto Izod. A tabela 2 mostra as
médias e desvios padrão de cada grupo em ambas as condições: FC e FG. Esses valores estão
apresentados no gráfico da figura 3.

Tabela 2 - Média das energias absorvidas em J/m para os compósitos FC e FG

Amostra FC20 FG20 FC30 FG30 FC40 FG40


1 275,86 282,81 665,14 664,34 694,60 446,62
2 227,27 591,58 724,14 352,94 586,32 234,90
3 223,62 250,28 490,31 636,57 676,27 691,55
4 195,85 307,87 698,74 514,02 571,75 961,54
5 345,62 236,75 561,93 431,74 568,56 698,99
Médias (J/m) 253,65 333,86 628,05 519,92 619,50 606,72
DP 58,93 146,73 98,68 132,44 60,91 276,35

Os resultados apresentados na Tabela 2 e Figura 3 para os compósitos com epóxi


reforçada com fibras naturais de curauá foram superiores àquele encontrados na literatura para
compósito de epóxi reforçada com fibras de malva (Costa et al., 2020) poliéster reforçada
com fibras de curauá (Barcelos et al., 2014) epóxi reforçada com fibras de coco (da Luz et al.,
2018).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

654
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3 - Média das energias absorvidas ressaltando os patamares

Contudo, através do gráfico da Figura 3 é notável que a porcentagem de fibras é mais


expressiva em influenciar as propriedades do compósito do que a influência do GO. De fato,
com um aumento de 59,6 % comparando os grupos FC20 e FC30, essa quantidade de GO
utilizada não foi suficiente para causar grandes mudanças nas propriedades de impacto dos
compósitos.
Com base nos resultados da Tabela 2 e figura 3, pode-se notar uma tendência crescente
das médias de energia absorvida à medida que se aumenta a fração volumétrica de fibras,
como era de se esperar e ocorreu com outros autores (Costa et al., 2020; Barcelos et al., 2014;
da Luz et al., 2018). A análise de variância (ANOVA) foi utilizada a fim de obter uma melhor
interpretação desses resultados de modo a compará-los e verificar se existem diferenças entre
os tratamentos realizados. A tabela 3 apresenta os parâmetros calculados pela ANOVA.

Tabela 3 - Análise de variância dos resultados de impacto Izod dos grupos FC e FG.

Fonte da
SQ GL MQ F valor-P F crítico
variação
Entre grupos 652557 5 130511,4 5,916203 0,001064 2,620654
Dentro dos
529439,9 24 22060
grupos
Total 1181997 29

De acordo com a Tabela 3, foi calculado que o valor de F é maior que o valor de F crítico
com fator P < 0,05, ou seja, com 95% de confiança que há diferença entre os valores de
energia absorvida entre os diferentes grupos de tratamento. No âmbito de identificar quais
grupos apresentam diferença significativa, o teste de Tukey foi empregado, comparando dois
a dois todos os grupos. A Tabela 4 apresenta os parâmetros relativos ao teste de Tukey.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

655
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4 - Parâmetros e resultados do teste de Tukey dos resultados de impacto Izod dos
grupos FC e FG

GL (t) q (tab.) QMR r d.m.s


24 3,92 22060,00 5 260,38
FC20 FG20 FC30 FG30 FC40 FG40
FC20 0,00 80,21 374,40 266,27 365,85 353,07
FG20 80,21 0,00 294,19 186,06 285,64 272,86
FC30 374,40 294,19 0,00 108,13 8,55 21,33
FG30 266,27 186,06 108,13 0,00 99,58 86,80
FC40 365,85 285,64 8,55 99,58 0,00 12,78
FG40 353,07 272,86 21,33 86,80 12,78 0,00

Analisando o resultado do teste de Tukey, Tabela 4, pode-se aferir que o grupo FC2 e
FG2, referentes aos grupos com 20 %vol. de fibras de curauá, apresentam diferença dos
demais grupos, com exceção do grupo FG2 com o grupo FG3 que não apresentam diferenças
estatisticamente significante. Por outro lado, os demais grupos podem ser considerados iguais
em média como se fossem um único grupo.
O resultado de 591,58 J/m foi excluído devido às medidas do corpo de prova não estarem
de acordo com a norma, pois o entalhe ficou menor do estabelecido pela ASTM D256-10. Isto
resultou em um melhor ajuste aos parâmetros de Weibull como mostrado na Figura 4 e na
Tabela 5.

(a) (b)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

656
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(c)
Figura 4 - Ajuste de Weibull para o grupo FG: a) FG20; b) FG30; c) FG40

Tabela 5 - Parâmetros de Wibull dos resultados de impacto Izod paras os grupos FC e FG

Amostra/Parâmetros B β θ R2
FC20 -24,666 4,3828 278,0800715 0,8724
FG20 -13,879 2,3286 387,700687 0,6848
FG20 c/ exclusão -46,63 8,2547 283,979783 0,9432
FC30 -40,219 6,1766 672,8424407 0,9575
FG30 -24,487 3,854 574,5910306 0,9730
FC40 -60,872 9,3977 650,2322192 0,7700
FG40 -12,244 1,8645 711,1675231 0,9599

A ação do GO na superfície das fibras não causou grande mudanças nos valores de
absorção de energia de impacto, contudo, a funcionalização com GO foi essencial para
homogeneidade dos resultados, sobretudo para os compósitos com maiores frações
volumétricas de fibras. Com base nos valores do parâmetro de Weibull R2, Figura 4 e Tabela
5, certifica-se que houve uma tendência crescente.
Tendo em vista esses resultados, os tratamentos que apresentaram uma otimização de
propriedades e resultados mais homogêneos, estatisticamente comprovados foram os grupos
FG3 e FG4. Esses grupos apresentaram um melhor ajuste aos parâmetros de Weibull, assim
como os valores de absorção de energia mais confiáveis. Com maior porcentagem
volumétrica de fibras de 40%, pode ser considerado o grupo ideal, pois com a maior
porcentagem de fibras o compósito tende a propriedades mais otimizadas.

3. CONCLUSÃO

Através dos resultados de absorção de energia de impacto Izod dos compósitos para todas as
condições, foi possível verificar que a quantidade de óxido de grafeno (GO) utilizada foi
menos efetiva quando comparado às frações volumétricas que estatisticamente mostraram
influência significativa.
Por outro lado, a funcionalização com GO, mesmo em baixas concentrações, influência de
forma positiva na dispersão dos resultados, ou seja, na homogeneidade de propriedades dos
compósitos.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

657
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

Os autores deste trabalho agradecem ao CNPq, FAPERJ, CAPES e a UFPA pelo apoio e
fornecimento das fibras de curauá.

REFERENCES

ASTM International. D256-10. (2018). Standard Test Methods for Determining the Izod Pendulum Impact
Resistance of Plastics. West Conshohocken, PA; ASTM International, 2018. doi:
https://doi.org/10.1520/D0256-10R18
Barcelos, M. A., Simonassi, N. T., Monteiro, S. N., & Margem, F. M. (2014). Impact Tests in Polyester Matrix
Composites Reinforced with Continuous Curaua Fiber. In Congresso Brasileiro de Engenharia e Ciencia dos
Materiais.
Chen, J., Huang, Z., Lv, W., & Wang, C. (2018). Graphene oxide decorated sisal fiber/MAPP modified PP
composites: Toward high‐performance biocomposites. Polymer Composites, 39, E113-E121.
Costa, U. O., Nascimento, L. F. C., Garcia, J. M., Bezerra, W. B. A., & Monteiro, S. N. (2020). Evaluation of
Izod impact and bend properties of epoxy composites reinforced with mallow fibers. Journal of Materials
Research and Technology, 9(1), 373-382.
da Luz, F. S., Ramos, F. J. H. T. V., Nascimento, L. F. C., da Silva Figueiredo, A. B. H., & Monteiro, S. N.
(2018). Critical length and interfacial strength of PALF and coir fiber incorporated in epoxy resin matrix.
Journal of materials research and technology, 7(4), 528-534.
da Silva, A. O., de Castro Monsores, K. G., Oliveira, S. D. S. A., Weber, R. P., Monteiro, S. N., & de Carvalho
Vital, H. (2020). Influence of gamma and ultraviolet radiation on the mechanical behavior of a hybrid
polyester composite reinforced with curaua mat and aramid fabric. Journal of Materials Research and
Technology, 9(1), 394-403.
de Oliveira Braga, F., Lopes, P. H. L., Oliveira, M. S., Monteiro, S. N., & Lima Jr, É. P. (2019). Thickness
assessment and statistical optimization of a 3-layered armor system with ceramic front and curaua fabric
composite/aluminum alloy backing. Composites Part B: Engineering, 166, 48-55.
Di Bella, G., Fiore, V., Galtieri, G., Borsellino, C., & Valenza, A. (2014). Effects of natural fibres reinforcement
in lime plasters (kenaf and sisal vs. Polypropylene). Construction and Building Materials, 58, 159-165.
Dittenber, D. B., & GangaRao, H. V. (2012). Critical review of recent publications on use of natural composites
in infrastructure. Composites Part A: applied science and manufacturing, 43(8), 1419-1429.
Faruk, O., Bledzki, A. K., Fink, H. P., & Sain, M. (2012). Biocomposites reinforced with natural fibers: 2000–
2010. Progress in polymer science, 37(11), 1552-1596.
Faruk, O., Bledzki, A. K., Fink, H. P., & Sain, M. (2014). Progress report on natural fiber reinforced
composites. Macromolecular Materials and Engineering, 299(1), 9-26.
Goda, K., Takagi, H., & Netravali, A. N. (2009). Fully biodegradable green composites reinforced with natural
fibers. Natural Fibre Reinforced Polymer Composites. Philadelphia: Old City Publishing, 329-360.
Gowda, T. Y., Sanjay, M. R., Bhat, K. S., Madhu, P., Senthamaraikannan, P., & Yogesha, B. (2018). Polymer
matrix-natural fiber composites: An overview. Cogent Engineering, 5(1), 1446667.
Güven, O., Monteiro, S. N., Moura, E. A., & Drelich, J. W. (2016). Re-emerging field of lignocellulosic fiber–
polymer composites and ionizing radiation technology in their formulation. Polymer Reviews, 56(4), 702-
736.
Holbery, J., & Houston, D. (2006). Natural-fiber-reinforced polymer composites in automotive applications.
Jom, 58(11), 80-86.
Ku, H., Wang, H., Pattarachaiyakoop, N., & Trada, M. (2011). A review on the tensile properties of natural fiber
reinforced polymer composites. Composites Part B: Engineering, 42(4), 856-873.
Maciel, N. D. O. R., Ferreira, J. B., da Silva Vieira, J., Ribeiro, C. G. D., Lopes, F. P. D., Margem, F. M., ... &
da Silva, L. C. (2018). Comparative tensile strength analysis between epoxy composites reinforced with
curaua fiber and glass fiber. Journal of materials research and technology, 7(4), 561-565.
Majeed, K., Jawaid, M., Hassan, A. A. B. A. A., Bakar, A. A., Khalil, H. A., Salema, A. A., & Inuwa, I. (2013).
Potential materials for food packaging from nanoclay/natural fibres filled hybrid composites. Materials &
Design, 46, 391-410.
Mohammed, L., Ansari, M. N., Pua, G., Jawaid, M., & Islam, M. S. (2015). A review on natural fiber reinforced
polymer composite and its applications. International Journal of Polymer Science, 2015.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

658
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Monteiro, S. N., Aquino, R. C. M., & Lopes, F. P. D. (2008). Performance of curaua fibers in pullout tests.
Journal of materials science, 43(2), 489-493.
Monteiro, S. N., Lopes, F. P. D., Barbosa, A. P., Bevitori, A. B., Da Silva, I. L. A., & Da Costa, L. L. (2011).
Natural lignocellulosic fibers as engineering materials—an overview. Metallurgical and Materials
Transactions A, 42(10), 2963-2974.
Monteiro, S. N., Lopes, F. P. D., Ferreira, A. S., & Nascimento, D. C. O. (2009). Natural-fiber polymer-matrix
composites: cheaper, tougher, and environmentally friendly. Jom, 61(1), 17-22.
Papageorgiou, D. G., Kinloch, I. A., & Young, R. J. (2017). Mechanical properties of graphene and graphene-
based nanocomposites. Progress in Materials Science, 90, 75-127.
Pereira, T. V. C., Fidelis, M. E. A., Gomes, O. D. F. M., de Andrade Silva, F., & Filho, R. D. T. (2012).
Investigação da Influência Morfológica via Análise De Imagens na Resistência à Tração de Fibras Naturais.
Pickering, K. L., Efendy, M. A., & Le, T. M. (2016). A review of recent developments in natural fibre
composites and their mechanical performance. Composites Part A: Applied Science and Manufacturing, 83,
98-112.
Sanjay, M. R., & Yogesha, B. (2017). Studies on natural/glass fiber reinforced polymer hybrid composites: An
evolution. Materials today: proceedings, 4(2), 2739-2747.
Sanjay, M. R., Madhu, P., Jawaid, M., Senthamaraikannan, P., Senthil, S., & Pradeep, S. (2018).
Characterization and properties of natural fiber polymer composites: A comprehensive review. Journal of
Cleaner Production, 172, 566-581.
Sarker, F., Karim, N., Afroj, S., Koncherry, V., Novoselov, K. S., & Potluri, P. (2018). High-performance
graphene-based natural fiber composites. ACS applied materials & interfaces, 10(40), 34502-34512.
Satyanarayana, K. G., Arizaga, G. G., & Wypych, F. (2009). Biodegradable composites based on lignocellulosic
fibers—An overview. Progress in polymer science, 34(9), 982-1021.
Shah, D. U. (2013). Developing plant fibre composites for structural applications by optimising composite
parameters: a critical review. Journal of materials science, 48(18), 6083-6107.
Silva, R. V., & Aquino, E. M. F. (2008). Curaua fiber: a new alternative to polymeric composites. Journal of
reinforced plastics and composites, 27(1), 103-112.
Simonassi, N. T., Braga, F. O., & Monteiro, S. N. (2018). Processing of a Green Fiber-Reinforced Composite of
High-Performance Curaua Fiber in Polyester. JOM, 70(10), 1958-1964.
Thakur, V. K., Thakur, M. K., & Gupta, R. K. (2014). Raw natural fiber–based polymer composites.
International Journal of Polymer Analysis and Characterization, 19(3), 256-271.
Thomas, S., Paul, S. A., Pothan, L. A., & Deepa, B. (2011). Natural fibres: structure, properties and
applications. In Cellulose fibers: bio-and nano-polymer composites (pp. 3-42). Springer, Berlin, Heidelberg.
Zini, E., & Scandola, M. (2011). Green composites: an overview. Polymer composites, 32(12), 1905-1915..

EVALUATION OF IZOD IMPACT PROPERTIES OF THE EPOXY MATRIX


COMPOSITE REINFORCED WITH CURAUA FIBERS FUNCTIONALIZED WITH
GRAPHEN OXIDE

Abstract. The disadvantages of natural lignocellulosic fibers (NLFs) for applications in


composites of polymeric matrices led to the need to study new treatments to optimize the
compatibility between these materials through surface treatments. Recent studies show that
the functionalization of both synthetic and natural fibers with graphene oxide (GO), has
become an efficient solution against this disadvantage, due to the amphiphilic character of
GO. Both the hydrophilic phase (NLFs) and the hydrophobic phase (polymer) use this feature
to form a more resistant interface. As a result, the final composite tends to have optimized
properties. The present work aimed to study the Izod impact energy absorption capacity of
epoxy matrix composites reinforced with curaua fibers treated with GO. The analysis was
carried out within three groups, varying the volumetric fraction of fibers between 20, 30 and
40% vol in two conditions: composites with curauá fibers (control group) and composites
with curauá fibers functionalized with 0.1% GO. The percentage of fibers was predominant
for increasing the energy absorption capacity while the functionalization with GO was
effective in reducing the dispersion of results, homogenizing the properties of the composite.

Keywords: Composites; Curaua fibers; Graphene oxide; Izod impact


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

659
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELO PREDITIVO DO VALOR DE APARTAMENTOS EM NOVA FRIBURGO

Leonardo de Almeida Teodoro1, * – leonardoteodoro.lattes@gmail.com


Marco André Abud Kappel1 – marco.kappel@cefet-rj.br
Ivan Napoleão Bastos2 – inbastos@iprj.uerj.br
1
Centro Federal de Educação Tecnológica Celso Suckow da Fonseca – CEFET/RJ – Campus Nova
Friburgo, Nova Friburgo, RJ, Brasil
2
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brasil
*
Aluno PIBIC – Programa Institucional de Bolsas de Iniciação Científica – CEFET/RJ

Resumo. Com a expansão do mercado imobiliário na região serrana do estado do Rio de


Janeiro, um número cada vez maior de pessoas precisa lidar com a compra e venda de imóveis.
Porém, a avaliação justa de uma unidade imobiliária não é uma tarefa simples e pode ser
influenciada por diferentes características do imóvel. Com o propósito de auxiliar nesta tarefa,
o presente trabalho tem como objetivo identificar as características mais importantes na
avaliação de um imóvel e, em seguida, construir um modelo matemático simples que pode ser
usado para estimar o valor de imóveis nesta região. Para isso, dados de apartamentos à venda
na cidade de Nova Friburgo foram extraídos de portais de anúncios online, formando uma
base única de dados imobiliários. Nestes dados, foram aplicadas técnicas de seleção de
variáveis e um processo de regressão linear múltipla para a obtenção de um modelo
matemático que descreve os preços, baseado nas características mais importantes do imóvel.
Os resultados obtidos revelaram que a característica mais importante na determinação do
preço de um imóvel é sua área total. Além disso, foi construído um modelo capaz de prever os
preços com aproximadamente 19% de desvio percentual médio, na base de testes.

Palavras-chave: Aprendizado de Máquina, Regressão Linear Múltipla, Avaliação de Imóveis

1. INTRODUÇÃO

O mercado imobiliário é um dos setores mais importantes da economia, não apenas por
estar relacionado com moradia e qualidade de vida, como também com desenvolvimento
urbano, investimento financeiro e impostos gerados nas transações comerciais. Além disso,
quanto mais populosa e desenvolvida é uma cidade ou região, maior é o número de imóveis
ofertados e demandados, o que torna este um mercado em constante evolução. Outro fator que
influencia o crescimento deste mercado, especificamente na região serrana do Rio de Janeiro,
é a violência da região metropolitana do estado do Rio de Janeiro. Segundo o Cenário do
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

660
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mercado Imobiliário da SECOVI RIO (SECOVI RIO, 2018), apesar de a região serrana ser
mais conhecida por seu potencial turístico, ela tem atraído cada vez mais moradores fixos,
devido a aspectos como segurança e qualidade de vida, quando comparada a outras regiões do
estado. Como consequência, o preço dos imóveis nesta região tem alcançado valores cada vez
maiores, enquanto na cidade do Rio de Janeiro os imóveis têm se desvalorizado ano a ano.
Ainda segundo a SECOVI, quase todos os bairros pesquisados nos municípios serranos
apresentaram valorização de julho de 2017 a julho de 2018.
Como consequência da expansão deste mercado, um número cada vez maior de pessoas
precisa lidar com a compra e venda de unidades imobiliárias. Felizmente, o surgimento de
portais de anúncios de imóveis na internet, como OLX e Vivareal, possibilitou o acesso
facilitado das pessoas a uma quantidade considerável de imóveis. Em Nova Friburgo, por
exemplo, a procura por anúncios de imóveis na internet aumentou 24% (SECOVI RIO, 2018).
Porém, seja quando o interesse é pela venda de um imóvel, ou pela aquisição, um dos maiores
obstáculos está na justa avaliação. Devido à grande heterogeneidade das características de cada
imóvel, a atribuição de um valor para ele é uma das tarefas mais dinâmicas do mercado (Steiner,
2008). Muitos fatores podem ser levados em consideração e, com isso, a volatilidade dos
valores pode nem sempre ser justa, e a avaliação pode não representar realmente um valor
coerente com seus atributos.
Assim, o objetivo do presente trabalho é identificar as características mais importantes para
a avaliação de um imóvel e, em seguida, construir um modelo matemático simples que possa
ser usado para estimar o valor do imóvel. Para isso, foi utilizada uma base de dados obtida por
web scraping de um portal de anúncios de imóveis. Foram considerados, no presente estudo,
apenas apartamentos e coberturas à venda na cidade de Nova Friburgo, situada na região serrana
do estado do Rio de Janeiro. As características mais importantes foram identificadas por
aplicação do método Random Forest, e, em seguida, um procedimento de regressão linear
múltipla foi aplicado para a obtenção de um modelo matemático simples para a estimação dos
preços de acordo com as características identificadas.
Este trabalho está estruturado da seguinte forma: na seção 2 é realizada uma revisão da
literatura, a fim de mostrar trabalhos que, assim como este, procuram encontrar modelos para
avaliação de imóveis em diferentes locais. A seção 3 descreve a metodologia utilizada no
presente trabalho. Já a seção 4 mostra o modelo e os resultados obtidos, assim como uma
pequena discussão e análise sobre eles. Por fim, a seção 5 apresenta as principais conclusões
do trabalho.

2. TRABALHOS RELACIONADOS

Há diversas abordagens para a tarefa de modelagem do preço de imóveis e identificação


de suas características mais importantes. A técnica mais comumente aplicada para alcançar este
objetivo é a regressão linear múltipla, que torna possível a construção de um modelo hedônico
para o valor dos imóveis de acordo com seus atributos (Nunes, Neto, & Freitas, 2019), (Pereira,
Garson, & Araújo, 2012), (Rosa, Oliveira, & Pinto, 2019), (Pinto & Fernandes, 2019), (Yusof
& Ismail, 2012). Nestes estudos, é evidenciado que o preço está relacionado com fatores
locacionais, econômicos e estruturais. Os estudos disponíveis utilizam bases de dados que
revelam o comportamento do preço em regiões específicas do mundo, geralmente uma cidade
ou conjunto de cidades. No cenário nacional, é possível observar que a obtenção de dados
imobiliários não é uma tarefa simples. Por isso, alguns autores optam pelo levantamento de
dados via plataformas de anúncios online (Pinto & Fernandes, 2019), (Pereira, Garson, &
Araújo, 2012). No quadro internacional, a literatura compara diferentes métodos para a tarefa
de predição do valor de imóveis (Yan & Zong, 2020), (Wu, et al., 2018).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

661
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A abordagem de (Rosa, Oliveira, & Pinto, 2019) propõe dois modelos obtidos por
regressão linear múltipla. O primeiro foi ajustado utilizando o preço e as características de 749
imóveis à venda na cidade de João Monlevade, Minas Gerais. Já o segundo, utiliza 271 imóveis
disponíveis para aluguel, no mesmo local. Os autores concluíram que a quantidade de quartos
e vagas de garagem foram as variáveis mais importantes em ambos os modelos. Os autores
também reportam que, apesar de os coeficientes de determinação registrados serem baixos
(R² = 0,43 para venda e R² = 0,34 para aluguel), os resultados representaram a realidade do
mercado imobiliário da cidade. Por outro lado, o estudo elaborado por (Nunes, Neto, & Freitas,
2019) busca extrair, por regressão linear múltipla, um modelo capaz de avaliar o valor de
mercado apenas de apartamentos residenciais em Fortaleza, Ceará. Ao limitar o tipo de imóvel
estudado, os autores atingiram resultados mais interessantes, registrando um coeficiente de
determinação R² igual a 0,91 e erro percentual médio de 21,10%.
O trabalho de (Pereira, Garson, & Araújo, 2012) utilizou dados obtidos a partir de
websites de imobiliárias da cidade de Sorocaba-SP. Nestes dados, foram aplicadas técnicas de
seleção de variáveis para identificar as mais importantes na determinação do valor do imóvel.
Em seguida, o processo de regressão linear múltipla foi capaz de gerar um modelo que alcançou
13% de erro percentual médio. O mesmo processo foi aplicado no trabalho de (Yusof & Ismail,
2012), que criou um modelo para estimação de preços de imóveis na cidade de Kuala Lumpur,
Malásia, e alcançou um R² de aproximadamente 0,84.
Já a abordagem de (Yan & Zong, 2020) teve como objetivo comparar diferentes técnicas
para estimação do preço de imóveis em Pequim, China. Para isso, foi utilizada a base de dados
da maior agência de imóveis do país. A base contabiliza 14.758 imóveis, com características
estruturais e locacionais. O estudo concluiu que, neste contexto, o melhor modelo foi capaz de
obter um coeficiente de determinação R² de apenas 0,42.
Observa-se, portanto, que apesar da literatura demonstrar atributos importantes para
predição do valor de imóveis, a heterogeneidade dos mercados imobiliários requer estudos
sobre áreas específicas. Esta especificidade influencia os atributos importantes que descrevem
o comportamento do valor de determinado mercado de imóveis.

3. METODOLOGIA

O procedimento adotado no presente trabalho envolve o processamento de dados


imobiliários e a aplicação de técnicas computacionais que permitam a previsão do valor de
imóveis de acordo com suas características. Um resumo da metodologia adotada no presente
trabalho pode ser visto na Fig. 1.

Figura 1 – Resumo da metodologia utilizada.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

662
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Um dos maiores desafios para a obtenção de um modelo para a estimação de valores para
imóveis está na falta da disponibilidade de uma estrutura homogênea de dados, com atributos
bem definidos (Steiner, 2008). Felizmente, o uso crescente de plataformas online de anúncios
de imóveis tornou possível o acesso a um grande número de informações relativas a unidades
imobiliárias à venda no mercado. Estes portais apresentam descrições básicas dos imóveis, além
de seus valores. Para obter os dados do máximo de imóveis possível, foi aplicado um processo
de web scraping automatizado no site Vivareal no mês de agosto de 2020, portal com maior
número de imóveis anunciados para venda na cidade de Nova Friburgo. De forma a simplificar
o escopo do presente trabalho, foram selecionados apenas apartamentos. Foi possível extrair as
seguintes características de cada imóvel: valor em reais, tipo (apartamento ou cobertura), bairro,
área total, quantidade de quartos, quantidade de vagas, quantidade de banheiros, e a presença
das seguintes estruturas: varanda, área de serviço, lareira, dependência completa, elevador,
churrasqueira, piscina e sauna. Com isso, no total, foram obtidas 16 variáveis de cada imóvel,
sendo uma, o valor, a variável objetivo. O número total de imóveis extraídos do portal foi de
497 apartamentos. A variável bairro, por ser nominal categórica, possui 33 categorias,
representando os bairros dos imóveis. Na fase de pré-processamento, a variável bairro foi
substituída por variáveis dummy, cada uma responsável por descrever se o imóvel pertence ou
não ao respectivo bairro. Com isso, o total de variáveis previsoras disponíveis elevou para 47.
Devido à volatilidade do mercado imobiliário e à ausência de um modelo local para os
preços, a inexperiência de um corretor imobiliário pode atribuir um valor incoerente às
características do imóvel. Considerando que a inclusão de anúncios nos portais pode ser feita
por pessoas físicas, não necessariamente corretores imobiliários, torna-se bastante possível a
existência de outliers na base. Para resolver este problema, foram considerados como outliers
todos os imóveis que estavam fora dos limites definidos pela regra 1,5×IQR (Walfish, 2006)
em cada bairro, sendo o IQR o intervalo interquartil.
Em seguida, a técnica Random Forest (Breiman, 2001) foi aplicada para a identificação
das variáveis mais importantes para a estimação do valor dos imóveis. O objetivo, aqui, foi
reduzir o número total de variáveis a serem usadas na regressão linear múltipla a apenas aquelas
com maior importância na estimativa do preço. Métodos estatísticos como o Random Forest
podem ser utilizados na seleção de variáveis (Grömping, 2012), pois executam internamente
um processo de avaliação de importância de cada entrada, utilizando métricas como entropia
ou impureza de Gini (Archer & Kimes, 2008). Nestes casos, a seleção de variáveis é feita de
maneira “mergulhada”, o que faz esses métodos serem conhecidos como embedded (Lal,
Chapelle, Weston, & Elisseeff, 2006).
Após esta etapa, a base foi separada em duas partes: dados para treinamento e para testes.
A base de treinamento, que representa os dados efetivamente usados no processo de
aprendizagem, foi composta por 75% dos dados, selecionados aleatoriamente. A base de testes
foi composta pelos 25% restantes. Ela foi usada como um conjunto de dados inéditos, nunca
testados pelo sistema.
A regressão linear múltipla foi aplicada na base de treinamento, para que um modelo fosse
construído. O modelo treinado foi, então, testado e avaliado na base de testes. Modelos obtidos
por regressão linear múltipla são frequentemente utilizados para analisar uma variável de
interesse em função de uma série de variáveis previsoras. Um modelo deste tipo pode ser
expresso pela Eq. (1).

𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + +𝛽𝑘 𝑥𝑘 + 𝜀 (1)

onde 𝑦 é a variável objetivo, no caso, o valor do imóvel, 𝛽𝑛 , 𝑛 = 0,1, … , 𝑘 são os coeficientes


de regressão a serem definidos, 𝑥𝑛 , 𝑛 = 1, … , 𝑘 são as variáveis previsoras do modelo, que
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

663
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

representam, no caso, as características do imóvel, e 𝜀 é uma variável aleatória que representa


o erro do modelo. É importante observar que este tipo de modelo considera algumas suposições
estatísticas: o erro deve ser uma variável aleatória que segue uma distribuição normal com
média igual a zero e variância constante (Jonhson & Wichern, 2007). Além disso, supõe-se que
as variáveis previsoras sejam independentes, caso contrário, pode-se caracterizar uma
multicolinearidade, e, por consequência, o modelo pode ser prejudicado (Mansfield & Helms,
1982). Para avaliar a qualidade do modelo, o desvio relativo médio foi calculado, assim como
o coeficiente de determinação R². Todas as implementações deste trabalho foram desenvolvidas
com o uso da linguagem Python e das ferramentas disponíveis no pacote scikit-learn.

4. RESULTADOS E DISCUSSÃO

Como os dados foram extraídos de uma plataforma que permite a inclusão de anúncios de
imóveis por pessoas físicas, não necessariamente corretores imobiliários, é razoável admitir que
os valores atribuídos aos imóveis à venda possam ter sido superestimados ou subestimados,
caracterizando a presença de outliers na base. Além disso, de acordo com (Liang, Liu, Qiu,
Jing, & Fang, 2018), imóveis que se localizam em uma mesma região possuem valores com
distribuições similares. Assim, é importante verificar a existência de outliers por região
geográfica. A Fig. 2a mostra boxplots dos valores de venda dos imóveis de acordo com o bairro
em que ele está localizado. Analisando a figura, é possível perceber a presença dos outliers.
Para resolver este problema, foram considerados como outliers todos os imóveis que estavam
fora dos limites superior e inferior definidos pela regra 1,5×IQR, em cada bairro. O resultado
da remoção de outliers pode ser verificado na Fig. 2b. Ao final, restaram 439 imóveis na base
de dados utilizada no presente trabalho, dos 497 iniciais. 7 imóveis estavam abaixo de 1,5×IQR
e 51 acima. Os valores estão expressos em milhões de reais.

a) b)

Figura 2 – Boxplots dos valores dos imóveis por bairro: com outliers (a) e sem (b).

A Fig. 3 mostra as 20 variáveis mais importantes para a determinação do valor do


apartamento de acordo com o método Random Forest. Uma descrição destas características
pode ser vista na Tabela 1. Estas são as variáveis a serem utilizadas como entrada para a
construção do modelo por regressão linear múltipla. De acordo com a Fig. 3, a área total do
imóvel é a variável mais importante, enquanto a quantidade de banheiros e quartos vêm em
seguida. A existência de elevador no edifício e a quantidade de vagas disponíveis se mostram
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

664
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mais importantes do que a primeira variável referente à localização que aparece na lista, a
variável “Centro”, que indica se o imóvel pertence ao centro da cidade ou não. Isso significa
que o fato de o imóvel estar, ou não, no bairro “Centro” é a característica mais importante no
que se refere à localização do imóvel. Esta relação é corroborada pelas estatísticas recentes do
mercado imobiliário, que mostram que esta é a área mais valorizada da cidade nos últimos anos
(SECOVI RIO, 2018).

Figura 3 – Lista ordenada de importância das 20 variáveis consideradas mais determinantes


no valor de um apartamento.

Tabela 1 – 20 características mais importantes no preço de um apartamento, segundo o


método Random Forest, em ordem decrescente de importância.

# Nome da Variável Descrição Tipo


1 area Área total real
2 qtdBanheiros Quantidade de Banheiros inteiro
3 qtdQuartos Quantidade de Quartos inteiro
4 possuiElevador Possui elevador? lógico (0 ou 1)
5 qtdVagas Quantidade de Vagas inteiro
6 Centro Bairro: Centro lógico (0 ou 1)
7 possuiVaranda Possui varanda? lógico (0 ou 1)
8 possuiDependencia Possui dependência completa? lógico (0 ou 1)
nominal (0 – apartamento,
9 tipo Tipo de Imóvel
1 – cobertura)
10 possuiAreaDeServico Possui área de serviço? lógico (0 ou 1)
11 possuiChurrasqueira Possui churrasqueira? lógico (0 ou 1)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

665
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

12 Braunes Bairro: Braunes lógico (0 ou 1)


13 possuiSauna Possui sauna? lógico (0 ou 1)
14 Cônego Bairro: Cônego lógico (0 ou 1)
15 possuiPiscina Possui piscina? lógico (0 ou 1)
16 Conselheiro Paulino Bairro: Conselheiro Paulino lógico (0 ou 1)
17 possuiAcademia Possui academia? lógico (0 ou 1)
18 Olaria Bairro: Olaria lógico (0 ou 1)
19 Jardim Califórnia Bairro: Jardim Califórnia lógico (0 ou 1)
20 possuiLareira Possui lareira? lógico (0 ou 1)

Uma das maneiras de análise é avaliar a correlação entre as variáveis. A Fig. 4 mostra os
dados calculados da correlação de Pearson entre as variáveis previsoras e a variável objetivo.
Na figura, é possível observar que a maior parte das variáveis possuem forte correlação com a
variável objetivo. Porém, algumas das variáveis possuem correlação entre si, o que pode
demonstrar a existência de multicolinearidade, um problema comum em problemas de
estimação de valor de imóveis (Nunes, Neto, & Freitas, 2019). Por exemplo, verifica-se que a
presença de piscina no imóvel está relacionada linearmente com a presença de churrasqueira e
sauna. Relações deste tipo indicam que pode ser possível combinar estas variáveis para
melhorar os resultados do modelo. Este tipo de transformação de variáveis não está no escopo
do presente trabalho, que procura apenas construir um modelo linear simples preliminar, que
estabelece um benchmark para a estimação de valores de imóveis na cidade de Nova Friburgo
e pode ser melhorado em trabalhos futuros. Para contornar o problema de multicolinearidade,
a regressão linear múltipla foi realizada utilizando o Ridge Regression (El-Denery & Rashwan,
2011).

Figura 4 – Correlação de Pearson entre as variáveis consideradas para a construção do


modelo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

666
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os dados foram, então, separados em uma base de testes, composta por 25% dos imóveis,
e uma base de treinamento, composta pelos 75% restantes. O processo de regressão foi aplicado
na base de treinamento, considerando apenas as 20 principais variáveis obtidas pela seleção
feita anteriormente. O ajuste dos coeficientes foi realizado com o método Ridge Regression,
implementado na biblioteca scikit-learn. O modelo resultante pode ser visto na Eq. (2).

𝑦 = −156120 + 1893,44𝑥1 + 47921,5𝑥2 + 70617,9𝑥3 + 71253,2𝑥4 (2)


+ 24098,5𝑥5 + 150145𝑥6 +14634,6𝑥7 + 27496,3𝑥8
+ 59017,1𝑥9 + 13981,2𝑥10 − 29706,4𝑥11 + 150915𝑥12
+ 14007,4𝑥13 + 62687,5𝑥14 −27118,8𝑥15 −26956𝑥16
−156,829𝑥17 + 56934,4𝑥18 −29409𝑥19 + 85835,3𝑥20

onde 𝑦 corresponde ao preço estimado do apartamento e 𝑥𝑛 , 𝑛 = 1, … ,20 às características


listadas na Tabela 1. Para utilizar o modelo, basta substituir os valores de cada caraterística do
imóvel e obter seu valor estimado. Para avaliar a eficácia do modelo, ele foi aplicado a todos
os imóveis da base de testes, cujos valores não foram utilizados na fase de treinamento e,
portanto, são desconhecidos para ele. Os valores do erro relativo do modelo tanto na base de
treinamento, quanto na base de testes, podem ser vistos na Fig. 5. O valor do desvio relativo
médio obtido na base de testes foi de 19,91%, valor compatível com outros modelos
encontrados na literatura. Além disso, o modelo alcançou um R² score de 0,82, também nos
dados de teste. A Fig. 6 mostra um histograma com a distribuição estatística dos erros
encontrados. Analisando esta figura, é possível perceber que tanto na base de treinamento,
quanto na base de testes, o erro se aproxima de uma distribuição Normal com média 0, conforme
a suposição adotada para o desenvolvimento da regressão linear múltipla. Fatores não
considerados, mas que certamente influenciam são o estado de conservação do apartamento e
as condições do ambiente. Dados estes que, se disponíveis nos anúncios, poderiam ser usados
no ajuste do modelo e, provavelmente, melhorariam sua taxa de acerto.

Figura 5 – Desvio relativo obtido pelo modelo quando aplicado nas bases de treinamento e de
testes.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

667
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Histograma do desvio relativo obtido pelo modelo quando aplicado nas bases de
treinamento e de testes.

5. CONCLUSÕES

A popularização da utilização de plataformas online de anúncios no mercado imobiliário


possibilitou que fossem coletados dados reais em grande quantidade, não apenas dos preços dos
imóveis à venda anunciados, como também das características básicas de cada unidade
imobiliária. Após uma fase de filtragem de dados e remoção de outliers, o presente trabalho
utilizou a base obtida para a construção de um modelo matemático simples, que auxiliasse na
estimação de preços de apartamentos na cidade de Nova Friburgo, com base nos anúncios
existentes em agosto de 2020, principalmente para aqueles que não possuem experiência em
corretagem imobiliária.
As variáveis previsoras consideradas no modelo foram capazes de descrever, com 80,09%
de acerto médio, os valores adequados de compra e venda de apartamentos na cidade. Os
resultados obtidos são compatíveis com modelos de precificação de imóveis encontrados na
literatura para outras cidades. É provável que informações não disponíveis sobre os imóveis,
sejam elas objetivas como, por exemplo, a idade de sua construção e o andar do apartamento,
ou subjetivas, como o grau de poluição sonora, ou a obstrução na vista de janelas e varandas,
sejam responsáveis pela falta de maior precisão no modelo desenvolvido. Ainda assim, o
modelo atinge com sucesso o objetivo de ser um guia auxiliar na estimativa de preços de
apartamentos em Nova Friburgo.

Agradecimentos

Os autores agradecem ao CEFET-RJ pelo apoio no desenvolvimento desta pesquisa. O


presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de
Nível Superior – Brasil (CAPES) – Código de Financiamento 001.

REFERÊNCIAS
Archer, K. J., & Kimes, R. V. (2008). Empirical characterization of random forest variable importance measures.
Computational Statistics & Data Analysis, 52(4), pp. 2249-2260.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

668
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Breiman, L. (2001). Random Forests. Machine Learning, 45, pp. 5-32.


El-Denery, M., & Rashwan, N. I. (2011). Solving Multicollinearity Problem Using Ridge Regression Models.
International Journal of Contemporary Mathematical Sciences, 6, pp. 585-600.
Grömping, U. (2012). Variable Importance Assessment in Regression: Linear Regression versus Random Forest.
The American Statistician, 63(4), pp. 308-319.
Jonhson, R. A., & Wichern, D. W. (2007). Applied Multivariate Statistical Analysis (6 ed.). Pearson.
Lal, T. N., Chapelle, O., Weston, J., & Elisseeff, A. (2006). Embedded Methods. Em Feature Extraction:
Foundations and Applications (pp. 137-165). Berlin, Heidelberg: Springer Berlin Heidelberg.
Liang, X., Liu, Y., Qiu, T., Jing, Y., & Fang, F. (16 de Setembro de 2018). The effects of locational factors on the
housing prices of residential communities: The case of Ningbo, China. Habitat International, 1-11.
Mansfield, E. R., & Helms, B. P. (1982). Detecting Multicollinearity. The American Statistician, 36(3a), pp. 158-
160.
Nunes, D. B., Neto, J. d., & Freitas, S. M. (2019). Modelo de regressão linear múltipla para avaliação do valor de
mercado de apartamentos residenciais em Fortaleza, CE. Ambiente Construído, 19(1), pp. 89-104.
Pereira, J. C., Garson, S., & Araújo, E. G. (2012). Construção de um modelo para o preço de venda de casas
residenciais na cidade de Sorocaba-SP. GEPROS. Gestão da Produção, Operações e Sistemas, 4, pp. 153-167.
Pinto, V., & Fernandes, R. A. (2019). Análise de preços hedônicos no mercado imobiliário residencial de
Conselheiro Lafaiete, MG. Interações, 20(2), 627-643. doi:10.20435/inter.v20i2.1788
Rosa, V. S., Oliveira, P. B., & Pinto, R. L. (2019). Modelos de precificação para locação e venda de imóveis
residenciais na cidade de João Monlevade-MG via regressão linear multivariada. GEPROS. Gestão da
produção, operações e sistemas., 14(3), 151-167. doi:10.15675/gepros.v14i3.2614
SECOVI RIO. (2018). Cenário do Mercado Imobiliário da Região Serrana do Rio de Janeiro - 2018. Acesso em
11 de setembro de 2020, disponível em https://www.secovirio.com.br/.
Steiner, M. T. (2008). Métodos estatísticos multivariados aplicados à engenharia de avaliações. Gestão &
Produção, 15(1), pp. 23-32.
Walfish, S. (2006). A review of statistical outlier methods. Pharmaceutical Technology, 30(11), p. 82.
Wu, H., Jiao, H., Yu, Y., Li, Z., Peng, Z., Liu, L., & Zeng, Z. (2018). Influence Factors and Regression Model of
Urban Housing Prices Based on Internet Open Access Data. Sustainability, 1676, pp. 1-17.
Yan, Z., & Zong, L. (2020). Spatial Prediction of Housing Prices in Beijing Using Machine Learning Algorithms.
Proceedings of the 2020 4th High Performance Computing and Cluster Technologies Conference & 2020 3rd
International Conference on Big Data and Artificial Intelligence (HPCCT & BDAI 2020)., pp. 64-71.
Yusof, A. M., & Ismail, S. (2012). Multiple Regressions in Analysing House Price Variations. Communications
of the IBIMA, 2012, pp. 1-9.

PREDICTIVE MODEL FOR APARTMENT PRICES IN NOVA FRIBURGO

Abstract. With the expansion of the real estate market in the mountainous region of the state of
Rio de Janeiro, an increasing number of people needs to deal with the purchase and sale of
real estate. However, to fair evaluate, a real estate unit is not a simple task and can be
influenced by different characteristics. To assist in this task, the objective of the present work
is to identify the most critical attributes for evaluating a property and then build a simple
mathematical model that can be used to estimate the value of the property in this region.
Thereunto, data from properties for sale in the city of Nova Friburgo were extracted from online
ad portals to build a unique database of real estate data. In these data, variable selection
techniques and a multiple linear regression process were applied to obtain a mathematical
model that describes prices based on the property's essential characteristics. The obtained
results revealed that the most crucial aspect of the evaluation is the property's total area. The
developed model was also able to predict prices with a mean percentage deviation of
approximately 19% on the test database.

Keywords: Machine Learning, Multi-linear Regression, Real Estate Price Prediction

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

669
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

EFEITO DO DIÂMETRO NA MASSA ESPECÍFICA DA FIBRA DE UBIM

Belayne Zanini Marchi1 – belaynez@hotmail.com


Verônica Scarpim Cândido2 – scarpini@ufpa.br
Alisson Cley Rios da Silva3 – alissonrios@ufpa.br
Raphael Henrique Morais Reis4 – raphael.reis.a@gmail.com
Sergio Neves Monteiro5 – sergio.neves@ime.eb.br
1
Instituto Militar de Engenharia, RJ, Brasil
2
Universidade Federal do Pará, PA, Brasil
3
Universidade Federal do Pará, PA, Brasil
4
Instituto Militar de Engenharia, RJ, Brasil
5
Instituto Militar de Engenharia, RJ, Brasil

Resumo. A produção de materiais sintéticos utiliza em geral formas não renováveis de


energia, bem como processos sendo altamente poluentes, o que impulsiona a pesquisa por
novos materiais naturais ou alternativos que ofereçam propriedades similares aos sintéticos.
Em particular, a utilização de fibras naturais lignocelulósicas (FNLs) tem sido considerada
nas últimas décadas, e desponta fortemente como uma alternativa para substituir
componentes sintéticos e reforçar materiais compósitos para aplicações de engenharia. As
FNLs se destacam em geral por serem biodegradáveis, não poluentes, apresentam baixo
custo de cultivo e economicamente mais viáveis. Além disso são mais leves que as fibras
sintéticas, sendo um possível substituto a estes componentes, com propriedades mecânicas
similares. Neste artigo, uma FNL ainda desconhecida, a fibra de ubim (Geonoma baculífera),
será analisada estatisticamente em termos de diâmetro em relação a sua massa específica,
pelo método de Weibull visando futuras aplicações em compósitos de engenharia. Em resumo,
concluiu-se que as fibras de ubim possuem uma alta massa específica média (2,40 g/cm3)
comparada com outras fibras naturais. Além disso sua massa específica pouco varia com o
diâmetro no intervalo de 200 a 320 µm

Palavras Chaves: Fibra de ubim; Fibra lignocelulósica natural, Massa específica, Diâmetro
de fibras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

670
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUCÃO

A produção de materiais sintéticos está associada a um alto consumo de energia em sua


fabricação. Além disso, estes materiais utilizam formas não renováveis de energia e são
altamente poluentes, o que vem causando elevado dano ambiental e dúvidas quanto a seu
descarte. A busca por novos materiais que ofereçam propriedades mecânicas similares a um
custo menor, vem despertando interesse da indústria e pesquisadores, no intuito de introduzir
no mercado materiais alternativos em substituição aos componentes sintéticos (Monteiro et al,
2011).
Muito tem se pesquisado nas últimas décadas sobre fibras naturais lignocelulósicas
(FNLs). A utilização de FNLs, desponta fortemente como uma alternativa para substituir
fibras sintéticas (Monteiro et al, 2011). Consequentemente vem sendo analisadas e
pesquisadas com intuito de reforçar compósitos poliméricos (Marinelli et al, 2008 e Pickering
et al, 2016), podendo ser utilizadas também em materiais de construção, embalagens, peças
industriais e automobilísticas, com ampla aplicação na engenharia (Holbery e Houston, 2006;
Benzait, 2018).
As FNLs se destacam em geral por serem biodegradáveis, não poluentes, apresentarem
baixo custo de cultivo sendo economicamente mais viáveis, além de serem mais leves que as
fibras sintéticas, também possuem propriedades químicas e mecânicas similares (Monteiro et
al 2011; Satyanarayana et al, 2007).
As propriedades das FNLs variam conforme a sua composição química, diâmetro, arranjo
dos constituintes na fibra, grau de polimerização, fração cristalina da celulose, fonte vegetal,
parte do organismo vegetal (caule, folha, raiz, semente, entre outras) e condições de
crescimento (idade, condições climáticas, processos de degradação) (Faruk et al, 2012).
Dentre as FNLs com potencial de aplicação, destaca-se a fibra extraída do ubim,
relativamente desconhecida. Na realidade, a fibra de ubim não é mencionada em estudo sobre
fibras naturais brasileiras, com potencial para aplicações práticas (Satyanarayana et al, 2007).
É uma espécie da família palmar, cientificamente denominada Geonoma baculífera. Esta é
uma planta de caule múltiplo, liso, com fibras alongadas e não ramificadas, altura variando
entre 1 a 4 m e diâmetro de 1 a 3 cm. Estipe ereto ou parcialmente rastejante, com 7 a 12
folhas, inflorescências pouco ramificadas e frutos globosos ou ovoides. É encontrada
tipicamente no sub-bosque de florestas com altas taxas pluviométricas (Henderson et al,
1995). A distribuição da espécie se da na América Central e do Sul. Há dados de ocorrência
nas Guianas, Peru, Bolívia e Venezuela (Garden, 2003). No Brasil, pode ser encontrada no
Amazonas, no Amapá, Pará, Maranhão e Piauí. Apresentam potencial como ornamentação,
para jardins e interiores (Lorenzi e Harri, 2010).
Alguns estudos mostram que a utilização de FNLs tem ampla utilização como reforço em
compósitos poliméricos. Sua aplicação pode ser resumida a compósitos submetidos a esforços
de pequeno e médio porte (Monteiro et al, 2009). Dentre as propriedades dos compósitos
reforçados com FNLs, parâmetros microestruturais como diâmetro e massa específica, são
essenciais para sua caracterização (Monteiro et al, 2011).
Dessa forma o objetivo desse trabalho é verificar a importância do diâmetro da fibra de
ubim, uma fibra amazônica ainda cientificamente desconhecida, em relação a sua massa
específica, visando futuras aplicações em compósitos e engenharia.

2. MATERIAIS E MÉTODOS

A fibra de ubim, obtida pelos coautores VSC e ACRS em Belém do Pará, Brasil é
extraída do caule da planta, ilustrado na Figura 1, possuindo uma grande variação nos seus
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

671
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

diâmetros. Para caracterização da fibra, a primeira etapa consistiu em analisar essa variação,
para construção de um histograma. A fibra de ubim foi desfiada manualmente com ajuda de
um estilete, e posteriormente feito a medição das dimensões e comprimento da seção
transversal da fibra.

Figura 1- Fibra de ubim (Di Bella et al, 2014).

Para a obtenção do diâmetro, cada fibra foi dividida em 5 pontos distintos separados
uniformemente, e depois girados 90º para novamente serem medidos nos mesmos 5 pontos
citados anteriormente.
Em cada ponto foi realizado um total de 3 medidas, obtendo assim uma média. O
equipamento utilizado foi um microscópio da OLYMPUS, modelo BX53M com aumento de
5x, vide figura 2.

Figura 2- Medição transversal da Fibra de ubim. Aumento 5x

Após o cálculo da média dos diâmetros das fibras de ubim e sua variação, as fibras foram
divididas em seis intervalos de diâmetro, e assim foi elaborado um histograma da variação
diametral da fibra de ubim.
Dessa forma, ao se fazer a análise nas fibras, pode-se relacionar esse intervalo das fibras
com suas propriedades, e sobretudo com o seu diâmetro. Outra etapa foi determinar o
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

672
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

comprimento das fibras, para obter o comprimento médio e a variação do comprimento das
fibras de ubim.
O comprimento de cada fibra foi medido por uma régua metálica. Como as fibras são
aproximadamente cilíndricas, o volume médio pode ser determinado pela equação 1:

Vm = π (rm)2 lm (1)

Para obtenção da massa, as fibras foram pesadas em uma balança eletrônica Gehaka,
modelo AG-200, de precisão 0,0001g. Assim, com o volume obtido e a massa de cada fibra, a
massa específica das fibras foi obtida de acordo com a equação 2:

ρ = m / Vm (2)

A avaliação padrão da massa específica foi realizada conforme ASTM 3800 (ASTM,
2010), relacionando o diâmetro das fibras com sua massa específica. Para cada intervalo de
diâmetros calculou-se a massa específica média. Assim, a variação da massa específica pela
variação do diâmetro foi avaliada estatisticamente através da distribuição proposta por Ernest
Weibull ((Di Bella et al, 2014).

3. RESULTADOS E DISCUSSÕES

A distribuição do número de fibras em função dos intervalos do diâmetro é mostrada na


Figura 3. Pode-se notar que o maior número de fibras foi observado nos intervalos entre 289 a
311 µm, totalizando 40% das fibras. O intervalo entre 267 a 289 µm representam 34% de
fibras, e a menor frequência de fibras foi encontrado entre o intervalo de 267 a 289 µm.

Figura 3- Distribuição de frequência por diâmetro para fibras de ubim.

Após obtenção do volume das fibras foi calculado a massa específica da fibra com valor
médio de 2,40 g/cm3. A comparação da massa específica média da fibra de ubim com a de
outras FNLs que se destacam, está mostrada na Tabela 1.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

673
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dentre elas podemos citar as fibras de curauá, juta, sisal, bambu, rami entre outras
(Monteiro et al, 2011; Satyanarayana et al, 2007).

Tab. 1 – Massa específica de diferentes fibras (Benzait, 2018).

Fibras Ubim Curauá Juta Sisal Vidro E Vidro S Aramida


𝝆
2,4 0,57-0,92 1,30-1,45 1,26-1,50 2,5-2,58 2,5 1,44
(g/cm³)

A Tabela 2 foi construída com os tres intervalos de diâmetros mostrados no histograma


da Figura 3, em relação a massa específica média característica de Weibull, utilizando os
parâmetros β, θ e R².
Os valores de foram interpretados estatisticamente por meio do programa de computador
Análise Weibull. A análise estatística Weibull é baseada em uma função de distribuição
cumulativa:
F(x) = 1- exp [–(x/θ)β] (3)

onde θ e β são matematicamente conhecidos como os parâmetros de forma e escala. A


Equação (3) pode ser convenientemente modificada em uma expressão linear por dupla
aplicação de logaritmo:

lnln(11−F(x))=βlnx−(βlnθ) (4)

β é a inclinação da Equação (4), representa o módulo de Weibull, também é relacionado à


qualidade da distribuição estatística, ou um indicativo de reprodutividade dos dados. Quanto
maior este valor, mais a distribuição se aproxima da média e menor é a dispersão,
representando maior confiabilidade dos dados (Pinheiro et al, 2014).
θ equivale a massa específica média característica. Representa 63% de probabilidade das
fibras de ubim apresentarem uma massa específica igual ou superior (Askeland e Phulé, 2008).
R2 é um parâmetro de ajuste dos pontos à reta central dos gráficos de Weibull, indicando
a qualidade do ajuste, com precisão variando de 0 a 1. Quanto mais próximo de 1 estiver R2,
melhor ajustado a reta estará (Pinheiro et al, 2014). Todos valores apresentaram um alto grau
de precisão da análise estatística, superiores a 0,96. Também foram apresentados o desvio
padrão da massa específica média para cada intervalo de diâmetro.

Tab.2 Massa específica média e característica para cada


intervalo de diâmetro das fibras de ubim

ρ
Intervalo dos (g/cm3) Desvio
β Θ R²
Diâmetros (µm) Padrao

244 - 267 2,441 0,23 9,65 2,56 0,96


267 - 289 2,536 0,11 4,40 2,77 0,99
289 - 311 2,236 0,23 9,48 2,34 0,97

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

674
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Como mencionado acima, para cada intervalo de diâmetro foram analisados os valores de
massa específica média pelo programa de Análise de Weibull, que forneceu os gráficos de
probabilidade de confiabilidade verso parâmetros associados à Equação (4).
Esses gráficos lineares de Weibull são mostrados na Figura 4. Deve-se notar que todos os
gráficos na Figura 4 são unimodais, ou seja, com apenas uma única linha reta ajustando os
pontos em cada intervalo. Isso indica comportamento mecânico semelhante de todas as fibras
dentro do mesmo intervalo de diâmetro.

Figura 4 - Gráficos de probabilidade de Weibull para a massa específica média em diferentes


intervalos de diâmetro equivalente de fibras de ubim.

Através dos resultados obtidos construiu-se o gráfico de massa específica característica


de Weibull em função do diâmetro médio dos intervalos das fibras, conforme está apresentado
na Figura 5. De maneira geral, pode-se observar que os valores da massa específica
característica apesar de ter uma leve variação, tendem a diminuir com o aumento do diâmetro.
Pela literatura, pode-se observar este mesmo comportamento em outras FNLs, tais como
bagaço de cana de açúcar (Candido, 2014), fibras de bucha vegetal (Oliveira, 2013), dentre
outras.

Figura 5 - Massa específica das fibras de ubim em relação ao diâmetro

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

675
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÃO

A determinação da massa específica em função do diâmetro das fibras de ubim


permitiram concluir que:
• A massa específica média das fibras de ubim foi de 2,40 g/cm3.
• O intervalo com maior diâmetro (entre 289 a 311 µm) apresentou um maior número de
fibras, o que pode estar relacionado com à natureza das fibras, pois um diâmetro maior é
menos suscetível à ruptura.
• O método estatístico de Weibull mostra que a massa específica analisada tem tendência a
diminuir com o aumento das dimensões da seção transversal da fibra. A massa específica
encontrada para a fibra de ubim apresentou valor um pouco maior, se comparado a outras
fibras naturais lignocelulósicas (FNLs).
• Os módulos de Weibull obtidos foram bastante elevados, o que demonstra a grande
reprodutibilidade e confiabilidade. O intervalo de diâmetro entre 267 a 289 µm apresentou
parâmetro de Weibull β mais baixo, o que pode-se sugerir repetir o ensaio para esse intervalo.

Agradecimentos. Os autores agradecem à FAPERJ, CAPES, CNPq.

REFERÊNCIAS

American Society for Testing and Materials – ASTM.Standard test method for density of high modulus
fiber,D3800-99. West Conshohoken, PA: ASTM International; 2010.
Andrade, L. C., de Melo, S. L. S., amorim, L., & de Deus, E. p. distribuição estatística de weibull aplicada a
compósitos de polietileno reciclado/fibra vegetal de sisal. ABM Week, outubro de 2017.
Askeland, D. R., & Phulé, P. P. (2008). Ciência e engenharia dos materiais. Cengage Learning.
Benzait Z, Trabzon L. A review of recent research on materials used in polymer-matrix composites for body
armor application. J Composite Materials 2018; 0(0): 1-23.
Candido, V. S. Caracterização e Propriedades de Compósitos Poliméricos Reforçados com Fibras de Bagaço de
Cana-de-Açúcar. Rio de Janeiro. Tese [Doutorado em Ciência dos Materiais] – Instituto Militar de
Engenharia; 2014.
Di Bella G, Fiore V, Galtieri G, Borsellino C, Valenza A. Effects of natural fibres reinforcement in lime plasters
(kenaf and sisal vs Polypropylene). Construction and Building Materials 2014; 58: 159-165.
Dicker MPM, Duckworth PF, Baker AB, Francois G, Hazzard MK, Weaver PM. Green composites: A review of
material attributes and complementary applications. Composites: Part A 2014; 56: 280-289.
Dittenber DB, GangaRao HVS. Critical review of recent publications on use of natural composites in
infrastructure. Composites: Part A 2012; 43: 1419-1429.
Faruk O, Bledzki AK, Fink HP, Sain M. Biocomposites reinforced with natural fibers: 2000-2010. Prog Polym
Sci. 2012; 37:1552-1596.
Garden, M. B. (2003). Index to plant chromosome numbers (IPCN).
Guven O, Monteiro SN, Moura EAB, Drelich JW. Re-emerging field of lignocellulosic fiber– Polymer
composites and ionizing radiation technology in their formulation. Polymer Reviews 2016; 56(4): 702-736.
Henderson, A.; Galeano, G.; Bernal, R. 1995 Field Guide to the Palms of the Americas. Princeton University
Press, New Jersey, 352 p
Holbery I, Houston D. Natural fiber reinforced polymer composites in automative application. JOM 2006; 60: 80.
Lorenzi, Harri. Brazilian Flora: Arecaceae (Palms). Instituto Plantarum de Estudos da Flora, 2010.
Majeed K, Jawaid M, Hassan A, Bakar AA, Khalil HA, Salema AA, et al. Potential materials for food packaging
from nanoclay/natural fibres filled hybrid composites. Materials & Design 2013; 46: 391-410.
Marinelli, A. L., Monteiro, M. R., Ambrósio, J. D., Branciforti, M. C., Kobayashi, M., & Nobre, A. D. (2008).
Desenvolvimento de compósitos poliméricos com fibras vegetais naturais da biodiversidade: uma
contribuição para a sustentabilidade amazônica. Polímeros, 18(2), 92-99.
Monteiro SN, Lopes F, Barbosa A, Bevitori A, Silva I, Costa L. Natural Lignocellulosic Fibers as Engineering
Materials—An Overview. Metallurgical and Materials Transactions A. 2011;42(10):2963-2974.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

676
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Monteiro SN, Lopes FPD, Ferreira AS, Nascimento DCO. Natural fiber polymer matrix composites: cheaper,
tougher and environmentally friendly. JOM 2009; 61:17-22.
Oliveira, M. P. Propriedades mecânicas e térmicas dos compósitos poliméricos reforçados por fibras de bucha.
Rio de Janeiro. Dissertação [Mestrado em Ciência dos Materiais] – Instituto Militar de Engenharia; 2013
Pickering KL, Efendy MGA, and Le TM. A review of recent developments in natural fibre composites and their
mechanical performance. Compos. Part A 2016; 83: 98-112.
Pinheiro, B. C. A.; estevão, G. M.; vitor, R. da R. Aplicação da Estatística de Weibull na Avaliação da Tensão de
Ruptura a Flexão de Revestimento Cerâmico. Revista da Estatística da Universidade Federal de Ouro Preto,
Vol. 3. p. 169-173, 2014.
Satyanarayana KG, Guimarães JL, and Wypych F. Studies on lignocellulosic fibers of Brazil. Part I: Source,
production, morphology, properties and applications. Compos. Part A 2007; 38(7): 1694-1709.
Thakur VK, Thakur MK, and Gupta RK. Review: raw natural fiber-based polymer composites. Int. J. Polym
Anal. Charact. 2014; 19 (3): 256-271.

THE EFFECT OF THE DIAMETER ON THE SPECIFIC MASS OF UBIM

Abstract. The production of synthetic materials uses non-renewable forms of energy, as well
as highly polluting, processes that motivate the search for new natural or alternative
materials, which offer properties similar to synthetic ones. In particular, the use of natural
lignocellulosic fibers (NLFs) has been considered in the last decades and emerges strongly as
an alternative to or replace synthetic components, and to reinforce composite materials for
engineering applications. NLFs generally stand out for being biodegradable, non-polluting,
have low cost of cultivation and economically more viable, in addition to being lighter than
synthetic fibers, being a possible substitute for these components, with similar mechanical
properties. In this article, a NLF still unknown, the ubim fiber (Geonoma baconiferous), will
be analyzed statistically in terms of diameter in relation to its density, using the Weibull
method for future applications in engineering composites. In summary, it was concluded that
the ubim fibers have a high density (2.4 g / cm3) compared to other natural fibers. Moreover
its density displays little change with the diameter within the 240 to 320 um interval.

Keywords: Ubim fiber; Natural lignocellulosic fiber; Density; Fiber diameter.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

677
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

PROPRIEDADES DE TRAÇÃO DE COMPÓSITOS DE MATRIZ EPOXÍDICA


REFORÇADA COM FIBRAS DE CURAUÁ FUNCIONALIZADOS COM ÓXIDO DE
GRAFENO

Ulisses Oliveira Costa1– ulissesolie@gmail.com


Lucio Fabio Cassiano Nascimento1 – LUCIO_COPPE@yahoo.com.br
Wendell Bruno Almeida Bezerra1 – wendellbez@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia-IME

Resumo. As fibras naturais têm mostrado um grande potencial para aplicações de


engenharia, em especial para aplicações balísticas. A fibra de curauá (Ananas erectifolius) é
uma candidata promissora a substituir as fibras sintéticas como por exemplo as fibras de
vidro e aramida. A adição de óxido de grafeno (GO) em sua superfície mostrou-se ser uma
excelente solução para otimizar propriedades por meio da melhor compatibilidade entre a
fibra (hidrofílica) e a matriz polimérica (hidrofóbica). No entanto, a funcionalização com GO
da matriz mostrou-se mais eficiente em otimizar as propriedades de tração do compósito
assim como melhoras na interface fibra/matriz. O módulo de elasticidade mostrou-se como a
propriedade mais sensível ao tratamento com GO.

Palavras-chave: Fibras de curauá, Matriz epóxi, Propriedades de tração, Funcionalização,


Óxido de grafeno

1. INTRODUÇÃO

Compósitos poliméricos reforçados com fibras naturais lignocelulósicas (FNLs) vêm


sendo alvo de estudos técnico e investigações científicas (Sanjay et al., 2018; Montero et al.,
2009 e 2011; Stayanarayana et al., 2009). Isto é, devido as suas notáveis propriedades
mecânicas, densidade, entre outras características atrativas para produtos estruturais ou de
engenharia (Dittenber & Gangarao, 2012; Thomas et al., 2011). A fibra de curauá (FC) é uma
das mais promissoras dentre as FNLs para substituir as fibras sintéticas, tendo em vista as
suas propriedades mecânicas e físicas (Da Silva et al., 2020; Braga et al., 2019; Maciel et al.,
2018; Simonassi et al., 2018; Caraschi & Leão, 2000).
Tratamentos podem ser empregados no intuito de otimizar propriedades das fibras
naturais lignocelulósicas, tais como, tratamentos físicos, químicos, mecânicos, biológicos etc.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

678
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No entanto, esses tratamentos geralmente não afetam as propriedades de forma efetiva.


Principalmente quando se fala de propriedades físicas, por exemplo, as FNLs não possuem
boa resistência térmica, sendo um fator limitante para a utilização em diversas aplicações
(Dittenber & Gangarao, 2012. Bledzki, 1999).
O óxido de grafeno (GO), se destaca no âmbito de recobrimento de fibras para aplicação
em compósitos poliméricos, devido aos grupos funcionais presentes em sua estrutura que
influenciam a resistência da interface entre a matriz polimérica e as fibras, otimizando suas
propriedades tanto mecânica quanto térmicas (Tsagkalias et al., 2017; Sarker et al., 2018).
O presente trabalho tem por objetivo a avaliação da influência do recobrimento com GO
nas propriedades de tração de compósitos de matriz epoxídica reforçada com fibras naturais
de curauá funcionalizados com GO.

2. MATERIAIS E MÉTODOS

2.1 Materiais utilizados

Foram utilizadas fibras de curauá fornecidas pela Universidade Federal do Pará (UFPA).
A Figura 1 mostra as fibras de curauá como fornecidas.

Figura 1 - Fibras de malva como fornecidas pela UFPA

2.2 Preparação das fibras de curauá para funcionalização com óxido de grafeno

Primeiramente as fibras foram limpas, cortadas na dimensão de 150 mm e secas em


estufa à 80 °C por 24h. Obtendo assim as fibras de curauá sem tratamento (FC). Essas fibras
de curauá foram então imersas em uma solução de GO na concentração de 0,56 mg/ml,
permanecendo sob agitação por 1 hora em um agitador mecânico universal, afim de garantir e
otimizar o contato do GO com a fibra. Em seguida essas fibras embebidas nessa solução,
foram colocadas em estufa a 80 °C por 24 horas, obtendo ao final as fibras de curauá tratadas
com GO (FCGO).

2.3 Preparação da matriz epoxídica para funcionalização com óxido de grafeno

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

679
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Esquema da rota de funcionalização da resina epóxi com óxido de grafeno

O processo de funcionalização da resina epóxi ocorreu como mostrado na Figura 2.


Inicialmente a suspensão de GO em água foi secada para posterior suspensão em álcool
isopropílico PA, com auxílio de um agitador ultrassônico até atingir uma suspensão
homogênea de álcool e GO. Em seguida a resina foi adicionada à essa suspensão e misturada
por um agitador mecânico até atingir uma homogeneidade. A mistura foi colocada em uma
estufa para evaporação do álcool isopropílico e em seguida o catalizador é então adicionado à
essa mistura de GO e resina.

2.4 Preparação dos compósitos epóxi-fibras de curauá

O polímero utilizado como o material da matriz da placa compósita foi a resina epóxi
comercial do tipo éter diglicidílico do bisfenol A (DGEBA), endurecida com trietileno
tetramina (TETA), utilizando-se a proporção estequiométrica de 13 partes de endurecedor
para 100 partes de resina. A empresa fabricante da resina foi a Dow Chemical do Brasil e
fornecida pela distribuidora RESINPOXY Ltda.
Para fabricar os compósitos foi utilizado um molde metálico com dimensões de 15 x 12 x
1,19 cm. As placas foram produzidas em uma prensa hidráulica de 30 toneladas. Utilizou-se
uma carga de 5 toneladas durante 24 horas durante a cura do polímero. Para as fibras de
curauá utilizou-se como referência inicial a densidade de 0,92 g/cm3, e para a resina epóxi
(DGEBA/TETA) o valor de 1,11 g/cm3. O percentual de fibras utilizado no trabalho foi de
30% vol.

2.5 Ensaio de tração

O ensaio de tração foi realizado em uma máquina universal INSTRON 3365. A


velocidade de ensaio foi de 2 mm/min com célula de carga de 10 KN, conforme a norma
ASTM D638. Os corpos de prova, Figura 3, foram cortados a laser utilizando um
equipamento LC 1390, da G-WEIKE com velocidade de deslocamento de 5 m/s e potência do
laser de 80 W. A tabela 1 apresenta os diferentes grupos de corpos de provas, com respectivas
siglas, para os ensaios de tração.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

680
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 - Os diferentes grupos de compósitos para ensaio de tração.

Percentual de fibras de
Quantidade de
Grupo curaua contínuas e
amostras
alinhadas
Compósito com matriz epoxídica e fibras de
curauá (FC/E) (grupo controle)

Compósito com matriz epoxídica e fibras de


curauá funcionalizadas com GO (FCGO/E)

Compósito com matriz epoxídica 5 para cada


30%
grupo
funcionalizada com GO e fibras de curauá
(FC/EGO)

Compósito com matriz epoxídica


funcionalizada com GO e fibras de curauá
funcionalizadas com GO (FCGO/EGO)

Figura 3 - Corpos de prova dos compósitos para ensaio de tração: a) FC/E; b) FCGO/E;
c) FC/EGO e d) FCGO/EGO.

3. RESULTADOS E DISCUSSÃO

Foram obtidos resultados para o ensaio de tração dos compósitos FC/E, FCGO/E,
FC/EGO e FCGO/EGO. Para todos os grupos, tanto resistência a tração quanto o módulo de
elasticidade dos compósitos foram superiores aos valores encontrados na literatura (Maciel et
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

681
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

al., 2018). Uma possível explicação está no método de fabricação dos compósitos, pois
utilizar moldes de silicone ou moldes metálicos com cura sob pressão, podem alterar as
propriedades do compósito final (Chen et al., 2018; Gomes et al., 2007). Por outro lado, estão
de acordo com os valores encontrados por Monteiro et al. (2016), em seu trabalho com
compósitos de matriz de poliéster reforçada com fibras de curauá, no qual foi feita uma
seleção de diâmetros de fibras, para fibras mais finas que consequentemente possuem menos
defeitos e propriedades mais otimizadas (Monteiro et al., 2016).
Os resultados para módulo de elasticidade, assim como os parâmetros de Weibull dos
compósitos, estão mostrados na Tabela 2. Como pode ser observado, para cada grupo, o valor
do R2 mostra que todos os resultados se ajustam bem a distribuição de Weibull. Isso indica
que as amostras estavam homogêneas, o que descarta a possibilidade de que dentro de cada
tratamento fosse necessária a censura de qualquer amostra.

Tabela 2 - Parâmetros de Weibull, média e desvio padrão do módulo de elasticidade dos


compósitos: FC/E, FCGO/E, FC/EGO e FCGO/EGO

Compósito E médio (MPa) Desvio β θ R²


padrão (MPa)
FC/E 3.080,6 550,24 5,5732 3.320,03 0,9874
FCGO/E 3.898,2 400,14 9,7154 4.082,77 0,9594
FC/EGO 4.748,9 803,66 5,5719 5.120,83 0,9518
FCGO/EGO 3.449,4 527,07 5,81186 3.611,47 0,9222

Os valores de tensão máxima dos compósitos supracitados também se ajustaram


relativamente bem a distribuição de Weibull, dados os valores de R2 mostrados na Tabela 3.
O compósito que apresentou maior resistência a tração foi o FC/EGO com 188,75 ± 32,04
MPa em comparação com o compósito FC (134,67 ± 23,01 MPa).

Tabela 3 - Parâmetros de Weibull, média e desvio padrão da resistência a tração dos


compósitos: FC/E, FCGO/E, FC/EGO e FCGO/EGO

Compósito σmax médio Desvio β θ R²


(MPa) padrão (MPa)
FC/E 134,67 23,01 5,7995 144,81 0,9554
FCGO/E 142,00 22,44 6,2795 151,99 0,9433
FC/EGO 188,75 32,04 6,1476 203,71 0,9876
FCGO/EGO 94,95 17,03 5,6571 102,22 0,9704

Por meio da Figura 4, é possível comparar os compósitos com os diferentes tratamentos.


Na Figura 5a, pode-se observar que com a funcionalização das fibras de curauá o compósito
FCGO/E apresentou tanto uma maior resistência a tração cerca de 5,18% maior quanto um
maior módulo de elasticidade, com um aumento de 26,5 %, Figura 5b, em relação ao grupo
controle FC/E. Para os grupos que foram submetidos a uma funcionalização na matriz
epoxídica o resultado foi bastante distinto, sobretudo o grupo FC/EGO que resultou no mais
resistente a tração, com tensão máxima de 188,75 ± 32,04 MPa e módulo de elasticidade
4748,9 ± 803,66 MPa, em relação a todos os grupos Figura 5a, c e d. Em contrapartida, o
grupo com maior concentração de GO, tal qual o FCGO/EGO, que contou com a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

682
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

funcionalização tanto nas fibras quanto na matriz resultou no grupo com menor resistência à
tração (94,05 ± 17,03 MPa). Por outro lado, o módulo de elasticidade de 3449,4 ± 527,07
MPa ainda foi superior ao do compósito FC/E. Essa queda nas propriedades de mecânicas
pode estar associada a quantidade de GO no compósito, que pode ter atingido o limite de
solubilidade do sistema, concomitante com a grande quantidade de microbolhas vistas na
superfície de fratura.

(a) (b)

(c) (d)

Figura 4 - Curvas comparativas de tração para os compósitos: a) todos os grupos; b) FC/E e


FCGO/E; c) FC/E e FC/EGO e d) FC/EGO e FCGO/EGO.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

683
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)

(c) (d)

Figura 5 - Micrografias das superfícies de fratura dos compósitos: a) FC/E; b) FCGO/E; c)


FC/EGO e d) FCGO/EGO.

Por meio das micrografias da Figura 5, uma análise que pode ser feita é sobre a adesão
das fibras na matriz. Para os compósitos FC/E, é possível verificar que a interface fibra/matriz
não é boa, há presença de marcas de rios, com uma superfície mais lisa do epóxi. Para os
compósitos FCGO/E, a interface já se ajusta melhor à superfície da fibra, porém, ainda
apresentando falhas na adesão. Por outro lado, a interface dos compósitos FC/EGO, foi a mais
otimizada. Com base na característica da fratura, com presença de marcas de rios juntamente
com características grosseiras e de vários planos na superfície de fratura, sugere-se que as
folhas de óxido de grafeno induziram a deflexão das frentes de propagação de trinca. Esse
processo introduz uma carga fora do plano que gera novas superfícies de fratura, aumentando
assim a energia de deformação necessária para a continuação da fratura (Bortz et al., 2011).
Com o intuito de avaliar se houve diferença significativa entre os resultados de resistência
a tração e módulo de elasticidade entre os grupos de tratamento, foi utilizada a análise de
variância (ANOVA). Os resultados estão dispostos na Tabela 4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

684
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4 - Análise de variância do módulo de elasticidade para os compósitos: FC/E,


FCGO/E, FC/EGO e FCGO/EGO

Fonte da variação SQ GL MQ F(calc) valor-P F crítico


Entre grupos 103.684,54 3 345.615,1 14,3623 8,41E-05 3,238872
Dentro dos grupos 385.023,2 16 240.639,5
Total 142.186,87 19

A partir da análise de variância, Tabela 4, rejeitou-se a hipótese de que as médias fossem


iguais com nível de significância de 5%, pois pela estatística “F”, têm-se: F calculado (14,36)
> F crítico ou tabelado (3,24). Portanto, a funcionalização com óxido de grafeno foi
responsável por causar mudanças nas propriedades de tração dos compósitos. O Teste de
Tukey foi utilizado para comparação dessas médias para averiguar qual tratamento
proporcionou melhores resultados em termos de módulo de Young (E).
A diferença mínima significativa (d.m.s.) para os valores de módulo de Young foi
calculada em 1000,38. Com base na Tabela 5, tem-se que com nível de significância de 5 %
que o grupo FC/EGO foi o que mostrou o melhor desempenho, pois este exibiu o maior valor
de módulo de Young. Sobretudo, foi o grupo que obteve a maior diferença significativa
encontrada entre os demais (1869,03) em relação ao grupo compósito FC.

Tabela 5 - Resultados obtidos para as diferenças entre os valores médios de módulo de Young
para os compósitos: FC/E, FCGO/E, FC/EGO e FCGO/EGO, após aplicação do teste de
Tukey.
FC/E FCGO/E FC/EGO FCGO/EGO
FC/E 0,00 817,65 1.869,03 244,47
FCGO/E 817,65 0,00 1.051,39 573,18
FC/EGO 1.869,03 1.051,39 0,00 1.624,57
FCGO/EGO 244,47 573,18 1.624,57 0,00

Da mesma maneira, para os resultados de resistência a tração os valores para a análise de


variância estão dispostos na Tabela 6. A partir destes resultados, rejeitou-se a hipótese de que
as médias fossem iguais com nível de significância de 5%, pois pela estatística “F”, têm-se: F
calculado (12,59) > F crítico ou tabelado (3,24). Portanto, a funcionalização com óxido de
grafeno foi responsável por causar mudanças na resistência a tração dos compósitos. Por isso,
aplicou-se o Teste de Tukey para comparação de médias para verificar qual tratamento
proporcionou melhores resultados em termos de resistência mecânica.

Tabela 6 - Análise de variância da resistência mecânica (σmax) para os compósitos: FC/E,


FCGO/E, FC/EGO e FCGO/EGO

Fonte da variação SQ GL MQ F(calc) valor-P F crítico


Entre grupos 22.192,3 3 7.397,434 12,5923 0,000176 3,238872
Dentro dos grupos 9.399,313 16 587,4571
Total 31.591,61 19

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

685
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A tabela 7 apresenta as diferenças entre os valores médios da resistência mecânica e a


tração para os diversos compósitos investigados.

Tabela 7 - Resultados obtidos para as diferenças entre os valores médios de resistência


mecânica (σmax) para os compósitos: FC/E, FCGO/E, FC/EGO e FCGO/EGO, após aplicação
do teste de Tukey.

FC/E FCGO/E FC/EGO FCGO/EGO


FC/E 0,00 7,33 54,08 39,72
FCGO/E 7,33 0,00 46,76 47,04
FC/EGO 54,08 46,76 0,00 93,80
FCGO/EGO 39,72 47,04 93,80 0,00

A diferença mínima significativa (d.m.s.) para os valores de resistência à tração foi


calculada em 49,43. Com base nas Tabelas 6 e 7, tem-se que com nível de significância de 5
% que o grupo FC/EGO foi o grupo com melhor desempenho, pois este exibiu o maior valor
de resistência a tração (188,75 ± 32,04 MPa). Em particular, foi este grupo o que obteve a
maior diferença significativa encontrada entre os demais (93,80) em relação ao compósito
FCGO/EGO e também ao compósito FC.
Por meio do teste de Tukey das Tabela 5 e 7, verifica-se que o módulo de elasticidade é
mais sensível ao tratamento de funcionalização com GO em comparação com a resistência a
tração, visto que houve diferença significativa em quase todos os tratamentos para aquela
propriedade (Papageorgiou et al., 2017).
O compósito FC/EGO, foi dado como o que apresentou as melhores propriedades
mecânicas, com aumento de 40,15 % na resistência a tração (σmax) e 54,15 % para o módulo
de Young (E) em relação ao grupo FC/E.

4. CONCLUSÃO

Ensaios de tração em compósitos de matriz epoxídica (E) reforçada com fibras de curauá
(FC) funcionalizadas com óxido de grafeno (GO), revelaram que a interface fibra/matriz foi
mais eficiente para o grupo FC/EGO, apresentando propriedades mecânicas otimizadas em
relação aos outros grupos. Sobretudo nos grupos que receberam tratamento na fibra e os sem
tratamentos FCGO/E e FC/E respectivamente. Portanto, a adição de GO na resina epóxi,
como foi o caso do grupo FC/EGO, mostrou uma influência maior em relação a
funcionalização das fibras de curauá, cerca de 40,15 % na resistência a tração e 54,15 % para
o módulo de Young em relação ao grupo FC. Isto ocorreu pela mudança no mecanismo de
fratura, causado pela deflexão das frentes de propagação das trincas pelas folhas de GO. Com
isso, o módulo de Young é mais sensível a adição de GO, tanto nas fibras quanto na matriz,
visto que este apresentou diferença para maioria dos grupos.
Os resultados da tensão de escoamento (σy), resistência máxima (σmax), módulo de Young
(E). Em comparação com o composto não funcionalizado FC/E, o FC/EGO exibe valores de
σy, σmax, e E superiores a 64, 40, e, 54,15%, respectivamente.
Apesar de relativamente maior desvio padrão, o teste ANOVA e Tukey confirmaram o
compósito FC/EGO com melhores propriedades de tração, exceto para ductilidade e
tenacidade.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

686
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Esses resultados são relevantes porque, pela primeira vez, a funcionalização com GO de
uma matriz polimérica se revela associada com propriedades mecânicas superiores em
comparação ao reforço de fibra natural funcionalizada com GO.

Agradecimentos

Os autores deste trabalho agradecem ao CNPq, FAPERJ, CAPES e a UFPA pelo apoio e
fornecimento das fibras de curauá.

REFERÊNCIAS

Ak, B. (1999). Gassan composites reinforced with cellulose based fibres. J Prog Polym Sci, 24, 221-74.
ASTM International. (2014). D638-14 Standard Test Method for Tensile Properties of Plastics. West
Conshohocken, PA; ASTM International.
Bortz, D. R., Heras, E. G., & Martin-Gullon, I. (2012). Impressive fatigue life and fracture toughness
improvements in graphene oxide/epoxy composites. Macromolecules, 45(1), 238-245.
Caraschi, J. C., & Leãto, A. L. (2000). Characterization of curaua fiber. Molecular Crystals and Liquid Crystals
Science and Technology. Section A. Molecular Crystals and Liquid Crystals, 353(1), 149-152.
Chen, J., Huang, Z., Lv, W., & Wang, C. (2018). Graphene oxide decorated sisal fiber/MAPP modified PP
composites: Toward high‐performance biocomposites. Polymer Composites, 39, E113-E121.
da Silva, A. O., de Castro Monsores, K. G., Oliveira, S. D. S. A., Weber, R. P., Monteiro, S. N., & de Carvalho
Vital, H. (2020). Influence of gamma and ultraviolet radiation on the mechanical behavior of a hybrid
polyester composite reinforced with curaua mat and aramid fabric. Journal of Materials Research and
Technology, 9(1), 394-403.
de Oliveira Braga, F., Lopes, P. H. L., Oliveira, M. S., Monteiro, S. N., & Lima Jr, É. P. (2019). Thickness
assessment and statistical optimization of a 3-layered armor system with ceramic front and curaua fabric
composite/aluminum alloy backing. Composites Part B: Engineering, 166, 48-55.
Dittenber, D. B., & GangaRao, H. V. (2012). Critical review of recent publications on use of natural composites
in infrastructure. Composites Part A: applied science and manufacturing, 43(8), 1419-1429.
Gomes, A., Matsuo, T., Goda, K., & Ohgi, J. (2007). Development and effect of alkali treatment on tensile
properties of curaua fiber green composites. Composites Part A: Applied Science and Manufacturing,
38(8), 1811-1820.
Maciel, N. D. O. R., Ferreira, J. B., da Silva Vieira, J., Ribeiro, C. G. D., Lopes, F. P. D., Margem, F. M., ... &
da Silva, L. C. (2018). Comparative tensile strength analysis between epoxy composites reinforced with
curaua fiber and glass fiber. Journal of materials research and technology, 7(4), 561-565.
Mohammed, L., Ansari, M. N., Pua, G., Jawaid, M., & Islam, M. S. (2015). A review on natural fiber reinforced
polymer composite and its applications. International Journal of Polymer Science, 2015.
Monteiro, S. N., Lopes, F. P. D., Barbosa, A. P., Bevitori, A. B., Da Silva, I. L. A., & Da Costa, L. L. (2011).
Natural lignocellulosic fibers as engineering materials—an overview. Metallurgical and Materials
Transactions A, 42(10), 2963-2974.
Monteiro, S. N., Lopes, F. P. D., Ferreira, A. S., & Nascimento, D. C. O. (2009). Natural-fiber polymer-matrix
composites: cheaper, tougher, and environmentally friendly. Jom, 61(1), 17-22.
Monteiro, S. N., Muylaert Margem, F., Tonini Simonassi, N., Loiola, R. L., & Picanço Oliveira, M. (2016).
Tensile Test of High Strength Thinner Curaua Fiber Reinforced Polyester Matrix Composite. In Materials
Science Forum (Vol. 869, pp. 361-365). Trans Tech Publications Ltd.
Papageorgiou, D. G., Kinloch, I. A., & Young, R. J. (2017). Mechanical properties of graphene and graphene-
based nanocomposites. Progress in Materials Science, 90, 75-127.
Sanjay, M. R., Madhu, P., Jawaid, M., Senthamaraikannan, P., Senthil, S., & Pradeep, S. (2018).
Characterization and properties of natural fiber polymer composites: A comprehensive review. Journal of
Cleaner Production, 172, 566-581.
Sarker, F., Karim, N., Afroj, S., Koncherry, V., Novoselov, K. S., & Potluri, P. (2018). High-performance
graphene-based natural fiber composites. ACS applied materials & interfaces, 10(40), 34502-34512.
Satyanarayana, K. G., Arizaga, G. G., & Wypych, F. (2009). Biodegradable composites based on lignocellulosic
fibers—An overview. Progress in polymer science, 34(9), 982-1021.
Simonassi, N. T., Braga, F. O., & Monteiro, S. N. (2018). Processing of a Green Fiber-Reinforced Composite of
High-Performance Curaua Fiber in Polyester. JOM, 70(10), 1958-1964.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

687
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Thomas, S., Paul, S. A., Pothan, L. A., & Deepa, B. (2011). Natural fibres: structure, properties and
applications. In Cellulose fibers: bio-and nano-polymer composites (pp. 3-42). Springer, Berlin,
Heidelberg.
Tsagkalias, I. S., Manios, T. K., & Achilias, D. S. (2017). Effect of graphene oxide on the reaction kinetics of
methyl methacrylate in situ radical polymerization via the bulk or solution technique. Polymers, 9(9), 432.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

688
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

DEVELOPMENT OF TOMOGRAPHIC COMPUTATIONAL TOOL FOR


ASSESSMENT OF DISCONTINUITIES IN CONCRETE THROUGH ULTRASONIC
PULSE VELOCITY

Laio Andrade Sacramento1 – lasacramento@uesc.br


Dany Sanchez Dominguez1 – dsdominguez@uesc.br
José Renato de Castro Pessôa1 – jrcpessoa@uesc.br
Susana Marrero Iglesias1 – smiglesias@uesc.br
1
Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil

Abstract. The presence of pathologies in concrete structures is a major problem for civil
engineering, in particular when they are not located on the object surface. In this regard, digital
tomographic reconstruction techniques have proved to be a great ally for the study of the
internal structure of materials. Thus, this work aims to develop a computational tool combining
tomographic techniques with the ultrasonic pulse velocity test to identify non-homogeneities
within concrete structures. With this aim, the essential mathematical background for a better
understanding of the tomographic problem, and the necessary steps for computational
implementation are presented. The tomographic reconstruction algorithm was implemented in
MatLab. To verify the effectiveness of the developed code, six simulated specimens were used
representing internal sections of elements with discontinuities of different sizes and locations.
Pulse propagation time vectors have been developed for horizontal, vertical, and composite
reading configurations. To study the mesh dependency, meshes of 5cm x 5cm and 2.5cm x 2.5cm
were used. The developed algorithm was able to create tomograms of the internal structure of
the proposed elements. The results obtained both in terms of location and dimensioning of the
discontinuities were best represented by the 2.5cm x 2.5cm mesh.

Keywords: concrete inspection, non-destructive evaluation, ultrasonic pulse velocity,


tomography.

1. INTRODUCTION

The interest in studying the integrity of concrete structures is the focus of numerous
researches in civil engineering (HAACH; RAMIREZ, 2016; PESSÔA et al., 2016; REGINATO
et al., 2017a). Differences in homogeneity, degradation over time, exposure to harmful

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

689
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

environments, loading cracking, presence of voids or strange bodies are some of the pathologies
that can be developed in these structures (PESSOA, 2011; SOUZA; RIPPER, 2009).
In this sense, non-destructive evaluation can be used to characterize properties and
pathologies in concrete structures without affecting their visual aspect or integrity. In particular,
the ultrasonic pulse velocity test can be used to inspect the internal integrity of structures
(LOPES, 2014; REGINATO et al., 2017a).
Even being able to evaluate the general conditions of homogeneity in concrete, the
ultrasonic pulse velocity test alone is not able to locate and dimension internal discontinuities
in the structures. Therefore, combining the traditional ultrasonic test with a tomographic
reconstruction algorithm is an alternative to solve this problem (PERLIN, 2015).
The ultrasonic tomography is a non-destructive evaluation method that combines a
tomographic algorithm with ultrasonic readings in several directions to reconstruct internal
sections of concrete bodies. (CHOI; POPOVICS, 2015; HAACH; RAMIREZ, 2016). In this
regard, researches have been constantly directed towards the study, development, and
improvement of tomographic algorithms for ultrasonic pulse inspection. The implementation
of the algorithm, evaluation of solution methods for the tomographic equations system, data
allocation, and solution for pre-established simplifications are some of the study topics
(HAACH; RAMIREZ, 2016; PERLIN, 2015; PERLIN; PINTO, 2019).
Hence, the aim of this work is to describe the physical problem involving ultrasonic
tomography, the characteristics of the developed equations systems, and to propose the
implementation of an algorithm for its numerical solution.

2. BASIS OF ULTRASONIC TOMOGRAPHY

In a simplified way, the physical problem that governs the tomography is described in Fig1.
The difference between the signal that leaves the source and arrives at the receiver provides the
information about the interior structure of the body. Considering projections in many different
directions, it is possible to reconstruct the internal characteristics of the body (DE PIERRO,
1990).

Figure 1 – Scheme of the physical principle that governs tomography.

This is the basis of tomography and it can be expressed mathematically in the form

∆𝑆 = ∫ 𝑑𝑗 𝑎𝑗 (1)

where ∆S is the difference between the emitted and received signal, 𝑑𝑗 é is the distance traveled
by the signal in the infinitesimal element j, and 𝑎𝑗 is the attenuation in the element.
In the ultrasonic tomography in concrete, the difference between the emitted and the
received signal ∆S is the time T necessary for the ultrasonic pulse to be emitted from the
emitting transducer, to pass-through the concrete body and to be received at the receiving

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

690
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

transducer. The attenuation property 𝑎𝑗 is the resistance that the material has in relation to the
wave propagation velocity, and this can be expressed as
1
𝑝=𝑉 (2)

where p is known as pulse vagarosity, and V is the ultrasonic pulse velocity.


The elements 𝑑𝑗 refer to the geometry of the body and mesh discretization. Thus, the
equation that describes the travel time of the ultrasonic pulse in the concrete can be expressed
as
𝑟
𝑇 = ∫𝑒 𝑝𝑗 𝑑𝐿𝑗 (3)

where T is the travel time, 𝑝𝑗 is the pulse vagarosity in element j, and 𝑑𝐿𝑗 is the traveled distance
in element j.
The integral described in Eq. 3 can be numerically approximated for a summation using
numerical quadrature methods (BURDEN; FAIRES, 2011). Thus, the approximate integral that
describes the travel time of the ultrasonic pulse in the concrete can be write as

𝑇𝑖 = ∑𝑛𝑗=1 𝑝𝑗 𝑑𝐿𝑖,𝑗 𝑓𝑜𝑟 𝑖 = 1, … , 𝑚 (4)

where i represents each ultrasonic test trajectories. Equation 4 can be represented in matrix
form as

𝑇𝑚 = 𝐷𝑚,𝑛 ∗ 𝑃𝑛 (5)
where m is the total number of pulse readings, n is the total number of discretized elements
inside the body, D is the distance matrix of order m x n, P is the slowness vector of order n, and
T is the time vector of order m.
It is noticed that the time vector is obtained through the readings of the ultrasonic pulse
velocity test, and the distance matrix is calculated from the geometric characteristics of the body
and the established mesh. Then, the ultrasonic tomographic problem is reduced to determining
the vagarosity vector.

3. EXPERIMENTAL PROGRAM

3.1. Development of a tomographic tool

For computational development, the described mathematical basis was used. Figure 2
illustrates the steps used in the implementation. The inputs used were the geometric
characteristics of the problem to create the distance matrix 𝐷𝑚,𝑛 , and the vector of synthetic
time readings 𝑇𝑚 . The output is the tomogram that represents the internal section of the
simulated object.
Step 1 refers to the data entry of the geometric characteristics of the studied section (height
and width). The tomographic process requires the body to be discretized into smaller elements
where the numerical operations will be computed. Thus, step 2 of Fig. 2, refers to the mesh
definition on the studied element, the positioning of the transducers, and the reading trajectories
definition.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

691
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The data entry of the time vector 𝑇𝑚 is performed in step 3 of Fig. 2. In this stage of the
work, the data entry will be done through the use of synthetic data. The creation of these data,
application criteria, and what they simulate are described in section 3.2 Experimental Program:
Creation of time vectors.

Figure 2 – Diagram of the computational implementation process.

Once the mesh has been determined, the positions of the transducers, the sections of
readings and their lengths, we can proceed to step 4 of Fig. 2, referring to the construction of
the distance matrix. In addition to knowing the information about the position of the transducers
and the length of the section, it is necessary to compute how much of the reading path goes
through each of the discretized elements in the body.
Now that we know the time vector and the distance matrix is calculated, the tomographic
system can be set up. Step 5 in Fig. 2 is responsible for this procedure. In step 6 of Fig. 2, the
sparsity and condition analyzes are performed. At this stage, we study the structure of the
elements of the system of equations to choose the best solution method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

692
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Now that we know the components of the system of equations and the characteristics of
the distance matrix, we proceed to step 7, the implementation of a solution method. In this stage
of the work, the following solution methods will be used: 1- LU factorization with partial
pivoting if the distance matrix is square; or QR factorization with column pivoting for other
cases.
The obtained result is evaluated in step 8. This step is iterative once, depending on the
found results, it is needed to repeat step 7 using a new solution method. Two evaluations must
be made to assess the efficiency of the solution method. The first is to verify whether the method
can effectively solve the proposed system. The second is related to the methods that effectively
manage to solve the system, and consists of verifying if the precision of the obtained result is
in agreement with the user's need.
Finally, step 9 in Fig. 2, consists of displaying the vagarosity vector to the user as a
tomogram. For that, we use the contour maps representation. Contour maps are already used
for the traditional representation of ultrasonic pulse evaluations on concrete.(REGINATO et
al., 2017b; RIBEIRO et al., 2020).

3.2. Creation of time vectors

In order to verify the capacity of the algorithm of developing tomograms, we had chosen the
construction of synthetic data of ultrasound readings.
The ultrasonic pulse velocity readings in concrete specimens are affected by numerous
factors, such as lack of accuracy of the inspector, reading angle, poor transducers coupling,
piece surface conditions, among others (GODINHO et al., 2020; MALHOTRA; CARINO,
2004; MOHAMMED; RAHMAN, 2016; PERLIN, 2015). Thus, the option for synthetic data
was made to guarantee control over the results in this stage of the tool efficiency testing.
We created a virtual specimen (VS) with dimensions of 15cm x 15cm, and we assign
characteristics of a fictitious homogeneous material, which means, the ultrasonic pulse velocity
does not vary while passing through the same material. We attribute to this material an
ultrasonic pulse velocity equal to 1 m/s.
To assess the capacity of the algorithm for detecting internal discontinuities in the material
and generating the tomogram, elements of 5cm x 5cm x 5cm and 2.5cm x 2.5cm x 2.5cm were
located inside the body in different configurations. To ensure discrepancy between the
discontinuity pulse velocity and the base material, we assign a pulse velocity of 0,5m/s to the
discontinuity.
To verify the mesh dependency of the developed algorithm, two meshes were used. The
first mesh with a grid of 5cm x 5cm, following the dimensions of the largest simulated
discontinuities, and the second mesh of 2.5cm x 2.5cm.
For better understanding, the following nomenclature was attributed to the developed VSs.
First we relate the property of the mesh, 5cm x 5cm (m50), or 2.5cm x 2.5cm (m25). Then the
type of reading, which can be horizontal (h), vertical (v), or compound (hv). Next, the
discontinuity dimension of 50mm x 50mm (50), or 25mm x 25mm (25). And finally, the
location of the discontinuity in the body, which is centered (ce), lower-left corner (ie), or main
diagonal (sd). Figure 3 shows the geometric domain of a virtual specimen.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

693
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3 – Virtual specimens. a) m50hv50ce, b) m50hv50ie, c) m50hv50dp, d) m50hv25ce, e)


m50hv25ie e f)m50hv25dp.

The elaboration of the time vectors was performed by calculating, for each reading, the
component parts of the traveled pulse in the discretized mesh, and weighting by 1m/s for
sections through the base material and 0.5m/s for sections through the discontinuities.
The capacity to generate tomographic images of the algorithm developed based on reading
directions was also evaluated. Then, the time vector was composed of simulated readings in the
horizontal direction, in the vertical direction and simultaneously in both directions.

4. RESULTS AND DISCUSSION

4.1. Distance matrices

The distance matrices were calculated according to that described in previous sections.
Since they describe purely the geometric characteristics of the path in the discretized mesh, 6
different matrices were obtained and can be used for the set of readings. Figure 4 shows the
meshes and reading paths used for creating the distance matrices.
The analysis of Fig. 4 is as a good device to verify the operation of the algorithm in the
calculation of distance matrices. From it, we can observe that: 1- the reading grid was properly
discretized; 2- the intersections between the readings and the grid lines were properly
established; 3- there are no reading paths outside the domain that are being computed in the
matrix; 4- the location of the reading sections in the distance matrix 𝐷𝑚,𝑛 is correct.
It is also noticed that in Figure 4 (c) and (f), the density of reading passing through each
mesh element is visibly higher than in the horizontal and vertical readings only. The impact of
different reading configurations on the final tomogram will be discussed in the following
sections.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

694
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 4- Reading paths. For the 5cm x 5cm mesh: horizontal readings (a), vertical readings
(b), composed readings (c). For the 2.5cm x 2.5cm mesh: horizontal readings (d), vertical
readings (e), composed readings (f).

4.2. Sparcity and condition

An analysis of sparsity, condition, and order of the distance matrices was performed as a
way to study the behavior of the developed systems of equations. The results obtained can be
seen in Table 1.

Table 1 – Order, condition and sparcity for each distance matrix.

Mesh Order Condition Sparcity (%)


50x50h 9X9 2.61*1016 56.79
50x50v 9X9 1.67*1016 56.79
50x50hv 18X9 3.2074 56.79
25x25h 36X36 1.46*1017 80.25
25x25v 36X36 4.56*1017 80.25
25x25hv 72X36 10.1328 80.25

Table 2 shows that the distance matrices generated from readings in one direction are
square, which provides us linear equations systems without overdetermination.
Overdetermination is a characteristic of the matrices generated in the 50x50hv and 25x25hv
meshes.
The difference between the condition of the matrices is also evident. The matrices
generated from composite readings have a low condition number, while the other matrices have
it way higher. High conditioning numbers can be indicative of distance matrix singularity.
Regarding sparsity, it is clear that regardless of the mesh, the problem is composed of
sparse matrices. This number indicates that for 5cm x 5cm meshes 56.79% of the terms in the
distance matrix are null, while this value reaches 80.25% for 2.5cm x 2.5cm meshes.
Therefore, it may be noted from the characteristics of the calculated distance matrices that
the tomographic problem in question can be divided into two groups: 1-overdetermined, well-
conditioned systems with a high degree of sparsity; and 2- systems without overdetermination,
poorly conditioned and also sparse.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

695
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.3. Tomograms

With the distance matrices properly computed, and time vectors inserted, the algorithm
solved the systems of equations and delivered the numerical results. The tomograms were
generated from contour images, by linear interpolation of the results obtained and are shown in
Fig. 5 and 6.
In this work, we focused on the solution of the systems generated from composite readings
(Fig. 4 (c) and (f)) of overdetermined, sparse, and well conditioned systems. For the solution of
poorly conditioned systems, Perlin (2015) indicates the numerical solution method by
optimized Cimmino or Karczmarz.

Figure 5- Generated tomograms for the 5cm x 5cm mesh. a) m50hv50ce, b) m50hv50ie, c)
m50hv50dp, d) m50hv25ce, e) m50hv25ie e f)m50hv25dp.

In general, the proposed algorithm was able to represent the location of internal
discontinuities in the 5cm x5cm mesh (Fig. 5), except in the VP m50hv25ie tomogram. The
non-representation of the 2.5cm x 2.5cm defect in the lower-left corner by the 5cm x 5cm mesh
(Fig. 5 (e)) was observed, and can be explained since no component of the reading vector
crosses the discontinuity. For this mesh, the geometric characteristics of the discontinuities do
not represent their nature.

Figure 6- Generated tomograms for the 2.5cm x 2.5cm. a) m25hv50ce, b) m25hv50ie, c)


m25hv50dp, d) m25hv25ce, e) m25hv25ie e f) m25hv25dp.

With the mesh reduction to 2.5cm x 2.5cm, we continue to notice the ability of the
algorithm to identify the location of discontinuities in the material. Regarding its geometric
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

696
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

nature, it was noticed that in all cases the decrease in the mesh led to a better quality of the final
result, which was expected by the characteristics of the problem. The greater the number of
discretized elements, the greater the quality of the generated tomogram. However, it is warned
that the gradual decrease of the mesh element by the user must take into account the significant
increase in the number of experimental readings, which can make the inspection impossible in
practical terms.

5. CONCLUSIONS

In this work, we present the mathematical basis that involves the problem of ultrasonic
tomography in concrete, the characteristics of the generated equation systems, and we proposed
the implementation of an algorithm for its solution.
From the analysis of the generated systems and the resulting tomograms, we can conclude
that:
• The problem of ultrasonic tomography can be divided into two major groups: poorly
conditioned, square and sparse systems, and well-conditioned, over-determined and
sparse systems;
• It was possible to present a solution method for sparse, well-conditioned, and over-
determined tomographic problems, capable of generating tomograms of the internal
structure of the material;
• Mesh dependence has a significant influence on the geometric representation of the
internal defect. Smaller meshes lead to better tomograms.
The future developments of this research suggest the implementation of the optimized
Cimmino and Karczmarz methods to evaluate the algorithm in the solution of poorly
conditioned systems. Also, evaluate the performance of the developed algorithm with time
vector data generated from physical readings of ultrasonic pulse in concrete controlled samples.

Acknowledgements

We thank the Universidade Estadual de Santa Cruz (UESC), the institution where we
conducted this research, the Fundação de Amparo a Pesquisa do Estado da Bahia (FAPESB),
for the master's scholarships provided.

REFERENCES

BURDEN, Richard L. ..; FAIRES, J. Douglas. Numerical Analysis. 9. ed. Boston: Brooks/Cole, 2011.
CHOI, Hajin; POPOVICS, John S. NDE application of ultrasonic tomography to a full-scale concrete structure.
IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control, [S. l.], v. 62, n. 6, p. 1076–1085,
2015. DOI: 10.1109/TUFFC.2014.006962. Disponível em: http://ieeexplore.ieee.org/document/7119988/.
DE PIERRO, Alvaro R. Fundamentos Matemáticos da Tomografia Computadorizada: Método de Transformação.
Matemática Universitária, [S. l.], v. 11, p. 53–65, 1990.
GODINHO, J. P.; DE SOUZA JÚNIOR, T. F.; MEDEIROS, M. H. F.; SILVA, M. S. A. Factors influencing
ultrasonic pulse velocity in concrete. Revista IBRACON de Estruturas e Materiais, [S. l.], v. 13, n. 2, p. 222–
247, 2020. DOI: 10.1590/s1983-41952020000200004. Disponível em:
http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1983-41952020000200222&tlng=en.
HAACH, Vladimir G.; RAMIREZ, Fernando C. Qualitative assessment of concrete by ultrasound tomography.
Construction and Building Materials, [S. l.], v. 119, p. 61–70, 2016. DOI: 10.1016/j.conbuildmat.2016.05.056.
Disponível em: https://linkinghub.elsevier.com/retrieve/pii/S0950061816307814.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

697
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

LOPES, Sergio Weber. Avaliação da homogeneidade e da resistência à compressão do concreto por meio de
ensaios não destrutivos. 2014. Universidade Federal de Viçosa, [S. l.], 2014.
MALHOTRA, V. M.; CARINO, N. J. Handbook on Nondestructive testing of concrete. 2. ed. West
Conshohocken: CRC Press, 2004.
MOHAMMED, Tarek Uddin; RAHMAN, Md Nafiur. Effect of types of aggregate and sand-to-aggregate volume
ratio on UPV in concrete. Construction and Building Materials, [S. l.], v. 125, p. 832–841, 2016. DOI:
10.1016/j.conbuildmat.2016.08.102. Disponível em:
https://linkinghub.elsevier.com/retrieve/pii/S0950061816313654.
PERLIN, Lourenço Panosso. Tomografia ultrassônica em concreto e madeira: desenvolvimento de ferramenta
computacional. 2015. Universidade Federal de Santa Catarina, [S. l.], 2015.
PERLIN, Lourenço Panosso; PINTO, Roberto Caldas de Andrade. Use of network theory to improve the ultrasonic
tomography in concrete. Ultrasonics, [S. l.], v. 96, p. 185–195, 2019. DOI: 10.1016/j.ultras.2019.01.007.
Disponível em: https://linkinghub.elsevier.com/retrieve/pii/S0041624X18302956.
PESSOA, Jose Renato de Castro. caracterização de concreto endurecido utilizando scâner de mesa e
microtomografia computadorizada. 2011. Universidade do Estado do Rio de Janeiro, [S. l.], 2011.
PESSÔA, José Renato de Castro; DOMINGUEZ, Dany Sanchez; ASSIS, Joaquim Teixeira De; SANTANA,
Marlesson Rodriguies Oliveira De; DIAS, Leonardo Alves. Análise volumétrica de porosidade do concreto
através de microtomografia com Raio X e processamento de imagens. In: XV LATIN AMERICAN SEMINARY
OF ANALYSIS BY X-RAY TECHNIQUES – SARX 2016 2016, Petrópolis. Anais [...]. Petrópolis p. 18–21.
REGINATO, Lucas Alexandre; LORENZI, Alexandre; LORENZI, Luciani Somensi; SILVA FILHO, Luiz Carlos
Pinto Da. Avaliação de Pilares de Concreto Armado através de Ensaios de Pulso Ultrassônico. Revista de
Engenharia Civil IMED, [S. l.], v. 4, n. 1, p. 32, 2017. a. DOI: 10.18256/2358-6508/rec-imed.v4n1p32-47.
Disponível em: https://seer.imed.edu.br/index.php/revistaec/article/view/1642.
REGINATO, Lucas Alexandre; LORENZI, Alexandre; LORENZI, Luciani Somensi; SILVA FILHO, Luiz Carlos
Pinto Da. Avaliação de Pilares de Concreto Armado através de Ensaios de Pulso Ultrassônico. Revista de
Engenharia Civil IMED, [S. l.], v. 4, n. 1, p. 47, 2017. b. DOI: 10.18256/2358-6508/rec-imed.v4n1p32-47.
RIBEIRO, Y. A. M.; BOMFIM, D. S.; SACRAMENTO, L. A.; CASTRO, J. R. P.; DOMINGUEZ, D. S.; LIMA,
M. P. identificação de não homogeneidades em estruturas de concreto endurecido através de pulso
ultrassônico. in: >congresso brasileiro de patologia das construções 2020, Anais [...]. : Associação Brasileira
de Patologia das Construções, 2020. p. 1329–1338. DOI: 10.4322/CBPAT.2020.130. Disponível em:
http://doi.editoracubo.com.br/10.4322/CBPAT.2020.130.
SOUZA, Vicente Custódio De; RIPPER, Thomaz. Patologia, Recuperação e Reforço de Estruturas de Concreto.
1. ed. São Paulo: Editora Pini Ltda, 2009.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

698
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

VALIDAÇÃO EXPERIMENTAL DO USO DE SIMULAÇÕES EM AMBIENTES


QUASE-2D PARA O ESTUDO DO FLUXO DE GRÃOS EM SECADORES DE FLUXO
MISTO

Ricardo Klein Lorenzoni1 – ricardo.lorenzoni@sou.unijui.edu.br


Manuel Osório Binelo1 – manuel.binelo@unijui.edu.br
Vanessa Faoro2 – vanessa.faoro@ufsm.br
1
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Ciências Exatas
e Engenharias – Ijuí, RS, Brazil
2
Universidade Federal de Santa Maria – Palmeira das Missões, RS. Brazil

Resumo. O fluxo de grãos em secadores vem sendo cada vez mais estudado, visto que o tempo
de permanência dos grãos dentro destes equipamentos, bem como a temperatura do ar de
secagem podem resultar em sub ou sobre secagem. Desta forma, é evidente a necessidade de
buscar métodos de simulação e análise do fluxo de grãos, um dos métodos utilizados na
atualidade é o método dos elementos discretos. Com esta técnica, é possível analisar o fluxo
destes materiais, analisando o processo partícula por partícula. Este tipo de análise tem um
alto custo computacional, e encontrar alternativas que reduzam este custo é de suma
importância para o desenvolvimento de estudos mais aprofundados. Neste trabalho,
analisamos o fluxo de grãos de soja em um aparato experimental que replica em partes o
interior de um secador de fluxo misto. Realizamos simulações computacionais 3D e reduções
quase-2D do ambiente, os resultados mostram que a redução do ambiente de simulação para
um ambiente quase 2D com espessura de 7 partículas apresentou resultados bastante
aproximados dos resultados 3D. Além disto, esta redução obteve uma redução do tempo de
processamento de mais de 66%, comprovando a eficácia e a viabilidade do uso deste tipo de
simulação para o estudo do fluxo de grãos em secadores de fluxo misto.

Palavras-chave: Materiais granulares; Método dos elementos discretos; Simulações


computacionais; Secagem de grãos.

1. INTRODUÇÃO

A secagem de grãos é um componente fundamental no processo pós colheita. Quando


realizada de forma correta, ela garante que a produção possa ser armazenada por grandes
períodos de tempo sem perder qualidade (BOTELHO et al, 2018; SILVA et al, 2019), para

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

699
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

futura comercialização. O arranjo inadequado dos componentes dos secadores pode resultar em
uma secagem não homogênea da massa de grãos, gerando consequentemente um elevado
consumo de energia e a perda da qualidade dos grãos (SCAAR et al, 2016). Os efeitos da
secagem não homogênea dos grãos são a sobre secagem resultando na perda de qualidade dos
grãos em função da queima e/ou deterioração das propriedades físicas, químicas e biológicas
dos mesmos e a sub secagem tem como consequência o surgimento de mofo, bolor, proliferação
de insetos em meio a massa armazenada.
Secadores do tipo torre de fluxo misto, tem sido cada vez mais utilizados em todo o
mundo (BROOKER, BAKKER-ARKEMA E HALL, 1992). Este tipo de secador é utilizado na
secagem de diferentes tipos de grãos, e sua forma construtiva permite uma secagem com maior
índice de impurezas e oferece poucas chances para incêndios (OLIVO, 2011). O processo de
secagem neste tipo de secador, ocorre por meio do uso combinado dos fluxos de ar em sentido
concorrente, contracorrente e cruzado (BORTOLAIA, 2011). As vantagens deste tipo de
secador são a sua alta eficiência energética, sua alta capacidade de secagem/hora, porém, tem
como desvantagem o seu alto custo de implantação. Embora estejam sendo utilizados em larga
escala na agricultura, é necessário otimizar o processo de secagem neste equipamento, bem
como, o próprio equipamento, visto que, o escoamento dos grãos pelo secador não foi
suficientemente estudado (MELLMANN et al. 2011).
Diversas pesquisas vêm sendo realizadas visando melhorar o processo de secagem de
grãos. No trabalho publicado por (LI e CHEN, 2019), os autores propuseram um método para
melhorar a precisão do controle de secadores por meio de redes neurais buscando tornar o
processo de secagem mais eficiente e tornar as condições de umidade da massa de grãos mais
homogênea. Métodos computacionais de CFD foram utilizados por VISCONCINI, ANDRADE
e COSTA (2019), para analisar o fluxo de ar em meio a massa de grãos em um secador do tipo
torre de fluxo misto.
O fluxo dos grãos e do ar em secadores de fluxo misto é estudo por Weigler et al. (2017),
onde os autores analisam o perfil do fluxo do fluxo dos grãos e do ar bem como o tempo de
residência das partículas dentro destes equipamentos, buscando melhorar a sua eficiência
energética. Já em (SCAAR et al, 2016), os autores investigam a distribuição do fluxo de ar em
um secador de fluxo misto. Os autores também propuseram mudanças na arquitetura interna do
equipamento, buscando melhorar a sua eficiência.
Em Khatchatourian, Binelo e Lima (2014) foi realizado o estudo do fluxo de grãos em
secadores de fluxo misto utilizando simulações computacionais 3D por meio do método dos
elementos discretos. Já em (DE LIMA et al, 2017), os autores estudam o fluxo de grãos em uma
geometria de secador de fluxo misto reduzida por meio do método dos elementos discretos em
uma simulação 3D. O método dos elementos discretos também é utilizado em Binelo et al
(2019), onde os autores propuseram uma técnica de aplicação da força de arrasto do ar no fluxo
de grãos utilizando o método dos elementos discretos.
Este trabalho tem como objetivo analisar o fluxo de grãos dentro de um secador de fluxo
misto por meio do método dos elementos discretos, analisando dados como a velocidade média
dos grãos dentro deste tipo de secador, bem como os pontos dentro desta estrutura onde os grãos
tendem a apresentar um fluxo mais acelerado ou mais lento. Para tal, o restante do presente
artigo está organizado da seguinte maneira, na seção 2 serão apresentados trabalhos
relacionados, na seção 3 será apresentado um breve referencial teórico, na seção 4 é apresentada
a metodologia experimental, na seção 5 são analisados os resultados obtidos, na seção 6 são
apresentadas as considerações finais dos autores e por fim, são apresentadas as referências
bibliográficas utilizadas no presente artigo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

700
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. MATERIAIS E MÉTODOS

Nesta seção serão apresentados os procedimentos experimentais realizados, o aparato


experimental e também, o software e as configurações utilizadas no mesmo para a realização
das simulações computacionais.

2.1 Procedimentos experimentais

Os experimentos foram realizados em um aparato com dimensões que imitam em parte a


arquitetura interna de um secador de fluxo misto. O aparato foi construído utilizando-se de
madeira de pinho, com espessura de 2cm. O aparato foi desenvolvido com dimensões internas
na parte superior, de 17cm X 17cm e uma altura de 45cm. Na parte inferior, onde os grãos são
afunilados para a saída, o funil possui 10cm de altura, sendo afunilado somente nas laterais,
tendo um afunilamento de 3cm em cada lado, e a abertura foi definida com 2,5 cm, por meio
do uso de uma chapa de acrílico cortada. A Figura 1, abaixo, apresenta um diagrama do aparato
experimental.

Figura 1 – Diagrama do aparato experimental utilizado.

Foram realizados 30 experimentos de escoamento, com o objetivo de obter o tempo médio


de escoamento dos grãos. Cada experimento foi gravado, e por meio deste, foi determinado o
padrão de escoamento dos grãos. O experimento consiste em, com a abertura inferior fechada,
preencher o aparato experimental de grãos, iniciar a filmagem e abrir a comporta inferior,
filmando o processo de escoamento da massa de grãos até o momento em que a mesma fosse
totalmente ocultada pela placa de madeira na parte inferior do aparato.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

701
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Método dos elementos discretos

O método dos elementos discretos foi desenvolvido por Cundall e Strack (1979) e foi
utilizado inicialmente para estudo com mecânica de rochas. O método utiliza um esquema
numérico explícito onde a interação entre as partículas é monitorada de forma individual. O
método se trata de uma técnica de modelagem numérica que simula o movimento e as interações
mecânicas de cada partícula, utilizando a segunda lei do movimento de Newton e a lei força-
deslocamento (BOAC et al. 2010).

Figura 2 - Ciclo de execução do método dos elementos discretos. Fonte: Adaptado de


Huaman (2008)

O funcionamento do método pode ser resumido em 5 etapas, as quais são executadas a cada
passo temporal. Como pode ser visto na Figura 2, em um primeiro momento são estabelecidas
as condições iniciais das partículas, posteriormente, detecta-se o contato entre os corpos, a partir
destes contatos, calculam-se as forças de contato e as forças externas agindo em cada partícula
e por fim, atualizam-se as posições e rotações das partículas com base nas forças agindo sobre
as mesmas, por meio da integração das equações de movimento. O método dos elementos
discretos é amplamente utilizado e discutido em diversas obras na literatura, para mais
informações sobre o seu funcionamento, recomendamos os seguintes autores (LUDING, 2008;
ZHAO, 2017).

2.3 Simulações computacionais

As simulações computacionais foram realizadas utilizando-se o software YADE (Yet


Another Dynamic Engine) que vem sendo frequentemente utilizado para simulações utilizando
o método dos elementos discretos. O YADE é um software de código aberto desenvolvido em
2004 por Donzé na linguagem C++ (KHATCHATOURIAN, BINELO E LIMA, 2014). A
ferramenta possui compatibilidade com python, o que possibilita o desenvolvimento de
ambientes de simulação sem a necessidade de recompilar o código toda vez que for necessário
alterar valores dos parâmetros utilizados nas simulações.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

702
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Foram realizados dois conjuntos diferentes de simulações computacionais. O primeiro, foi


realizado com o ambiente de simulação replicando o aparato experimental utilizado. O segundo
conjunto de experimentos foi configurado, reduzindo uma das dimensões do aparato para uma
pequena parcela de seu tamanho real e nas outras dimensões, as paredes foram substituídas por
condições de fronteira periódicas. Neste tipo de simulação uma partícula que deixa o ambiente
de simulação em um lado, é reinserido no lado oposto, simulando um ambiente com dimensões
maiores, como pode ser visto na Figura 3.

Figura 3 - Diagrama de funcionamento das fronteiras periódicas.

Para a execução das simulações computacionais de modo que as mesmas apresentem


resultados com boa aproximação dos fenômenos reais estudados, é necessário que os
parâmetros inseridos no ambiente de simulação estejam corretos. Geralmente os parâmetros
físicos de um material não possuem um valor estático, e sim, uma faixa de abrangência, na qual
o valor do parâmetro deste determinado material varia. Desta forma, faz-se necessário além de
buscar na literatura os valores destes parâmetros, realizar a calibração destes parâmetros,
visando, aperfeiçoar os resultados das simulações computacionais. A Tabela 1 apresenta os
parâmetros utilizados para a realização das simulações.

Tabela 1 - Parâmetros de entrada no ambiente de simulação para o aparato I.

Parâmetro Soja Madeira


Densidade (Kg/m³) 1243 [a, b] 7800
Coeficiente de Poisson 0,25 [a, b] 0,27 [d]
6
Módulo de Young (Pa) 2,6𝑒 [a, b] 2e11
Ângulo de Atrito (Graus) 22,6 [c] 22 [d]
Coeficiente de Atrito de Rolamento das Partículas 0,05 [a, b] -
Raio médio das partículas (mm) 2,947 [d] -
Desvio padrão do raio (mm) 0,224 [d] -
Coeficiente de Amortecimento 0,05 [a, b]
Passo de tempo da simulação (s) 3,27𝑒 −5 [d]
a – Khatchatourian, Binelo & Lima (2014) b – Boac et al. (2010)
c – Kibar & Otzurk (2008) d – Obtido pelo autor
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

703
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÕES

Inicialmente foram realizados os experimentos para a determinação do tempo médio de


escoamento dos grãos na geometria. O tempo médio obtido na geometria utilizada após 30
experimentos foi de 4,65 segundos. Após isto, foram realizadas as simulações computacionais
em ambiente 3d. Como pode ser visto na Figura 4, a simulação tridimensional (partículas
brancas) obteve bons resultados em relação à realidade (partículas coloridas), apresentando
diferença mais significativa após 4 segundos de simulação.

Figura 4 - Resultados da simulação computacional em ambiente 3D x resultado experimental.

Para o ambiente quase 2D foram realizadas simulações computacionais utilizando as


espessuras de 4, 5, 6 e 7 grãos, visando analisar o impacto da espessura da geometria e da
quantidade de partículas nos resultados das simulações. Os resultados para as simulações com
4 e 7 partículas de espessura podem ser vistos respectivamente nas Figuras 5 e 6. Os resultados
das simulações computacionais para a espessura de 5 e 6 partículas foi suprimido em
decorrência de pouca variação nos resultados entre as 4 simulações.
Uma das hipóteses para explicar esta diferença entre os resultados experimentais e os dados
das simulações computacionais é o fato que os grãos de soja são partículas de formato
arredondado, e para fins de simplificar e reduzir o custo computacional, optou-se pelo uso de
esferas perfeitas. Supõe-se que, dado o fato de que a partícula tenha uma dimensão
relativamente menor que a outra, os grãos acabam escoando no sentido de menor diâmetro,
aumentando assim a velocidade de escoamento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

704
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 - Resultado da simulação em ambiente quase-2D com espessura de 4 partículas x


simulação 3D.

Figura 6 - Resultado da simulação em ambiente quase-2D com espessura de 7 partículas x


simulação 3D.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

705
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Como pode-se perceber analisando as figuras 5 e 6, a espessura do ambiente de simulação


não apresentou diferenças significativas nas simulações as simulações, reduzindo levemente a
diferença entre o resultado quase-2D para o 3d conforme o ambiente de simulação é aumentado.
Desta forma, o ambiente com 7 partículas de espessura foi o que apresentou maior aproximação
com os resultados experimentais e os dados da simulação computacional 3D. Em Boac et al
(2012), os autores afirmam que as simulações computacionais quase-2D com 4 partículas de
espessura apresentaram instabilidades, e os autores não consideraram os resultados destas
simulações em suas análises. Diferente dos resultados apresentados pelos autores, em nossas
simulações, a espessura de 4 partículas de espessura apresentou-se estável.
Além de apresentar resultados muito similares aos apresentados nas simulações 3D, o uso
de simulações quase 2D tem como benefício a redução do custo computacional das simulações
e consequentemente, a redução do tempo de processamento. A Tabela 2 abaixo apresenta a
redução dos tempos de processamento das simulações.

Tabela 2 - Dimensões e tempo de processamento das simulações em ambiente 3D e quase 2D.

Quase 2D
Medida/Simulação 3D 4 5 6 7 partículas
partículas partículas partículas
Tempo de simulação (min) 90:06 17:01 22:13 26:01 30:33
Redução de tempo (%) 0 81,14 75,35 71,13 66,10
Espessura (cm) 17 2,36 2,95 3,54 4,13
Redução de espessura (%) 0 86,14 82,67 79,20 75,74

Como pode ser visto na tabela 2, o tempo de simulação em ambientes quase-2D é bastante
reduzido quando comparado ao tempo de simulação em ambientes 3D. Pode-se perceber que a
redução do tempo de execução chegou a ser reduzido em 81% para o ambiente com 4 partículas
de espessura, e foi de 66,1 % para o ambiente com 7 partículas de espessura, corroborando com
os dados apresentados por Boac et al (2010), onde os autores obtiveram redução de XX % no
tempo de simulação quase 2D em relação às simulações realizadas pelos autores em ambientes
3D. Assim, pode-se dizer que não somente a realização de simulações computacionais em
ambientes quasi-2D é viável para a obtenção de resultados muito próximos dos resultados que
seriam obtidos se realizada a simulação completa utilizando ambiente 3D, como também, pode-
se afirmar que isso pode ser feito com uma redução no custo computacional considerável, visto
que, para a simulação de experimentos, ou uma realidade com espessura muito maior, a redução
do custo computacional seria ainda mais expressiva.

4. CONSIDERAÇÕES FINAIS

A realização deste artigo conseguiu atingir os seus objetivos que eram validar a utilização
de simulações computacionais quase 2D em substituição ao uso de simulações 3D para a análise
do fluxo de grãos em secadores de fluxo misto. Uma das contribuições do trabalho foi a de
determinar que a espessura que melhor aproxima os resultados dos resultados 3D é a espessura
com 7 de grãos.
Além disso, percebe-se uma considerável redução no custo computacional ao realizar este
tipo de simulação. Dadas as dimensões reais de um secador, pode-se dizer que o uso deste tipo
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

706
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de ambiente não somente é viável, como também, necessário, visto que o uso de simulações 3D
nestes casos teria um custo computacional e de tempo de simulação que tornaria inviável este
tipo de estudo.
Para trabalhos futuros, consideramos interessante realizar a análise do fluxo de grãos em
um ambiente maior, que replique com maior precisão o ambiente interno de um secador de
fluxo misto.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001. CAPES, CNPq
e FAPERGS pelo apoio financeiro e concessão de bolsas.

REFERENCIAS

Bine Binelo, M. O., de Lima, R. F., Khatchatourian, O. A., & Stránský, J. (2019). Modelling of the drag force of
agricultural seeds applied to the discrete element method. Biosystems Engineering, 178, 168-175.
Boac, J. M., Casada, M. E., Maghirang, R. G., & Harner III, J. P. (2010). 3-D and quasi-2-D discrete element
modeling of grain commingling in a bucket elevator boot system. American Society of Agricultural and
Biological Engineers.
Bortolaia, L. A. (2011). Modelagem matemática e simulação do processo de secagem artificial de grãos de soja
em secadores de fluxo contínuo.
Botelho, F. M., Hoscher, R. H., Hauth, M. R., & Botelho, S. D. C. C. (2018). Cinética de secagem de grãos de
soja: influência varietal. Embrapa Agrossilvipastoril-Artigo em periódico indexado (ALICE).
Brooker, D. B., Bakker-Arkema, F. W., & Hall, C. W. (1992). Drying and storage of grains and oilseeds. Springer
Science & Business Media.
Cundall, P. A., & Strack, O. D. (1979). A discrete numerical model for granular assemblies. geotechnique, 29(1),
47-65
Huaman, C. J. A. (2008). Simulação 3D pelo Método dos Elementos Discretos de Refluxo de Material de
Sustentação de Fraturas em Poços de Petróleo (Doctoral dissertation, PUC-Rio).
Kibar, H., & Ozturk, T. (2008). Physical and mechanical properties of soybean. International Agrophysics, 22(3),
239-244.
Li, H., & Chen, S. (2019). A neural-network-based model predictive control scheme for grain dryers. Drying
Technology, 1-13.
Lima, R. F., Khatchatourian, O., Binelo, M. O., Faoro, V., Antoniazzi, R. L., & Balbinot, E. J. (2017). Validação
do Método dos Elementos Discretos para o escoamento de grãos de soja. Proceeding Series of the Brazilian
Society of Computational and Applied Mathematics, 5(1).
LORENZONI, R. K., WINIK, S. V., MENTGES, M., DESSUY, M. S., BINELO, M. O., KHATCHATOURIAN,
O. A. (2017). Simulação do escoamento de grãos de soja utilizando o MED em Simulações 3d e quasi-2d.
Anais do XX Encontro Nacional de Modelagem Computacional, Nova Friburgo, Rio de Janeiro.
Luding, S. (2008). Introduction to discrete element methods: basic of contact force models and how to perform
the micro-macro transition to continuum theory. European journal of environmental and civil engineering,
12(7-8), 785-826.
Mellmann, J., Iroba, K. L., Metzger, T., Tsotsas, E., Mészáros, C., & Farkas, I. (2011). Moisture content and
residence time distributions in mixed-flow grain dryers. Biosystems Engineering, 109(4), 297-307.
OLIVO, T. E. (2010). Determinação da umidade da soja por medida capacitativa. 2011. 78 f (Doctoral dissertation,
Dissertação (Mestrado em Engenharia Elétrica)-Universidade Federal do Paraná, Curitiba).
Scaar, H., Franke, G., Weigler, F., Delele, M., Tsotsas, E., & Mellmann, J. (2016). Experimental and numerical
study of the airflow distribution in mixed-flow grain dryers. Drying Technology, 34(5), 595-607.
Silva, J. P. S., Oliveira, V. H. Q., dos Santos, S. G. F., Rodovalho, R. S., Queiroz, J. S., & da Silva, D. P. (2019).
CINÉTICA DE SECAGEM DOS GRÃOS DE SOJA EM SECADOR EXPERIMENTAL. GLOBAL
SCIENCE AND TECHNOLOGY, 12(2).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

707
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

VISCONCINI, A. R., ANDRADE, C. M. G., & COSTA, A. M. D. S. (2019). MODELAGEM, SIMULAÇÃO E


ANÁLISE DOS CONTORNOS DE VELOCIDADE DO AR EM UM SECADOR INDUSTRIAL DO TIPO
TORRE DE FLUXO MISTO.
Weigler, F., Scaar, H., Franke, G., & Mellmann, J. (2017). Optimization of mixed flow dryers to increase energy
efficiency. Drying Technology, 35(8), 985-993.
Zhao, T. (2017). Introduction to Discrete Element Method. In Coupled DEM-CFD Analyses of Landslide-Induced
Debris Flows (pp. 25-45). Springer, Singapore.lo, M. O., de Lima, R. F., Khatchatourian, O. A., & Stránský,
J. (2019). Modelling of the drag force of agricultural seeds applied to the discrete element method. Biosystems
Engineering, 178, 168-175.

SIMULATION AND ANALYSIS OF GRAIN FLOW IN MIXED FLOW DRIERS BY


USING THE DISCRETE ELEMENT METHOD ON QUASI 2D SIMULATION
ENVIRONMENTS

Abstract. The grain flow in dryers has been studied more and more, since the time of
permanence of the grains inside these equipments, as well as the temperature of the drying air
can result in under or over drying. Thus, it is evident the need to seek methods of simulation
and analysis of grain flow, one of the methods used today is the discrete element method. With
this technique, it is possible to analyze the flow of these materials, analyzing the process
particle by particle. This type of analysis has a high computational cost, and finding
alternatives that reduce this cost is extremely important for the development of more in-depth
studies. In this work, we analyze the flow of soybeans in an experimental device that replicates
in parts the interior of a mixed flow dryer. We perform 3D computational simulations and
quasi-2D reductions of the environment, the results show that the reduction of the simulation
environment to an almost 2D environment with a thickness of 7 particles showed results very
close to the 3D results. In addition, this reduction obtained a reduction in processing time of
more than 66%, proving the effectiveness and feasibility of using this type of simulation for the
study of grain flow in mixed flow dryers.

Keywords: Granular materials; Discrete element method; Computer simulations; Grain


drying.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

708
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO TÉRMICA DE COMPÓSITOS DE MATRIZ EPÓXI


REFORÇADA COM TECIDO DE CÂNHAMO PARA APLICAÇÃO DE
ENGENHARIA

Matheus Pereira Ribeiro1 – m.pereiraribeiro@hotmail.com


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Pedro Henrique Poubel Mendonça da Silveira1 – pedroo.poubel@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio_coppe@yahoo.com.br
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Instituto Militar de Engenheria, Seção de Engenheria de Materiais – Rio de Janeiro, RJ, Brasil
1

Resumo. Os compósitos de fibras naturais vêm sendo cada vez mais empregados em
importantes setores da indústria, como a automotiva e a construção civil. Além de suas
vantagens naturais, esse reforço natural é constantemente otimizado a ponto de já apresentar
desempenhos mecânicos equiparáveis aos dos compósitos de fibras sintéticas. Dentre as
possíveis aplicações, pode-se citar a de camada intermediária em sistemas de blindagem
balística individual. De modo particular, a fibra de cânhamo (Cannabis sativa), embora
largamente utilizada em tecidos, ainda foi pouco explorada em compósitos poliméricos para
aplicações de engenharia. Em vista disso, o presente trabalho analisou termicamente os
compósitos de matriz epóxi reforçados com esse material vegetal. Foram fabricados
compósitos com diferentes frações volumétricas de tecido (0, 10, 20 e 30%) e utilizou-se
análise termogravimétrica (TGA) para caracterizar a estabilidade térmica do material, além
da verredura diferencial de calorimetria (DSC). Baseado nestas análises, concluiu-se que
houve um pequeno decréscimo na temperatura de degradação do compósito em relação á
resina epóxi (-14%) e chegou-se à uma temperatura de 200°C para uso prático do material.
Ademais, estimou-se a temperatura de transição vítrea do compósito em um intervalo entre
68 e 70°C.

Palavras-chave: Tecido de cânhamo, epóxi, termogravimetria, análise térmica, DSC.

1. INTRODUÇÃO

Os compósitos de matriz polimérica reforçados com fibras naturais têm sido


extensivamente investigados nestas últimas décadas (Sanjay et al., 2018; Güven et al., 2016;
Monteiro et al., 2011; Zini & Scendola, 2011; Satyanarayana et al., 2009). Esses compósitos
já vêm sendo empregados em alguns setores importantes da indústria, como a automotiva,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

709
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

embalagem, material esportivo, blindagem e construção civil (Benzait & Trabzon, 2018; Di
Bella et al, 2014; Dittenber & Rao, 2012). Sua aplicação é justificada principalmente pela
redução de custo que a fibra natural proporciona frente às sintéticas. Além disso, as fibras
naturais, em geral, apresentarem propriedades importantes como baixo peso específico,
reciclabilidade, bom isolamento acústico e sustentabilidade. Dianto desse fato, o uso destes
compósitos vem cada vez mais ganhando novas projeções, já que a sua resistência mecânica,
antes uma desvantagem, vem sendo estudada e otimizada à ponto de equiparar-se com os
compósitos consagrados em variadas aplicações, principalmente como camada intermediária
num sistema de proteção balística individual (Benzait & Trabzon, 2018; Oliveira et al., 2019;
Garcia Filho et al., 2020).
Dentre as fibras naturais com potencial para ser aplicada como reforço em matriz
polimérica, destaca-se as fibras de cânhamo, cientificamente conhecida como Cannabis
sativa. Esta fibra é cultivada há 4500 anos em regiões do oriente e tem um excelente potencial
no contexto sustentável já que não requerer grandes investimentos para cultivo, em termo de
fertilizantes, herbicidas e pesticidas para seu crescimento saudável (Summerscales et al.,
2013). Além disso, seu custo final chega a ser 1/4 do de fibras longas sintéticas (Dayo et al.,
2017). Sua composição química se dá pela celulose (55-76%), hemicelulose (12,3-22,4%),
lignina (0,9-18%), pectina (3,3-5,7%) e cinzas (0,8-7%) e tem recebido bastante atenção por
ser uma alternativa de substituição às fibras sintéticas em várias aplicações compósitas (Sepe
et al., 2018). Na sua forma mais utilizada, como tecido, a fibra de cânhamo tem sido
explorada como reforço de compósitos com matrizes poliméricas (Güven et al., 2016; Faruk
et al., 2012; Ku et al., 2011). Em um recente artigo, Sair et al. (2018) estudaram a
condutividade térmica de compósitos de fibras de cânhamo em matriz de poliuretano.
Entretanto pouca informação é disponível sobre a estabilidade térmica dos compósitos,
principalmente os de matriz termofixa como as resinas epóxi.
Assim, o presente trabalho analisa termicamente a aplicação da fibra de cânhamo em
forma de tecido como reforço de uma matriz polimérica epoxídica em frações volumétricas
variadas entre 0, 10, 20 e 30% vol. As propriedades térmicas do material final foram
determinadas utilizando a análise termogravimétrica (TGA) e a varredura diferencial de
calorimetria (DSC).

2. MATERIAIS E MÉTODOS

O tecido de cânhamo utilizado neste trabalho foi obtido da empresa Kayaan Ltda.,
localizada na cidade de Curitiba, Paraná. Sua composição é de 100% fibras de Cannabis
sativa e foi confeccionado utilizando técnicas manuais.
A resina utilizada na matriz dos compósitos foi a epóxi do tipo diglicidil éter do bisfenol
A (DGEBA) na proporção de 100 para 13 com o endurecedor trietileno tetramina (TETA),
ambos adquiridos da empresa Epoxyfiber Indústria Química, Brasil.
Os tecidos foram colocados em estufa por um período de 24h à 60°C com o objetivo de
retirar a umidade e possibilitar a fabricação dos compósitos.
As análises térmicas de TGA e DSC ocorreram no Laboratório de Materiais do Instituto
de Pesquisas da Marinha (IPqM). Para a análise de DTG, foi utilizado o equipamento
Shimadzu modelo DTG 60H com atmosfera de nitrogênio e uma taxa de aquecimento de
10°C/min em um intervalo de 30 a 600°C. As amostras de resina epóxi e de compósitos
reforçados com 10, 20 e 30% vol. de tecido de cânhamo foram cominuídas e colocadas em
cadinhos de platina para os ensaios. Já para a análise de DSC, foi utilizado o equipamento
DSC 404 F1 Pegasus Netzsch também sob uma atmosfera de nitrogênio e uma taxa de
aquecimento de 10°C/min entre temperaturas de 20 a 250°C.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

710
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÕES

3.1 Análise termogravimétrica (TGA)

Os resultados para os compósitos de 10, 20 e 30% de fração volumétrica de tecido de


cânhamo e resina epóxi pura estão representados nas Fig. 1e 2, as quais apresentam as curvas
TG e DTG, respectivamente.

Figura 1 - Curvas de TG para os compósitos e para a resina epóxi.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

711
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Curvas de DTG para os compósitos e para a resina epóxi.

Visualmente, através de deslocamentos entre as curvas obtidas, os volumes de fração de


tecido de cânhamo na matriz epóxi influenciam no comportamento térmico do material final.
Ao comparar com a resina epóxi pura, os compósitos apresentam um pico inicial até por volta
de 200°C, relacionado a perda de umidade. A resina epóxi pura apresentou uma perda menor
(1,7%) comparado aos compósitos (2,8 a 4,7%), já que o conteúdo de água nas estruturas
naquele material é extremamente baixo, em comparação às fibras naturais, devido a seu
caráter hidrofóbico.
Na fase de maior perda de massa, os compósitos apresentam temperatura inicial (Tonset),
comparado ao polímero puro, ligeiramente menores, bem como a temperatura de máxima
degradação (Tmáx). A resina epóxi apresentou a Tonset em aproximadamente 343°C e tem o
Tmáx à 372°C, o que resultou numa perda de massa de cerca de 70%. Um terceiro estágio de
perda de massa pôde ser observado a temperaturas maiores que 450°C, as quais produziram,
até o final da análise, cerca de 10% de cinzas.
Já para os compósitos, a Tonset ocorre em 277°C para os compósitos reforçados com 10%
vol. de reforço, 290°C para os reforçados com 20% vol., e 302°C para os reforçados com 30%
vol. Essas temperaturas podem ser consideradas um primeiro limite para a estabilidade
térmica dos materiais conjugados de epóxi-tecido de cânhamo. Além disso, a lignina é o
componente responsável por esse comportamento, já que é o primeiro elemento estrutural da
fibra a iniciar sua degradação (por volta de 220°C até 440°C) (Monteiro et al., 2012). Do
mesmo modo, as Tmáx do material estão compreendidas entre 310 e 352°C, abaixo de 389°C
da resina pura.
A Tabela 1 resume as temperaturas e as perdas de massa observadas nas análises de
TGA.

Tabela 1 – Temperaturas e perdas de massa analisadas na análise de TGA.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

712
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fração Perda de Tonset Tmáx Perda de Perda de


Volumétrica massa até (°C) (°C) massa no massa à
200°C (%) segundo 600°C (%)
estágio (%)
0% 1,7 342,7 388,5 69,6 80,2
10% 2,8 276,9 310,8 50,4 87,9
20% 3,4 289,5 318,4 60,7 84,3
30% 4,7 301,9 351,5 42,8 78,9

3.1 Varredura diferencial de calorimetria (DSC)

A Fig. 3 apresenta as curvas de DSC para a resina epóxi pura e para os compósitos de matriz
epóxi reforçada com tecido de cânhamo.

Figura 3 - Curvas de DSC para os compósitos e para a resina epóxi.

É possível observar a presença de um pico endotérmico associado à temperatura de transição


vítrea (Tg) do polímero por volta de 81,3°C. Esse evento ocorre em temperatura mais baixas
para as três formas de compósitos analisados (entre 68 e 71°C), além de mudanças na curva-
base para temperaturas maiores que 125°C, as quais podem ser relacionadas a um processo de
pós-cura do material. Essa queda da Tg observada se deve a interferências da fibra de
Cannabis na organização da estrutura macromolecular do polímero, ainda que isso não
compromenta a estabilidade térmica do compósito para aplicações de engenharia (Monteiro et
al., 2012; Neuba et al., 2020).

4. CONCLUSÕES

• Observou-se ligeiras diferenças entre o comportamento térmico da resina epóxi pura e


dos compósitos de matriz epóxi reforçada por tecido de cânhamo;
• Houve uma pequena perda de massa entre o início da análise de TGA até por volta de
200°C. Isso ocorreu devio à perda de umidade presente, principalmente nos reforços
naturais, o que ocasionou um decréscimo entre 2,8 e 4,7% para os compósitos. Como
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

713
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a resina epóxi apresenta natureza hidrofóbica, essa perda foi de menor magnitude
(cerca de 1,7%);
• A fase de maior degradação do material esteve relacionada com a rupturas de cadeias
poliméricas e ocasionou grandes perdas de massa. Para a resina epóxi, este fenômeno
ocorreu por volta de 388°C, enquanto que nos compósitos ocorreu entre 276 e 302°C;
• Como a temperatura de início de degradação de elementos estruturais da fibra natural
ocorre por volta de 200°C, essa temperatura é sugerida como a temperatura máxima de
trabalho do material compósito.
• A temperatura de transição vítrea foi estimada pelas análises de DSC. Dessa forma, as
resinas epóxi pura apresentaram Tg em 81,3°C enquanto que os compósitos
apresentaram Tg entre 68 e 71°C.

Acknowledgements

Os autores deste trabalho agradecem à Capes, CNPq e à FAPERJ pelo financiamento da


pesquisa, além do Departamento de Ciência dos Materiais do IME e do LAMAV na UENF.

REFERENCES

Benzait, Z., & Trabzon, L. (2017), Tensile and Impact Properties of Two Fiber Configurations for Curaua
Reinforced Composites. In: Meyers M. et al. (eds) Proceedings of the 3rd Pan American Materials Congress.
The Minerals, Metals & Materials Series
Dayo, A., Gao, B., Wang, J., Liu, W., Derradji, M., Shah, A., & Babar, A. (2017). Natural hemp fiber reinforced
polybenzoxazine composites: Curing behavior, mechanical and thermal properties. Composites Science And
Technology, 144, 114-124.
Di Bella, G., Fiore, V., Galtieri, G., Borsellino, C., & Valenza, A. (2014), Effects of natural fibres reinforcement
in lime plasters (kenaf and sisal vs. Polypropylene). Construction And Building Materials, 58, 159-165.
Dittenber, D., & GangaRao, H. (2012), Critical review of recent publications on use of natural composites in
infrastructure. Composites Part A: Applied Science And Manufacturing, 43(8), 1419-1429.
Faruk, O., Bledzki, A., Fink, H., & Sain, M. (2012). Biocomposites reinforced with natural fibers: 2000–
2010. Progress In Polymer Science, 37(11), 1552-1596.
Garcia Filho, F., Oliveira, M., Pereira, A., Nascimento, L., Ricardo Gomes Matheus, J., & Monteiro, S. (2020).
Ballistic behavior of epoxy matrix composites reinforced with piassava fiber against high energy
ammunition. Journal Of Materials Research And Technology, 9(2), 1734-1741.
Güven, O., Monteiro, S., Moura, E., & Drelich, J. (2016), Re-Emerging Field of Lignocellulosic Fiber – Polymer
Composites and Ionizing Radiation Technology in their Formulation. Polymer Reviews, 56(4), 702-736.
Ku, H., Wang, H., Pattarachaiyakoop, N., & Trada, M. (2011). A review on the tensile properties of natural fiber
reinforced polymer composites. Composites Part B: Engineering, 42(4), 856-873.
Monteiro, S., Calado, V., Rodriguez, R., & Margem, F. (2012). Thermogravimetric Stability of Polymer
Composites Reinforced with Less Common Lignocellulosic Fibers – an Overview. Journal Of Materials
Research And Technology, 1(2), 117-126.
Monteiro, S., Lopes, F., Ferreira, A., & Nascimento, D. (2011), Natural-fiber polymer-matrix composites:
Cheaper, tougher, and environmentally friendly. JOM, 61(1), 17-22
Neuba, L., Pereira Junio, R., Ribeiro, M., Souza, A., Lima, E., & Garcia Filho, F. et al. (2020). Promising
Mechanical, Thermal, and Ballistic Properties of Novel Epoxy Composites Reinforced with Cyperus
malaccensis Sedge Fiber. Polymers, 12(8), 1776.
Oliveira, M., Filho, F., Pereira, A., Nunes, L., Luz, F., & Braga, F. et al. (2019). Ballistic performance and
statistical evaluation of multilayered armor with epoxy-fique fabric composites using the Weibull
analysis. Journal Of Materials Research And Technology, 8(6), 5899-5908.
Sair, S., Oushabi, A., Kammouni, A., Tanane, O., Abboud, Y., & El Bouari, A. (2018). Mechanical and thermal
conductivity properties of hemp fiber reinforced polyurethane composites. Case Studies In Construction
Materials, 8, 203-212.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

714
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Sanjay, M., Madhu, P., Jawaid, M., Senthamaraikannan, P., Senthil, S., & Pradeep, S. (2018), Characterization
and properties of natural fiber polymer composites: A comprehensive review. Journal Of Cleaner
Production, 172, 566-581.
Satyanarayana, K., Arizaga, G., & Wypych, F. (2009), Biodegradable composites based on lignocellulosic
fibers—An overview. Progress In Polymer Science, 34(9), 982-1021.
Sepe, R., Bollino, F., Boccarusso, L., & Caputo, F. (2018). Influence of chemical treatments on mechanical
properties of hemp fiber reinforced composites. Composites Part B: Engineering, 133, 210-217.
Summerscales, J., Virk, A., & Hall, W. (2013). A review of bast fibres and their composites: Part 3 –
Modelling. Composites Part A: Applied Science And Manufacturing, 44, 132-139.
Zini, E., & Scandola, M. (2011), Green composites: An overview. Polymer Composites, 32(12), 1905-1915.

THERMAL CHARACTERIZATION OF EPOXY MATRIX COMPOSITES


REINFORCED WITH HEMP FABRIC FOR ENGINEERING APPLICATION

Abstract. Natural fiber composites have been increasingly used in important sectors of the
industry, such as automotive industry and civil construction. In addition to its natural
advantages, this natural reinforcement is constantly optimized until presenting mechanical
performances comparable to those of synthetic fiber composites. Among the possible
applications, it can be mentioned the intermediate layer in individual ballistic armoring
systems. In particular, hemp fiber (Cannabis sativa), although widely used in fabrics, has still
been little explored as reinforcement to polymeric composites for engineering applications. In
view of this, the present work analyzed the thermal behavior of epoxy matrix composites
reinforced with this natural material. Composites were manufactured with different volume
fractions (0, 10, 20 and 30%) and thermogravimetric analysis (TGA) was used to
characterize the thermal stability of the material, in addition to the differential scanning
calorimetry (DSC). Based on these analysis, it could be concluded that there was a small
decrease in the temperature of degradation of the composite in relation to epoxy resin (-14%)
and the temperature of 200 ° C was determined for practical use of the material. In addition,
the glass transition temperature of the composite was estimated in an interval between 68 and
70 ° C.

Keywords: Hemp fabric, epoxy, thermogravimetry, thermal analysis, DSC.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

715
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO MECÂNICA DE COMPÓSITOS DE MATRIZ EPÓXI


REFORÇADA COM TECIDO DE CÂNHAMO PARA APLICAÇÃO DE
ENGENHARIA

Matheus Pereira Ribeiro1 – matheuspribeiro@ime.eb.br


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Fabio Costa Garcia Filho1 – fabiogarciafilho@ime.eb.br
Lucio Fabio Cassiano Nascimento1 – lucio_coppe@yahoo.com.br
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Instituto Militar de Engenheria, Seção de Engenheria de Materiais – Rio de Janeiro, RJ, Brasil
1

Resumo. Os compósitos de fibras naturais lignocelulósicas (FNLs) vêm sendo utilizados de


forma cada vez mais intensa indústria automotiva, construção civil, equipamentos esportivos
e embalagens. Dentre as FNLs, destaca-se a fibra de o cânhamo com diversas aplicações,
sendo historicamente utilizada na indústria têxtil, na fabricação de papeis e até mesmo na
indústria farmacêutica. Entretanto, poucas aplicações existem para a fibra de cânhamo como
material de engenharia. Desse modo, investigou-se neste trabalho a utilização de compósitos
de matriz epoxídica reforçada com o tecido de fibra cânhamo em variadas frações
volumétricas de 0, 10, 20 e 30% a fim de comparar o desempenho da energia absorvida no
ensaio de impacto Izod e da resistência à tração, bem como seu módulo elástico. Os
resultados identificaram que os compósitos de 30% vol. absorveram mais energia do que
aqueles com as outras frações, além de ter apresentado maiores valores sob tração e maior
rigidez. Isto pôde ser afirmado após a aplicação do método estatístico de análise de
variância (ANOVA) e teste de Tukey.

Palavras-chave: Tecido de cânhamo, epóxi, impacto Izod, resistência à tração, módulo de


elasticidade.

1. INTRODUÇÃO

Compósitos de fibras naturais lignocelulósicas (FNLs) foram intensamente investigados


nas últimas décadas (Sanjay et al., 2018; Güven et al., 2016; Monteiro et al., 2011; Zini &
Scendola, 2011; Satyanarayana et al., 2009). Estes compósitos vêm sendo utilizados de forma
cada vez mais diversificada na indústria automotiva, construção civil, equipamentos
esportivos e embalagens (Benzait & Trabzon, 2018; Di Bella et al, 2014; Dittenber & Rao,
2012). A opção por este material vai desde a sua disponibilidade e renovabilidade até

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

716
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

características, como baixo peso específico, baixo custo, biodegradabilidade e reciclabilidade.


Somado a isto, a atual necessidade de substituição de materiais sintéticos devido a problemas
relacionados à natureza e energia vem propiciando a crescente exploração e otimização de
suas propriedades (Sanjay et al., 2018; Güven et al., 2016).
Entre as FNLs mais conhecidas do mundo, o cânhamo tem diversas aplicações e é
historicamente utilizado na indústria têxtil, na fabricação de papeis e até mesmo na indústria
farmacêutica (Jankauskiene et al., 2015). Na indústria automotiva, Henry Ford, em 1941,
utilizou o cânhamo e o linho na primeira tentativa de aplicação deste tipo de material em
automóveis (Mohanty et al., 2005). A fibra de cânhamo é extraída do caule da Cannabis
ruderalis, nativa da China, sendo largamente cultivado tanto no seu país de origem quanto na
Europa e Canadá e custam, em média, 40% menos que as fibras de vidro (Miritoiu et al.,
2019).
Diante disto, o presente trabalho tem por objetivo analisar a aplicação da fibra de
cânhamo em forma de tecido (Fig. 1) como reforço de matriz polimérica epoxídica, a fim de
comparar a influência da variação volumétrica de tecido, investigada como 10, 20 e 30%, na
propriedade mecânica de resistência ao impacto utilizando a energia absorvida no ensaio Izod.
Ademais, para verificar a confiabilidade dos resultados obtidos, será realizado uma análise
estatística utilizando o método de análise de variância (ANOVA) e o teste de Tukey.

2. MATERIAIS E MÉTODOS

O tecido de cânhamo investigado neste trabalho foi obtido da empresa Kayaan Ltda.,
localizada na cidade de Curitiba, Paraná, Brasil. O material é composto 100% fibras de
Cannabis sativa e apresenta um arranjo simples de fios de fibra de cânhamo.
Para calcular a fração volumétrica do tecido no compósito, foi necessário conhecer a
densidade superficial e volumétrica do material. A partir do método de Arquimedes e do
ensaio de gramatura da norma ABNT NBR 10591:2018 (2008), obteve-se a densidade média
de 1,55 g/cm³ e densidade superficial média de 449,6 g/m².
Os tecidos foram cortados nas dimensões do molde metálico utilizado na fabricação
dos compósitos e secos em estufa por 24h à temperatura de 60°C. Posteriormente, preparou-se
a matriz polimérica, misturando a resina epóxi diglicidil éter do bisfenol A (DGEBA) com
13% de endurecedor trietileno tetramina (TETA), ambos adquiridos da empresa Epoxyfiber
Indústria Química, Rio de Janeira, Brasil. Em seguida, depositou-se a resina com endurecedor
e as camadas de tecidos alternadamente no molde metálico e o comprimiu utilizando uma
prensa hidráulica com uma carga de 3 MPa (5 ton) por 24h.
Para o ensaio de impacto Izod fabricou-se placas compósitas de 4, 8 e 12 camadas de
tecidos, as quais correspondem a 10, 20 e 30% em fração volumétrica, respectivamente.
Foram analisados 6 corpos de prova, os quais foram serrados, lixados e entalhados a fim de
atender os parâmetros propostos na norma ASTM D256 (2006). Realizou-se os ensaios de
impacto Izod utilizando um pêndulo da marca PANTEC com um martelo de 22J.
Para o ensaio de tração fabricou-se placas compósitas de 1, 2 e 3 camadas de tecidos,
as quais correspondem a aproximadamente 10, 20 e 30% em fração volumétrica,
respectivamente. Foram analisados 7 corpos de prova de prova, que foram serrados e lixados
a fim de atender os parâmetros da norma ASTM D3039 (2017). Foi utiliza uma máquina
universal EMIC, com uma taxa de deformação de 2 mm/min.

3. RESULTADOS E DISCUSSÕES

3.1 Ensaio de impacto Izod


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

717
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Fig. 1 apresenta corpos de prova compósitos de 10, 20 e 30% em volume rompidos


após o ensaio de impacto.

Figura 1 - Corpos de prova característicos rompidos.

Para a análise estatística, conforme a ASTM D256, considerou-se somente os corpos


de prova rompidos dos três grupos analisados, como mostra na Fig. 1. Entretanto, constatou-
se que parte das amostras de 30% vol. não foram separadas totalmente, como ocorreram para
todos os de 10 e 20% vol. Tal fato indica que a energia absolvida das amostras reforçadas por
30% de volume de tecido de cânhamo pode ter valores superiores aos analisados
matematicamente.
O gráfico da Fig. 2, aliado aos dados da Tabela 1, evidencia a atuação do tecido de
cânhamo como reforço da matriz polimérica epoxídica. Entre as frações de 10 e 20% vol., o
compósito sofreu um aumento de energia absorvida de cerca de 70%. Este parâmetro
aumentou conforme foram acrescidas mais camadas, chegando a cerca de 110% entre as
porcentagens de 20 e 30% vol. Este fato ocorre devido ao aumento da demanda energética
necessária para rompê-las à medida que se aumenta a quantidade de reforço.

Figura 2 - Gráfico de energia absorvida por fração volumétrica.

Tabela 1 - Resultados do ensaio de impacto Izod.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

718
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fração Volumétrica Energia absorvida (J/m)


0% 17,90 ± 2,50
10% 37,78 ± 7,42
20% 64,06 ± 4,29
30% 134,11 ± 11,50

Para verificar possíveis diferenças estatísticas entre os resultados obtidos para os


compósitos de cada fração volumétrica de tecido de cânhamo, 10, 20 e 30%, realizou-se a
análise de variância (ANOVA), como mostra a Tabela 2.

Tabela 2 - Análise de variância da energia de impacto absorvida.

Causas de Grau de Soma de Quadrado Fcalculado Ftabelado


variação Liberdade quadrados médio
Tratamentos 2 29753,35 14876,68 217,14 3,68
Resíduos 15 1027,70 68,51
Total 17 30781,05

Com base na Tabela 2, pode-se rejeitar que as médias são diferentes com 95% de
confiança, já que Fcalculado > Ftabelado. Ou seja, a presença do tecido comprovadamente
influenciou na resistência medida de energia absorvida no impacto Izod dos compósito. Dessa
forma, para complementar a análise de variância, realizou-se o teste de Tukey a fim de
comparar a diferença estatística dois a dois entre os compósitos. A Tabela 3 mostra as
comparações entre as médias nesse teste a partir de uma diferença média significativa (DMS)
calculada de 12,20.

Tabela 3 - Comparação das médias de energia de impacto absorvida.

Compósito 10% 20% 30%


10% - 26,29 96,41
20% 26,29 - 70,04
30% 96,41 70,04 -

A partir dos resultados na Tabela 3, pode-se afirmar que a energia absorvida do


compósito reforçado com 30% de tecido (138,70 J/m) foi substancialmente superior às das
outras frações. Esse comportamente para essa fração volumétrica de reforço foi também
observado em trabalhos anteriores (Pereira et al., 2017; Costa et al., 2020; Candido et al.,
2017) e corrobora com a hipótese inicial de que o aumento do volume de reforço proporciona
um aumento da demanda de energia para o rompimento do material. Além disso, o teste
verificou que houve diferença significativa entre as frações de 10 e 20% vol., evidenciado,
graficamente, através de um ligeiro aumento da energia absorvida entre as duas frações.

3.1 Ensaio de tração

A Tabela 4 apresenta os valores médios de resistência à tração. Foram analisados 7


corpos de prova, os quais foram todos rompidos na altura útil.

Tabela 4 - Resultados do ensaio de tração.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

719
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fração volumétrica Resistência à tração Referências


do tecido (MPa)
0% 34,30 ± 4,2 Maciel et al. (2018)
10% 17,97 ± 3,72 PA*
20% 28,16 ± 4,35 PA
30% 54,34 ± 7,16 PA
*PA: Próprio Autor

É possível visualizar o crescimento na tensões necessárias ao rompido do material à


medida que se acrescentou camadas de tecido de cânhamo, aliado a um aumento substancial
para os corpos de prova de 30% vol. em relação às outras frações. Entretanto, em relação à
resina epóxi pura, os compósitos reforçados com 10 e 20% de tecido de cânhamo
apresentaram um baixo desempenho como reforço. Isso indica a atuação do material como um
defeito na matriz, e não como reforço, prejudicando a interação fibra-matriz.
Os valores da Tabela 4 podem ser melhor visualizados no gráfico da Fig. 3. Como foi
descrito, o material apresenta um baixo desempenho à tração quando reforçado com 10 e
20%vol de tecido. Isso expõe uma aparente contradição com os resultados obtidos no ensaio
de impacto, no qual os reforços proporcionaram um aumento no comportamento mecânico
analisado. Entretanto, como foi observado no trabalho de Braga et al. (2017), uma baixa
resistência interfacial proporcionou maiores superfícies de fratura, ocasionando melhores
resultados de absorção de impacto e baixas resistências à tração.

Figura 3 - Resistência à tração dos compósitos epóxi-tecido de cânhamo

Da mesma forma, para avaliar se houve diferenças significativas entre os resultados


obtidos de resistência à tração e módulo de elasticidade para os compósitos de cada fração
volumétrica de tecido de cânhamo, realizou-se ANOVA. A Tabela 5 apresenta os resultados
para a análise.

Tabela 5 - Análise de variância da resistência à tração.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

720
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Causas de Grau de Soma de Quadrado Fcalculado Ftabelado


variação Liberdade quadrados médio
Tratamentos 2 4942,73 2471,36 47,66 3,47
Resíduos 21 1088,89 51,85
Total 23 6031,62

A Tabela 6 apresenta os resultados para o teste de Tukey para a resistência à tração. O


DMS calculado foi de 9,06 MPa e, então, a diferença de resultados acima deste valor foi
considerado diferente significativamente. Dessa forma, o compósito de 30% vol. de tecido
apresentou-se como de melhor desempenho, enquanto que os compósitos de 10 e 20% vol.
não mostraram diferenças significativas.

Tabela 6 - Comparação das médias da resistência à tração.

Compósito 10% 20% 30%


10% - 8,32 33,74
20% 8,32 - 25,42
30% 33,74 25,42 -

Através dos dados obtidos de resistência à tração, calculou-se também o módulo de


elasticidade dos compósitos. Os resultados estão apresentados na Tabela 7 e na Fig. 4.

Tabela 7 - Resultados do módulo de elasticidade.

Fração volumétrica Módulo de Referência


do tecido Elasticidade (GPa)
0% 1,66 ± 0,46 Martins et al. (2014)
10% 0,96 ± 0,22 PA*
20% 0,89 ± 0,17 PA
30% 2,05 ± 0,19 PA
*PA: Próprio Autor

Figura 4 – Módulo de Elasticidade dos compósitos epóxi-tecido de cânhamo


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

721
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Através da Tabela 7 e da Fig. 4, é possível observar novamente uma tendência de


crescimento do módulo de elasticidade dos compósitos devido a maior rigidez, ainda que haja
pouca diferença entre as frações de 10% e 20%vol. de tecido. Comparativamente, outros
trabalhos mostram que somente a fração de 30% vol. de tecido apresentam maior módulo, o
que provavelmente está relacionado à dificuldade de transmissão de esforços entre as fases do
material conjugado.

4. CONCLUSÕES

• Foi realizado ensaio de absorção de impacto Izod em um compósito de matriz epóxi


DGEBA/TETA reforçada com tecido de fibras naturais de cânhamo.
• Através da análise estatística ANOVA e teste de Tukey, foi comprovado com 95% de
confiança que as camadas de tecido de cânhamo reforçam o compósito de matriz epóxi
nos ensaios de impacto. Entre os compósitos de 20 e 30% vol. de tecido de cânhamo,
o aumento da propriedade chegou a aproximadamente 110%;
• No ensaio de tração, somente os compósitos reforçados com 30% vol. de tecido de
cânhamo tiveram desempenho maior que o da resina pura. O aumento na propriedade
entre esses foi de cerca de 60% e teve diferença significativa comprovada entre as
outros compósitos analisados;
• O módulo de elasticidade apresentou também um crescimento substancial entre os
compósitos reforçados com 20 e 30% vol. de tecido. Esse comportamento está
relacionado a rigidez do reforço, que passou a ter maior ativação na última fração
volumétrica analisada.

Acknowledgements

Os autores deste trabalho agradecem à Capes, CNPq e à FAPERJ pelo financiamento da


pesquisa, além do Departamento de Ciência dos Materiais do IME e do LAMAV na UENF.

REFERENCES

ABNT NBR 10591 (2008), Materiais Têxteis - Determinação da gramatura de superfícies. Rio de Janeiro, RJ:
Associação Brasileira de Normas Técnicas.
ASTM D 256-0 (2006), Standard Test Methods for Determining the Izod Pendulum Impact Resistance of
Plastics. West Conshohocken, PA: American Society for Testing and Materials.
ASTM D 3039-95 (2017), Standard Test Methods for Tensile Properties of Polymers Matrix Composite
Materials; West Conshohocken, PA: American Society for Testing and Materials.
Benzait, Z., & Trabzon, L. (2017), Tensile and Impact Properties of Two Fiber Configurations for Curaua
Reinforced Composites. In: Meyers M. et al. (eds) Proceedings of the 3rd Pan American Materials Congress.
The Minerals, Metals & Materials Series.
Braga, F.O., Simonassi, N., Cabral, A., Monteiro, S., & de Assis, F. (2017), “Tensile and Impact Properties of
Two Fiber Configurations for Curaua Reinforced Composites”, The 3Rd Pan American Materials Congress,
429-436.
Candido, V., Silva, A., Simonassi, N., Luz, F., & Monteiro, S. (2017), Toughness of polyester matrix composites
reinforced with sugarcane bagasse fibers evaluated by Charpy impact tests. Journal Of Materials Research
And Technology, 6(4), 334-338.
Costa, U., Nascimento, L., Garcia, J., Bezerra, W., & Monteiro, S. (2020), Evaluation of Izod impact and bend
properties of epoxy composites reinforced with mallow fibers. Journal Of Materials Research And
Technology, 9(1), 373-382.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

722
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Di Bella, G., Fiore, V., Galtieri, G., Borsellino, C., & Valenza, A. (2014), Effects of natural fibres reinforcement
in lime plasters (kenaf and sisal vs. Polypropylene). Construction And Building Materials, 58, 159-165.
Dittenber, D., & GangaRao, H. (2012), Critical review of recent publications on use of natural composites in
infrastructure. Composites Part A: Applied Science And Manufacturing, 43(8), 1419-1429.
Güven, O., Monteiro, S., Moura, E., & Drelich, J. (2016), Re-Emerging Field of Lignocellulosic Fiber – Polymer
Composites and Ionizing Radiation Technology in their Formulation. Polymer Reviews, 56(4), 702-736.
Jankauskienė, Z., Butkutė, B., Gruzdevienė, E., Cesevičienė, J., & Fernando, A. (2015), Chemical composition
and physical properties of dew- and water-retted hemp fibers. Industrial Crops And Products, 75, 206-211.
Maciel, N., Ferreira, J., Vieira, J., Ribeiro, C., Lopes, F., & Margem, F. et al. (2018), Comparative tensile
strength analysis between epoxy composites reinforced with curaua fiber and glass fiber. Journal Of
Materials Research And Technology, 7(4), 561-565.
Martins, A., Gouvêa, R., Oliveira, M., Cândido, V., & Monteiro, S. (2014), Characterization of Epoxy Matrix
Composites Incorporated with Sugarcane Bagasse Fibers. Materials Science Forum, 775-776, 102-106.
Miriţoiu, C., Stănescu, M., Burada, C., Bolcu, D., Pădeanu, A., & Bolcu, A. (2019), Comparisons between some
composite materials reinforced with hemp fibers. Materials Today: Proceedings, 12, 499-507.
Mohanty, A., Misra, M., & Druzal, L. (2005), Natural fibers, biopolymers, and biocomposites. Taylor & Francis.
Monteiro, S., Lopes, F., Ferreira, A., & Nascimento, D. (2011), Natural-fiber polymer-matrix composites:
Cheaper, tougher, and environmentally friendly. JOM, 61(1), 17-22.
Pereira, A., Monteiro, S., Assis, F., Margem, F., Luz, F., & Braga, F. (2017), Charpy impact tenacity of epoxy
matrix composites reinforced with aligned jute fibers. Journal Of Materials Research And Technology, 6(4),
312-316.
Sanjay, M., Madhu, P., Jawaid, M., Senthamaraikannan, P., Senthil, S., & Pradeep, S. (2018), Characterization
and properties of natural fiber polymer composites: A comprehensive review. Journal Of Cleaner
Production, 172, 566-581.
Satyanarayana, K., Arizaga, G., & Wypych, F. (2009), Biodegradable composites based on lignocellulosic
fibers—An overview. Progress In Polymer Science, 34(9), 982-1021.
Zini, E., & Scandola, M. (2011), Green composites: An overview. Polymer Composites, 32(12), 1905-1915.

MECHANICAL CHARACTERIZATION OF EPOXY MATRIX COMPOSITES


REINFORCED WITH HEMP FABRIC FOR ENGINEERING APPLICATION

Abstract. Composites of natural lignocellulosic fibers (NLFs) have been increasingly used in
the automotive, civil construction, sports equipment and packaging industries. Among NLFs,
hemp fiber stands out with several applications and is historically used in the textile industry,
in the manufacture of papers and even in the pharmaceutical industry. However, few
applications exist for hemp fiber as an engineering material. Therefore, it was investigated in
this work the use of epoxy matrix composites reinforced with hemp fabric in various
volumetric fractions of 0, 10, 20 and 30% in order to compare the performance of the energy
absorbed in the Izod impact test and the tensile strength, as well as its elastic modulus. The
results identified that the 30% vol. composites absorbed more energy than those with the
other fractions, in addition to having higher values under tensile and greater stiffness. This
could be affirmed after applying the statistical method of analysis of variance (ANOVA) and
Tukey's test.

Keywords: Hemp fabric, epoxy, Izod impact, tensile strength, elastic modulus.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

723
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

INTELIGÊNCIA ARTIFICIAL NA ANÁLISE DE VIDA ÚTIL DE BATERIAS

Carlos Márcio da Silva Freitas 1 – carlos.freitas@iff.edu.br


Rogerio Atem de Carvalho 1 – ratem@iff.edu.br).
1
Instituto Federal Fluminense – Campos/RJ, Brasil

Resumo. As baterias são componentes essenciais para muitos dispositivos e sistemas eletroeletrônicos,
avaliar corretamente o seu ciclo de vida é importante para evitar trocas desnecessárias e prever possíveis
falhas na mesma. Embora a predição de tempo de vida útil de baterias seja uma informação útil, ela
ainda é pouco explorada em equipamentos e aplicações comerciais. Objetivo: Este trabalho tem o
objetivo de apresentar as principais técnicas de teste de baterias e avaliar a aplicabilidade de
determinados algoritmos de inteligência artificial para uma eficiente avaliação dos dados obtidos nos
testes, e consequentemente a correta previsão de vida útil desses componentes. Metodologia: Este
trabalho foi feito em 2 etapas. A primeira constitui a análise das principais variáveis elétricas utilizadas
para avaliação e teste de baterias. Na segunda etapa foram analisados alguns algoritmos de inteligência
artificial e sua possível aplicação na previsão de vida útil de baterias, de forma que a metodologia possa
ser aplicada independente do tipo de bateria utilizada. Resultados: Com base no levantamento de dados
foi possível identificar os algoritmos de inteligência artificial mais adequados para o processamento das
informações obtidas nas variáveis de teste e consequentemente uma correta previsão de vida útil de
baterias. Conclusão: Embora exista uma grande variedade de algoritmos de inteligência computacional,
apenas uma parcela é adequada para o processamento de dados temporais e a correta análise de vida útil
de baterias.
Palavras-Chaves: Inteligência Artificial, Teste Elétrico, Degradação de Bateria, Previsão de Vida Útil.

1.0 INTRODUÇÃO
A grande demanda de armazenamento de energia elétrica torna as baterias um dos principais
componentes de muitos sistemas elétricos e eletrônicos modernos, (KHUMPROM, 2019).
Aplicações como carros de propulsão elétrica, sistemas de energia solar, sistemas de nobreak, partida de
motores de combustão como em automóveis e grupos geradores são exemplos de aplicações dependentes

724
de baterias. Tendo utilização em larga escala os quesitos custo, manutenção e descarte de uma bateria
se tornam cada vez mais importantes, ainda deve-se lembrar que os componentes das baterias são
prejudiciais ao meio ambiente e requerem tratamento e reciclagem adequados(NAZRI e PISTOIA;
2009)
VIDAL (2020) relaciona o uso de inteligência artificial para estimativa do estado da carga e taxa de
envelhecimento de baterias utilizadas em veículos, e fornece uma comparação de métodos de
estimativa de estado da bateria com base em abordagens de machine learning, em redes neurais
avançadas, redes neurais recorrentes, máquinas de vetores de suporte, funções de base radial e redes de
Hamming.
DICKSON (2019) apresenta o uso de aplicações de redes neurais para determinação da estimativa do
estado de carga de baterias de lítio utilizadas em automóveis. Para tanto o autor utiliza os ciclos de
carga e descarga da bateria para treinamento da rede neural nas diferentes demandas dos ciclos de
carga e descarga.
BELOVA (2019) publicaram um trabalho onde se utiliza redes neurais artificiais para monitorar a
degradação de baterias utilizadas em sistemas com células de energia solar, também é abordado o
estudo da degradação das células no rendimento total do sistema.
KHUMPROM (2019) apresentou o uso de algoritmos de deep Learning aplicados a determinação da
saúde e da vida útil de baterias com redes neurais artificiais, ainda é feita uma comparação do
algoritmo de redes neurais com o outro algoritmo de machine leaning chamado máquina de vetores de
suporte (SVM) e rede neural artificial regular (RANN).
ENYONG HU (2011) estuda a relação entre o teste de capacidade de baterias utilizadas em aviação
com lógica fuzzy, no trabalho o autor declara que após muitos experimentos foi encontrada uma
correlação entre a resistência dinâmica da bateria e a sua capacidade de armazenamento de energia, e
para determinar a capacidade em amperes/hora dessas baterias aeronáuticas esses dados foram
utilizados pelo algoritmo de lógica fuzzy.
WEI YOU (2009) analisa a predição de taxa de envelhecimento de baterias níquel-hidrogênio(Ni/H)
utilizando redes neurais artificiais e atingiu resultados satisfatório na predição da capacidade da
bateria.
PAREDES (2019) publicou o texto “Development of a Fuzzy Logic-Based Solar Charge Controller for
Charging Lead–Acid Batteries” relatando o desenvolvimento de um carregador de baterias para
sistema de energia solar baseado em lógica fuzzy. De acordo com o texto foram notadas diversas
vantagens ao se utilizar lógica fuzzy no controle de carga da bateria como por exemplo menor tempo
de carga e prevenção da sobre tensão na bateria, o artigo ainda descreve detalhes da construção do
protótipo que utiliza um microcontrolador AVR Atmega.
CAI (2017) declara que apesar de haver muitas pesquisas sobre previsão de vida útil de baterias, ainda
não existe uma solução que possa oferecer com precisão a vida útil da bateria baseado em poucas
amostras da mesma. O objetivo do autor é utilizar um método hibrido otimizado orientado a dados
com algoritmos como máquina de vetores de relevância (RVM) e otimização com algoritmo artificial
de enxame de peixes, para melhora da precisão da estimativa de vida útil das baterias de lítio.
O ponto crítico na previsão de vida útil das baterias é a exatidão da previsão, pois diversas pesquisas
apontam que essa lacuna ainda não foi dominada de forma satisfatória, tornando-se um campo de
pesquisa útil e desejado pela comunidade acadêmica, e consequentemente empresas do setor que

725
podem utilizar a técnica de previsão para estender a vida útil das baterias utilizadas em aplicações
comerciais.
O objetivo desse documento é relacionar e analisar as técnicas mais promissoras para a análise e previsão
do tempo de vida útil de baterias, baseando-se em técnicas de inteligência artificial, e testes físicos da
mesma que também avaliem as características das diversas aplicações pelas quais as mesmas podem ser
utilizadas.
Longe de se abranger todas as técnicas de inteligência computacional o trabalho considera apenas as
principais técnicas de acordo com as características das mesmas e sua aplicabilidade na previsão de
dados.
A estrutura do trabalho inicialmente apresenta as principais técnicas de teste e análise de baterias que
podem ser utilizadas para obter as condições de funcionamento da mesma, em seguida é apresentado
as técnicas de inteligência artificial bem como suas principais características. No final será sugerido a
combinação entre qual algoritmo e quais testes físicos se apresentam mais promissores para obter a
melhor otimização na obtenção do tempo de vida útil da bateria.
1.1 Metodologia
Do ponto de vista da natureza o trabalho se classifica como uma pesquisa aplicada. Com foco
qualitativo pois é de caráter exploratório. Com o objetivo de descrever as características dos sistemas
de inteligência artificial aplicáveis a análise de vida útil de baterias, o presente trabalho se classifica
como descritivo. (SILVA E MENEZES, 2005).
Levando em consideração que parte da pesquisa é baseada na análise de livros, artigos e
conhecimentos já obtidos e divulgados pela comunidade cientifica a mesma se classifica como
bibliográfica.
Para análise dos dados as informações foram divididas em duas partes.
Na primeira parte é feito o levantamento e análise das variáveis elétricas e tipos de testes elétricos que
são utilizados para a obtenção de dados de teste da bateria.
Na segunda parte é feito o levantamento das características dos principais algoritmos de inteligência
artificial que podem ser utilizados para tratamento dos dados obtidos com as informações dos testes.

1.2 Fatores analisados


Os fatores analisados para alcançar os objetivos foram:
-Variáveis elétricas e físicas da bateria;
-Tipos de testes que podem ser executados na bateria;
-Características dos principais algoritmos de inteligência artificial.
1.3 Procedimento para análise
O procedimento de análise utilizado é relacionar as principais características elétricas e tipos de teste
de bateria, conhecendo a análise feita por um dispositivo de teste comumente encontrado no mercado.

726
Em seguida relacionar as características dos algoritmos de inteligência artificial que podem tratar os
dados obtidos nos testes da bateria, de forma a encontrar os algoritmos mais indicados.
2.0 REFERENCIAL TEÓRICO
Para uma correta análise de dados será exposto o referencial teórico que baseia as conclusões do
trabalho.

2.1 Testes e variáveis elétricas


O teste e a análise de baterias sempre partem da obtenção das variáveis elétricas, físicas e químicas da
mesma (HUGGINS, 2008). Para efeito de comparação e análise da degradação serão consideradas as
seguintes variáveis:
Tensão elétrica;
Corrente de manutenção de carga;
Corrente de descarga;
Impedância e resistência da bateria;
Condutância da bateria;
Corrente de partida a Frio;
Número de ciclos carga/descarga;
Efeito da velocidade de descarga
Tempo de serviço;
Temperatura;
Uma vez que a grande maioria das baterias são seladas e não oferecem acesso a sua solução
eletrolítica, impossibilitando a coleta de amostras, a análise química não será considerada no trabalho,
uma vez que o objetivo é a análise das variáveis elétricas da bateria.
Visto que a vida útil da bateria está relacionada a seu regime de utilização será analisado todo o
conjunto onde a mesma está incluída, sendo formada por:
Bateria + Carregador + Circuito alimentado pela bateria.
A figura 1 representa os blocos de função sugeridos para a correta obtenção da vida útil de baterias

727
Figura 1- Divisão dos blocos de função do equipamento proposto. Figura 2- Ciclos de carga em função da profundidade de carga
aplicados em uma bateria.[27]

A corrente de manutenção de carga é fornecida pelo carregador da bateria para que a mesma
permaneça totalmente carregada até o momento em que o circuito alimentado pela bateria exija uma
demanda de corrente elétrica (PAREDES 2020).
O número de ciclos carga/descarga pode variar drasticamente conforme a aplicação, como em um
sistema de iluminação de emergência onde a demanda pode ocorrer apenas uma vez a cada mês, ou em
sistemas de partida de motores de automóveis onde a bateria tem sua carga reduzida após cada partida
do motor do automóvel, fato que pode ocorrer até dezenas de vezes por dia (VIDAL, 2020). Esse fato
é importante na avaliação geral na vida útil da bateria.
Na figura 2, o gráfico demonstra a média de ciclos de carga e descarga que uma bateria pode atender
em sua vida útil, sendo a profundidade de descarga o principal fator que limita o número de ciclos.
Conforme o gráfico o número de ciclos de carga e descarga de uma bateria interfere na degradação de
sua capacidade.
Entre as variáveis mais importantes para verificação do estado da bateria estão a impedância interna e
a condutância, que são testes realizados de forma distinta na bateria. (I. BUCHMANN, 2020)
2.2 Algoritmos de inteligência artificial
Nessa parte serão avaliadas as características dos principais algoritmos de inteligência artificial que
podem processar os dados apresentados na parte 1. Nos tempos atuais podem ser encontrados diversos

728
algoritmos de inteligência artificial, como cada um deles possui características específicas, serão
tratados os que mais se adequam ao projeto proposto.
A figura 3 resume alguns dos grupos de algoritmos utilizados em inteligência artificial.

Figura 3- Classificações dos algoritmos de inteligência artificial abordados.


Uma das áreas de inteligência artificial que mais tem se desenvolvido nos últimos anos é a área de
machine learning ou aprendizado de máquina, que na verdade é um método automatizado de
construção de modelos analíticos que são capazes de reconhecer padrões e realizar previsões. Para
realizar essas previsões os modelos passam por processos de aprendizagem onde recebem informações
úteis para criação de sua base de conhecimento que será utilizada durante as classificações e previsões
desenvolvidas pelo algoritmo, funcionando de forma semelhante ao cérebro humano através da
cognição (AKERKAR, RAJENDRA, 2018).
O ramo de machine learning pode ser classificado em três grandes áreas no que se refere ao tipo de
supervisão que o sistema recebe durante o período de aprendizagem, sendo:
Supervised Learning;
Unsupervised Learning;
Reinforcement Learning.
No aprendizado supervisionado o Sistema de inteligência artificial faz o aprendizado com dados
previamente classificados e rotulados, como por exemplo, um sistema de reconhecimento de imagens
irá receber figuras que já estão rotuladas como carro, celular e chave, ou seja, o sistema irá ser
informado sobre qual imagem ele está sendo exposto. Dessa forma o sistema irá prever os próximos
dados com base em informações já apresentadas (JOSHI, 2018).
Já no aprendizado não supervisionado o sistema não possui dados classificados para utilizar na
aprendizagem, e busca características dos dados de forma autônoma, ou seja, ele busca por
informações em comum nos dados para efetuar a classificação dos mesmos. (AKERKAR,
RAJENDRA, 2018).
Por exemplo, se um sistema não supervisionado fosse orientado para separar em 4 grupos os visitantes
de um site que possuem características semelhantes, o sistema iria realizar automaticamente a
separação baseando-se em características em comum dos dados como, horário de acesso, gênero, idade
e local de origem e irá descobrir os principais grupos de perfis sem dados prévios de treinamento.

729
Outro exemplo é descobrir a associação entre produtos comprados em um supermercado, pois ao ir as
compras um cliente raramente compra apenas um produto
A área de reinforcement learning ou aprendizado por reforço, possui uma abordagem um pouco
diferente, onde o sistema aprende qual é a melhor decisão a ser tomada dependendo obviamente das
circunstâncias encontradas. O processo se baseia no princípio da recompensa e da punição, onde toda
ação tomada resulta em uma punição ou uma recompensa, esse processo ocorre milhares de vezes até
que o sistema aprende a melhor ação a ser tomada nas mais diversas situações (LI, 2019).
Na figura 4 é possível observar as divisões dos algoritmos de machine learning.

Figura 4- Divisões da área de machine learning.


2.2.1. Unsupervised Learning;
2.2.1.1 Dimensionality Reduction
Os algoritmos de redução de dimensionalidade são utilizados no processo de redução do número de
variáveis aleatórias em consideração, obtendo-se um conjunto de variáveis principais, em muitos
casos, a maioria das variáveis é correlacionada e considerada redundante. Quanto maior o número de
recursos, mais difícil é visualizar o conjunto de treinamento, dificultando os trabalhos no mesmo
(JOSHI, 2018).
A redução de dimensionalidade é utilizada em visualização de big data, extração de recurso e reduz o
tempo de computação e o espaço de armazenamento de dados.
2.2.1.2 Clustering
O clustering conhecido também por análise de agrupamento de dados, é o conjunto de técnicas de
mineração de dados com o objetivo de agrupar dados automaticamente segundo algum padrão de
associação. Essa técnica pode ser utilizada para customização de segmentos, sistemas de
recomendação e para seleção de mercado alvo na área de marketing (CHOWDHARY, 2020).
2.2.2 Supervised Learning
2.2.2.1 Classification
Os algoritmos de classificação são utilizados para classificar um conjunto de dados conforme suas
características e padrões previamente determinados, funciona com base no reconhecimento de padrões,

730
como apresentado na figura 8. Um exemplo muito comum de classificação é a seleção de e-mail’s,
onde se pode classificar uma mensagem como span ou como mensagem regular.
2.2.2.2 Regression
A regressão é um recurso de modelagem estatística e tem a função de estimar a relação entre duas ou
mais variáveis utilizando como base dados de amostra. Um exemplo muito conhecido é o de regressão
linear, onde o algoritmo traça uma reta próxima a concentração dos dados possibilitando obter
informações dos intervalos de dados. (AKERKAR, RAJENDRA, 2018).

2.3 Reinforcement Learning.


Aprendizado por reforço é um modelo de aprendizado de máquina onde o algoritmo realiza uma
sequência de decisões. Pois o algoritmo utiliza um processo de tentativa e erro para encontrar uma
solução para o problema e recebe recompensas ou penalidades pelas ações que executa, onde o
objetivo é maximizar as recompensas. É utilizado em sistemas de decisão em tempo real, navegação de
robôs, games, aquisição de habilidades e tarefas de aprendizado (JOSHI, 2018).
2.4 Logica Fuzzy
A lógica fuzzy ou também conhecida como lógica difusa tem o objetivo de fazer com que as decisões
tomadas pela máquina se aproximem das decisões tomadas por seres humanos no cotidiano. É uma
lógica desenvolvida para lidar com conceitos de verdade parcial e capaz de capturar informações vagas
representadas por linguagem natural e converter para o formato numérico. É baseada em graus de
verdade ou pertinência como por exemplo a temperatura de um objeto que pode ser considerado frio,
morno, quente ou muito quente, onde os graus podem variar entre 0(falso) e 1(verdadeiro)
(PAREDES, 2020).
Portanto a Logica fuzzy pode ser utilizada para avaliar níveis de pertinência de uma mesma variável,
não oferendo definição exata. Sendo muito úteis pra lidar com dados incompletos e imprecisos,
realizando aproximação de funções, classificação, controle e previsão de dados.
Como no exemplo da figura 5 a logica Fuzzy pode ser utilizada para determinar o estado da
capacidade da bateria e A/h, descrevendo a porcentagem da capacidade que ainda resta na bateria.

Figura 5- Logica Fuzzy aplicada a análise de capacidade de carga de baterias.

731
No processo chamado de fuzzificação as variáveis linguísticas são definidas de forma subjetiva, e
podem ser gerados diversos tipos de espaços como trapezoidal ou triangular utilizado no exemplo
acima. Uma particularidade da Lógica fuzzy é que não possuem memória ou capacidade de
prendizado, os dados são expostos a lógica gerada inicialmente (PAREDES, 2020).
Para reduzir essa limitação é possível o desenvolvimento de sistemas híbridos onde a técnica de redes
neurais pode ser combinada com a lógica fuzzy.
2.5 Algoritmos genéticos
O algoritmo genético é um eficiente método para resolver problemas de busca e otimização que se
baseia na seleção natural, que busca imitar o processo da evolução das espécies. Como ocorre na
mudança de geração da natureza, quanto maior a adaptação dos descendentes maior a chance dos
mesmos serem escolhidos para produzir a próxima geração e assim aumentam as chances de
sobrevivência (CAI, 2017).
Cada indivíduo é reconhecido como um cromossomo e por sua vez possui características consideradas
como genes, um exemplo é apresentado na figura 6.

Figura 6- Representação de Genes, Cromossomos e população no algoritmo genético.


O algoritmo genético tem muitas aplicações no mundo real como filtragem e processamento de sinais,
quebra de código, cinética química, robótica e processamento de imagem e até mesmo o famoso
problema do vendedor ambulante.
2.6 Redes Neurais Artificiais
O conceito de redes neurais artificiais foi introduzido pela primeira vez em 1943 pelo neurofisiologista
Warren McCulloch e pelo matemático Walter Pitts. Em um artigo denominado, “Um cálculo lógico de
idéias imanentes à atividade nervosa”, McCulloch e Pitts apresentaram um modelo computacional
simplificado de como os neurônios biológicos podem trabalhar juntos em cérebros de animais para
realizar cálculos complexos (CHOWDHARY, 2020).
Desde então os algoritmos baseados em redes neurais tem sido largamente utilizados para
desenvolvimento de sistemas de inteligência artificial.
2.6.1 Camadas de uma rede Neural
A camada de entrada é a primeira camada de uma rede neural artificial que recebe as informações de
entrada nas formas mais variadas como textos, números, áudio e imagem. Após a camada de entrada,
os dados são direcionados para uma ou várias camadas ocultas, onde são executados vários tipos de
cálculos e reconhecimento de padrões desses dados. Na camada de saída obtêm-se os cálculos
realizados nas camadas ocultas.

732
2.6.2 O Perceptron
O perceptron é um dos modelos mais básicos de redes neurais artificiais. É um classificador simples de
uma camada, podendo receber n atributos em diversas camadas de entrada, porém possui apenas uma
única camada de saída que produz apenas dados binário, ou seja 0 e 1 ou verdadeiro/Falso (VIDAL,
2020).
Cada atributo possui um peso na relevância do processamento do perceptron, ou seja, a variável X1
pode ter uma consideração maior do que a segunda variável para a tomada de decisão do conjunto.
O perceptron pode ser essencialmente útil para tarefas de classificação, mais adiante será tratado
outros algoritmos mais completos.
2.6.3 Rede Neural FeedForward
Nas redes neurais tipo feedforward, o fluxo de dados ocorre apenas em uma direção, sendo da camada
de entrada para a camada oculta e na sequência para a camada de saída. Não há loops de feedback
presentes nessa rede neural, por isso é usada em casos em que os dados não são sequenciais por
natureza. Caso os dados analisados sejam sequenciais ou dependentes do tempo como o som e dados
de séries temporais é mais adequado a utilização de redes neurais do tipo feedback que possuem
recursos de retenção de memória (BELOVA,2019).
Esse tipo de rede neural é usado principalmente no aprendizado supervisionado para classificação e
reconhecimento de imagem.
2.6.4 Rede Neural Recorrente
Uma rede neural recorrente é um tipo de rede neural utilizada para a análise de dados sequenciais e
temporais como por exemplo análise de linguagem natural, séries temporais como a variação da bolsa
de valores, a variação da temperatura ambiente ao longo de um dia e na tradução automática de áudio e
legendas de vídeos. É largamente utilizada para a previsão de dados baseada no histórico de variação
dos mesmos, pois é capaz de armazenar informações ao longo do tempo.
2.6.5 Redes neurais LSTM (Long Short Term Memory )

As redes neurais recorrentes possuem uma limitação chamada de vanishing gradiente que dificulta o
reconhecimento de alguns tipos de padrões e o treinamento da rede em alguns casos. Para solucionar
essa limitação foram desenvolvidas as redes LSTM que é uma arquitetura de rede neural recorrente
(RNN) capaz de lembrar valores em intervalos temporais arbitrários, por isso é capaz de processar e
prever séries temporais com intervalos de tempo de duração desconhecida extraindo informações do
contexto dos dados, algo que a rede neural recorrente básica não é capaz de executar. (KHUMPROM e
YODO, 2019).
Sua aplicação ocorre em reconhecimento de fala, tradução automática, análise de sentimentos e séries
temporais encontradas na engenharia, economia, saúde e outros.
2.6.6 Autoencoders
Autoencoders são um tipo de redes neurais artificiais, onde a entrada é igual à saída. Eles compactam a
entrada em um código de menor dimensão e em seguida reconstroem a saída dessa representação. O
código é um resumo ou compactação da entrada, ou seja, os autoencodificadores são um algoritmo de
redução de dimensionalidade e compactação de dados do mesmo tipo, como imagens de números
manuscritos ou fotografias. É um processo não supervisionado, ou seja, basta inserir os dados na

733
camada de entrada da rede e a mesma se encarrega de criar os rótulos dos dados fornecidos. Vale
lembrar que os dados compactados na saída não são exatamente como os mesmos fornecidos
inicialmente, existe uma degradação no processo de codificação (VEERARAGHAVAN, 2017).
As principais aplicações práticas dos Autoencoders é a remoção de ruídos em dados e a redução de
dimensionalidade para visualização de dados.
2.6.7 Redes neurais convolucionais
Redes Neurais Convolucionais são um tipo de algoritmo de aprendizagem profunda que realiza o
aprendizado com informações extraídas de imagens através de filtros, isso lhe permite aprender os
objetos presentes em uma imagem e discernir uma imagem entre outras diferentes (KHUMPROM,
2019).
Durante o treinamento inicial, os filtros podem exigir ajustes manuais mas com o progresso do
treinamento, a rede é capaz de se adaptar aos recursos aprendidos e desenvolver filtros próprios.
Sua principal aplicação é no reconhecimento de imagens para classificação, segmentação e localização
de objetos em imagens. Embora também possam ser utilizadas para análise de imagem de gráficos
como espectrograma de áudio, análise de dados gráficos e até mesmo associado a outras redes como
LSTM para reconhecimento de fala (KHUMPROM, 2019).
3.0 RESULTADO E DISCUSSÃO
Após a aquisição de dados elétricos básicos do acumulador, é possível estimar outros parâmetros úteis
como a capacidade real de carga como apresentado na figura 14. Quando esses dados são aplicados a
algoritmos de inteligência artificial e a seu devido período de aprendizagem, criam um modelo
computacional que é utilizado para realizar previsões temporais das reais capacidades da bateria, como
também levanta o perfil da carga alimentada pela bateria, visto que a vida útil da mesma está
diretamente ligada a suas condições de utilização.
Conforme as informações apresentadas no referencial teórico é concluído que mediante a necessidade
de aquisição e processamento dos dados de forma contínua no tempo, os melhores algoritmos de
inteligência artificial que podem ser aplicados para determinação da vida útil de baterias são aqueles
com capacidade de processamento de dados temporais, acompanhados dos algoritmos de classificação
os algoritmos de dados temporais podem fornecer recursos para a previsão da vida útil das baterias
bem como classifica-las em aptas ou não para continuarem em operação. Para isso os algoritmos de
classificação e regressão são os mais indicados.
Para uma maior precisão desses algoritmos são utilizados com os métodos listados na tabela 1.
Algoritmo Função Aplicação
Logica Fuzzy Determinação Avaliar se a bateria ainda possui condições de
utilização.
Rede Neural Analise temporal Avaliar os dados através do aprendizado contínuo dos
Recorrente dados para a previsão de valores
Tabela 1- Tipos de algoritmos de inteligência artificial indicados para a previsão da vida útil de
baterias.
Quando se utiliza as informações de teste e medição da bateria em conjunto com os algoritmos
apropriados é possível atingir excelentes resultados na previsão de envelhecimento de baterias (I.
BUCHMANN, 2020).

734
Como citado, a figura 1 representa um diagrama com as principais variáveis básicas de teste e medição
que são analisadas, bem como outras variáveis que são obtidas a partir das variáveis básicas.

4.0 CONCLUSÃO
O objetivo do trabalho é demonstrar as técnicas de inteligência artificial mais adequadas para
juntamente com informações de teste e medição, realizar a previsão da vida útil de baterias. Dessa
forma, foram apresentadas as principais técnicas de análise de condições funcionais de uma bateria,
onde as medições se corretamente avaliadas revelam as condições de desgaste da bateria. Diversas
técnicas de inteligência artificial podem ser utilizadas, evidentemente cada uma possui características
próprias que podem ou não serem mais adequadas para previsão de dados temporais, devido a esse
fato, são estudadas diversas técnicas de inteligência artificial que possibilitam a análise e previsão de
dados gerados por series temporais. Os algoritmos de logica fuzzy, regressão e redes neurais
recorrentes se mostraram os mais adequados para a presente aplicação. Mediante as informações
apresentadas algumas lacunas podem ser preenchidas futuramente, como uma combinação de vários
algoritmos de inteligência artificial para oferecer a melhor exatidão de previsão, ou a descoberta do
número de medições necessárias para realizar o treinamento do sistema e iniciar as previsões de vida
útil da bateria.

5.0 BIBLIOGRAFIA
Akerkar, Rajendra. Artificial intelligence for business. 1st. edition ed. New York, NY: Springer Science+Business Media,
2018.

I. Buchmann. Artificial intelligence reads battery state-of-health in three minutes - IEEE Conference Publication.
Disponível em: <https://ieeexplore.ieee.org/document/905135>. Acesso em: 29 abr. 2020.

Beard, K. W. Linden’s Handbook of Batteries, Fifth Edition. 5 edition ed. New York, NY: McGraw-Hill Education, 2019.

Blanke, H. Impedance measurements on lead acid batteries for state-of-charge, state-of-health and cranking capability
prognosis in electric and hybrid electric vehicles. Journal of Power Sources, v.144, ed. 2, 2005.

Belova, I. A. et al. Optimization of Artificial Neural Network Learning for Maximum Power Point Tracking After the
Degradation of the Solar Battery. 2019 20th International Conference of Young Specialists on Micro/Nanotechnologies and
Electron Devices (EDM). Anais... In: 2019 20TH INTERNATIONAL CONFERENCE OF YOUNG SPECIALISTS ON
MICRO/NANOTECHNOLOGIES AND ELECTRON DEVICES (EDM). jun. 2019

Chowdhary, K. R. FUNDAMENTALS OF ARTIFICIAL INTELLIGENCE. Place of publication not identified:


SPRINGER, INDIA, PRIVATE, 2020.

Cai, Y. et al. Prediction of lithium-ion battery remaining useful life based on hybrid data-driven method with optimized
parameter. 2017 2nd International Conference on Power and Renewable Energy (ICPRE). Anais... In: 2017 2ND
INTERNATIONAL CONFERENCE ON POWER AND RENEWABLE ENERGY (ICPRE). set. 2017

De Marchi, L.; Mitchell, L. Hands-on neural networks: learn how to build and train your first neural network model using
Python. Birmingham, Inglaterra. Packt Publishing, 2019.

Dudney, N. J.; West, W. C.; Nanda, J. (EDS.). Handbook of Solid State Batteries: 2nd Edition. 2nd Revised ed. edition ed.
New Jersey London Singapore Beijing Shanghai Hong Kong Taipei Chennai Tokyo: WSPC, 2015.

Enyong HU et al. Study on the aerial storage battery capacity testing method with the fuzzy neural network data fusion
technique. 2011 2nd International Conference on Artificial Intelligence, Management Science and Electronic Commerce
(AIMSEC). Anais... In: 2011 2ND INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE,

735
MANAGEMENT SCIENCE AND ELECTRONIC COMMERCE (AIMSEC). ago. 2011

Géron, A. Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: concepts, tools, and techniques to build
intelligent systems. Sebastopol: Canada: O’Reilly Media, 2019.

How, D. N. T. et al. State-of-Charge Estimation of Li-ion Battery in Electric Vehicles: A Deep Neural Network Approach.
2019 IEEE Industry Applications Society Annual Meeting. Anais... In: 2019 IEEE INDUSTRY APPLICATIONS
SOCIETY ANNUAL MEETING. set. 2019.

Huggins, R. Advanced Batteries: Materials Science Aspects. 2009 edition ed. New York ; London: Springer, 2008.

Joshi, N.; SAFARI, AN O. M. C. Hands-On Artificial Intelligence with Java for Beginners. Birmingham, Inglaterra. Packt
Publishing, 2018.

Khumprom, P.; Yodo, N. Data-driven Prognostic Model of Li-ion Battery with Deep Learning Algorithm. 2019 Annual
Reliability and Maintainability Symposium (RAMS). Anais... In: 2019 ANNUAL RELIABILITY AND
MAINTAINABILITY SYMPOSIUM (RAMS). jan. 2019.

Korthauer, R. (ED.). Lithium-Ion Batteries: Basics and Applications. 1st ed. 2018 edition ed. New York, NY: Springer,
2018.

LI, S. et al. Machine learning algorithm based battery modeling and management method: A Cyber-Physical System
perspective. 2019 3rd Conference on Vehicle Control and Intelligence (CVCI). Anais... In: 2019 3RD CONFERENCE ON
VEHICLE CONTROL AND INTELLIGENCE (CVCI). set. 2019.

Machine Learning Applied to Electrified Vehicle Battery State of Charge and State of Health Estimation: State-of-the-Art -
IEEE Journals & Magazine. Disponível em: <https://ieeexplore.ieee.org/document/9036949>. Acesso em: 29 abr. 2020.

Nazri, G.-A.; Pistoia, G. (EDS.). Lithium Batteries: Science and Technology. 2003 edition ed. New York, NY: Springer,
2009.

Plett, G. L. Battery Management Systems: 1. Edição: Unabridged edition ed. Boston : London: Artech House Publishers,
2015.

Rahn, C. D.; Wang, C.-Y.; Rahn. Battery Systems Engineering. Edição: 1 ed. Chichester, West Sussex, United Kingdom:
Wiley, 2013.

Root, M. The TAB Battery Book: An In-Depth Guide to Construction, Design, and Use. 1 edition ed. New York: McGraw-
Hill Education TAB, 2010.

Silva, E. L.; MENEZES, E. M. Metodologia da pesquisa e elaboração de dissertação. 4. ed. Florianópolis, 2005.

Veeraraghavan, A. et al. Battery aging estimation with deep learning. 2017 IEEE Transportation Electrification Conference
(ITEC-India). Anais... In: 2017 IEEE TRANSPORTATION ELECTRIFICATION CONFERENCE (ITEC-INDIA). dez.
2017.

You, W. et al. Predicting the Aging Rate of Capacity in Ni/H Battery Using Artificial Neural Network. 2009 Second
International Symposium on Computational Intelligence and Design. Anais... In: 2009 SECOND INTERNATIONAL
SYMPOSIUM ON COMPUTATIONAL INTELLIGENCE AND DESIGN. dez. 2009

Paredes Larroca, F. et al. Development of a Fuzzy Logic-Based Solar Charge Controller for Charging Lead–Acid Batteries.
In: NUMMENMAA, J. et al. (Eds.). . Advances and Applications in Computer Science, Electronics and Industrial
Engineering. Advances in Intelligent Systems and Computing. Cham: Springer International Publishing, 2020. v. 1078p.
168–183.

Plana-TC Manual do analisador Digital de Bateria c/ Impressora TBI-5000/I Disponível em:


<http://www.planatc.com.br/config/templates/pt_BR/manuais/MN11849.pdf>. Acesso em: 21 maio. 2020.

How does Depth of Discharge factor into Grid Connected battery systems? | CED Greentech. Disponível em:
<https://www.cedgreentech.com/article/how-does-depth-discharge-factor-grid-connected-battery-systems>. Acesso em: 25

736
maio. 2020.

ARTIFICIAL INTELLIGENCE IN BATTERY LIFE ANALYSIS

Abstract. Batteries are essential components for many electronic devices and systems, correctly
assessing their life cycle is important to avoid unnecessary changes and to predict possible failures
in the same. Although the prediction of battery life is useful information, it is still little explored in
commercial equipment and applications. Objective: This work aims to present the main battery
testing techniques and evaluate the applicability of certain artificial intelligence algorithms for an
efficient evaluation of the data obtained in the tests, and consequently the correct prediction of the
useful life of these components. Methodology: This work was done in 2 steps. The first is the
analysis of the main electrical variables used for battery evaluation and testing. In the second
stage, some artificial intelligence algorithms and their possible application in the prediction of
battery life were analyzed , so that the methodology can be applied regardless of the type of battery
used . Results: Based on the data survey, it was possible to identify the most suitable artificial
intelligence algorithms for processing the information obtained from the test variables and,
consequently, a correct battery life forecast. Conclusion: Although there is a wide variety of
computational intelligence algorithms, only a portion is adequate for the processing of temporal
data and the correct analysis of battery life.

Keywords: Artificial Intelligence, Electrical Testing, Battery Degradation, Forecasting Life.

737
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

UM MÉTODO IMPLÍCITO DE DIREÇÕES ALTERNADAS APLICADO À


SOLUÇÃO DO PROBLEMA DE CONVECÇÃO NATURAL

Rodrigo Perobeli Silva Costa 1 - rodrigo.costa2015@engenharia.ufjf.br


Iury Igreja1 - iuryigreja@ice.ufjf.br
1 Programa de Pós-Graduação em Modelagem Computacional, Universidade Federal de Juiz de Fora -
Juiz de Fora, MG, Brasil.

Abstract. Este trabalho propõe uma abordagem numérica pelo método implı́cito de direções
alternadas (ADI) para o problema de convecção natural. Esse problema é governado pelas
equações de Navier-Stokes incluindo os efeitos da temperatura pela relação de Boussinesq. O
problema em questão é reescrito em termos da função corrente e da vorticidade e é incluı́do
termos temporais às equações com o intuito de gerar um problema pseudo transiente. As
equações resultantes são discretizadas pelo método ADI dando origem a uma aproximação de
segunda ordem no tempo e no espaço. A aproximação em regime estacionário é obtida através
de um processo iterativo que tem como estratégia de convergência o uso de resı́duos associados
às equações do problema modelo. Simulações numéricas são realizadas empregando a
metodologia proposta na resolução do problema da cavidade quadrada variando certas
propriedades do modelo. Os resultados numéricos obtidos são comparados com benchmarks
da literatura onde é possı́vel validar a metodologia proposta.

Keywords: Método ADI, Convecção natural, Problema da cavidade, Equações de Navier-


Stokes, Problema de Boussinesq.

1. INTRODUÇÃO

O problema tratado no presente trabalho é a convecção natural de um fluido enclausurado


em uma cavidade, havendo diferença de temperatura nas paredes do fluido. Devido à mudança
de densidade causada pela temperatura, há um rearranjo do equilı́brio do fluido dentro da
cavidade. Nesse novo equilı́brio, o fluido, antes estagnado, assume velocidades e gera vórtices.
Esse comportamento tem sido estudado devido à diversas aplicações, dentre elas: sistemas de
reatores nucleares, armazenamento e conservação de energia, boilers, indústria metalúrgica,
dentre outros (Roy & Basak, 2005).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

738
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O problema em questão foi tratado por Vahl Davis (1983), que o resolveu usando um método
de falso transiente em Mallinson & Vahl Davis (1973) e desenvolveu uma série de resultados
que são usados até hoje como benchmark para esse problema. Posteriormente, um método de
quadratura diferencial (DQ Method) foi utilizado por Lo et al (2007) para resolver também o
problema de convecção natural. Outras abordagens são utilizadas por Türk (2014), que se vale
do método de elementos finitos (FEM) e do Chebyshev spectral collocation method (CSCM)
para encontrar soluções em cavidades quadradas.
O propósito do presente trabalho é estender o trabalho desenvolvido por Erturk et al (2005),
através da inclusão da temperatura e da conservação de energia para descrever o problema de
convecção natural. No trabalho proposto por Erturk et al (2005) é empregado o método implı́cito
de direção alternada (ADI) para aproximar as equações de Navier-Stokes escritas em termos da
função corrente e vorticidade e simular o problema da cavidade (lid-driven cavity flow). Nesse
contexto, incluı́mos os efeitos da temperatura nesse sistema através da relação de Boussinesq
para simular o problema da convecção natural em uma cavidade quadrada.
Assim, para discretizar as equações empregamos o método implı́cito de direções alternadas
(Alternating Direction Implicit – ADI) desenvolvido por Peaceman (1954). O método ADI
apresenta um menor custo computacional, devido ao seu stencil gerar matrizes tridiagonais,
mesmo em problemas em 2 ou 3 dimensões, e também ao fato de ser incondicionalmente
estável (por Von Neumann (Thomas, 2013), não restringindo as escolhas do passo temporal
ao espacial, além de apresentar convergência quadrática no espaço e no tempo. Dessa forma,
propomos uma discretização de segunda ordem pelo método ADI utilizando uma estratégia
pseudo transiente que tem sua convergência para o regime estacionário controlado por resı́duos
discretos associados às equações do modelo. Os resultados numéricos obtidos pela metodologia
proposta são validados a partir da comparação com benchmarks extraı́dos da literatura.

2. PROBLEMA MODELO

O problema do escoamento gerado pela convecção natural consiste em uma dinâmica


associada a variação de temperatura que induz o movimento do fluido devido aos efeitos
de empuxo provocados pela variação da densidade causada pela temperatura. O sistema de
equações que governam o problema de convecção natural em regime permanente é composto
pelas equações de Navier-Stokes combinada com a equação da conservação de energia que
inclui os efeitos da temperatura sobre a densidade através da relação de Boussinesq. Assim,
definindo Ω ⊂ R2 como um domı́nio com contorno ∂Ω e supondo o fluido Newtoniano e
incompressı́vel, podemos apresentar este sistema como segue

∂u ∂v
+ =0


∂x ∂y


  2
∂ v ∂ 2u
 

 ∂u ∂v 1 ∂p
u

 +v =− +γ 2
+ 2
∂x ∂y ρ ∂y  ∂x ∂y 
∂u ∂v 1 ∂p ∂ v ∂ 2u
2 em Ω. (1)

 u +v =− +γ + + gβ(T − Tc )
∂x ∂y ρ∂y ∂x2 ∂y 2



∂ 2T ∂ 2T

 ∂T
 ∂T
u +v =α +


∂x ∂y ∂x2 ∂y 2

Onde os parâmetros γ, g, α e β denotam a viscosidade cinemática do fluido, a aceleração


da gravidade, a difusividade térmica e o coeficiente de expansão térmica, respectivamente.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

739
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Buscando adimensionalizar o sistema. (1), definimos um comprimento de referência L, a


velocidade de transporte do termo convectivo U ~ = (u, v) e as temperaturas de referência nas
paredes do domı́nio Th e Tc , com Th > Tc , para gerar as seguintes relações
x y uL vL pL2 T − Tc
x∗ = , y∗ = , u∗ = , v∗ = , p∗ = , T∗ = . (2)
L L α α α2 ρ Th − Tc
Assim, substituindo as relações adimensionais (2) no sistema (1) derivamos o seguinte problema
adimensional
 ∗
∂u ∂v ∗
+ =0


∂x∗ ∂y ∗



∗ ∗ ∗
  2 ∗ 2 ∗


 ∂u ∗ ∂v ∂p ∂ v ∂ u
u ∗ + v = − ∗ + Pr +


∂x ∂y ∗ ∂x ∂x∗2 ∂y ∗2 
∗ ∗
∂p∗

∂ 2 v ∗ ∂ 2 u∗ . (3)
∗ ∂u ∗ ∂v ∗
u + v = − + P r + + RaP rT


 ∂x∗

 ∂y ∗ ∂y ∗ ∂x∗2 ∂y ∗2
∗ ∗ 2 ∗ 2 ∗

 ∂T ∂T ∂ T ∂ T
u∗ ∗ + v ∗ ∗ =

+


∂x ∂y ∂x ∗2 ∂y ∗2
Onde P r e Ra correspondem aos números adimensionais de Prandtl e Rayleigh,
respectivamente, que podem ser definidos como
γ gβ(Th − Tc )L3
Pr = , Ra = . (4)
α αγ
Com o intuito de simplificar a notação, deste ponto em diante, o sobrescrito “*” será
negligenciado.
Utilizando as relações da vorticidade ω e da função corrente ψ com a velocidade, dadas por
∂v ∂u ∂ψ ∂ψ
ω= − e u= , v= , (5)
∂x ∂y ∂y ∂x
podemos reescrever o problema (3) em função da vorticidade e da função corrente, como segue
(Vahl Davis, 1983)

2
∇ ψ = −ω,


 ∂ψ ∂T
 ∂ψ ∂T
− = ∇2 T, (6)
∂y ∂x ∂x ∂y
∂ψ ∂ω ∂ψ ∂ω ∂T


− = P r∇2 ω + RaP r



∂y ∂x ∂x ∂y ∂x
Para o caso particular do problema da cavidade quadrada, a solução desse sistema supõe que
o fluido se encontra estagnado nas paredes da cavidade (ψ = ∇ψ · ~n = 0 sobre ∂Ω), onde em
2 paredes opostas são impostas temperaturas diferentes (Tc sobre ∂Ωc e Th sobre ∂Ωh ) e as 2
paredes restantes são tratadas como adiabáticas (∇T · ~n = 0 sobre ∂Ωa ), onde ~n denota o vetor
unitário normal exterior à ∂Ω e ∂Ω = ∂Ωh ∪ ∂Ωc ∪ ∂Ωa com ∂Ωh ∩ ∂Ωc ∩ ∂Ωa = ∅.

3. ABORDAGEM NUMÉRICA

Neste trabalho vamos propor uma técnica de resolução numérica para o sistema (6) baseada
em uma extensão dos resultados apresentados por Erturk et al (2005), que empregou uma

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

740
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

discretização pelo método implı́cito de direções alternadas (Alternating Direction Implicit


– ADI) para resolver o problema de Navier-Stokes escrito nas variáveis função corrente e
vorticidade. Neste contexto, modificamos as Eqs. (6) para permitir o uso de uma abordagem
pseudo transiente através da inclusão dos seguintes termos associados as suas respectivas
equações
1 ∂ψ 1 ∂ω 1 ∂T
, e . (7)
αψ ∂t αω ∂t αT ∂t

Assim, quando t → ∞ o problema estacionário é recuperado. Os parâmetros αψ , αω e αT são


usados para controlar a estabilidade e a taxa de aproximação ao estado estacionário (para mais
detalhes ver Mallinson & Vahl Davis (1973)).
O método ADI consiste em uma resolução em 2 passos: no passo temporal n + 1/2 é
resolvido o problema de forma implı́cita em x e explı́cita em y, no segundo passo em n + 1 o
problema se inverte, é resolvido de forma implı́cita em y e explı́cita em x. Assim, dada uma
condição inicial para y a solução em x é encontrada no primeiro passo e gera um resultado
intermediário que é usado para a solução em y. A aplicação dessa metodologia no problema de
convecção natural é feita empregando esses 2 passos para cada uma das equações do modelo
Eqs. (6) incluindo os termos transientes Eq. (7).
As discretizações pelo método ADI, para o problema da convecção natural, são apresentadas
a seguir.

3.1 Discretização do Problema Modelo

Para introduzir a discretização do modelo (6) pelo método ADI, definimos o domı́nio
espacial Ω = [ax , bx ] × [ay , by ] particionado nas direções horizontal e vertical em partes iguais
δx = (bx − ax )/(I − 1) e δy = (by − ay )/(J − 1), respectivamente, dando origem a uma
malha com I elementos na direção x e J elementos na direção y, que podem ser localizados
respectivamente por xi = ax + iδx, i = 0, 1, 2, ..., I, e yj = ay + jδy, j = 0, 1, 2, ..., J. Além
disso, definimos tn = nδt, com n = 0, 1, 2, ..., onde δt denota o passo temporal.
Discretizações por diferença central são empregadas para aproximar os operadores
laplaciano e gradiente que são, em ambos os casos, aproximações de segunda ordem. Essa
escolha visa manter a convergência de segunda ordem no tempo e no espaço. Neste contexto,
empregando o esquema ADI no sistema (6), pode ser escrito como
função corrente
n+1/2 n n+1/2 n+1/2 n+1/2 n n n
1 ψi,j − ψi,j ψi+1,j − 2ψi,j + ψi−1,j n
ψi,j+1 − 2ψi,j + ψi,j−1
− = ωi,j +
αψ δt/2 δx2 δy 2
n+1/2 n+1/2 n+1 n+1 n+1 n+1/2 n+1/2 n+1/2
1 ψi,j − ψi,j ψi,j+1 − 2ψi,j + ψi,j−1 n
ψi+1,j − 2ψi,j + ψi−1,j
− 2
= ωi,j +
αψ δt/2 δy δx2

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

741
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

temperatura
n+1/2 n n+1 n+1 n+1/2 n+1/2 n+1/2 n+1/2 n+1/2
1 Ti,j − Ti,j (ψi,j+1 − ψi,j−1 )(Ti+1,j − Ti−1,j ) (Ti+1,j − 2Ti,j + Ti−1,j )
+ −
αT δt/2 4δxδy δx2
n+1 n+1 n n n n n
(ψi+1,j − ψi−1,j )(Ti,j+1 − Ti,j−1 ) (Ti,j+1 − 2Ti,j + Ti,j−1 )
= + 2
4δyδx δy
n+1 n+1/2 n+1 n+1 n+1 n+1 n+1 n+1 n+1
1 Ti,j − Ti,j (ψi+1,j − ψi−1,j )(Ti,j+1 − Ti,j−1 ) (Ti,j+1 − 2Ti,j + Ti,j−1 )
− − 2
αT δt/2 4δxδy δy
n+1 n+1 n+1/2 n+1/2 n+1/2 n+1/2 n+1/2
(ψi,j+1 − ψi,j−1 )(Ti+1,j − Ti−1,j ) (Ti+1,j − 2Ti,j + Ti−1,j )
=− +
4δyδx δx2
vorticidade
n+1/2 n n+1 n+1 n+1/2 n+1/2 n+1/2 n+1/2 n+1/2
1 ωi,j − ωi,j (ψi,j+1 − ψi,j−1 )(ωi+1,j − ωi−1,j ) (ωi+1,j − 2ωi,j + ωi−1,j )
+ − Pr 2
αω δt/2 4δyδx δx
n+1 n+1 n n n n n n+1 n+1
(ψi+1,j − ψi−1,j )(ωi,j+1 − ωi,j−1 ) (ωi,j+1 − 2ωi,j + ωi,j−1 ) Ti+1,j − Ti−1,j
= + Pr + RaP r
4δxδy δy 2 2δx
n+1 n+1/2 n+1 n+1 n+1 n+1 n+1 n+1 n+1
1 ωi,j − ωi,j (ψi+1,j − ψi−1,j )(ωi,j+1 − ωi,j−1 ) (ωi,j+1 − 2ωi,j + ωi,j−1 )
− − Pr
αω δt/2 4δxδy δy 2
n+1 n+1 n+1/2 n+1/2 n+1/2 n+1/2 n+1/2 n+1 n+1
(ψi,j+1 − ψi,j−1 )(ωi+1,j − ωi−1,j ) (ωi+1,j − 2ωi,j + ωi−1,j ) Ti+1,j − Ti−1,j
=− + Pr + RaP r
4δyδx δx2 2δx
Por simplicidade, adotamos neste trabalho um espaçamento fixo e de mesma dimensão h
entre dois nós consecutivos da malha nas direções x e y, ou seja, h = δx = δy. Além disso,
definimos os seguintes coeficientes que são usados para simplificar a apresentação do problema
discreto
n+1 n+1
δt 1 n+1 n+1 1 n+1 n+1
Ti+1,j − Ti−1,j
σ = 2; ρx = (ψi+1,j −ψi−1,j ); ρy = (ψi,j+1 −ψi,j−1 ); Θx = . (8)
2h 4 4 2δx
A partir das definições Eq. (8), podemos reescrever as discretizações para a função corrente,
temperatura e vorticidade como segue
função corrente

n+1/2 n+1/2 n+1/2 δt n n n n


(1/αψ +2σ)ψi,j −σ(ψi+1,j −ψi−1,j ) = ω +(1/αψ −2σ)ψi,j +σ(ψi,j+1 −ψi,j−1 ) (9)
2 i,j

n+1 n+1 n+1 δt n n+1/2 n+1/2 n+1/2


(1/αψ +2σ)ψi,j −σ(ψi,j+1 −ψi,j−1 )= ωi,j +(1/αψ −2σ)ψi,j +σ(ψi+1,j −ψi−1,j ) (10)
2
temperatura
n+1/2 n+1/2 n+1/2
n
(1/αT + 2σ)Ti,j − σ(ρy + 1)Ti−1,j + σ(ρy − 1)Ti+1,j = (1/αT − 2σ)Ti,j
n n
(11)
+ σ(ρx + 1)Ti,j+1 + σ(1 − ρx )Ti,j−1

n+1 n+1 n+1 n+1/2


(1/αT + 2σ)Ti,j + σ(ρx − 1)Ti,j−1 − σ(ρx + 1)Ti,j+1 = (1/αT − 2σ)Ti,j
n+1/2 n+1/2
(12)
+ σ(1 − ρy )Ti+1,j + σ(1 + ρy )Ti−1,j

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

742
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

vorticidade
n+1/2 n+1/2 n+1/2
n
(1/αω + 2P rσ)ωi,j + σ(ρy − P r)ωi+1,j − σ(ρy + P r)ωi−1,j = σ(ρx + P r)ωi,j+1
n n
(13)
+ (1/αω − 2P rσ)ωi,j + σ(P r − ρx )ωi,j−1 + RaP rΘx
n+1 n+1 n+1 n+1/2
(1/αω + 2P rσ)ωi,j − σ(ρx + P r)ωi,j+1 + σ(ρx − P r)ωi,j−1 = σ(P r − ρy )ωi+1,j
n+1/2 n+1/2
(14)
+ (1/αω − 2P rσ)ωi,j + σ(P r + ρy )ωi−1,j + RaP rΘx

3.2 Estratégia de resolução

As discretizações apresentadas nas Eqs. (9)–(14) definem o problema aproximado para cada
uma das 3 equações, que são acopladas, para resolução do problema de convecção natural. A
estratégia de resolução empregada neste trabalho para este problema consiste em:
0 0 0
Dadas as condições iniciais ωi,j , ψi,j , Ti,j , para cada iteração no tempo em que o critério de
parada relacionado aos resı́duos Eqs. (15), (16) e (17) não é satisfeito, repete-se, na seguinte
ordem, os passos:
n n+1/2
• Dado ωi,j , encontrar ψi,j pela Eq. (9);
n n+1/2 n+1
• Dados ωi,j e ψi,j , encontrar ψi,j pela Eq. (10);
n n+1 n+1/2
• Dados Ti,j e ψi,j , encontrar Ti,j pela Eq. (11);
n+1 n+1/2 n+1
• Dados ψi,j e Ti,j , encontrar Ti,j pela Eq. (12);
n n+1 n+1 n+1/2
• Dados ωi,j , ψi,j e Ti,j , encontrar ωi,j pela Eq. (13);
n+1/2 n+1 n+1 n+1
• Dados ωi,j , ψi,j e Ti,j , encontrar ωi,j pela Eq. (14);
• Calculam-se os resı́duos de corrente, temperatura e vorticidade e repete-se o processo
caso não sejam atendidos os critérios de parada.
Os resı́duos relacionados às equações da função corrente Rψ , temperatura RT e vorticidade
Rω são dados por
n+1 n+1 n+1 n+1 n+1 n+1
ψi+1,j − 2ψi,j + ψi−1,j ψi,j+1 − 2ψi,j + ψi,j−1 n+1
Rψ = + + ωi,j , (15)
h2 h2
n+1 n+1 n+1 n+1 n+1 n+1 n+1 n+1
(ψi,j+1 − ψi,j−1 )(Ti+1,j − Ti−1,j ) (ψi+1,j − ψi−1,j )(Ti,j+1 − Ti,j−1 )
RT = − +
4h2 4h2 (16)
n+1 n+1 n+1 n+1 n+1 n+1
Ti+1,j − 2Ti,j + Ti−1,j Ti,j+1 − 2Ti,j + Ti,j−1
+ + ,
h2 h2
n+1 n+1 n+1 n+1 n+1 n+1 n+1 n+1
1 (ψi,j+1 − ψi,j−1 )(ωi+1,j − ωi−1,j ) 1 (ψi+1,j − ψi−1,j )(ωi,j+1 − ωi,j−1 )
Rω = − +
Ra 4h2 Ra ! 4h
2
n+1 n+1 n+1 n+1 n+1 n+1 n+1 n+1 (17)
P r ωi+1,j − 2ωi,j + ωi−1,j ωi,j+1 − 2ωi,j + ωi,j−1 Ti+1,j − Ti−1,j
+ + + Pr .
Ra h2 h2 2h
A magnitude desses resı́duos indicam o quão próximo a solução aproximada está do regime
estacionário. No limite, esses resı́duos seriam zero. Em nossos cálculos, para todos os
números de Rayleigh adotados nas simulações, consideramos que a convergência foi alcançada
quando para cada Equação (15), (16) e (17) o máximo valor absoluto do resı́duo no domı́nio
computacional max(|Rψ |), max(|RT |) e max(|Rω |) for menor que 10−6 .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

743
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. RESULTADOS NUMÉRICOS

Nesta seção a metodologia numérica desenvolvida na Seção 3. é validada através de


simulações do problema da cavidade considerando diferentes valores do número de Rayleigh. A
Figura 1 descreve o domı́nio Ω da cavidade, bem como as condições de contorno relacionadas
a função corrente e temperatura impostas sobre ∂Ω. Neste caso, para a função corrente e a
vorticidade são prescritas condições de Dirichlet sobre ∂Ω, com ψ = 0 e
n n
n
ψI−1,j n
ψ1,j
ωI,j = −2 ; ω0,j = −2 , j = 0, 1, 2, ..., J
h2 h2 . (18)
n n
n
ψi,J−1 n
ψi,1
ωi,J = −2 2 ; ωi,0 = −2 2 , i = 0, 1, 2, ..., I
h h
Para a temperatura, condições de Dirichlet são prescritas, com T = 1 na fronteira esquerda
e T = 0 na fronteira direita e condições de contorno do tipo Neumann, ∂T /∂y = 0, para
indicar uma fronteira adiabática nas fronteiras superior e inferior do domı́nio. A condição
0 0 0
inicial empregada nas simulações foi ψi,j = ωi,j = Ti,j = 0.

Figure 1- Domı́nio do problema e as condições de contorno, Türk (2014).

Nas simulações numéricas foram adotadas discretizações de 81x81 elementos e passo


temporal δt = h2 , o número adimensional de Prandtl foi fixado em 0.7 em todas as simulações,
enquanto que os números de Rayleigh adotados foram 103 , 104 , 105 e 106 . Para garantir a
estabilidade e convergência para o regime estacionário da metodologia desenvolvida, os valores
de αk , com k = ψ, T, ω, adotados para cada escolha do número de Rayleigh são apresentados
na Tabela 1.

Table 1- Parâmetros α para cada número de Rayleigh.

Ra αψ αT αω
103 1 1 1
104 1 1 1
105 0.1 0.5 0.5
106 0.1 0.5 0.01

As Figuras 2, 3, 4 e 5 apresentam os resultados numéricos da função corrente, temperatura


e vorticidade obtidos para diferentes números de Rayleigh, 103 ≤ Ra ≤ 106 .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

744
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Fig. 2 é mostrado o escoamento com predominância das forças viscosas, a medida


que Ra aumenta (Figs. 3, 4 e 5), aumenta também a influência do termo convectivo devido
a ação da temperatura, e com isso observa-se um comportamento de criação de vórtices e
uma distorção elı́ptica na função corrente, bem como uma distribuição mais horizontal para
as temperaturas. Os resultados obtidos mostram uma boa concordância com os apresentados
em outras referências da literatura, como pode ser visto, por exemplo, em Vahl Davis (1983),
Lo et al (2007) e Türk (2014).
Função Corrente Pr=0.7Ra =1000 Vorticidade Pr=0.7Ra =1000 Temperatura Pr=0.7Ra =1000
1 0 0 1 30 40 1
20
20 10
0.9 -0.1 -0.1 0.9 0.9

1
10

0.1
0.9

0.2
-0.2

0.8

0.3
0.7

0.4
0.6
0

0.5
-0.3 0
2
-0. -0.4
10
0.8 0.8 -10 0.8

20
-0.5
20

0.6 -0.

10
-0.8 -20
-0 .6

0
0.7 - 7 0.7 0.7
-0
.5

-0.3

-0.9
0

0
-0.4
7

30

0.6 0.6 0.6


-0.3

-0.

-1

-10
40

50
-1.1
-0.1

-10
-0.2
-0.4
Y

Y
0.5 0.5 0.5
-0.1

-20
50

40
-3
0
-30
-0.8

-1

0.4 0.4 0.4

30

0.6

0.5
0.7
9

0.4
-0. 0.8

0.8

0.3
-0.2

0.9

0.2
1

0.1
-0.9 - -20
0

-0

0.3 0.3 0.3


10
.5

-0.6
-0.7 -0.6 -0.5

20
20

0.2 0.2 -10 0.2


-0.4 -0.3 0

10
-0.3 -0.4 0
0
-0.2
0

0.1 -0.1 -0.2 0.1 10 0.1


-0.1 20
10
20 40 30
0 0 0 0 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
X X X

Figure 2- Solução aproximada da função corrente (esquerda), vorticidade (centro) e temperatura (direita)
para uma cavidade quadrada adotando Ra = 103 .

Função Corrente Pr=0.7Ra =10000 Vorticidade Pr=0.7Ra =10000 Temperatura Pr=0.7Ra =10000
1 0 0 1 200 150 0 1
150 10 50
-0.5 100 0

0.3
0.7
0.9 0.9 50 0.9
1

0.6

0.4

0.1
-0.5

0.5
-1
0.9

0.8
0

-1.5

0.2
0
50 00

150

-2
0.8 0.8 0.8
100
-1

-2.5 -2. -5
0
5 -50
-3.5 -3
50
-0.5

0.7
-2

0.7 0.7 0.7


-1.5

-3 -4 -100
0

0
-1.5

-1

0.6
400350
-50
2025

0.6 0.6 0 0.6


-3.5

-10
5

0 0
-4.

-5
300

0.8
300
Y

0.5 0.5 0.5 0.5


-2

350400

2520
-4.5

0 0
0
-10

0.4 0.4 00 0.4 0.4


-0.5

-4 -1 3
0.
0.9

0.5

-4
0.6
1

4
0.

0.1
-2
0

0.3 0.3 0.3


50

2
.5

0.
-3.5 -3 .5
0.7

-3
-1

-50

-2
100

10

-2 0.3
150

0.2 0.2 -50 -50 0.2


0

-1.5 -2 -1.5 .5
50

-1 -0 0
0

-1
0

0.1 0.1 0 50 0.1


-0.5 100
50 0 150
10150
0 0 0 0 200 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
X X X

Figure 3- Solução aproximada da função corrente (esquerda), vorticidade (centro) e temperatura (direita)
para uma cavidade quadrada adotando Ra = 104 .

Função Corrente Pr=0.7Ra =100000 Vorticidade Pr=0.7Ra =100000 Temperatura Pr=0.7Ra =100000
1 0 0 1 500 1
-1 500 300
0.3
0.7

300
0.5
0.6

0.4

-2 -1 9 0.8
0.
0.2

0.9 0.9 0 0.9


1

0.1

-2
0

-3 00
305000

-4
-500

-2 0 8
-3

0.8 -7 -6 -5 0.8 0.8 0.


0 -200
500
-3

300
-4
-5-4

-50

-6 0.7
0.7 0.7 0.7
0

0.7

-7
-1

0
-8

0.6
-200
-5

00
-2

-8
-2
0

0.6 -9 0.6 0.6 0.6


-1

2000
-6

0.5
2000
-9
Y

0.5 0.5 0.5


-2

0.5
0.4 0.4 0.4 0.4
0.8 0.9
-500

0.3
4
-7

-8
0.

-9
-8

0.2
-9

1
-500-200

0.1
0

0.3 0.3 0.3


300

0.3
-3

500

-6
-7

-5 -7
0

-2
503000

-4 -6
-20

0.2 0.2 00 0.2


0.6
0.5
0.4
-3
-4

-5 0
0.7

-5
0

0.3

-3 -4
0
-20
0
-1

0.1 -2 -2 0.1 0.1 0.2


-1 -1 -2 300
0

0 500
0 0 0 0 500300 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
X X X

Figure 4- Solução aproximada da função corrente (esquerda), vorticidade (centro) e temperatura (direita)
para uma cavidade quadrada adotando Ra = 105 .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

745
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Função Corrente Pr=0.7Ra =1000000 Vorticidade Pr=0.7Ra =1000000 Temperatura Pr=0.7Ra =1000000
1 0 0 1 1
2000
-4 -2 -2 -500 500 9
-8-6 -70
0 500 300 0. 0.8

0.2
0.9 0.9 0.9

1
-4

0.5
0.4
300

0.6
-10500

0.3
0

0.7
0.1
00

-700-2000
0

-6 0

2000
0
-10

-8 0.7 0.8

30

0.8
0

-1000 00
0.8 -10 0.8 0.8

-500
-1000
2000
-12

-20
-2

-10
-12
-14 -12

00

0
-500

000
-14

0500
0.7

-6-8
0.7 -14 0.7 0.7

00
0

-7-50
-7
-4

-1

300
-4

-2
0.6 -16 -16 0.6 0.6 0.6 0.6
-16

-2000
0

-2000

0
-8 -6

0.5
Y

Y
0.5 0.5 0.5 0.5

-500
500 -700
0.4 0.4 0.4

1 0.9
-16 0.4

0.60.7

0.2
0.4

0-1000

0.4

0.3
0.5

0.1
-10-700 -2000
0

0.3 0.3 0.3 0.3


-10

-14

2000
0.3

-16

300
0

0
-1 6

-1000-2000
-12

0.8
-1
-12

00
-8 -1-142

-500
-500
-1

-10 -7010000

2000
-4 -6 0
-2

0.2 0.2 0.2

-500 0
4

0
-8 - 0.2

3000500
0
-6 300 0.2

0 -7
0.1 -4 -6 -8 0.1 0.1
-4 500
-2 -2 0 500
-2 30 2000
0 0 0 0 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
X X X

Figure 5- Solução aproximada da função corrente (esquerda), vorticidade (centro) e temperatura (direita)
para uma cavidade quadrada adotando Ra = 106 .

Buscando validar e demonstrar a precisão e estabilidade da metodologia numérica proposta,


desenvolvemos um estudo relacionado ao número de Nusselt. O número de Nusselt é um
parâmetro que fornece uma medida de transferência de calor por convecção em uma dada
superfı́cie (Incropera et al (2008)). Neste contexto, é realizado uma comparação entre o método
proposto e os resultados desenvolvidos por Vahl Davis (1983) relacionado ao número de Nusselt
médio (N uavg ) obtido pela equação
Z 1
∂T
N uavg = dx. (19)
0 ∂y

Esta comparação é apresentada na Tabela 2 utilizando os resultados apresentados em Vahl Davis


(1983) como um benchmark, onde é explicitado o erro percentual. Nota-se que a metodologia
proposta apresenta um comportamento satisfatório, com erros menores que 1% em relação ao
benchmark escolhido.

Table 2- Comparação do número de Nusselt para diferentes Ra.

Ra ADI Benchmark Erro %


Malha 81x81 81x81 81x81
103 1.118 1.118 0
104 2.248 2.243 0.22
105 4.537 4.519 0.398
106 8.792 8.8 0.09

5. CONCLUSÕES

Nesse trabalho foi desenvolvida uma metodologia numérica para resolver o problema de
convecção natural em uma cavidade quadrada. Essa abordagem buscou estender o trabalho
de Erturk et al (2005), desenvolvido para as equações de Navier-Stokes, para o problema
de Boussinesq. Neste contexto, utilizando uma estratégia pseudo temporal, foi empregado o
método implı́cito de direções alternadas ADI, devido ao seu baixo custo computacional, para
resolver este problema. As simulações computacionais demonstraram grande proximidade
com um benchmark da literatura, apresentando erros menores do que 1%, que validam a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

746
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

abordagem proposta. Em trabalhos futuros, propõe-se o aprofundamento da relação dos α’s


com a estabilidade e convergência do método ADI. Propõe-se também a introdução de novos
efeitos fı́sicos ao problema, como campos magnéticos para verificar sua influência e sua relação
com as equações apresentadas nesse trabalho.

Agradecimentos

Este estudo foi parcialmente financiado pela Coordenação de Aperfeiçoamento de Pessoal


de Nı́vel Superior - Brasil (CAPES) - Código Financeiro 001. Este trabalho também foi
parcialmente apoiado pelo CNPq e UFJF.

REFERÊNCIAS

Erturk, E., Corke, T. C. e Gökçöl, C. (2005), “Numerical solutions of 2-D steady incompressible driven
cavity flow at high Reynolds numbers”. International journal for Numerical Methods in fluids, vol.
48(7), 747-774.
Incropera, F. P., Dewitt, D. P., Bergman, T. L. e Lavine A. S. (2008), “Fundamentos de Transferência de
Calor e de Massa” 6o ed., Rio de Janeiro: LTC.
de Vahl Davis, G. (1983), “Natural convection of air in a square cavity: a bench mark numerical
solution.” International Journal for numerical methods in fluids, vol. 3(3), 249-264.
Lo, D. C., Young, D. L., e Tsai, C. C. (2007), “ High resolution of 2D natural convection in a cavity by
the DQ method.” Journal of computational and applied mathematics, vol. 203(1), 219-236.
Mallinson, G. D. e de Vahl Davis, G. (1973), “The method of the false transient for the solution of
coupled elliptic equations.” Journal of Computational Physics, vol. 12(4), 435-461.
Peaceman, D. W. e Rachford Jr, H. H. (1955), “The numerical solution of parabolic and elliptic
differential equations”. Journal of the Society for industrial and Applied Mathematics, vol 3(1), 28-41.
Roy, S. e Basak, T. (2005), “Finite element analysis of natural convection flows in a square cavity with
non-uniformly heated wall (s)”, International Journal of Engineering Science, vol. 43(8-9), 668-680.
Thomas, J. W. (2013),“Numerical partial differential equations: finite difference methods”, vol. 22,
Springer Science & Business Media.
Türk, Ö. (2014), “FEM solutions of magnetohydrodynamic and biomagnetic fluid flows in channels”,
Tese de Doutorado, Department of Scientific Computing, Middle East Technical University.

AN ALTERNATING DIRECTION IMPLICIT METHOD APPLIED TO A NATURAL


CONVECTION FLOW SOLUTION

Abstract. This paper proposes a numerical approach by the Alternating Direction Implicit
(ADI) for the natural convection flow problem. This problem’s governing equations are the
Navier-Stokes equations, including the buoyancy forces based on the Boussinesq relation. This
problem has been rewritten in terms of the stream function and the vorticity and is included
temporal terms to these equations in order to generate a pseudo-transient problem. The
resulting equations are discretized by the ADI method generating a second-order approximation
in time and space. The steady approximation is obtained by an iterative process that has,
as a convergency strategy, the usage of residual elements associated with the model problem
equations. Numerical simulations are performed using the proposed methodology to solve
the square cavity flow problem, varying specific model’s properties. The results obtained
are compared with the literature’s benchmarks, where it is possible to validate the proposed
methodology.

Keywords: ADI method, Natural convection, Cavity flow problem, Navier-Stokes equations,
Boussinesq problem.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

747
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO MICROESTRUTURAL DA SUPERFÍCIE DA FIBRA DE COCO APÓS


O TRATAMENTO VIA RADIAÇÃO ULTRAVIOLETA (UV)

Géssica da Silva Nicolau1 – gessica.nicolau@ime.eb.br


Ricardo Pondé Weber1 – rpweber@ime.eb.br
1
Istituto Militar de Engenharia - IME, Praça General Tibúrcio 80, URCA, 22290-270, Rio de Janeiro,
RJ, Brazil

Resumo. No Brasil há um elevado consumo de água de coco, gerando assim uma grande
quantidade de fibras de coco. As fibras naturais, por estarem expostas ao meio ambiente,
podem sofres diversos tipos de degradação. Um tipo de degradação é a fotoquímica
provocada pela radiação ultravioleta (UV), gerando mudanças em sua estrutura química e
morfológicas. O presente trabalho tem como objetivo avaliar as mudanças ocasionadas na
superficie da fibra de coco quando exposto à radiação ultravioleta (UV) por 50 horas, sendo
avaliadas através das análises de índice de absorção de água, microscopia eletrônica de
varredura (MEV) e Rugosidade. Com base nos resultados obtidos conclui-se que à radiação
UV provoca mudanças químicas e superficiais nas fibras de coco, tornando-as mais
hidrofóbicas e rugosas.

Palavras-chaves: Fibra de coco, Radiação UV, Rugosidade, Hidrofóbica.

1. INTRODUÇÃO

O Brasil é um dos maiores exportadores e consumidores de água de coco no mundo.


Segundo o Levantamento Sistemático de Produção Agrícola (LSPA), promovido pelo
Instituto Brasileiro de Geografia e Estatística (IBGE), a produção de coco (Cocos Nucifera)
no Brasil atingiu cerca de 1.896.124 toneladas na safra 2015 (IBGE, 2016).
Na produção, em média, são geradas aproximadamente 6,7 milhões de toneladas de
casca/ano de coco, sendo descartada em aterros sanitários e lixões após a retirada da polpa e
da água de coco. Devido ao Tanino presente no seu epicarpo, que inibi as enzimas bacterianas

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

748
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e fúngica, o coco pode levar mais de oito anos para se decompor no meio ambiente (Sátiro,
2002; Silva, 2015). Na Fig. 1 é apresentado a estrutura de um coco verde.

Figura 1 - Estrutura do coco verde. Fonte: Sátiro, 2002.

Do mesocarpo do coco são retiradas suas fibras por meio da maceração, que é realizada
nas fibras de coco verde, ou desfibramento mecânico, sendo mais utilizado em coco seco. As
fibras de coco podem ser utilizadas em diversas aplicabilidades entre elas como pastilhas,
canecas, vasos, isolantes acústicos entre outros. Outra forma de sua utilização é através de
reforço em materiais compósitos (Ramírez et al, 2011; Souza et al. 2015).
De acordo com a sua origem, as fibras são classificadas em dois grandes grupos podendo
ser do tipo sintéticas ou naturais. As fibras sintéticas são produzidas pelo homem que utiliza
como matéria-prima produtos químicos e são aplicadas como materiais de engenharia, já que,
possuem elevadas propriedades mecânicas e químicas como a resistência a abrasão e dureza.
Dentre as fibras sintéticas pode-se destacar, como uma das mais produzidas, a de aramida
muito utilizada na produção de coletes a prova de bala (Jacob et al. 2008; Souza et al. 2015).
As fibras naturais são oriundas da natureza e ainda podem ser classificadas segundo a sua
origem podendo ser do tipo vegetal, animal ou mineral. As fibras naturais de origem vegetal,
também são chamadas de fibras naturais lignocelulósicas (FNL) e podem ser classificadas de
acordo com sua retirada. Logo, as fibras de coco são classificadas como fibras naturais
vegetais oriundos do fruto (Jacob et al. 2008).
As fibras naturais vegetais também são usualmente chamadas de lignocelulósicas devido
sua composição química, pois têm como os principais componentes a celulose, hemicelulose e
lignina. Além destes componentes são encontrados compostos como pectinas e graxas (Yang
et al. 2008).
A celulose possui uma estrutura semicristalina composta apenas por monômero de
glicose e ligações de hidrogênio, proporcionar a resistência e flexibilidade na fibra. A lignina
é caracteristicamente hidrofóbica, possuindo uma estrutura trimendisional amorfa e
poliolifinica complexa com bastante ramificada, tem como função conferir a rigidez na fibra.
A hemicelulose é composta por diferentes monossacarídeos, sendo hidrofílica e ramificada, e
uni a celulose e a lignina. A fibra de coco destaca-se por possuir um elevado percentual de
lignina o que proporciona uma maior rigidez e resistência (Araújo et al., 2008; Wearn et al.,
2020).
Na Fig. 2 é representa a organização mais comum das paredes estruturais de uma fibra
lignocelulósicas (FNL).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

749
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Estrutura das fibras naturais. Fonte: Banco de dados da BPMCC-DEM/UFRN,


2007.

Cada FNL possui uma estrutura de camadas complexas. Esta estrutura é formada por três
paredes mais o lúmen. A parede primária é a mais fina é a parede mais externa da FNL, logo
apresenta algumas substâncias, tais como graxas e pectininas, além de envolver a parede
secundária, sendo dividida em S1 e S2. A parede secundária S2 é a camada mais espessa,
podendo constituir até 90% de uma fibra, nela apresenta-se o ângulo microfibrilar (ângulo
espiral), sendo um dos fatores que determina as propriedades mecânicas da fibra. E por último
a parede terciária que é a camada mais interna da FNL e envolve o lúmen (Agarwal et al.,
2000; Nicolau et al., 2019; Wearn et al., 2020).
As fibras por estarem no meio ambiente, estão sujeitas a diversos tipos de intemperismo,
como a radiação ultravioleta (UV). A energia que é liberara pela radiação UV, pode ser
considera baixa quando comparada com a energia da radiação gama. O material ao ser
exposto a radiação UV tende a absorver a energia da radiação gama que é libera, o que pode
provocar reações químicas em estrutura molecular, pois ocasiona cisões em suas cadeias
geradas pela fotodegradação (Silva et al., 2018; Nicolau et al., 2019).
A fotodegradação gerada pela radiação UV pode produzir mudanças microestruturais e
superficiais nas fibras, pois induz a desfibrilação e escamação das microfibrilas superficiais e
formação de novos grupos funcionais devido o processo fotoquímico (Nicolau et al., 2019).
O presente trabalho tem como objetivo avaliar as mudanças ocasionadas na superficie da
fibra de coco verde quando exposto à radiação ultravioleta (UV) por 50 horas. Sendo
avaliadas através das análises de índice de absorção de água, microscopia eletrônica de
varredura (MEV) e Rugosidade.
Para realizar o seguinte trabalho, foram utilizadas fibras de coco verde doadas
gentilmente pela empresa Coco Verde localizada na cidade do Rio de Janeiro.

2. MATERIAIS E MÉTODOS

Através da câmara de sistema acelerado de envelhecimento para não metálicos


(Ultravioleta “B” marca Comexim, modelo C-UV), com intensidade de 40 W, presente no
Laboratório de Ensaios Ambientais em Polímeros - IME/RJ, as fibras de coco foram
irradiadas por 50 horas sem interrupção e posteriormente, tanto as fibras que não sofreram
irradiação UV (in natura) e as fibras que foram irradiadas por 50 horas (50 UV), foram
caracterizadas.
Com o objetivo de avaliar se houve mudanças na estrutura hidrofóbica da fibra de coco
após a radiação UV foi realizado ensaio de absorção de água. Através da Eq. 1 foi calculado o
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

750
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

índice de absorção de água (A), em porcentagem (%), sendo 𝑚𝑢 a massa úmida da amostra
para cada tempo de pesagem e 𝑚𝑠 a massa inicial seca da amostra.

𝑚𝑢 − 𝑚𝑠 (1)
𝐴= 𝑥 100
𝑚𝑠

Para esse ensaio foram separadas 3 amostras de 0,100 g de cada tipologia (in natura e 50
UV), sem seguida foram secas em uma estufa modelo SL-100, a 100°C por 3 horas. Após a
secagem, as fibras foram imersas em água destilada, em temperatura ambiente, por 24 horas.
Dentro dessas 24 horas, foram realizadas 6 pesagens em determinados períodos de tempos,
retirando sempre o excesso de água de cada amostra.
Os efeitos da radiação ultravioleta na superficie da fibra de coco foram avaliados através
da análise por MEV no Microscópio Eletrônico de Varredura, de modelo Quanta Feg 250. E
pela análise de rugosidade no Rugosimetro 3D New View 7100 Profiler de superficie 3D
Optical, com máscara para delimitar o local analisado.
A influência da radiação UV na resistência mecânica à tração das fibras, foi obtida
através do ensaio de tração realizado em uma máquina universal da Istron – EMIC linha DL,
do Laboratório de ensaios mecânicos do IME, utilizando a norma ASTM D638, com
velocidade de 1,2 mm/min e célula de carga de 1kN.

3. RESULTADOS E DISCUSSÃO

Os resultados obtidos no ensaio de absorção de água são apresentados na Fig. 3.

110
In natura
105
50 UV
100
Indice de absorçao de agua (%)

95

90

85

80

75

70

65

60

55
0 200 400 600 800 1000 1200 1400 1600
Tempo (min)

Figura 3 - Absorção de água das fibras de coco in natura e 50 UV.

Os resultados indicam que a fibra de coco após a radiação UV tende a absorver teores
menores de água quando comparada com a in natura. Logo, indicam que ocorreu uma
mudança na estrutura química das fibras favorecendo um comportamento mais hidrofóbico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

751
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Vale ressaltar que o ensaio foi realizado em triplicada, como descrito na metodologia, porém
o o desvio padrão foi tão insignificante que a barra de erros ficou imperceptível no gráfico.
A radiação possivelmente causou um processo de degradação e envelhecimento em uma
profundidade de penetração limitada, já que, é uma radiação de baixa energia, quando
comparada a radiação gama e por raios-X (Silva et al., 2018; Nicolau et al., 2019).
A hidrofobicidade de uma fibra é um parâmetro importante quando deseja-se utiliza-la
como carga de reforço, uma vez que esse comportamento tende a colaborar para uma melhor
compatibilidade química entre a interface matriz/fibra, já que, matrizes poliméricas são
hidrofóbicas, influenciando assim diretamente o desempenho mecânico do compósito, como
mostrado nos trabalhos de Di Benedetto et al. (2015), Miranda et al. (2015) e Almeida et al.
(2006). Nas Fig. 4 e Fig. 5 são apresentados as fotomicrografias da fibra de coco antes e pós o
processo de irradiação, respectivamente.

Figura 4 - Fotomicrografias da fibra de coco in natural.

Figura 5 - Fotomicrografias da fibra de coco 50 UV.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

752
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nas fotomicrografias apresentadas observa-se que a fibra de coco in natura possui


algumas irregularidades em sua superficie, como cavidades e partículas globulares,
pertencentes a própria fibra de coco.
A superfície da fibra 50 UV, apresenta uma rugosidade mais acentuada, quando
comparada com a in natura, proporcionando a exposição das fibrilas e o aparecimento de
vazios na superficie, sendo causado pelo possível processo de degradação superficial
produzido pela radiação ultravioleta, causando alterações morfológicas irreversíveis nas
fibras.
Nas Fig. 6 e Fig. 7, são apresentadas as fotomicrografias obtidas pelo rugosimetro da
fibra de coco antes e pós o processo de irradiação, respectivamente.

.
Figura 6 - Fotomicrografia da fibra de coco in natural.

Figura 7 - Fotomicrografias da fibra de coco 50 UV.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

753
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os resultados da análise de rugosidade indicaram que as fibras 50UV apresentaram uma


maior rugosidade, em torno de 3.6275 µm, do que as in natura que obtiveram 3.0926 µm.
Logo a irradiação favoreceu um aumento nas imperfeições superficiais das fibras, fato
verificado pelas análises de MEV, que pode ser ocasionada pela clivagem fotoinduzida das
ligações presentes na estrutura da fibra de coco.

4. CONCLUSÕES

Os dados obtidos pelo ensaio de absorção de água sugerem que após a irradiação as fibras
de coco apresentam uma característica mais hidrofóbica, possivelmente pela fotodegradação
ocasionada. Já os resultados de MEV e rugosidade mostram visivelmente como a irradiação
prova rugosidade na superficie da fibra de coco. Logo, todos os indicam que a radiação UV de
fato prova alterações morfológicas e químicas na fibra de coco, após 50 horas de exposição.

Agradecimentos

Os autores agradecem a empresa Coco Verde – RJ, ao Exército brasileiro, às agências


financeiras nacionais (CNPq, CAPES e FAPERJ) por patrocinar esta pesquisa e ao laboratório
de ensaios ambientais em polímeros.

REFERÊNCIAS

Agarwal, B.D. et al (2000). “Analysis and Performance of Fiber Composites”, Nova York:
John Wiley & Sons; 2000.
Almeida, J. R. M. et al. (2006). Tensile mechanical properties, morphological aspects and
chemical characterization of piassava (Attalea funifera) fibers.”, Composites: Part A, 37,
1473–1479.
Araújo, J. R, et al, (2008). Thermal properties of high density polyethylene composites with
natural fibres: Coupling agent effect. Polymer Degradation and Stability, 93 (10), 1770-
1775.
Di Benedetto et al. (2015). “Influência da Radiação Ultravioleta nas propriedades físico-
químicas e mecânicas de fibras de Bananeira: Um método alternativo de tratamento
fotoquímico”. Universidade Federal de Itajubá, Itajubá: Dissertação (Mestrado em
Materiais para Engenharia).
Instituto Brasileiro de Geografia e Estatística (IBGE) (2016). “Levantamento sistemático da produção agrícola”,
Rio de Janeiro, v.29, pp. 1-113, 2016.
Jacob, M., et al. (2008). Biofibres and Biocomposites. Carbohydrate Polymer, 71, 343-364.
Miranda, C. S. et al. (2015). Efeito dos tratamentos superficiais nas propriedades do bagaço
da fibra de piaçava attalea funifera martius. Química Nova, 38 (38), 161-165.
Nicolau, G. et al (2019). “A influência do processo de mercerização nas fibras de coco”. 74º
Congresso Anual da ABM. Vol.74, 1386-1394.
Nicolau, G. et al. (2019). “A influência da radiação ultravioleta (UV) nas propriedades
mecânicas do polimetilmetacrilato (PMMA)”. X Encontro Técnico de Materiais e
Química.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

754
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ramírez, M. G. L, et al. (2011). Study of the properties of biocomposites. Part I. Cassava


starch-green coir fibers from Brazil. Carbohydrate Polymers, 86 (4), 1712-1722.
Sátiro, J. R. et al. (2002). “Estudo do potencial da casca do coco verde para obtenção de etanol lignocelulósicos”,
Congresso Norte e Nordeste de Pesquisa e Inovação, 1-5.
Silva, A. (2018). “Influência da radiação ultravioleta nas propriedades físico-químicas de uma
fibra natural lignocelulósica: o curauá”. 73º Congresso Anual da ABM, Vol.73, 1066-1074.
Silva, E. et al. (2015). Degradação da fibra de coco imersa em soluções alcalinas de cimento e NaOH. Revista
Brasileira de Engenharia Agrícola Ambiental, 19, 981–988.
Souza, E. (2015). Aplicação da fibra de coco no processo de isolamento termo acústico.
Revista gestão e sustentabilidade ambiental, 4.
Wearn, Y.N, et al. (2020). Compósitos de fibra de coco/LDPE: efeito do tratamento
superficial das fibras de coco em compósitos verdes. Revista Matéria, 25 (1).
Yang, C, et al. (2008). Effect and after effect of y radiation pretreatment on enzymatic
hydrolyzis of wheat straw. Bioresource Technology, 99, 5756.

APÊNDICE A

MICRO-STRUCTURAL ASSESSMENT OF THE COCONUT FIBER SURFACE


AFTER TREATMENT VIA ULTRAVIOLET RADIATION (UV)

Abstract. In Brazil there is a high consumption of coconut water, thus generating a large
amount of coconut fibers. Because natural fibers are exposed to the environment, they can
suffer different types of degradation. One type of degradation is photochemistry caused by
ultraviolet (UV) radiation, generating changes in its chemical and morphological structure.
The present work aims to evaluate the changes caused on the surface of coconut fiber when
exposed to ultraviolet (UV) radiation for 50 hours, being evaluated through the analysis of
water absorption index, scanning electron microscopy (SEM) and roughness. Based on the
results obtained, it is concluded that UV radiation causes chemical and superficial changes in
coconut fibers, making them more hydrophobic and rough.

Keywords: Coconut fiber, UV radiation, Roughness, Hydrophobic.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

755
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

SIMULAÇÃO DO DOBRAMENTO DE ESPÉCIMES USADOS EM ENSAIOS DE


CORROSÃO SOB TENSÃO

Anderson Závoli Habib1– andersonzavoli@gmail.com


Ivan Napoleão Bastos1 – inbastos@iprj.uerj.br
Lucas Venancio Pires de Carvalho Lima1– lucaslima@iprj.uerj.br
1
Instituto Politécnico, Universidade do Estado do Rio de Janeiro, Nova Friburgo, RJ, Brasil

Resumo. Aços estruturais suscetíveis à corrosão sob tensão podem ter sua resistência
avaliada com amostras produzidas segundo a norma ASTM G30-2016. O dobramento
previsto impõe altas deformações, conformando uma placa em formato U. Após este
processo, o corpo de prova recupera a deformação elástica. Esta recuperação é analisada
pela distância de abertura e pelas tensões. As tensões residuais podem ter origem do fluxo
plástico não uniforme ou da restrição à deformação. Além disto, atrito pode alterar o estado
de tensão, mas é pouco explorado na literatura para este tipo de ensaio. Este refere-se ao
contato metal-metal não-lubrificado entre a ferramenta e o aço. Além do dobramento, a
norma determina o aparafusamento para manter as tensões trativas na região convexa e
aumentar a suscetibilidade à corrosão sob tensão. O estudo foi realizado em modelagem
computacional, utilizando Ansys Mechanical. Observou-se que o aumento do coeficiente de
atrito provoca o impedimento do deslizamento do corpo de prova na ferramenta, o que
proporciona tensões mais concentradas na região central. Além disso, a recuperação elástica
aumentou com coeficientes de atrito maiores, as tensões trativas se localizam na região
convexa e o atrito não altera de modo significativo o valor das tensões ao final do
dobramento.

Palavras-chave: Modelagem computacional, Dobramento, Tensão residual

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

756
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Devido às propriedades mecânicas e ao custo relativamente baixo, os aços-carbono


estruturais são muito utilizados em aplicações industriais. Entretanto, o ambiente da indústria
de óleo e gás representa ameaças à integridade estrutural pois é muito corrosivo. Assim, a
American Petroleum Institute (API) especificou famílias de aço-carbono cujas propriedades
mecânicas, composição química e microestrutura os tornam mais resistentes à fragilização
pelo hidrogênio que os aços de resistência mecânica equivalente usados na indústria dita
mecânica. As especificações da norma de aço da API são identificadas por API 5L XNN,
onde 5L representa especificação de fabricação para aplicação de dutos (linepipe), e NN
corresponde ao limite de escoamento em ksi desta classe de aços de Alta Resistência e Baixa
Liga (ARBL). Com sua vasta utilização em instalações de plataformas submersas (JASKE et
al, 1978), construções navais (LINK et al, 2009) e dutos para transporte de combustíveis
fósseis (MOHTADI-BONAB et al, 2015), a resposta mecânica deve ser analisada para que
não ocorra falha decorrente da corrosão sob tensão ou fragilização pelo hidrogênio. Portanto,
com a utilização da norma ASTM G30-2016 é possível produzir os corpos de prova, porém
sem haver descrição do comportamento em termos de carga, tensão e deformação durante o
dobramento.
A norma ASTM G30-2016 consiste em um processo de dobramento de uma placa, com
dimensões específicas, em geometria U. Após esse dobramento, espera-se que ocorra a
recuperação elástica do metal ao ser retirado o contato com a ferramenta de dobramento.
Além disto, com intuito de garantir tensões trativas na região convexa do espécime em U, é
finalmente aplicado um parafuso. Este último procedimento é utilizado para analisar
suscetibilidade do material e a possíveis testes de corrosão, no qual, não será o foco deste
projeto, e sim, análise estrutural mecânica, como recuperação elástica, tensões residuais,
influência do atrito e carregamento aplicado. As vantagens de se usar este tipo de amostra
compreendem a facilidade de fabricação, o pequeno tamanho e a facilidade de ser exposta no
meio corrosivo de interesse sem grandes aparatos de medida e de monitoramento. Entretanto,
a simulação computacional é pouco explorada para se entender melhor o nível de tensão e
outros detalhes do procedimento de fabricação.
A recuperação elástica, após a retirada da ferramenta, é o retorno das deformações
recuperáveis, também conhecido como efeito mola. Porém, nem sempre todas as deformações
elásticas são recuperáveis, visto que, algumas delas ficam restritas pelas regiões de
deformações plásticas. Estas retenções podem causar tensões residuais e estas comprometer a
utilização do aço.
As tensões residuais estão presentes na estrutura de diversos materiais, sem que haja
carga externa aplicada. Sua origem pode ser proveniente de diversos processos, como
transformação de fase, aplicação de gradientes térmicos acentuados ou fluxo plástico não
uniforme (WITHERS, 2007). Este último pode ser relacionado com o processo de
dobramento, pois proporcionam altas deformações plásticas não uniformes no corpo de prova.
Essas tensões são influenciadas pela recuperação elástica e por outros parâmetros, como o
coeficiente de atrito entre a ferramenta e o corpo de prova.
O coeficiente de atrito é um parâmetro importante a ser analisado pois influencia várias
respostas mecânicos, pois quaisquer superfícies em movimento relativo apesentam atrito. O
contato metal-metal é reportado como tendo faixa de valores entre 0 e 1,6 (LIM et al, 1989).
Assim, é importante testar para vários coeficientes e analisar a sua relação às tensões e aos
carregamentos. A norma ASTM G30-2016 prevê que o carregamento possa ser aplicado de
dois modos. Num deles, a aplicação do dobramento do corpo de prova e depois um
aparafusamento para assegurar o formato final e as tensões necessárias à nucleação e
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

757
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

propagação das trincas induzidas pelo ambiente. Assim, com base na norma ASTM G30-
2016, o estudo consiste em modelar o sistema de grandes deformações plásticas do aço API
5L X70 e comparar o carregamento da amostra ao dobramento e à aplicação do parafuso.
Com essa modelagem foi possível estudar as tensões, deformações, recuperação elástica e
tensões residuais em cada estado de tensão, além da influência do coeficiente de atrito nos
vários parâmetros.

2. METODOLOGIA

A modelagem do sistema de dobramento e aplicação do parafuso foi feita no Ansys


Mechanical utilizando linguagem APDL (Ansys Parametric Design Language). Para a
criação da rotina computacional, inicialmente foi feito o estudo do aço API 5L X70 e de suas
propriedades. Após isso, a geometria do corpo de prova foi modelada tomando como
referência a norma (ASTM G30-97, 2016) e a malha implementada. Com o corpo de prova
modelado, modela-se a ferramenta de dobramento, dividindo-a em partes que, durante o
carregamento, se movimentavam e outras que permanecem fixas. Após os modelos de corpo
de prova e ferramenta implementados, é aplicado o carregamento, descarregamento e
aparafusamento. Depois desta etapa, no pós-processamento, analisa-se as respostas do
processo de dobramento e exportam-se os resultados para que sejam importadas no software
Octave.

2.1 Aço

O aço API 5L X70 foi escolhido devido à grande utilização no setor de óleo e gás. As
propriedades utilizadas são as tensões e deformações provenientes da curva tensão vs
deformação (Figura 1), limite de escoamento de 496 MPa, módulo de elasticidade de
219,67 GPa e coeficiente de Poisson 0,29.

Figura 1 – Curva tensão vs deformação do aço API 5L X70. Modificado de (KOFIANI et al.,
2013). A interseção na curva indica a tensão máxima atingida durante o dobramento para
(677 MPa).

Os pontos experimentais da curva de (KOFIANI; NONN; WIERZBICKI, 2013) foram


exportados para a rotina do Octave e modelados de acordo com o método Swift. Este método
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

758
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

consiste na modelagem do formato da curva tensão-deformação no regime plástico, por meio


da Equação 1. Nesta equação os parâmetros 𝐴 e 𝑛 representam parâmetros de plasticidade
antes da estricção. Após esta definição, foi importado do Ansys as coordenadas dos pontos da
curva API 5L X70 com utilização do método Swift (CAO et al, 2017). Para o aço API 5L X70
os coeficientes ajustados resultaram nos valores de 𝐴, 844,6 MPa, e 𝑛, 0,0022 de Kofiani et
al. (2013). Os termos 𝜎, 𝜀 e 𝜀0 significam, respectivamente, tensão, deformação e deformação
no escoamento.

𝜎 = 𝐴(𝜀0 + 𝜀)𝑛 (1)

2.2 Modelagem do corpo de prova

A modelagem da geometria do corpo de prova foi implementada de maneira paramétrica,


utilizando a linguagem APDL, visto que existem oito formatos recomendados pela norma
(ASTM G30-97, 2016). Para criação da malha, primeiramente, o corpo de prova foi divido em
diversas áreas para o aprimoramento da malha próxima à região dos furos. Esta malha foi
feita de forma que suas linhas foram divididas em tamanhos pré-determinados, e estas
divisões expandidas para áreas e volumes, criando elementos finitos com tridimensionais com
oito nós de contato (Figura 2). As dimensões L, M, W, D e T valem respectivamente 80, 50,
20, 10 e 2,5 mm.

Figura 2 – Geometria e malha do corpo de prova

2.3 Modelagem da ferramenta

O dobramento é realizado pela deformação do corpo de prova ao redor de um rolo


cilíndrico que deforma até formar o formato de U. Existem três fases do dobramento: 1º
deforma-se até formar um U a 180º; 2º libera-se o corpo de prova que relaxa elasticamente; 3º
adapta-se um parafuso que comprime o corpo de prova até atingir a forma final de U. Para a
criação da ferramenta no Ansys, a modelagem foi baseada na ferramenta de dobramento do
Labcor/IPRJ. O modelo da ferramenta foi dividido em três segmentos: parte fixa, parte
rodante e rolo. A malha foi realizada seguindo o mesmo procedimento do corpo de prova,
porém com menos refinamento pois o interesse está no espécime (Figura 3). Para os
elementos de contato foi necessário analisar o funcionamento da ferramenta e do estudo das
características no Ansys (Figura 4).

Figura 3 – Ferramenta de dobramento em U, a) parte fixa, b) parte rodante, c) rolo e d)


semelhante à do Labcor/IPRJ
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

759
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4– Elementos de contato e condições: 1 inicialmente fixo; 2 estático e móvel3 não


separado, deslizamento permitido; 4 fixo e 5 estático e móvel.

Para o deslocamento foram introduzidos dois nós próximos à superfície do rolo para que
fosse aplicada a rotação de forma semelhante ao realizado pela ferramenta. Estes nós foram
ligados à ferramenta por elementos de viga, e apenas efetuam a ligação entre os elementos,
sem restrição. Além disto, condições de engaste para os nós pertencentes às áreas transversais
do rolo e aos nós da base da ferramenta fixa foram aplicadas (Figura 5).

Figura 5 – Condições de deslocamento: 1 Nós onde se aplicam a rotação; 2 elementos de viga


de transmissão dos esforços e 3 engaste.

2.4 Modelagem do carregamento do parafuso

Para modelagem do parafuso, inicialmente foi preciso exportar as coordenadas dos nós do
modelo de dobramento, após a recuperação elástica. Além disto, as respostas de tensões e
deformações também são consideradas na simulação. Após a importação, foi realizado um
estudo para entender o funcionamento do parafuso de forma mecânica, para que pudesse ser
feita a aplicação. A norma ASTM G30-97 (2016) mostra a geometria final do corpo de prova
(Figura 6) cujos centros dos furos foram ligados por um elemento MPC184. Este compreende
uma classe geral de elementos de ligação, elementos de restrição ou elementos de junta. Para
representar o comportamento do parafuso, foi utilizado junta translacional, permitindo esse
deslocamento apenas no eixo da aplicação da carga.

Figura 6 – Simulação do carregamento do parafuso

2.5 Coeficiente de atrito metal-metal

A implementação do coeficiente de atrito foi feita de forma paramétrica. Sua


representação foi realizada para uma faixa de valores entre 0,0 a 1,0 e aplicada aos elementos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

760
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de contato entre o corpo de prova e a ferramenta. Os valores de coeficiente de atrito foram


obtidos da referência (6). Este contato está representado pela Figura 5 nas condições 1, 2 e 3.
Então, após a modelagem, os valores dos parâmetros, abertura, tensão máxima, ângulo e
deformação foram exportados para diferentes coeficientes de atrito.

2.6 Pós-processamento

Após os carregamentos efetuados, foi realizado o pós-processamento dos dados.


Tensões aplicadas no carregamento, tensões residuais, abertura do corpo de prova, ângulo da
abertura, carregamento no dobramento e no parafuso foram estudados e comparados nesta
etapa. Foram representadas as tensões de von Mises e definidas as tensões S1S3. Este foi um
modelo criado a partir das tensões principais, onde se avaliou aquela que teria maior módulo
entre a tensão máxima principal e mínima principal (Equação 2) (BERT et al, 2018)

𝜎𝑚í𝑛𝑖𝑚𝑎 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑎𝑙 𝑝𝑎𝑟𝑎 |𝜎𝑚í𝑛𝑖𝑚𝑎 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑎𝑙 | > |𝜎𝑚á𝑥𝑖𝑚𝑎 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑎𝑙 |


𝜎𝑆1𝑆3 = { (2)
𝜎𝑚á𝑥𝑖𝑚𝑎 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑎𝑙 𝑝𝑎𝑟𝑎 |𝜎𝑚í𝑛𝑖𝑚𝑎 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑎𝑙 | < |𝜎𝑚á𝑥𝑖𝑚𝑎 𝑝𝑟𝑖𝑛𝑐𝑖𝑝𝑎𝑙 |

3. RESULTADOS

O espécime foi submetido ao dobramento pela ação da ferramenta e a sequência pode ser
dividida em três fases. A primeira delas refere-se à fase final de dobramento a 180o. Logo
após o dobramento, inicia-se o processo de recuperação elástica, ou fase 2. Por fim, a fase 3
pode ser descrita como a etapa final de aperto com o parafuso (Figura 7).

Figura 7 – Fases do dobramento: 1) dobramento, 2) recuperação elástica e 3) aperto final


com o parafuso.

3.1 Análise do coeficiente de atrito relacionado às tensões

Com os resultados simulados, é possível perceber que maiores coeficientes de atrito


metal-metal diminui a área onde estão as mais elevadas tensões. Esta queda pode ser
percebida na distribuição das tensões, visto que com restrição ao deslizamento devido ao
atrito, reduza a região e altas tensões conforme mostra a Figura 8, referente à fase 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

761
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 8 – Distribuição das tensões S1S3 para o caso com coeficiente de atrito 0 (a) e 1,0
(b) no final da fase 2.

As tensões no centro das superfícies côncava e convexa para a faixa de coeficiente de


atrito são mostradas na Figura 9. As tensões foram calculadas de acordo com a média da
região central, após a recuperação elástica, fase 2. Ou seja, uma área retangular de
8 mm x 12 mm (retângulo azul na Figura 8). As tensões S1 têm o módulo reduzido devido ao
atrito.

Figura 9 – Distribuição da média das tensões vs coeficiente de atrito ao final da fase 2.

Para as duas superfícies, a média das tensões tem uma queda de acordo com o aumento
dos coeficientes de atrito, tanto na côncava quanto para convexa. As tensões dentro da área
retangular escolhida (Figura 8) têm resultados mais baixos com atrito. Provavelmente a
restrição à deformação causa mais deformação plástica nas camadas mais superficiais e
menos no volume da amostra metálica. Isto pode ser explicado devido ao deslizamento, pois
sem atrito, o espécime apresenta tensões mais distribuídas por toda região escolhida, enquanto
ao modelo com atrito, devido ao não deslizamento, suas tensões estão concentradas apenas no
centro da área retangular, proporcionando uma média menor. Além disso, o efeito do atrito
pôde ser avaliado também para a abertura do corpo de prova.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

762
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3.2 Análises do coeficiente de atrito relacionado à abertura

A abertura do corpo de prova, após a recuperação elástica, tende a ter valores maiores
quando se utiliza coeficiente de atritos maiores (Figura 10). Este comportamento pode ser
caracterizado pela queda das tensões médias, representados pela Figura 9, ou seja, quanto
maiores as tensões, mais deformação plástica, menos recuperação elástica e menor a abertura.
Provavelmente o agarramento entre a peça e a ferramenta persiste com a recuperação elástica;
assim, maior atrito maior a recuperação pois parte dele ocorre devido à restrição de
deslizamento chapa-ferramenta.

Figura 10 – Recuperação do corpo de prova após o dobramento vs coeficiente de fricção.

3.3 Tensões após o aparafusamento

Com a aplicação do parafuso (fase 3), percebe-se que as tensões trativas concentram-se
na região convexa, e na região côncava temos compressão (Figura 11). A alta tensão trativa
favorece a nucleação e a propagação da trinca de corrosão sob tensão. Alguns aços
inoxidáveis, como o austenítico podem apresentar fluência em baixa temperatura e isto
favorecer o rompimento do filme passivo e permitir a nucleação da trinca.

Figura 11 – Tensões trativas região convexa e compressivas região côncava.

Os maiores coeficientes de atrito provocam maior recuperação da abertura. Então, para


manter a distância da região superior e inferior do corpo de prova e em conformidade com a
norma ASTM, são necessárias tensões mais elevadas para atrito mais elevado. Devido a isso,
as tensões médias após o aparafusamento são maiores quando se utiliza coeficientes de atrito
maiores, porém, essa diferença não é expressiva (Figura 12). As tensões médias se elevam
ligeiramente visto que existe um pequeno aumento das tensões trativas na região convexa e
uma pequena redução das trações compressivas na região côncava.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

763
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 12 – Distribuição da média das tensões vs coeficiente de atrito ao final da fase 3.

4. CONCLUSÕES

A simulação mecânica do dobramento de espécime do aço API 5L X70 segundo a norma


ASTM G30-2016 foi estudada. Além disto, foi dado destaque ao efeito do coeficiente de
atrito entre o espécime sob deformação e a ferramenta, e como o atrito afeta as tensões
mecânicas em cada fase do processo de dobramento.
Para a fase de relaxação elástica, percebe-se como o efeito do atrito influência nas tensões
médias. Quanto maior o coeficiente de atrito, menores são as tensões médias avaliadas na
região de interesse. A explicação para essa situação está relacionada com o deslizamento do
corpo de prova, visto que para altos coeficientes de atrito é impedido essa movimentação.
Com isso, as tensões dessas simulações encontram-se no centro do espécime, fazendo com
que as tensões médias na região retangular apresentem valores maiores nos casos sem atrito,
com maiores distribuições das tensões, visto o deslizamento.
Para a recuperação elástica, fase 2, a análise do atrito é relevante. Nessa análise, a
resposta do comportamento segue os resultados anteriores. Como as tensões médias são
menores com altos coeficientes de atrito, há mais recuperação elástica para o caso com
coeficiente 1,0 do que com os outros casos. Isso pode ser explicado pela menor tensão média,
consecutivamente, pelas menores deformações no regime plástico e por fim, maior
recuperação da abertura do corpo de prova. Durante as três fases, não houve inversão de
tração para compressão, ou vice-versa entre as superfícies côncavas e convexas, mas apenas
uma variação do módulo.
Após o aparafusamento, uma das questões mais importantes é garantir tensões trativas na
superfície convexa. Como era esperado, e reportado na norma ASTM G30(2016), as tensões
trativas encontram-se na região convexa, o que favorece a suscetibilidade ao trincamento
induzido pelo meio corrosivo. Além disso, foi estudado as tensões médias, na fase 3, ao
atribuir coeficientes de atritos na faixa 0,0-1,0. Os resultados demonstraram que existe
diferença entre os valores das tensões, devido a maior recuperação elástica para os casos com
mais atrito. Pois, quanto maior a recuperação elástica, maiores são os carregamentos aplicados
para que a abertura se mantenha nos padrões da norma ASTM G30 (2016). Porém, as
variações nas tensões médias foram pequenas na tensão final, que é da ordem de 360 MPa na
superfície convexa e - 420 MPa na superfície côncava, independente do atrito. Este trabalho

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

764
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mostrou que o atrito não altera significativamente a tensão final da amostra, embora a
distribuição das tensões e a abertura intermediária seja afetada pelo atrito.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001. Os autores
ainda agradecem o apoio da Faperj e CNPq.

REFERÊNCIAS

ASTM G30-97(2016), Standard Practice for Making and Using U-Bend Stress-Corrosion Test Specimens, ASTM
International, West Conshohocken, PA, 2016.
BERTI, F.; LA BARBERA, L.; PIOVESAN, A.; ALLEGRETTI, D., OTTARDI, C.; VILLA, T., and PENNATI, G.
Residual stresses in titanium spinal rods: effects of two contouring methods and material plastic
properties. Journal of Biomechanical Engineering, v. 140, n. 11, 2018.
CAO, J.; LI, F.; MA, X.; and SUN, Z. Tensile stress–strain behavior of metallic alloys. Transactions of
Nonferrous Metals Society of China, v. 27, n. 11, p. 2443-2453, 2017.
JASKE, C.; BROEK, D.; SLATER, J.; and ANDERSON, W. Corrosion fatigue of structural steels in seawater
and for offshore applications. In: Corrosion-Fatigue Technology. ASTM International, p.19-47, 1978.
KOFIANI, K.; NONN, A.,and WIERZBICKI, T. New calibration method for high and low triaxiality and
validation on SENT specimens of API X70. International Journal of Pressure Vessels and Piping, v. 111, p.
187-201, 2013.
LIM, S. C.; ASHBY, M. F.; and BRUNTON, J. H. The effects of sliding conditions on the dry friction of metals.
ActaMetallurgica, v. 37, n. 3, p. 767-772, 1989.
LINK, R. E.; JOYCE, J. A.; ROE, C. Crack arrest testing of high strength structural steels for naval
applications. Engineering Fracture Mechanics, v. 76, n. 3, p. 402-418, 2009.
MOHTADI-BONAB, M. A., SZPUNAR, J. A., BASU, R., and ESKANDARI, M. The mechanism of failure by
hydrogen induced cracking in an acidic environment for API 5L X70 pipeline steel. International Journal of
Hydrogen Energy, v. 40, n. 2, p. 1096-1107, 2015.
WITHERS, P. J. Residual stress and its role in failure. Reports on Progress in Physics, v. 70, n. 12, p. 2211,
2007.

SIMULATION OF THE FOLDING OF SPECIMENS USED IN STRESS


CORROSION CRACKING TEST

Abstract. Steels appear susceptible to corrosion under stress and their strength can be
assessed with those produced according to the ASTM G30-2016 standard. The predicted
bending imposes high deformations, forming a U-shaped plate. After this process, the
specimen recovers the elastic deformation. This recovery is analyzed by the opening distance
and the stresses. As residual stresses, they may be due to the non-uniform plastic flow or the
restriction to deformation. In addition, friction can alter the state of tension, but it is little
explored in the literature for this type of test. This refers to the non-lubricated metal-to-metal
contact between the tool and the steel. In addition to bending, a standard determines bolting
to maintain tensile stresses in the convex region and increase susceptibility to stress
corrosion. The study was carried out in computational modeling, using an Ansys Mechanical.
It was observed that the increase in the friction coefficient causes the specimen to slip in the
tool, which offers more concentrated stresses in the central region. In addition, elastic
recovery has increased with higher friction coefficients, as tensile stresses are in the convex
region and friction does not significantly alter the stress value at the end of the bend.

Keywords: Computational modeling, Bending, Residual stress

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

765
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

GERAÇÃO AUTOMÁTICA DE IMAGENS ARTIFICIAIS DE CACHORROS: UMA


ABORDAGEM USANDO REDES GENERATIVAS ADVERSÁRIAS

Pedro Henrique Lopes de Castro1 - pedrohlcastro@gmail.com


Rogério Martins Gomes2 - rogerio@cefetmg.br
1 2 Centro Federal de Educação Tecnológica de Minas Gerais, DECOM - Belo Horizonte, MG, Brazil

Resumo. As redes regenerativas adversárias (GANs) são amplamente aplicadas na criação de


novas instâncias (como imagens, textos e vídeos), tais como nas artes gráficas, na literatura,
na criação de novos produtos, dentre outras. Dentre os diversos fatores favoráveis à sua ampla
utilização, pode-se destacar a sua capacidade de gerar instâncias similares aos elementos
reais. Com o intuito de melhorar a compreensão sobre a temática, foi elaborado, neste
trabalho, a aferição de diferentes implementações de redes neurais regenerativas adversárias.
Os modelos em estudo foram Naive Gan, DCGAN, SAGAN e Big Gan, utilizando para essa
finalidade uma base de dados fixa de imagens de cachorros. Para a avaliação do desempenho
dos modelos, foram empregadas duas métricas, a Fréchet Inception Distance (FID) e o
Inception Score (IS). Da mesma forma, foram também mostradas as principais vantagens e
desvantagens de cada modelo no que tange a qualidade visual das imagens produzidas, bem
como os principais problemas encontrados nas simulações dos modelos. O resultado final
mostrou que as redes generativas simuladas apresentaram valores de FID e IS inferiores aos
obtidos na literatura, bem como problemas de instabilidade e dificuldade de parametrização.
Contudo, foi possível perceber que semelhantemente aos resultados encontrados na literatura,
a rede Big GAN apresentou as melhores métricas.

Keywords: redes generativas adversárias, redes neurais artificiais

1. INTRODUÇÃO

Modelos baseados em redes neurais passaram a ser amplamente utilizados nos últimos anos.
De uma maneira geral, pode-se definir, dentro do grande espectro de modelos de redes, dois
grupos: os generativos e os discriminativos. Modelos discriminativos são aqueles capazes de
classificar e estimar algo, enquanto os generativos se baseiam em distribuições estatísticas na
geração de novos elementos.
Em 2014, baseado na teoria de decisão e MinMax Nash et al. [1950], Goodfellow et al.
[2014] propuseram um modelo generativo chamado Generative Adversarial Nets (GAN). O

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

766
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

principal objetivo deste modelo era gerar novas instâncias (imagens de faces de pessoas, por
exemplo) com um conjunto de características similares às presentes nas instâncias reais, de
forma a confundir uma rede neural artificial discriminativa. Ou seja, apesar de não serem
imagens verdadeiras, essas instâncias geradas eram classificadas como sendo verdadeiras.
Devido a natureza e objetivo das redes generativas, esse modelo é constantemente avaliado
usando funções que buscam um valor numérico a partir da aproximação do item gerado pela
rede com um item verdadeiro. As duas métricas mais usadas para tal objetivo são: FID (Fréchet
Inception Distance) proposto por Heusel et al. [2017] e IS (Inception Score) Salimans et al.
[2016].
Devido à inovação do tema e à grande capacidade das redes generativas adversárias de
criar novas instâncias (como imagens de novos cachorros), é possível observar a utilidade em
diversas áreas, tais como nas artes gráficas, na literatura, na criação de novos produtos, dentre
outras. Tendo em vista essa gama de aplicações possíveis para este modelo de rede, o presente
trabalho é motivado a compreender as utilidades e limitações desta tecnologia. Espera-se que
este trabalho possa nortear e contribuir para o desenvolvimento de trabalhos futuros na área de
redes generativas ao identificar as vantagens e desvantagens de cada modelo proposto a estudo.
Enriquecendo assim, trabalhos como o de Cao et al. [2019] em que foi feita uma extensa revisão
bibliográfica sobre o assunto, porém usando bases de dados simples, como MNIST LeCun and
Cortes [2010], que pode acabar escondendo detalhes de uma implementação mais complexa
(usando um dataset de imagens com maior resolução e detalhes, por exemplo).

2. REDES GENERATIVAS ADVERSÁRIAS

Após pesquisa e análise dos diversos modelos de redes generativas adversárias propostos na
literatura, foram selecionados alguns modelos tomando como base a sua importância histórica,
bem como os resultados apresentados.

2.1 Naive Generative Adversarial Network

Figura 1- Método de treinamento alternativo da rede Naive GAN

Por muitos anos, os modelos baseados em cadeias de Markov Stewart [1994] foram
considerados o estado da arte dentre os modelos de redes generativas, focando principalmente
na geração de novas instâncias. No entanto, em 2014, Goodfellow et al. [2014] propuseram um
modelo baseado na teoria dos jogos Nash et al. [1950], a qual chamaram de Redes Generativas
Adversárias (GANs). Com o uso do método de decisão Minmax e embasado no equilíbrio de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

767
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nash Nash et al. [1950], rapidamente o método provou ser uma alternativa mais simples que as
cadeias Markovianas Stewart [1994].
As redes generativas adversárias permitem, dessa maneira, a implementação de um modelo
generativo de forma mais rápida, eliminando a complexidade das cadeias de Markov, e assertiva,
uma vez que a qualidade das instâncias geradas alcançam altos níveis de proximidade em
relação as instâncias verdadeiras.
O modelo se baseia em duas redes neurais que batalham entre si, mas que possuem
diferentes objetivos:

• A rede G, generativa, deve tentar maximizar os erros de classificação da rede D, por meio
de instâncias geradas (falsas);
• Já a rede D, discriminativa, deve tentar minimizar suas classificações erradas, ou seja,
evitar ser enganada pela rede G.

Contudo, tal implementação implica em constantes instabilidades, quais sejam:

• Não convergência: a variação dos parâmetros durante o processo de treinamento pode


ser significativa, provocando uma não convergência do modelo e, consequentemente, a
geração de novas instâncias com baixa diversidade e qualidade;
• Desbalanceamento entre a rede G e D: o ajuste dos parâmetros pode apresentar alta
sensibilidade. Um exemplo desse fenômeno seria a obtenção de um discriminador
extremamente regulado dificultando, dessa forma, a geração de imagens artificias com
qualidade. Da mesma forma, é possível obter um gerador que força a rede discriminativa
a alterar seus parâmetros, tornando-a menos assertiva. Assim, a rede geradora cumpriria
seu objetivo, que é de maximizar os erros da rede discriminativa, no entanto, não
cumpriria o seu principal objetivo que é a de gerar elementos semelhantes aos reais.
• Colapso do modelo generativo: isso ocorre quando a rede geradora começa a,
repetidamente, gerar amostras muito semelhantes, não conseguindo assim, evoluir para
diferentes instâncias de entradas.

Um possível método alternativo de treinamento que evitaria os problemas de instabilidade


para esse modelo é mostrado na Figura 1 e passa, primeiramente, pelo treinamento de uma rede
neural discriminativa.
É importante lembrar que é possível treinar GANs com várias abordagens diferentes de
funções objetivo. A abordagem inicialmente proposta por Goodfellow et al. [2014] é chamada
de Jensen Shannon Divergence Fuglede and Topsoe [2004] e basicamente busca mensurar a
similaridade entre duas distribuições estatísticas.

2.2 Deep Convolutional Generative Adversarial Network (DCGAN)

Com objetivo principal de melhorar o modelo proposto por Goodfellow et al. [2014],
Radford et al. [2015] propuseram uma abordagem convolucional para redes generativas
adversárias na busca por um melhor desempenho na geração de novas instâncias, bem como
na melhoria da velocidade da rede generativa, para modelos baseados em imagens.
Os pesquisadores testaram várias abordagens de convolução em diversas redes do modelo
generativo adversarial. Com isso, definiram um conjunto de práticas que caracterizam uma rede
Deep Convolutional Generative Adversarial Network:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

768
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• Usar somente convoluções strided Dumoulin and Visin [2016] na rede discriminativa
fractional-strided Dumoulin and Visin [2016] na rede generativa;

• Usar batchnorm Ioffe and Szegedy [2015] nas duas redes (generativa e discriminativa);

• Usar função de ativação ReLU para todas as camadas da rede generativa, com exceção da
última, que deve ser uma função de ativação tangente hiperbólica;

• Usar a função de ativação LeakyReLU em todas as camadas da rede discriminativa.

Algumas dessas definições são importantes para evitar instabilidade da arquitetura de redes:

• O uso do batchnorm possibilita que o modelo generativo não caia em colapso.

• O uso da função de ativação LeakyReLU na rede discriminativa possibilita um


backpropagation mínimo para valores de erro negativo. Ou seja, diferentemente da
ReLU, que zera o backpropagation, a função LeakyReLU faz esse processo ser mais forte
para valores negativos ao deixar de zerar esses valores.

Uma representação genérica da arquitetura das duas redes que compõem esse modelo pode
ser vista na Figura 2.

Figura 2- Arquitetura da rede DCGAN

Apesar do ganho de tempo de processamento em imagens, os modelos convolucionais não


conseguiram corrigir vários dos problemas de instabilidade das redes generativas adversárias.
No entanto, possibilitou a criação de uma metodologia de implementação dessas redes,
possibilitando a proposição de diferentes abordagens no que concerne a estabilidade e ajuste
deste modelo. E em virtude disso, vários dos trabalhos posteriores a publicação de Radford
et al. [2015], propuseram abordagens de estabilidade e ajustes desse modelo.

2.3 Self Attention Generative Adversarial Network (SAGAN)

Buscando principalmente resolver problemas de instabilidade das redes convolucionais


adversárias, Zhang et al. [2018] propuseram uma abordagem aplicando algumas modificações
na arquitetura proposta por Radford et al. [2015].
O principal problema da DCGAN está no relacionamento entre elementos específicos dentro
da imagem, que só seriam capturados com um número grande de camadas Convolucionais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

769
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Por exemplo, patas de animais são itens que se relacionam e cuja a relação é difícil de ser
estabelecida usando uma simples DCGAN. Com objetivo de evitar esse problema, Zhang et al.
[2018] propuseram aplicar o método de self attention em uma das camadas da rede DCGAN.
Ou seja, a integração dessa técnica permite que a rede capture e relacione fielmente informações
espaciais de longo alcance de uma maneira computacionalmente eficiente.

Figura 3- Arquitetura do método Self Attention - Fonte: Zhang et al. [2018]

A arquitetura da Self Attention Generative Adversarial Network, vista na Figura 3, possui


uma série de características que são descritas a seguir:

• Entrada de parâmetros provenientes da camada anterior (convolution feature maps(x));

• O resultado da etapa anterior passa por três convoluções em paralelo gerando as matrizes
F, G e H;

• A seguir, a saída F é transposta e multiplicada a saída G;

• O resultado desta multiplicação passa por uma função chamada softmax que normaliza
o resultado em uma distribuição estatística. A partir disso, forma-se o mapa de self
attention;

• Por último, efetua-se a multiplicação do mapa de self attention com a matriz H e um


parâmetro beta (inicialmente 0 no gradiente).

Nos testes feitos, a camada responsável pela convolução, que leva de tamanho 32x32, foi
escolhida como sendo o melhor local para aplicar este método.
Mesmo aplicando os mapas de self attention, o modelo proposto ainda apresenta os
problemas de instabilidade. No entanto, junto a esta técnica, foi proposto um conjunto de
práticas que ajudam a realizar o ajuste das redes de forma estável e, da maneira como foi
originalmente proposto, com treinamento em paralelo das redes. Essas práticas são:

• aplicação de spectral normalization Miyato et al. [2018] no lugar de batchnorm em ambas


as redes;

• uso do método two-timescale update rule (TTUR), proposto por Heusel et al. [2017], para
garantir estabilidade nos ajustes das redes.

A grande novidade nessa abordagem foi a melhora na estabilidade, que é garantida com
essas duas técnicas. Além disso, foi possível, também, realizar o treinamento das redes em

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

770
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

paralelo, como na primeira abordagem proposta por Goodfellow et al. [2014]. Ou seja, o
problema da convergência e colapso são tratados com a normalização das redes (spectral
normalization) ao mesmo tempo em que o problema do desbalanceamento é tratado pelo TTUR.
A TTUR propõe um balanceamento com taxas de aprendizado diferentes para as duas redes,
com o discriminador tendo taxa 4 vezes maior que a do gerador (Discriminador 0.004 e Gerador
0.001 Heusel et al. [2017]).

2.4 Big Generative Adversarial Network (Big GAN)

Figura 4- Arquitetura de uma Big Gan - Fonte: Brock et al. [2018]

Buscando melhorar as principais métricas (IS e FID) para imagens geradas em GAN’s,
Brock et al. [2018] propuseram uma arquitetura que atualmente é considerada o estado da arte
dentro do universo de redes generativas adversárias. Essa arquitetura também foi capaz de gerar
altos scores de IS e FID com imagens de alta resolução, como por exemplo 512x512.
Alguns métodos empregados na arquitetura da rede são herdados do modelo SAGAN, na
qual a Big GAN se baseou. Os métodos propostos tem como principal objetivo melhorar a
estabilidade, escalabilidade e qualidade do modelo generativo. São eles:

• Uso de spectral normalization;

• Uso de Two Time-Scale Update Rule(TTUR) para balancear a atualização entre a rede
discriminadora e generativa;

• Inicialização ortogonal de pesos: os pesos iniciais de cada layer são iniciados de forma
randômica, satisfazendo a operação W T .W = I, em que W é a matriz de pesos e I uma
matriz identidade;

• Aumento do tamanho do batch: aumentando o tamanho do batch para 2048 imagens,


obtém-se um aumento significativo na qualidade das imagens geradas;

• Aumento na quantidade de parâmetros: o aumento na quantidade de canais das camadas


resultou numa melhoria de 21% nas métricas de avaliação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

771
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Além das técnicas acima, uma nova técnica, chamada de truncation trick Brock et al. [2018],
foi introduzida nesse artigo. Nesse aspecto, Uma faixa de amostragem menor resulta em melhor
qualidade das imagens geradas, enquanto uma faixa de amostragem maior resulta em mais
variedade. Para essa técnica funcionar de maneira adequada, pode-se fazer necessário o uso de
um método chamado Orthogonal Regularization Huang et al. [2018], na qual se busca manter,
em todas as interações, os fundamentos ortogonais propostos na inicialização dos pesos.
Na arquitetura proposta nas figuras 4a, 4b e 4c, é possível observar a entrada de uma classe
no começo da rede generativa. Este procedimento é conhecido como conditional instance
normalization e foi proposto por Dumoulin et al. [2016]. Este método busca normalizar as
ativações baseado nas estatísticas de uma classe, como por exemplo, uma face de um cachorro.
Além disso, nota-se que a Big GAN se baseia na arquitetura ResNet proposta por He et al.
[2016], na qual se tem a presença de blocos residuais.

3. METODOLOGIA

A metodologia utilizada na realização desse trabalho consiste em 5 etapas.

Figura 5- Diagrama da metodologia utilizada

3.1 Revisão Bibliográfica

A primeira etapa da metodologia, consiste em revisar as arquiteturas de redes generativas


adversárias existentes e entender, principalmente, seu funcionamento e limitações. Além disso,
busca-se compreender as possíveis causas de problemas existentes em cada arquitetura, bem
como suas possíveis soluções.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

772
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3.2 Definição da base de Dados

Nessa etapa, o principal objetivo era definir um conjunto de dados, composto por raças
de cachorro, para treinamento e avaliação dos modelos propostos para implementação. Duas
abordagens eram possíveis: a primeira seria a obtenção desse dataset a partir de um processo de
crawler na Internet. A segunda, por sua vez, seria a utilização de uma base de dados já proposta
e utilizada em outros projetos.
Visando uma maior qualidade e replicabilidade do projeto, foi definido o uso da base de
dados proposta por Khosla et al. [2011] para implementação desse trabalho.

3.3 Implementação das arquiteturas estudadas

Nessa terceira etapa, serão implementados os seguintes algoritmos para o problema de


geração de novos cachorros:

Arquitetura Naive GAN Nesta rede, foram usadas as técnicas de estabilidade presentes no
estudo proposto por Goodfellow et al. [2014].

Arquitetura DCGAN Da mesma forma que na arquitetura Naive GAN, foram seguidas todas
as recomendações propostas pelos autores deste modelo.

Arquitetura SAGAN O modelo SAGAN implementado, teve como base o modelo DCGAN.
Ou seja, tem-se a mesma arquitetura, porém com a adição da operação Self-Attention aplicada
na operação que resulta na imagem 32x32.

Arquitetura Big GAN Por fim, este modelo foi implementado também seguindo as definições
e parâmetros definidos pelos autores dessa arquitetura.

3.4 Coleta dos resultados das arquiteturas estudadas

Nessa etapa do processo, será calculado as duas principais métricas de qualidade sobre os
modelos implementados: IS e FID.

3.5 Análise dos resultados obtidos

Nesta última etapa, o principal objetivo foi mostrar e analisar os resultados apresentados
pelas diferentes arquiteturas aplicados ao problema de geração de imagens artificiais de
cachorros. Para isto, foi levado em consideração as métricas de IS e FID, bem como foram
analisadas a estabilidade e facilidade de implementação das arquiteturas, conseguindo assim,
determinar o melhor caso de uso para cada arquitetura comparada.

4. RESULTADOS

Todos os experimentos usaram a mesma base de dados, com objetivo de comparar, de forma
justa,todos os modelos de redes generativas propostos. Além disso, foram obtidos, ao final de
cada treinamento, os valores das métricas IS e FID, sendo mantidos, sempre que possível, todos
os valores de parametrização usados nos artigo originais. Na tabela 1, é possível observar um
resumo dos valores obtidos pelas métricas para cada modelo de rede.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

773
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Tabela de resultados obtidos com os melhores valores em negrito. Ou seja, as imagens de
maior qualidade apresentam os melhores valores de FID e IS.

IS (maior melhor) FID (menor melhor)


Naive GAN - -
DCGAN 3,8785 204,7360
SAGAN 5,4497 172,6070
Big GAN 18,1994 78,1360

Abaixo será feita a análise detalhada de cada modelo estudado, apontando os pontos
positivos e negativos de cada arquitetura.

4.1 Naive GAN

Devido a natureza rudimentar deste método, foi feita uma simplificação no treino, ou seja,
foram consideradas duas classes: cachorro e não cachorro. Assim, tanto no experimento, no
qual as redes discriminadora e generativa foram treinadas em paralelo, quanto no treinamento,
no qual foram treinadas separadamente, foram capazes de gerar amostras de qualidade.

4.2 Deep Convolutional Gan (DCGAN)

Nesse modelo, a base de dados utilizada considerou cada raça de cachorro como uma classe
diferente, alcançando, dessa forma, um total de 121 classes para treinamento. Além disso, todos
os parâmetros da rede foram configurados conforme o modelo apresentado por Radford et al.
Radford et al. [2015]. Os melhores resultados obtidos com esta rede podem ser observados na
Figura 6.

Figura 6- Melhores resultados obtidos na arquitetura Deep Convolutional Gan (DCGAN)

Conforme descrito nas seções anteriores, este modelo proposto por Radford et al., se
caracteriza como uma base de boas práticas para utilização de redes convolucionais em

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

774
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

arquitetura GAN. Devido a isso, os autores do artigo original, não apresentaram resultados
das métricas IS e FID, o que tornou impossível uma comparação dos valores obtidos na Tabela
1. No entanto, é possível inferir que o baixo desempenho da rede se deve ao fato da base
de dados, apesar de possuir muitas classes, não apresentar variações significativas entre as
amostras. Além disso, como a base de dados utilizada possui várias classes, o treinamento é
dificultado, gerando resultados, no que se refere às imagens finais e as métricas de desempenho,
de qualidade inferior.
Percebe-se no gráfico de Iterações x Loss da figura 6 que os valores obtidos foram dentro
do esperado, ou seja, o gerador com o mínimo de perda, enquanto o descriminador obteve o
máximo de perda. Além disso, em ambas as redes não se observa nenhum colapso, fato que
possibilitou obter amostras com algum grau de semelhança com cachorros.
Uma ação possível para melhorar o desempenho dessa arquitetura é encontrar um conjunto
otimizado de parâmetros para a rede. Uma solução para isso seria utilizar um framework de
otimização de hiperparâmetros, como o Optuna Akiba et al. [2019].

4.3 Self-Attention GAN (SAGAN)

Neste modelo, o objetivo foi observar qual seria o impacto da operação de self-attention
no desempenho da rede generativa DCGAN, no que tange as métricas de avaliação FID e IS.
Como pode ser observado na Tabela 1, o desempenho da SAGAN foi superior a DCGAN para
as duas métricas. No entanto, essa melhora não foi tão significativa como descrito por Zhang
et al. Zhang et al. [2018] em seu trabalho.

Figura 7- Melhores resultados obtidos na arquitetura Self-Attention GAN (SAGAN)

A Figura 7 mostra os melhores resultados gerados por esse modelo e é possível perceber
uma melhora em relação as amostras geradas pelo modelo DCGAN (Figura 6). Contudo, a
rede SAGAN apresenta uma complexidade maior no que tange ao número de parâmetros que
devem ser ajustados em relação ao modelo DCGAN, bem como exige uma sintonia mais fina
no ajustes desses parâmetros para que o modelo não colapse.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

775
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Outro fator que deve ser levado em consideração na escolha desse modelo é o seu alto custo
computacional. Por exemplo, nos testes, não foi possível gerar imagens de maior qualidade
(64x64), mas somente imagens de tamanho reduzido (32x32), pois alto custo de processamento
e memória, tornou inviável o treinamento no equipamento utilizado nos experimentos (colocar
o equipamento, mesmo que seja uma nota de rodapé).
Devido a grande dificuldade em se encontrar os valores de parâmetros que gerassem
resultados satisfatórios, uma possível solução seria a utilização, como na DCGAN, de um
framework de otimização de hiperparâmetros, como o Optuna Akiba et al. [2019].

4.4 Big GAN

Para a realização dos experimentos da rede Big GAN foi necessário utilizar uma rede
pré-treinada (disponibilizada em Google [2018]), devido ao seu alto custo computacional de
treinamento. Na figura 8 é possível observar os melhores resultados obtidos para esse modelo.

Figura 8- Melhores resultados obtidos na arquitetura Big GAN

Os resultados obtidos com o modelo Big GAN foram similares aos encontrados por Brock
et al. Brock et al. [2018] e mostraram que esta arquitetura foi a melhor, em termos de qualidade
de imagem e resultados de IS e FID, entre todas as arquiteturas testadas. No entanto, assim
como ocorreu nos outros modelos, é possível observar uma diminuição nos valores obtidos
para as métricas quando comparado com os valores originais encontrados em Brock et al.
[2018]. Esta diferença se deve, principalmente, à limitação de classes presente nos testes
realizados neste artigo, uma vez que, neste trabalho, foram usadas somente raças de cachorros,
diferentemente do artigo original que usou mais de 20000.

5. CONCLUSÃO

Este artigo se propôs a realizar uma comparação entre quatro modelos de redes generativas
adversárias: Naive Gan, DCGAN, SAGAN e Big Gan. Para isso, foi feita uma análise

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

776
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

quantitativa sobre as métricas FID e IS dos modelos, bem como uma análise qualitativa sobre
dificuldades e vantagens de cada arquitetura. Ao final, foi possível perceber, semelhantemente
ao resultados encontrados na literatura, que as melhores redes, segundo as métricas FID e IS,
foram, em ordem crescente: Naive GAN, DCGAN, SAGAN e Big Gan.
Ao se realizar uma análise qualitativa pôde-se perceber que, mesmo apresentando os
melhores resultados, os modelos Big GAN e SAGAN, exigem um grande poder computacional,
além de possuir um maior número de parâmetros a serem otimizados. Este aumento da ordem
paramétrica torna o processo de ajuste do sistema extremamente complexo, dificultando, dessa
forma, a obtenção de resultados satisfatórios para a geração de um conjunto de dados.
Com isso, caso o resultado esperado nessa geração de novas instâncias não tenha como
requisito a alta qualidade ou uma amostra de tamanho elevado, a DCGAN poderia ser uma
boa opção devido ao menor número de parâmetros que precisam ser ajustados, bem como a
sua maior velocidade de processamento. Já as redes Naive GAN, devido a sua instabilidade e
a baixa qualidade dos resultados apresentados, poderiam ser desconsideradas no processo de
geração de novas instâncias de imagens.
Como trabalhos futuros, propõe-se repetir os experimentos, mas agora considerando apenas
duas classes (cachorro ou não cachorro), nas redes DCGAN, SAGAN e Big GAN, para validar
a hipótese de influencia desse parâmetro sobre os resultados e métricas. Outra proposta, seria a
utilização de um framework de otimização de hiperparâmetros, como o Optuna.

Agradecimentos

Os autores gostariam de agradecer ao CEFET-MG pela infraestrutura disponibilizada e pelo


suporte financeiro, sem o qual esse trabalho não teria sido viável.

REFERÊNCIAS

Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna:
A next-generation hyperparameter optimization framework. In Proceedings of the 25rd ACM
SIGKDD International Conference on Knowledge Discovery and Data Mining, 2019.
Andrew Brock, Jeff Donahue, and Karen Simonyan. Large scale gan training for high fidelity
natural image synthesis. arXiv preprint arXiv:1809.11096, 2018.
Y. Cao, L. Jia, Y. Chen, N. Lin, C. Yang, B. Zhang, Z. Liu, X. Li, and H. Dai. Recent advances
of generative adversarial networks in computer vision. IEEE Access, 7:14985–15006, 2019.
Vincent Dumoulin and Francesco Visin. A guide to convolution arithmetic for deep learning.
arXiv preprint arXiv:1603.07285, 2016.
Vincent Dumoulin, Jonathon Shlens, and Manjunath Kudlur. A learned representation for
artistic style. arXiv preprint arXiv:1610.07629, 2016.
Bent Fuglede and Flemming Topsoe. Jensen-shannon divergence and hilbert space embedding.
In International Symposium onInformation Theory, 2004. ISIT 2004. Proceedings., page 31.
IEEE, 2004.
Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil
Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial nets. In Advances in
neural information processing systems, pages 2672–2680, 2014.
Google. Big gan demo, mar 2018. URL https : / / colab. research . google . com / drive /
1rqDwIddy0eunhhV8yrznG4SNiB5XWFJJ#scrollTo=3fJWQ8WSAFhh.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

777
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for
image recognition. In Proceedings of the IEEE conference on computer vision and pattern
recognition, pages 770–778, 2016.
Martin Heusel, Hubert Ramsauer, Thomas Unterthiner, Bernhard Nessler, and Sepp Hochreiter.
Gans trained by a two time-scale update rule converge to a local nash equilibrium. In
Advances in Neural Information Processing Systems, pages 6626–6637, 2017.
Lei Huang, Xianglong Liu, Bo Lang, Adams Wei Yu, Yongliang Wang, and Bo Li. Orthogonal
weight normalization: Solution to optimization over multiple dependent stiefel manifolds in
deep neural networks. In Thirty-Second AAAI Conference on Artificial Intelligence, 2018.
Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training
by reducing internal covariate shift. arXiv preprint arXiv:1502.03167, 2015.
Aditya Khosla, Nityananda Jayadevaprakash, Bangpeng Yao, and Li Fei-Fei. Novel dataset for
fine-grained image categorization. In First Workshop on Fine-Grained Visual Categorization,
IEEE Conference on Computer Vision and Pattern Recognition, Colorado Springs, CO, June
2011.
Yann LeCun and Corinna Cortes. MNIST handwritten digit database. 2010. URL http:
//yann.lecun.com/exdb/mnist/.
Takeru Miyato, Toshiki Kataoka, Masanori Koyama, and Yuichi Yoshida. Spectral
normalization for generative adversarial networks. arXiv preprint arXiv:1802.05957, 2018.
John F Nash et al. Equilibrium points in n-person games. Proceedings of the national academy
of sciences, 36(1):48–49, 1950.
Alec Radford, Luke Metz, and Soumith Chintala. Unsupervised representation learning with
deep convolutional generative adversarial networks. arXiv preprint arXiv:1511.06434, 2015.
Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, and Xi Chen.
Improved techniques for training gans. In Advances in neural information processing
systems, pages 2234–2242, 2016.
William J Stewart. Introduction to the numerical solution of Markov chains. Princeton
University Press, 1994.
Han Zhang, Ian Goodfellow, Dimitris Metaxas, and Augustus Odena. Self-attention generative
adversarial networks. arXiv preprint arXiv:1805.08318, 2018.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

778
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

AUTOMATIC GENERATION OF ARTIFICIAL IMAGES OF DOGS: AN APPROACH


USING GENERATIVE ADVERSARIAL NETWORKS

Abstract. Generative Adversarial Networks (GANs) are widely applied in creating new
instances (such as images, texts, and videos), as in the graphic arts, in literature, to create new
products, among others. Among the several factors favorable to its widespread use, the ability
to generate instances similar to the natural elements stands out. In this work, the evaluation of
different implementations of opposing regenerative neural networks was elaborated to improve
the topic’s understanding. The models under study are Naive Gan, DCGAN, SAGAN and
Big Gan, using a fixed database of dog images for this purpose. Two metrics were used, the
Fréchet Inception Distance (FID) and the Inception Score (IS), to evaluate the performance
of the models. Likewise, each model’s main advantages and disadvantages were presented
regarding the visual quality of the images produced and the main problems found in the models’
simulations. The final result showed that the simulated generative networks had lower FID and
IS values than those obtained in the literature, in addition to instability problems and difficulty
in parameterization. However, it was possible to see that, similar to the literature’s results, the
Big GAN network presented the best metrics.

Keywords: Generative adversarial networks, Artificial neural networks

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

779
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

WET AREA IDENTIFICATION BY THE METHOD OF FUNDAMENTAL


SOLUTIONS

Manuel E. Ramı́rez Carrillo1 - manuelramirez@ppgmmc.ci.ufpb.br


Jairo Rocha de Faria2 - jairo@ci.ufpb.br
1,2 Universidade Federal da Paraı́ba, Centro de Informática, PB, Brazil

Abstract.
Moisture on the walls is a relevant problem, both for civil construction, regarding preserving
historic buildings. In this work, we propose a method of reconstructing the wet area, inspired
by the impedance tomography problem and considering the method of fundamental solutions,
which is a meshless method. Therefore, very suitable for application in a free boundary
problem. We perform numerical simulations to study the accuracy of the proposed method.

Keywords: Electrical Impedance Tomography, Shape Optimization, Method of Fundamental


Solutions, Nonlinear Programming

1. INTRODUCTION

This work focuses on the inverse problem of electrical impedance tomography (EIT) to
analyze moisture in structures. The EIT is a noninvasive type of medical imaging that consists
of determining the conductivity distribution in a geometrical domain from surface electrode
measurements.
Topology and shape optimization techniques are applied to address this type of problem.
These methods are based on minimizing a shape functional when the domain is perturbed its
shape (shape sensitivity analysis - Sokolowski & Zolesio. (1992), or by a singular perturbation,
such as the creation of holes, inclusions, sources, (topological sensitivity analysis) - Novotny &
Sokolowski. (2013).
In recent work, Sikora et al. (2018), presented an optimization algorithm based on the Gauss-
Newton method in addition to a hybrid of this method and the level definition method, achieving
significant, but not accurate results.
In Rymarczyk et al. (2018), the general idea that was adopted is to build a static mesh inside
the wall to use each mesh element as a pixel corresponding to a color that is associated with the
electrical conductivity. The main disadvantage is that the quality of the wet area reconstruction

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

780
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

depends on the number of pixels considered at the time of mesh generation, producing high
computational cost.
This work presents an alternative approach without performing shape sensitivity analysis to
avoid dealing with additional calculations using the already mentioned methods. Furthermore,
the method of fundamental solutions (MFS) is applied to overcome the problem of iterative
discretization of the domain in the reconstruction process, which is involved when using mesh-
dependent methods, particularly the finite element method, which was used in the papers already
mentioned.
The main idea of the methodology used to solve the electrical impedance tomography (EIT)
inverse problem is to minimize a cost function related to the measurements and the numerical
data obtained through the MFS. The last data is dependent only on the boundary of the target.
We present several numerical examples to verify the validity of the method. For a simulation
more realistic, we incorporate white gaussian noise (WGN) in the data.

2. PROBLEM FORMULATION

Let us denote Ω, a bounded domain in Rn , n = 2, 3, with a smooth boundary ∂Ω = ∪5i=1 Σi .


Furthermore, Ω is split into two disjoint domains Ω1 and Ω2 , such that Ω = Ω1 ∪ Ω2 with
conductivities γ1 and γ2 , respectively. We consider the set of electrodes E = {e1 , · · · , eL }
placed on both surfaces of a wall, as shown in Fig. 1, where currents are applied. Also, the
electrical conductivity γ is assumed piecewise constant, namely
(
γ1 in Ω1
γ(x) = , (1)
γ2 in Ω2

γi > 0, i = 1, 2.

Σ1 Ω2 Σ5
Γ

Σ2 Ω1 Σ4
Electrodes
Σ3

Figure 1- EIT problem representation.

If the distribution of electrical conductivities, i.e. Ω1 and Ω2 , is known in advance, then the
mathematical model to describe the electrical potential is given by



 −div(γ(x)∇u) = 0 in Ω
 ∂u
∂n
(x) = 0 on (∂Σ1 ∪ ∂Σ2 ∪ ∂Σ4 ∪ ∂Σ5 ) \ E
, (2)

 u(x) = 0 on Σ3
u(x) = f (x) on E

Conversely, the EIT inverse problem aims at finding the distribution of electrical conductivity
taking into account the information about potential and currents at the boundary. In order to

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

781
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

solve this problem, electrical potentials are applied to the electrodes ei , these potentials produce
∂u
a current density in the electrodes (qi = γ ∂n (ei )). In other words, the inverse problem aims at
reconstructing the free boundary Γ that leads to solutions that satisfy the Eq.(2).

3. THE METHOD OF FUNDAMENTAL SOLUTIONS

The Method of Fundamental Solutions is a meshless method that has been widely applied
in numerical solutions of boundary value problems (BVP) when the fundamental solution is
known. MFS’s main idea is to approximate the solution by a collocation method, taking
into account a linear combination of fundamental solutions, whose singularities are outside
the domain, on a fictitious boundary. For details on applying MFS to inverse problems, see
Karageorghis et al. (2011).
Besides the advantages over domain discretization methods, such as the Finite Element
Method and the Finite Difference Method, the MFS also has advantages over the Boundary
Element Method (BEM). The MFS does not require a sophisticated discretization; neither
involves costly integrations over the boundary. Also, both the solution and its derivatives are
evaluated directly, while a quadrature is requested in BEM. On the other hand, the MFS is easy
to implement and requires little data preparation. Finally, an essential advantage of MFS in the
present context is the ease of working with free boundary problems, Karageorghis (1992).
In this paper, we consider Ω ∈ Rn , n = 2, 3. In this case, the fundamental solution of the
Laplace operator is given by
1

 − 2π ln||x − ξ||, n = 2,
Φ(x, ξ) = (3)
1

4πkx−ξk
, n = 3.

Where ||·|| is the Euclidean norm, and ξ denotes a singularity. Then, we consider M collocation
points x1 , · · · , xM on the boundary ∂Ω and N source points ξ1 , · · · ξN on a fictitious boundary
containing Ω. The Fig. (2) presents an example of a schematic diagram of the MFS, taking
M = N = 128, where the fictitious boundary given by a square of side R = 2 and centered at
(0.5, 0.5).

Figure 2- Representation of the distribution for the collocation and source points.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

782
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The MFS sets out the solution to the problem through a linear combination of the
fundamental solutions, i.e.
N
X
umf s = cj Φ(x, ξj ). (4)
j=1

To compute the MFS solution for the Prob. (2), we consider continuity and jump of the
normal derivative

∂u1 ∂u2
u1 |Γ = u2 |Γ , γ1 = γ2 , (5)
∂n Γ ∂n Γ

in Γ, arising from the variational formulation of Prob. (2), as well as the collocation at
boundaries Σ1 , Σ2 , Σ3 and Σ4 . With these elements, we have the resulting system of algebraic
equations

Ac = b. (6)

The matrix A is often ill-conditioned and requires some regularisation. In this work, we
adopt the Tikhonov regularization method, which replaces the system (6) with the optimization
problem

min kAc − bk2 + λkP (1) ck2 , (7)


c∈RN

where λ > 0 is a smoothing parameter and the matrix P (1) ∈ R(N −k)×N is associated to the first
order Tikhonov regularization, see Hansen (2010). In particular, in this work, the parameter
λ > 0 is prescribed by the L-curve criterion, Hansen (1992).

4. NUMERICAL RESULTS

Initially, in order to solve the inverse problem in an intuitive way, the following cost
functional is proposed
2 2
X ∂u1 X ∂u2
J(z) = γ1
∂n − q Ei

2 z + γ2
∂n − q Ej 2 z .
(8)
i∈{2,4} L (Σ ) i L (Σ )
j∈{1,5} j

Taking into account n0 points for the reconstruction process, the unknown vector z ∈ Rn0
describes the shape of the surface Γ to be reconstructed. In addition, u1 , u2 are the numerical
solutions obtained by means of the MFS taking into account the configuration of domains Ω1
and Ω2 , which in addition to the boundaries {Σzk }, k ∈ {1, 2, 4, 5} depend on z. The values
qEl , l ∈ {1, 2, 4, 5} represent the corresponding current measurements on the set of electrodes
El ⊂ ∂Σl on the current boundaries, and E = E1 ∪ E2 ∪ E4 ∪ E5 .
In order to obtain smooth solutions (reconstructions) in the minimization of the previous
cost functional, a regularization term was introduced, thus, Eq. (8) becomes

JR (z) = J(z) + λJ kPR zk. (9)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

783
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Where PR is the following matrix


 
−1 1 0 ... 0
 0 −1 1 . . . 0 
PR =  ..  ∈ R(n0 −1)×(n0 ) , (10)
 
.. .. .. ..
 . . . . . 
0 0 . . . −1 1

In all of the following examples, the electrical conductivities were assumed to be γ1 = 1


(water) and γ2 = 0.01 (air).

4.1 Examples for the two-dimensional case

Let us consider the Prob. (2) where the target boundary Γ∗ = 0.5 and the Dirichlet boundary
condition f (x), x ∈ [0, 1], given by
( γ2
− γ1 y, if y ≤ 0.5
f (x) =   . (11)
y − γγ12 + 1 0.5, if y > 0.5

Under the conditions described above, we have the following analytical solution to the direct
problem (2).

u1 = − γγ12 y, in Ω1
( an
an
u (x, y) = 
γ2
 . (12)
uan
2 = y − γ1
+ 1 0.5, in Ω2

For the numerical solution, we consider R = 2, N = 56 source points and M = 96 collocation


points, where 32 of which are electrodes and n0 = 16 belong to the unknown boundary Γ. The
source points are placed over the fictitious square of 2R-sized side, with center in (0.5, 0.5). 16
colocation points belong to each wall (Σ1 ∪ Σ2 and Σ4 ∪ Σ5 ) and 16 points over the unknown
boundary Γ.
It is worth mentioning that a routine was implemented for the selection of the Tikhonov
regularization parameter through the L-curve criterion, this routine is executed every iteration
which guarantees the best parameter in each step of the procedure. The range of choice for the
Tikhonov regularization parameters associated with the MFS is {10−10 , 10−9 , . . . , 10−6 , 10−5 }
and was used in all the numerical examples.
In all tests of the examples 1−4, for the minimization of the cost functional (9) was used the
active-set method from the optimization function fmincon of MATLAB. Finally, in the examples
1−3, there are several tests involving a single constant target surface, as well, it is used (λJ = 5),
chosen by the criteria of trial and error in the range of {10−2 , 10−1 , 0, 1, 2, 3, 4, 5, . . . , 20}.
Example 1. As a first example, the Γ0 = 0.1 constant boundary is used as an initial estimate.
Test 1. Figure 3 shows the result after 49 iterations.
Test 2. White Gaussian Noise (WGN) was added in this test. Figures 4 and 5 show the
results corresponding to 1% and 5% of WGN respectively.
Table 1 shows the number of iterations, the final cost functional value and the error between
the target surface Γ∗ and the reconstruction Γr .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

784
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3- Test 1. Figure 4- Test 2 with 1% WGN. Figure 5- Test 2 with 5% WGN.

Table 1- comparison of the number of iterations, cost function values and reconstruction errors for the
Example 1.
WGN Iterations JR kΓr − Γ∗ kL2 (Γ)
0% 49 0.00632996 0.044716
1% 68 0.0703142 0.038997
5% 57 0.197282 0.095015

Example 2. In this test, the initial boundary was considered to be

Γ0 (xn0 ) = 0.2 + 0.1 sin 16πxn0 , xn0 ∈]0, 1[. (13)

Test 3. Fig. 6 depicts the result the algorithm achieves with 24 iterations.
Test 4. Figures 7 and 8 are the results obtained by incorporating the noise levels 1% and 5%.

Figure 6- Test 3. Figure 7- Test 4 with 1% WGN. Figure 8- Test 4 with 5% WGN.

Table 2 presents the behavior of the results with such added noise levels.

Table 2- Comparison of the number of iterations, cost function values and reconstruction errors for the
Example 2.
WGN Iterations JR kΓr − Γ∗ kL2 (Γ)
0% 24 0.00636919 0.054298
1% 23 0.0641294 0.104858
5% 42 0.214811 0.122469

Example 3. We consider fictitious data for a specific target boundary Γ∗ . More specifically,
the following procedure was performed:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

785
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• An arbitrary Γ∗ surface was fixed as the target area to be reconstructed.

• The associated direct problem (2) was addressed numerically using MFS.

• The fictitious measurements qi were obtained by taking the normal derivative of the
numerical solutions on the electrodes.

For the creation of the fictitious data, the same Dirichlet conditions as in Examples 1 − 3 were
considered. The target area Γ∗ :]0, 1[→]0, 1[, was given by

Γ∗ (xn0 ) = 0.5 + 0.1 sin 2πxn0 . (14)

Furthermore, 64 source points were considered on the side square centered on (0.5.0.5), with
64 collocation points. A second-order Tikhonov regularization was also applied to the system
matrix associated with MFS.
Test 5. To solve the inverse problem and in order to avoid inverse crimes, N = 64 source
points were placed in the (0.5.0.5) centered square of radius 4, M = 64 collocation points,
of which n0 = 16 belong to the boundary to be reconstructed. The regularization parameter
for the cost functional (9) was λJ = 10, chosen by the criterion of trial and error in the range
{10−2 , 10−1 , 1, 2, 3, . . . , 10}. The initial boundary considered was constant Γ0 (x) = 0.1212.
The result of the reconstruction of the border considered is presented in Fig. 9. It required
400 iterations to achieve a cost functional tolerance value of 0.05.

Figure 9- The initial, desired and computed distribution for the wet area reconstruction for the Test 5.

4.2 Examples for the three-dimensional case

A series of tests were performed for various source point distribution (spherical, cubic,
parallelopipedon). The spherical distribution was the most efficient and is used in all the
following numerical examples. For all of the following examples, it was considered an
orthohedral domain of [0, 30] × [0, 50] × [0, 100], with k = 32 electrodes, 16 placed on
each wall, respectively. It was considered 62 collocation points: 32 on each wall, 15 at
the base, and n0 = 15 on the surface to be reconstructed. Also, fictitious data was created
using the same procedure described in Example 4, considering two types of target boundaries
shown in the examples 5 and 6. For the Dirichlet data used, the values (1, 2, 3, ..., 15, 16) and
(4, 5, 6, ..., 18, 19) were considered in the 16 electrodes placed on each wall parallel to the XZ
plane of the domain considered.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

786
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

For a better comparative unbiased analysis of the proposed method, both for creating
fictitious data and solving the auxiliary problems involved in the implemented algorithm that
solves the inverse problem, the number of source points, and the spherical radius of their
distribution, are different.
It is worth mentioning that all the numerical examples presented were tested using the
interior points, active set, and genetic algorithms using pre-defined MATLAB functions, the
latter being more effective in terms of velocity for its convergence. Therefore, only the results
corresponding to the use of genetic algorithms will be presented below.
It was considered a population size of 100, a limit of 50 generations and Eq. (9) is used as
the fitness function. The following are two numerical examples for two different target surfaces,
regarding in each of the different initial surfaces and WGN.
Example 4. In this first example, for the creation of the fictitious measures, the target
boundary Γ∗ :]0.30[×]0.50[→]0.100[ was considered constant Γ∗ = 60.
Test 6. It was taken as an initial guess, the constant boundary Γ0 = 15. Figure 10 presents
the result obtained by the algorithm. Figures 11 and 12 represent the outcomes after adding 3%
and 5% of WGN, respectively.
Table 3 provides the relationship between the noise and the final value of the minimized
function after 50 iterations in all cases.

Figure 10- Test 6. Figure 11- Test 6 with 3% WGN. Figure 12- Test 6 with 5% WGN.

Table 3- Comparison of the computed optimal cost function values for the Example 4, Test 6.
WGN JR
0% 0.00004975
3% 0.0001007
5% 0.0001216

Test 7. For this case, as an initial estimate, the surface area Γ0 :]0, 30[×]0, 50[→]0, 100[,
given by
Γ0 (x1 , x2 ) = 5(sin x1 + cos x2 ) + 10, xn0 = (x1 , x2 ), (15)
was considered. The Fig.(13) is the result achieved by the algorithm for 50 iterations. Figures
(14) and (15) display the outputs after incorporating 3% and 5% of WGN respectively. For a
comparison between noise and the value of the cost function, see Table 4. For all cases, 50
iterations were considered.
Example 5. Finally, let us consider the target boundary Γ∗ :]0.30[×]0.50[→]0.100[,
Γ∗ (x1 , x2 ) = 5(sin x1 + cos x2 ) + 60. (16)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

787
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 13- Test 7. Figure 14- Test 7 with 3% WGN. Figure 15- Test 7 with 5% WGN.

Table 4- Comparison of the computed optimal cost function values for the Example 4, Test 7.
WGN JR
0% 0.00004976
3% 0.00007847
5% 0.00008175

and the initial estimative

Γ0 (x1 , x2 ) = 5(sin x1 + cos x2 ) + 10. (17)

The findings for the boundary reconstruction with 0%, 1% and 3% WGN are shown in the
Figures 16, 17 and 18, respectively. Table 5 shows the final value of the cost functional after 50
iterations.

Figure 16- Example 5. Figure 17- Example 5 with 1% Figure 18- Example 5 with 3%
WGN. WGN.

Table 5- Comparison of the computed optimal cost function values for the Example 5.
WGN JR
0% 0.00005194
1% 0.00005738
3% 0.00009358

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

788
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. CONCLUSIONS

In this work we have proposed an approach to solve the EIT inverse problem for the
analysis of wetness in structures by boundary measurements. The aim of this proposal was
the application of the Fundamental Solutions Method to solve the inverse problem, due to the
greater ease of implementation and reduction of the computational cost involved in relation
to the mesh dependent numerical methods, which applied to this type of problem, imply in
re-meshing the domain at each iterative phase, independently of the method used to solve the
inverse problem.
The problem was addressed by solving the EIT direct problem associated with a distribution
of movable position points related to a cost functional to reconstruct the water-free surface
on a wall. We have shown that the proposed algorithm can approximate the target boundary
through several two-dimensional and three-dimensional examples addressed in this work by
solving some numerical experiments. Two objective boundaries were presented considering
fictitious data created by numerical solutions obtained through MFS and polluting those data
with WGN. However, a disadvantage of using this method is that it relies on regularization due
to poorly conditioned MFS systems of equations, involving the search for the best regularization
parameter at each stage of the iterative reconstruction process.

REFERENCES

Hansen, P. (1992), Truncated Singular Value Decomposition Solutions to Discrete Ill-Posed Problems
with Ill-Determined Numerical Rank, SIAM J. Scientific Computing, 11, 503-518.
Hansen, P. (2010), “Discrete inverse problems. Insight and algorithms”, Society for Industrial and
Applied Mathematics, USA.
Karageorghis, A. (1992), The method of fundamental solutions for the solution of steady-state free
boundary problems, J. Comput. Phys., 98, 119–128.
Karageorghis, A.; Lesnic, D. and Marin, L. (2011), A survey of applications of the MFS to inverse
problems, Sci. Eng., 19, 309–336.
Novotny, A. A.; Sokolowski, J. (2013), “Topological derivatives in shape optimization”. Interaction of
Mechanics and Mathematics. Springer, Heidelberg.
Rymarczyk, T. and Klosowski, G. (2018), The use of a neural controller in masonry tomography, 05,
172-176.
Rymarczyk, T.; Klosowski, G. and Kozlowski, E. (1994), “Non-Destructive System Based on Electrical
Tomography and Machine Learning to Analyze Moisture of Buildings”, Sensors (Basel) 2018 Jul,
18(7): 2285.
Sikora, J.; Rymarczyk, T.; and Tchórzewski, P. (1994), “Detect Dampness in Building Walls by Solving
the Inverse Problem in Electrical Impedance Tomography”, in Electromagnetic Non-Destructive
Evaluation (XXI), 237-245.
Sokolowski, J. and Zolesio, J.P. (1992),“Introduction to Shape Optimization”, Springer-Verlag, Berlin.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

789
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

EFEITOS DO REGIME DE TRANSIÇÃO EM CONDIÇÕES MARINHAS SOB A


ZTA NA METALURGIA DA SOLDAGEM DO AÇO API 5LX70

Pedro Henrique Soares Pinto1 – pedro.henrique@ime.eb.br


Hellen Karina Pereira Alkimim1 – hellen.karina@ime.eb.br
Isaque Alan de Brito Moura1 – isaquebrito2013@gmail.com
Cecilia Silva Monnerat2 – cecimon@gmail.com
Eduardo de Sousa Lima1 – sousalima@ime.eb.br
Sergio Neves Monteiro1 – sergio.neves@ime.eb.br

1
Instituto Militar de Engenharia – IME – Rio de Janeiro, RJ, Brasil
2
Universidade Estadual de Minas Gerais – UEMG – João Monlevade, MG, Brasil.

Abstract. The common types used in platforms and offshores cause corrosion due to the high
concentration of dissolved in the water together with the oxygen present in the atmosphere,
caused by a mechanical weakening of metal, allowing catastrophes. This research proposes
to determine how metallurgical and corrosive properties of steel API 5l X70, welded by
electronic process coated under welding conditions, analyzing the effects of corrosion in the
ZTA after submersion of water samples in the synthetic sea. Thus, steel welding and the
assembly of a device on a laboratory scale were developed, without symmetrical
qualifications such as: characteristics such as temperature, flow, shear stress and viscosity.
The results indicated an average resistance of API 5L X70 steel to corrosion, high
susceptibility of the cellulosic electrode to hydrogen crack formation. Likewise, a high
concentration of carbon in the root pitch had low corrosion compared to the metal base.
Being able to verify if the specimens were more resistant to corrosion in the ZTA. From the
results seen, there are deficiencies in the process, proving the improvement in the welding
and manufacturing process of API 5L X70 steels, requiring a new change to it.

Keywords: Welding; Coating; Synthetic Sea Water.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

790
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Nos ambientes marítimos, tubulações de gás, petróleo e/ou todos os equipamentos


petroquímicos são atingidos pelo processo de corrosão. As condições do meio marinho
tornam-se mais agressivas aos metais devido à presença de íons dissolvidos na água. A água
do mar contém quase todos os elementos, do hidrogênio ao urânio, sendo constituído por
96,7% de água e 3,3% de sais dissolvidos em forma de íons (GEMELLI, 2001). Esses íons
fazem uma ponte salina, o que possibilita o fenômeno de oxirredução entre o oxigênio da
água, do ar e os metais (Feltre, 2005). Os metais com alguma propriedade mecânica
fragilizada como a soldagem, por exemplo, em contato com o meio corrosivo tem um
aumento exponencial na perda da sua resistência mecânica, durabilidade e segurança
(VASCONCELOS, 2016).
Na tentativa de solução dos problemas causados pela corrosão, desenvolveram-se várias
linhas de pesquisas para a solução do problema, como os aços ARBL (Alta Resistência e
Baixa Liga) mais específico o aço API 5L X70 (Association International Petroleum)
(VASCONCELOS, 2016). Os aços ARBL apresentam elevada resistência mecânica mesmo
com baixo teor de liga e uma boa soldabilidade devido seu carbono equivalente (Mattioli,
2018).
Para a soldagem dos aços API geralmente são utilizados eletrodos celulósicos como o
E6010 e E8010 (MATTIOLI, 2018). A utilização dos eletrodos celulósicos na operação de
coalescência se faz pelo fato da sua facilidade de operação, ótima penetração e dissolução no
metal de base. Os eletrodos celulósicos são altamente resistentes à tração (E8010 temos
80000psi de resistência) então para o passe de raiz se utiliza eletrodos com menor teor de liga
no caso o E6010 que garante uma boa tenacidade e ductilidade (MATTIOLI, 2018).
Nesse contexto, o objetivo desse trabalho concentrou-se em determinar as propriedades
metalúrgicas e corrosivas do aço API 5l X70, soldado por processo eletrodo revestido em
determinadas condições de soldagem. Especificamente, determinar características
metalúrgicas do processo de soldagem e sua estrutura e analisar os efeitos da corrosão na
ZTA da metalurgia da soldagem do aço API 5L X70 após a submersão das amostras na água
do mar sintética.

2. DESENVOLVIMENTO

2.1 Materiais e Métodos

Para a realização desse trabalho foi realizado a soldagem do aço API 5L X70 para a
obtenção dos corpos de provas, inicialmente, o preparo da peça seguiu os requisitos
informado pela especificação de processo de soldagem (EPS) API 1104 Ed set/99, utilizando
a fresa de cabeça móvel sem adição de líquido refrigerante. A peça foi chanfrada em um
ângulo de 60° com cada bisel com a 30°. Após a produção do chanfro a peça foi unida de
forma que permanecesse firme e mantendo a distância mínima entre elas, a raiz. A união da
amostra foi feita com dois pontos de soldas nas suas extremidades, para esse processo
utilizou-se do metal de adição conforme a AWS o E6010, sendo o mesmo metal de adição do
passe de raiz, de tal modo não tenha influência na composição química final. Em seguida, foi
aplicado um pré-aquecimento de aproximadamente de 250°C para garantir a uniformidade do
calor aplicado na peça durante a soldagem.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

791
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Após o pré-aquecimento a peça recebeu o primeiro passe, o de raiz. Para esse processo
utilizou-se do consumível classificado pela AWS como E6010 de marca comercial ESAB OK
22.45 P, tais eletrodos ficaram acondicionados na estufa livre de qualquer contaminação com
aproximadamente 50°C no período de 2 horas. Durante o passe de raiz foi utilizado 2
eletrodos E6010 em um tempo de 1 minuto e 8 segundos. Em seguida, foi ajustado novos
parâmetros para o segundo passe, seguindo a EPS API 1104 Ed set/99. O 2° passe utilizou-se
do consumível classificado pela AWS como E8010-G e de marca comercial OK 22.47 P, que
também ficou acondicionado na estufa durante 2 horas a 50°C. Durante o segundo passe foi
utilizado 1 eletrodo E8010 em um tempo de 1 minuto e 32 segundos e 5 milésimos. Para o
preenchimento total da peça utilizou-se os parâmetros finais informados pela EPS API 1104
Ed set/99. No processo de enchimento e acabamento aplicou-se os mesmos parâmetros e
utilizou-se no processo 3 eletrodos, sendo 1 no enchimento e 2 no acabamento.
O tempo de operação de enchimento/acabamento foi de aproximadamente de 228,48
segundos. As velocidades foram controladas com a utilização do cronômetro seguindo o
tempo e a velocidade solicitada pela a EPS. O tempo entre o pré-aquecimento, passe de raiz,
segundo passe e o passe de enchimento/acabamento não ultrapassou o solicitado pela EPS,
totalizando 1772 segundos. Durante todo o processo de soldagem observa-se os parâmetros
como voltagem, tempo, quantidade de material depositado. Logo, as energias encontradas
durante o processo foram calculadas conforme QW 409 da norma ASME seção IX (ASME,
2000).
Para avaliar a qualidade da solda, realizou-se dois ensaios não destrutivos, ultrassom e
líquido penetrante (LP). O ensaio de ultrassom foi realizado em toda a extensão do corpo de
prova seguindo as orientações da norma PETROBRAS - CONTEC N-1594 REV.F DEZ/2004
(CONTEC, 2004). O ensaio utilizou-se do aparelho EPOCH LT Olympus® calibrado com os
parâmetros para aço carbono baixa liga. Para o processo foram utilizados dois diferentes
cabeçotes: reto (4MHz – espessura normal) e 45° (4MHz – 8x45°), estes com velocidades
iguais de aproximadamente 1499m/s. Para a validação da peça, a mesma passou pelo processo
de teste LP seguindo a norma PETROBRAS – CONTEC N-1596 VER.E NOV/2003
(CONTEC, 2013) como referência para validação do processo de soldagem.
Para o processo de preparação metalográfica, a amostra foi seccionada metricamente e
enumerada de forma que facilitasse a sua identificação nos testes futuros. A amostra foi
enumerada de acordo com suas faces primária, ou seja, as faces das duas extremidades. Após
o corte as amostras foram lixadas e polidas dando o acabamento superficial de suas faces. As
amostras foram preparadas conforme norma ASTM 03-80 utilizando as lixas 300#, 400#,
500#, 600#, 800#, 1000#, 1200#, 1500# e posteriormente polidas com feltro e alumina 3,0 μ e
0,5 μ. Após o polimento os corpos de prova foram atacados com NITAL 3%.
A micrografia foi feita a partir do microscópio óptico e analisador de imagem Olympus
Stream®. As amostras foram analisadas e fotografadas nos aumentos de 10X, para os cordões
e região da ZTA.
Para a produção da água do mar sintética, utilizou-se a norma ASTM D-1141-90/ASTM
D-1141-98 (ASTM, 2003). A partir da norma foi preparada a solução pesando as quantidades
dos sais referentes à produção de 10 litros da mesma. Após o preparo das soluções realizou-se
a pesagem das amostras após o polimento e o estudo macrográfico a fim de que após a
pesagem a mesma já fosse para a imersão no simulador de fluxo marinho (FLUXPUMP TP
2101).
Para a construção do simulador do fluxo marinho, o FLUXPUMP TP 2101 utilizou-se
dos seguintes equipamentos; eletromotor 127 V - vazão de 90l/h (2,5x10-5 m3/s) de imersão,
bico injetor de 2,0mm de diâmetro galvanizado, caixa d’agua de PVC (Policlereto de Vinila)
de 4 litros, aletas de alumínio revestido a cobre de 40x40mm, placa peltier 12V – 60W TEC1-
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

792
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

12706, tanque PP (Polipropileno) para resfriamento, aletas de alumínio 90mm de diâmetro,


cooler 12v – 3500RPM, termostato W1209 - Arduino SRA-12VDC-AL e uma fonte ATX
12V multi-saídas.
Para o fluxo utilizou-se a lei de Bernoulli para o cálculo de perda de carga. Para a
eletrobomba, a mesma ficou imersa em outro recipiente chamado de tanque de resfriamento,
ficando isolada do sistema, sem interferir na temperatura da solução. Para manter a
temperatura constante, utilizou-se a placa peltier com dissipador de aletas com a finalidade de
alcançar a transferência de calor. Para o controle da temperatura utilizou-se um termostato
para fazer a manutenção da temperatura. O funcionamento do sistema utilizou-se do
termostato digital que monitora o funcionamento da placa peltier e do cooler, mantendo assim
o sistema em funcionamento regular. Quando a temperatura ficasse abaixo de 23,5°C o
sistema desligava e acima de 26,5°C o sistema voltava a funcionar.

3. RESULTADOS E DISCUSSÃO

As amostras preparadas foram imersas em solução de água do mar sintética


seguindo as normas da ASTM D-1141-90/ASTM D-1141-98. As seis unidades foram
inseridas no simulador do fluxo marinho que tem como função promover as condições
subaquáticas onde o material em estudo opera. Na Figura 1 são apresentados os corpos de
provas imersos na água, sendo (a) 1 mês imersos; (b) 2 meses imersos e (c) 3 meses imersos.
Pode-se notar as diferenças da coloração do fluído e dos corpos de prova. Os corpos de prova
apresentaram uma disparidade nas suas características visuais como mudança de cor na
superfície e pigmentação da solução. Os corpos de prova inicialmente formaram uma camada
branca passivadora e após um tempo se recobriram de uma camada de óxidos de ferro. Esta
característica é ocasionada pela reação do ferro com a água, originando a água ferruginosa ou
água vermelha (GENTIL, 2011).

Figura 1. Corpos de provas imersos na água com 1 mês (a), 2 meses (b) e 3 meses (c).

De acordo com a Figura 2 é possível observar as camadas dos produtos da corrosão


caracterizada por uma cor castalho avermelhada bem como a camada passivadora identificada
pela coloração branca (GENTIL, 2011). As diferenças nas colorações em forma de escama
são as camadas proveniente dos constituintes da corrosão assim como da passivação do
material. De acordo com Gentil (2011), ao seguir a rota de formação do diagrama de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

793
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Pourbaix, é compreendida toda a formação da camada negra composta de Fe3O4.nH2O assim


como a camada castanho-alaranjada constituída pelo Fe2O3.nH2O.

Figura 2. Corpos de prova apresentando escamas de produtos da corrosão e passivação.

Após a retirada dos corpos de prova da solução efetuou-se a limpeza conforme a norma
da ASTM G1-90/ASTM G1-03. Para a remoção dos produtos de corrosão foi utilizada uma
solução de 5% de ácido clorídrico e posteriormente secadas em estufa por 15 minutos a
100°C. Após a secagem, sucedeu-se a pesagem dos CP’s. Foi possível verificar visualmente
os efeitos da corrosão, calcular a perda de massa e a taxa de corrosão utilizando a norma
ASTM G 31-72 apresentados na Tabela 1.

Tabela 1. Cálculo da taxa de corrosão por perda de massa

A taxa de corrosão média (tcmédia) de 9,78x10-2 mm/ano é classificada como moderada


conforme a classificação NACE RP 0775, apresentada na Tabela 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

794
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2. Classificação da Taxa de Corrosão Uniforme (Nace, 2005).

Classificação Taxa de corrossão (mm/ano)


Baixa < 0,025
Moderada 0,025 – 0,12
Severa 0,12 – 0,25
Muito Severa >0,25

A média das perdas de massas foi de 0,8280g e esse valor mostra que o fluxo permaneceu
linear durante todo os 90 dias promovendo uma corrosão homogênea (NACE, 2005). A partir
da comparação realizada, conclui-se que o comportamento dos corpos de prova em meio
marinho não foi satisfatório nas condições estabelecidas. Com a corrosão dos CP’s
classificada como moderada, é notório que existe a necessidade de aplicação de
processos/pesquisa para redução dessa taxa de corrosão. Após todas análises macrográficas
foram realizadas análises de microscoscopia ótica utilizando a lente de 6X, apresentadas na
figura 3. A escolha do aumento 6X tem a finalidade de verificar a morfologia da corrosão.

Figura 3. Morfologia do Aço API 5L X70 após a imersão, utilizando microscópio Olympus Stream® com
aumento de 6x.

Os corpos de prova apresentaram similaridades nas morfologias provocadas


pela corrosão. Os CPs’s de lado A que ficaram front ao fluxo, foram os mais atacados e
sofreram uma maior quantidade de defeitos promovidos pela corrosão. Observa-se no Ponto
A1 (ponto de raiz) a corrosão uniforme, a corrosão por placas, a corrosão por contorno de
solda e a corrosão alveolar. Todas essas formas citadas se concentraram no passe de raiz
devido a sua maior centralização de carbono e baixo teor de manganês e silício. Para o passe
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

795
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de raiz, foi utilizado o eletrodo que continha uma grande quantidade de carbono e no
momento do resfriamento da soldagem, formou-se uma grande quantidade de martensita.
Como a martensita é uma microestrutura de alta dureza, torna-se mais fácil a penetração do
oxigênio e do hidrogênio, sendo mais suscetível a corrosão (Melchers e Chernov, 2010;
Zhang et al. 2018). Assim, comprova-se que a morfologia nos Pontos A1 é estritamente ligada
a composição química do metal de adição, ou seja, o eletrodo E6010. As outras morfologias
da corrosão como: alveolar, uniforme, placas e contorno de solda são superadas pelas
Transcristalinas devido ao grau de risco. Esse defeito promove danos as propriedades
mecânicas acarretando a uma possível fratura à menor solicitação mecânica (Vora e Badheka,
2017).

4. CONCLUSÃO

As microestruturas dos Cp’s foram similares em toda a extensão nos passes de


enchimento e acabamento, porém, no passe de raiz, as microestruturas não foram regulares,
sendo encontrados pontos de martensita que possibilitam a corrosão. Mesmo que obtivesse
pontos de propensão a corrosão, esperava-se que o grau de manganês fosse suficiente para
garantir que os efeitos da corrosão não fossem severos.
Após a retirada dos Cp’s no meio marinho simulado, foi realizada a limpeza com HCl a
5% e, posteriormente, a análise macrográficas dos mesmos. O esperado pelo estudo realizado
era que o metal de base suportasse melhor do que metal de solda. Porém o observado foi o
oposto, o metal de base sofreu maiores danos da corrosão do que o metal de adição. Apesar da
sua camada passivadora no metal de base formada ter sido mais densa do que a do metal de
adição, o movimento do fluxo de transição promovia a retirava da camada de passivação. Esse
processo de retirada da camada de passivação, provocava o choque efetivo do dos sais e do
oxigênio no metal, como também o arraste de material metálico para o meio aquoso. O metal
de base teve sua superfície de contato maior em relação ao metal de adição, pois conforme o
chanfro em “V” utilizado o mesmo “escondia” o metal de adição entre o metal de base. A
perda de material como os efeitos da corrosão no metal de adição do passe de raiz sofreu
danos similares ao metal de base. Essa coincidência é devido a presença de constituintes
similares. O microconstituinte e a concentração de carbono no passe de raiz potencializaram a
corrosão aumentando a probabilidade de formação de trincas e promoção de acidentes em
operação. As trincas encontradas em alguns Cp’s são provenientes do hidrogênio, das
microestruturas e dos sais da solução. Essa mistura de efeitos produziram a indesejada trinca
por hidrogênio. Os passes de enchimento como o passe de acabamento não foram susceptíveis
aos efeitos da corrosão devido a soma da boa coalescência, a energia de soldagem e a
presença de microestruturas menos atrativas a corrosão.
Outro fator a se considerar é dado a concentração do manganês presente. Esse elemento
de liga fortificou a camada passivadora, mesmo com a sua elevada taxa de desprendimento
devido o fluxo, sua presença somada as varáveis citadas acima se manteve resistente. A
influência da temperatura não foi suficiente para afetar nos efeitos da corrosão, pois, o sistema
manteve a temperatura constante em 25° durante os 90 dias. E relevante ressaltar que os dados
encontrados na pesquisa mostram que o metal de adição foi mais resistente aos efeitos da
corrosão do que metal de base assim evidenciando que o sistema utilizado em campo ainda é
falho.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

796
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS
Gemelli, E. Corrosão de Materiais Metálicos, 5a Ed., São Paulo: Editora LTC, 2001.

Feltre, R. Química Volume 2. São Paulo: Moderna, 2005.

Vasconcelos, E. S. L.; et al. Estudo Da Corrosão Em Juntas De Solda Do Aço API 5l X80 Em Ambiente
marinho. INTERCORR. 2016: 219-225.

Mattioli, C. G.; et al. Fissuração pelo Hidrogênio em um Aço API 5L X70 Soldado com Eletrodos Celulósicos
de Diferentes Níveis de Resistência. Soldagem & Inspeção. 2018; 23(1): 113-125.

Gentil, V. Corrosão, 6ª ed., Rio de Janeiro: LTC, 2011.

NACE – RP0775. Preparation, Installation, Analysis, and Interpretation of Corrosion Coupons in Oilfield
Operations, 2005.

ASME IX. Qualification Standard for Welding and Brazing Procedures, Welders, Brazers, and Welding
and Brazing Operators. The American Society of Mechanical Engineerings, New York, 2000.

CONTEC. Comissão de Normas Técnicas. “Ensaio Não Destrutivos – Ultrassom”. Petrobras, n-1594-
Dez/2004

CONTEC. Comissão de Normas Técnicas. “Ensaio Não Destrutivos – Líquido Penetrante”. Petrobras, n-
1596-Nov/2003.

ASTM. Standard specification for substitute ocean water. ASTM D-1141-98. 2003

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

797
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Combining Rainfall and Water Level Data for Multistep High Temporal Resolution
Empirical Hydrological Forecasting

Cintia Pereira de Freitas1 - cintia.cpfreitas@gmail.com


Michael Macedo Diniz2 - michael.diniz@ifsp.edu.br
Glauston R. Teixeira de Lima3 - glauston.lima@cemaden.gov.br
Marcos Gonçalves Quiles4 - quiles@unifesp.br
Stephan Stephany1 - stephan.stephany@inpe.br
Leonardo Bacelar Lima Santos3 - santoslbl@gmail.com
1 Instituto
Nacional de Pesquisas Espaciais - São José dos Campos, SP, Brazil
2 Instituto
Federal de Educação, Ciência e Tecnologia de São Paulo - São Paulo, SP, Brazil
3 Centro Nacional de Monitoramento e Alertas de Desastres Naturais - São José dos Campos, SP, Brazil
4 Universidade Federal de São Paulo - São José dos Campos, SP, Brazil

Abstract. This work proposes a multilayer perceptron neural network to forecast temporal
series of water level at the outlet of a watershed located in a mountain region in the Brazilian
state of Rio de Janeiro with up to a 2-hour antecedence, which is the time of concentration
that measures the response of the watershed. This particular watershed was chosen due to
previous natural disasters that affected that area, causing floods and landslides. Input data
was collected by a set of hydrological monitoring stations in the considered watershed and is
composed by water level and/or rainfall measures acquired with a 15-minute resolution. The
neural network was implemented using the Python language, the Tensorflow library and the
Keras API. Prediction results were evaluated by the Nash-Sutcliffe coefficient (NSE) and by the
root mean square error, showing a good agreement between predicted and observed values of
the water-level temporal series, specially when combining both water level and rainfall data. In
such case, values of NSE reached 0.994 for prediction antecedence of 15 minutes, and 0.9016,
for 120 minutes.

Keywords: Watershed, Artificial Neural Network, Water Level, Hydrological Monitoring


Station

1. INTRODUCTION

Occurrences of natural disasters are increasing every year, due to climatic changes and
man-induced susceptibilities and vulnerabilities. Among these disasters are the floods, which

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

798
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

are frequent in many countries, and have an obvious potential of causing injuries, fatalities
and damages. However, such effects can be eventually mitigated by forecasts issued with
a minimum antecedence. This work proposes the forecast of water level at the outlet of a
watershed in the city of Nova Friburgo, located in the mountain region of the state of Rio de
Janeiro in Brazil, which has been affected by floods and landslides.
A neural network is proposed to forecast temporal series of water level at the outlet of the
watershed with up to a 2-hour antecedence. Input data was collected by a set of hydrological
monitoring stations in the Grande river watershed. It is composed of temporal series of
water level and rainfall measures acquired with a 15-minute resolution. The programming
environment includes the Python language, the Tensorflow library and the Keras API. Three
different sets of predictions tests were performed, using only temporal series of water level,
rainfall and water level and rainfall. Results show that temporal series of water level at the
watershed can be predicted with acceptable accuracy for up to two hours antecedence, using at
least temporal series of water level as input for the neural network.
A multitude of forecast schemes for variables related to floods, such as water level or
discharge/flow of rivers, have been proposed in the last decades. Mathematical models can
be applied, but depend on the knowledge of physical parameters and also accurate initial
and boundary conditions. On the other hand, the so-called data-driven models are based on
algorithms that can be trained using known post-mortem data in order to ”learn” and thus make
predictions or classifications from new data. These are the machine-learning algorithms applied
to hydrological forecasting, and are discussed in Section 2.
It is difficult to conclude what is the better method/approach since each prediction depends
on the implementation of the proposed method, the availability of data, and the particular
geographical and physical scenario. Therefore, a good method/approach is possibly the one
that achieves a prediction performance that is acceptable for operational use in terms of issuing
warnings of disasters for the civil defense.
The current work is a development of a former prediction approach for the water level at the
outlet of the same watershed (Lima et al., 2016), using a neural network, but not applied to time
series.

2. LITERATURE REVIEW OF HYDROLOGICAL PREDICTION

An extensive review of flood prediction using machine learning was presented in (Mosavi
et al., 2018) showing multiple methods for short-term and long-term predictions. The review
started with thousands of articles, but selected almost two hundred original research articles,
which were then analysed and compared. These methods are mostly based on artificial neural
networks, but also included neuro-fuzzy or adaptive neuro-fuzzy inference systems (ANFIS),
and support vector machine (SVM), among other methods. Different classes of neural networks
are discussed. Hybrid approaches combining different methods and ensemble prediction
systems were also presented. Most articles propose a given method, in order to compare it to
another one that appeared before in a literature reference. According to the considered article,
different variables can be predicted: there are continuous variables like river water level (stage
level), river water flow, rainfall, rainfall-runoff, or categorical variables like flood, urban flood
and flash flood. According to this review, there is an increasing trend in the use of neural
networks, in comparison to other methods along the years, intended for an antecedence of a few
hours, as in this work, but some works consider in this class an antecedence of a few days. In

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

799
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

tropical countries, many of these events start and end in a short period of time, so hydrological
forecast based on observed data is hard to be done. In the case of high temporal resolution flood
prediction, multilayer perceptron (MLP) neural networks seems to be often employed, despite
the difficulty of optimizing its architecture and choosing suitable activation functions. New
architectures, like recurrent the neural networks (RNN, (Elman, 1990)) and one of their variants,
the long short-term memory neural networks (LSTM (Hochreiter & Schmidhuber, 1997; Gers
et al., 2000)), began to be more employed in recent years for the prediction of temporal series.
RNNs are neural networks where the connections between neurons/form a directed graph along
a temporal sequence, making them suitable to deal with time series.
The review contains a general comparison of methods considering the complexity of the
related algorithm, easiness of use, processing time, accuracy, and input dataset. Short-term
prediction usually employs historical datasets as input, i.e. a temporal series with resolution
of minutes, hours or days for each variable. In addition, the survey compare the prediction
performance of the different methods by means of the mean square error and the correlation
coefficient between predicted and actual values. However, it is a 2018 survey, and new
approaches have been proposed more recently, with a wide variety of approaches as exemplified
in (Lugt & Feelders, 2020; Zhu et al., 2020; Choi et al., 2020).
Besides machine learning approaches, there are deterministic approaches, based on
mathematical models, but they are out of the scope of this work. As an example, besides
Weather Research and Forecasting (WRF), which is a mesoscale numerical model for weather
prediction, there is the WRF-Hydro modeling system 1 , an ensemble of models that include the
WRF itself, land and hydrological models, developed by the National Center for Atmospheric
Research (NCAR). WRF-Hydro was written in Fortran-90, and it was parallelized to be
executed in clusters and supercomputers. Users can select a given area of the USA territory
and ask for hydrological predictions, like streamflow for the watersheds contained in that area
2
. However, it is stated as an experimental service, and it is difficult to know if its accuracy can
be assessed.
The work (Zhu et al., 2020) is about forecasting streamflow (volume of water per time) in the
huge watershed of the Chinese Yangtze river using only a few hydrological monitoring stations
on this river or its tributaries. Authors propose to use a hybrid approach based on a LTSM
neural network embedding Gaussian process regression in order to perform a probabilistic daily
streamflow forecasting, which yields a varying prediction interval for the time series. They state
that the proposed approach associate the inductive biases of the LSTM network while retaining
the non-parametric, probabilistic property of the Gaussian process. They performed predictions
with other approaches such as a ”pure” LSTM or an ensemble using standard neural networks,
stating that this hybrid LSTM is more suitable for water resources management and planning.
Another recurrent neural network is proposed in (Lugt & Feelders, 2020) for predicting
water level temporal series at some hydrological monitoring stations using a RNN that has a
encoder/decoder with exogenous variables (precipitation and flow rates). These stations are
placed in rivers around a Dutch polder, a piece of land bellow sea level that require water level
management by pumping. This particular RNN is said to predict more accurately captures high
temporal resolution fluctuation of the water level.
In (Choi et al., 2020), authors compare some implementations of machine learning

1
See: https://ral.ucar.edu/projects/wrf hydro/overview
2
See: https://water.noaa.gov/tools/nwm-image-viewer

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

800
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

algorithms to predict water level temporal series in a Korean wetland, with emphasis in water
level peaks. They tested algorithms like neural network, decision tree,random forest and support
vector machine concluding that the random forest had the better prediction performance. Input
data was composed of upstream water level temporal series and some meteorological variables
like rainfall, temperature and wind.

3. DATA AND METHOD

The area of study of this work is the Grande River watershed, located in the mountainous
region of the state of Rio de Janeiro, in Nova Friburgo city (Fig. 1). This is an area susceptible
to natural disasters like floods or landslides, with a potential of causing serious harm to the local
population (Lima et al., 2016). The Grande river watershed was delineated using the software
TerraHidro (Abreu et al., 2012) and a 30-meter resolution DEM (Digital Elevation Model),
obtained by an on-board radar of the SRTM (Shuttle Radar Topography Mission). TerraHidro
is a free software for distributed hydrological modeling written in C++ developed by INPE
(National Institute for Space Research) and written in the C++ language. TerraHydro employs
INPE’s TerraView GIS for manipulating maps, which includes the Terralib library and a spatial
database.

Figure 1- Area of study - Grande river watershed.

The data for this study was collected from five hydrological monitoring stations of the INEA
institute (Instituto Estadual do Ambiente), as listed in Table 1. These stations are in located
in Nova Friburgo, being the Conselheiro Paulino station located in the pour point (outlet) of
the Grande river watershed. All the stations provide rainfall and water level data, with a 15-
minute temporal resolution. Data was collected between December 1, 2011 and March 24,
2013, amounting to 46,080 samples for each station.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

801
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1- Hydrological monitoring stations used in this study.

Name Longitude Latitude


o o
Conselheiro Paulino 42 31’12.49”W 22 13’42.47”S
Olaria 42o 32’31.96”W 22o 18’31.83”S
Suspiro 42o 32’05.36”W 22o 16’46.43”S
Venda das Pedras 42o 34’53.51”W 22o 16’42.47”S
Ypu 42o 31’35.41”W 22o 17’45.09”S

The related data-driven model was implemented in the Python language using Tensorflow,
an open library developed by Google using the Keras API (Chollet et al., 2015), which is also
open, modular and user-friendly. This model is based on a Multilayer Perceptron (MLP) neural
network. Such network architecture is composed of multiple layers that allow to solve complex
problems related to non-linearly separable datasets in several areas of study as Meteorology,
Medicine, Criptography, etc. (Rumelhart et al., 1986). The Keras API is employed in much
complex neural networks than the MLP, such as convolutional and recurrent neural networks,
typical of Deep Learning implementations, but it was adopted in this work anticipating the
use of such neural networks in the ensuing work. On the implemented MLP network, the
input layer has one neuron for each input parameter, one hidden layer with 5 neurons and the
output layer has one neuron, as shown in Fig. 2. It employs the ReLu (Rectified Linear Unit)
activation function for the hidden layer, and the linear function for the output layer. The ReLU
function is a non-linear activation function, commonly used in Deep Learning. The advantage
of this activation function over the other ones is not to activate all the neurons at the same time
since, when an input is negative, its value is converted to 0, not activating the corresponding
neuron. This MLP neural network with a single hidden layer using the ReLu activation function
achieved a good prediction performance, as shown ahead, and thus a more complex multiple-
hidden layer MLP neural network was not required.
The adopted loss function for the MLP network was the mean absolute error (MAE) and the
optimization algorithm was Adam (Adaptive Moment Estimation), used instead of the classical
stochastic gradient descent procedure to update the network weights. The training process was
limited by a total of 100 epochs. The source code and the dataset used in this work are available
for download on the git repository https://github.com/cpfreitas/redes neurais/.
This work employs two metrics to evaluate the prediction performance of the proposed
neural network. The first one is the Nash–Sutcliffe model efficiency coefficient (NSE),
commonly used for hydrological models, and defined as:
PT 2
t=1 Qtp − Qto
N SE = 1 − PT 2 , (1)
t=1 Qto − Qo

where Qo is the mean of the actual discharges in the time interval [1, T ] that contains T discrete
values, Qtp is the predicted discharge at time t, and Qto is the actual discharge at time t. The
NSE is equivalent to the correlation coefficient between predicted and actual data. In this work,
instead of the water discharge, the NSE was calculated in terms of the water level. The better the
prediction, the higher is the NSE above the threshold value of 0.5, but it is difficult to reach the
top value of 1.0 that corresponds to a perfect prediction. The second metric is the well known
root mean square error (RMSE), which is the standard deviation of the prediction errors. It is

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

802
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- The architecture of the proposed MLP network.

also calculated here for the discrete times t in the interval [1, T ], and its value should be close
to zero for a good prediction. RMSE is defined by the following equation:
v
u ΣT Qt − Qt 2
u  
t t=1 p o
RM SE = , (2)
T
where Qtp and Qto are respectively the predicted and observed discharge values at time t, as in
the former equation for NSE.

4. RESULTS AND DISCUSSION

In this work, a neural network is proposed to predict a water level temporal series at the
outlet of the watershed using as input temporal series of water level and/or rainfall at different
hydrological monitoring stations. The prediction is done for antecedences ranging from 15 to
120 minutes.
Input data was split as follows: 70% for the training, 17.5% for the validation, and 12.5%
for the test of the neural network. Data in the period from December 2011 to January 2013 with
randomly sorted samples was used for training and validation, while data from the months of
February and March 2013 was used for test.
Three set of tests were performed, based on different combinations of the available input
datasets. The first test employs only water level data, the second one uses only rainfall data,
while the third one inputs both water level and rainfall data. All tests were devised for the
prediction of the water level at the Conselheiro Paulino station for up to 2 hours antecedence
using as input the datasets from the five hydrological monitoring stations described above.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

803
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Predicted and actual/observed temporal series of the water level at the Conselheiro Paulino
station with an antecedence of 15 and 120 minutes is shown in Fig. 3 for a period of nearly 5,000
time intervals, corresponding to about 52 days of the months of February and March 2013. More
detailed curves of the same predicted and actual/observed temporal series are shown in Fig. 4
for time intervals 60 to 600 and in Fig. 5 for time intervals 2500 to 2800, but in this case, for all
five antecedences from 15 to 120 minutes. Input data included water level and rainfall temporal
series. These figures show a good agreement between predicted and actual values.

Figure 3- Observed and predicted values of water level at the outlet for 15 and 120 minutes of antecedence
considering all the 5,000 time intervals.

Figure 4- Observed and predicted values of water level at the outlet for 15 and 120 minutes of antecedence
considering time intervals 60 to 600.

The scatter plot between the predicted and observed values of the water level (in meters) at
the outlet of the watershed, for 15 and 120 minutes of antecedence, is shown in Fig. 6.
The performance of the three sets of predictions can be evaluated in Table 2 for the NSE and
Table 3 for the RMSE. Both tables show the values of these two metrics for antecedences from
15 to 120 minutes and for the three different sets of input time series: only water level, only
rainfall and water level and rainfall. According to Table 2 and 3, the test with only rainfall inputs
did not succeed, showing very low values of NSE and higher values of RMSE in comparison
to other other two sets of predictions. When only water level inputs were considered, the
performance was good, the RMSE did not exceed 0.0066 and the NSE was at least 0.8858.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

804
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 5- Observed and predicted values of water level at the outlet for 15, 30, 60, 90 and 120 minutes
of antecedence considering time intervals 2500 to 2800.

Figure 6- Scatter plot between predicted and observed values of water level at the outlet of the watershed
for 15 and 120 minutes of prediction antecedence.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

805
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Adding rainfall inputs besides the water level ones, the performance sligthly improves for all
regarded antecedences, raising these values to 0.0063 (RMSE) and 0.9016 (NSE). As expected,
on these two sets of tests, the quality of the prediction decreases as the antecedence increases.
Fig. 3 shows that the agreement between observed and predicted values is substantially
better for 15 than for 120 minutes antecedence. The mismatch is more accentuated when the
variation of the water level is high, especially when the water level is increasing. As seen in
Fig. 5, the prediction curve is delayed in relation to the observed one, with the delay increasing
as the antecedence of prediction increases. However, the delay is rather small, being all the
observed water level peaks at the outlet reproduced by the predictions.

Table 2- Values of NSE for the different predictions.

Antecedence Water level Rainfall Water level + Rainfall


15 min. 0.9941 0.0692 0.9944
30 min. 0.9827 0.082 0.9842
45 min. 0.9682 0.1007 0.9715
60 min. 0.9537 0.1135 0.9589
75 min. 0.9381 0.1202 0.947
90 min. 0.9182 0.1343 0.9301
105 min. 0.902 0.1377 0.9159
120 min. 0.8858 0.1406 0.9016

Table 3- Values of RMSE (in meters) for the different predictions.

Antecedence Water level Rainfall Water level + Rainfall


15 min. 0.0013 0.0353 0.0013
30 min. 0.0022 0.0352 0.0022
45 min. 0.0031 0.0351 0.0031
60 min. 0.0039 0.0351 0.0038
75 min. 0.0047 0.0349 0.0046
90 min. 0.0054 0.0348 0.0052
105 min. 0.006 0.0347 0.0057
120 min. 0.0066 0.0346 0.0063

The scatter plot of Fig. 6 indicates that, in general, the models for 15 and 120 minutes
of antecedence have no bias to overestimate or underestimate the prediction. The mean errors
(mean difference between observed and predicted values) of both models were close to zero,
0.0002 and 0.0044 respectively, which confirms this fact.

5. CONCLUSIONS

This work proposed the use of a neural network to predict temporal series of water level
at the outlet of a watershed with antecedences ranging from 15 to 120 minutes using as input
data temporal series of (i) water level or (ii) rainfall or (iii) both, collected by five hydrological
monitoring stations in the watershed.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

806
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The neural network was trained and validated using temporal series of water level and
rainfall data comprising 14 months of data with a temporal resolution of 15 minutes, and tested
using 2 months of data. A good agreement was found between the predicted and actual time
series for an antecedence of 15 minutes using the neural network trained with water level and
rainfall data. The quality of the predictions was assessed with the NSE and RMSE metrics.
Naturally, higher antecedences resulted in prediction with lower accuracy, but NSE was above
0.94 for up to a 75-minute antecedence using water level and rainfall data, or up to 60-minute
antecedence using only water level data. In both cases, RMSE was very low. On the other hand,
predictions using only rainfall data did not succeed.
The proposed approach was tested for a case of study, showing the possibility of its use
in an operational scenario. As future work, we propose to compare these results to the results
obtained by other hydrological prediction models, and to perform further prediction tests for
other Brazilian watersheds. In addition, it is intended to perform an operational test of this
forecasting tool using data from the network of hydrological monitoring stations of the Brazilian
Centre for Monitoring and Early Warnings of Natural Disasters (CEMADEN).

Acknowledgements

Authors thank the following funding: São Paulo Research Foundation (FAPESP) grant
#2015/50122-0, DFG-IRTG grant #1740/2 and CNPq grant #420338/2018-7.

REFERENCES

Abreu, E.; Rosim, S.; Rennó, C.; Oliveira, J.R.; Jardim, A.; Ortiz, J.; Dutra, L. (2012), “Terrahidro —
A Distributed Hydrological System to delimit large basins”, International Geoscience and Remote
Sensing Symposium (IGARSS).
Choi, C.; Kim, J.; Han, H.; Han, D.; Kim, H.S. (2020), “Development of Water Level Prediction Models
Using Machine Learning in Wetlands: A Case Study of Upo Wetland in South Korea”, Water, vol 12,
no. 93.
Chollet, François and others (2015), Keras. Available: https://keras.io.
de Lima, G.R.T.; Santos, L.B.L.; de Carvalho, T.J.; Carvalho, A.R.; Cortivo, F.D.; Scofield, G.B.;
Negri, R.G. (2016), “An operational dynamical neuro-forecasting model for hydrological disasters”,
Modeling Earth Systems and Environment, vol 2, 94.
Elman, J.L. (1990), “Finding Structure in Time”. Cognitive Science, vol 14, 179-211.
Gers, F.A.; Schmidhuber, J.; Cummins, F. (2000), “Learning to Forget: Continual Prediction with
LSTM”. Neural Computation, vol 12, no. 10, 2451-2471.
Hochreiter, S.; Schmidhuber, J. (1997), “Long short-term memory”. Neural Computing, vol 9, no. 8,
1735-80.
Lugt, B.; Feelders, A. (2020), “Conditional Forecasting of Water Level Time Series with RNNs”.
AALTD@PKDD/ECML.
Mosavi, A.; Ozturk, P.; Chau, K.W. (2018), “Flood prediction using machine learning models: literature
review”, Water, vol 10, no. 11: 1536.
Rumelhart, D.E.; Hinton, G.E.; Williams, R.J. (1986), “Learning representations by back-propagating
errors”, Nature, vol 323, 533–536.
Zhu, S.; Luo, X.; Yuan, X.; Xu, Z. (2020), “An improved long short-term memory network for
streamflow forecasting in the upper Yangtze River”, Stoch Environ Res Risk Assess, vol 34,
1313–1329.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

807
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

UMA SÍNTESE DOS AVANÇOS EM MATERIAIS COMPÓSITOS DE


POLIURETANO NA REMOÇÃO DE ÓLEO DA ÁGUA

Karen de França Gonçalves1 – karenfg14@gmail.com


Luiz Fernando do Nascimento Vieira2 – luiz_fernando0604@hotmail.com
Ricardo Pondé Weber3 – rpweber@ime.eb.br
Sergio Neves Monteiro4 – sergio.neves@ime.eb.br
1
Instituto Militar de Engenharia (IME) – Rio de Janeiro, RJ, Brasil
2
Marinha do Brasil – Rio de Janeiro, RJ, Brasil
3
Instituto Militar de Engenharia (IME) – Rio de Janeiro, RJ, Brasil
4
Instituto Militar de Engenharia (IME) – Rio de Janeiro, RJ, Brasil

Abstract. O derramamento de resíduos oleosos na água é um problema ambiental recorrente


em todo o mundo e possui impactos catastróficos para os ecossistemas marinhos. Este artigo
enseja revisar os principais avanços em materiais compósitos de poliuretano para remoção
de óleo da água. Para este fim, procedeu-se uma pesquisa exploratória com abordagem
qualitativa. Os avanços foram identificados a partir de uma revisão da literatura sobre o
tema. Como resultado, os parâmetros de adsorção e ângulo de contato com a água para 27
trabalhos foram sumarizados em uma tabela, bem como os principais pontos na criação de
espumas adsorventes foram discutidos. Este trabalho é relevante no sentido de consolidar
trabalhos dispersos evidenciando os resultados alcançados por diversas pesquisas, servindo
de ponto de partida para novos estudos.

Keywords: Esponjas de Poliuretano, Remoção de Óleo da Água, Materiais Compósitos

1. INTRODUÇÃO

O derramamento de resíduos oleosos na água é um problema ambiental recorrente em


todo o mundo e possui impactos catastróficos para os ecossistemas marinhos (Anju & Renuka,
2020; Min et al., 2019; Ge, 2016; Shanhu et al., 2015; Jamsaz et al., 2020; Yuying et al.,
2020; Lei et al., 2017; Ge et al., 2015; Fenner et al., 2018).
Considerando apenas os derramamentos de óleo de navios tanque. Nas últimas 5 décadas,
aproximadamente 5.86 milhões de toneladas de óleo em todo mundo foram perdidos como
resultado de acidentes (ITOF, 2020). Em 2019, a contaminação de aproximadamente 3000 km
da costa nordeste do Brasil e em 2018 o vazamento de 113.000 toneladas do navio tanque

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

808
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Sanchi (ITOF, 2020) reforçam a atualidade do tema e a necessidade do desenvolvimento e


pesquisa que minimizem os impactos.
Uma diversidade de tecnologias, incluindo métodos físicos, químicos e biológicos foram
desenvolvidos para o tratamento de água contaminada. Contudo, muito desses métodos como
a queima controlada, o uso de dispersantes químicos e solidificantes, além da alta perda e
operação não portátil, ocasionam poluição secundária e problemas ecológicos adicionais
(Shanhu et al., 2015; Jamsaz et al., 2020; Yuying et al., 2020).
O advento de novos materiais tem possibilitado o surgimento de métodos mais eficientes
para separação do óleo e da água com alta eficiência e reduzida poluição. Entre esses
materiais a esponja de PU se destaca como um polímero poroso, com reduzido peso e baixo
custo para produção em escala o que confere suas aplicações promissoras para sorção,
filtração e separação (Shanhu et al., 2015; Jamsaz et al., 2020; Yuying et al., 2020). Contudo,
a sua natureza hidrofílica impõe um baixo desempenho para a separação óleo-água. Desta
forma, uma série de pesquisas com intuito de aprimorar as propriedades do PU para esta
finalidade foram realizadas.
Assim, existem muitos trabalhos sobre a modificação da superfície da esponja de PU para
melhorar seu desempenho de adsorção. Contudo, esses relatórios são dispersos, o que não
conduz a uma compreensão abrangente das informações relacionadas sobre os resultados
alcançados (Min et al., 2019).
Nesse sentido, o objetivo geral desta pesquisa é apresentar uma revisão dos atuais
avanços proporcionados pela adição de materiais ao PU para uso na separação de óleo-água.
Sendo assim, este estudo definiu o seguinte problema de pesquisa: quais resultados foram
alcançados na criação de materiais compósitos de PU para separação óleo-água?
Com intuito de responder esta pergunta, uma detalhada revisão da bibliografia disponível
foi procedida. A pesquisa em lide se justifica por evidenciar os avanços no campo da ciência
dos materiais para solução de problemas da humanidade. Tornando-se relevante por resumir e
consolidar trabalhos científicos que podem servir de insumo e inspiração para novos achados.

2. REVISÃO DA LITERATURA

2.1 Uso do PU como adsorvente na separação óleo-água

Diversas técnicas e materiais podem ser utilizados na separação do óleo da água na


remediação de acidentes o que inclui métodos físicos, químicos e biológicos. Dentre estes
métodos o uso de adsorventes se destaca por remover manchas de óleo sem efeitos colaterais
para o ambiente, baixo custo e boa reciclabilidade (Min et al., 2019; Yuying et al., 2020; Tao
et al., 2019).
Um material adsorvente ideal para a separação óleo-água deve possuir excelente
repelência à água, desempenho superior de adsorção, excelente reutilização e baixo custo. No
entanto, muitos materiais adsorventes convencionais, como fibras vegetais, lã, argila
organofílica modificada, grafite esfoliada e materiais à base de celulose possuem diversas
desvantagens, incluindo baixa eficiência na adsorção de óleo, baixa reciclagem e alto custo.
Desta forma, é necessário explorar adsorventes que superem estas desvantagens (Min et al.,
2019).
Recentemente, o PU atraiu grande atenção para a separação óleo-água, devido ao seu
baixo custo, boa flexibilidade e estrutura tridimensional. Infelizmente, a esponja de PU é uma
substância naturalmente hidrofílica, com alta molhabilidade, em razão dos seus grupos
carboxil e amino, tendo, assim, um pequeno ângulo de contato com a água (Min et al., 2019).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

809
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Portanto, estudos recentes têm focado na modificação superficial da esponja de PU,


visando alterar a característica hidrofílica inerente para hidrofóbica. Essa modificação
concederia a esponja alta capacidade de adsorção de óleo e boa repelência à água, tornando-a
eficaz na remoção de derramamento de óleo. Com este intuito, vários materiais foram
estudados para aprimorar as esponjas comerciais, incluindo silano (Shuai et al., 2016), sílica
(Huiwen et al., 2018; Xiaotan et al., 2017), óxido de ferro (Zeng-Tian, 2018; Wu et al., 2015;
Can et al., 2015), Paligorsquite (Li et al., 2016), grafeno (Anju & Renuka, 2020; Rahmani et
al., 2017) entre outros.

2.2 Conceitos fundamentais na avalição de adsorventes

O escopo desta pesquisa visa apresentar os progressos alcançados na modificação de


esponjas de PU com o propósito de separação óleo-água. Para atingir tal fim, dois conceitos
são fundamentais na definição de adsorventes eficientes: a hidrofobicidade, medida pelo
ângulo de contato da água (WCA); e adsorção (g/g).
A molhabilidade de uma superfície é estudada há muito tempo, podendo ser avaliada pelo
desempenho estático e dinâmico de uma gota de líquido em uma superfície (Sethi et al., 2019).
O umedecimento da superfície ocorre quando as gotas de água se espalham na superfície e o
espalhamento é, geralmente, devido à presença de moléculas de alta energia na superfície, que
tem uma alta afinidade com a água e pela rugosidade da superfície (Yuying et al., 2020; Sethi
et al., 2019).
Em 1805, Young (1805) propôs a primeira equação fundamental que quantificou a
molhabilidade de uma superfície, a partir do ângulo de contato estático (Sethi et al., 2019). O
ângulo de contato (CA) e por extensão o ângulo de contato com a água (WCA), refere-se ao
ângulo θ entre a tangente da interface gás-líquido (γlv) e o limite sólido-líquido (γsl) na linha
de contato trifásica gasosa, líquida e sólida (Figura 1 (a)) (Yuying et al., 2020).
O CA do líquido na superfície do material sólido é um parâmetro vital para quantificar a
molhabilidade do líquido na superfície do material. O ângulo de contato estático da água em
uma superfície é determinado pela equação de Young (Eq. 1) na gota repousada na superfície,
conforme mostrado na Fig. 1(a).

!!" − !!# − !#" cos & = 0 (1)

Figura 1- Ilustração esquemática dos comportamentos típicos de molhabilidade de uma gota em uma superfície
sólida com e sem rugosidade. (a) modelo de Young, (b) modelo de Wenzel e (c) modelo de Cassie (Yuying et al.,
2020).

Logo, o ângulo de contato é usado para indicar o grau em que o líquido se espalha sobre
as superfícies de materiais sólidos. Por definição, se o WCA for menor que 90° (θ<90°), trata-
se de uma superfície hidrofílica. Em outras palavras, para os líquidos é relativamente fácil de
molhar o sólido. Portanto, quanto menor o WCA, maior a molhabilidade (Yuying et al., 2020;
Kumar & Nanda, 2019).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

810
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Por outro lado, se o WCA for maior que 90º (θ>90°), esta superfície sólida é hidrofóbica
e, portanto, não é fácil de molhar. Desta forma, ao se tratar de um adsorvente para separação
óleo-água, espera-se que a esponja ideal tenha o maior ângulo de contato possível com água e
o menor possível com o óleo, sendo assim hidrofóbica e oleofílica (Yuying et al., 2020;
Kumar & Nanda, 2019).
Em particular, se uma superfície possui WCA menor que 10º (θ<10°) ela é considerada
superhidrofílica, em contraste, quando o WCA é maior ou igual a 150º (θ≥150°) em que é
chamada de superhidrofóbica (Yuying et al., 2020; Kumar & Nanda, 2019).
Uma superfície ideal perfeitamente lisa não existe (Yuying et al., 2020), portanto, além
do modelo de Young, dois outros são importantes, pois abordam sobre a rugosidade e
porosidade da superfície que afeta o comportamento da gotícula, são eles o estado de
umedecimento uniforme (Yuying et al., 2020) ou estado de Wenzel (Wenzel, 1936) e o
estado de umedecimento composto heterogêneo ou estado de Cassie-Baxter (Cassie & Baxter,
1944), representados na figura 1 (b) e (c) respectivamente.
O estado de Wenzel define que a superfície molhada com rugosidade é uma superfície
homogênea sem bolsas de ar entre as ranhuras, como mostrado na Fig. 1 (b). Quando uma
gota é colocada na superfície, parte dela penetra nas ranhuras o que, posteriormente, reduz o
ângulo de contato estático e aumenta o ângulo de deslizamento que representa o ângulo de
inclinação do sólido (Yuying et al., 2020; Sethi et al., 2019). O aumento do ângulo de
deslizamento deve-se ao travamento da gota entre as ranhuras que é chamado de fixação
(Sethi et al., 2019). Wenzel (1936) propôs, então, a Eq. 2.

cos $! = & cos $ (2)

Onde θw é o ângulo de contato aparente que corresponde ao estado de equilíbrio estável,


r é o fator de rugosidade e θ é o ângulo de contato de Young (Sethi et al., 2019). O fator de
rugosidade é definido como a razão entre a área verdadeira e a área aparente da superfície
sólida (Ge, 2016; Yuying et al., 2020; Sethi et al., 2019). O valor do fator de rugosidade é
sempre maior que 1 para superfícies rugosas (Ge, 2016; Yuying et al., 2020; Sethi et al.,
2019). De acordo com Wenzel (Wenzel, 1936), a rugosidade da superfície aumenta a
magnitude das propriedades de umedecimento do sólido. Se um sólido tem uma superfície
hidrofílica, então ela será mais hidrofílica caso a rugosidade aumente. Por outro lado, se uma
superfície lisa é hidrofóbica ela terá essa propriedade aumentada com o aumento da
rugosidade.
O último modelo a ser discutido foi proposto por Cassie e Baxter (Cassie & Baxter, 1944).
Ele expande o conceito de superfícies rugosas (ásperas) de Wenzel para superfícies porosas,
(Cassie & Baxter, 1944) definindo que a superfície rugosa é de natureza heterogênea, com
bolsas de ar presentes entre as ranhuras da rugosidade. Desta forma, a gota permanece na
superfície e não penetra através dela, como mostra a Fig. 1 (c) (Ge, 2016; Yuying et al., 2020;
Sethi et al., 2019).
Neste modelo, o ângulo de deslizamento ou histerese do ângulo de contato é baixo em
comparação com o Modelo Wenzel. A equação de Cassie-Baxter é dada pela Eq. 3. Nesta
equação θCB é o ângulo de contato de Cassie-Baxter, f1 e f2 são a fração superficial da fase 1 e
fase 2, e θ1 e θ2 são o ângulo de contato avançado e recuado.

cos $!" = &# cos $# + &$ cos $$ (3)

Segundo Cassie-Baxter (Ge et al., 2016; Yuying et al., 2020; Sethi et al., 2019), quando a
superfície é rugosa, mas não porosa, o f2 é igual zero e a Eq. (3) é reduzida à equação de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

811
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Wenzel (Eq. 2) com o ângulo de contato aparente de uma superfície rugosa e com o fator de
rugosidade f1. Por fim, a transição do estado de Cassie-Baxter para o estado de Wenzel pode
ocorrer aplicando pressão na gota, variando o tamanho da gota e o impacto da gota ou por
vibração (Sethi et al., 2019).
Então, a molhabilidade de superfícies sólidas é determinada pela composição química e
pela estrutura topográfica das superfícies. De acordo com os conceitos acima, bons materiais
absorventes de óleo devem ter uma superfície composta de materiais de baixa energia
superficial e possuírem uma superfície rugosa (Ge et al., 2016).
O outro conceito fundamental na verificação da eficiência de adsorventes é a adsorção. A
adsorção ocorre sempre que uma superfície sólida é exposta a um gás ou líquido: é definida
como o enriquecimento do material ou o aumento da densidade do fluido nas proximidades de
uma interface. Sob certas condições, há um aumento apreciável na concentração de um
componente em particular e o efeito geral é então dependente da extensão da área interfacial
(Rouquerol et al., 2014; Keller & Staudt, 2005). Por esse motivo, todos os adsorventes
industriais têm grandes áreas de superfície específicas (geralmente muito acima de 100 m2g-1)
e, portanto, são altamente porosos ou compostos de partículas muito finas (Rouquerol et al.,
2014).
Cabe destacar que muitas vezes na literatura também é encontrado o termo sorção que
significa o efeito simultâneo da adsorção e absorção que é a entrada do fluido nos poros do
sólido (Rouquerol et al., 2014).
A adsorção é provocada pelas interações entre o sólido e as moléculas na fase fluida.
Dois tipos de forças estão envolvidos, que dão origem à adsorção física (fisicosorção) ou
quimiosorção. A adsorção ocorre devido ao efeito dos vários tipos de ligações entre o par
adsorbato-adsorvente: interações van der Waals, ligação covalente, ácido-base, ligação de
hidrogênio, entre outros. A força da ligação é extremamente importante, porque se as
interações são razoavelmente fracas, pequenas quantidades de adsorvido são adsorvidas; se as
interações forem fortes, será difícil conseguir a regeneração do adsorvente e, portanto, o seu
reuso. (Keller & Staudt, 2005; Camacho, 2004).
Um dos objetivos principais de uma experiência de adsorção é a determinação de uma
Isoterma de Adsorção, ou seja, a determinação das quantidades adsorvidas em função da
pressão, (ou pressão relativa) a temperatura constante. As técnicas principais para a obtenção
de uma isotérmica de adsorção são: volumetria de adsorção, gravimetria de adsorção e
técnicas de fluxo.
Em geral, a técnica utilizada nas pesquisas com melhoramento da superfície do PU foi a
gravimetria de adsorção e os resultados foram relatados em termos de gramas de óleo
adsorvido por grama de peso adsorvente (g⁄g). A gravimetria trata-se de um método simples e
acurado de medição o qual é calculado a partir da diferença de peso do adsorvente apurado
pelo uso de uma balança (Keller & Staudt, 2005).
Neste caso, a adsorção (Q) é, portanto, a diferença entre o peso após (Wt) e antes (W0)
do contato com o óleo, como representado na equação 4:

𝑄 = (𝑊t – 𝑊0 )⁄𝑊0 (4)

2.3 Métodos de preparo e caracterização de esponjas superhidrofóbicas

Considerando o exposto anteriormente, existem duas abordagens principais para criar


superfícies superhidrofóbicas: a primeira alterando a superfície, criando estruturas
micro/nano-hierárquicas em substratos hidrofóbicos e a segunda modificando quimicamente
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

812
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

uma superfície estruturada hierárquica com um material de baixa energia superficial, como
ácido graxo, polímeros, hidrocarbonetos e fluorcarbonetos. Para tal, vários métodos de síntese
dessas superfícies são relatados na literatura, como deposição eletroquímica, separação de
fases, emulsão, eletrofiação, imersão, deposição por vapor químico (CVD), reação química in
situ, litografia e outros (Kumar & Nanda, 2019).
A caracterização dos resultados obtidos na criação de superfícies hidrofóbicas pode ser
feita por Microscopia eletrônica de varredura (SEM), Força atômica microscópica (AFM),
Interferometria de luz branca (WLI) entre outros. Um dos métodos comumente empregados é
método da gota séssil, neste método o CA é medido por um goniômetro em uma lente. Após
uma gota ser desprendida em uma superfície por uma seringa localizada no topo da amostra
uma câmera embutida de alta resolução captura a imagem da amostra de cima ou de lado. A
imagem pode ser submetida a análise usando um software de análise de imagem (Jayadev et
al., 2019).
Já a adsorção também pode ser caracterizada por vários métodos visto que existem várias
propriedades adsorventes, como densidade, área superficial, tamanho médio dos poros,
distribuição do tamanho dos poros, forma e volume dos poros, entre outras, determinadas a
partir de técnicas específicas como Porosimetria de Mercúrio, Análise Termogravimétrica
(TGA) e Adsorção de nitrogênio em 77K (Keller & Staudt, 2005; Camacho, 2004).
Por fim, neste contexto, também se destaca a existência de normas padronizadas para
medição da adsorção como a ASTM F726.

3. RESULTADOS E DISCUSSÃO

Dados os conceitos fundamentais, parte-se para análise dos estudos. A Tabela 1 relaciona
o resultado das pesquisas apresentando o método de revestimento das esponjas de PU, bem
como os resultados alcançados em termos de adsorção e WCA.

Tabela 1- Resultados de esponjas superhidrofóbicas


Esponja Método Adsorption (g/g) WCA Ref

GPUF Dip coating 90–316 151° 1


FAS-17/Fe3O4-PU sponge Dip coating/polymerization 10–35 153.7 ± 2.7° 2
Actyflon-G502/Fe3O4-PU sponge Dip coating 25–87 153° 3
SiO2-PFW-PU sponge Dip coating 22–75 156° 4
SiO2/GO-PU sponge Dip coating 80–180 145° 5
Fe3O4-PU sponge Dip coating 39.3–46.3 154.7° 6
Al2O3/PUF thermal treatment 37.0 144° 7
PU- PDA-HMDS Polymerization/dip coating 21-53 153° 8
RGO@PU sponge Dip coating/thermal treatment 4.2–37.6 153° 9
TMOS-f-rGONR@PU Dip coating 30-68 153±2.0° 10
F-MoS2-PU in situ chemical reaction 25-90 > 150° 11
SiO2-PDA-PU sponge Polymerization/dip coating 18.3–46.8 154° 12
NMP/graphene PU sponge Polymerization 40–80 151.8 ± 0.5° 13
PU@Fe3O4@SiO2@FP Sponges CVD 13.26–44.50 157° 14
GO/PU sponge Dip coating 25–95 153° 15
Silaned graphene PU sponge Thermal treatment 25–44 > 160° 16

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

813
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Esponja Método Adsorption (g/g) WCA Ref

NDs-PU sponge Dip coating 15–60 160° 17


Attapulgite coated PU sponge Dip coating 17–45 160° 18
SiO2-PU sponge Dip coating 33.9–55.8 > 150° 19
Functionalized GO-PU sponge Dip coating 16–35 152±1° 20
CNWs/GN/PU sponge Dip coating 31–46 152° 21
(GSH)-based PU sponges Dip coating 29.5-90 160.5° 22
Fe3O4-graphene PU sponge In situ chemical reaction 9–27 158±1° 23
PU-(CF3)2-FeNPs-(CF3)2 Dip coating 35-77 167° 24
Cellulose-PU - 3.91 – 12.49 89.4° 25
SHP-LDH-containing sponge Dip coating 31.3-83.3 160.5° 26
PPy-PA PU sponge CVD 22–62 140° 27
Ref: 1- Anju & Renuka, 2020; 2- Shanhu et al., 2015; 3- Lei et al., 2017; 4- Ge et al., 2015; 5- Xiaomeng et al.,
2016; 6- Zeng-Tian et al., 2018; 7- Liying et al., 2018; 8- Chun et al., 2019; 9- Chengbo et al., 2018; 10- Fei et
al., 2018; 11- Tianlong et al., 2020; 12- Jintao & Guihong, 2015; 13- Kong et al., 2017; 14- Wu et al., 2015; 15-
Rahmani et al., 2017; 16- Shuai et al., 2016; 17- Ning et al., 2017; 18- Li et al., 2016; 19- Li et al., 2015;
20- Huiwen et al., 2018; 21- Xiaotan et al., 2017; 22- Lin et al., 2017; 23- Can et al., 2015; 24- Guselnikova et
al., 2020; 25- Sittinun et al., 2020; 26- Qingyuan et al., 2019; 27- Khosravi & Azizian, 2015.

Os métodos mais comuns para criação de esponjas modificadas são o revestimento por
imersão (dip coating); deposição por vapor químico (Chemical vapor deposition); Reação
química in situ (In situ chemical reaction).
Na maior parte dos estudos pesquisados o método utilizado para criação das esponjas foi
o revestimento por imersão, possivelmente este resultado se relacione com a facilidade do
método no qual não é necessária técnica ou equipamento sofisticado. Ademais, o processo
economiza tempo e leva apenas algumas horas para obter a esponja hidrofóbica. Nos
processos de revestimento por imersão, as esponjas foram imersas em solução que continha
materiais modificados por algumas vezes, seguidas de um processo seco e, em seguida, as
esponjas hidrofóbicas foram obtidas (Min et al., 2019).
Dentre as pesquisas levantadas a maior adsorção foi obtida com uma esponja de GPUF
(Anju & Renuka, 2020) que obteve uma variação de 90 a 316 g/g. A capacidade de adsorção
seguiu a ordem: Clorofórmio> Óleo Diesel> Óleo Lubrificante> Óleo de Feijão>
Tetrahidrofurano> Sulfóxido de dimetilo> Tolueno> Dimetilformamida> Acetona (Anju &
Renuka, 2020).
Segundo Anju e Renuka (2020), o expressivo resultado se deve a combinação da
hidrofobicidade das folhas de grafeno, a porosidade e oleofilicidade do PU, bem como a
mesoporosidade do óxido de ferro que também contribui com a resposta magnética. Os
autores consideram que esses três fatores resultam na considerável eficiência de adsorção.
Por outro lado, cabe destacar que os resultados obtidos destoam significativamente das
outras pesquisas, sendo quase o dobro da pesquisa com segunda maior adsorção SiO2/GO-PU
(Xiaomeng et al., 2016) em que as substâncias adsorvidas foram semelhantes. Cabe a
observação que as maiores adsorções (quatro primeiras) foram obtidas em compósitos que
continham grafeno.
Apesar dos resultados apresentados demonstrarem a adsorção em termos de valores e
mesma unidade de medida, a comparabilidade é prejudicada no sentido que diferentes
substâncias adsorvidas são testadas nas diferentes pesquisas. Embora os estudos utilizem a
equação 4 no cálculo da adsorção, procedimentos diferentes são aplicados. Apenas um
trabalho (Rahmani et al., 2017) faz menção a modelos de teste padronizados como os da
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

814
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

American Society for Testing and Materials (ASTM), por exemplo o ASTM F726-17-
Método de teste padrão para desempenho de adsorção de adsorventes para uso em petróleo
bruto e derramamentos relacionados.
Em contrapartida, o WCA das pesquisas mencionadas foi calculado, por meio do método
da gota séssil a partir de equipamentos eletrônicos como: Krüss DSA 30 (Chun et al., 2019;
Fei et al., 2018); OCA 20 (Kong et al., 2017; Wu et al., 2015; Sittinun et al., 2020); GBX
Digidrop (Anju & Renuka, 2020; Ning et al., 2017) e outros. Quase todas as esponjas
encontradas nas pesquisas possuíam superhidrofocidade (WCA>150°). O maior WCA
encontrado na pesquisa foi 167º (Guselnikova et al., 2020), porém destaca-se que não foi feito
menção de como este valor foi obtido.

4. CONCLUSÃO

A poluição da água com resíduos oleosos é um problema relevante para humanidade.


Como exposto ao longo da pesquisa, a ciência dos materiais é um campo fértil e com soluções
promissoras no que tange a melhoria de adsorventes, principalmente o PU que foi o escopo
deste artigo. Pode-se dizer que a pesquisa alcançou o objetivo geral ao revisar e resumir uma
parte da literatura.
Neste sentido, os resultados alcançados sugerem a existência de diversos materiais que
adicionados ao PU melhoram suas propriedades para separação óleo-água. Apesar de
apresentados os resultados de forma consolidada, ressalva-se a comparabilidade dos dados em
função de diferenças metodológicas dos trabalhos pesquisados.
Por fim, como proposta de pesquisas futuras, sugere-se expandir o número de pesquisas,
avaliar outros materiais adsorventes como a esponja de melamina e reproduzir alguns dos
experimentos mais bem sucedidos.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001.

REFERENCES

Anju, M. and Renuka, N.K. (2020), Magnetically actuated graphene coated polyurethane foam as potential
sorbent for oils and organics. Arabian Journal of Chemistry, 13(1):1752-1762. DOI:
https://doi.org/10.1016/j.arabjc.2018.01.012.
Min, P.; et al. (2019), Synthesis and application of modified commercial sponges for oil-water separation.
Chemical Engineering Journal, 373: 213-226. DOI: https://doi.org/10.1016/j.cej.2019.05.013.
Ge, J.; et al. (2016), Advanced Sorbents for Oil‐Spill Cleanup: Recent Advances and Future Perspectives. Adv.
Mater., DOI: https://doi.org/10.1002/adma.201601812
Shanhu, L.; et al. (2015), RSC Adv.; 5: 68293-68298. DOI: https://doi.org/10.1039/C5RA12301A
Jamsaz, A. and Goharshadi, E. K. (2020), Flame retardant, superhydrophobic, and superoleophilic reduced
graphene oxide/orthoaminophenol polyurethane sponge for efficient oil/water separation. Journal of
Molecular Liquids, 307: 112979. DOI: https://doi.org/10.1016/j.molliq.2020.112979
Yuying, D.; et al. (2020), Recent development of super-wettable materials and their applications in oil-water
separation. Journal of Cleaner Production.; 266: 121624. DOI: https://doi.org/10.1016/j.jclepro.2020.121624.
Lei, L.; et al. (2017), A facile method to fabricate the superhydrophobic magnetic sponge for oil-water
separation. Materials Letters, 195: Pages 66-70. DOI: https://doi.org/10.1016/j.matlet.2017.02.100.
Ge, B.; et al. (2015) A superhydrophobic monolithic material with tunable wettability for oil and water
separation. Journal of Materials Science, 50: 2365–2369. DOI: https://doi.org/10.1007/s10853-014-8756-4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

815
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fenner, B. R.; et al. (2018), Comparative analysis among coating methods of flexible polyurethane foams with
graphene oxide, Journal of Molecular Liquids, 271: 74-79. DOI: https://doi.org/10.1016/j.molliq.2018.08.113.
ITOF. Oil Tanker Spill Statistics 2019. 2020; Disponível em:
https://www.itopf.org/fileadmin/data/Documents/Company_Lit/Oil_Spill_Stats_brochure_2020_for_web.pdf
Xiaomeng, L.; et al. (2016), Constructing polyurethane sponge modified with silica/graphene oxide nanohybrids
as a ternary sorbent. Chemical Engineering Journal, 284: 478-486. DOI:
https://doi.org/10.1016/j.cej.2015.09.002.
Zeng-Tian, L.; et al. (2018), Effective preparation of magnetic superhydrophobic Fe3O4/PU sponge for oil-water
separation. Applied Surface Science. 427 (parte B): 56-64. DOI: https://doi.org/10.1016/j.apsusc.2017.08.183.
Liying, K.; et al. (2018), Fabrication of hydrophobic and oleophilic polyurethane foam sponge modified with
hydrophobic Al2O3 for oil/water separation. Journal of Industrial and Engineering Chemistry. 58: 369-375.
DOI: https://doi.org/10.1016/j.jiec.2017.09.050.
Chun, L.; et al. (2019), Facile fabrication of superhydrophobic polyurethane sponge towards oil-water separation
with exceptional flame-retardant performance. Separation and Purification Technology. 229: 115801. DOI:
https://doi.org/10.1016/j.seppur.2019.115801.
Chengbo, et al. (2018), Facile one-pot synthesis of superhydrophobic reduced graphene oxide-coated
polyurethane sponge at the presence of ethanol for oil-water separation. Chemical Engineering Journal. 345:
648-658. DOI: https://doi.org/10.1016/j.cej.2018.01.079.
Fei, Q.; et al. (2018), Facile synthesis of super-hydrophobic, electrically conductive and mechanically flexible
functionalized graphene nanoribbon/polyurethane sponge for efficient oil/water separation at static and
dynamic states. Chemical Engineering Journal. 334: 2154-2166. DOI:
https://doi.org/10.1016/j.cej.2017.11.054.
Tianlong, Y.; et al. (2020), Functionalized MoS2/polyurethane sponge: An efficient scavenger for oil in water.
Separation and Purification Technology. 238: 116420. DOI: https://doi.org/10.1016/j.seppur.2019.116420.
Jintao, W. and Guihong, G. ( Highly recyclable superhydrophobic sponge suitable for the selective sorption of
high viscosity oil from water. Marine Pollution Bulletin. 2015; 97(1-2): 118-124. DOI:
https://doi.org/10.1016/j.marpolbul.2015.06.026.
Kong, Z.; et al. (2017), In situ fastening graphene sheets into a polyurethane sponge for the highly efficient
continuous cleanup of oil spills. Nano Res. 10: 1756–1766. Diponível em: https://doi.org/10.1007/s12274-
017-1484-8
Rouquerol, F.; et al. (2014) 1 – Introduction Adsorption by Powders and Porous Solids. 2º Ed. Academic Press.
Second Edition: 1-24. DOI: https://doi.org/10.1016/B978-0-08-097035-6.00001-2.
Wu, L.; et al. (2015), Magnetic, durable and superhydrophobic polyurethane@Fe3O4@SiO2@fluoropolymer
sponges for selective oil absorption and oil/water separation, ACS Appl. Mater. 7 (8): 4936–4946. Diponível
em: https://doi.org/10.1021/am5091353
Rahmani, Z., et al. (2017), Nanoporous graphene and graphene oxide-coated polyurethane sponge as a highly
efficient, superhydrophobic, and reusable oil spill absorbent. Journal of Environmental Chemical
Engineering. 5 (5): 5025-5032. DOI: https://doi.org/10.1016/j.jece.2017.09.028.
Shuai, Z.; et al. (2016), One-pot synthesis of robust superhydrophobic, functionalized graphene/polyurethane
sponge for effective continuous oil–water separation. Chemical Engineering Journal. 302: 155-162. DOI:
https://doi.org/10.1016/j.cej.2016.05.051.
Ning, C.; et al. (2017), Polyurethane sponge functionalized with superhydrophobic nanodiamond particles for
efficient oil/water separation. Chemical Engineering Journal. 307: 319-325. DOI:
https://doi.org/10.1016/j.cej.2016.08.105.
Li, J.; et al. (2016) Robust superhydrophobic attapulgite coated polyurethane sponge for efficient immiscible
oil/water mixture and emulsion separation. J. Mater. Chem. A 4: 15546–15553. DOI:
https://doi.org/10.1039/C6TA07535E.
Li, J.; et al. (2015), Stable superhydrophobic and super- oleophilic silica coated polyurethane sponges for the
continuous capture and removal of oils from the water surface, New J. Chem. (39): 9958–9962. DOI:
https://doi.org/10.1039/C5NJ01565K.
Huiwen, M.; et al. (2018), Super-hydrophobic and super-lipophilic functionalized graphene oxide/polyurethane
sponge applied for oil/water separation. Chinese Journal of Chemical Engineering. 26 (5): 957-963. DOI:
https://doi.org/10.1016/j.cjche.2017.09.004.
Xiaotan, Z.; et al. (2017), Super-hydrophobic graphene coated polyurethane (GN@PU) sponge with great oil-
water separation performance. Applied Surface Science. 422: 116-124. DOI:
https://doi.org/10.1016/j.apsusc.2017.06.009.
Lin, Z.; et al. (2017), Thiolated graphene-based superhydrophobic sponges for oil-water separation. Chemical
Engineering Journal. 316: 736-743. DOI: https://doi.org/10.1016/j.cej.2017.02.030.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

816
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Can, L.; et al. (2015), Versatile fabrication of the magnetic polymer-based graphene foam and applications for
oil–water separation. Colloids and Surfaces A: Physicochemical and Engineering Aspects. 468: 10-16. DOI:
https://doi.org/10.1016/j.colsurfa.2014.12.005.
Guselnikova, O.; et al. (2020), Magnetic polyurethane sponge for efficient oil adsorption and separation of oil
from oil-in-water emulsions. Separation and Purification Technology. 240: 116627. DOI:
https://doi.org/10.1016/j.seppur.2020.116627.
Sittinun, A.; et al. (2020), Improving the oil sorption capability of porous polyurethane composites by the
incorporation of cellulose fibers extracted from water hyacinth. Composites Communications. 20: 100351;
DOI: https://doi.org/10.1016/j.coco.2020.04.017.
Qingyuan, T.; et al. (2019), Superhydrophobic sponge containing silicone oil-modified layered double hydroxide
sheets for rapid oil-water separations. Colloids and Surfaces A: Physicochemical and Engineering Aspects.
570: 339-346. DOI: https://doi.org/10.1016/j.colsurfa.2019.03.031.
Khosravi, M. and Azizian, S. (2015), Synthesis of a novel highly oleophilic and highly hydrophobic sponge for
rapid oil spill cleanupACS Appl. Mater. Interfaces 7(45): 25326–25333. DOI:
https://doi.org/10.1021/acsami.5b07504.
Tao, Z.; et al. (2019), Recent progress and future prospects of oil-absorbing materials. Chinese Journal of
Chemical Engineering. 2019; 27(6): 1282-1295. DOI: https://doi.org/10.1016/j.cjche.2018.09.001.
Sethi, S. K. et al. (2019), CHAPTER 1 - Fundamentals of superhydrophobic surfaces. Editor(s): Sushanta K.
Samal, Smita Mohanty, Sanjay Kumar Nayak, “Superhydrophobic Polymer Coatings”, Elsevier, 2019; 3-29.
DOI: https://doi.org/10.1016/B978-0-12-816671-0.00001-1.
Young, T. (1805), An essay on the cohesion of fluids, Philos. Trans. R. Soc. Lond. 95 65–87, DOI:
https://doi.org/10.1098/rstl.1805.0005.
Kumar, A. and Nanda, D. (2019), Chapter 3 - Methods and fabrication techniques of superhydrophobic surfaces,
Editor(s): Sushanta K. Samal, Smita Mohanty, Sanjay Kumar Nayak, “Superhydrophobic Polymer
Coatings”, Elsevier, 43-75, DOI: https://doi.org/10.1016/B978-0-12-816671-0.00004-7.
Jayadev, D.; et al. (2019), Chapter 5 - Characterization of superhydrophobic polymer coating, Editor(s):
Sushanta K. Samal, Smita Mohanty, Sanjay Kumar Nayak, “Superhydrophobic Polymer Coatings”, Elsevier,
2019, 91-121, DOI: https://doi.org/10.1016/B978-0-12-816671-0.00006-0.
Wenzel, R.N. (1926), Resistance of solid surfaces to wetting by water, Ind. Eng. Chem. 28, 988–994.
Cassie, A.B.D. and Baxter, S. (1944), Wettability of porous surface, Trans. Faraday Soc. 40, 546–551.
Keller, J. U. and Staudt, R. (2005), Universität Siegen Germany. “Gas adsorption equilibria Experimental
Methods and Adsorptive Isotherms.” Boston: Springer Science.
Camacho, B. C. R. (2004), Experimental Gravimetric Adsorption Equilibrium of n-Alkanes and Alkenes,
Carbon Dioxide and Nitrogen in MIL-53(Al) and Zeolite 5A. Dissertação para obtenção do Grau de Mestre
em Engenharia Química e Bioquímica. Faculdade de ciências e tecnologia universidade nova Lisboa.

A REVIEW OF ADVANCES IN COMPOSITE POLYURETHANE MATERIALS IN


OIL-WATER SEPARATION

Abstract. Oil spill is a frequently environmental problem and It has catastrophic impacts on
marine ecosystems. This article aims to review the main advances in polyurethane composite
materials in oil-water separation. So, an exploratory research with a qualitative approach
was carried out. The advances were identified from a literature review. As a result, the
parameters of adsorption and contact angle with water for 27 works were summarized in a
table, as well as the main points in the creation of adsorbent foams were discussed. This work
is relevant in the sense of consolidating dispersed works showing the results achieved by
several researches, serving as a starting point for new studies.

Keywords: Polyurethane sponge, Oil-water separation, Composite materials

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

817
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

REDES NEURAIS ARTIFICIAIS NA SIMULAÇÃO DA PRODUTIVIDADE DE


GRÃOS DE AVEIA CONSIDERANDO O NÚMERO DE APLICAÇÕES DE
FUNGICIDA E VARIÁVEIS METEOROLÓGICAS

Odenis Alessi1 – odenisalessi@hotmail.com


Vanessa Pansera2 – vpansera@hotmail.com
Cibele Luisa Peter2 – cibele.peter2017@gmail.com
Eduarda Warmbier2 – eduarda.warmbier@gmail.com
José Antonio Gonzalez da Silva3 – jagsfaem@yahoo.com.br
1
Bolsista CAPES/BRASIL, Universidade Regional do Noroeste do Estado do Rio Grande do Sul,
Departamento de Ciências Exatas e Engenharias – Ijuí, RS, Brasil
2
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Ciências
Exatas e Engenharias – Ijuí, RS, Brasil
3
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Estudos
Agrarios – Ijuí, RS, Brasil

Resumo. As redes neurais artificiais (RNAs) possibilitam a construção de modelos de


simulação e previsão de safras na área agrícola. No cultivo da aveia, os elementos
meteorológicos e o manejo do fungicida são fatores que intervêm de forma significativa na
expressão da produtividade de grãos. O objetivo do estudo é treinar um modelo baseado em
RNA capaz de simular a produtividade de grãos de aveia, envolvendo diferentes condições de
uso do fungicida e a não linearidade das condições meteorológicas. O delineamento
experimental foi o de blocos casualizados com três repetições, com cinco tratamentos, nos
anos de 2016 e 2017. Para simulação da produtividade da aveia, independente de condição
de ano de cultivo, foi implementada uma RNA do tipo feedforward, a Percéptrons de
Múltiplas Camadas. A estrutura da RNA foi constituída por três camadas, com quatro
neurônios na camada de entrada, oito neurônios na camada oculta e um neurônio na camada
de saída. A arquitetura de RNA considerada apresentou erro médio de 4,54% para as
simulações. A RNA é capaz de simular e prever com eficiência a produtividade de grãos de
aveia, envolvendo diferentes condições de uso do fungicida e a não linearidade das condições
meteorológicas, independente de ano agrícola.

Palavras-chave: Inteligência artificial, Modelagem computacional, Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

818
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

As técnicas de inteligência artificial têm apresentado grande relevância na representação


de processos complexos, em diferentes áreas do conhecimento (Soares et al., 2015; Barbosa et
al., 2016). Dentre estas técnicas as redes neurais artificiais (RNAs) permitem simular
situações através de estruturas lógico matemáticas. Estes modelos matemáticos são inspirados
na estrutura neural de organismos inteligentes, capazes de realizar o aprendizado
computacional e o reconhecimento de padrões (Dornelles et al., 2018; Silva et al., 2018). Na
área de biossistemas e processos agrícolas, a utilização das RNAs permite a realização de
simulações e previsões de safras e a identificação de manejos mais eficientes, considerando
variáveis que podem apresentar comportamentos não lineares (Campos et al., 2016; De
Mamann et al., 2019).
A aveia branca (Avena sativa) é um cereal que apresenta inúmeros propósitos, sendo
utilizada na sucessão de culturas, cobertura de solo e na alimentação animal e humana
(Mantai et al., 2016; Dornelles et al., 2018). A produtividade de grãos da aveia é diretamente
afetada pelas condições meteorológicas, como a precipitação e a temperatura do ar. Além
disto, estas condições influenciam no surgimento e progresso das doenças foliares que
acometem a cultura (Nazareno et al., 2017; Zhang et al., 2019). Estas doenças, se não
controladas, podem apresentar grande agressividade e comprometer significativamente a
produção de grãos (Silva et al., 2015). A resistência genética das cultivares utilizadas não é
eficiente no controle natural das doenças foliares, sendo a aplicação de fungicidas a forma
mais eficaz de controle e garantia de produtividade e qualidade de grãos (Silva et al., 2015;
Dornelles et al., 2020). Desta forma, os elementos meteorológicos, como a temperatura do ar
e a precipitação pluviométrica, juntamente com o número de aplicações de fungicida são
fatores que intervêm de forma significativa na expressão da produtividade de grãos de aveia.
As relações que envolvem os elementos meteorológicos e o manejo do fungicida podem
favorecer a construção de modelos de simulação eficientes, com capacidade de tratar
informações incertas frequentes na engenharia de bioprocessos. Desta forma a utilização da
RNA pode auxiliar na simulação e previsão da produtividade de grãos de aveia em condições
reais de cultivo, permitindo considerar os efeitos das variáveis meteorológicas e das diferentes
condições de uso do fungicida. O objetivo do estudo é treinar um modelo baseado em RNA
capaz de simular e prever a produtividade de grãos de aveia, envolvendo diferentes condições
de uso do fungicida e a não linearidade das condições meteorológicas.

2. METODOLOGIA

O trabalho foi desenvolvido nos anos de 2016 e 2017 na área experimental do Instituto
Regional de Desenvolvimento Rural (IRDeR) pertencente ao Departamento de Estudos
Agrários (DEAg) da Universidade Regional do Noroeste do Estado do Rio Grande do Sul
(UNIJUÍ) no município de Augusto Pestana-RS. Na semeadura, foi utilizada semeadora-
adubadora na composição da parcela experimental com 5 linhas, de 5 metros de comprimento
cada e espaçamento entre linhas de 0,20 m, correspondendo a uma unidade experimental de 5
m2. O delineamento experimental foi o de blocos casualizados com três repetições, com cinco
tratamentos (número de aplicação de fungicida). As condições de uso do fungicida foram:
testemunha (sem aplicação); uma aplicação aos 60 Dias Após Emergência (DAE); duas
aplicações aos 60 e 75 DAE ; três aplicações aos 60, 75 e 90 DAE; e quatro aplicações aos 60,
75, 90 e 105 DAE. As aplicações foram iniciadas aos 60 DAE por ser o período em que
normalmente surgem os primeiros sinais das doenças foliares. Foi utilizado o fungicida
FOLICUR® CE, produto comumente utilizado no cultivo do cereal, na dosagem de 0,75 litros
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

819
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ha-1, conforme recomendação técnica de aplicação do produto. A cultivar utilizada para o


experimento foi a URS Altiva, amplamente cultivada na região. Para a estimativa da
produtividade de grãos, a colheita ocorreu de forma manual pelo corte das três linhas centrais
de cada parcela, que após trilhadas com colheitadeira estacionária, foram direcionadas ao
laboratório para correção da umidade de grãos para 13% e posterior pesagem, convertida para
a unidade de um hectare. Após a obtenção dos dados, foi aplicada análise de variância
(ANOVA), com nível de significância de 5%, a fim de identificar efeito significativo dos
tratamentos. As variáveis meteorológicas (temperatura mínima e máxima e precipitação
pluviométrica) foram obtidas através da estação meteorológica automatizada, instalada a 200
metros do experimento. Com o registo diário destas variáveis, foram calculadas as médias da
precipitação e da temperatura mínima e máxima durante o ciclo de cultivo da aveia para cada
ano. Os anos agrícolas considerados foram classificados como ano favorável e desfavorável
ao cultivo da aveia, observando as médias de produtividade de grãos obtidas para cada ano,
em comparação a expectativa de produtividade desejada, que era de 4000 kg ha-1.
Para simulação da produtividade da aveia, independente de condição de ano de cultivo,
foi implementada uma RNA do tipo feedforward, a Percéptrons de Múltiplas Camadas
(MLP). Este tipo de rede foi escolhida pois são consideradas uma das arquiteturas mais
versáteis quanto à aplicabilidade e são extremamente precisas em suas respostas (da Silva
2010; Miranda et al., 2012). A estrutura da RNA foi constituída por três camadas, sendo a
camada de entrada, oculta e de saída. A camada de entrada possui 4 neurônios, considerando
as variáveis de entrada, condições de uso de fungicida, precipitação pluviométrica média
ocorrida no ciclo de cultivo, temperatura mínima média e temperatura máxima média
observadas no ciclo de cultivo. A camada de saída possui 1 neurônio, considerando a
produtividade de grãos de aveia como dado de saída. Para a definição do número de neurônios
da camada oculta, foi seguida a metodologia adota por De Mamann et al. (2019), sendo
treinadas 5 redes com 3 camadas cada. Foram consideradas estruturas em que o número de
neurônios na camada oculta variou de 6 a 10 neurônios, sendo feito o incremento de 1 em 1
para cada estrutura considerada. Após o treinamento de cada arquitetura de RNA, foi
escolhida a de menor erro quadrático médio (EQM) em relação à validação, menor EQM em
relação ao treinamento e por fim o menor EQM em relação ao teste de cada rede. A função de
ativação utilizada foi a tangente hiperbólica. Para o treinamento da RNA foi utilizado o
algoritmo de otimização Levenberg-Marquardt backpropagation através da ferramenta Neural
Network Start do software MATLAB. Para o treinamento da RNA, os dados amostrais foram
normalizados utilizando a Eq. (1):

2( p − p min )
N= −1 (1)
( p max − p min )

em que, N é o valor normalizado adimensional, p é o valor a ser normalizado, pmin é o menor


valor da amostra e pmax é o maior valor amostra. Esta normalização dos dados é necessária
devido ao fato de que a função de ativação definida se utiliza de valores no intervalo de -1 a 1
(da Silva, 2010). Após a normalização, os dados amostrais foram divididos aleatoriamente em
70% para o treinamento, 15% para teste e 15% para validação. Para o treinamento das RNAs
multicamadas e simulação da produtividade de grãos de aveia, foi utilizado o Neural Network
Toolbox do software MATLAB.
As simulações foram realizadas considerando a média de precipitação, a temperatura
mínima e máxima médias dos anos agrícolas considerados, para cada condição de aplicação
de fungicida. Para validação da RNA, foi realizado o cálculo do erro absoluto e do erro
percentual entre as produtividades de grãos simuladas pela RNA e as médias de produtividade
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

820
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de grãos obtidas para cada condição de uso de fungicida considerada na realização do


experimento.

3. RESULTADOS E DISCUSSÕES

Considerando os anos agrícolas de 2017 e 2016, na Fig. 1 são observados os


comportamentos das temperaturas mínimas e máximas e precipitações pluviométricas
ocorridas durante o período de cultivo da aveia em cada ano.

Figura 1 - Dados de precipitação pluviométrica e temperatura mínima e máxima diária


durante o ciclo de cultivo da aveia para os anos de 2017 e 2016

Além de apresentar os comportamentos das variáveis meteorológicas, a Fig. 1 mostra o


momento da aplicação da adubação nitrogenada (N-Fertilizante), ocorrida aproximadamente
30 dias após a emergência das plantas, e os momentos de aplicação do fungicida e a colheita.
Na Tabela 1 são apresentados os valores de temperatura mínima e temperatura máxima
médias, precipitação total obtida durante o ciclo de cultivo da aveia, a produtividade de grãos
de aveia para cada condição de uso do fungicida e a média de produtividade para cada ano.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

821
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 - Produtividade de grãos observada em cada condição de uso de fungicida,


produtividade de grãos média, temperatura mínima e máxima, e precipitação pluviométrica
total, para cada ano agrícola.

Temperatura (oC) Prec. PG PG


Ano NAF
T min T max (mm) (kg ha-1) (kg ha-1)
0 2893
1 3478
2016
8,62 22,07 365,5 2 4423 3945
(AF)
3 4467
4 4464
0 1103
1 1792
2017
11,3 24,89 593,5 2 1909 1823
(AD)
3 2109
4 2202
T min = Temperatura mínima média; T max = Temperatura máxima média; Prec.= Precipitação
pluviométrica; NAF= Número de aplicações de fungicida; PG= Produtividade de Grãos;
PG = Produtividade de grãos média; AF= Ano favorável à produtividade de grãos de aveia.
AD= Ano desfavorável à produtividade de grãos de aveia.

Com os dados obtidos para o ano de 2016 é possível perceber o incremento da


produtividade de grãos à medida que são realizadas as aplicações do fungicida. Além disto, os
valores de produtividade obtidos para cada condição, juntamente com a média geral, indicam
que as condições meteorológicas foram propícias para o desenvolvimento da cultura. Isto
pode ser percebido na Fig. 1, em que é possível notar uma adequada distribuição das
precipitações ao longo do ciclo de cultivo. Desta forma, baseado no valor médio de
produtividade de grãos, o ano de 2016 foi classificado como ano favorável à produtividade de
grãos de aveia (AF). Os dados experimentais obtidos para o ano de 2017 demonstram que,
mesmo que o volume total de precipitação ocorrido durante o ciclo de cultivo tenha sido
maior em comparação ao ano anterior, a expressão de produtividade não correspondeu a este
aumento. Isto pode ser resultado da ocorrência de precipitações em estádios finais de
desenvolvimento da cultura, onde a mesma exige momentos mais secos, ou da ausência das
precipitações em estádios iniciais de cultivo, em que é necessária uma adequada umidade do
solo para absorção de nutrientes pela planta (Fig. 1). Devido à reduzida média de
produtividade de grãos obtida em 2017, este ano foi classificado como desfavorável à
produtividade de grãos de aveia (AD).
A construção de modelos de simulação de processos agrícolas, que considerem diferentes
condições de uso de um manejo e as variáveis meteorológicas, permite um melhor
entendimento das interações que ocorrem durante o cultivo, como também, previsões de
safras mais apuradas. De Mamann et al. (2019) utilizaram uma arquitetura de RNA na
simulação da produtividade biológica de trigo em função de variáveis meteorológicas e
diferentes doses de nitrogênio. Trautmann et al. (2020) desenvolveram através da lógica
fuzzy, um modelo de simulação da produtividade do trigo nas condições de uso do nitrogênio
junto aos efeitos de temperatura do ar e precipitação pluviométrica, nos principais sistemas de
sucessão do cereal no sul do Brasil.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

822
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Com a aplicação da ANOVA foi verificado o efeito significativo de tratamentos nos


dados obtidos por bioexperimentação. Em seguida, foi desenvolvida uma arquitetura de RNA
para simulação da produtividade de grãos de aveia, independente de condição de ano agrícola,
visando gerar um modelo de estudo preliminar e que contemplasse as diferentes ações das
variáveis meteorológicas. Desta forma, seguindo a metodologia citada na seção anterior, a
arquitetura de RNA escolhida foi 4-8-1, números que correspondem, respectivamente, às
quantidades de neurônios na camada de entrada, oculta e de saída. Os EQM de validação,
treino e teste para esta arquitetura foram de 0,0234, 0,0143 e 0,1052, respectivamente. Além
disto, a RNA escolhida apresentou coeficientes de determinação de 0,9884, 0,9830 e 0,9989
para os processos de validação, treino e teste, todos valores próximos de 1, elevando a
confiabilidade da estrutura gerada.
Na Tabela 2 são apresentados os valores médios de temperatura mínima e máxima, de
precipitação pluviométrica e de produtividade de grãos observada e simulada para cada
condição de uso do fungicida, independente de ano agrícola, juntamente com os valores de
erros absolutos e erros percentuais.

Tabela 2 - Produtividade de grãos de aveia observados por bioexperimentação e simulados


pela RNA, pelo uso do fungicida, precipitação e temperatura mínima e máxima, independente
de ano agrícola.

T min T max Prec. PGO PGS Erroabs Erroper


NAP
(oC) (oC) (mm) (kg ha-1) (kg ha-1) (kg ha-1) (%)
0 1998 2112 114 5,75
1 2635 2741 106 4,05
9,96 23,48 479,5 2 3116 3316 200 6,42
3 3288 3289 1 0,03
4 3333 3116 216 6,49
Média 127,4 4,54
T min = Temperatura mínima média para os anos de 2016 e 2017; T max = Temperatura máxima
média para os anos de 2016 e 2017; Prec.= Precipitação média para os anos de 2016 e 2017;
NAP= Número de aplicações do fungicida; PGO= Produtividade de grãos média observada;
PGS = Produtividade de grãos simulada; Erroabs = Erro absoluto; Erroper = Erro percentual.

Com os valores de erro absoluto encontrados, é possível perceber que apesar da grande
variação das condições meteorológicas e de produtividade de grãos que ocorrem entre ambos
os anos considerados no estudo, o modelo geral de RNA apresentou valores de simulação
satisfatórios para todas as condições de uso de fungicida. O erro percentual médio encontrado
de 4,54% também possibilita verificar a eficiência do modelo considerado e a eficiência das
RNAs em generalizar informações.
As RNAs vêm sendo cada vez mais utilizadas na representação de processos agrícolas,
possibilitando a criação de modelos eficientes para a realização de simulações e previsões.
Vendrusculo et al. (2015) utilizaram RNAs no desenvolvimento de um modelo capaz de
realizar a estimativa da altura de eucaliptos. Michelon et al. (2018) criaram modelos de RNA
para a estimativa de produtividade de grãos de soja e milho, considerando leituras de clorofila
como dado de entrada. Niedbala (2019) propôs um modelo via RNA para a previsão da
produção de colza de inverno considerando dados meteorológicos como a temperatura do ar e
precipitação e dados de fertilização mineral na Polônia.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

823
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÕES

As variáveis de entrada como as diferentes condições de uso do fungicida, temperaturas


mínima e máxima, e precipitação pluviométrica são variáveis potenciais para a criação de
modelos de previsibilidade da produtividade de grãos de aveia.
O modelo de simulação via RNA considerado é capaz de simular e prever com eficiência
a produtividade de grãos de aveia, com erro médio de simulação de 4,54%.
Para trabalhos futuros é sugerido a elaboração de uma estrutura de RNA para simulação
da produtividade da aveia que contemple um maior número de variáveis meteorológicas,
como a temperatura mínima e máxima, a precipitação pluviométrica, a umidade relativa do ar
e a soma térmica, afim de obter resultados ainda mais próximos dos reais.

Agradecimentos

Ao CNPq, à CAPES, à FAPERGS e à UNIJUÍ pelos recursos financeiros, estrutura física


e materiais necessários para realização da pesquisa.

REFERÊNCIAS

Barbosa, T.A.; Lobato, F.S. (2016), Determinação da cinética de secagem de produtos alimentícios usando
algoritmos genéticos. Revista de Agricultura Neotropical, 3, 28-37.
Campos, M.; Anton, A.J.A.; Alleoni, L.R.F. (2016), Phosphorus sorption index in humid tropical soils. Soil and
Tillage Research, 156, 110-118.
da Silva, I.N. (2010) Redes Neurais artificiais: para engenharia e ciências aplicadas, Artliber, São Paulo.
De Mamann, A.T.W.; Silva, J.A.G.; Binelo, M.O.; Scremin, O.B.; Kraisig, A.R.; Carvalho, I.R.; Pereira, L.M.;
Berlezi, J.D.; Argenta, C.V. (2019), Artificial Intelligence Simulating Grain Productivity During the Wheat
Development Considering Biological And Environmental Indicators. Journal of Agricultural Studies,
7,197-212.
Dornelles, E.F.; Kraisig, A.R.; Silva, J.A.G; Sawicki, S.; Roos-Frantz, F.; Carbonera, R. (2018), Artificial
intelligence in seeding density optimization and yield simulation for oat. Revista Brasileira de Engenharia
Agrícola e Ambiental, 22, 183-188.
Dornelles, E.F.; Silva, J.A.G.; Carvalho, I.R.; Alessi, O.; Pansera, V.; Lautenchleger, F.; Stumm, E.M.F.;
Carbonera, R.; Bárta, R.L.; Tisott, J.V. (2020), Resistance of oat cultivars to reduction in fungicide use and
a longer interval from application to harvest to promote food security. Genetics and Molecular Research,
19.
Mantai, R.D.; Silva, J.A.G.; Arenhardt, E.G.; Scremin, O.B.; DE Mamann, A.T.W.; Frantz, R.Z.; Valdiero, A.C.;
Pretto, R.; Krysczun, D.K. (2016), Simulation of oat grain (Avena sativa) using its panicle components and
nitrogen fertilizer. African Journal of Agricultural Research, 11, 3975–3983.
Michelon, G.K.; de Menezes, P.L.; Bazzi, C.L.; Jasse, E.P.; Magalhães, P.S.G.; Borges, L.F. (2018), Artificial
neural networks to estimate the productivity of soybeans and corn by chlorophyll readings. Journal of Plant
Nutrition, 10, 1285-1292.
Miranda, A.P.; Antoniazzi, R.L.; Lopes, L.F.P; Barbosa, M.A.; Costa, V.M.F. (2012), Sistema de Análise de
Ativos Através de Redes Neurais de Múltiplas Camadas. Revista de Administração da Universidade de
Santa Maria, 5, 145-162.
Nazareno, E.S.; Li, F.; Smith, M.; Park, R.F.; Kianian, S.F.; Figueroa, M. (2017), Puccinia coronata f. sp.
avenae: a threat to global oat production. Molecular Plant Pathology, 19, 1047 – 1060.
Niedbala, G. (2019), Simple model based on artificial neural network for early prediction and simulation winter
rapeseed yield. Journal of Integrative Agriculture, 18, 54-61.
Silva, J.A.G.; Wohlenberg, M.D.; Arenhardt, E.G.; Oliveira, A.G. de; Mazurkievicz, G.; Muller, M.; Arenhardt,
L.G.; Binelo, M.O.; Pretto, R. (2015), Adaptability and Stability of Yield and Industrial Grain Quality with
and without Fungicide in Brazilian Oat Cultivars. American Journal of Plant Sciences, 6, 1560–1569.
Silva, J.P.M.; Cabacinha, C.D.; Assis, A.L.; Monteiro, T.C.; Junior, C.A.A.; Maia, R.D. (2018), Redes neurais
artificiais para estimar a densidade básica de madeiras do cerrado. Pesquisa Florestal Brasileira, 38, 1-10.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

824
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Soares, F.C.; Robaina, A.D.; Peiter, M.X.; Russi, J.L. (2015), Predição da produtividade da cultura do milho
utilizando rede neural artificial. Ciência Rural, 45,1987-1993.
Trautmann, A.P.B.; Silva, J.A.G.; Binelo, M.O.; Valdiero, A.C.; Henrichsen, L.; Basso, N.C.F. (2020),
Simulation of wheat yield by nitrogen and nonlinearityof environmental conditions. Revista Brasileira de
Engenharia Agrícola e Ambiental, 24, 44-51.
Vendruscolo, D.G.S.; Drescher, R.; Souza, H.S.; Moura, J.PV.M.; Mamoré, F.M.D.; Siqueira, T.A.daS. (2015),
Estimativa Da Altura De Eucalipto Por Meio De Regressão Não Linear E Redes Neurais Artificiais.
Revista Brasileira de Biometria, 33, 556–569.
Zhang, Y.; Zhang, L.; Yang, N.; Huth, N.; Wang, E.; Werf, W.; Evers, J.N.; Wang, Q.; Zhang, D.; Wang, R.;
Gao, H.; Anten, N.P.R. (2019), Optimized sowing time windows mitigate climate risks for oats production
under cool semi-arid growing conditions. Agricultural and florest meteorology, 184 – 197.

ARTIFICIAL NEURAL NETWORKS IN SIMULATING OAT GRAIN


PRODUCTIVITY CONSIDERING THE NUMBER OF FUNGICIDE APPLICATIONS
AND METEOROLOGICAL VARIABLES

Abstract. Artificial neural networks (ANNs) enable the construction of simulation models and
crop predictions in the agricultural area. In the oats cultivation, the meteorological elements
and the management of the fungicide are factors that significantly influence in the expression
of grain productivity. The objective of the study is to train a model based on ANN capable of
simulating the productivity of oat grains, involving different conditions of fungicide use and
the non-linearity of meteorological conditions. The experimental design was a randomized
block with three replications, with five treatments, in the years 2016 and 2017. To simulate
the productivity of oats, regardless of the year of cultivation, a feedforward ANN was
implemented, the Percéptrons of Multiple Layers. The structure of the ANN consisted of three
layers, with four neurons in the input layer, eight neurons in the hidden layer and one neuron
in the output layer. The ANN architecture considered presented an average error of 4.54%
for the simulations. The ANN is capable of efficiently simulating and predicting the
productivity of oat grains, involving different conditions of use of the fungicide and the non-
linearity of meteorological conditions, regardless of the agricultural year.

Keywords: Artificial intelligence, Computational modeling, Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

825
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Sistema de Aprendizado de Máquina Automatizado para Recomendação de


Hiperparâmetros de Redes Neurais Artificiais

Gustavo Santiago Sousa1 - gustavosantiago1018@gmail.com


André Luiz Carvalho Ottoni1 - andre.ottoni@ufrb.edu.br
1 Centro de Ciências Exatas e Tecnológicas,
Universidade Federal do Recôncavo da Bahia - Cruz das Almas, BA, Brazil

Resumo. O Aprendizado de Máquina é um dos principais campos da Inteligência Artificial. Um


dos desafios dessa área é a grande sensibilidade desses algoritmos aos seus hiperparâmetros,
exigindo que cientistas dediquem longas horas para ajustar esses valores. Nesse sentido, a
área de Automated Machine Learning (AutoML) busca otimizar o desempenho de algoritmos
de aprendizado de máquina automaticamente. Dessa forma, o objetivo deste trabalho foi
desenvolver um sistema de AutoML para recomendação de hiperparâmetros para Redes
Neurais Artificiais. Para isso, elaborou-se um algoritmo de AutoML capaz de recomendar
número de neurônios, taxa de aprendizagem e threshold para Redes Neurais Perceptron
Múltiplas Camadas. Os resultados mostram que o algoritmo de AutoML conseguiu recomendar
boas combinações de hiperparâmetros para os problemas de classificação analisados.
Palavras-chave:Aprendizado de Máquina. Redes Neurais Artificias. AutoML.
Hiperparâmetros.

1. INTRODUÇÃO

O Aprendizado de Máquina, em inglês, Machine Learning (ML), é uma das principais áreas
da Inteligência Artificial (Russel & Norvig, 2013). O ML tem como objetivo possibilitar que um
agente aprendiz possa melhorar seu desempenho em tomadas de decisões. Uma das vertentes
desse campo, o Aprendizado Supervisionado caracteriza-se pela apresentação de exemplos
(pares de entrada e saı́da), de forma que o sistema de aprendizado possa verificar se sua predição
está certa ou não, comparando a mesma com a saı́da esperada para aquela instância (Silva et al.,
2016; Braga et al., 2000; Russel & Norvig, 2013).
Neste contexto de Aprendizado Supervisionado, estão presentes as Redes Neurais Artificiais
(RNAs). Uma RNA é baseada no funcionamento de neurônios biológicos e formulada por
modelos matemáticos (Haykin, 2007; Braga et al., 2000; Silva et al., 2016). Dentre as inúmeras

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

826
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

aplicabilidades das RNAs, as principais envolvem a representação de equações complexas


desconhecidas e permitindo, por exemplo, reconhecimento de padrões em imagens e voz
(Haykin, 2007; Braga et al., 2000; Silva et al., 2016).
No entanto, o Aprendizado de Máquina e as RNAs costumam ser muito sensı́veis aos valores
de seus hiperparâmetros (Braga et al., 2000; Mantovani et al., 2019). Nesse sentido surge
o Automated Machine Learning (AutoML), uma forma de automatizar os processos de ML
buscando fornecer ao agente valores de hiperparâmetros que funcione bem para o problema
trabalhado. Para isso, são utilizadas técnicas de otimização ou recomendação dos valores dos
hiperparâmetros (Hutter et al., 2019; Brazdil et al., 2009). Dessa forma, o objetivo deste
trabalho é elaborar um sistema de Aprendizado de Máquina Automatizado (AutoML) para
recomendação de hiperparâmetros de Redes Neurais Artificiais.
Este trabalho está estruturado em 5 seções. A Seção 2 apresenta a fundamentação teórica.
A Seção 3, por sua vez, descreve a metodologia utilizada. Já a Seção 4, apresenta os resultados
dos experimentos. Finalmente, na Seção 5 são apresentadas as considerações finais.

2. FUNDAMENTAÇÃO TEÓRICA

2.1 Redes Neurais Artificiais

As Redes Neurais Artificiais (RNAs), são fruto de estudos que buscavam entender o
processamento da informação nos neurônios biológicos (Haykin, 2007), sendo uma de suas
maiores contribuições o modelo matemático proposto por McCulloch e Pitts (MCP) (Russel
& Norvig, 2013). Nessa abordagem, as entradas dos neurônios são multiplicadas pelos seus
respectivos valores de pesos sináptico e então é feita a soma ponderada dessas informações
(Haykin, 2007; Silva et al., 2016). A partir desse modelo foi desenvolvido o Perceptron (Braga
et al., 2000; Silva et al., 2016). O Perceptron é a forma mais simples de configuração de uma
RNA, sendo constituı́do de apenas um único neurônio MCP (Silva et al., 2016; Braga et al.,
2000). A Fig. 1 exemplifica o modelo de MCP.

Figura 1- Representação de um neurônio modelo MCP

Fonte: Baseado em (Silva et al., 2016).

Durante seu treinamento, o Perceptron busca encontrar um hiperplano que consiga separar
linearmente as amostras de duas classes. O esforço computacional para mover esse hiperplano
até a fronteira de decisão (região que separa as classes) é dependente da taxa de aprendizagem,
que influencia na velocidade e custos computacionais para chegar nessa região (Silva et al.,
2016; Braga et al., 2000; Russel & Norvig, 2013).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

827
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Redes múltiplas camadas possuem uma ou mais camadas intermediárias entre a entrada e a
saı́da dos dados com uma coleção de neurônios conectados. Nesse tipo de rede, a informação
processada por cada neurônio é propagada para os neurônios da camada seguinte até que
esse sinal chegue a camada de saı́da. Na sequência, é produzida uma resposta referente às
informações fornecidas na camada de entrada, como é o caso do PMC (Braga et al., 2000;
Silva et al., 2016; Russel & Norvig, 2013). Durante o treinamento da rede PMC é utilizado
o aprendizado supervisionado, onde a saı́da esperada (d) de uma determinada amostra (i) é
comparada com a saı́da produzida pela rede (Y ) através de uma função de custo como ilustra a
Eq. (1) (cálculo do erro quadrático), com n sendo o número de amostras do problema (Braga et
al., 2000; Silva et al., 2016):
n
1X
E= (d(i) − Y (i))2 . (1)
2 i=0

Uma RNA com uma camada intermediária é capaz de implementar qualquer função
contı́nua. Já com duas camadas intermediárias permite a aproximação de qualquer função
matemática (Braga et al., 2000). Quanto a quantidade de neurônios presente por camada, esse
número depende fortemente da distribuição de padrões na amostra (Braga et al., 2000). Se
uma RNA possuir um alto número de conexões e poucos exemplos pode ocorrer o overfitting
(memorização dos dados). Outro problema é quando o número de conexões é menor que o
número de exemplos, o que pode ocasionar o underfitting (não consegue separar as classes
corretamente) (Silva et al., 2016; Braga et al., 2000). Dessa forma, a quantidade de neurônios
nas camadas intermediárias, bem como a topologia da rede é determinada empiricamente
(Braga et al., 2000; Silva et al., 2016). Quanto a topologia, pode-se ser adotado a abordagem
“one of c-classes” onde cada neurônio da camada de saı́da é responsável por uma classe
diminuindo a complexidade do problema e a demanda de neurônios necessários nas camadas
intermediarias (Silva et al., 2016). Outra forma de melhorar o desempenho da rede neural diz
respeito a escalonar ou normalizar os valores tanto das entradas quanto da saı́da para intervalos
correspondente com os da função de ativação, evitando assim a saturação dos neurônios (Silva
et al., 2016).

2.2 AutoML

Apesar dos avanços nos processos de ML, eles ainda requerem a atuação humana para
aumentar seu desempenho. Nesse sentido o AutoML (Automated Machine Learning) busca
automatizar esses processos, de forma a tornar os algoritmos de ML mais eficientes (Dyrmishi
et al., 2019; Feurer et al., 2015). Para tanto, o Metalearning, uma ciência de observação
sistemática com o objetivo de aprender através da experiência pode ser usada com o AutoML
para recomendar hiperparâmetros baseado em experiências passadas (Brazdil et al., 2009;
Hutter et al., 2019; Dyrmishi et al., 2019; Feurer et al., 2015). Primeiro se faz necessário
reunir metadados que descrevem experiências anteriores, buscando informações como dados de
hiperparâmetros, arquiteturas das redes neurais, as avaliações do modelo selecionado, como o
tempo de duração, acurácia, etc, assim como, as metafeatures, as caracterı́sticas do problema
(Brazdil et al., 2009).
As metafeatures estáticas e teóricas extraı́das do conjunto de dados, como por exemplo,
o número de caracterı́sticas, a quantidade de classe, o número de amostra por caracterı́sticas,
podem ser usadas para determinar a semelhança entre tarefas (Brazdil et al., 2009, 2003; Hutter
et al., 2019; Cunha et al., 2018). Ao denominar T um conjunto de tarefas de classificação, ou

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

828
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

problemas de classificação, onde cada tarefa Ti possui um vetor M com suas metafeatures
m1 , m2 . . . mn , e C um conjunto com valores de hiperparâmetros, pode ser feito um novo
conjunto com as avaliações (P ) dos valores de C em uma determinada tarefa Ti . Dessa forma,
P (Ti , C) fornece todas as avaliações das configurações C sobre aquela tarefa Ti , e Pk é um
elemento desse conjunto (Hutter et al., 2019; Cunha et al., 2018). Com essas avaliações (Pk ),
é possı́vel montar rankings com quais valores de hiperparâmetros C resultam nas melhores
avaliações para cada tarefa de T (Hutter et al., 2019). Quando uma nova tarefa é apresentada
ao algoritmo, o mesmo pode buscar uma tarefa do conjunto T que seja semelhante a essa nova
tarefa e ver quais valores de hiperparâmetros produziram as melhores avaliações, recomendando
esses valores (Feurer et al., 2015; Hutter et al., 2019).
Em seguida, é possı́vel realizar uma união desses rankings de tarefas individuais em um
ranking global. Desse modo, quando uma nova tarefa é apresentada ao algoritmo e não
existem tarefas semelhantes no conjunto T , uma solução é a busca por recomendações entre
as configurações globais (Hutter et al., 2019).

3. METODOLOGIA

3.1 Base de dados

A primeiro etapa deste trabalho foi a obtenção dos conjuntos de dados. Foram utilizados
no total onze problemas de classificação, sendo nove problemas populares de classificação do
repositório UCI Machine Learning1 e dois problemas do livro Redes Neurais Artificiais para a
Engenharia e Ciências Aplicadas (Silva et al., 2016). Nessa primeira fase do método, apenas
seis desses conjuntos de dados foram utilizados, quatro do repositório, sendo eles: O Iris2 ,
o Heart3 , Wine4 e Car5 . Além dos dois problemas descritos por (Silva et al., 2016), aqui
chamados de ”Petróleo”e ”Válvula”: o primeiro sobre a classificação de determinado óleo
durante o processo de destilação do petróleo baseado em três propriedades fı́sico-quı́micas e
o segundo sobre o controle de duas válvulas baseado em quatro sinais. A Tabela 1 apresenta
um resumo das informações de cada dataset adotado.

Tabela 1- Datasets usados neste trabalho.


Metafeatures Petróleo Válvula Iris Coração Wine Car
No de caracterı́sticas 3 4 4 13 13 6
No de classes 2 2 3 2 3 4
o
N de amostras 30 35 150 270 178 1728

3.2 Tratamento dos dados e topologia da rede

A segunda etapa foi o tratamento desses dados. Primeiro, os dados do tipo carácter
foram convertidos em numéricos. Em seguida, foi realizado o processo de normalização,
deixando dentro dos limites da função de ativação, evitando assim a saturação dos neurônios e

1
https://archive.ics.uci.edu/ml/index.php
2
https://archive.ics.uci.edu/ml/datasets/iris
3
https://archive.ics.uci.edu/ml/datasets/Heart+Disease
4
https://archive.ics.uci.edu/ml/datasets/Wine
5
https://archive.ics.uci.edu/ml/datasets/Car+Evaluation

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

829
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

consequentemente aumentando o desempenho da rede (Silva et al., 2016). Para a normalização


foi usada a Eq. (2):

X − Xmin
X= (Kmax − Kmin ) + Kmin (2)
Xmax − Xmin
em que, Xmin e Xmax são valores mı́nimo e máximo do atributo a ser normalizado. Já Kmin e
Kmax , são os valores de mı́nimo e máximo da função de ativação.
Após os dados serem tratados, é adotada a validação cruzada por amostragem aleatória
para dividir aleatoriamente o conjunto de dados em um conjunto de treinamento e outro de
validação (Silva et al., 2016). Neste trabalho, a divisão realizada foi de 75% das amostras para
o treinamento e o restante (25%) utilizado para a validação (teste) da RNA.
Alguns dos problemas de classificação adotados possuem mais de duas classes. Apesar
de uma RNA poder classificar uma quantidade de classes igual 2m , sendo m a quantidade
de neurônios na camada de saı́da da rede (Silva et al., 2016), esse processo pode exigir mais
neurônios nas camadas internas. Assim, tornando a tarefa de classificação mais complexa (Silva
et al., 2016). Dessa forma, caso o problema adotado possua mais de duas classes é utilizada a
abordagem “one of c-classes”, a fim de simplificar a arquitetura exigida da rede.

3.3 Configuração dos hiperparâmetros

Uma RNA possui diversos hiperparâmetros, a depender do algoritmo de treinamento


utilizado. Nessa etapa foram definidos quais hiperparâmetros seriam fixos e quais seriam
variados pelo sistema de AutoML. A Tabela 2 apresenta os hiperparâmetros adotados neste
trabalho (fixos e variáveis).

Tabela 2- Hiperparâmetros de RNAs adotados neste trabalho (fixos e variáveis).


Hiperparâmetro estado valor inicial valor mı́nimo valor máximo
No de camadas Fixo 2 – –
o
N de neurônios Variável 1 a 10 1 (10+n)
Taxa de aprendizado Variável 0,025 0,0008 0,083
Função de custo Fixo SEQ – –
Função de ativação Fixo ’logistic’ ou ’tanh’
Threshold Variável 0,08 0, 08 ∗ (0, 5n ) 0,2
Algoritmo Fixo Backpropagation – –
No máximo de ciclos Fixo 500.000 – –

Além desse hiperparâmetros, foi criado uma variável para o número de repetições (n),
que determina quantas vezes o algoritmo será executado. Então foram definidos vetores de
comprimento correspondente a n para armazenar os hiperparâmetros e avaliações de cada
repetição. A definição de duas camadas intermediárias, foi devido ao fato que com apenas
duas camadas ocultas uma RNA pode-se representar qualquer função matemática (Braga et al.,
2000). Já quanto ao número de neurônios em cada camada foi estabelecido como um valor
inteiro aleatório de 1 a 10. Os valores para taxa de aprendizagem, threshold e a quantidade
limite de ciclos foram determinados empiricamente analisar sucessivos testes.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

830
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3.4 Algoritmo de AutoML - Execução

Nesta seção, são apresentados detalhes da sequência de execução algoritmo de AutoML


proposto para recomendação de hiperparâmetros para RNAs. A criação e treinamento das
RNAs foram feitas a partir da biblioteca ”neuralnet” do software R (Günter & Frisch, 2010). O
desempenho da Rede Neural é avaliada em termos de seus valores de acurácia, quantidade de
ciclos utilizados e erro (valor da função de custo).
O primeiro passo do algoritmo de AutoML é salvar quais valores de hiperparâmetros
serão utilizados. Com base nesses valores é criada a RNA executando os dados do conjunto
de treinamento de um dos problemas. Em seguida, é verificado se a RNA conseguiu ou
não convergir durante o treinamento. Caso não tenha alcançado convergência, então as suas
avaliações de acurácia, quantidade de ciclos e erro, são salvas como: 0, 500000, 0.
Porém, caso a RNA tenha alcançado convergência, a rede treinada é exposta aos dados
de validação e avaliadas as respostas produzidas. Nesse caso, a saı́da da RNA é comparada
com os valores esperados para o conjunto de validação para se obter a acurácia. As
informações sobre a quantidade de ciclos utilizadas e o erro, são disponibilizados pela função
“result.matrix” disponı́vel na biblioteca ”neuralnet”. Então estas avaliações são salvas nos
vetores correspondentes.
Antes do fim da execução, o algoritmo realiza modificações nos valores dos hiperparâmetros
para a próxima iteração. O número de neurônios por camada é definido aleatoriamente,
atendendo o seguinte critério: se o algoritmo deve somar ou subtrair um neurônio, desde que
o número de neurônios na camada não seja inferior a 1. O valor do threshold é definido
aleatoriamente com as seguintes operações: reduzido pela metade, ou multiplicado por 1,2
desde que o threshold não assuma valores maiores que 0,2. Em relação a taxa de aprendizado,
as modificações são feitas desde que ela não fique inferior a 0,0008 nem superior a 0,083, devido
a relação velocidade/custo computacional para obtenção da fronteira de decisão. Esses limites,
assim como decisão de multiplicar por 0,5 ou 1,2 aleatoriamente foram definidos empiricamente
sendo preferı́vel um aumento nos custos computacionais a baixas avaliações do algoritmo.

3.5 Algoritmo de AutoML - Recomendação

Na sequência, a descrição do sistema de recomendação do algoritmo de AutoML proposto.


Ao fim da etapa de execução, todos os vetores contendo as configurações e suas respectivas
avaliações são preenchidos. O sistema então reúne todos os vetores em uma tabela, onde
cada linha corresponde a uma instância do problema e cada coluna determinada configuração
ou avaliação. Essa tabela é ordenada para a construção de um ranking de recomendação de
hiperparâmetros, priorizando a acurácia da configuração de forma decrescente. Em caso de
empate entre as configurações de hiperparâmetros, é utilizada a quantidade de ciclos de forma
crescente e por fim o erro, também ordenado de forma crescente.
A medida que o algoritmo é executado esses rankings são armazenados em arquivos. Caso
exista combinações de hiperparâmetros repetidas nestes arquivos o algoritmo sobrescreve as
linhas com repetições. Por fim, os rankings são unidos em um ranking global e re-ordenado
por acurácia, quantidade de ciclos e erro. O ranking global tem como o intuito de ser uma
recomendação de configuração padrão, quando não existe semelhança com nenhum outro
problema dos rankings individuais armazenados. Se existirem configurações repetidas ao unir
os demais rankings, o algoritmo realiza as médias dessas combinações de hiperparâmetros e
exclui as demais linhas que contenham as avaliações repetidas, re-ordenando esse rankings ao

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

831
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Algoritmo de AutoML para Recomendação de Hiperparâmetros de RNAs.


Importar bibliotecas e obtenção do conjunto de dados.
Converter possı́veis dados do tipo caractere em numérico e normalizar os dados
Dividir o conjunto dados entre conjunto de Treinamento e conjunto de validação.
Usar o método “one of c-classes” se numero de classe for maior que 2
Definir configurações iniciais, n e o limite de ciclos para o problema.
Criar vetores de tamanho n para armazenar as configurações e avaliações.
Fazer n vezes:
Vetores armazenam as configurações atuais.
Criar e treinar RNA com configurações atuais e os dados do problema
Se a RNA não convergir:
Armazenar nos vetores de avaliação 0, limite,0
Caso tenha sido treinada com sucesso:
Fazer a validação da rede neural com o conjunto de validação.
Comparar resposta com resposta esperada salvando a acurácia
Em result.matrix salvar a quantidade de ciclos gastos e o erro.
Variar configurações para a próxima iteração
criar rankings unindo os vetores e ordenando os mesmos
Se existir arquivo de armazenamento para problema especı́fico.
Junta o ranking com o do arquivo sobrescrevendo linhas do arquivo repetidas.
Se não existir arquivo:
cria arquivo e salva o ranking.
Unir os rankings em um ranking global ordenando por acurácia, quantidade de ciclos e erro.
Se tiver combinações de hiperparâmetros repetidas
substitui a avaliação pela media das avaliações das combinações repetidas
É excluı́do do ranking as linhas repetidas.
Ranking é novamente ordenado e salvo como arquivo.

final do processo. A Figura 2 apresenta um pseudo código do algoritmo de AutoML proposto


neste trabalho.

4. RESULTADOS

O algoritmo de AutoML proposto gerou sete rankings de recomendação de hiperparâmetros


(número de neurônios da primeira e segunda camada oculta, taxa de aprendizagem e o
threshold). Os seis primeiros rankings são correspondentes a cada um dos problemas (Seção
3.1). Dentre os conjuntos de hiperparâmetros que foram classificados em primeiro lugar nos
rankings, o menor resultado foi de 72% de acurácia, e, dos 6 problemas 3 obtiveram 100% de
acurácia. Já o ranking (global) congrega 640 combinações diferentes de hiperparâmetros. A
Tabela 3 mostra as 10 melhores combinações de hiperparâmetros gerados para o problema 1
(Pétroleo). A Tabela 4, por sua vez, apresenta os resultados das melhores configurações para
o problema 3 (Iris). Nas Tabelas 3 e 4, considere TA como a taxa de aprendizagem, N1 é o
numero de neurônios na primeira camada e N2 na segunda camada.
A partir das Tabelas 3 e 4, é interessante notar que os valores de threshold mais altos,
combinados com uma taxa de aprendizagem também mais elevada e com mais neurônios
nas camadas (N1 e N2 ) tenderam a produzir soluções com menores ciclos. Isso pode ser
explicado devido a relação velocidade por custo computacional (descrita com mais detalhes
na fundamentação teórica). A motivação pela exibição das melhores combinações nesses
problemas se dá pelos resultados que esses rankings obtiveram na próxima etapa.
De modo a avaliar o desempenho das recomendações geradas pelo sistema de AutoML,
as 10 primeiras configurações de hiperparâmetros de cada ranking foram testadas em outros

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

832
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3- Melhores combinações de hiperpararâmetros recomendadas para o problema 1 pelo algoritmo


de AutoML.
N1 N2 Threshold TA Acurácia Ciclos Erro
2 7 0,0800 0,0250 0,7500 18 2,8058
9 6 0,0800 0,0250 0,7500 35 2,8173
5 3 0,0800 0,0250 0,7500 45 2,6856
9 10 0,0800 0,0125 0,7500 1422 1,7977
10 6 0,0691 0,0090 0,7500 2041 1,5650
8 3 0,0800 0,0250 0,7500 2173 0,6405
6 11 0,0400 0,0300 0,7500 2397 0,3318
3 6 0,0800 0,0125 0,7500 2425 1,6719
8 11 0,0400 0,0300 0,7500 2502 0,3713
2 3 0,0480 0,0360 0,7500 2552 0,4395

Tabela 4- Melhores combinações de hiperpararâmetros recomendadas para o problema 3 pelo algoritmo


de AutoML.
N1 N2 Threshold TA Acurácia Ciclos Erro
8 8 0,0960 0,0300 1,0000 510 2,5177
4 9 0,0800 0,0250 1,0000 681 2,3467
8 6 0,0800 0,0250 1,0000 692 2,4668
9 7 0,0800 0,0250 1,0000 703 2,3608
6 6 0,0800 0,0300 1,0000 886 2,1933
5 5 0,0800 0,0250 1,0000 913 2,3288
4 4 0,0800 0,0250 1,0000 980 2,2850
4 3 0,0800 0,0300 1,0000 1002 2,1810
8 3 0,0800 0,0250 1,0000 1044 2,3686
5 4 0,0800 0,0250 1,0000 1074 2,2377

cinco problemas. Esses novos problemas foram: Diagnosis6 , Amphibians7 , Balance8 , Cédulas9
e Doação10 . A Tabela 5 revela mais detalhes sobre o desempenho médio das dez melhores
combinações de cada ranking nesses novos dados.
Avaliando a Tabela 5, é possı́vel notar que as configurações dos rankings 1 e 3,
em geral, produziram bons desempenhos em novas bases de dados. O ranking 1, por
exemplo, alcançou a primeira colocação em dois problemas: Amphibians e Doação. Já
os hiperparâmetros do rankings 3, obtiveram os melhores desempenho nas seguintes bases
de dados: Diagnosis, Balance e Células. Uma hipótese é que esses rankings possuem
configurações de hiperparâmetros mais generalistas do que os demais.

5. CONCLUSÕES

O objetivo de deste trabalho foi elaborar um método de AutoML para recomendação de


hiperpararâmetros para Redes Neurais Artificiais. Para isso, foi desenvolvido um algoritmo
que gera valores semi-aleatórios de hiperparâmetros e cria um modelo de RNA com esses

6
https://archive.ics.uci.edu/ml/datasets/Acute+Inflammations
7
https://archive.ics.uci.edu/ml/datasets/Amphibians
8
https://archive.ics.uci.edu/ml/datasets/Balance+Scale
9
https://archive.ics.uci.edu/ml/datasets/banknote+authentication
10
https://archive.ics.uci.edu/ml/datasets/Blood+Transfusion+Service+Center

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

833
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 5- Avaliação das recomendações de hiperparâmetros nos novos problemas.


Ranking Problema Acurácia Ciclo Erro posição
Ranking 3 Diagnosis 1,0000 928.0000 0,4989 1o lugar
Ranking 1 Diagnosis 1,0000 1254.9000 0,4237 2o lugar
Ranking Global Diagnosis 1,0000 1541.2000 0,3916 3o lugar
Ranking 6 Diagnosis 1,0000 4813.1000 0,1634 4o lugar
Ranking 5 Diagnosis 0,9500 5072.1000 3,3585 5o lugar
Ranking 4 Diagnosis 0,9333 4714.5000 3,9305 6o lugar
Ranking 2 Diagnosis 0,9333 4882.6000 1,0525 7o lugar
Ranking 1 Amphibians 0,0532 246530.4000 14,4887 1o lugar
Ranking 4 Amphibians 0,0489 305946.5000 28,2921 2o lugar
Ranking 2 Amphibians 0,0447 307445.5000 31,7745 3o lugar
Ranking Global Amphibians 0,0383 355249.0000 16,5857 4o lugar
Ranking 5 Amphibians 0,0340 321180.1000 29,6191 5o lugar
Ranking 6 Amphibians 0,0298 361804.0000 7,1388 6o lugar
Ranking 3 Amphibians 0,0149 443434.0000 3,9316 7o lugar
Ranking 3 Balance 0,9513 3994.6000 2,8762 1o lugar
Ranking 6 Balance 0,9506 12980.9000 1,2343 2o lugar
Ranking Global Balance 0,9410 13986.9000 3,9336 3o lugar
Ranking 1 Balance 0,9372 30603.6000 5,6942 4o lugar
Ranking 2 Balance 0,9186 14399.8000 11,1948 5o lugar
Ranking 4 Balance 0,9167 18670.5000 13,0211 6o lugar
Ranking 5 Balance 0,8853 15825.1000 19,1788 7o lugar
Ranking 3 Cédulas 1,0000 841.7000 0,3249 1o lugar
Ranking 1 Cédulas 1,0000 1427.9000 0,2661 2o lugar
Ranking Global Cédulas 1,0000 1714.9000 0,2487 3o lugar
Ranking 5 Cédulas 1,0000 3814.4000 0,2130 4o lugar
Ranking 6 Cédulas 1,0000 6423.7000 0,1216 5o lugar
Ranking 2 Cédulas 0,8988 75124.4000 0,2523 6o lugar
Ranking 4 Cédulas 0,8977 143190.7000 0,5077 7o lugar
Ranking 1 Doação 0,7321 100406.0000 40,3507 1o lugar
Ranking 2 Doação 0,6572 113040.0000 35,6310 2o lugar
Ranking Global Doação 0,6513 171187.6000 30,3626 3o lugar
Ranking 6 Doação 0,5674 240602.9000 26,1793 4o lugar
Ranking 3 Doação 0,5658 184608.6000 28,7822 5o lugar
Ranking 4 Doação 0,5647 194618.4000 30,5899 6o lugar
Ranking 5 Doação 0,4160 258385.2000 21,2971 7o lugar

valores. Em seguida, avalia-se o desempenho dessa RNA ao tentar resolver alguns problemas
de classificação. Os conjuntos de hiperparâmetros utilizados e suas avaliações são armazenados
e hierarquizados em função de suas avaliações sobre a forma de rankings. Os critérios de
desempenho adotados foram: a acurácia, quantidade de ciclos de processamento e o erro da
RNA.
Os resultados mostram que o algoritmo de AutoML conseguiu recomendar boas
combinações de hiperparâmetros para os problemas analisados. Além disso, também é possı́vel
utilizar os rankings gerados em novas bases de dados. Como mostrou as configurações
referentes aos rankings 1 e 3, que em geral, alcançaram os melhores desempenhos nos novos
problemas de classificação. Em trabalhos futuros, sugere-se a adoção de mais bases de dados
para análise. Também é importante novas versões para o algoritmo de AutoML, priorizando
uma maior flexibilidade na modelagem da arquitetura da RNA, variando por exemplo o número
de camadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

834
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

Agradecemos a UFRB e, em especial, às nossas famı́lias.

REFERÊNCIAS

Braga, A. P., Ludermir, T. B. e Carvalho, A. C. P. L. F., 2000, ”Redes Neurais Artificiais:Teoria e


Aplicações”, LTC, Rio de Janeiro.
Brazdil, Pavel B., Giraud-Carrier, C., Soares, C. and Vilalta, R., 2009, ”Metalearning: Applications to
Data Mining”, Springer, Heidelberg.
Brazdil, P. B., Soares, C. e Da Costa, Joaquim Pinto, 2003, ”Ranking learning algorithms: Using IBL and
meta-learning on accuracy and time results”,”journal Machine Learning”,vol. 50, 251–277, Springer
Cunha, T., Soares, C. and de Carvalho, A. C. P. L. F., 2018, ”Metalearning and Recommender
Systems: A literature review and empirical study on the algorithm selection problem for Collaborative
Filtering”, ”Journal Information Sciences”, vol. 423, 128–144. Elsevier
Dyrmishi, S., Elshawi, R. and Sakr, S., 2019, ”A Decision Support Framework for AutoML Systems: A
Meta-Learning Approach”, ”2019 International Conference on Data Mining Workshops (ICDMW)-
IEEE”, 97–106
Feurer, M., Klein, A., Eggensperger, K. and Springenberg, J., Blum, M. e Hutter, F., 2015, ”Efficient and
robust automated machine learning”,”Advances in neural information processing systems”, 2962–
2970.
Günther, F. e Fritsch, S., 2010,”neuralnet: Training of neural networks”, ”The R journal”, vol. 2, 30–38.
Haykin, S., 2007, ”Redes Neurais Princı́pios e práticas”/;tradução Paulo Martins Engel, 2a ed.,
Bookman Editora, São Paulo.
Hutter, F., and Kotthoff, L. and Vanschoren, J., 2019, ”Automatic Machine Learning: Methods, Systems,
Challenges”, Springer.
Mantovani, R. G., Rossi, A, L. D., Alcobaça, E., Vanschoren, J. and de Carvalho, A. C. P. L. F., 2019
”A meta-learning recommender system for hyperparameter tuning: Predicting when tuning improves
SVM classifiers”, journal Information Sciences, vol. 501, 193-221.
Russell, S. e Norvig. P. (2013), “Inteligência artificial ”; tradução Regina Célia Simille. 3a ed., Elsevier,
Rio de Janeiro.
Silva, I. N., Spatti, D. H., and Flauzino, R. A., 2016 ”Redes Neurais Artificiais para engenharia e
ciências aplicadas”, Artliber, São Paulo.

APPENDIX A

Automated Machine Learning System for Hyperparameter Recommendation of Artificial


Neural Networks

Abstract. Machine Learning is one of the main fields of Artificial Intelligence. One of the
challenges in this area is the great sensitivity of these algorithms to their hyperparameters,
requiring scientists to dedicate long hours to adjust these values. In this sense, the Automated
Machine Learning (AutoML) area seeks to optimize the performance of machine learning
algorithms automatically. Thus, the objective of this paper, was to develop an AutoML system
for recommending hyperparameters for Artificial Neural Networks. For this, an AutoML
algorithm was elaborated, capable of recommending number of neurons, learning rate and
textit threshold for Neural Networks. The results show that the AutoML algorithm was able to
recommend good combinations of hyperparameters for the classification problems analyzed.

Keywords: Machine Learing. Artificial Neural Networks. AutoML. Hyperparameters.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

835
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

REDES NEURAIS ARTIFICIAIS NA SIMULAÇÃO DA PRODUTIVIDADE DE


GRÃOS DE AVEIA PELA CONDIÇÃO DE USO DE FUNGICIDA E NÚMERO DE
GRÃOS POR PLANTA

Odenis Alessi1 – odenisalessi@hotmail.com


Vanessa Pansera2 – vpansera@hotmail.com
Cibele Luisa Peter2 – cibele.peter2017@gmail.com
Eduarda Warmbier2 – eduarda.warmbier@gmail.com
José Antonio Gonzalez da Silva3 – jagsfaem@yahoo.com.br
1
Bolsista CAPES/BRASIL, Universidade Regional do Noroeste do Estado do Rio Grande do Sul,
Departamento de Ciências Exatas e Engenharias – Ijuí, RS, Brasil
2
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Ciências
Exatas e Engenharias – Ijuí, RS, Brasil
3
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Estudos
Agrarios – Ijuí, RS, Brasil

Resumo. Na área de sistemas agrários, a inteligência artificial, por meio das redes neurais
artificiais (RNAs), tem possibilitado a criação de modelos capazes de simular e prever
diferentes processos. No cultivo da aveia, a utilização de fungicidas é necessária e o mesmo
possui influência direta sobre os componentes da produtividade da cultura. O objetivo do
estudo é adequar uma arquitetura de RNA para simulação e previsão da produtividade de
grãos de aveia, envolvendo o número de grãos por planta e diferentes condições de uso do
fungicida. O delineamento experimental foi de blocos casualizados com três repetições, com
cinco tratamentos, nos anos de 2015 e 2016. Para simulação da produtividade da aveia, foi
implementada uma RNA do tipo feedforward, a Percéptrons de Múltiplas Camadas. A
estrutura da RNA foi constituída por três camadas, com dois neurônios na camada de
entrada, quatro neurônios na camada oculta e um neurônio na camada de saída. A
arquitetura de RNA considerada apresentou erro médio de 2,69% para as simulações. As
variáveis selecionadas para compor as entradas da RNA possibilitam a criação de um
modelo de simulação eficiente, sendo que a RNA desenvolvida é capaz de simular e prever
com eficiência a produtividade de grãos de aveia.

Palavras-chave: Modelagem computacional, Simulação, Inteligência Artificial, Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

836
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

A modelagem matemática e computacional possibilita a representação de sistemas reais


em diferentes áreas do conhecimento, viabilizando a realização de simulações e previsões de
diferentes processos (Rondón et al., 2002; Soltani et al., 2018). Modelos ligados a inteligência
artificial têm contribuído de forma significativa no processo de modelagem, pois permitem
considerar um maior número de variáveis na constituição de modelos (Soares et al., 2015;
Dornelles et al., 2018). Dentre as técnicas de inteligência artificial, as redes neurais artificiais
(RNAs) vêm sendo amplamente utilizadas, pois são capazes de realizar o aprendizado
computacional através do reconhecimento de padrões dos dados experimentais. Na área de
estudos agrários, as RNAs são uma importante ferramenta na construção de modelos
eficientes na representação, simulação e previsão de processos, em que ocorre a interferência
de diferentes variáveis (Çelebi et al., 2017; Dornelles et al., 2018; De Mamann et al., 2019).
O cultivo da aveia branca (Avena sativa) ocorre principalmente na região sul do Brasil e
vem apresentando crescimento no decorrer dos anos (Nerbass et al., 2010). Este aumento na
produção e cultivo é devido aos inúmeros propósitos deste cereal, que pode ser utilizado na
alimentação animal e humana, dentre outros (Kraisig et al., 2018). No cultivo da aveia, a
aplicação de fungicida é uma tecnologia de manejo necessária, devido as diferentes doenças
foliares que acometem a cultura (Dornelles et al., 2020). Estas doenças, se não controladas,
podem comprometer significativamente a produtividade de grãos e causar grandes prejuízos
econômicos (Silva et al., 2015; Dietz et. al., 2019). Desta forma, o fungicida possui influência
direta sobre os componentes da produtividade da aveia, como o número de grãos por planta, e
consequentemente, a expressão da produtividade de grãos da mesma (Federizzi et al. 1995;
Dornelles et al., 2020).
As relações que envolvem o manejo do fungicida e o número de grãos de aveia por planta
podem favorecer a construção de um modelo de simulação eficiente, com capacidade de
simular e prever a produtividade de grãos. Assim, a utilização da RNA pode auxiliar na
simulação e previsão da produtividade de grãos de aveia em condições reais de cultivo,
permitindo considerar o número de grãos por planta e os efeitos das diferentes condições de
uso do fungicida. O objetivo do estudo é adequar uma arquitetura de RNA para simulação e
previsão da produtividade de grãos de aveia, envolvendo o número de grãos por planta e as
diferentes condições de uso do fungicida.

2. METODOLOGIA

Para o desenvolvimento do trabalho, os ensaios experimentais foram realizados na


área experimental do Instituto Regional de Desenvolvimento Rural (IRDeR) pertencente ao
Departamento de Estudos Agrários (DEAg) da Universidade Regional do Noroeste do Estado
do Rio Grande do Sul (UNIJUÍ) no município de Augusto Pestana-RS, nos anos de 2015 e
2016. A semeadura foi realizada utilizando uma semeadora-adubadora na composição da
parcela experimental. Cada parcela é composta por 5 linhas, de 5 metros de comprimento
cada e espaçamento entre linhas de 0,20 m, correspondendo a uma unidade experimental de 5
m2. O delineamento experimental foi o de blocos casualizados com três repetições, com cinco
tratamentos (número de aplicação de fungicida). As condições de uso do fungicida foram:
testemunha (sem aplicação); uma aplicação aos 60 Dias Após Emergência (DAE); duas
aplicações aos 60 e 75 DAE; três aplicações aos 60, 75 e 90 DAE; e quatro aplicações aos 60,
75, 90 e 105 DAE. O fungicida utilizado foi o de nome comercial FOLICUR® CE, na
dosagem de 0,75 litros ha-1, conforme recomendação técnica de aplicação do produto. A
cultivar utilizada foi a URS Altiva, amplamente cultivada na região. A colheita dos grãos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

837
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ocorreu de forma manual, pelo corte das três linhas centrais de cada parcela, que após
trilhadas com colheitadeira estacionária, foram direcionadas ao laboratório para correção de
humidade para 13% e posterior pesagem, convertida para a unidade de um hectare. Após a
obtenção dos dados, foi aplicada análise de variância (ANOVA), com nível de significância
de 5%, a fim de identificar efeito significativo dos tratamentos. A análise e contagem do
número de grãos por planta foi realizada pela coleta de dez panículas de cada unidade
experimental, em que foi calculada a média para cada repetição de condição de uso do
fungicida. Os anos agrícolas foram classificados observando as médias de produtividade de
grãos obtidas para cada ano, em comparação à expectativa de produtividade desejada, que era
de 4000 kg ha-1.
Para simulação da produtividade da aveia, independente de condição de ano de cultivo,
foi implementada uma RNA do tipo feedforward, a Percéptrons de Múltiplas Camadas
(MLP). A estrutura da RNA foi constituída por três camadas, sendo a camada de entrada,
oculta e de saída. A camada de entrada possui 2 neurônios, considerando as variáveis de
entrada, condições de uso de fungicida e número de grãos por planta. A camada de saída
possui 1 neurônio, considerando a produtividade de grãos de aveia como dado de saída. Foi
utilizada a metodologia adotada por De Mamann et al. (2019) para a definição do números de
neurônios da camada oculta, sendo treinadas 5 redes com 3 camadas cada. Foram
consideradas estruturas em que o número de neurônios na camada oculta variou de 4 a 8
neurônios. Após o treinamento de cada arquitetura de RNA, foi escolhida a de menor erro
quadrático médio (EQM) em relação à validação, menor EQM em relação ao treinamento e
menor EQM em relação ao teste de cada rede. A função de ativação utilizada foi a tangente
hiperbólica sigmoide. Para o treinamento da RNA foi utilizado o algoritmo backpropagation
juntamente com o algoritmo de otimização Levenberg-Marquardt. Para o treinamento da
RNA, foram considerados dados de 30 amostras, que foram normalizados a partir da Eq. (1)

2( p − p min )
N= −1 (1)
( p max − p min )

em que, N é o valor normalizado adimensional, p é o valor a ser normalizado, pmin é o menor


valor da amostra e pmax é o maior valor da amostra. A normalização dos dados é realizada
dentro do intervalo de -1 a 1 devido ao fato de que a função de ativação definida se utiliza de
valores pertencentes ao mesmo. Após a normalização, o conjunto de dados amostrais foi
dividido aleatoriamente em 70% para o treinamento, 15% para validação e 15% para teste.
Para o treinamento das RNAs multicamadas e simulação da produtividade de grãos de aveia,
foi utilizado o Neural Network Toolbox do software MATLAB.
As simulações foram realizadas considerando a média do número de grãos por planta por
condição de uso de fungicida, independente de ano agrícola. Para validação da RNA, foi
realizado o cálculo do erro absoluto e do erro percentual entre as produtividades de grãos
simuladas pela RNA e as médias de produtividade de grãos obtidas para cada condição de uso
de fungicida considerada na realização do experimento.

3. RESULTADOS E DISCUSSÕES

Os valores obtidos por bioexperimentação para o número de grãos por planta e


produtividade de grãos em função das diferentes condições de uso de fungicida, juntamente
com as médias de produtividade para cada ano considerado no estudo, são apresentados na
Tabela 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

838
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 – Produtividade de grãos observada e número de grãos por planta para cada condição
de uso de fungicidade e médias de produtividade para os anos de 2015 e 2016.

ANO NAF PG
NGP PG
(kg ha-1) (kg ha-1)
0 65 2321
1 92 2696
2015
2 74 3487 3398
(AI)
3 86 4236
4 51 4251
0 43 2893
1 44 3478
2016
2 65 4423 3945
(AF)
3 45 4467
4 51 4464
NAF= Número de aplicação de fungicida; NGP= Número de grãos por planta; PG=
Produtividade de grãos; PG = Produtividade de grãos média. AI= Ano intermediário ao
cultivo da aveia; AF= Ano favorável ao cultivo da aveia.

Os dados obtidos para o número de grãos por planta para o ano de 2015 não apresentam
um comportamento proporcional à medida que ocorre um aumento no número de aplicações
de fungicida. Entretanto, este comportamento é observado para os valores de produtividade de
grãos obtidos para as diferentes condições de uso do agroquímico. Este fato pode evidenciar
uma maior influência do fungicida no peso dos grãos produzidos, comprovando a eficiência
deste manejo na garantia da qualidade dos grãos de aveia. O valor obtido para a produtividade
de grãos média para o ano de 2015 apresentou um valor satisfatório em relação à expectativa
desejada, entretanto não sendo um valor suficiente para classificação do ano em favorável à
produtividade de grãos. Desta forma, o ano de 2015 foi classificado como intermediário ao
cultivido da aveia (AI). Os dados obtidos para o ano de 2016 para o número de grãos por
planta, como no ano anterior, não apresentam um comportamento proporcional ao aumento do
número de aplicações de fungicida. Valores elevados de produtividade para as condições de 2,
3 e 4 aplicações de fungicida, evidenciam que além da ação do agroquímico, o ano apresentou
condições favoráveis para obtenção de alta produtividade. Isto é comprovado pelo valor de
produtividade de grãos média obtida para o ano, muito próximo à expectativa desejada de
4000 kg ha-1, possibilitando a classificação do ano como favorável ao cultivo da aveia.
A construção de modelos de simulação e previsão de produtividade de grãos, que
considerem diferentes condições de uso de um manejo e componentes da panícula, como o
número de grãos por planta, permite previsões eficientes de safras. Mantai et al. (2016)
propuseram um modelo de simulação da produtividade da aveia usando componentes da
panícula e o manejo do nitrogênio. Marolli et al. (2017) utilizaram componentes da panícula
da aveia, juntamente com diferentes doses de regulador de crescimento na composição de um
modelo da produtividade.
Com a aplicação da ANOVA foi verificado o efeito significativo de tratamentos nos
dados obtidos por bioexperimentação. Em seguida, foi desenvolvida uma arquitetura de RNA
para simulação da produtividade de grãos de aveia, independente de condição de ano agrícola,
visando gerar um modelo que contemplasse as variações de ano e as diferentes condições de
aplicação do agroquímico. Desta forma, seguindo a metodologia citada anteriormente, a
arquitetura de RNA escolhida foi 2-4-1, números que correspondem, respectivamente, às
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

839
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

quantidades de neurônios na camada de entrada, oculta e de saída. Os valores de EQM de


validação, treino e teste para esta arquitetura foram de 0,0240, 0,0981 e 0,1107,
respectivamente. Os valores dos coeficientes de determinação para os processos de validação,
treino e teste foram próximos de 1, elevando a confiabilidade da estrutura gerada.
Na Tabela 2 são apresentados os valores médios do número de grãos por planta e de
produtividade de grãos observada e simulada para cada condição de uso do fungicida,
independente de ano agrícola, juntamente com os valores de erros absolutos e erros
percentuais encontrados.

Tabela 2 – Produtividades de grãos de aveia observadas por bioexperimentação e simuladas


pela RNA, em função do uso fungicida e número de grãos por planta, independente de ano
agrícola.

PGo PGs Erroabs Erroper


NGP NAF
(kg ha-1) (kg ha-1) (kg ha-1) (%)
54 0 2607 2671 64,88 2,48
68 1 3087 3250 163,01 5,28
70 2 3955 3919 35,96 0,9
66 3 4351 4308 42,2 0,97
51 4 4358 4525 167 3,83
Média 94,61 2,69
NGP= Número de grãos por planta; NAF= Número de aplicação de fungicida; PGo=
Produtividade de grãos observada; PGs= Produtividade de grãos simulada; Erroabs= Erro
absoluto; Erroper= Erro percentual.

Os valores da produtividade de grãos simulados pela RNA se apresentaram próximos dos


valores observados por bioexperimentação. As menores diferenças foram observadas para as
condições de 0, 2 e 3 aplicações de fungicida, embora que, nas demais condições, a diferença
dada pelo erro absoluto seja maior, ainda são apresentados valores aceitáveis para este tipo de
simulação. A acurácia do modelo gerado em representar o processo proposto ainda pode ser
confirmada pelo valor do erro médio encontrado de 2,69%, que além disto, evidencia a
eficiência da RNA em generalizar informações dentro do campo das ciências agrárias.
As RNAs vêm se apresentando como uma importante ferramenta na modelagem de
processos agrícolas. Teodoro et al. (2015) utilizaram as RNAs para a identificação de
genótipos de feijão-caupi com alta adaptabilidade e estabilidade fenotípica. Leal et al. (2015)
avaliaram por meio das RNAs a eficácia da adoção de atributos do solo à produtividade de
milho em modelos de simulação da produtividade. De Mamann et al. (2019) simularam via
RNA a produtividade de grãos de trigo durante o seu desenvolvimento, considerando
indicadores biológicos e ambientais.

4. CONCLUSÃO

A arquitetura de RNA considerada no estudo possibilita simular e prever


satisfatoriamente a produtividade de grãos de aveia, envolvendo o número de grãos por planta
e as diferentes condições de uso do fungicida.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

840
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As variáveis selecionadas para compor as entradas da RNA possibilitam a criação de um


modelo eficiente para a simulação da produtividade de grãos de aveia.

Agradecimentos

Ao CNPq, à CAPES, à FAPERGS e à UNIJUÍ pelos recursos financeiros, estrutura física


e materiais necessários para realização da pesquisa.

REFERÊNCIAS

Çelebi, K.; Uludamar, E.; Tosun, E.; Yildizhan, S.; Aydin, K.; Ozcanli, M. (2017), Experimental and artificial
neural network approach of noise and vibration characteristic of an unmodified diesel engine fuelled with
conventional diesel, and biodiesel blends with natural gas addition. Fuel, 197, 159-173.
Dietz, J.I.; Schierenbeck, M.; Simón, M.R. (2019), Impact of foliar diseases and its interaction with nitrogen
fertilization and fungicides mixtures on green leaf area dynamics and yield in oat genotypes with different
resistance. Crop Protection, 121, 80-88.
De Mamann, A.T.W.; Silva, J.A.G.; Binelo, M.O.; Scremin, O.B.; Kraisig, A.R.; Carvalho, I.R.; Pereira, L.M.;
Berlezi, J.D.; Argenta, C.V. (2019), Artificial Intelligence Simulating Grain Productivity During the Wheat
Development Considering Biological And Environmental Indicators. Journal of Agricultural Studies,
7,197-212.
Dornelles, E.F.; Kraisig, A.R.; Silva, J.A.G; Sawicki, S.; Roos-Frantz, F.; Carbonera, R. (2018), Artificial
intelligence in seeding density optimization and yield simulation for oat. Revista Brasileira de Engenharia
Agrícola e Ambiental, 22, 183-188.
Dornelles, E.F.; Silva, J.A.G.; Carvalho, I.R.; Alessi, O.; Pansera, V.; Lautenchleger, F.; Stumm, E.M.F.;
Carbonera, R.; Bárta, R.L.; Tisott, J.V. (2020), Resistance of oat cultivars to reduction in fungicide use and
a longer interval from application to harvest to promote food security. Genetics and Molecular Research,
19.
Federizzi, L.C.; Acauan, L.R.; de Carvalho, F.I.F.; Bodanese-Zanettini, M.H. (1995), Variabilidade Fenotípica
de Diferentes Caracteres da Panícula em Aveia (Avena Sativa L.). Pesquisa Agropecuária Brasileira, 30,
223-229.
Kraisig, A.R.; Scremin, O.B.; Mantai, R.D.; Marolli, A.; De Mamann, A.T.W.; Brezolin, A.P.; Scrimin, A.H.;
Silva, J.A.G. (2018), Análise da Superfície de Resposta sobre o Uso do Biopolímero Hidrogel no Sistema
Soja/Aveia. Proceeding Series of the Brazilian Society of Computational and Applied Mathematics, 6.
Leal, A.J.F.; Miguel, E.P.; Baio, F.H.R.; de Neves, D.C.; Leal, U.A.S. (2015), Redes neurais artificiais na
predição da produtividade de milho e definição de sítios de manejo diferenciado por meio de atributos do
solo. Bragantia, 74, 436-444.
Mantai, R.D.; Silva, J.A.G.; Arenhardt, E.G.; Scremin, O.B.; De Mamann, A.T.W.; Frantz, R.Z.; Valdiero, A.C.;
Pretto, R.; Krysczun, D.K. (2016), Simulation of oat grain (Avena sativa) using its panicle components and
nitrogen fertilizer. African Journal of Agricultural Research, 11, 3975-3983.
Marolli, A.; Silva, J.A.G.; Mantai, R.D.; Brezolin, A.P.; Gzergorczick, M.E.; Lambrecht, D.M. (2017) Oat yield
through panicle components and growth regulator. Revista Brasileira de Engenharia Agrícola e Ambiental,
21, 261-266.
Nerbass, J M.J.; Casa, R.T.; Kuhnem, P.R.J.; Gava, F.; Bogo, A. (2010), Modelos de pontos críticos para
relacionar o rendimento de grãos de aveia branca com a intensidade de doença no patossistema múltiplo
ferrugem da folha: helmintosporiose. Ciência Rural, 40, 1-6.
Rondón, E.O.O.; Murakami, A.E.; Sakaguti. E.S. (2002), Modelagem Computacional para Produção e Pesquisa
em Avicultura. Revista Brasileira de Ciência Avícola, 4, 199-207.
Soares, F.C.; Robaina, A.D.; Peiter, M.X.; Russi, J.L. (2015), Predição da produtividade da cultura do milho
utilizando rede neural artificial. Ciência Rural, 45,1987-1993
Soltani, F.; Khemira, H.; Atifi, S.; Ghazwani, Q. (2018), Mathematical Characterization of Growth of a Local
Landrace of Sorghum from Saudi Arabia. International Journal of Pure e Apllied Bioscience, 6, 52-55.
Silva, J.A.G.; Wohlenberg, M.D.; Arenhardt, E.G.; Oliveira, A.G. de; Mazurkievicz, G.; Muller, M.; Arenhardt,
L.G.; Binelo, M.O.; Pretto, R. (2015), Adaptability and Stability of Yield and Industrial Grain Quality with
and without Fungicide in Brazilian Oat Cultivars. American Journal of Plant Sciences, 6, 1560–1569.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

841
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Teodoro, P.E.; Barroso, L.M.A.; Nascimento, M.; Torres, F.E.; Sagrilo, E.; dos Santo, A.; Ribeiro, L.P. (2015),
Redes neurais artificiais para identificar genótipos de feijão-caupi semiprostrado com alta adaptabilidade e
estabilidade fenotípicas, 50.

ARTIFICIAL NEURAL NETWORKS IN SIMULATING THE OAT GRAIN


PRODUCTIVITY BY THE CONDITION OF USE OF FUNGICIDE AND NUMBER
OF GRAINS PER PLANT

Abstract. In the area of agrarian systems, artificial intelligence, through artificial neural
networks (ANNs), has enabled the creation of models capable of simulating and predicting
different processes. In the cultivation of oat, the use of fungicides is necessary and it has a
direct influence on the components of crop productivity. The objective of the study is to adapt
an ANN architecture for simulating and forecasting the oat grain productivity, involving the
number of grains per plant and different conditions of use of the fungicide. The experimental
design was a randomized block with three replications, with five treatments, in the years 2015
and 2016. For simulation of oat productivity, a feedforward ANN was implemented, the
Multi-Layer Percéptrons. The structure of the ANN consisted of three layers, with two
neurons in the input layer, four neurons in the hidden layer and one neuron in the output
layer. The ANN architecture considered presented an average error of 2.69% for the
simulations. The variables selected to compose the ANN entries allow the creation of an
efficient simulation model, and the developed ANN is capable of efficiently simulating and
predicting the oat grain productivity.

Keywords: Computational modeling, Artificial intelligence, Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

842
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CONTROLE DE VIBRAÇÕES DE UMA VIGA USANDO BURACOS NEGROS


ACÚSTICOS E LÓGICA FUZZY

Racquel Knust Domingues1 - racquel.knust@ufpel.edu.br


Tatiane Weimann1 - tatiane.weimann@ufpel.edu.br
Alexandre Molter1 - alexandre.molter@ufpel.edu.br
Sigmar de Lima1 - sigmar.lima@ufpel.edu.br
1 Universidade Federal de Pelotas - Pelotas, RS, Brasil

Resumo. Com aumento de projetos mecânicos que demandam estruturas leves e flexı́veis,
cada vez mais se faz necessário desenvolver métodos de controle de vibrações indesejadas.
Este trabalho propõe a utilização de dois tipos de controle em uma viga. A primeira técnica
aplicada foi o Buraco Negro Acústico, que é um tipo de controle passivo onde é feita a retirada
de material da estrutura de forma que ela fique com buracos. A vibração quando entra neste
buraco fica presa dentro do mesmo, não refletindo a onda pro resto da viga. A segunda técnica
aplicada foi a implementação de um controlador baseado na Lógica Fuzzy para operar um
atuador piezoelétrico. A formulação e modelagem da estrutura foi feita com base no Métodos
dos Elementos Finitos.

Keywords: Controle de vibrações, Controle ativo e passivo, Buraco Negro Acústico, Lógica
Fuzzy

1. INTRODUÇÃO

As estruturas leves e flexı́veis têm cada vez mais sido utilizadas nos projetos mecânicos
atuais. Diversas áreas da engenharia, como a aeroespacial e a aeronáutica, se utilizam da
caracterı́stica de que essas estruturas trazem uma diminuição no custo do projeto, já que quanto
menor o peso da estrutura, menos energia é necessária para transportá-la (He & Fu, 2001, apud
Ortiz, 2015). Porém, quando o peso da estrutura é reduzido, surge uma nova problemática,
as vibrações indesejadas. Essas vibrações, quando implicam em amplitudes muito grandes,
podem causar danos a estrutura e na eficiência do sistema em si (Denis, 2014). Portanto se faz
necessário o uso de algum tipo de controle em tais estruturas.
O controle de vibrações pode ser classificado em dois tipos: o controle passivo, aquele que
não necessita de inserção de energia para realizar o controle, e o controle ativo, que é aquele
que necessita de energia para controlar (Nicoletti, 2013).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

843
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O controle passivo de vibrações geralmente se dá de duas formas: mudando as frequências


naturais do sistema para longe da vibração de operação ou diminuindo a amplitude das
vibrações, ou seja, amortecendo a vibração. Existem diversas técnicas para amortecer uma
vibração com controle passivo, como, por exemplo, usar materiais com um fator de perda alto,
ou utilizar amortecedores sintonizados, que nada mais é que adicionar um sistema massa-mola
com um amortecedor viscoso ao sistema, ou até mesmo utilizar uma camada superficial de
amortecimento (Denis, 2014).
Recentemente, tem-se desenvolvido uma técnica alternativa para o controle passivo de
vibrações denominada Buraco Negro Acústico (BNA), que é um buraco construı́do em
estruturas, onde a espessura da mesma decresce conforme uma lei de potência. A ideia é que
quando a vibração entra nesse buraco, sua velocidade diminui e sua amplitude aumenta, fazendo
com que a vibração fique presa no centro do buraco e, assim, não é refletida para o resto da
estrutura. Um BNA utiliza da técnica de retirar material da estrutura, ou seja, é um método de
rejeito (Prasad & Zhao, 2019). Neste trabalho foram feito diversos testes de configurações e
tamanhos de BNA para o melhor desempenho de controle passivo.
Muitas vezes, apenas o uso do controle passivo não é suficiente, fazendo-se necessário usar
o controle ativo em conjunto. O controle ativo de vibrações é feito, basicamente, projetando-
se um controlador para um atuador. Existem alguns atuadores possı́veis de se utilizar para
o controle de vibrações. Gardonio & Kras (2019) propõem o uso de um atuador inercial
modificado onde os problemas de estabilidade do atuador inercial clássico são resolvidos.
Mutra & Srinivas (2020) propuseram o controle de um sistema de rotor turbocompressor com
um atuador eletromagnético. Porém o atuador mais comumente utilizado para o controle de
vibrações é o atuador piezoelétrico. Sua capacidade de converter energia elétrica em energia
mecânica é de extrema conveniência para este tipo de controle (Molter et al., 2018).
Além da escolha do atuador, o projeto de um controle ativo de vibrações também demanda
a escolha do tipo de controlador a ser usado, mais precisamente a lógica a ser usada no controle.
O controle através da realimentação da velocidade por um ganho constante é amplamente usado
(Zhang et al., 2017). Outro controlador muito usado é o regulador quadrático ótimo, que busca
maximizar a quantidade de energia atenuada (Schulz et al., 2013). Neste trabalho será usado
um controlador baseado na Lógica Fuzzy, que se baseia no comportamento humano decisório,
onde as regras que comandam o comportamento do controle é baseado no conhecimento do
processo e na experiência do projetista (Lima, 2016).
Além do projeto de controle de vibrações, este trabalho propõem a utilização da formulação
em Elementos Finitos para modelagem e discretização do domı́nio da estrutura. Este método,
que é numérico, foi desenvolvido para facilitar a modelagem de problemas complexos já que
a ideia básica é dividir a estrutura em elementos menores mais simples e, posteriormente,
trabalhar com funções aproximadas para as variáveis em cada elemento. No final da aplicação
do método é necessário apenas associar todas as funções de todos os elementos para gerar a
modelagem final (Liu & Quek, 2003). Também foram usados a análise modal e a representação
em espaço de estados.
O trabalho esta organizado na seguinte maneira: na Seção 2 temos a formulação e
modelagem da estrutura com Formulação em Elementos Finitos, na Seção 3 é feita toda a parte
de Análise Modal e Representação em Espaço de Estados, na Seção 4 é explanado sobre a teoria
e aplicação do Buraco Negro Acústico, na Seção 5 é feita uma breve introdução sobre atuadores
piezoelétricos e sobre a implementação do controlador Fuzzy, na Seção 6 são mostrados os
resultados encontrados e na Seção 7 são apresentadas as conclusões do trabalho.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

844
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. FORMULAÇÃO EM ELEMENTOS FINITOS

O domı́nio da estrutura utilizada neste trabalho foi discretizado usando o Métodos dos
Elementos Finitos. A estrutura usada é uma viga engastada em um dos lados e foi considerado o
estado de deformações planas. Os elementos são retangulares com quatro nós em cada vértice,
cujo o domı́nio do elemento é denominado como Ωe, e foi considerado o movimento em duas
dimensões (2D). Em cada nó há dois graus de liberdade, o movimento horizontal do nó, xi , e o
movimento vertical do nó, yi , como mostrado na Fig. 1.

Figura 1- Discretização da Estrutura e Elemento Finito.

Para uma análise dinâmica do elemento, a equação regente para um elemento pode ser
descrita como na Eq. (1) (Liu & Quek, 2003):

Me üe + Ce u̇e + Ke ue = fe . (1)

Na Eq. (1), ue é o vetor de deslocamento nodal do elemento e o vetor de força, fe , e as


matrizes de massa, Me , rigidez, Ke , e amortecimento, Ce , são descritas da seguinte forma:
Z Z Z
T T
fe = N bedΩe + N tedΓe, Me = ρNT NdΩe, (2)
Ωe Γe Ωe
Z
Ke = BT cBdΩe, Ce = αKe + βMe . (3)
Ωe
Na Eq. (2), N representa as funções interpoladoras. Os vetores be e te na Eq. (2)
representam, respectivamente, as forças de corpo e as forças superficiais atuando na estrutura.
Na Eq. (3), B é a matriz de relação entre a tensão e o deslocamento e c é a matriz constitutiva
do material. As contantes α e β na Eq. (3) são determinadas conforme o modelo de Rayleigh.
A constante ρ na Eq. (2) é a densidade do material.
A equação que rege o domı́nio inteiro da estrutura, ou seja, a equação global da estrutura é
bem análoga à Eq. (1). Neste trabalho foi considerado a análise das vibrações livres, ou seja,
os vetores de forças de corpo e de forças superficiais são nulos. Portanto, a equação global
dinâmica da estrutura deste trabalho pode ser descrita conforme a Eq. (4):

Mü + Cu̇ + Ku = 0. (4)

As matrizes de massa, M, de amortecimento, C, e de rigidez, K, global são encontradas


associando cada contribuição de cada elemento. O vetor u representa os delocamentos nodais
de toda a estrutura.
Como neste trabalho foi considerado um controle ativo também, podemos considerar o sinal
de controle como uma força externa atuando no sistema. No presente caso, o controle irá operar

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

845
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

num atuador piezoelétrico então o sinal de controle é a tensão aplicada no mesmo, va . Este sinal
é multiplicado por uma matriz, Pa , que mapeia a voltagem aplicada (Molter et al.,2010). Sendo
assim, a equação global que rege a estrutura deste trabalho pode ser descrita como na Eq. (5) :
Mü + Cu̇ + Ku = Pa va . (5)

3. ANÁLISE MODAL E REPRESENTAÇÃO EM ESPAÇO DE ESTADOS

Para facilitar a resolução da Eq. (5), foi utilizado a análise modal, onde, ao utilizar as
coordenadas modais η, é possı́vel desacoplar as equações regentes do movimento. Segundo
Gawronski (2004 apud Padoin 2014), a representação por coordenadas modais pode ser obtida
pela transformação do modelo nodal. Essa transformação é feita utilizando a matriz modal que
é determinada a partir da solução modal, que é a solução do problema de autovalor e autovetor
descrito pela Eq. (6) abaixo:
(K − ω 2 M)Φ = 0. (6)
Os autovalores encontrados, ω 2 , são chamados de frequências naturais do sistema e são as
frequências com que as vibrações livres ocorrem. Os autovetores associados aos autovalores
encontrados, Φ, são denominados modos e descrevem a amplitude associada às frequências
naturais. A matriz modal, Φ, é a matriz com todos os modos do sistema. Como, geralmente,
apenas os primeiros modos contem informações relevantes à analise do sistema, usamos a
matriz modal truncada com n modos.
Com a matriz modal truncada podemos transformar o vetor de deslocamento nodal em
função das coordenadas modais, como descrito na Eq. (7) abaixo:
u = Φη. (7)
Utilizando a Eq. (7) na Eq. (5), obtemos a seguinte equação:
MΦη̈ + CΦη̇ + KΦη = Pa va . (8)
Multiplicando todos os termos da Eq. (8) por ΦT , temos:
Mη̈ + Cη̇ + Kη = Pa va . (9)
Na Eq. (9):
M = ΦT MΦ, C = ΦT CΦ, K = ΦT KΦ, Pa = ΦT Pa. (10)
Multiplicando todos os termos da Eq. (9) por M−1 , temos a seguinte equação:
η̈ + Zη̇ + Ωη = M−1 Pa va . (11)
Na Eq. (11):
Z = M−1 C = diag(2ζi ωi ), Ω = M−1 K = diag(ωi2 ). (12)
Se considerarmos como variaveis de estados o deslocamento e a velocidade modal, ξ =
[η η̇]T , podemos reescrever a Eq. (11) em representação em espaço de estados como:
ξ̇ = Aξ + Bva . (13)
Na Eq. (13):
   
0nxn Inxn 0nx1
A= , B= . (14)
-Ω -Z M−1 Pa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

846
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONTROLE PASSIVO DE VIBRAÇÕES

Feita a modelagem e discretização da estrutura, inicia-se a implementação do controle na


viga. O primeiro controle que foi considerado foi o controle passivo. Segundo Nicoletti (2013):
“por controle passivo entende-se aquele que não necessita de um sistema de sensoriamento e de
realimentação para que a atenuação dos movimentos vibratórios ocorra[...]”.
Neste trabalho se propõe utilizar o efeito do Buraco Negro Acústico como controle passivo.
O princı́pio básico do efeito do BNA foi descrito pela primeira vez por Mironov (1988), que
descreve que não há reflexão de uma onda que se propaga em uma estrutura onde a espessura
diminui suavemente. Isso se deve ao fato de que a onda quando entra neste tipo de estrutura tem
sua velocidade reduzida e sua amplitude aumentada, consequentemente, a energia dessa onda é
concentrada dentro deste buraco, conforme mostrado na Fig. 2.

Figura 2- Efeito do BNA (Zhao & Prasad, 2019).

Para satisfazer a condição da espessura, o perfil do BNA tem que responder à uma lei de
potência, ou seja, a espessura da estrutura precisa diminuir conforme a equação abaixo:

h(x) = axm + h1 . (15)

O termo h1 na Eq. (15) se faz necessário devido ao problema de manufatura da prática, já
que é impossı́vel, até o momento, produzir um perfil que tenda a espessura a zero, sobrando
sempre uma espessura residual. A constante a é uma constante que depende da largura e da
altura do BNA e m é a ordem do perfil (Zhao & Prasad, 2019). O esquemático de um BNA
descrito pela Eq. (15) é mostrado na Fig. 3.

Figura 3- Esquemático do BNA (Zhao & Prasad, 2019).

Segundo Zhao & Prasad (2019), existem diversos fatores que influenciam em como o BNA
vai atuar na estrutura, como a quantidade, o comprimento, a ordem m do buraco, o tamanho do
resı́duo h1 e a configuração na estrutura. Aqui neste trabalho foram feitos diversos testes para
se encontrar a melhor forma de aplicação do efeito na estrutura.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

847
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. CONTROLE ATIVO DE VIBRAÇÔES

Neste trabalho também se propõem um controle ativo de vibrações da estrutura. Segundo


Nicoletti (2013), “por controle ativo entende-se aquele que necessita de um sistema de
sensoriamento e de realimentação para que a atenuação dos movimentos vibratórios ocorra
[...]”. Foi implementado um controlador com base na Lógica Fuzzy que irá acionar um atuador
piezoelétrico perfeitamente colado na viga.

5.1 Atuador Piezoelétrico

As cerâmicas piezoelétricas são materiais que têm a capacidade de converter energia elétrica
em energia mecânica e vice-versa. Elas podem operar de duas formas: como um sensor, quando
a energia mecânica é convertida em energia elétrica, ou como um atuador, quando o efeito
contrário acontece. Este trabalho se utiliza do segundo modo de operação, o efeito inverso da
piezoeletricidade. Como mostrado na Fig. 4 quando aplicamos uma tensão na mesma direção de
polarização da cerâmica, o material se expande, no caso de aplicarmos uma tensão contrária da
polarização, o material se contrai. Portanto, quando aplicamos uma tensão alternada à cerâmica,
podemos gerar um movimento periódico que servirá como ação de controle para as vibrações
indesejadas (Moheimani & Fleming, 1967).

Figura 4- Efeito inverso da piezoeletricidade (Moheimani & Fleming, 1967).

5.2 Controlador Fuzzy

Neste trabalho, como a proposta foi controlar a deflexão da viga, as variáveis de entrada
escolhidas foram a posição, pos, e a velocidade, vel, do movimento transversal. Após isso,
defini-se o universo de discurso das variáveis de entrada, ou seja, de quanto a quanto podem
variar. Aqui foi feita uma simulação da vibração da viga sem controle e, assim, definido o
universo de discurso abaixo:

• pos ∈ [−0.1, 0.1] m,

• vel ∈ [−10, 10] m/s.

Por conseguinte, é necessário escolher quais funções de pertinências serão usadas. Existem
diversas formas para as funções de pertinência, dependendo do sistema cujo elas são aplicadas
(Lima, 2016). Neste trabalho foi usado funções triangulares e trapezoidais, como mostrado na
Fig. 5. Temos três funções de pertinência definidas para a posição que são def− (deflexão
negativa), eq (ponto de equilı́brio) e def+ (deflexão positiva). Para a velocidade também foram
definidas três funções de pertinência que são vel− (velocidade negativa), nula (velocidade nula)
e vel+ (velocidade positiva).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

848
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Funções de pertinência da posição e velocidade.

Para o próximo passo se estabelece as regras de controle. Tais regras são construı́das com
base na resposta requerida e nos preceitos que regem o sistema. Aqui as regras foram definidas
com base no sentido do movimento (velocidade) e o deslocamento, resultando em uma tensão
diretamente polarizada, V+ , ou uma tensão inversamente polarizada, V− , podendo essa tensão
ser forte ou não. As regras de controle são mostradas na Fig. 6.

Figura 6- Regras de controle do sistema.

6. RESULTADOS

As simulações foram feitas através de códigos e plantas implementados no MATLAB e no


SIMULINK. Foi usado uma malha com 160 elementos em x e 8 elementos em y. O material
usado para extrair as constantes constitutivas para a viga foi o Alumı́nio com módulo de Young
(E) igual a 65.109 GP a, densidade (ρ) igual a 2890kg/m3 e coeficiente de Poisson (ν) igual
a 0, 334 (Molter et al., 2010). O primeiro e o segundo modo da viga sem nenhum BNA são
mostrados na Fig. 7, com frequências 76,25Hz e 457,28Hz respectivamente.

Figura 7- Primeiro e segundo modo - Viga sem BNA.

Para se poder comparar o comportamento das vigas com e sem controle, iremos analisar o
movimento transversal do último elemento em x e em y. Foi usado como condições iniciais

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

849
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0.1m e 0.1m/s. Na Fig. 8 podemos ver a vibração para os dois primeiros modos e a soma dos
dois.

Figura 8- Dois primeiros modos e deflexão do último elemento da viga sem buraco.

Após isso, foram feitos diversos testes com os BNAs variando a quantidade (1,2,3 ou 5) e os
tamanhos (altura e largura). Observou-se qual destas configurações gerava a maior diminuição
da amplitude do movimento final da viga. A melhor opção foi utilizar um buraco no centro da
viga. Os dois primeiros modos da viga com um BNA são mostrados na Fig. 9, com frequências
14,15Hz e 137,46Hz respectivamente. O movimento final é mostrado na Fig. 10.

Figura 9- Primeiro e segundo modo - Viga com um BNA.

Figura 10- Dois primeiros modos e deflexão do último elemento da viga com buraco.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

850
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Decidida a melhor configuração do buraco, acoplou-se um atuador piezoelétrico na viga, de


material PZT5A, considerando não haver perdas de propriedades mecânicas no acoplamento,
com módulo de Young (E) igual a 50.109 GP a, densidade (ρ) igual a 7600kg/m3 e com
constantes constitutivas c11 igual a 12, 1.1010 , c12 igual a 7, 54.1010 e c66 igual a 2, 26.1010
(Molter et al., 2010). Para isso colocou-se três elementos a mais acima da viga com as
caracterı́sticas de massa e rigidez do material piezoelétrico. Os dois primeiros modos dessa viga
com o atuador são mostrados na Fig. 11, com frequências 13,73Hz e 130,81Hz respectivamente.

Figura 11- Primeiro e segundo modo - Viga com um BNA e um atuador piezoelétrico.

Depois dessa etapa, foi aplicado o controle à viga. Foi feito o controle para os dois modos
separadamente para facilitar o projeto. O movimento final dos dois primeiros modos e a soma
dos dois são mostrados na Fig. 12.

Figura 12- Dois primeiros modos e movimento final da viga com um BNA e um atuador piezoeletrico
com controle Fuzzy.

7. CONCLUSÕES

Pelo presente trabalho conclui-se que a utilização dos BNAs auxiliou o controle de vibrações
da viga. Em relação ao controle ativo, o controlador Fuzzy se mostrou eficiente. Como atuador,
foi utilizado o material piezoelétrico, o qual é bastante utilizado no controle de vibrações e
confirmou-se sua efetividade.
Para trabalhos futuros, se propõe a implementação do controlador via códigos no MATLAB
e ainda é necessário desenvolver um trabalho de otimização da aplicação deste controle passivo,
pensando em qual melhor configuração para haver a maior atenuação da vibração.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

851
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

A autora Racquel Knust Domingues agradece à Universidade Federal de Pelotas pelo apoio,
suporte e financiamento através do Programa de Bolsas de Iniciação Tecnológica.

Referências

Denis, V. (2014), “Amortissement Vibratoire de Poutres par Effet Trou Noir Acoustique”, Tese de
Doutorado, LAUM, Le Mans.
de Lima, S. (2016), “Implementação de Estratégias de Controle Utilizando Lógica Fuzzi e Técnicas de
Controle Vetorial em um Sofware de Elementos Finitos”, Tese de Doutorado, UFSC, Florianópolis.
Kras, A. and Gardonio, P. (2019), “Active vibration control unit with a flywheel inertial actuator”,
Journal of Sound and Vibration, Amsterdam, vol 464, 1-20.
Liu, G.R. and Queek, S.S. (2003),“The Finite Element Method: A Practical Course”, 1o ed., Butterworth
Heinemann, Oxford.
Mironov, M.A. (1988), “Propagation of a flexural wave in a plate whose thickness decreases smoothly
to zero in a finite interval”, Akust. Zh., Rússia, vol 34, 546-547.
Moheimani, S.O.R. and Fleming, A. (1967),“Piezoelectric Transducers for Vibration Control and
Damping”, 1o ed., Springer, Berlim.
Molter, A., da Silveira, O.A.A., Fonseca, J.S.O. and Bottega, V. (2010), “Simultaneous Piezoelectric
Actuator and Sensor Placement Optimization and Control Desing of Manipulators with Flexible Links
Using SDRE Method”, Mathematical Problems in Engineering, Cairo, vol 2010, 1-24.
Molter, A., Fernandez, L.S. and Lauz, J.B. (2018), “An optimaly criteria-based method for the
simultaneous optimization of the structural design and placement of piezoelectric actuators”,
Structural and Multidisciplinary Optimization, Amsterdam, vol 1, 1-17.
Mutra, Dr and Srinivas, Jonnalagadda. (2020), “Active Vibration Control in Turbocharger Rotor System
with the Use of Electromagnetic Actuator”, “Advances in Applied Mechanical Engineering. Lecture
Notes in Mechanical Engineering”, Berlim, 1o ed., 563-570.
Nicoletti, R. (2013), “Estudo do Controle Ativo e Passivo de Vibrações em Sistemas Rotativos e
Estruturais”, Livre-Docência, EESC-USP, São Paulo.
Ortiz, R.R.H. (2015), “Controle Modal de Vibrações em Estruturas Flexı́veis”, Tese de Mestrado,
UNICAMP, Campinas.
Padoin, E. (2014), “Otimização Topológica de Cascas Compostas Laminadas com Atuador Piezoelétrico
para o Controle de Vibrações”, Tese de Doutorado, UFRGS, Porto Alegre.
Schulz, S.L., Gomes, H.M. and Awruch, M.G. (2013), “Optimal discrete piezoelectric partch allocation
on composite structures for vibration control based on GA and modal LQR”, Computers & Structures,
Amsterdam, vol 128, 101-115.
Zhang, X., Takezawa, A. and Kang, Z. (2017), “Topology optimization of piezoelectric smart
structures for minimum energy consumption under active control”, Structural and Multidisciplinary
Optimization, Amsterdam, vol 58, 185-199.
Zhao, C. and Prasad, M.G. (2019), “Acoustic Black Holes in Structural Desing for Vibration and Noise
Control”, Acoustics, Basel, vol 1, 220-251.
————————————————————————————————————
VIBRATION CONTROL OF A BEAM USING ACOUSTIC BLACK HOLES AND FUZZY
LOGIC
Abstract. With the increase of mechanical designs that demand light and flexible structures, it is
increasingly necessary to develop methods to control unwanted vibrations. This work proposes
the use of two types of control on a beam. The first technique applied was the Acoustic Black
Hole, which is a type of passive control where material is removed from the structure so that it
remains with holes. The vibration when entering this profile is trapped inside it, not reflecting
the wave to the rest of the beam. The second technique applied was the implementation of
a controller based on fuzzy logic to operate a piezoelectric actuator. The formulation and
modeling of the structure was made based on the Finite Element Methods.

Keywords: Vibration control, Active and passive control, Acoustic Black Hole, Fuzzy Logic

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

852
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CONTROLE DE VIBRAÇÕES EM UMA VIGA USANDO O EFEITO DOS BURACOS


NEGROS ACÚSTICOS E CONTROLE ÓTIMO REALIMENTADO

Tatiane Weimann1 - tatiane.weimann@ufpel.edu.br


Racquel Knust Domingues1 - racquel.knust@ufpel.edu.br
Alexandre Molter1 - alexandre.molter@ufpel.edu.br
1 Universidade Federal de Pelotas - Pelotas, RS, Brasil

Resumo. O objetivo deste trabalho é controlar as vibrações livres presentes numa viga em
balanço, utilizando dois tipos de controle, o passivo e o ativo. Como controle passivo, o
efeito do Buraco Negro Acústico, que consiste em acrescentar buracos na estrutura, em que
a energia da vibração se acumula em seu interior, podendo então a vibração ser amenizada.
Para o controle ativo usou-se um atuador piezoelétrico, que é encarregado pela transformação
da carga elétrica sobreposta em uma deformação mecânica contrária à deformação da viga,
e a estratégia de controle empregada é um controlador ótimo realimentado. O Método dos
Elementos Finitos é utilizado para discretizar o domı́nio e assim obter a modelagem da viga.
Simulações numéricas foram obtidas utilizando uma implementação do problema no software
MATLAB. Foi possı́vel constatar que a junção dos controles utilizados foi eficaz, principalmente
o uso do controle ótimo realimentado para o controle de vibrações na estrutura.

Keywords: Controle de vibrações, Buracos Negros Acústicos, Método dos Elementos Finitos,
Controle ótimo realimentado

1. INTRODUÇÃO

Na engenharia, em várias aplicações nos projetos mecânicos faz-se necessário o uso de


estruturas leves e flexı́veis, pois o peso da estrutura influencia no custo de energia do sistema
e no gasto com materiais. Exemplo disso são os projetos de sistemas de mecânica no campo
aeroespacial e aeronáutico, já que essas estruturas trazem uma diminuição no custo do projeto,
visto que, quanto menor o peso da estrutura, menos energia é necessária para transportá-la
(He & Fu, 2001, apud Ortiz, 2015) e menos material será utilizado. Entretanto, quando o
peso da estrutura é reduzido, outra complicação é encontrada, que é o aumento das vibrações
indesejadas, causando danos ao material e também em seu funcionamento (Denis, 2014). Com
isso, vê-se a necessidade de utilizar algum tipo de controle de vibrações nessas estruturas, sendo
ele classificado em controle passivo e ativo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

853
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O controle passivo é aquele no qual o processo não gasta energia para se realizar, ou seja,
não há a necessidade de um atuador ou de um sensor para que haja controle. Já o controle
ativo é aquele que necessita de energia para controlar, isto é, tem energia na atuação e no
sensoriamento, tendo assim a diminuição da vibração (Nicoletti, 2013). O controle passivo de
vibrações geralmente se dá de duas formas: modificando as frequências naturais do sistema
para longe da vibração de operação, ou diminuindo a amplitude das vibrações, melhor dizendo,
amortecendo a vibração. Existem técnicas para amortecer uma vibração com controle passivo,
como, por exemplo, usar materiais com um fator de perda alto, ou utilizar amortecedores
sintonizados, que nada mais é que adicionar um sistema massa-mola com um amortecedor
viscoso ao sistema, ou até mesmo empregar uma camada superficial de amortecimento (Denis,
2014).
Recentemente, tem-se desenvolvido uma forma alternativa para o controle passivo de
vibrações, que é a utilização dos efeitos do Buraco Negro Acústico (BNA), que consiste em um
buraco feito na estrutura com geometria especı́fica. A ideia é que quando a vibração entra nesse
espaço, sua velocidade diminui e sua amplitude aumenta, fazendo com que a vibração fique
presa no centro do buraco e, assim, não é refletida para o resto da estrutura. Um BNA utiliza da
técnica de retirar material da estrutura, ou seja, é um método de rejeito (Zhao & Prasad, 2019).
Dentre os trabalhos que apresentam o controle de vibrações utilizando os efeitos dos BNAs
encontram-se os de O’Boy et al. (2010) e Krylov (2012). Neste trabalho foram feitos diversos
testes de configurações e tamanhos de BNA para o melhor desempenho de controle passivo.
Muitas vezes, apenas o uso do controle passivo não é suficiente, fazendo-se necessário
usar o controle ativo em conjunto, que neste caso, o controle ativo de vibrações é feito
projetando-se um controlador a partir de um atuador. Existem alguns atuadores possı́veis
de se utilizar para o controle de vibrações, Kras & Gardonio (2019) sugerem o uso de um
atuador inercial modificado, em que os problemas de estabilidade do atuador inercial clássico
são resolvidos. Porém o atuador normalmente utilizado para o controle de vibrações é o
atuador piezoelétrico, pois sua capacidade de converter energia elétrica em energia mecânica
é extremamente apropriado para este tipo de controle (Molter et al., 2018).
O projeto de um controle ativo de vibrações também demanda a escolha do tipo de
controlador a ser usado, mais precisamente a lógica a ser usada no controle. O controle através
da realimentação da velocidade por um ganho constante é amplamente utilizado (Zhang et
al., 2017). Outro controlador muito empregado é o regulador quadrático ótimo, que busca
maximizar a quantidade de energia atenuada (Schulz et al., 2013), sendo utilizado neste trabalho
o controle ótimo realimentado.
Além do projeto de controle de vibrações, este trabalho propõe a utilização da formulação
em Elementos Finitos (MEF) para modelagem e discretização do domı́nio da estrutura. Em
conjunto com o MEF, foram usados a análise modal e a representação em espaço de estados.
Para verificar a eficiência do controle proposto foram realizadas simulações computacionais e
alguns resultados apresentados.

2. FORMULAÇÃO EM ELEMENTOS FINITOS

O domı́nio da estrutura utilizada neste trabalho foi discretizado usando o Método dos
Elementos Finitos e a estrutura usada é uma viga engastada em um dos lados, sendo considerado
o estado de deformações planas. Os elementos são retangulares com quatro nós em cada vértice,
cujo o domı́nio do elemento é denominado como Ωe, e foi considerado o movimento em duas

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

854
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dimensões (2D). Em cada nó há dois graus de liberdade, o movimento horizontal do nó (xi ) e o
movimento vertical do nó (yi ), como exibido na Fig. 1.

Figura 1- Discretização da estrutura pelo Método dos Elemento Finitos.

A ideia é analisar a equação de equilı́brio para cada elemento, encontrando a equação local,
em seguida, associar a contruibuição de cada elemento numa equação global. Segundo Liu &
Queek (2003), para uma análise dinâmica do elemento, a equação regente para um elemento
(local) pode ser descrita como na Eq. (1):

Me üe + Ce u̇e + Ke ue = fe , (1)

sendo ue o vetor de deslocamento nodal do elemento, fe o vetor de força, e as matrizes Me ,


Ke e Ce a massa, rigidez e amortecimento da estrutura, respectivamente, descritas da seguinte
forma:
Z Z Z
T T
fe = N be dΩe + N te dΓe, Me = ρNT NdΩe, (2)
Ωe Γe Ωe
Z
Ke = BT cBdΩe, Ce = αKe + βMe , (3)
Ωe
no qual N representa as funções interpoladoras, be e te são vetores que retratam,
respectivamente, as forças de corpo e as forças superficiais atuando na estrutura, B é a matriz de
relação entre a tensão e o deslocamento e c é a matriz constitutiva do material. As contantes α e
β são determinadas conforme o modelo de Rayleigh e a constante ρ é a densidade do material.
A equação que rege o domı́nio inteiro da estrutura (global) é análoga à Eq. (1). Como neste
trabalho foi considerado a análise das vibrações livres, ou seja, os vetores de forças de corpo e
de forças superficiais são nulos, a equação global dinâmica da estrutura apresentada pode ser
descrita conforme a Eq. (4):

Mü + Cu̇ + Ku = 0. (4)

As matrizes globais M, C, K, continuam representando a massa, amortecimento e rigidez,


respectivamente, e são encontradas associando a contribuição de cada elemento da viga, bem
como o vetor u, os deslocamentos nodais de toda a estrutura.
Como neste trabalho também foi levado em conta um controle ativo, pode-se considerar o
sinal de controle como uma força externa atuando no sistema, que neste caso, o controle irá
operar num atuador piezoelétrico. Sendo assim, a equação global que rege a estrutura deste
trabalho pode ser descrita como na Eq. (5):

Mü + Cu̇ + Ku = Pa va , (5)

no qual va é a tensão aplicada no atuador, como sinal de controle e este sinal é multiplicado
pela matriz Pa que mapeia a voltagem aplicada (Molter et al., 2010).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

855
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. ANÁLISE MODAL E REPRESENTAÇÃO EM ESPAÇO DE ESTADOS

Afim de facilitar a resolução da Eq. (5), utilizou-se a superposição modal, pois ao utilizar as
coordenadas modais η, é possı́vel desacoplar as equações regentes do movimento, sendo que,
segundo Gawronski (2004, apud Padoin, 2014), a representação por coordenadas modais pode
ser obtida pela transformação do modelo nodal. Essa transformação é feita utilizando a matriz
modal que é determinada a partir da solução modal, sendo ela, o resultado do problema de
autovalor e autovetor descrito pela Eq. (6):

(K − ω 2 M)Φ = 0. (6)

Os autovalores encontrados (ω 2 ), são chamados de frequências naturais do sistema e são as


frequências com que as vibrações livres ocorrem na estrutura. Já os autovetores associados aos
autovalores encontrados (Φ), são denominados modos e descrevem a amplitude associada às
frequências naturais. A matriz modal Φ, é a matriz com todos os modos do sistema, entretanto,
como geralmente apenas os primeiros modos contêm informações relevantes à análise do
sistema, utiliza-se a matriz modal truncada com n modos.
Com a matriz modal truncada pode-se transformar o vetor de deslocamento nodal em função
das coordenadas modais, como descrito na Eq. (7):

u = Φη. (7)

Substituindo a Eq. (7) na Eq. (5), obtém-se:

MΦη̈ + CΦη̇ + KΦη = Pa va . (8)

Multiplicando todos os termos da Eq. (8) por ΦT , tem-se:

Mη̈ + Cη̇ + Kη = Pa va , (9)

onde:

M = ΦT MΦ, C = ΦT CΦ, K = ΦT KΦ, Pa = ΦT Pa . (10)

Multiplicando todos os termos da Eq. (9) por M−1 , a seguinte equação é obtida:

η̈ + Zη̇ + Ωη = M−1 Pa va , (11)

no qual:

Z = M−1 C = diag(2ζi ωi ), Ω = M−1 K = diag(ωi2 ). (12)

Considerando como variáveis de estado o deslocamento e a velocidade modal, ξ = [η η̇]T ,


pode-se reescrever a Eq. (11) na representação em espaço de estados como:

ξ̇ = Aξ + Bva , (13)

sendo va o vetor de entrada de controle do atuador, onde:


   
0n×n In×n 0n×1
A= , B= , (14)
-Ω -Z M−1 Pa
no qual A é a matriz do sistema e B é a matriz de controle.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

856
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONTROLE PASSIVO DE VIBRAÇÕES

Após a modelagem e discretização da estrutura, iniciou-se a implementação do controle na


viga. O primeiro controle que foi considerado é o controle passivo.
Neste trabalho se propõe a utilização do efeito do BNA como controle passivo, sendo que
seu princı́pio básico foi descrito pela primeira vez por Mironov (1988), no qual descreve que não
há reflexão de uma onda que se propaga em uma estrutura onde a espessura diminui suavemente.
Isso se dá pelo fato de que, no momento em que a onda entra neste tipo de estrutura, tem sua
velocidade reduzida e sua amplitude aumentada, consequentemente, a energia dessa onda é
concentrada dentro deste buraco, conforme ilustrado na Fig. 2.

Figura 2- Efeito do BNA (Zhao & Prasad, 2019).

Para atender a condição da espessura, o perfil do BNA necessita responder à uma lei de
potência, ou seja, a espessura da estrutura precisa diminuir conforme a equação abaixo:

h(x) = axm + h1 . (15)

O termo h1 na Eq. (15) se faz necessário devido ao problema de manufatura da prática, pois
é impossı́vel produzir um perfil que tenda a espessura à zero, restando sempre uma espessura
residual. A constante a depende da largura e da altura do BNA e m é a ordem do perfil (Zhao
& Prasad, 2019).
De acordo com Zhao & Prasad (2019), existem diversos fatores que influenciam na maneira
como o BNA vai atuar na estrutura, entre eles a quantidade de buracos, o seu comprimento, a
ordem m do buraco, o tamanho do resı́duo h1 e a sua configuração na estrutura. No presente
trabalho foram realizados diversos testes para se encontrar a melhor forma de aplicação do
efeito na estrutura.

5. CONTROLE ÓTIMO REALIMENTADO

Em concomitância com o controle passivo, propôs-se também um controle ativo de


vibrações da estrutura. Sendo assim, implementou-se um controlador ótimo realimentado que
irá acionar um atuador piezoelétrico perfeitamente colado na viga.
Neste trabalho utilizou-se o controlador ótimo realimentado, onde o ganho de realimentação
do sistema é calculado da equação de Lyapunov. De acordo com Sun et al. (2004), considera-se
que o sistema foi realimentado da seguinte maneira:

Va (t) = −GV̇s (t), (16)

no qual G é o ganho e V̇s é a tensão gerada pelo sensor, que pode ser obtida integrando a carga
elétrica fornecida na superfı́cie do sensor piezoelétrico.
Assim, reescrevendo a Eq. (8), tem-se:

Pa va = −Pa Gv̇s = −Pa GHs u̇ ≈ −Pa GHs Φη̇, (17)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

857
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sendo G uma matriz de realimentação e Hs uma matriz do sensor de saı́da. A equação do


sistema com a lei de controle resultante do sensor e atuador, é expressa como:

Mη̈ + Cη̇ + Kη = −Pa GHs η̇. (18)

Utilizando as equações do sensor e o controle proposto, as Eq. (13) e (14) podem ser escritas
na forma:

ξ̇ = (A+B)ξ = Acl ξ, (19)


 
0n×n In×n
Acl = .
−M−1 K −M−1 C − M−1 Pa GHs
A força do atuador, o ganho de realimentação e as matrizes de saı́da, respectivamente,
podem ser calculadas da seguinte maneira:

Pa |P aik = Ea d31a bra [θi (xk2 ) − θi (xk1 )], (20)

G = diag(Gk ), (21)
hs
Hs |H sik = − Es g31s rs [θi (xk2 ) − θi (xk1 )], (22)
xk2 − xk1
sendo Ea , d31a , b, ra , hs , Es , g31s , rs constantes do material utilizado. k1 e k2 referem-se ao
inı́cio e final do atuador, respectivamente . A Equação (20) refere-se a deformação da viga e a
Eq. (22) é a ação do sensor em captar a deformação.
Como no caso apresentado, procura-se por um controle ótimo que minimize o funcional do
problema da Eq. (23), sujeito ao estado da Eq. (14), que neste contexto é a energia dissipada
pela ação de controle, dado por:
Z ∞
Wc = ξ T Qξdt, (23)
0

sendo Q uma matriz semidefinida positiva, e seus elementos são escolhidos de forma a conectar
o sinal de saı́da do sensor juntamente com a entrada no atuador. Dessa maneira podemos definir
a matriz Q como:
 
0n×n 0n×n
Q= . (24)
0n×n Pa GHs

Assim é possı́vel reescrever a Eq. (23), através de técnicas de estado padrão, em uma função
de Lyapunov, como mostra a seguir:

W c = ξ T0 P ξ0 , (25)

no qual ξ 0 é a condição inicial. A determinação da matriz P é obtida da resolução da equação


de Lyapunov:

ATcl P + PAcl + Q = 0. (26)

Substituindo as matrizes A e Q na Eq. (26), encontra-se a matriz P ótima para o sistema


estudado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

858
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

6. RESULTADOS

Inicialmente, serão apresentados os gráficos dos modos da viga sem a ação dos BNAs e na
ausência dos atuadores, tendo como frequências 76, 25Hz e 457, 28Hz, respectivamente. O
material utilizado para a viga foi o Alumı́nio com módulo de Young (E) igual a 65.109 GP a,
densidade (ρ) igual a 2890kg/m3 e coeficiente de Poisson (ν) igual a 0, 334 (Molter et al., 2010).
Os valores de Ea , d31a , b, ra , hs , Es , g31s , rs são os mesmos utilizados no trabalho de Molter
et al. (2010), e o ganho Gk para o primeiro modo é 1.1010 e para o segundo modo 2.107 . O
tamanho da malha utilizada foi 160x8 com elementos retangulares, tendo 1m de comprimento
por 0, 1m de altura. Veja o gráfico a seguir:

Figura 3- Primeiro e segundo modo da viga sem buracos.

Para se comparar o comportamento das vigas com e sem controle, será analisado o
movimento transversal do último elemento em x e y, tendo como condições iniciais 0, 1m e
0, 1m/s. Dessa forma, quando não há BNA e nem o uso de piezoelétricos, o valor máximo
encontrado para a amplitude da resposta final foi de 0, 0103m, visto que esse retorno se refere
ao modo de vibração natural da viga.
Embora não apresentados neste trabalho, foram realizadas quatro simulações de BNA, sendo
elas com um, dois, três e cinco buracos, tendo como amplitude máxima 8, 3mm, 10, 1mm,
9, 1mm e 9, 4mm, respectivamente. Variando seus tamanhos (altura e largura), foram estudados
seus dois primeiros modos e seus respectivos deslocamentos finais. Em seguida, tomou-se como
base para a aplicação do controle ativo somente a viga que obteve o menor valor de amplitude
máxima, visto que se deseja encontrar a melhor opção para o controle de vibrações.
Desse modo, a viga com somente um BNA no centro foi a que melhor se adequou em relação
à menor amplitude obtida. À vista disso, os próximos gráficos apresentados serão referentes
somente aos dois modos da viga com somente um buraco, que tem como amplitude máxima
8, 3mm e frequências 14, 15Hz e 137, 46Hz, respectivamente. Veja seu deslocamento final no
gráfico abaixo:

Figura 4- Primeiro e segundo modo da viga com um buraco no centro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

859
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Deflexão dos modos e deslocamento final com um BNA no centro.

Como na análise realizada acima nos diz qual a configuração que proporcionou o menor
movimento final, usou-se essa situação favorável para acoplar o atuador piezoelétrico na viga,
de material PZT5A, considerando não haver perdas de propriedades mecânicas no acoplamento,
com módulo de Young (E) igual a 50.109 GP a, densidade (ρ) igual a 7600kg/m3 e com
constantes constitutivas c11 igual a 12, 1.1010 , c12 igual a 7, 54.1010 e c66 igual a 2, 26.1010
(Molter et al., 2010). Portanto, a partir dos dois primeiros modos da viga que contêm somente
um buraco, acrescentou-se 3 elementos, destacados na Fig. 6, com as caracterı́sticas de massa
e rigidez do material piezoelétrico, gerando como resposta final ao valor máximo da amplitude
7, 9mm e frequências 13, 73Hz e 130, 81Hz, respectivamente.

Figura 6- Primeiro e segundo modo da viga com atuador piezoelétrico.

Afim de controlar ainda mais as vibrações que permanecem presentes na viga, utilizou-se o
controlador ótimo realimentado. No gráfico abaixo são apresentados os dois primeiros modos
sem e com controle, assim como a soma dos mesmos, sem e com controle:

Figura 7- Primeiro e segundo modo sem e com controle e a soma dos dois modos sem e com o controlador
ótimo realimentado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

860
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Observe na Fig. 7, a amplitude inicial reduziu significativamente, também vê-se que, em 1


segundo a vibração foi controlada, chegando a sua estabilidade.
Os resultados obtidos neste trabalho mostram bom desempenho do controle de vibrações
livres de uma viga em balanço quando comparados com os trabalhos de O’Boy et al. (2010),
Krylov (2012) e Zhao & Prasad (2019), embora esta comparação não seja a mais adequada,
pois neles só foi considerado o amortecimento das vibrações utilizando os efeitos dos BNAs e
as estruturas consideradas são diferentes das propostas no presente trabalho. Em relação aos
atuadores, podemos verificar nos trabalhos de Sun et al. (2004) e Xu & Koko (2002) que o
resultado é similar ao obtido no presente artigo.
Quando se utiliza somente o controle passivo pelo efeito dos BNAs, de fato o controle não
é tão eficiente, ou seja, ameniza parcialmente as vibrações. Já com a combinação do controle
passivo e ativo, como proposto neste trabalho, é possı́vel suprimir por completo as vibrações.

7. CONCLUSÃO

Tendo em vista os aspectos observados e a ideia principal do artigo, que era controlar as
vibrações presentes na viga engastada, utilizando dois tipos de controle, sendo eles o controle
passivo (via efeito de um BNA) e o controle ativo (via atuadores piezoelétricos e o controlador
ótimo realimentado), foi possı́vel constatar que o controle foi eficiente para o controle de
vibrações na estrutura.
Observou-se que a combinação do controle passivo com o controle ativo produz um
resultado satisfatório, gerando uma significativa diferença na amplitude da resposta final. As
simulações para o sistema de controle confirmaram a eficácia desta técnica de controle e os
resultados numéricos indicam que a quantidade de BNA pode ter influência considerável no
desempenho do controle do sistema integrado.
Por fim, vê-se que é necessário realizar uma análise mais aprofundada na configuração dos
BNAs, para que assim haja um desempenho melhor do controle passivo. Da mesma forma,
pode-se testar diferentes quantidades de atuadores piezoelétricos a serem acrescentados na viga,
para verificar quantos destes atuadores geram melhor eficiência para o controle das vibrações.

Agradecimentos

A autora Racquel Knust Domingues agradece à Universidade Federal de Pelotas pelo apoio,
suporte e financiamento através do Programa de Bolsas de Iniciação Tecnológica.

Referências

Denis, V. (2014), “Amortissement Vibratoire de Poutres par Effet Trou Noir Acoustique”, Tese de
Doutorado, LAUM, Le Mans.
Kras, A. and Gardonio, P. (2019), “Active vibration control unit with a flywheel inertial actuator”,
Journal of Sound and Vibration, Amsterdam, vol 464, 1-20.
Krylov, V.V. (2012), “Acoustic black holes and their applications for vibration damping and sound
absorption”, in International conference on Noise and Vibration Engineering, Belgium.
Liu, G.R. and Queek, S.S. (2003),“The Finite Element Method: A Practical Course”, 1º ed., Butterworth
Heinemann, Oxford.
Mironov, M.A. (1988), “Propagation of a flexural wave in a plate whose thickness decreases smoothly
to zero in a finite interval”, Akust. Zh., Rússia, vol 34, 546-547.
Molter, A., Fernandez, L.S. and Lauz, J.B. (2018), “An optimaly criteria-based method for the
simultaneous optimization of the structural design and placement of piezoelectric actuators”,
Structural and Multidisciplinary Optimization, Amsterdam, vol 1, 1-17.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

861
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Molter, A., da Silveira, O.A.A., Fonseca, J.S.O. and Bottega, V. (2010), “Simultaneous Piezoelectric
Actuator and Sensor Placement Optimization and Control Desing of Manipulators with Flexible Links
Using SDRE Method”, Mathematical Problems in Engineering, Cairo, vol 2010, 1-24.
Nicoletti, R. (2013), “Estudo do Controle Ativo e Passivo de Vibrações em Sistemas Rotativos e
Estruturais”, Livre-Docência, EESC-USP, São Paulo.
O’Boy, D.J., Krylov V.V. and Kralovic, V. (2010), “Damping of flexural vibrations in rectangular plates
using the acoustic black hole effect”, Sound and Vibration, Amsterdam, vol 329(22), 4672-4688.
Ortiz, R.R.H. (2015), “Controle Modal de Vibrações em Estruturas Flexı́veis”, Tese de Mestrado,
UNICAMP, Campinas.
Padoin, E. (2014), “Otimização Topológica de Cascas Compostas Laminadas com Atuador Piezoelétrico
para o Controle de Vibrações”, Tese de Doutorado, UFRGS, Porto Alegre.
Schulz, S.L., Gomes, H.M. and Awruch, M.G. (2013), “Optimal discrete piezoelectric partch allocation
on composite structures for vibration control based on GA and modal LQR”, Computers & Structures,
Amsterdam, vol 128, 101-115.
Sun, D., Mills, J.K., Shan, J. and Tso, S.K. (2004), “A PZT actuator control of a single-link flexible
manipulator based on linear velocity feedback and actuator placement”, Mechatronics, Amsterdam,
vol 14, 381-401.
Voruganti, H.K., Kumar, K.K., Krishna, P.V and Jin, X. (2019),“Advances in Applied Mechanical
Engineering”, 1º ed., Springer, Berlim.
Xu, S.X. and Koko, T.S. (2002), “Finite element analysis and design of actively controlled piezoelectric
smart structures”, Finite Elements in Analysis and Design, Amsterdam, vol 40, 241-262.
Zhang, X., Takezawa, A. and Kang, Z. (2017), “Topology optimization of piezoelectric smart
structures for minimum energy consumption under active control”, Structural and Multidisciplinary
Optimization, Amsterdam, vol 58, 185-199.
Zhao, C. and Prasad, M.G. (2019), “Acoustic Black Holes in Structural Desing for Vibration and Noise
Control”, Acoustics, Basel, vol 1, 220-251.
————————————————————————————————————

VIBRATION CONTROL ON A BEAM USING ACOUSTIC BLACK HOLES AND


OPTIMAL CONTROL FEEDBACK

Abstract. The objective of this work is to control the free vibrations present in a cantilever
beam, using two types of control, the passive and the active. As a passive control, the effect of
the Acoustic Black Hole, which consists of adding holes in the structure, in which the energy of
the vibration accumulates inside, and the vibration can then be softened. For active control,
a piezoelectric actuator was used, which is responsible for transforming the superimposed
electrical charge into a mechanical strain contrary to the beam strain, and the control strategy
employed is an optimized feedback controller. The Finite Element Method is used to discretize
the domain and thus obtain the beam modeling. Numerical simulations were obtained using
an implementation of the problem in the MATLAB software. It was possible to verify that the
combination of the controls used was effective, mainly the use of the optimized feedback control
for the control of vibrations in the structure.

Keywords: Vibration Control, Acoustic Black Holes, Finite Element Method, Optimal feedback
control

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

862
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO DAS TENSÕES RESIDUAIS NA SOLDAGEM POR RESISTÊNCIA


ELÉTRICA POR PONTO DO AÇO ARBL HC420LA

Maria Cindra Fonseca1 – mariacindra@id.uff.br


Paola Rodrigues Pereira1 – paolapereira@id.uff.br
Marilia Diniz2 – diniz@uerj.br
Hector Costa3 – hector.costa@cefet-rj.br
1
Universidade Federal Fluminense, Escola de Engenharia, Departamento de Engenharia Mecânica /
PGMEC – Rua Passo da Pátria, 156, Niterói, RJ, CEP 24.210-240, Brasil
2
Universidade do Estado do Rio de Janeiro, Departamento de Engenharia Mecânica, Rua Fonseca Teles,
121, São Cristóvão, Rio de Janeiro RJ – CEP 20.940-903, Brasil
3 Centro Federal de Educação Tecnológica Celso Suckow da Fonseca, CEFET/RJ, Av. Maracanã, 229,
Rio de Janeiro RJ – CEP 20.271-110, Brasil

Resumo. As tensões residuais são tensões internas que existem nos materiais,
independentemente da presença de quaisquer cargas externas, e estão presentes em todos os
componentes mecânicos, estruturas e tubulações, podendo afetar a vida em fadiga e o
desempenho dos mesmos. Compreender a natureza e a magnitude das tensões residuais, além
dos seus efeitos nas propriedades mecânicas dos materiais é, portanto, importante na
concepção dos componentes mecânicos. Os processos de soldagem são particularmente
geradores de tensões residuais devido à ação combinada da contração, aporte térmico e
transformações de fases, que ocorrem durante a solidificação da junta soldada. Sendo assim,
o presente artigo tem como objetivo analisar as tensões residuais geradas na soldagem por
resistência elétrica por ponto (RSW- Resistance Spot Welding) do aço HC420LA. Foi usada a
técnica de difração de raios-X, pelo método do sen2, para a medição das tensões residuais,
acompanhado da técnica de remoção de camadas, por polimento eletrolítico, para gerar um
perfil das mesmas nas camadas subsuperficiais do ponto de solda. Os resultados obtidos
mostraram que as tensões residuais são trativas na superfície do ponto soldado, sendo máxima
no centro, diminuindo gradativamente nas bordas do ponto.

Palavras-chave: Tensões residuais, soldagem RSW, aço HC420LA, difração de raios-X.

1. INTRODUÇÃO

Aços de alta resistência e baixa liga, conhecidos pela sigla ARBL ou high-strength low-
alloy (HSLA), são definidos como a família de aços com composição química especialmente
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

863
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

desenvolvida para proporcionar melhores propriedades mecânicas do que aquelas obtidas em


aços carbono convencionais. Estes são considerados de baixa liga e baixo carbono, pois os
teores de elementos de liga e de carbono adicionados aos aços são consideravelmente mais
baixos do que em aços de outras categorias (Janakiram & Gautam, 2007). Segundo Tian et. al.
(2017), estes aços são desenvolvidos como aços estruturais de alta resistência com boa
tenacidade e soldabilidade, permitindo variadas aplicações na indústria. Além disso, devido à
sua alta resistência, também é comum o uso de aços ARBL para reduzir espessuras e,
consequentemente, reduzir o peso de componentes mecânicos.
A soldagem por resistência elétrica por ponto ou soldagem a ponto, ou resistance spot
welding (RSW) é um método de soldagem comumente utilizado na indústria automotiva. Este
processo possui inúmeras vantagens, como rápida aplicação, baixo custo e facilidade de
automação (Ren et. al., 2019). Durante o processo de soldagem a ponto, uma corrente elétrica
alta flui através do material a ser soldado gerando um aquecimento devido à resistência do
próprio material, localizado especificamente na interface de contato dos eletrodos com a peça
a ser soldada. Este aquecimento localizado faz com que ocorra a fusão do material e um ponto
soldado, denominado pepita, é criado após a solidificação (Shah & Liu, 2019). Devido ao aporte
térmico causado por ciclos de aquecimento e resfriamento, à distribuição heterogênea de
temperatura ao longo da zona termicamente afetada, às transformações de fase, entre outros
fatores, surgem as tensões residuais que podem prejudicar o desempenho da junta soldada
(Colombo et. al., 2019).
As tensões residuais são aquelas que existem nos materiais e estruturas em condições de
temperatura homogênea e na ausência de quaisquer cargas externas e a sua natureza é
determinante para estabelecer como elas afetarão as propriedades dos componentes (Valícek
et.al., 2019 e Guo et. al., 2019). Tensões residuais trativas são deletérias para a vida útil dos
componentes.
Considerando o escasso número de estudos abordando as tensões residuais em soldagem
por ponto, o presente trabalho tem por objetivo a análise das tensões residuais, medidas por
difração de raios-X, pelo método de sen2ψ, geradas no processo de soldagem por resistência
elétrica por ponto do aço ARBL HC420LA.

2. MATERIAIS E MÉTODOS

2.1 Aço HC420LA

O material selecionado para o presente estudo foi o aço de alta resistência e baixa liga
HC420LA, recebido na forma de chapa laminada de 2,0 mm de espessura, fabricado conforme
a norma DIN EN 10268. A Tabela 1 e a Tabela 2 apresentam, respectivamente, a composição
química e as propriedades mecânicas do aço HC420LA informadas pela norma.

Tabela 1 - Composição química do aço HC420LA (máx. % de peso) (Norma DIN EN 10268).

C Si Mn P S Al Ti Nb
0,14 0,5 1,6 0,030 0,025 0,015 0,15 0,09

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

864
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 - Propriedades mecânicas do aço HC420LA (Norma DIN EN 10268).

σLE (MPa) σLR (MPa) Deformação (%)


420 – 520 470 – 600 17

A fim de aprofundar os conhecimentos sobre o material de estudo, realizou-se metalografia


por microscopia óptica, utilizando ataque químico de Nital 2%. O aço apresenta microestrutura
ferrítica, típica deste aço, apresentada na Fig. 1.

Figura 1 – Metalografia do aço HC420LA.

2.2 Soldagem a ponto

Duas amostras foram soldadas pelo processo de soldagem por resistência elétrica por
ponto, no Laboratório de Soldagem (LASOL), do Centro Federal de Educação Tecnológica
Celso Suckow do Rio de Janeiro (CEFET-RJ).
Os parâmetros de soldagem empregados para ambas as amostras estão listados nas
Tabelas 3 e 4.

Tabela 3 - Tempos de soldagem em ciclos.

1ª compressão 2ª compressão Soldagem Retenção


25 10 30 5

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

865
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4 - Parâmetros da soldagem a ponto.

Potência (%) Corrente (kA) Impulsos Pressão (bar)


65 4 – 10 1 5

2.3 Análise das tensões residuais

As tensões residuais foram medidas por difração de raios-X, pelo método do sen²ψ, no
Laboratório de Análise de Tensões (LAT) da Universidade Federal Fluminense (UFF),
utilizando o analisador de tensões XStress3000, da marca Stresstech. Os parâmetros de
calibração do equipamento utilizados são listados na Tabela 5.

Tabela 5 - Parâmetros de calibração do analisador de tensões.

Diâmetro do colimador 2 mm
Ângulo de incidência 2θ 156,42º
Ângulos de inclinação ψ [°] 0; 18; 27; 33; 45
Radiação Crα
Comprimento de onda λ [Å] 2,29092
Plano de difração [2 1 1]
Corrente 4,7 mA
Tensão 25 kV

Foram analisadas as tensões residuais em ambas as superfícies soldadas, em três pontos,


conforme indicado na Fig. 2.

Figura 2 - Indicação dos pontos de medição de tensão residual.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

866
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Além disso, foram medidas as tensões residuais no centro da pepita da amostra 2 nas
camadas subsuperficiais, por meio de polimento eletrolítico, onde a cada camada retirada de
material foi feita uma medição de tensão residual, tanto na direção longitudinal, que é a direção
de laminação da chapa, quanto na direção transversal. O objetivo foi gerar um perfil de tensões
residuais nas camadas subsuperficiais do ponto de solda.

3. RESULTADOS E DISCUSSÃO

Os resultados da análise de tensões residuais na superfície são indicados na Tabela 6 e,


com eles, foi possível obter o gráfico de barras exibido na Fig. 3.

Tabela 6 - Resultados das análises das tensões residuais na superfície dos pontos.

Tensões Residuais [MPa]


Pontos de medição
Amostras 1 2 3
1 210 ± 2 500 ± 5 260 ± 2
2 100 ± 3 280 ± 5 160 ± 8

Figura 3 - Tensões residuais superficiais.

A soldagem por resistência elétrica por ponto gerou tensões residuais trativas no ponto de
solda. Além disso, as tensões residuais se mostraram maiores no centro do ponto de solda e
menores nas extremidades do ponto. Estes resultados estão coerentes com a literatura e
similares aos de Colombo et al. (2018), que relataram em sua pesquisa sobre soldagem a ponto
do aço TWIP valores de tensão residual decrescentes do centro em direção à borda da pepita.
É possível perceber que as tensões residuais foram consideravelmente elevadas, sendo a
máxima cerca de 500 MPa, ou seja, na mesma ordem de grandeza da tensão limite de
escoamento do material, o que pode ocasionar baixa vida em fadiga para o componente soldado,
considerando que tensões trativas são deletérias para a vida em serviço das juntas soldadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

867
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No ponto do centro da pepita, que apresentou o maior valor de tensão residual foi realizado
o polimento eletrolítico, por remoção de camadas até a profundidade de 230 m, sendo que as
tensões residuais permaneceram trativas, apesar da relativa grande profundidade. Entretanto,
foi possível notar que as mesmas diminuíram gradativamente, até se tornarem constantes.
A Tabela 7 e a Fig. 4 mostram os perfis em profundidade das tensões residuais obtidos nas
direções, longitudinal e transversal.

Tabela 7 - Tensões residuais subsuperficiais.

Tensões Residuais (MPa)


Profundidade (μm) Longitudinal Transversal
0 500 ± 5 490 ± 4
15 380 ± 5 365 ± 1
30 260 ± 4 350 ± 6
45 300 ± 7 355 ± 8
60 155 ± 7 225 ± 7
80 210 ± 10 220 ± 5
110 175 ± 10 170 ± 2
140 115 ± 6 120 ± 6
170 160 ± 3 150 ± 1
200 185 ± 3 165 ± 6
230 150 ± 4 214 ± 6

Figura 4 – Comportamento das tensões residuais em profundidade através da espessura.

Analisando os resultados obtidos, é possível notar que as tensões residuais são trativas em
toda a superfície e nas camadas subsuperficiais da pepita e tendem a estabilizar próximo a
80 μm de profundidade. Na superfície, nota-se valores elevados, na ordem de 500 MPa para
ambas as direções, entretanto, nas camadas subsuperficiais eles decrescem para cerca de
200 MPa.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

868
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÕES

O estudo realizado, que teve como objetivo caracterizar as tensões residuais de uma chapa
de aço HC420LA soldada por resistência elétrica a ponto, permite as seguintes conclusões:
• As tensões residuais encontradas na superfície e subsuperfície da pepita tendem a ser
trativas e consideravelmente altas, podendo afetar a vida em fadiga do material, sendo de
grande importância levá-las em consideração no projeto mecânico.
• Os resultados obtidos na superfície das amostras mostraram que as tensões residuais
tendem a ter seu máximo próximo ao centro do ponto de solda e diminuem gradativamente
até atingir aproximadamente metade do valor inicial nas extremidades da pepita.
• O comportamento das tensões residuais nas camadas subsuperficiais indicou que estas
permanecem trativas em profundidade, porém diminuem gradativamente, até atingirem
valores constantes a cerca de 80 μm de profundidade.

REFERÊNCIAS

Ao, S., Li, C., Huang, Y., Luo, Z. (2020), “Determination of residual stress in resistance spot-welded joint by a
novel X-ray diffraction”, Measurement, 161, 107892.
Callister, W. D. J. (2007), “Materials Science and Engineering – An introduction”, John Willey & Sons, Inc.
Colombo, T. C. A., Rego, R., Otubo, J. (2018), “Mechanical reliability of TWIP steel spot weldings”, Journal of
Materials Processing Technology, 266, 662–674.
Fitzpatrick, M. E., Fry, A. T., Holdway, P., Kandil, F. A., Shackleton, J., Suominen, L. (2005), “Determination of
Residual Stresses by X-ray Diffraction”, 1ª ed., Teddington: National Physical Laboratory.
Guo, J., Fu, H., Pan, B., Kang, R. (2019), “Recent progress of residual stress measurement methods: A review”,
Chinese Journal of Aeronautics.
Janakiram, S. and Gautam, J. P. (2018), “Recrystallization Texture Evolution in HSLA Steel”, Advanced High
Strength Steel, 135-142.
Ren, S., Ma, Y., Saeki, S., Iwamoto, Y., Ma, N. (2019), “Numerical analysis on coaxial one-side resistance spot
welding of Al5052 and CFRP dissimilar materials”, Materials and Design, 188, 108442.
Shah, U., Liu, X. (2019), “Effects of ultrasonic vibration on resistance spot welding of transformation induced
plasticity steel 780 to aluminum alloy AA6061”, Materials and Design, 182, 108053.
Shukla, S. (2020), “Rapid in-line residual stress analysis from a portable two-dimensional X-ray diffractometer”,
Measurement, 157, 107672.
Tian, Y., Wang, H., Li, Y., Wang, Z., Wang, G. (2017), “The Analysis of the Microstructure and Mechanical
Properties of Low Carbon Microalloyed Steels after Ultra Fast Cooling”, Materials Research, 20(3), 853-859.
Valíček, J., Czán, A., Harničárová, M., Šajgalík, M., Kušnerová, M., Czánová, T., Kopal, I., Gombár, M., Kmec,
J., Šafář, M. (2019), “A new way of identifying, predicting and regulating residual stress after chip-forming
machining”, International Journal of Mechanical Sciences, 155, 343–359.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

869
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

STUDY OF RESIDUAL STRESSES IN RESISTANCE SPOT WELDING OF HSLA


HC420LA STEEL

Maria Cindra Fonseca1 – mariacindra@id.uff.br


Paola Rodrigues Pereira1 – paolapereira@id.uff.br
Marilia Diniz2 – diniz@uerj.br
Hector Costa3 – hector.costa@cefet-rj.br
1
Universidade Federal Fluminense, Escola de Engenharia, Departamento de Engenharia Mecânica /
PGMEC – Rua Passo da Pátria, 156, Niterói, RJ, CEP 24.210-240, Brazil
2
Universidade do Estado do Rio de Janeiro, Departamento de Engenharia Mecânica, Rua Fonseca Teles,
121, São Cristóvão, Rio de Janeiro RJ – CEP 20.940-903, Brazil
3
Centro Federal de Educação Tecnológica Celso Suckow da Fonseca, CEFET/RJ, Av. Maracanã, 229,
Rio de Janeiro RJ – CEP 20.271-110, Brazil

Abstract. Residual stress is an internal stress that exist in the materials, regardless of the
presence of any external loads, and are present in all mechanical components, structures and
pipelines, which can affect fatigue life and performance. Understanding the nature and
magnitude of residual stress, in addition to their effects on the mechanical properties of
materials, is therefore important in the design of mechanical components. Welding processes
are particularly generators of residual stresses due to the combined action of contraction,
thermal input and phase transformations, which occur during the solidification of the welded
joint. Thus, the present work aims to analyze the residual stress generated in resistance spot
welding (RSW) of HC420LA steel. The X-ray diffraction technique, by sen2 method, was used
to measure residual stress, accompanied by the layer removal technique, by electrolytic
polishing, to generate a profile in the subsurface layers of the nugget. The results obtained
showed that the residual stress is tensile on the surface of the welded nugget surface, being
maximum in the center, gradually decreasing at the nugget edges.

Keywords: Residual stress, welding RSW, HC420LA steel, X-ray diffraction.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

870
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELO DE SIMULAÇÃO DA PRODUTIVIDADE DE GRÃOS DE AVEIA EM


FUNÇÃO DE MANEJOS AGRÍCOLAS E CONDIÇÕES METEOROLÓGICAS VIA
REDES NEURAIS ARTIFICIAIS

Vanessa Pansera1 – vpansera@hotmail.com


Odenis Alessi1 – odenisalessi@hotmail.com
Karla Kolling1 – kolling.karla@gmail.com
Cibele Luisa Peter1 – cibele.peter2017@gmail.com
José Antonio Gonzalez da Silva2 – jagsfaem@yahoo.com.br
1
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Ciências
Exatas e Engenharias – Ijuí, RS, Brasil
2
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Estudos
Agrários – Ijuí, RS, Brasil

Resumo. Na modelagem matemática e computacional de processos complexos, destacam-se


as redes neurais artificiais (RNA). Na agricultura, uma cultura que vem recebendo destaque
é a aveia. Esta planta sofre influências significativas das práticas de manejo e condições
ambientais. O objetivo deste estudo é desenvolver um modelo via rede neural artificial na
simulação da produtividade de grãos de aveia em função da densidade de semeadura e de
fatores meteorológicos. Para a realização do estudo, foi desenvolvido um experimento em
condições reais de cultivo, em delineamento de blocos casualizados, com 4 repetições. A RNA
utilizada foi do tipo feedforward, Perceptron multicamadas, com camada de entrada, oculta e
de saída. Foram utilizados 3 neurônios de entrada e 1 de saída. O número de neurônios
ocultos foi definido pela análise do erro quadrático médio do treino e da validação da RNA.
A função de transferência utilizada foi a tangente hiperbólica, com algoritmo de aprendizado
Levenberg-Marquardt backpropagation. A RNA escolhida possuía 5 neurônios ocultos. As
simulações apresentaram erro percentual médio de 4,8%, com erros menores que os valores
de desvio-padrão dos dados experimentais. O modelo desenvolvido simula satisfatoriamente
a produtividade de grãos de aveia, considerando a densidade de semeadura e as condições
meteorológicas.

Palavras-chave: Modelagem matemática, Modelagem computacional, Inteligência artificial,


Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

871
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

A modelagem matemática e computacional é uma ferramenta importante para descrever


fenômenos em diversas áreas do conhecimento. Através de sua utilização é possível verificar
o comportamento e a relação entre variáveis envolvidas, possibilitando descrever, interpretar,
classificar, simular e otimizar processos (Barbosa, 2009; Silva et al., 2018).
As redes neurais artificiais são métodos de inteligência artificial que possuem sua
estrutura baseada em redes neurais biológicas e no seu aprendizado. O neurônio artificial
possui uma estrutura matemática e combinado com outros neurônios formam uma rede capaz
de aprender através de dados apresentados, sendo capaz de simular processos complexos
(Fernandes et al., 2018).
Na agricultura, a compreensão e previsibilidade do crescimento e desenvolvimento de
plantas é bastante complexo devido à existência de fatores não controlados que estão
relacionados às condições ambientais envolvidas. Neste sentido, uma cultura que vem
recebendo destaque em pesquisas é a aveia (Avena sativa) (Follmann et al., 2016; Ma et al.,
2017; Coelho et al., 2018). Este cereal é cultivado em estação fria e possui múltiplos
propósitos de uso, sendo possível destacar seu emprego na rotação e sucessão de culturas
agrícolas, cobertura de solo, uso na indústria farmacêutica, e também na alimentação animal e
humana (Agostinetto et al., 2015). Na alimentação humana, possui grande relevância por
possuir proteínas e fibras, dentre as fibras a betaglucana, capaz de reduzir o colesterol LDL do
sangue (Dolinsky et al., 2015).
No cultivo da aveia, diversos são os fatores relacionados ao desenvolvimento da planta,
podendo-se citar as condições meteorológicas e as práticas de manejo. Um manejo a ser
considerado no cultivo é a densidade de semeadura utilizada. A densidade está relacionada ao
número de sementes que são utilizadas por metro quadrado no momento da semeadura (da
Silva et al., 2012). Quando este número é reduzido, o produtor pode obter menor
produtividade de grãos por não estar aproveitando adequadamente a área cultivada, e quando
o número de sementes é elevado também pode ocorrer redução na produtividade, por não
haver luz e nutrientes suficientes para um número elevado de plantas (Dornelles et al., 2018).
Quanto aos fatores ambientais, a precipitação pluviométrica e as temperaturas exercem forte
influência sobre o desenvolvimento da cultura, tanto de forma direta, com efeitos à planta,
como de forma indireta, afetando a absorção de nutrientes pela planta (Peretti et al., 2017;
Marolli et al., 2018).
Neste sentido, a modelagem matemática e computacional via inteligência artificial pode
auxiliar na previsibilidade da relação entre os fatores meteorológicos e as práticas de manejo
sobre a produtividade de grãos de aveia. O objetivo do estudo é desenvolver um modelo via
rede neural artificial na simulação da produtividade de grãos de aveia em função da densidade
de semeadura e de fatores meteorológicos.

2. METODOLOGIA

Para a realização do estudo, inicialmente foi realizado um experimento a campo a fim de


obter dados relativos à produtividade de grãos de aveia em condições reais de cultivo. O
experimento foi realizado no Instituto Regional de Desenvolvimento Rural (IRDeR)
pertencente à Universidade Regional do Noroeste do Estado do Rio Grande do Sul (UNIJUÍ)
no município de Augusto Pestana-RS. O delineamento experimental foi de blocos
casualizados com 4 repetições, em um esquema fatorial 2 x 4, sendo 2 cultivares de aveia
(URS Taura e Brisasul) e 4 densidades de semeadura (100 sementes m-2, 300 sementes m-2,
600 sementes m-2 e 900 sementes m-2), no sistema de cultivo soja-aveia, nos anos agrícolas de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

872
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2018 e 2019. Cabe acrescentar que uma das cultivares possui baixo afilhamento (URS Taura)
e a outra cultivar possui alto afilhamento (Brisasul), sendo que a capacidade de afilhar está
relacionada a emitir afilhos (novas plantas) a partir de uma planta inicial, processo que ocorre
no início do desenvolvimento da cultura. Nas análises, foram considerados os dados médios
envolvendo ambas cultivares e também os dados dos dois anos agrícolas individualmente a
fim de garantir um modelo seguro e com abrangência. As parcelas experimentais foram
constituídas por 5 linhas de 5 m de comprimento e espaçamento entrelinhas de 0,2 m,
totalizando 5 m2. Para verificação de efeitos significativos dos tratamentos foi aplicada
análise de variância (ANOVA) com nível de significância de 5%.
Para a modelagem do comportamento da produtividade de grãos de aveia foi utilizada
uma Rede Neural Artificial (RNA) do tipo feedforward, a Perceptron multicamadas, através
da ferramenta Neural Network Start do software MatLab. A estrutura da RNA implementada
foi baseada em três camadas, consistindo em camada de entrada, oculta e de saída. A função
de transferência utilizada foi a tangente hiperbólica. Para o treinamento da rede, foi
empregado o algoritmo de aprendizado Levenberg-Marquardt backpropagation.
Na camada de entrada da RNA foram considerados três neurônios, que consistem nas
variáveis de entrada, que são a densidade de semeadura, a precipitação pluviométrica e a
soma térmica ocorridas durante o ciclo. Estas variáveis meteorológicas foram escolhidas por
representarem fatores importantes para o desenvolvimento da planta, de modo que a soma
térmica ST envolve as temperaturas mínimas e máximas ocorridas no período de cultivo,
sendo determinada pela Eq. (1)

n
T  Tmin i 
ST =   max i  TB  (1)
i 1  2 

em que Tmax i
e Tmin i
são as temperaturas máxima e mínima diárias, respectivamente, n é o
número de dias do ciclo e TB é a temperatura basal de desenvolvimento da aveia (4ºC)
(Marolli et al., 2018). As variáveis meteorológicas foram obtidas através da estação
meteorológica automatizada, instalada a 200 metros do experimento.
Para a determinação do número de neurônios na camada escondida, seguiu-se a
metodologia de De Mamann et al. (2019), que analisa estruturas de RNA, de modo que o
número de neurônios escondidos tenha diferença igual ou superior a dois em relação aos
neurônios de entrada e que considera a RNA com menores erros quadráticos médios de treino
e validação. Neste sentido, foram testadas seis estruturas de rede, analisando,
respectivamente, 5, 6, 7, 8, 9 e 10 neurônios na camada escondida, a fim de selecionar o
modelo com melhor desempenho segundo os critérios mencionados.
Quanto à camada de saída da RNA, utilizou-se um neurônio, referente à produtividade de
grãos de aveia, que é a saída desejada no modelo. Esta variável foi obtida a partir da colheita
das três linhas centrais de cada parcela experimental, que foram direcionadas ao laboratório
para correção da umidade de grãos para 13% e posterior pesagem, convertendo os valores
para a unidade de um hectare. Com os dados obtidos pela bioexperimentação, foram
interpoladas as densidades de 200 sementes m-2, 400 sementes m-2, 500 sementes m-2, 700
sementes m-2 e 800 sementes m-2.
O aprendizado da RNA foi realizado com os dados das amostras obtidas
experimentalmente, independente de cultivar, totalizando 72 amostras (para nove densidades
de semeadura, dois anos de cultivo e quatro repetições). As variáveis de entrada e de saída
foram normalizadas para realizar o treinamento, validação e teste da rede, através da Eq. (2)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

873
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.( R  Rmin )
N= 1 (2)
( Rmax  Rmin )

em que N é o valor normalizado, R é o valor real a ser normalizado, e Rmin e Rmax são os
valores mínimo e máximo do conjunto de dados reais, respectivamente. Esta normalização
adequou os valores no intervalo considerado pela função de transferência (De Mamann et al.,
2019). O conjunto de dados foi dividido aleatoriamente, de modo que 70% foi empregado no
treinamento, 15% na validação e 15% no teste.
As simulações foram realizadas em cada densidade de semeadura, utilizando a média da
precipitação e da soma térmica dos dois anos agrícolas. Os valores simulados pela RNA
foram comparados com os valores médios da produtividade de grãos em cada densidade
considerada, envolvendo os efeitos de ano agrícola e de cultivar concomitantemente. Para
avaliação deste modelo, foram analisados os erros absolutos e percentuais das simulações em
comparação aos desvios-padrão das médias de produtividade de grãos obtidas
experimentalmente em cada densidade de semeadura.

3. RESULTADOS E DISCUSSÕES

Após a realização dos procedimentos experimentais e verificada a significância dos


tratamentos através da ANOVA, os dados foram organizados para posterior desenvolvimento
da modelagem desejada. Na Tabela 1, são apresentadas as médias de produtividade de grãos
de aveia em cada ano de cultivo, em função das densidades de semeadura consideradas, além
de serem apresentados os valores de precipitação pluviométrica e soma térmica totais
ocorridas durante o ciclo de desenvolvimento.

Tabela 1- Médias de precipitação pluviométrica, soma térmica e produtividade de grãos nos


anos agrícolas de 2018 e 2019 nas diferentes densidades de semeadura.

Densidade 2018 2019


de Semeadura Prec ST PG Prec ST PG
-2 -1
(sementes m ) (mm) (°C) (kg ha ) (mm) (°C) (kg ha-1)
100 1247 1528
200 1484 1923
300 1722 2317
400 1896 2424
500 605 1922 2091 528 1507 2522
600 2285 2620
700 2034 2411
800 2045 2510
900 2057 2610
Prec= precipitação pluviométrica; ST= soma térmica; PG= produtividade de grãos.

Em 2019, ocorrem médias superiores de produtividade de grãos em relação a 2018, com


precipitação e soma térmica menos expressivas. A cultura da aveia tem seu cultivo
beneficiado sobre a influência de temperaturas mais baixas, devido ao controle natural a
doenças fúngicas (Follmann et al., 2016). Quanto à ocorrência de chuvas, este cereal não

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

874
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

necessita de grandes precipitações, desde que ocorra a devida umidade do solo ao longo do
ciclo (Peretti et al., 2017).
As variáveis meteorológicas exercem influências significativas no desenvolvimento de
plantas. Deste modo, pesquisas vêm sendo desenvolvidas nesse sentido. Junges & Fontana
(2011) utilizaram modelos de regressão linear múltipla, empregando variáveis
agrometeorológicas e espectrais, para estimativa de rendimento de grãos de trigo. Marolli et
al. (2018), através de modelos estatísticos, simularam a produtividade de biomassa em aveia
por elementos climáticos, nitrogênio e regulador de crescimento. Mocinho Júnior et al. (2019)
estimaram a produção do milho por meio da calibração de modelos estatísticos, fazendo uso
de variáveis climáticas, como temperatura do ar, precipitação pluvial, evapotranspiração
potencial, e déficit e excesso hídrico. Estas evidências reafirmam a necessidade de incluir
condições ambientais nos modelos utilizados nas simulações de processos agrícolas.
Com os dados normalizados das amostras experimentais foi possível então analisar qual a
arquitetura seria utilizada no modelo de rede neural artificial, quanto ao número de neurônios
na camada escondida. Ao serem analisados os erros quadráticos médios do treino e validação
de cada uma das RNAs considerando as estruturas de 5, 6, 7, 8, 9 e 10 neurônios, optou-se
pela estrutura com 5 neurônios. Este modelo, em comparação aos demais, obteve os menores
erros quadráticos de treino e validação, com valores de 0,0524 e 0,0636, respectivamente. O
erro quadrático médio do teste também foi reduzido, com valor de 0,1163. Cabe acrescentar
que estes números não possuem unidade, por estarem relacionados aos dados normalizados.
Na Tabela 2, são apresentadas as produtividades médias de grãos observadas
experimentalmente em cada densidade de semeadura, em ambos anos de cultivo,
conjuntamente ao desvio-padrão absoluto e percentual relativo à cada uma destas médias.
Também são apresentados os valores de produtividade simulados pelo modelo via RNA e os
respectivos erros absolutos e percentuais.

Tabela 2- Produtividades de grãos observadas e simuladas, desvios-padrão dos dados


experimentais e erros obtidos do modelo de RNA, considerando ambos os anos agrícolas.

Densidade PGObs DPAbs DPPerc PGSim ErroAbs ErroPerc


-2 -1 -1 -1 -1
(sementes m ) (kg ha ) (kg ha ) (%) (kg ha ) (kg ha ) (%)
100 1387 177 12,8 1402 15 1,1
200 1703 244 14,3 1616 87 5,1
300 2020 324 16,0 1921 99 4,9
400 2160 478 22,1 2181 21 1,0
500 2306 315 13,7 2278 28 1,2
600 2452 215 8,8 2282 170 6,9
700 2222 435 19,6 2352 130 5,9
800 2278 332 14,6 2470 192 8,4
900 2333 341 14,6 2538 205 8,8
Média 318 15,2 105 4,8
PGObs= produtividade de grãos observada na bioexperimentação; DPAbs= desvio-padrão
absoluto; DPPerc= desvio-padrão percentual; PGSim= produtividade de grãos simulada pela
rede neural artificial; ErroAbs= erro absoluto; ErroPerc= erro percentual.

Percebe-se que os erros absolutos do modelo desenvolvido são mais expressivos em


densidades de semeadura mais elevadas, acima de 600 sementes m-2. Entretanto, em todos os
cenários de simulação é possível verificar que os erros do modelo são inferiores aos valores
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

875
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de desvio-padrão, consequentemente, o mesmo acontece com seus respectivos valores


percentuais. O desvio-padrão percentual médio dos dados observados foi de 15,2%, enquanto
o erro percentual médio foi de apenas 4,8%, indicando eficácia do modelo desenvolvido na
simulação da produtividade de grãos de aveia.
Pesquisas têm sido desenvolvidas na obtenção de modelos de simulação com uso de
redes neurais artificiais, também com resultados satisfatórios. Soares et al. (2015) realizaram
a predição da produtividade de grãos de milho considerando variáveis morfológicas da
cultura. Azevedo et al. (2017) estimaram a área foliar de couve a partir do comprimento e
largura do limbo foliar. Abraham et al. (2019) simularam a produção futura da soja brasileira,
com base em dados históricos. Desta forma, é possível destacar a eficiência de modelos
desenvolvidos via rede neural artificial na simulação de processos agrícolas.

4. CONCLUSÕES

As variáveis de entrada, relacionadas ao manejo da densidade de semeadura e às


condições ambientais envolvendo precipitação pluviométrica e soma térmica, são suficientes
na elaboração de um modelo de simulação da produtividade de aveia.
O modelo via rede neural artificial desenvolvido é capaz de simular satisfatoriamente os
efeitos da densidade de semeadura e de fatores meteorológicos sobre a produtividade de grãos
de aveia, com erros inferiores aos valores de desvio-padrão dos dados experimentais obtidos
em condições reais de cultivo.

Agradecimentos

À CAPES, ao CNPq, à FAPERGS e à UNIJUÍ pelos recursos financeiros e estrutura


física e material necessários para realização da pesquisa.

REFERÊNCIAS

Abraham, E.R.; dos Reis, J.G.M.; Toloi, R.C.; de Souza, A.E.; Colossetti, A.P. (2019), Estimativa da produção
da soja brasileira utilizando redes neurais artificiais. Agrarian, 12, 261-271.
Agostinetto, L.; Casa, R.T.; Bogo, A.; Sachs, C.; Souza, C.A.; Reis, E.M.; da Cunha, I.C. (2015), Barley spot
blotch intensity, damage, and control response to foliar fungicide application in southern Brazil. Crop
Protection, 67, 7-12.
Azevedo, A.M.; Andrade Júnior, V.C.; Sousa Júnior, A.S.; Santos, A.A.; Cruz, C.D.; Pereira, S.L.; Oliveira,
A.J.M. (2017), Eficiência da estimação da área foliar de couve por meio de redes neurais artificiais.
Horticultura Brasileira, 35, 14-19.
Barbosa, J.C. (2009), Modelagem e modelos matemáticos na educação científica. Alexandria Revista de
Educação em Ciência e Tecnologia, 2, 69-85.
Coelho, A.P.; de Faria, R.T.; Dalri, A.B.; Palaretti, L.F.; Zanini, J.R. (2018), Clorofilômetro portátil como forma
de manejo da irrigação e adubação nitrogenada em aveia-branca. Revista Brasileira de Agricultura Irrigada,
12, 2542-2553.
da Silva, J.A.G.; Fontaniva, C.; Costa, J.S.P.; Krüger, C.A.M.B.; Ubessi, C.; Pinto, F.B.; Arenhardt, E.G.;
Gewehr, E. (2012), Uma proposta na densidade de semeadura de um biotipo atual de cultivares de aveia.
Revista brasileira de agrociência, 18, 253-263.
De Mamann, A.T.W.; da Silva, J.A.G.; Binelo, M.O.; Scremin, O.B.; Kraisig, A.R.; Carvalho, I.R.; Pereira,
L.M.; Berlezi, J.D.; Argenta, C.V. (2019), Artificial intelligence simulating grain productivity during the
wheat development considering biological and environmental indicators. Journal of Agricultural Studies, 7,
197-212.
Dolinsky, M.; de Oliveira, R.M. da S.C.; Rocha, G. de S.; Barroso, S.G.; Dores, S.M.C. das; Azeredo, V.B.
(2015), Efeitos do consumo de alimentos funcionais no perfil lipídico e estado nutricional de idosos.
Internacional Journal of Cardiovascular Sciences, 28, 400-408.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

876
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dornelles, E.F.; Kraisig, A.R.; da Silva, J.A.G.; Sawicki, S.; Roos-Frantz, F.; Carbonera, R. (2018), Artificial
intelligence in seeding density optimization and yield simulation for oat. Revista Brasileira de Engenharia
Agrícola e Ambiental, 22, 183-188.
Fernandes, J.G.L.; da Silva, N.A.M.; Brock, T.R.; de Queiroga, A.P.G.; Rodrigues, L.C. (2018), Inteligência
artificial: uma visão geral. Revista Eletrônica Engenharia Estudos e Debates, 1, 1-11.
Follmann, D.N.; Cargnelutti Filho, A.; Lúcio, A.D.; de Souza, V.Q.; Caraffa, M.; Wartha, C.A. (2016), Genetic
progress in oat associated with fungicide use in Rio Grande do Sul, Brazil. Genetics and molecular
research, 15, 1-12.
Junges, A.H.; Fontana, D.C. (2011), Modelo agrometeorológico-espectral de estimativa de rendimento de grãos
de trigo no Rio Grande do Sul. Ceres, 58, 9-16.
Ma, B.L.; Zheng, Z.; Pageau, D.; Vera, C.; Fregeau-Reid, J.; Xue, A.; Yan, W. (2017), Nitrogen and phosphorus
uptake, yield and agronomic traits of oat cultivars as affected by fertilizer N rates under diverse
environments. Nutrient Cycling in Agroecosystems, 108, 245-265.
Marolli, A.; da Silva, J.A.G.; Sawicki, S.; Binelo, M.O.; Scremin, A.H.; Reginatto, D.C.; Dornelles, E.F.;
Lambrecht, D.M. (2018), A simulação da biomassa de aveia por elementos climáticos, nitrogênio e
regulador de crescimento. Arquivo Brasileiro de Medicina Veterinária e Zootecnia, 70, 535-544.
Mocinho Júnior, M.A.A.; Centurion, W.P.; Prado, A.F.S.; Torsoni, G.B.; Aparecido, L.E. de O.; Costa, C.T.S.
(2019), Modelos agrometeorológicos para previsão da produção de milho em Mato Grosso do Sul. Irriga -
Edição Especial Inovagri – notas técnicas, 1, 38-47.
Peretti, J.; Henrique, D.S.; Mayer, L.R.R.; Militão, E.R.; Schimitz, R.; Boger, D.T.; Rösler, J.A. (2017),
Composição química e cinética de degradação ruminal da aveia branca (Avena sativa L.) cv. IPR126 sob
diferentes níveis de nitrogênio. Revista Brasileira de Saúde e Produção Animal, 18, 89-102.
Silva, J.P.; Rodrigues, B.A.; Casado, J.C.S.; Rosa, S.S.R.F. (2018), Infusion Pump: bond graph mathematical
modeling for blood pressure control. IEEE Latin America Transactions, 16, 1569-1573.
Soares, F.C.; Robaina, A.D.; Peiter, M.X.; Russi, J.L. (2015), Predição da produtividade da cultura do milho
utilizando rede neural artificial. Ciência Rural, 45, 1987-1993.

SIMULATION MODEL OF OAT GRAIN PRODUCTIVITY IN FUNCTION OF


AGRICULTURAL MANAGEMENT AND METEOROLOGICAL CONDITIONS BY
ARTIFICIAL NEURAL NETWORKS

Abstract. In mathematical and computational modeling of complex processes, it is possible to


highlight the artificial neural networks (ANN). In agriculture, oat is receiving prominence.
This plant is significantly influenced by management practices and environmental conditions.
The objective of this study is to develop a model by artificial neural network to simulate the
productivity of oat grains as a function of seeding density and meteorological factors. For
this study, an experiment was developed under real growing conditions, in a randomized
block design, with 4 replications. The ANN used was feedforward, multilayer Perceptron,
with input layer, hidden layer and output layer. It was used 3 input neurons and 1 output
neuron. The number of hidden neurons was defined by analyzing the mean squared error of
the training and validating of the ANN. The transfer function used was the hyperbolic tangent,
with the Levenberg-Marquardt backpropagation learning algorithm. The chosen ANN had 5
hidden neurons. The simulations presented an average percentage error of 4.8%, with errors
smaller than the standard deviation values of the experimental data. The model developed
satisfactorily simulates the productivity of oat grains, considering the seeding density and the
meteorological conditions.

Keywords: Mathematical modeling, Computational modeling, Artificial intelligence, Avena


sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

877
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

NUMERICAL MODELING OF FIRST-ORDER WAVE PROPAGATION BY


EULER-LAGRANGE METHOD OF FUNDAMENTAL SOLUTION

Carlos Eduardo Rambalducci Dalla1 - carloseduardodalla@edu.ufes.com


Wellington Betencurte da Silva1 - wellinton.betencurte@ufes.br
Julio Cesar Sampaio Dutra2 - juliosdutra@yahoo.com.br
Marcelo José Colaço3 - mjcolaco@gmail.com
1 Mechanical Engineering Program, Universidade Federal do Espírito Santo, UFES, Vitória, ES, Brazil
2 ChemicalEngineering Program, Universidade Federal do Espírito Santo, UFES, Alegre, ES, Brazil
3 Mechanical Engineering Program, COPPE, Universidade Federal do Rio de Janeiro, UFRJ, RJ, Brazil

Abstract.
In this paper, an Eulerian-Lagrange Method of Fundamental Solution (ELMFS) method is
proposed for the solutions of a one-dimensional first-order wave equation. We used the Euler-
Lagrange Method (ELM) to modify the coordinates moving the solution along the characteristic
lines handling with the advection velocity field using the method of fundamental solution to
solve the diffusion equation, it is possible to obtain the solution for the advection equation.
The evaluated results were compared with the analytical and forward Euler scheme of finite
difference method to determine and compare the accuracy. The parameters of the numerical
method, like the distance between the source and collocation points and the number of
collocation points, were analyzed to achieve high accuracy in the results.

Keywords: meshless method, Euler-Lagrange method of fundamental solution, first-order wave


equation, advection equation

1. INTRODUCTION

Currently, computational modeling is of fundamental importance for simulation and


understanding phenomena present in different research areas, such as mathematics, physics,
and engineering. Models described by partial differential equations are used to solve problems
of acoustics, electromagnetism, optics, fluid flows, heat and mass transfer. To solve most of
these equations, known mesh-dependent numerical schemes are employed such as the finite
difference method (FDM) and the boundary element method (BEM). (Kok et al., 2010)
Meshless methods emerge as an alternative to overcome the problem of mesh generation
once they require neither domain nor surface grid generation, and only the location of the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

878
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

distributed source and boundary points is necessary during the numerical implementation. In
this regards Method of Fundamental Solution (MFS) was first introduced by Kupradze and
Aleksidze (1964) to solve partial differential equations and then Mathon and Johnston (1977)
used the MFS as a numerical method to solve elliptic boundary value problems. Over the past
30 years, MFS has been widely used for the numerical approximation of a large variety of
physical problems like potential flow, the biharmonic equations, the Poisson problems, heat and
mass transfer equations. The general concept of the MFS is that the solution is approximated
by a linear combination of fundamental solutions as regards source points located outside
the solution domain that can exactly satisfy the governing partial differential equation of the
problem, such way that only boundary conditions at boundary collocations need to be satisfied.
Hui and Qing-Hua (2019) pointed out as some advantages of MFS over BEM method, like no
needed integration over domain boundary, easy and direct implementation even for irregular
domains, high numerical accuracy, and fast convergence has also been proven.
Young et al. (2006) proposed a novel method to take into account the advective term to
evaluate the transport equations phenomena. The Eulerian-Lagrangian method of fundamental
solution was developed by combining the Eulerian-Lagrangian Method (ELM) and the method
of fundamental solution, to change the fixed Eulerian coordinate in a moving Lagrangian
coordinate, and thus displace the results along the line of characteristics. Such combination was
successfully implemented with the BEM to solve advection-diffusion. However, more advances
were made on the ELMFS, and the method was applied to the multidimensional advection-
diffusion equation, Young et al. (2008) and Young et al. (2009) adopted this formulation to solve
two-dimensional unsteady Burger’s equation and incompressible Navier-Stokes problems.
The aim of this study is to demonstrate the capability of the ELMFS to solve a
one-dimensional first-order wave propagation equation, compare the results with the well
established forward Euler scheme of finite difference method and analyze the inherent
parameters of the method. The governing equations and numerical method procedure are
explained in Sections 2. The numerical experiments and conclusions are provided, respectively,
in Sections 3 and 4.

2. PHENOMENA MODEL AND NUMERICAL METHODS

2.1 Advection-Diffusion Equation Model

The partial differential equation describing the process of conservative scalar transport in
the one-dimension domain subject to diffusion and advection phenomena is written as below :

∂u ∂u ∂ 2u
+v =α 2 (1)
∂t ∂x ∂x
where u is the scalar at location x and time level t, v is the velocity of a component in the
x-direction, and α is the diffusion coefficient. Eq.(1) simulates process named convection and
diffusion. According to Gu et al. (2009), the left-hand side of the equation can be transformed
into a material derivative and the Eq.(1) can be transformed into a diffusion equation in the
Lagrangian coordinates as follows,

Du ∂ 2u D ∂ ∂
= α 2, where = + (2)
Dt ∂x Dt ∂t ∂x
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

879
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Since the advection-diffusion equation is transferred to the characteristic diffusion equation,


the method of fundamental solution is adopted to solve the linear homogeneous diffusion
equation represented by Eq.(2). In this paper, two simplifications of Eq.(1) are presented based
on the interpretation of a correlation of convective and diffusive phenomena transport given by
dimensionless Peclet Number,

vL convection transport
Pe = = (3)
α diffusion transport
where L is a characteristic length scale, v is the velocity field magnitude, and α is the diffusion
coefficient. Huysmans and Dassargues (2005) analyzed various definitions of the equation
above for systems with low permeability and concluded that, if the Peclet number is greater
than one (e.g. Pe > 10), the effects of convection term is significantly higher than the diffusion
transport, and hence, physically, convection dominates the transport and the diffusion term is
negligible. Otherwise, if the Peclet number is lower than one (Pe << 1), the diffusion term
dominates the process and the advection term can be neglected.

2.2 Method of Fundamental Solution

The fundamental solution depends on the operator in the governing model of the considered
problem. For the one-dimensional diffusion equation, the fundamental solution is given in the
form

−|x − xS |2
 
exp
4α(t − tS )
G(x, t, xS , tS ) = H(t − tS ) (4)
[4πα(t − tS )]

where G(x, t, xS , tS ) is the fundamental solution of the linear diffusion equation, x and xS are
the spatial coordinates of the boundary and source points, t and tS are the temporal coordinates
of the boundary and source points, respectively. Note that, the Eq.(4) is a function of the distance
between the points at the boundary and the source points which are located outside the domain
on the so-called virtual boundary, represented by dashed lines in Figure 1.
The distribution of source points at a virtual boundary for an irregular domain is presented
in Figure 1a. In this work, the source points are distributed along the x-axis at the distance d
perpendicular to the time axis as presented in Figure 1b. In this approach used by Grabski (2019)
to solve transient heat conduction problems, the number of source points in the virtual boundary
and the collocation points at the real boundary and initial time is the same, to form a squared
matrix of coefficients. In the application of the method of fundamental solution, the solution
of the problem governed by the diffusion equation is approximated as a linear combination of
fundamental solutions

NS
X
u(x) ≈ cj G(x, t, xS , tS ), x ∈ Ω, xS ∈
/Ω (5)
j=1

where G is the fundamental solution matrix and c is a vector of unknown coefficients. The
approximation exactly satisfies the initial and boundary conditions of the partial differential

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

880
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)

Collocation Points Source Points

Figure 1- (a) Schematic diagram for the distribution of source and boundary points for generic domain
shape. (b) Schematic diagram for the location of source points and field points on the 1D space–time
domain.

equation due to the non-overlapping of the source points and the collocation points. Thus, a
linear system of equations Gc = b is formed, where b is a vector with values at the boundary
and initial conditions. This resultant system of equations may become highly ill-conditioned
when the number of source points is increased or depending on the location of source points.
To mitigate this drawback, the Tikhonov regularization was employed in the form
cλ = (GT G + λI)−1 GT b (6)
where λ > 0 is the regularization parameter. The regularization parameter is the value that
minimize the expression below and is acquired finding the L-curve corner, as described by
Hansen (1992),
min kGc − bk2 + λ kck2

(7)
where the first term is the residuals, and the second term is the norm of solution. The parameter
in this work is λ =10-10 .
In the Euler-Lagrange method of fundamental solution (ELMFS) proposed by Young et al.
(2006), the diffusion results at (n + 1)∆t are evaluated by solving the Eq. (5). Afterwards, the
numerical results of diffusion are moved along the line of characteristics, once the advection
velocity is expressed in terms of spatial and time increments as

dx
u= , xn+1 = xn + u(∆t) (8)
dt
2.3 Forward Euler scheme

An explicit form of the finite difference method was used to approximate the solution of the
proposed model equation. The solution of partial differential equation with the forward Euler
scheme consists of approximate the time derivative using a forward difference, and a central
difference for second-order spatial derivative as implemented by Langtangen and Linge (2017).
Thus the Eq.(2) can be written as

un+1
i − uni uni+1 − 2uni + uni−1
=α (9)
∆t ∆x2
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

881
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

∆t 1
un+1
i = uni + F (uni+1 − 2uni + uni−1 ), F =α 2
≤ (10)
∆x 2
where F in the Fourier mesh number, a stability criteria parameter that considers the
discretization to assure the convergence of finite difference method.

3. NUMERICAL EXPERIMENT

In this section, we give some numerical examples to compute an approximate solution of


Eq.(1) by the methods discussed in this article. To illustrate a dominant advection transport, low
diffusion coefficient (α = 10-9 ) and high velocity field v = 1.0 are considered resulting in higher
values of the Peclet number Pe>>1. Hence the Eq.(1) can be reduced to advection equation
Eq.(11), modeled similarly to first-order wave propagation as shown below,

∂ϕ ∂ϕ
+v =0 (11)
∂t ∂x
The initial condition was proposed as half sinusoidal function, and the boundary condition
of the first kind as follows,


 sin(x)
−π ≤ x ≤ π
ϕ(x, t)t=0 = 2 (12)
0 otherwise

ϕ(x, t)x=−5 = 0 (13)

using separation on variables the analytical solution can be obtained using the expression:

 sin(x − t)
−π ≤ x − t ≤ π
ϕ(x, t) = 2 (14)
0 otherwise

Figure 2 shows the analytical and the numerical results obtained using the FDM and ELMFS for
several frames in time. Both methods tested in this case are in concordance with the analytical
solution. The numerical evaluation of MFS and FDM uses the same number of collocation
points, Nt = 30 collocation points at time discretization and Nx = 50 collocation points space
discretization. This discretization ensures compliance with the stability criterion for the Forward
Euler scheme settled in Eq.(10), where F = 0.44. The number of source points used for MFS is
calculated as Ns = 2(Nt+1)+Nx, to form a square matrix of fundamental solution.
Golberg et al. (1996) and Grabski (2019) showed that the distance d between the source
points and the boundary points is an important parameter for the accuracy of the method of
fundamental solutions. For the distribution type of sources points (see Figure 1b) used in this
work, they are directly present in the fundamental solution of partial differential equation in the
term (t − tS ). Furthermore, the source points were placed at distances ranging from 10-2 to 108

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

882
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

to choose the best distance making the results more accurate. The results were compared with
the analytical solution using the root mean squared error RMSE as shown in Eq.(15) below,

v
u
u 1 X Ns
(i) (i)
RMSE = t (uNumerical − uAnalytical )2 (15)
Ns i=1

Analytic Analytic
0.5 ELMFS 0.5 ELMFS
FDM FDM
0.0 0.0

0.5 0.5
Time: 0.0 Time: 3.2
5 0 5 10 5 0 5 10
x x
Analytic Analytic
0.5 ELMFS 0.5 ELMFS
FDM FDM
0.0 0.0

0.5 0.5
Time: 6.4 Time: 9.6
5 0 5 10 5 0 5 10
x x

Figure 2- Analytical (solid line), Finite Difference Method (black circle) and Euler-Lagrange Method of
Fundamental Solution (red points) frame results for different times.

Analyzing the results in Figure 3, it is possible to notice that the increase in the distance
between source points present in the virtual boundary and collocation points in the real boundary
reduces the error between the exact solution and the numerical solution with ELMFS. Compared
to the results of the finite difference method, the source points must be positioned at a distance
of 108 to achieve the same error order. This value is related to diffusion coefficient, once both
appear in denominator of fundamental solution, if they have same order, a high accuracy is
obtained. Another approach to check the accuracy of the method was the variation in the number
of source points and, consequently, placement points, as they are related. In Figure 3 (Right) it
is noticed that there is a decrease in the error with the increase in the number of points used in
the solution.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

883
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

10 2
FDM NT=20, t=0.60
ELMFS 0.04 NT=50, t=0.25
10 4 NT=100, t=0.12
0.03
RMSE

RMSE
10 6
0.02
10 8 0.01
FDM: 2.60e-10
0.00
10 1 101 103 105 107 0.0 2.5 5.0 7.5 10.0
d Time

Figure 3- (Left) Errors analysis for the distance d from virtual boundary to real boundary (Right) Errors
analysis for the number of collocation points in time axis for a fixed d = 1.

(a) Solution Surface (b) Absolute Errors Surface

Error 1e 8
0.4 2.0
0.2 1.5
elmfs

0.0 1.0
0.2 0.5
0.4
12 12
10 10
8 8
5 0 6t 5 0 6t
5 10 4 5 10 4
x 15 20 2 x 15 20 2
0 0

Figure 4- (a) Surface solution for first order


wave propagation along characteristics. (b) Surface of
absolute error, Error = ϕAnalytic − ϕELMFS .

Figure 4a shows the solution surface for wave propagation over the whole domain using
ELMFS. It is possible to notice that the coordinate changes along the characteristic line. In
Figure 4b the absolute error between the analytical result and the numerical result is shown.
The larger errors are localized at the peaks of wave and tend to increase with the time evolution.
Even we assume the low diffusion coefficients (α = 10-9 ), the equation was solved using the
diffusion fundamental solution, and the diffusion coefficient influences the evaluation. However,
for the time simulated the maximum absolute error is of the order of 10-8 .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

884
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSIONS

A first-order wave propagation model is analyzed by the ELMFS, a combination of the


method of fundamental solution and the Euler-Lagrange Method. The advection-diffusion
equation is converted to the characteristics diffusion then the time-dependent MFS was used to
get the numerical results as a linear combination of the fundamental solution. The numerical
results obtained were analyzed and compared with the analytical solution and the finite
difference method. Both numerical schemes predicted the propagation of the sinusoidal wave
model with high accuracy. Therefore, the fundamental solution formulation can be used as
a numerical method to solve partial differential equations that model wave propagation or
advection dominant phenomena.

REFERENCES

M. A. Golberg, C. S. Chen, and S. R. Karur. Improved multiquadric approximation for partial differential
equations. Engineering Analysis with Boundary Elements, 18(1):9–17, 1996.
J. K. Grabski. On the sources placement in the method of fundamental solutions for time-dependent
heat conduction problems. Computers & Mathematics with Applications, May 2019.
M. H. Gu, D. L. Young, and C. M. Fan. The method of fundamental solutions for one-dimensional wave
equations. Computers, Materials and Continua, 11(3):185–208, 2009.
P. C. Hansen. Analysis of discrete ill-posed problems by means of the l-curve. Society for Industrial
and Applied Mathematics, 34:561–580, 1992.
W. Hui and Q. Qing-Hua. Methods of Fundamental Solutions in Solid Mechanics, volume 1. Elsevier, 1
edition, 2019. ISBN 9780128182840.
M. Huysmans and A. Dassargues. Review of the use of péclet numbers to determine the relative
importance of advection and diffusion in low permeability environments. Hydrogeology Journal,
13:895–904, 10 2005.
Y. Kok, Kadarman A. H., and Djojodihardjo H. Development and implementation of some bem
variants—a critical review. Engineering Analysis with Boundary Elements, 34:884–899, 10 2010.
V. D. Kupradze and M. A. Aleksidze. The method of functional equations for the approximate solution
of certain boundary value problems. URSS Computational Mathematics and Mathematical Physics,
4(4):82–126, 1964.
H. P. Langtangen and S. Linge. Finite Difference Computing with PDEs, volume 16. Elsevier, 1 edition,
2017. ISBN 978-3-319-55456-3.
R. Mathon and R. L. Johnston. The approximate solution of elliptic boundary-value problems by
fundamental solutions. SIAM Journal on Numerical Analysis, 14(4):638–650, 1977.
D. L. Young, C. M. Fan, C. C. Tsai, C. W. Chen, and M. Krishnan. Eulerian-lagrangian
method of fundamental solutions for multi-dimensional advection-diffusion equation. International
Mathematical Forum, 01 2006.
D. L. Young, C. M. Fan, S. P. Hu, and S. N. Atluri. The eulerian-lagrangian method of fundamental
solutions for two-dimensional unsteady burgers’ equations. Engineering Analysis with Boundary
Elements, 32(5):395–412, 2008.
D. L Young, Y. C. Lin, C. M. Fan, and C. L. Chiu. The method of fundamental solutions for solving
incompressible navier–stokes problems. Engineering Analysis with Boundary Elements, 33(8):1031
– 1044, 2009.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

885
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO DO COMPORTAMENTO DAS TENSÕES RESIDUAIS EM AÇO API 5L


X80 POR DIFRAÇÃO DE RAIOS-X E RUÍDO MAGNÉTICO BARKHAUSEN

Maria Cindra Fonseca – mariacindra@id.uff.br


Bruna Machado – machadobruna@id.uff.br
Victor Tadashi – vtadashi@id.uff.br
Leosdan Noris – leosdanfnoris@gmail.com

UFF – Universidade Federal Fluminense – Escola de Engenharia/PGMEC, Rua Passo da Pátria, 156,
Bloco D, Sala 302, CEP 24210-240, São Domingos, Niterói – RJ

Resumo. Os aços de alta resistência e baixa liga (ARBL) têm grande importância na fabricação
de tubos de grandes diâmetros para transporte de óleo e gás. O conhecimento do estado de
tensões residuais é de grande importância para garantir a segurança de estruturas e
componentes, principalmente daqueles que trabalham em condições extremas. Por este fato,
oferecer alternativas de técnicas que facilitem a qualificação e a quantificação das tensões
residuais é tarefa de grande importância. Existem várias técnicas disponíveis para medição
das tensões residuais, dentre elas destacam-se a difração de raios-X, ultrassom, ruído
magnético Barkhausen (RMB), entre outros. Assim sendo, o presente trabalho tem por objetivo
estudar as tensões residuais em amostras de aço API 5L X80 por duas técnicas não destrutivas.
A primeira, por difração de raios-X é bem estabelecida e considerada como a técnica de
validação, já a técnica por RMB está em desenvolvimento. Os resultados mostraram coerência
entre as duas técnicas, verificando que o ruído Barkhausen coincidiu com o estado de tensões
residuais medidas por difração de raios-X. O espectro de frequência conferiu melhor
visualização do ruído magnético Barkhausen produzido e as envoltórias permitiram
caracterizar o comportamento do sinal nas amostras com diferentes níveis de tensão, conforme
suas naturezas.

Palavras chave: Tensões residuais, Aço API-5LX80, Difração de raios-X, Ruído magnético
Barkhausen

1. INTRODUÇÃO

Os aços de alta resistência e baixa liga (ARBL) são aços microligados, que possuem
pequenas quantidades de elementos de liga em sua composição para garantir alta resistência
combinada com elevada tenacidade. São amplamente utilizados para fabricação de tubos de
grandes diâmetros, usados no transporte de petróleo, gás e derivados e são classificados pela
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

886
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

norma API 5L (American Petroleum Institute) para padronizar os requisitos técnicos exigidos
de modo a minimizar falhas prematuras (Drumond et al., 2018).
O surgimento de tensões residuais é intrínseco a todos os processos de fabricação e sob
ação externa, as tensões residuais e aplicadas podem somar-se mesmo no regime elástico, e
causar a ruptura inesperada e prematura do componente (Cindra Fonseca et al., 2012) . A
determinação da magnitude e distribuição das tensões é importante para assegurar o
desempenho mecânico do material e garantir credibilidade na análise da integridade estrutural
do componente (Lothhammer et al., 2017).
Nas últimas décadas, diferentes métodos foram desenvolvidos para medir as tensões
residuais em diferentes tipos de materiais e componentes. Algumas técnicas, tais como furo
cego e método de remoção de camadas são chamadas de destrutivas, enquanto entre as não-
destrutivas se destacam a difração de raios-X, difração de nêutrons, ultrassom e magnética.
A técnica por difração de raios-X, é bem estabelecida e eficaz na determinação das tensões,
residuais e aplicadas, em materiais cristalinos (Sherry et al., 2018). Ela permite qualificar e
quantificar em magnitude e direção as tensões superficiais existentes em dado ponto do
material. Os seus princípios básicos foram desenvolvidos há mais de cinquenta anos e são
baseados em duas teorias: a teoria da difração de raios-X em materiais cristalinos e a teoria da
elasticidade do material sólido, oriunda da mecânica dos sólidos (ROSSINI et al., 2012.).
Outra técnica não-destrutiva de análise de tensões residuais e ainda não completamente
estabelecida é a RMB (ruído magnético Barkhausen), que vem ganhando destaque e se baseia
no efeito que a presença de tensões mecânicas e/ou descontinuidades microestruturais exerce
no movimento das paredes dos domínios magnéticos em materiais ferromagnéticos (Grijalba &
Padovese, 2018), durante o processo de magnetização, sem causar danos à integridade do
material (Scotti et al., 2014), demonstrando grande potencial na aplicação em campo (Pal’a &
Usak, 2015).
Assim sendo, o presente trabalho apresenta um estudo comparativo das tensões residuais
em amostras de aço X80, analisadas por difração de raios-X e por ruído magnético Barkhausen
(RMB).

2. MATERIAIS E MÉTODOS

O material utilizado para o presente trabalho foi o aço API 5L X80, produzido pela
Usiminas, por laminação controlada a quente. As especificações, composição química e
propriedades mecânicas informadas pelo fabricante estão representadas nas Tabelas 1 e 2,
respectivamente.

Tabela 1 - Composição química do aço API 5L X80 (% em peso).


C Si Mn P S Mo Nb Ni
0,08 0,26 1,75 0,011 0,0005 0,27 0,070 0,22

Tabela 2 – Propriedades mecânicas do aço API X80 (Fabricante).


Tensão Limite de Escoamento Tensão Limite de Resistência
σLE (MPa) σLR (MPa)
555 625-700

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

887
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Foram preparadas cinco amostras por retificação, empregando-se diferentes velocidades


da peça e mantendo-se a profundidade de corte constante, como apresentado na Tabela 3. Após
o processo de retificação, a amostra A foi submetida ao tratamento mecânico de shot peening,
com esferas de vidro e uma pressão de trabalho de 800 MPa, a fim de serem induzidas tensões
residuais compressivas na superfície dessa amostra. A amostra B foi submetida a um tratamento
térmico de alívio de tensões, sendo aquecida em forno por resistência elétrica à temperatura de
650ºC, pelo período de 2 horas. Para cada condição de tensão residual, foi feita uma réplica, a
fim de obter uma estimativa de como o erro experimental afeta na medição.

Tabela 3 – Parâmetros de corte empregados na retificação das amostras.

Velocidade
Profundidade de corte
Amostra superficial da peça
(ap) (mm)
(Vw) (m/min)
A1
A2 0,05 16
A3
A4
0,10 10
A5

Após o preparo de todas as amostras, as tensões residuais foram medidas por difração de
raios-X, com o método do sen²ψ, utilizando o analisador de tensões Xtress 3000 (Fig. 1), no
Laboratório de análise de tensões (LAT/UFF). Foi utilizada radiação CrKα para difratar o plano
(211) da ferrita.

a) b)
Figura 2 – Analisador de tensões X-Stress3000: (a) Sistema de medição;
(b) Equipamento completo com unidade de controle e software.

Para a análise por ruído magnético Barkhausen, foram-se medidos os valores de ruído e a
partir deles foi possível realizar a extração dos sinais através do software MatLab, permitindo
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

888
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

correlacionar as duas técnicas. A Fig.2 apresenta a medição no sentido longitudinal de uma


amostra. As frequências de excitação utilizadas foram de 10 Hz e 50 Hz.

Figura 2 – Análise por RMB.

O valor do ruído magnético Barkhausen em cada ponto é obtido diretamente na tela do


equipamento, após a estabilização do sinal, em mV (milivolts).

3. RESULTADOS E DISCUSSÃO

3.1. Análise das tensões residuais por difração de raios-X

As tensões residuais analisadas, na direção longitudinal, por difração de raios-X estão


apresentadas na Tabela 4.
Tabela 4 – Tensões residuais longitudinais medidas por difração de raios-X

Tensões Residuais
Amostra
(MPa)

A1 -350 ±6

A2 -420 ±10

A3 10 ±5

A4 270 ±4

A5 240 ±5

A Figura 3 possibilita visualizar de forma mais clara a diferença entre os resultados obtidos
para cada amostra.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

889
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3 – Tensões residuais longitudinais por difração de raios-X.

Analisando os resultados da Fig. 3, é possível constatar que as amostras 1 e 2 que foram


submetidas ao tratamento mecânico de shot peening apresentaram tensões residuais
compressivas de elevada magnitude. A amostra tratada termicamente sofreu o alívio de tensão
esperado (A3) e pôde ser considerada como isenta de tensões residuais, e as amostras A4 e A5 ,
que foram somente retificadas apresentaram tensões residuais de tração.

3.2. Análise das Tensões Residuais por RMB

Utilizando o processamento de sinais, foi possível extrair os resultados tanto para a


frequência de excitação (f) de 10 Hz quanto para de 50 Hz. A Fig. 4 mostra os sinais de RMB
no domínio do tempo para as cinco amostras.
A análise apenas do espectro dos sinais de RMB permitiu a percepção de que os picos que
ocorreram em 0,02s e 0,07s para f = 10Hz e 0,005s e 0,015s para f = 50Hz, respectivamente,
são maiores para as amostras com tensão residual trativa do que nas que continham tensão
residual compressiva.
No domínio do tempo, é possível perceber que existe um efeito de espalhamento nos sinais
muito maior para a faixa de frequência de 50Hz, e é avaliado que, para cada amostra, o pico do
sinal do RMB se comporta diferentemente, demonstrando ser necessário fazer um
processamento de sinais para compreender melhor esta diferenciação, de acordo com as tensões
residuais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

890
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A1

A2

A3

A4

A5

(a) (b)

Figura 4 – Sinais de RMB: (a) 10 Hz; (b) 50 Hz.

3.3. Comparação entre as técnicas

O processamento de sinais também permitiu a extração dos gráficos do valor médio de ruído
(RMS), para uma determinada amostra em uma determinada frequência de excitação. Após
compilar os valores médios foi feita a correlação dos resultados de RMB com os de difração de
raios-X conforme a Erro! Fonte de referência não encontrada.5 com frequência de 10 Hz e
a Fig. 6, com frequência de 50 Hz.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

891
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Tensões residuais por difração de raios-X vs RMB para f = 10 Hz.

Figura 6 – Tensões residuais por difração de raios-X vs. RMB para f = 50 Hz.

É possível observar graficamente que os resultados de RMB para 50Hz apresentaram uma
correlação maior com os resultados da tensão residual por difração de raios-X. Entretanto, em
ambos os cenários foi possível notar o mesmo comportamento de crescimento do RMB para os
casos de tensão residual trativa.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

892
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÕES

Os resultados obtidos no presente trabalho, que teve como objetivo o estudo


comparativo das tensões residuais em amostras de aço X80, por difração de raios-X e pela
técnica de ruído magnético Barkhausen (RMB), permitiram as seguintes conclusões:

1. Coma adoção de adequados parâmetros no processo de retificação e pelo tratamento de


shot peening foi possível obter amostras com tensão residual trativa (+270 MPa) e
compressiva (-400 MPa), respectivamente, para o estudo de comparação das técnicas.
2. A técnica de RMB apresentou boa correlação com os resultados por difração de raios-
X. Tanto para a frequência de 10 Hz quanto para a frequência de 50 Hz os valores de
RMB cresceram de acordo com a transição das tensões residuais de compressivas para
trativas.
3. A partir da extração dos dados, foi possível realizar uma correlação do valor de RMB
(mV) para uma predição acurada de tensão residual (MPa) para esse material. A curva
quadrática foi a que permitiu maior precisão para essa correlação.

Agradecimentos

Este estudo foi financiado, em parte, pela Coordenação de Aperfeiçoamento de Pessoal de


Nível Superior (CAPES) – Código Financeiro 001. Os autores também gostariam de agradecer
às agências de pesquisa CNPq e FAPERJ, pelo apoio financeiro, que permitiu a realização deste
trabalho.

REFERENCES

DRUMOND, G. P., PASQUALINO, I. P., PINHEIRO, B. C. ESTEFEN, S. F. Pipelines, “Risers and Umbilicals
Failures: A Literature Review”. Ocean Engineering, v. 148, p. 412-425, 2018.
CINDRA FONSECA, M. P., Chuvas, T.C., Pardal, J.M., Manier, F. “Influência do tratamento de shot peening
nas tensões residuais de juntas soldadas de aços arbl bifásico e IF”. Universidade Federal Fluminense, 2011.
SHERRY, A. H., Ahmed, I. I., Adebisi, J. A., Abdulkareem, S. “Investigation of surface residual stress profile on
martensitic stainless steel weldment with X-ray diffraction”. Journal of King Saud University, v. 30, pp. 183-187,
2018.
LOTHHAMMER, L., Viotti, M., Albertazzi, A., Veiga, C. “Residual stress measurements in steel pipes using
DSPI and the hole-drilling technique”. International Journal of Pressure Vessels and Piping, 2017
GRIJALBA, F., Padovese, L.R., “Non-destructive scanning for applied stress by the continuous magnetic
Barkhausen noise method”. Faculty of Mechanical Engineering, University of Campinas, 2018.
ROSSINI, N.S., Dassist, M., Benyousis, K.Y., Olabi, A.G. “Methods of measuring residual stresses in
components”. Mechanical and Management Engineering Department, Politecnico di Bari, 2012.
SCOTTI, A., Li, H., Miranda, R. M. “A Round-robin test with thermal simulation of the welding HAZ to draw
CCT diagrams: a need for harmonized procedures and microconstituent terminologies”. Soldagem & Inspeção, v.
19, pp. 279-290, 2014.
PAL’A, J., Ušák, E. “New parameters in adaptive testing of ferromagnetic materials utilizing magnetic Barkhausen
noise”. Journal of Magnetism and Magnetic Materials, 2015.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

893
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

STUDY OF THE RESIDUAL STRESS BEHAVIOR OF API 5L X80 STEEL BY


X-RAY DIFFRACTION AND MAGNETIC BARKHAUSEN NOISE TECHNIQUES

Maria Cindra Fonseca – mariacindra@id.uff.br


Bruna Machado – machadobruna@id.uff.br
Victor Tadashi – vtadashi@id.uff.br
Leosdan Noris – leosdanfnoris@gmail.com
UFF – Universidade Federal Fluminense, Escola de Engenharia, Departamento de Engenharia
Mecânica /PGMEC, Rua Passo da Pátria, 156, Bloco D, Sala 302, CEP 24210-240, São Domingos,
Niterói – RJ

Abstract. High-strength and low-alloy steels (ARBL) are of great importance in the
manufacture of large diameter pipes for transporting oil and gas. Knowledge of the state of
residual stresses is of great importance to guarantee the safety of structures and components,
especially those that work in extreme conditions. For this reason, offering alternative
techniques that facilitate the qualification and quantification of residual stresses is a task of
great importance. There are several techniques available for measuring residual stresses,
including X-ray diffraction, ultrasound, Barkhausen magnetic noise (RMB), among others.
Therefore, the present work aims to study the residual stresses in steel samples API 5L X80 by
three non-destructive techniques. The first, by X-ray diffraction is well established and
considered as the validation technique, whereas the RMB technique is under development. The
results showed consistency between the two techniques, verifying that the Barkhausen noise
coincided with the state of residual stresses measured by X-ray diffraction. The frequency
spectrum provided a better visualization of the Barkhausen magnetic noise produced and the
envelopes allowed to characterize the behavior of the signal in samples with different stresses
levels, according to their nature.

Keywords: Residuals stresses, API-5LX80 Steel, X-ray difraction, Magnetic Barkhausen noise
Technique

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

894
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

MODELING THE VERTICAL TRANSMISSION OF SYPHILIS

Douglas Souza de Albuquerque1 - dougdealbu@gmail.com


Claudia Mazza dias2 - mazzaclaudia@gmail.com
1 Universidade Federal Rural do Rio de Janeiro, DTL - Nova Iguaçu, RJ, Brazil
2 Universidade Federal Rural do Rio de Janeiro, PPPGMMC- Seropédica, RJ, Brazil

Abstract. This work studies the syphilis transmission process in the Brazilian population
and its impact on infant mortality through a compartmental mathematical model (vertical
transmission). Using official data, a numerical experiment is carried out whose results indicate
the growth of the disease among the population of pregnant women.

Keywords: Syphilis, Mathematical Modeling, Mathematical Biology, Vertical Transmission

1. INTRODUCTION

Syphilis is a human infection disease transmitted through sexual contact. It is caused by the
bacterium Treponema Pallidum and it’s among the major causes of illness in the world, and a
serious public health problem in developing countries (17), although the first recorded outbreak
of syphilis is Europe occurred in 1494/1495 in Italy during a french invasion (5). In 16th to
through 19th centuries, syphilis was one of the largest public health burdens in prevalence,
symptoms and disability (11). In 20th century the treatment suffer a great improvement with
the advances in microbiology and pharmacology. The vertical transmission, from infected
mother to fetus causes a congenital infection. In Brazil, there has been a significant increase
in cases of acquired syphilis, as well as among pregnant women, in recent years (16). Figure
1 shows the evolution of cases among pregnant women in Brazil. It is observed that in 2018,
62.59 cases/1,000 live births were registered, and in the first half of 2019 there were already
11,759 new cases. The Figure also shows the evolution of cases of congenital syphilis, which
follows the same upward trend. All of this information raises great concerns and needs to be
studied seriously. According Avelleira and Bottino (3), embryo infection can occur at any stage
gestational age or stage of maternal illness. Contamination of the fetus can cause abortion, fetal
death and neonatal death in 40% of infected concepts or the birth of children with syphilis.
Approximately 50% of infected children are asymptomatic at birth. The risk of contagion
varies from 10% to 60% according to most authors (3). Incidence rate of congenital syphilis in

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

895
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 1- Left-Cases(per 1.000 live births) of pregnant women with syphilis. Right - Cases (per 1.000
live births) of congenital syphilis in children under one year of age.

children under 1 year of age is about 8.383 (per 1000 live births) (14). Average mortality rate
(non-congenital) per 1000000 inhabitants is 0.156 (12) and for congenital siphylis is 3.716 per
100000 inhabitants. All this information reinforces the need to study vertical transmission of
the disease. One way to do this is through mathematical modeling. Garnett et al. (6) proposed a
mathematical model that admits multiple stages of infection, where the individual when treated
in the latent or tertiary stages acquires temporary immunity. The work published by Grassly
et al. (7), in 2005, uses real data on syphilis cases between 1941 and 2002 for 68 cities in
the United States with a SIRS model. Additionally, Milner and Zhao (13), in a 2010 article,
proposed a model that considers behaviors, such as safe sexual activity, to control the epidemic,
and emphasize that secondary and later infections confer partial immunity to the individual.
In a 2016 study, Iboi and Okuonghae (10) presented a new deterministic mathematical model
that addresses the distinction between early and late latent stages, in addition to considering
that there have a reversal for individuals infected in the early latent stage to the primary or
secondary stages of the infection. In 2018, Gumel et al. (8) presented a deterministic sex-
structured mathematical model of the population and Okuonghae et al. (15) developed a new
mathematical model that allows preventive strategies against the spread of syphilis. Abdullahi
et al. (1) develop a non-linear mathematical model to analyze the existence and uniqueness of
the system of equations using the Lipchitz criteria (4). In this context, mathematical modeling
can be used to better understand the transmission in a population and the resurgence of syphilis
in countries as Brazil. So based on cited models, this work proposes a practical application in
Brazilian scenario, including vertical transmission of the disease.

2. MATHEMATICAL MODEL FOR SYPHILIS

The model considers different compartments (Figure 2): Susceptible male (Sm (t)),
Susceptible female (Sf (t)), Suscetible babies (Sb (t)), Infected male (Im (t)), Infected female
(If (t)), Infected pregnant (Ip (t)), Infected babies (Ib (t)), Complications (C(t)) and Treated
(T (t)). The nine compartments sub-divides the total population (N (t)) at time t. The model
assumes the following hypothesis:the susceptible individuals have no contact with the infection
until the sexual contact with infected individuals; only the infected population who effectively
contacted the infection, can transmit it through sexual contact; the individuals with medical
complications have infection at a stage that can leads to other diseases or death; the treated
population has the individuals recovered due treatment. And uses as parameters the following

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

896
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

positive constants: α1 , α2 - contact rates for male and female; β1 , β2 - rate of progression
of infected classes into the complication class; r1 , r2 - recovery rates; k - fertility rate; k̄ -
contamination rate of babies born of infected mothers; ν - treated rate of complications class;
δ - syphilis induced death rate; δ̄ - syphilis induced death rate for babies. The corresponding
mathematical model is given as:

S˙m = −α1 If Sm (1)

S˙f = −α2 Im Sf (2)


Ṡb = (1 − k̄)Ip (3)
I˙m = α1 If Sm − (r1 + β1 )Im (4)
I˙f = α2 Im Sf − (r2 + β2 )If (5)
I˙p = kIf − (r2 + β2 )Ip (6)
I˙b = k̄Ip − δ̄Ib (7)
Ċ = β1 Im + β2 If + β2 Ip − (ν + δ)C (8)
Ṫ = r1 Im + r2 If + r2 Ip + νC (9)

α1
Sm Im

β1
r1

ν δ
T C

r2
r2 β2
β2

α2 k (1 − k̄)
Sf If Ip Sb

δ̄
Ib

Figure 2- Dynamic for Syphlis.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

897
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. NUMERICAL EXPERIMENT

Through the model presented at last section, we perform a numerical experiment for the
infection in Brazil. The experiment considers r1 = r2 = 0.142857 days−1 ; ν = 0.03571
days−1 ; α1 = 0.10115/100000 inhabitants; α2 = 0.06885/100000 inhabitants; β1 = 0.08571
days−1 ; β2 = 0.05714 days−1 ; k = 0.00000174; k̄ = 0.07; δ = 0.0156/100000 inhabitants;
δ̄ = 0.006307; and the initial conditions: Sm (0) = Sf (0) = 10000; Im (0) = 1970;
If (0) = 1380; Ip (0) = 1360; Sb (0) = Ib (0) = C(0) = R(0) = 0. The main results can
be observed at Figure 3.

Figure 3- Solution for the acumulated population of Infected Pregnants, Babies and Dead Babies.

The Figure shows the cumulative populations of infected pregnants, infected babies and
dead babies due to syphilis. Such results indicate the growth of these populations. Considering
that the input data correspond to the state of the Brazilian population in 2017, so the numerical
experiment reproduces 2018 dynamics. The goal was to compare the simulation with the real
data. We observe the results are in agreement with those observed through official data (14)
that registred 63983 cases of pregnantes with syphilis, 26219 cases of infected babies and 241
dead babies in 2018. So the experiment presented a plausible result when compared to official
statistics. The results for male and female infected followed the same behavior (2).

4. CONCLUSIONS

In view of the importance of syphilis in Brazil, where the number of cases is alarming,
strongly affecting the population of pregnant women, studies that help to understand the
transmission process in this population and its impact on infant mortality are of great use. The
work proposes a mathematical model for the vertical transmission of syphilis that was tested
with the data provided publicly by the Ministry of Health, showing itself to be an interesting
tool in the estimation of new cases, which constitutes important information in planning to
combat the epidemic in Brazil.

Acknowledgements

This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de Nı́vel
Superior - Brasil (CAPES) - Finance Code 001.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

898
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

[1] ABDULLAHI, A. A.; OYENIYI, R. B.; AKITUNDE, M. A. On existence and uniqueness


of Syplilis model. Mathematical Modeling and Applications, 1(2), 2016, p. 55-58. Doi:
10.11648/j.mma.20160102.14.
[2] ALBUQUERQUE, D. S.; DIAS, C. M. Modelagem da Sı́lis Adquirida no Brasil. Anais do I
ERMAC-MS, Encontro Regional de Matemática Aplicada e Computacional, Matogrosso do Sul,
2020.
[3] AVELLEIRA, J. C. R.; BOTTINO, G. Sı́filis: diagnóstico, tratamento e controle. An.
Bras. Dermatol. Vol.81. no.2. Rio de Janeiro. Mar./Apr. 2006. Doi: 10.1590/S0365-
05962006000200002.
[4] DERRICK, N.; GROSSMAN, S. Differential Equations with Applications. Philippines, Addison
Wesley Publishing Company, Inc, 1976.
[5] FARHI, D.; DUPIN, N. Origins of Syphilis and management in the immunocompetent patient:
facts and controversies. Clinics in Dermatology, 28(5), 2010, p. 533-538.
[6] GARNETT G. P.; ARAL S. O.; HOYLE D. V.; CATES W. J.; ANDERSON R. M. The natural
history of syphilis: Implications for the transmission dynamics and control of infection. Sexually
Transmited Diseases, 1997, p. 185-200.
[7] GRASSLY N. C.; FRASER C.; GARNETT G. P. Host immunity and synchronized epidemics of
syphilis across the United States. Nature VOL 433, 2005, p. 417-421.
[8] GUMEL A. B.; LUBUMA J. M. S.; SHAROMI O.; TEREFE Y. A. Mathematics of a sex-
structered model for syphilis transmission dynamics. Math Meth Appl Sci, 2018, p. 1-25. doi:
10.1002/mma.4734.
[9] IBGE. Instituto Brasileio de geografia e Estatı́stica. https://agenciadenoticias.ibge.gov.br (acess:
05/04/20).
[10] IBOI E.; OKUONGHAE D. Population dynamics of a mathematical model for syphilis. Applied
Mathematical Modelling, 2015, p. 1-33. doi: 10.1016/j.apm.2015.09.090.
[11] KRUIF, P. de Ch. 7. Schaudinn: The pale horror. Men Against Death. New York, Itarcourt, 1932.
[12] LIMA, B. G. C. Mortalidade por sı́filis nas regiões brasileiras, 1980-1995. J. Bras. Patol. Med.
Lab. Vol.38, no.4. Rio de Janeiro, 2002. doi: 10.1590/S1676-24442002000400004.
[13] MILNER F.; ZHAO R. A New Mathematical Model of Syphilis. Mathematical Modelling of
Natural Phenomena, 2010, p. 1-17. doi: 10.1051/mmnp/20105605.
[14] [MS, 2019]MS. Ministério da Saúde, Secretaria de Vigilância em Saúde. Boletim Epidemiológico
Sı́filis 2019. Número Especial, Out. 2019.
[15] OKUONGHAE, D.; GUMEL A. B.; IKHIMWIN B. O.; IBOI E. Mathematical Assessment of
the Role of Early Latent Infections and Targeted Control Strategies on Syphilis Transmission
Dynamics. Springer Nature B.V., 2018. doi: 10.1007/s10441-018-9336-9.
[16] MS/SUS/DCCI. Ministério da
Saúde, Secretaria de Vigilância em Saúde, Departamento de Doenças de Condições Crônicas e
Infecções Sexualmente Transmissı́veis. https://Indicadoressifilis.aids.gov.br (acess: 05/04/20).
[17] Wordl Health Organization. https://www.who.int/ (acess: 16/06/20).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

899
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

REDES NEURAIS ARTIFICIAIS NA MODELAGEM DA PRODUTIVIDADE DE


GRÃOS DE AVEIA EM FUNÇÃO DA DENSIDADE DE SEMEADURA E
COMPONENTES DA PANÍCULA

Vanessa Pansera1 – vpansera@hotmail.com


Odenis Alessi1 – odenisalessi@hotmail.com
Karla Kolling1 – kolling.karla@gmail.com
Cibele Luisa Peter1 – cibele.peter2017@gmail.com
José Antonio Gonzalez da Silva2 – jagsfaem@yahoo.com.br
1
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Ciências
Exatas e Engenharias – Ijuí, RS, Brasil
2
Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Departamento de Estudos
Agrários – Ijuí, RS, Brasil

Resumo. As redes neurais artificiais (RNAs) são importantes aliadas na descrição de


processos agrícolas. A aveia tem seu cultivo afetado pela densidade de semeadura, que
influencia nos indicadores relativos à panícula, trazendo impactos sobre a produtividade de
grãos. O objetivo deste trabalho é treinar um modelo de RNA para estimar a produtividade
de grãos de aveia, em função da densidade de semeadura e do índice de colheita da panícula.
Para a realização do estudo, foi desenvolvido um experimento em condições reais de cultivo,
com delineamento de blocos casualizados, com 4 repetições. Foi empregada uma RNA
feedforward, Perceptron multicamadas, com 1 camada de entrada, 1 camada oculta e 1
camada de saída. Foram utilizados 2 neurônios de entrada, 4 neurônios ocultos e 1 neurônio
de saída. O algoritmo de aprendizado aplicado foi Levenberg-Marquardt backpropagation e
a função de ativação utilizada foi a tangente hiperbólica. As simulações apresentaram erro
percentual médio de 2,9%, com erros menores que os desvios-padrão dos dados
experimentais. A RNA desenvolvida modela com eficiência a produtividade de grãos de aveia,
considerando densidade de semeadura e índice de colheita da panícula.

Palavras-chave: Modelagem matemática, Modelagem computacional, Inteligência artificial,


Simulação, Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

900
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Os modelos matemáticos e computacionais são importantes aliados na descrição de


processos agrícolas, visto que estes sistemas possuem alta complexidade devido ao fato de
sofrerem influências meteorológicas constantemente. Neste contexto, destacam-se as técnicas
de inteligência artificial, como as redes neurais artificiais (RNAs). As RNAs são estruturas
matemáticas baseadas em sistemas neurais biológicos e, através de procedimentos
computacionais, possuem a capacidade de extrair conhecimento de conjuntos de dados
apresentados, possibilitando a realização de simulações (Galvão et al., 2018; Silva &
Schimiguel, 2020).
Na agricultura, uma cultura que possui extrema importância é a aveia (Avena sativa)
(Coelho et al., 2018). A aveia é um cereal cultivado em estação fria, com diversos empregos
no contexto agrícola e também com benefícios para a alimentação humana, por possuir fibras
que são capazes de reduzir o colesterol LDL do sangue, popularmente conhecido por
colesterol ruim, além de prevenir doenças cardiovasculares, dentre outros benefícios (Liu et
al., 2018; Forte et al., 2018; Mantai et al., 2020).
O cultivo deste cereal é dependente das condições meteorológicas do ano agrícola e das
práticas de manejo empregadas (Marolli et al., 2018). Dentre estas práticas, pode-se citar a
densidade de sementes utilizada no momento da semeadura, ou seja, a quantidade de
sementes que é utilizada por metro quadrado. A densidade de semeadura influencia nos
componentes da panícula, parte da planta em que são formados os grãos. Os componentes
relacionados à panícula, por sua vez, influenciam na produtividade de grãos obtida durante a
safra. Neste contexto, o índice de colheita da panícula é um indicador relevante, pois é obtido
pela relação entre a massa de grãos da panícula e a massa da panícula (Scremin et al., 2017;
Mantai et al., 2020).
A construção de modelos por redes neurais artificiais, que considerem a densidade de
semeadura e indicadores de componentes da panícula, podem auxiliar na predição de safras de
aveia. Neste sentido, o objetivo deste estudo é treinar um modelo de RNA para estimar a
produtividade de grãos de aveia, em função da densidade de semeadura e do índice de
colheita da panícula.

2. METODOLOGIA

Para o desenvolvimento da pesquisa, foram obtidos dados experimentais em condições


reais de cultivo em dois anos agrícolas, 2018 e 2019, visando construir um modelo confiável,
tendo em vista que as condições meteorológicas podem variar em anos distintos. Foi realizado
um experimento em delineamento de blocos casualizados, com 4 repetições, com 2
tratamentos envolvendo cultivares de aveia (URS Taura e Brisasul) e 4 tratamentos relativos a
tipos de semeadura, usando variações de densidade (100, 300, 600 e 900 sementes m -2), no
sistema de sucessão soja-aveia. Nas análises foram considerados os resultados médios de
ambas cultivares conjuntamente, tendo em vista que a URS Taura apresenta comportamento
de baixo afilhamento e a Brisasul possui alto afilhamento, que é a capacidade de uma planta
gerar novas plantas (afilhos) no processo inicial de desenvolvimento. Este experimento foi
realizado no Instituto Regional de Desenvolvimento Rural (IRDeR) pertencente à
Universidade Regional do Noroeste do Estado do Rio Grande do Sul (UNIJUÍ) no município
de Augusto Pestana-RS. As parcelas experimentais possuíam 5 linhas de 5 m de comprimento
e espaçamento entrelinhas de 0,2 m, totalizando 5 m². Para verificar a existência de efeitos
significativos dos tratamentos, foi aplicada análise de variância (ANOVA), com nível de
significância de 5%. Após isto, com os dados obtidos pela bioexperimentação, foram
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

901
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

interpoladas as densidades de 200 sementes m-2, 400 sementes m-2, 500 sementes m-2, 700
sementes m-2 e 800 sementes m-2.
As variáveis de interesse relacionadas à produtividade de grãos (PG) e ao índice de
colheita da panícula (ICP) foram obtidas ao fim do ciclo da cultura. A variável PG foi obtida a
partir da colheita das três linhas centrais de cada parcela experimental, que foram
direcionadas ao laboratório para correção da umidade de grãos para 13% e posterior pesagem,
convertendo os valores para a unidade de um hectare. Para a obtenção da variável ICP, foram
mensurados os dados de cinco panículas de cada parcela, considerando o ICP médio destas
panículas. O ICP é dado pela Eq. (1)

MGP
ICP  (1)
MP

em que MGP é a massa de grãos da panícula e MP é a massa da panícula, ambas em gramas.


Na modelagem matemática e computacional do comportamento da produtividade de
grãos de aveia, foi utilizada uma RNA Perceptron multicamadas, do tipo feedforward, com
uma camada de entrada, uma oculta e uma de saída. A função de ativação utilizada foi a
tangente hiperbólica e no treinamento da rede foi empregado o algoritmo de aprendizado
Levenberg-Marquardt backpropagation. Este algoritmo é amplamente utilizado no
treinamento de redes multicamadas e uma de suas vantagens em relação aos outros métodos é
a rápida convergência em redes de tamanho moderado, sendo capaz de produzir um melhor
resultado com alta precisão. Uma de suas desvantagens aos outros métodos, porém, é a alta
demanda de memória que pode ocorrer, causando sobrecarga computacional (Hamid et al.,
2017; Ansari et al., 2018; Lv et al., 2018). Entretanto, devido ao tamanho da estrutura de
RNA utilizada neste trabalho, a demanda computacional exigida pelo método não influenciou
negativamente no processo de treinamento, sendo consideradas suas vantagens na sua
escolha.
As análises foram realizadas na ferramenta Neural Network Start do software MatLab.
Na camada de entrada foram utilizados dois neurônios, um para cada variável de entrada,
sendo elas a densidade de semeadura e o índice de colheita da panícula. A camada de saída foi
composta por um neurônio, caracterizando a variável de saída relativa à produtividade de
grãos. Quanto ao número de neurônios na camada oculta, a quantidade foi definida seguindo a
metodologia de De Mamann et al. (2019), que testa quantidades com diferença igual ao
superior a dois neurônios em relação à camada de entrada e a escolha é determinada pelos
menores erros quadráticos médios de treino e de validação. Assim, foram testadas estruturas
que possuíam de 4 a 8 neurônios na camada oculta, a fim de definir a melhor estrutura para a
RNA.
As RNAs foram desenvolvidas utilizando os dados experimentais, considerando
conjuntamente os efeitos de ambos anos agrícolas e de ambas cultivares para as nove
densidades de semeadura obtidas, com as quatro repetições realizadas, para confiabilidade dos
dados (totalizando 36 amostras). Os dados foram separados aleatoriamente na proporção de
70%, 15% e 15%, respectivamente, para a realização do treinamento, validação e teste das
RNAs. Para estes processos, os dados de entrada e de saída foram normalizados através da
Eq. (2)

2.( R  Rmin )
N= 1 (2)
( Rmax  Rmin )

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

902
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

em que N é o valor normalizado, R é o valor real a ser normalizado, e Rmin e Rmax são os
valores mínimo e máximo do conjunto de dados reais, respectivamente. Esta normalização
adequou os valores no intervalo considerado pela função de transferência (De Mamann et al.,
2019).
Para realizar as simulações foram consideradas as densidades e os valores médios de ICP.
A produtividade de grãos simulada em cada caso foi comparada com a respectiva
produtividade média de grãos obtida experimentalmente. Para análise dos dados, foram
comparados os valores absolutos e percentuais de desvio-padrão dos dados experimentais e os
erros absolutos e percentuais das simulações.

3. RESULTADOS E DISCUSSÕES

Após a realização dos procedimentos experimentais, os dados foram submetidos à


ANOVA, que indicou significância nos tratamentos aplicados. Neste sentido, os dados foram
organizados para posterior realização da modelagem via redes neurais artificiais. Na Tabela 1,
é possível observar os valores médios obtidos para as variáveis ICP e PG, considerando
conjuntamente os efeitos de ano agrícola e de cultivar, em cada densidade de semeadura
utilizada.

Tabela 1 - Valores médios do índice de colheita da panícula e da produtividade de grãos em


cada densidade de semeadura.

Densidade Índice de colheita da panícula* Produtividade de grãos


-2
(sementes m ) (kg ha-1)
100 0,903 1387
200 0,871 1703
300 0,839 2020
400 0,860 2160
500 0,855 2306
600 0,850 2452
700 0,852 2222
800 0,850 2278
900 0,849 2333
* O índice de colheita da panícula é obtido pela razão entre duas massas medidas em gramas,
então este índice não possui unidade de medida.

Percebe-se bons índices de colheita da panícula com valores iguais ou superiores a 0,839,
chegando a atingir 0,903, sendo que quanto mais próximo o índice é de 1, mais significativa é
a massa de grãos da panícula em relação à massa total da mesma. Trabalhos envolvendo
densidade de semeadura e características da panícula vêm sendo desenvolvidos. Marolli et al.
(2017) definiram a dose ótima de regulador de crescimento em aveia, utilizando variáveis
ligadas à panícula, através de modelos de regressão. Scremin et al. (2017) analisaram as
diferentes relações entre a densidade de semeadura e a época de aplicação de nitrogênio, na
obtenção de uma melhor supressão do azevém e maior expressão dos caracteres de produção
de aveia, utilizando regressões e outros modelos estatísticos. Mantai et al. (2020) analisaram a
contribuição e a dinâmica das relações dos componentes da panícula da aveia com a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

903
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

produtividade de grãos e produtividade industrial, através de modelos estatísticos,


considerando efeitos da aplicação de nitrogênio como fertilizante.
Após normalizados os dados amostrais, foram testados de 4 a 8 neurônios na camada
oculta do modelo de simulação via RNA. Os erros quadráticos médios de treino, validação e
teste obtidos em cada estrutura estão apresentados na Tabela 2. A quantidade de 4 neurônios
ocultos proporcionou os menores erros quadráticos médios de treino e de validação, com
valores respectivos de 0,0117 e 0,0214, e com erro reduzido também quanto ao teste, com
valor de 0,0179. Cabe acrescentar que estes números não possuem unidade de medida, por
estarem relacionados aos dados normalizados, que envolvem a razão entre grandezas.

Tabela 2 - Erros quadráticos médios de treino, validação e teste em cada estrutura de RNA.

Neurônios na camada oculta EQMTR* EQMV* EQMTE*


4 0,0117 0,0214 0,0179
5 0,0829 0,0507 1,9212
6 0,1440 0,3563 0,1966
7 0,0756 0,1087 0,2141
8 0,0189 0,0301 0,0171
EQMTR= erro quadrático médio de treino; EQMV= erro quadrático médio de validação;
EQMTE= erro quadrático médio de teste; *= não possui unidade de medida devido à relação
com dados normalizados.

Na Tabela 3, são apresentadas as produtividades médias de grãos observadas


experimentalmente em cada densidade de semeadura, conjuntamente ao desvio-padrão
absoluto e percentual relativo à cada uma destas médias. Além disso, são apresentados os
valores de produtividade simulados pelo modelo via RNA e os respectivos erros absolutos e
percentuais.

Tabela 3 - Produtividades de grãos observadas e simuladas, desvios-padrão dos dados


experimentais e erros obtidos do modelo de RNA, em cada densidade de semeadura.

Densidade PGObs DPAbs DPPerc PGSim ErroAbs ErroPerc


(sementes m-2) (kg ha-1) (kg ha-1) (%) (kg ha-1) (kg ha-1) (%)
100 1387 177 12,8 1374 13 0,9
200 1703 244 14,3 1733 30 1,8
300 2020 324 16,0 1973 47 2,3
400 2160 478 22,1 2080 80 3,7
500 2306 315 13,7 2276 30 1,3
600 2452 215 8,8 2359 93 3,8
700 2222 435 19,6 2369 147 6,6
800 2278 332 14,6 2371 93 4,1
900 2333 341 14,6 2371 38 1,6
Média 318 15,2 63 2,9
PGObs= produtividade de grãos observada na bioexperimentação; DPAbs= desvio-padrão
absoluto; DPPerc= desvio-padrão percentual; PGSim= produtividade de grãos simulada pela
rede neural artificial; ErroAbs= erro absoluto; ErroPerc= erro percentual.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

904
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

De modo geral, é possível perceber erros absolutos reduzidos quando comparados aos
valores de desvio-padrão dos dados experimentais. Além disso, percebe-se um erro percentual
médio baixo, com valor de 2,9%, enquanto o desvio-padrão percentual dos dados
experimentais é de 15,2%. Esses resultados evidenciam a eficiência do modelo via RNA
desenvolvido na simulação da produtividade de grãos de aveia.
Diversos trabalhos vêm sendo desenvolvidos com o uso de redes neurais artificiais
envolvendo plantas, também com resultados satisfatórios. Trindade et al. (2016) avaliaram a
eficiência da estimação simultânea de índices morfométricos da copa de árvores de eucalipto
através de redes neurais artificiais, que demonstraram adequabilidade e precisão para estimar
os índices. Magalhães Junior, Santos e Sáfadi (2019) classificaram imagens radiografadas de
sementes de girassol quanto ao seu nível de dano. Oda et al. (2019) analisaram a estabilidade
e adaptabilidade do rendimento de grãos de soja, utilizando métodos tradicionais e redes
neurais artificiais. Neste sentido, é evidenciada a eficiência das RNAs na resolução de
problemas no contexto agrícola.

4. CONCLUSÕES

As variáveis de entrada envolvendo a densidade de semeadura e o índice de colheita da


panícula são adequadas na obtenção de um modelo de simulação da produtividade de grãos de
aveia.
O modelo desenvolvido via rede neural artificial com três camadas, uma de entrada com
2 neurônios, uma oculta com 4 neurônios e uma de saída com 1 neurônio, estima com
eficiência a produtividade de grãos de aveia, com erro médio de simulação de apenas 2,9%,
inferior ao valor de desvio-padrão percentual dos dados experimentais.

Agradecimentos

À CAPES, ao CNPq, à FAPERGS e à UNIJUÍ pelos recursos financeiros e estrutura


física e material necessários para realização da pesquisa.

REFERÊNCIAS

Ansari, H.R.; Zarei, M.J.; Sabbaghi, S.; Keshavarz, P. (2018), A new comprehensive model for relative viscosity
of various nanofluids using feed-forward back-propagation MLP neural networks. International
Communications in Heat and Mass Transfer, 91, 158-164.
Coelho, A.P.; de Faria, R.T.; Dalri, A.B.; Palaretti, L.F.; Zanini, J.R. (2018), Clorofilômetro portátil como forma
de manejo da irrigação e adubação nitrogenada em aveia-branca. Revista Brasileira de Agricultura Irrigada,
12, 2542-2553.
De Mamann, A.T.W.; da Silva, J.A.G.; Binelo, M.O.; Scremin, O.B.; Kraisig, A.R.; Carvalho, I.R.; Pereira,
L.M.; Berlezi, J.D.; Argenta, C.V. (2019), Artificial intelligence simulating grain productivity during the
wheat development considering biological and environmental indicators. Journal of Agricultural Studies, 7,
197-212.
Forte, C.T.; Galon, L.; Beutler, A.N.; Perin, G.F.; Pauletti, E.S.S.; Basso, F.J.M.; Holz, C.M.; Santin, C.O.
(2018), Coberturas vegetais do solo e manejo de cultivo e suas contribuições para as culturas agrícolas.
Revista Brasileira de Ciências Agrárias, 13, 1-10.
Galvão, G.F.P.; Carvalho, W.; Rocha, W.; Costa, J.C. da S. (2018), Visão computacional para detecção de
doenças fúngicas na agricultura. Única Cadernos Acadêmicos, 2, 1-20.
Hamid, W.A.S.H.W.A.; Hussin, M.F.; Samsudin, K.; Yassin, A.I.M.; Rafi, A.M. (2017), Disaster management
system based on Levenberg-Marquardt algorithm artificial neural network. International Journal of
Electrical and Electronic Systems Research, 11, 1-8.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

905
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Liu, N.; Nguyen, H.; Wismer, W.; Temelli, F. (2018), Development of an orange-flavoured functional beverage
formulated with beta-glucan and coenzyme Q10-impregnated beta-glucan. Journal of Functional Foods, 47,
397-404.
Lv, C.; Xing, Y.; Zhang, J.; Na, X.; Li, Y.; Liu, T.; Cao, D.; Wang, F. (2018), Levenberg–Marquardt
Backpropagation training of multilayer neural networks for state estimation of a safety-critical cyber-
physical system. IEEE Transactions on Industrial Informatics, 14, 3436 – 3446.
Magalhães Junior, A.M.; Santos, P.R.; Sáfadi, T. (2019), Utilização de redes neurais artificiais na classificação
de danos em sementes de girassol. Sigmae, 8, 569-575.
Mantai, R.D.; da Silva, J.A.G.; Binelo, M.O.; Sausen, A.T.Z.R.; Rossi, D.S.; Corso, J.S. (2020), Nitrogen
management in the relationships between oat inflorescence components and productivity. Revista Brasileira
de Engenharia Agrícola e Ambiental, 24, 385-393.
Marolli, A.; da Silva, J.A.G.; Mantai, R.D.; Brezolin, A.P.; Gzergorczick, M.E.; Lambrecht, D.M. (2017), Oat
yield through panicle components and growth regulator. Revista Brasileira de Engenharia Agrícola e
Ambiental, 21, 261-266.
Marolli, A.; da Silva, J.A.G.; Sawicki, S.; Binelo, M.O.; Scremin, A.H.; Reginatto, D.C.; Dornelles, E.F.;
Lambrecht, D.M. (2018), A simulação da biomassa de aveia por elementos climáticos, nitrogênio e
regulador de crescimento. Arquivo Brasileiro de Medicina Veterinária e Zootecnia, 70, 535-544.
Oda, M. do C.; Sediyama, T.; Matsuo, E.; Nascimento, M.; Cruz, C.D. (2019), Estabilidade e adaptabilidade de
produção de grãos de soja por meio de metodologias tradicionais e redes neurais artificiais. Scientia Agraria
Paranaensis, 18, 117-124.
Scremin, O.B.; Mantai, R.D.; Brezolin, A.P.; Marolli, A.; Scremin, A.H.; da Silva, J.A.G.; De Mamann, A.T.W.;
Scremin, J.P.P.; Faganello, J.; Scremin, G. (2017), A densidade de semeadura e fracionamento do
nitrogênio (N) na produtividade de grãos e supressão do azevém em cultivares de aveia branca. Proceeding
Series of the Brazilian Society of Applied and Computational Mathematics, 5, 1-7.
Silva, M.J.; Schimiguel, J. (2020), Identificação de doenças em plantas por meio de processamento de imagens:
redes neurais convolucionais como auxílio à agricultura. Revista Ubiquidade, 3, 91-111.
Trindade, R.N.R.; Aguiar, V.F.; Alves, E.H.M.; Penido, T.M.A; Vieira, V.D.; Lafetá, B.O.; Sugawara, M.T.
(2016), Modelagem da copa de árvores de eucalipto empregando redes neurais artificiais. Revista UniVap,
22.

ARTIFICIAL NEURAL NETWORKS IN THE MODELING OF OAT GRAIN


PRODUCTIVITY IN FUNCTION OF THE SEEDING DENSITY AND PANICLE’S
COMPONENTS

Abstract. Artificial neural networks (ANNs) are important allies in the description of
agricultural processes. The cultivation of oat is affected by the seeding density, which
influences the indicators related to panicles, bringing impacts on grain productivity. The
objective of this study is to train an ANN model to estimate the oat grain productivity, as a
function of seeding density and the panicle harvest index. For this study, an experiment was
developed under real cultivation conditions, with a randomized block design, with 4
replications. The ANN used was feedforward, multilayer Perceptron, with 1 input layer, 1
hidden layer and 1 output layer. It was used 2 input neurons, 4 hidden neurons and 1 output
neuron. The learning algorithm applied was Levenberg-Marquardt backpropagation and the
activation function used was the hyperbolic tangent. The simulations showed an average
percentage error of 2.9%, with errors smaller than the standard deviations of the
experimental data. The developed ANN efficiently models the oat grains productivity,
considering seeding density and panicle harvest index.

Keywords: Mathematical modeling, Computational modeling, Artificial intelligence,


Simulation, Avena sativa

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

906
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

RIGIDEZ DA PLACA VOLAR DE AÇO INOXIDÁVEL 316L SOB TRAÇÃO E


COMPRESSÃO

Lucas Verdan Masiero1 – verdanmasiero@gmail.com


Ivan Napoleão Bastos1 – inbastos@iprj.uerj.br
Lucas Venancio Pires de Carvalho Lima1 – lucaslima@iprj.uerj.br
1
Instituto Politécnico, Universidade do Estado do Rio de Janeiro, Nova Friburgo, RJ, Brasil

Resumo. As placas volares têm sido cada vez mais utilizadas em procedimentos cirúrgicos
que visam estabilizar fraturas na região distal do rádio. No Brasil, a maioria das placas é
produzida com aço inoxidável austenítico. O objetivo deste trabalho é comparar, por meio de
um modelo paramétrico em elementos finitos, a rigidez sob esforços de tração e compressão
de uma estrutura composta por um rádio fraturado, uma placa volar e parafusos de fixação.
Estudou-se um modelo de placa feito de aço inoxidável 316L (ASTM F138). As simulações
numéricas foram realizadas trabalhando-se em conjunto com dois softwares de cálculos
numéricos, Matlab e Ansys Mechanical. Foram aplicados esforços de tração e de
compressão, com esfera de 5,0 mm de diâmetro e também com carregamento pontual. Os
resultados obtidos revelaram não uniformidades nos valores de rigidez obtidos tanto para
compressão quanto para tração, devido principalmente à geometria complexa do sistema.
Além disto, notou-se que para o ensaio de compressão pontual, houve contato entre a parte
distal do osso e a face externa da região proximal. Em ambas as simulações atingiu-se o
limite de escoamento do aço antes de se aplicar o deslocamento máximo de 1,0 mm.

Palavras-chave: Placa volar, Aço inoxidável 316L (ASTM F318), Método dos Elementos
Finitos.

1. INTRODUÇÃO

As fraturas no rádio distal ocorrem, por ano, em cerca de trinta e duas a cada dez mil
pessoas (Mulders et al., 2019) e sua incidência está crescendo em todo o mundo (MacIntyre &
Dewan, 2016). Uma das formas de tratamento mais utilizadas para tais fraturas é o uso de
placas volares, devido a sua eficácia no tempo de recuperação e na retomada dos movimentos
por parte dos pacientes, além das complicações funcionais causadas pelos demais tipos de
tratamento (Mulders et al., 2019). Com o aumento de cirurgias com uso de placa volar, surgiu
uma variedade de modelos de implante, apresentando diferentes formatos, como tamanho,
disposição dos parafusos e material utilizado (Souer et al., 2010). O aço inoxidável é o
material mais utilizado para implantes ortopédicos no Brasil, devido a fatores como a
resistência mecânica e o baixo custo (Fonseca et al., 2011). Na literatura internacional, a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

907
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

maioria dos casos estudados refere-se ao titânio comercialmente puro ou à liga Ti6Al4V pois
apresenta vantagens técnicas em relação ao aço inoxidável, como maior resistência à
corrosão, mais baixo módulo de elasticidade e maior limite de escoamento. Entretanto, no
Brasil, os implantes usados no SUS (Sistema Único de Saúde) são essencialmente de aço
inoxidável austenítico 316L (ASTM F138) por motivo do custo mais baixo, tornando
necessário estudar seu comportamento mecânico.
Neste trabalho avaliou-se o comportamento mecânico do sistema constituído por uma
placa volar de aço e o rádio com uma fratura transversal no antebraço com espaçamento de
1,0 mm, sob carregamento trativo e compressivo. Duas maneiras de se realizar carregamentos
de compressão e tração foram definidos e estudados.

2. METODOLOGIA

Para que fossem realizadas as simulações numéricas, construiu-se um modelo em


elementos finitos composto pelo rádio, placa volar e parafusos de fixação, simulando-se uma
fratura de espaçamento constante (1,0 mm) a 25 mm da superfície distal do osso (Lin et al.,
2012; Lin, Yu-Hao e Chen, 2006) (Fig. 1). A modelagem foi realizada por meios de rotinas
computacionais em interface, onde o Matlab R2019a foi utilizado para criar linhas de código
na linguagem APDL (Ansys Parametric Design Language) para posteriormente serem
executados no Ansys Mechanical 19.2 APDL (software de elementos finitos).

Figura 1 – Geometria do modelo do rádio e placa volar em elementos finitos.

2.1 Obtenção da geometria

A primeira etapa da construção da geometria foi a elaboração da malha da superfície


interna e externa do rádio (Fig. 2a). A geração da malha objetiva discretizar a geometria em
um número finito de graus de liberdade. Para isso, um arquivo STL (Stereolithography)
contendo uma malha triangular superficial, oriunda da geometria de um rádio, foi importado
para o Matlab. A geometria do osso estava disponível na base de dados LifeScience
(http://lifesciencedb.jp/bp3d/), que disponibiliza modelos superficiais anatômicos em 3D de
diferentes órgãos e membros do corpo humano.
Com intuito de gerar uma malha superficial em quadriláteros, no Matlab, foram obtidas a
interseção entre diversos planos transversais com o modelo superficial de osso, denominadas
aqui como “cortes”. Em cada plano de corte, o contorno da interseção foi discretizado em
diferentes linhas que foram posteriormente conectados com nós das superfícies de diferentes
planos, para dessa forma se criar uma malha superficial de quadriláteros. Visto a ausência de
informação sobre a espessura cortical, a malha interna foi feita por um offset da malha externa
com uma distância fixa dos planos da face da superfície original (Ross & Hambleton, 2015).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

908
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Com a malha superficial em quadriláteros obtida, a geometria do osso foi construída pela
criação de um cubo com uma malha volumétrica em formato hexaédrico, semelhante à obtida
no passo descrito anteriormente, com cada nó da superfície do cubo correspondendo a um nó
da malha superficial em quadriláteros do rádio. Posteriormente, o cubo formado passou por
um processo de deformação laplaciana a fim de assumir o formato do osso (Fig. 2b), e assim
se obter a malha volumétrica do rádio em hexaedros. A deformação laplaciana consiste em
um algoritmo de deformação representado por um problema de minimização quadrática, cuja
resolução de um sistema de equações lineares gera a superfície já deformada (Botsch et al.,
2007). Posteriormente, a malha da geometria formada foi suavizada por um filtro lambda-nu
(Taubin, 2001) implementado no Matlab (Fig. 3). Uma parte da malha também foi refinada,
por meio de um algoritmo de subdivisão de hexaedros (Schneiders, 2000), com o intuito de
ter uma maior discretização na área de inserção dos parafusos por “feature insertion”,
aumentando o número de elementos (9516 para 56780) e de nós (10680 para 58988).

Figura 2. a – Malha da superfície interna e externa do rádio em quadriláteros, b – Processo de


deformação laplaciana para o cubo corresponder às malhas superficiais descritas
anteriormente.

Figura 3 – Malha do rádio após o processo de suavização.

A geometria do implante (Fig. 4) foi elaborada por meio de uma rotina computacional
onde seu contorno foi desenhado no Ansys APDL no intuito de representar uma placa volar
típica. A partir de tal geometria, a placa foi importada para o Matlab onde a superfície da
mesma foi projetada sobre a superfície do rádio para modelar representar uma superfície que
se adequasse perfeitamente a superfície do osso. Para o contato entre placa volar e osso,
utilizou-se os elementos de contato superfície-superfície disponíveis na biblioteca do Ansys. A
superfície da placa foi definida como conta173, simulando o contato com a superfície do
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

909
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

rádio (targe170), definido como alvo. Entre os parafusos e o osso, empregou-se o contato via
conexões contínuas, enquanto que o contato entre a placa e osso foi do tipo superfície-
superfície, com coeficiente de atrito de 0,2. Os parafusos foram elaborados com um diâmetro
de 2,8 mm, estando conectados aos nós mais próximos da estrutura para fixar o implante no
osso. Tais componentes foram definidos como elementos de viga beam188. Ao todo, a
geometria foi composta por 77714 elementos (14455 para o conjunto placa-parafusos e 63259
para o osso) e 79388 nós (13713 para o conjunto placa-parafusos e 65675 para o osso).

Figura 4 – Placa volar com os parafusos.

2.2 Propriedades Mecânicas

As propriedades mecânicas de cada componente do modelo estão disponíveis na


Tabela 1. Para o osso foram atribuídas propriedades semelhantes às encontradas em estudos
disponíveis na literatura (Lin et al., 2012; Lin, Yu-Hao e Chen, 2006). Para a placa volar,
considerou-se de 200 GPa, de 0,28 e limite de escoamento ( ) de 352 MPa (Paredes,
Grolleau e Wierzbicki, 2020).

Tabela 1 – Propriedades mecânicas dos componentes do modelo.

Componentes Propriedades Mecânicas


E (GPa) (MPa)
Osso cortical 17 0,30 -
Osso esponjoso 1,3 0,30 -
Parafusos e placa 200 0,28 352

Para descrever a curva tensão vs deformação, a parte de comportamento após a tensão de


escoamento foi estimada por meio da equação de Hollomon (Bowen et al., 1974), dada pela
Eq. (1), a partir de valores de tensão e deformação real obtidos na literatura (Paredes,
Grolleau e Wierzbicki, 2020). O parâmetro α se refere ao coeficiente de resistência, enquanto
n é o coeficiente de endurecimento por deformação, sendo σ a tensão e ε a deformação.
Estimou-se α e n da equação de Hollomon para o aço inoxidável 316L (Paredes, Grolleau e
Wierzbicki, 2020) como 1291 MPa e 0,0831. Tais resultados foram obtidos por meio de uma
função de ajuste de curvas não linear (Eq.2), disponível na biblioteca do Matlab R2019a. Este
método de aproximação tem como dados de entrada a função que relaciona os parâmetros a
serem encontrados, além de uma estimativa inicial. Logo, encontram-se os valores ótimos dos
coeficientes fazendo-se uma minimização do somatório dos desvios quadráticos entre os
valores da função predita pelo modelo (Eq. 1) e os dados de entrada (neste caso, a tensão
experimental). Chegou-se então às curvas tensão vs deformação do aço utilizado (Fig. 5) por
meio da aproximação dos dados experimentais.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

910
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(1)

(2)

Figura 5 – Curva tensão vs deformação real e estimada via equação de Hollomon.


(PAREDES et al., 2020, com modificações).

Para as simulações numéricas realizadas no Ansys Mechanical, como não é possível


definir o comportamento do material através dos parâmetros de Hollomon, usou-se uma
aproximação multilinear para descrever o comportamento obtido descrito anteriormente.

2.3 Condições de carregamento

Numa campanha experimental, seria possível desenvolver diferentes metodologias de


ensaio. Entre diferentes configurações possíveis, podemos classificar duas condições:
a) Um carregamento pontual que permita liberdade à superfície livre para girar durante a
aplicação da carga.
b) Bloqueio de toda rotação da superfície distal, sendo assim ela se movimentaria apenas
por translação paralela.
Definiram-se os tipos e as magnitudes dos carregamentos utilizados nas simulações, de
acordo com as cargas fisiológicas sofridas pelo punho em atividades cotidianas. Em ambas as
condições, a extremidade proximal do rádio esteve engastada. Para os carregamentos pontuais
o modelo possui seis graus de liberdade, permitindo rotações e translações em todos os eixos.
Entretanto, para as cargas paralelas, as translações só foram permitidas no eixo paralelo ao do
deslocamento aplicado, totalizando quatro graus de liberdade. Visto a facilidade de controle
da simulação em elementos finitos, optou-se por simular ambos os métodos de aplicação
como carga pontual (Fig.6) e paralela (Fig 7).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

911
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 – Representação do implante e Figura 7 – Representação do implante e


direções dos deslocamentos pontuais. direções dos deslocamentos paralelos.

2.3.1 Cargas pontuais

A primeira simulação utilizou cargas pontuais, com condições de deslocamento


apresentadas na Figura 7. Para compressão, realizou-se o contato entre uma esfera de raio
5,0 mm e a superfície distal do osso, deslocando-se os nós da esfera mais distantes da
superfície do rádio, estando o centro da esfera a 5,1 mm desta superfície. Os deslocamentos
variaram de 0,1 a 1,0 mm. No caso da tração, a posição do ponto de aplicação da carga foi
definida como a média das coordenadas em x e y dos nós da face da superfície distal, distando
aproximadamente 5 mm desta região na direção z, sendo tais coordenadas coincidentes com o
centro da esfera para o ensaio simulado de compressão. Criaram-se elementos de viga rígidos
conectando este nó central com os nós da fronteira da face distal. Aplicaram-se deslocamentos
de 0,1 a 1,0 mm para o nó em questão.

2.3.2 Cargas paralelas

Para segunda simulação (Fig. 8), selecionaram-se os nós que compõem a face distal do
rádio e tais nós foram deslocados de maneira paralela, a fim de simular esforços de
compressão ou tração. Os deslocamentos utilizados foram os mesmos que no primeiro
método.

3. RESULTADOS E DISCUSSÕES

Para o cálculo da rigidez do sistema, observaram-se as forças de reação e deslocamentos


verticais (eixo z). As forças da seção foram obtidas pela soma de reação dos nós proximais
engastados, enquanto o deslocamento vertical foi considerado a condição-limite.
A partir das curvas carga-deslocamento, foi observada uma alteração abrupta na
declividade da curva (diminuição de rigidez) após 0,4 mm, assim empregou-se regressão
linear nas faixas de rigidez até 0,4 mm e acima de 0,5 mm. A rigidez do sistema foi obtida
pelo coeficiente angular das regressões lineares entre as diferentes áreas (Figuras 8 e 9).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

912
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 8 – Curvas carga vs deslocamento para as simulações de deslocamento pontual e a


rigidez estimada.

Figura 9 – Curvas carga vs deslocamento para as simulações de deslocamento paralelo e os


valores de rigidez obtidos.

Ademais, vale destacar que para ambos os carregamentos pontuais, o deslocamento de


0,4 mm foi suficiente para que a placa atingisse o limite de escoamento do material (Fig. 10a,
b), sendo esta a principal razão da diminuição da rigidez. No ensaio de compressão o contato
entre a superfície distal e proximal do rádio ocorreu para o deslocamento de 0,8 mm da esfera,
sendo que tal contato foi observado na superfície contrária à placa (dorsal), porém em nosso
modelo atual não foram adicionados elementos de contato entre estas duas superfícies, logo
num ensaio real esperaria-se um aumento de rigidez a partir desse ponto, mas o presente
modelo não considerou esta situação. Futuros trabalhos adicionarão estes contatos para
simular esta situação.
Para as simulações de deslocamento paralelo, é possível observar que os valores de carga
de reação foram próximos de 0,5 mm de deslocamento aplicado. Para tracionamento em
paralelo, o deslocamento de 0,4 mm do rádio distal foi suficiente para que o material atingisse
o limite de escoamento (Fig. 11b) e para compressão tal valor foi de 0,3 mm (Fig. 11a). Nota-
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

913
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

se que neste caso as curvas carga vs deslocamento possuem comportamento mais próximo do
linear se comparadas com as obtidas para as simulações de deslocamento pontual. Na
Tabela 2 temos as cargas de reação dos nós engastados e as tensões correspondentes, para os
deslocamentos que fizeram o aço atingir o limite de escoamento.

Tabela 2 - Carga de reação no limite de escoamento e a tensão equivalente de von Mises na


placa.

Método de carregamento Carga de reação (N) Tensão de von Mises (MPa)


Compressão Pontual 435 356
Compressão Paralela 1049 353
Tração Pontual 274 355
Tração Paralela 1053 356

MPa MPa

Figura 10a: Tensão equivalente de von Mises Figura 10b: Tensão equivalente de von Mises
para compressão pontual. para tração pontual.

MPa MPa

Figura 11a: Tensão equivalente de von Mises Figura 11b: Tensão equivalente de von Mises
para compressão paralela. para tração paralela.

Na Tabela 3 temos a rigidez obtida para cada simulação (compressão e tração) de acordo
com o carregamento pontual ou paralelo. Observa-se que o modo de carregamento altera
significativamente a estimativa da rigidez, destacando-se que o carregamento distribuído, ou
seja, em paralelo, seja em tração ou em compressão, resulta em maior rigidez. O
carregamento distribuído eleva consideravelmente a rigidez em relação à concentrada via
esfera de 5,0 mm. Além disto, a tensão hertziana no osso com a esfera de 5,0 mm produz uma
tensão de contato de 998 MPa no osso para a carga de 435 N.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

914
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3- Rigidez em função do modo de carregamento.

Método de aplicação de carga Rigidez mínima (N/mm) Rigidez máxima (N/mm)


Compressão Pontual 424 1130
Compressão Paralela 1555 2635
Tração Pontual 200 696
Tração Paralela 2473 2645

4. CONCLUSÕES

No presente trabalho foi estudada, por meio de um modelo em elementos finitos, a


influência do modo de carregamento na rigidez de uma placa volar de aço inoxidável 316L
(ASTM F138) implantada no rádio fraturado. Com base nas simulações realizadas foi
possível constatar que:
1) As não linearidades geométricas do sistema em relação ao ponto de aplicação do
momento reduz rigidez sob carga, não havendo manutenção da rigidez para a faixa de
deslocamento empregada.
2) Para cargas que promovem tensão acima do limite de escoamento, a rigidez se reduz
ainda mais.
3) Em tração e em compressão, deslocamentos abaixo de 1,0 mm promoveram tensões de
von Mises superiores ao limite de escoamento do aço inoxidável, causando
deformação permanente.
4) Em relação à faixa de deslocamentos de compressão, apenas para carregamento em
paralelo deslocou a parte distal do rádio suficientemente para haver contato com a face
externa da região proximal.
O principal limite deste trabalho é que a geometria foi baseada apenas na superfície
externa do rádio disponível. Trabalhos futuros deverão partir da segmentação óssea para uma
melhor representação do canal medular e espessura cortical. Apesar de tal limitação, a
modelagem em elementos finitos possibilita estudos in silico controlados, mesmo que em
ensaios in vitro exista uma infinidade de geometrias possíveis de rádio por questões de
variabilidade inter-indivíduos, sendo provável que as tendências obtidas no presente estudo se
mantenham mesmo com uma geometria de rádio diferente, mesmo que a magnitude dos
valores possa ser alterada.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001. Além deste, os
autores agradecem os apoios recebidos da Faperj e do CNPq. Os autores agradecem ao
anônimo revisor que sugeriu diversas melhorias no trabalho.

REFERÊNCIAS

Botsch, M. e Sorkine, O. (2007). On linear variational surface deformation methods. Institute of Electrical and
Electronics Engineers, v. 14, n. 1, p. 213-230.
Bowen, A. W. e Partridge, P. G. (1974). Limitations of the Hollomon strain-hardening equation. Journal of
Physics D: Applied Physics, 7(7), 969.
Chen, A. C. Y., Lin, Y. H., Kuo, H. N., Yu, T. C., Sun, M. T. e Lin, C. L. (2013). Design optimisation and
experimental evaluation of dorsal double plating fixation for distal radius fracture. Injury, 44(4), 527-534.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

915
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Durand, R., Pantoja-Rosero, B. G. e Oliveira, V. (2019). A general mesh smoothing method for finite
elements. Finite Elements in Analysis and Design, 158, 17-30.
Fonseca, E. e de Oliveira, L. F. C. (2011), Caracterização química e metalográfica dos aços inoxidáveis de
implantes removidos de pacientes, Acta Ortopédica Brasileira, v. 19, n. 5, p. 280-285.
Knežević, J., Kodvanj, J., Čukelj, F., Pamuković, F. e Pavić, A. (2017). A biomechanical comparison of four
fixed-angle dorsal plates in a finite element model of dorsally-unstable radius fracture. Injury, 48, S41-S46.
Lin, C., Lin, Y. H. e Chen, A. C. Y (2006). Buttressing angle of the double-plating fixation of a distal radius
fracture: a finite element study. Medical and Biological Engineering and Computing, v. 44, n. 8, p. 665-673.
Lin, Y. H., Lin, C. L., Kuo, H. N., Sun, M. T., e Chen, A. C. Y (2012). Biomechanical analysis of volar and
dorsal double locking plates for fixation in comminuted extra-articular distal radius fractures: a 3D finite
element study. Journal of Medical and Biological Engineering, v. 32, n. 5, p. 349-356.
MacIntyre, N. J. e Dewan, N. (2016). Epidemiology of distal radius fractures and factors predicting risk and
prognosis. The Journal of Hand Therapy, 29(2), 136-145.
McCall, T. A., Conrad, B., Badman, B. e Wright, T. (2007). Volar versus dorsal fixed-angle fixation of dorsally
unstable extra-articular distal radius fractures: a biomechanic study. The Journal of Hand Surgery, 32(6),
806-812.
Mulders, M. A., Walenkamp, M. M., van Dieren, S., Goslings, J. C. e Schep, N. W (2019). Volar plate fixation
versus plaster immobilization in acceptably reduced extra-articular distal radial fractures: a multicenter
randomized controlled trial. Journal of Bone and Joint Surgery, v. 101, n. 9, p. 787-796.
Osada, D., Fujita, S., Tamai, K., Iwamoto, A., Tomizawa, K. e Saotome, K. (2004). Biomechanics in uniaxial
compression of three distal radius volar plates. The Journal of Hand Surgery, 29(3), 446-451.
Paredes, M., Grolleau, V. e Wierzbicki, T. (2020). On ductile fracture of 316L stainless steels at room and
cryogenic temperature level: An engineering approach to determine material parameters. Materialia, 100624.
Ross, E. e Hambleton, D (2015). Exact face-offsetting for polygonal meshes. In Association for Computer-Aided
Design in Architecture International Conference (ACADIA), 202–209.
Schneiders, R. (2000). Algorithms for quadrilateral and hexahedral mesh generation. Proceedings of the VKI
Lecture Series on Computational Fluid Dynamic, VKI-LS, 4.
Souer, J. S., Ring, D., Matschke, S., Audige, L., Maren-Hubert, M. e Jupiter, J. (2010). Comparison of functional
outcome after volar plate fixation with 2.4-mm titanium versus 3.5-mm stainless-steel plate for extra-articular
fracture of distal radius. The Journal of Hand Surgery, 35(3), 398-405.
Taubin, G. (2001). Linear anisotropic mesh filters (pp. 110-51). IBM Research Technical Report RC-22213.

STIFFNESS OF 316L STAINLESS STEEL VOLAR PLATE UNDER TRACTION


AND COMPRESSION

Abstract. Volar plates have been increasingly used in surgical procedures that aim to
stabilize fractures in the radius's distal region. In Brazil, most plates are produced using
austenitic stainless steel. This work seeks to compare, through a parametric model in finite
elements, the stiffness under tensile and compression efforts of a structure composed of a
fractured radius, a volar plate, and fixing screws. A plate model made of stainless steel 316L
(ASTM F138) was studied. The numerical simulations were performed by working together
with two numerical calculation software, namely Matlab and Ansys Mechanical. The results
obtained showed non-uniformities in the values of stiffness obtained for both compression and
traction, mainly due to the non-linear geometry of the system. In addition, it was noted that
for the point compression test there was no contact between the distal part of the bone and the
external face of the proximal region. In both tests, the steel yield stress was reached before
the maximum displacement of 1.0 mm was applied.

Keywords: Volar plate, Stainless steel 316L (ASTM F138), Finite Element Method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

916
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DA RESISTÊNCIA À TRAÇÃO E MÓDULO DE ELASTICIDADE DE


COMPÓSITOS EPOXÍDICOS REFORÇADOS COM DIFERENTES FRAÇÕES
VOLUMÉTRICAS DE FIBRAS DE JUNCO-SETE-ILHAS

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Luana Cristyne da Cruz Demosthenes1 – eng.luanademosthenes@gmail.com
Andressa Teixeira Souza1 – Andressa.t.souza@gmail.com
Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Ulisses Oliveira Costa1 – ulissesolie@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo. As fibras extraídas do caule da planta de junco-sete-ilhas (cyperus malaccensis


lam.) foram investigadas como um possÍvel reforço para compósitos, visando descobrir uma
nova fibra para aplicações em engenharia. Por essa razão as fibras foram incorporadas em
uma matriz epóxi em diferentes frações volúmetricas de 10, 20 e 30%v/v e suas propriedades
mecânicas associadas a resistência à tração foram investigadas. As placas foram fabricadas
seguindo as dimensões de 150x15x2 mm conforme requerido pela norma ASTM D3039. A
análise estátistica dos resultados foram refeitas segundo um nível de confiança de 95% para
ANOVA e o teste de Tukey. Além disso, uma análise de Weibull foi aplicada e exibiu uma
grande confiança nos parâmetros Weibull.

Palavras-chave: Junco-sete-ilhas, Compósitos, Ensaio de Tração, ASTM D3039.

1. INTRODUÇÃO

Materiais compósitos é uma classe de materiais definida como um material composto


por, ao menos, dois materiais pertencente associados aos grandes grupos de materiais:
poliméricos, cerâmicos e metálicos. Necessitando possuir uma afinidade química
minimamente favorável de forma a se criar uma interface. Geralmente ao se desenvolver um
material compósito, é utilizado uma ou mais de uma fase denominada de fase reforço dispersa
em uma fase matriz de modo que o reforço aprimore determinadas propriedades da matriz
(Shekar et al., 2018).
Um interesse constante no emprego de compósitos de matriz polimérica reforçados com
fibras naturais é crescente. Esses compósitos não exigem muita energia para o seu

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

917
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

processamento e apresentam baixo custo. Além disso, a produção de fibras naturais necessita
de menos energia se comparado a fibras sintéticas como a de vidro. Cada tipo de fibra
lignocelulósica tem características morfológicas específicas em sua superfície, afetando de
diversas maneiras o comportamento mecânico dos compósitos, sendo capaz de melhorar as
suas propriedades mecânicas de forma satisfatória. O uso dessas fibras em materiais
compósitos é fortemente promissor, visando um futuro que utilize materiais ecologicamente
corretos, resistentes e com baixo custo (Balla et al., 2019). Ainda foi descoberto em estudos
que os compósitos reforçados com fibras naturais possuem melhores resistências elétricas,
alta resistência à fratura, boas propriedades mecânicas e boas propriedades térmicas (Sanjay et
al., 2019).
Além disso, outros estudos indicam que a fração em peso das fibras afeta diretamente as
propriedades relacionadas a resistência à tração e flexão dos compósitos reforçados com
fibras naturais. Essas propriedades crescem gradualmente e depois decrescem após alcançar
um valor de pico correspondente a uma fração ideal de peso para fibra. Entretanto, esse valor
não é fixo e varia de fibra para fibra (Khan et al., 2018).
Em virtude disso, o presente trabalho, buscou avaliar a utilização de uma fibra de junco
extraída da planta junco-sete-ilhas (Cyperus malaccensis Lam.) proveniente da região do Vale
do Ribeira, situada no Sul de São Paulo, se tornando o único estado produtor desse tipo de
junco na América e apresenta cerca de 50 hectares de área cultivada em várzea alagada
(Hiroce et al., 1988; Scifoni et al., 2008).
Sendo pela primeira vez realizado o emprego do junco-sete-ilhas como fase reforço em
uma matriz epóxi, visando analisar a sua aplicação em forma de fibras contínuas e alinhadas
com o intuito de comparar o comportamento das frações volúmetricas de 10, 20 e 30%v/v
referente as propriedades mecânicas de resistência à tração e módulo de elasticidade. Com a
finalidade de verificar a confiabilidade dos resultados foi realizado uma análise estatística do
resultado pelo meio da análise de variância (ANOVA) e o teste de Tukey.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

As fibras foram extraídas de uma esteira de junco-sete-ilhas adquiridas por meio da


empresa Artevale, localiza na cidade de Registro pertencente ao estado de São Paulo. Foram
utilizadas “in natura” e estavam na forma de caule, por isso foram limpas, desfiadas, e
cortadas em um comprimento equivalente a 150 mm e secas em estufa a 70° C por 24h com a
finalidade de se retirar a umidade presente. Além disso, as fibras não sofreram nenhum tipo
de tratamento químico.
O polímero termorrígido empregado como material da matriz para confecção da placa
compósita foi a resina epóxi comercial (DGEBA) fornecida pela distribuidora RESINPOXY
Ltda e fabricada pela empresa Dow Chemical do Brasil. O catalisador utilizado à resina foi o
Trietileno Tetramina (TETA), adotando a proporção estequiométrica de 13 partes de
endurecedor para 100 partes da resina.
Para a fabricação dos compósitos foi utilizada uma matriz metálica, sendo produzidas
placas em uma prensa SKAY de 30 toneladas, aplicando uma carga de 5 toneladas durante 24
horas. Uma camada de graxa de silicone foi adicionada em toda a superfície da matriz de
modo a evitar uma elevada aderência da placa na matriz e facilitar a retirada. As fibras foram
inseridas manualmente na matriz, alinhadas e distribuídas uniformemente pelo molde após
serem molhadas com a resina. Sendo divididos em três grupos diferentes baseados no seu
percentual de 10, 20 e 30% em volume.Para a realização da confecção dos corpos de prova as
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

918
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

fibras utilizadas foram cortadas com 150 mm de comprimento e inseridas em um forno


durante 24 horas previamente a confecção das placas. Foi produzido um total de 6 placas,
sendo duas placas para cada condição de fração volumétrica. A Fig. 1 representa o
equipamento utilizado e corpos de prova.

Figura 1: (a) Equipamento EMIC e (b) corpos de prova submetidos ao ensaio de tração.

As dimensões dos corpos de prova estão em conformidade com a norma ASTM


D3039. As placas foram posteriormente lixadas visando a retirada de rebarbas e um melhor
acabamento superficial, posteriormente foram cortadas com auxílio de uma serra nas
dimensões de 150x15x2 mm. Os ensaios de tração foram realizados no laboratório de
mecânica aplicada da Universidade Federal Fluminense (UFF), em Volta Redonda. O
equipamento da marca EMIC, figura 1, foi utilizado para a realização dos ensaios com uma
taxa de deformação de 2 mm/min e um comprimento útil de 90mm.

2.2 Resultados e Discussão

Os resultados obtidos pelos ensaios de tração nos corpos de prova dos materiais
compósitos reforçados com fibras de junco-sete-ilhas nos percentuais de 10, 20 e 30% v/v,
estão presentes na Tabela 1 e na Fig. 2. O crescimento da resistência mecânica equivalente ao
percentual de fibras presentes é demonstrado, da mesma forma, outros autores que
trabalharam com CFNLs verificaram o mesmo comportamento de acréscimo na resistência
mecânica com o aumento percentual de fibras (Glória et al., 2017; Monteiro et al., 2009).
Tabela 1: Resultados para o ensaio de tração de compósitos reforçados co fibras de junco-
sete-ilhas.

Fração volumétrica (%) Resistência à tração (MPa)


10 7,0079
20 12,4072
30 15,17047
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

919
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2: Variação da resistência mecânica com o aumento de percentual das fibras de junco-
sete-ilhas aplicadas como reforço em m compósitos epoxídicos.
Os valores demonstrados na Tabela 1 e Fig. 2. Exibem valores médios da tensão
máxima da resistência mecânica. Além disso, foi realizado uma análise de variância
(ANOVA) para averiguar se existe uma diferença significativa entre os resultados obtidos
para a resistência mecânica entre os compósitos reforçados com 10, 20 e 30%v/v de fibras
contínuas e alinhadas. A tabela 2 exibe os resultados obtidos.
Tabela 2: Análise de variância da resistência mecânica para os compósitos epoxídicos
reforçados com 10, 20 e 30% com fibras contínuas e alinhadas.

Fonte da GL Soma de Quadrado F Valor “P” F crítico


variação quadrados médio calculado
Tratamentos 2 379,1831 189,5916 9,375427 0,000687 3,31583
Resíduos 30 606,6653 20,22218
Total 32 985,8484

Os resultados obtidos da análise de variância da Tabela 3 rejeita a hipótese de que as


médias fossem iguais com nível de significância de 5%, pois pela estatística (F), o valor de F
calculado (9,375427) é superior ao F crítico (3,31583). O valor “P” representa um valor muito
menor do que 0,05 de nível de significância. Dessa forma, a fração volumétrica de fibras de
junco-sete-ilhas apresentaram efeitos diferentes na resistência mecânica. Sendo assim, o Teste
de Tukey foi aplicado para comparação de médias utilizando um nível de confiança de 95%
para verificar qual fração volumétrica de fibras de junco-sete-ilhas conferiu melhores
resultados de resistência mecânica. A diferença média significativa (d.m.s) encontrada foi de
5,46. Os resultados adquiridos no teste de Tukey, conforme a Tabela 3 para as diferenças
entre os valores médios da resistência mecânica entre as frações volumétricas de fibras de
junco-sete-ilhas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

920
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3: Resultados adquiridos para as diferenças entre os valores médios de resistência


mecânica das frações volumétricas de fibras de junco-sete-ilhas depois da aplicação do teste
de Tukey.

Fração volumétrica de
10% 20% 30%
fibras de junco-sete-ilhas
10% 0 5,4 8,16
20% 5,4 0 2,76
30% 8,16 2,76 0

Os resultados, apresentando um nível de significância de 5%, demonstraram um


melhor desempenho para o compósito reforçado com 30% v/v de fibras devido ao fato de
exibir o maior valor de resistência mecânica. Entretanto esse compósito é significativamente
diferente do compósito reforçado com 10% v/v de fibras, pelo fato da diferença encontrada
ser superior ao d.m.s (5,46).
A fim de verificar se as propriedades dos corpos de prova fabricados não variaram
significativamente de um para o outro, os valores da resistência foram tratados
estatisticamente pela análise de Weibull. Os parâmetros da distribuição β, θ e R² estão
presentes na Tabela 4 e a Fig. 3 mostram o gráfico da distribuição de Weibull que ilustra tal
análise.
Tabela 4: Resistência máxima à tração média e os parâmetros de Weibull.

Fração
Média Desvio
volumétrica β θ R²
(MPa) Padrão
(%)
10 7,0079 3.309 2,274 8,02 0,9265
20 12,4072 7,874 1,685 14,45 0,946
30 15,1705 2,958 5,943 16,32 0,9815

Figura 3: Gráficos de Weibull para o compósitos reforçados com fibras de junco-sete-


ilhas em diferentes frações volumétricas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

921
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os valores relacionados aos percentuais de 10, 20 e 30% v/v demonstraram valores acima
de 0,9 indicando uma boa qualidade do ajuste linear e certificando que os dados estão
distribuídos de acordo com o a função de Weibull de parâmetros β e θ. Dessa forma os
valores são satisfatórios, caracterizando uma certa homogeneidade entre os as propriedades
dos corpos de prova. Além disso, através dos dados obtidos pelo ensaio de tração foi possível
calcular dados relacionados ao módulo de elasticidade maximo dos compósitos e sua
deformação máxima percentual, através de uma média calculada para percentual de fibras
contínuas e alinhadas reforçando a matriz de epóxi, apresentados na Tabela 5 e Fig. 4.

Tabela 5: Resultados para o módulo de elasticidade e deformação do compósito epoxídico


reforçado com fibras de junco-sete-ilhas contínuas e alinhadas.

Fração volumétrica (%) Deformação máxima média Módulo de elasticidade


(%) (GPa)
10 4,0402 0,563
20 4,3021 1,3226
30 4,6657 3,7683

Figura 4: Variação do (a) total de deformação e (b) módulo de elasticidade.

Com base na tabela 5 .e na Fig. 4 é possível observar um aumento no módulo de


elasticidade dos compósitos reforçados com fibras a medida que o percentual de fibras
presentes como fase reforço cresce, portanto, a deformação total dos compósitos aumenta. A
relação disso, pode estar diretamente associado com o comportamento apresentado pela
interface fibra/matriz que permite um maior alongamento do corpo de prova sem provocar
uma ruptura frágil.

3. CONCLUSÃO

Os resultados indicam que o corpo de prova contedo uma fração de 30%v/v em


reforço de fibras de junco-sete-ilhas apresentou uma melhora na resistência à tração e no
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

922
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

módulo de elasticidade em relação as demais frações volumétricas de 10 e 20%v/v. A


deformação percentual exibiu um acréscimo com o volume de fibras na matriz, justifcando o
aumento no módulo de elasticidade.
Nas análises estatísticas de ANOVA e teste de Tukey provaram, com um nível de 95%
de confiança, que a incorporação de fibras de junco-sete-ilhas melhoram o desempenho com o
aumento da fração volumétrica.No teste de Tukey o compósito que apresentou melhor
desempenho foi o de 30%v/v. Entretanto apresenta diferença significativa somente em relação
ao compósito reforçado com 10%v/v de fibras. Sendo pela primeira vez estatísticamente
comprovado.
Ademais, a análise de Weibull comprovou que os resultados são satisfatórios uma vez
que todos os parâmetros de R² para as frações de 10,20 e 30% exibiram um valor de ajuste
superior a 0,9.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj,


ao departamento de Ciência dos Materiais do IME e ao Laboratório de de mecânica
aplicada da UFF..

REFERÊNCIAS

ASTM. D3039-95 – Standard Test Method for Tensile Properties of Polymers Matrix Composite Materials.
(1995). West Conshohocken, Pa: ASTM.
Balla VK, Kate KH, Satyavolu J, Singh, P, Tadimeti JGD. (2019). Additive manufacturing of natural fiber
reinforced polymer composites: Processing and prospects. Composites Part B: Engineering, 174(3), l10695.
Khan MZR, Srivastava SK, Gupta MK. (2018). Tensile and flexural properties of natural fiber reinforced
polymer composites: A review. Journal of Reinforced Plastics and Composite, 37(24), 1435-1455.
Glória GG, Teles MCA, Lopes FPD, Vieira CMF, Margem FM, Gomes MA, Monteiro SN. (2017). Tensile
strength of polyester composites reinforced with PALF. Journal of Materials Research and Technology, 6(4),
561-565.
Hiroce R, Benatti JR, Feitosa CT. (1988). Estudos nutricionais em junco: adubação e calagem. Bragantia,
47(2), 313-323.
Monteiro SN, Lopes FPD, Ferreira AS, Nascimento DCO. (2009). Natural-fiber polymer-matrix
composites: Cheaper, tougher, and environmentally friendly. Jom, 61(1), 17-22.
Sanjay MR, Siengchi NS, Parameswaranpillai J, Jawaid M, Pruncu CI, Khan A. (2019). A comprehensive
review of techniques for natural fibers as reinforcement in composites: Preparation, processing and
characterization. Carbohydrate Polymers, 207, 108-121.
Scifoni S, Nascimento FB. (2008). Identificação e proteção da paisagem agroindustrial da imigração
japonesa no vale do ribeira/São Paulo. 1-26.
Shekar HSS, Ramachandra M. (2018). Green Composites: A Review. Materials Today: Proceedings, 5(1),
2518-2526.

TENSILE STRENGHT AND ELASTIC MODULE EVALUTION OF EPOXY


MATRIX COMPOSITES FOR DIFERRENT VOLUMETRIC FRACTION OF
SEVEN-ISLAND-SEDGE FIBERS

Abstract. The fibers extracted from the stem of the seven-islands-sedge (cyperus malaccensis
lam.) plant have been investigated as possible composite reinforcement, aiming to discover a
possible new fiber for an engineering aplication. For this reason these fibers were
incorporated in an epoxy matrix in different volumetric fraction of 10, 20 and 30% vol. and
were investigated for mechanical properties associated with tensile strenght. Plates were
fabricated following the dimensions of 150x15x2 mm as required by ASTM D3039. The
statistics analysis of the results were performed by ANOVA and Tukey tests based on a 95%
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

923
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

confidence level. Besides, a Weibull analysis was applied and have shown a great confidence
of the weibull parameters.
Keywords: Seven-islands-sedge, Composites, Tensile strenght, ASTM D3039.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

924
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DA CORRELAÇÃO ENTRE OS DIÂMETROS DAS FIBRAS DE


JUNCO-SETE-ILHAS E CARACTERIZAÇÃO MORFOLÓGICA

Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com


Luana Cristyne da Cruz Demosthenes1 – eng.luanademosthenes@gmail.com
Andressa Teixeira Souza1 – Andressa.t.souza@gmail.com
Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Matheus Pereira Ribeiro1 – m.pereiraribeiro@hotmail.com
Raphael Henrique Morais Reis1 – raphael.reis.a@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo.Pesquisas sobre fibras naturais ligocelulósicas (FNLs) como possíveis materiais de


engenharia são crescentes, devido a diversos benefícios do uso de FNLs, como: baixo custo,
baixa densidades, alta resistência mecânica específica e biodegradabilidade, corroboram
com o aumentodo interesse em pesquisas de FNLs. Portanto, esse trabalho, pela primeira vez
na literatura, demonstra resultados obtidos relacionando a distribuição de frequência dos
diâmetros, juntamente com sua densidade por intervalo de diâmetro. Além de uma relação
matemática entre a densidade e o inverso do diâmetro e uma caracterização morfológica da
fibra de junco-sete-ilhas (CyperusMalaccensisLam.) através de uma análise de MEV
evidenciando os mecanismos que promovem a relação de aumento da densidade com a
diminuição do diâmetro.

Palavras-chave:Junco-sete-ilhas, Diâmetro, Densidade, MEV.

1. INTRODUÇÃO

Nos últimos anos, a crescente preocupação com os recursos não renováveis se tornando
limitados e o crescente interesse da comunidade científica na procura de materiais
ambientalmente corretos e sustentáveis. Devido a esses motivos, pesquisadores buscaram
investigar ss fibras naturais, conhecidas por ser um recurso renovável e amplamente utilizados
por milênios através de materiais derivados dessas fibras como cordas, cestas e esteiras. Essas
fibras são adquiridas de variadas fontes de origem animal, mineral e origem vegetal como as
lignocelulósicas(Bledzki&Gassan, 1999). Surgindo uma tendência ao desenvolvimento e uso

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

925
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de fibras naturais oriundas de vegetais em especial as fibras naturais lignocelulósicas (FNLs)


como reforço em compósitos usados em muitas aplicações de engenharia (Loftiet al., 2019).
O Brasil se encontra em uma posição destacável em relação a produção de fibras naturais,
produzindo diversas dessas. Por possuir um extenso território, biodiversidade e condições
climáticas favoráveis que contribuem para conferir uma disponibilidade de materiais que
podem ser usados como material de engenharia e na indústria têxtil (Satyanarayanaet al.,
2007).
Entretanto as propriedades inerentes as fibras naturais mudam consideravelmente,
ocorrendo devido alguns fatores como a origem de onde foram retiradas, como o caule, folha,
semente e idade da planta. Além disso, propriedades de uma única fibra são dependentes do
formato, tamanho, conteúdo cristalino, orientação e espessura da parede celular. No caso das
fibras sintéticas como a fibra de aramida, de vidro e de carbono, são formuladas com
propriedades pré-definidas, por outro lado as propriedades inerentes as fibras naturais se
alternam notavelmente (Gholampour&Ozbakkaloglu, 2020).
Em virtude desse cenário, o estudo das fibras retiradas de uma planta conhecida
popularmente como junco-sete-ilhas (CyperusmalaccensisLam.; Ordem, Cyperales; Familia,
Cyperacease), por ser originária da região de sete ilhas no Japão. Dentre as características da
Cyperusmalaccenis vale destacar a ausência de nós em sua haste afiada, longa e triangular
com 2 a 3 folhas na ponta do caule (Hiroceet al., 1988; Shioyaet al., 2019). Sendo inédito o
estudo de possíveis aplicações em engenharia.
Devido a configuração de cada fibra ser influenciada pelos fatores que controlam o
processo e o crescimento da complexa estrutura celular,por sua vez, controlado pelo
metabolismo celular vegetal. Estando relacionados com a quantidade de luminosidade no
ambiente, composição do solo, abundância hídrica e até mesmo a variação genética de cada
planta. Portanto propriedades mecânicas e físicas variam de uma fibra para outra
(Elanchezhianet al., 2018). Há uma tendência do acréscimo das propriedades mecânicas de
algumas FNLs relacionados com o inverso do diâmetro destas fibras. Isso ocorre, devido a
presença de menores teores de defeitos presentes nas fibras de menor diâmetro se comparados
as fibras de maior diâmetro, o que leva as fibras mais finas possuírem maior resistência (Jhaet
al., 2019).
Devido a esse fato, o presente trabalho procurou obter informações sobre os intervalos de
diâmetros obtidos ao se desfiar as fibras de forma manual, além de obter uma distribuição de
frequência, uma correlação matematica entre o diâmetro da fibra e sua densidade. Além de
caracterizar morfologicamente através da análise de MEV da superfície de fibras finas e
grossas.

2. DESENVOLVIMENTO

2.1 Materiais e métodos

As fibras foram extraídas de uma esteira de junco-sete-ilhas adquiridas por meio da


empresa Artevale, localizada na cidade de Registro pertencente ao estado de São Paulo.
Foram utilizadas “in natura” e estavam na forma de caule, por isso foram limpas, desfiadas,
cortadas em um comprimento equivalente a 150 mm e secas em estufa a 70° C por 24 h com a
finalidade de se retirar a umidade presente. Além disso, as fibras não sofreram nenhum tipo
de tratamento químico a Fig. 1 esquematiza materiais utilizados no processo da obtenção das
fibras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

926
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1: Materiais utilizados para o processo de desfiamento e obtenção de fibras de junco-


sete-ilhas.

O emprego do microscópio óptico, cujo modelo foi o BX53M da marca OLYMPUS, com
amplitude de 5x no modo de campo escuro serviu como auxílio para medir o diâmetro das
fibras. Um total de 100 amostras foram selecionadas aleatoriamente. Sendo realizado a
medição de cada uma em 5 pontos específicos a (0°) e 5 em (90°), distribuídos ao longo do
comprimento das amostras, sendo que em cada ponto foi realizado 3 medições e uma média
entre essas medições. Após esse procedimento foi novamente realizado uma média dos
valores obtidos, em micrometros (µm), ao longo da fibra e dessa forma foi possível obter a
média do diâmetro característico de cada fibra.
Devido à grande variação existente entre os diâmetros característicos das fibras de junco-
sete-ilhas se dividiu em dez intervalos de diâmetros característicos. O método para obter a
densidade linear geométrica, considerou as fibras aproximadas a um formato cilíndrico
levando em consideração a seção transversal e o comprimento previamente medidos. Com o
intuito de calcular a densidade, foi necessário ser feito a pesagem de cada uma das 100
amostras, com o auxílio de uma balança analítica da marca Bioprecisa, cujo modelo é o
FA2104N com uma precisão de 0,001 g,Tornando possível ser obtido a densidade das fibras.

2.2 Resultados e Discussão

Devido as fibras naturais apresentarem uma heterogeneidade relacionados as dimensões


de cada fibra após serem desfiadas manualmente e isso interferir diretamente nas propriedades
mecânicas. Sendo assim, foi selecionado 100 fibras aleatoriamente e considerado um perfil
geométrico cilíndrico, o diâmetro de cada uma foi obtido através de uma medição de 5 pontos
ao longo do comprimento e em seguida girou as mesmas em 90° e repetiu-se o processo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

927
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Além disso, a Tabela 1 a seguir permite visualizar a frequência relativa das fibras de
acordo com as dez classes de diâmetro

Tabela 1–Intervalo dedimensões da fibra de junco-sete-ilhas.

Classe Intervalo (mm) Frequência Relativa (%)


1 0,16 - 0,24 1
2 0,24 - 0,32 2
3 0,32 – 0,39 21
4 0,39 – 0,47 17
5 0,47 – 0,54 31
6 0,54 – 0,62 14
7 0,62 – 0,69 10
8 0,69 – 0,85 1
9 0,77 – 0,85 2
10 0,85 – 0,92 1

Os intervalos apresentaram baixa porcentagem de fibras de 0,16 a 0,32 mm,


possivelmente por ser difícil obter fibras finas desfiadas manualmente sem provocar
rompimento das mesmas. Em relação as fibras com maiores diâmetros variando de 0,69 a
0,92 mm apresentam baixo percentual de fibras, possivelmente, é devido a presença de maior
número de defeitos presentes em maiores diâmetros tornando difícil obter fibras desfiadas
nesse intervalo. Por outro lado, o intervalo que apresentou o maior número de fibras foi o
intervalo de 0,47 a 0,54 mm. Esse comportamento é observado em outros estudos (Reis et al.,
2019; Monteiro et al., 2013).
A densidade foi obtida através de um cálculo feito a partir das medidas de massa e
volume de cada fibra. Logo em seguida dividiu esses valores em 6 intervalos considerando
um diâmetro médio para cada intervalo, como pode ser observado na Fig.2 e na Tabela 2
exibindo valores da densidade média, diâmetro médio, assim como a densidade média
característica (θ)e os parâmetros R2 e β. Foi possível obter os dados utilizando o programa
WeibullAnalysis, através do método de Máxima Verossimilhança.
Tabela 2–Densidade média e característica para cada imtervalo de diâmtero das fibras de
junco-sete-ilhas.
Densidade Coeficiente
Densidade Desvio
Diâmetro Módulo de característica de
média Padrão
médio (mm) Weibull (β) Θ correlação
(g/cm³) (mm)
(g/cm³) (R²)
0,2300 0,7392 0,1492 5,7250 0,7969 0,8386
0,3600 0,6845 0,2589 2,8730 0,7688 0,7947
0,4800 0,6131 0,3511 1,6960 0,6484 0,6362
0,6100 0,3776 0,0813 5,3420 0,4094 0,9354
0,7400 0,3349 0,1108 3,3650 0,3764 0,6955
0,8600 0,2200 0,0354 7,3050 0,2336 0,9684

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

928
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2–Figuras de Weibull para cada de diâmetro.

O parâmetro R² indica a qualidade do ajuste da reta de Weibull aos dados coletados.


Valores próximos da unidade (acima de 0,90) mostram uma boa qualidade do ajuste linear,
indicando que os dados estão distribuídos conforme uma função de Weibull de parâmetros β e
θ. O parâmetro θ, por sua vez, indica o valor aproximadamente central da distribuição
característica. Já o parâmetro β é uma medida da confiabilidade das medidas, pois, quanto
maior o seu valor, mais estreita é a distribuição. Os altos valores de β obtidos (7,305 e 5,725)
destacam ahomogeneidade das fibras em função a densidade e espessura (O’connor&Kleyner,
2012). Através dessa análise foi possível observar que os valores de θ seguiram a mesma
tendência dos valores do diâmetro médio encontrados para a fibra de junco-sete-ilhas, além do
parâmetro R² indicar um valor mais próximo de 1 para os diâmetros médios de 0,61 e 0,86
mm, indicando uma qualidade do ajuste de precisão, justificando a boa aproximação da
densidade característica em relação à média, garantindo uma boa confiabilidade aos valores
estatísticos . A partir dos dados apresentados, foi possível construir uma relaçãoentre diâmetro
médio com a densidade média das fibras, de acordo com a Fig. 3.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

929
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3: Dependência da densidade da fibra de junco-sete-ilhas em relação ao diâmetro.


É possível observar que a tendência é a diminuição da densidade com o aumento do
diâmetro, de acordo com o que ocorre para demais FNLs anteriormente estudadas na literatura
(Monteiroet al., 2013). Com o intuito de observar como a densidade característica se
comporta em relação ao diâmetro, se relacionou os valores da densidade característica de
Weibull com os diâmetros médios de cada intervalo. O gráfico é representado pela Fig. 4 e
demonstra que os valores da densidade característica tiveram uma tendência a diminuir com o
aumento do diâmetro, sendo observado o mesmo comportamento em FNLs anteriormente
estudadas. (Satyanarayanaet al., 2009)

Figura 4: Relação entre a densidade característica e o diâmetro das fibras de junco-sete-ilhas.


Conforme a literatura, certos autores relacionam as propriedades de certas fibras
lignocelulósicas com o inverso do seu diâmetro através de uma reta crescente
(Satyanarayanaet al., 2011).O inverso do diâmetro relacionado com a densidade
característica da fibra de junco-sete-ilhas juntamente com a aproximação linear dos seus
pontos, é exibido na Fig. 5. Tomando como base a aproximação linear realizada, se
desenvolveu a Eq.(1) aproximando a variação da densidade(ρ)relacionado ao diâmetro (D),
com o intuito de relacionar a densidade com o inverso do diâmetro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

930
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0,16807
𝑃= + 0,16291 (1)
𝐷

Permitindo observar, de acordo com a Fig. 5 que os valores da densidade tendem a se


aproximar do valor de 0,16291 g/cm³ à medida que os valores do diâmetro aumentam, por
outro lado a densidade tende a crescer quando os valores do diâmetro se torna cada vez
menor.

Figura 5: Relação da densidade característica e o inverso do diâmetro.


O aumento da densidade relacionado diretamente com a diminuição da seção
transversal pode ser concedido devido à menor existência de defeitos em fibras finas. Além
disso, pode ser observado no gráfico que o quarto e quinto intervalo não seguem a tendência
linear dos demais, pode ser explicado pela pequena variância entre os valores existentes nos
intervalos de diâmetro, além de ambos intervalos possuírem baixos valores dos parâmetros de
R e β responsáveis por indicar a qualidade do ajuste à aproximação linear. As imagens em
microscopia eletrônica de varredura na Fig.6demonstram de uma forma mais clara a diferença
entre as superfícies de uma fibra com maior diâmetro e outra com um diâmetro menor.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

931
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6: Superfície de (a) e (b) uma fibra de maior diâmetro; (c) e (d) fibra presente em um
menor intervalo de diâmetro.

A presença de defeitos superficiais na fibra grossa é nítida ao se notar a ampliação de


2000X. Na Fig. 6 (b) a presença de vazios no interior da fibra podendo atuar como um
mecanismo de defeito facilitando a ruptura em valores baixos de tensões superficiais. A fibra
fina representada na Fig. 6 (c) apresenta uma superfície mais homogênea, rugosa e sem uma
aparente presença de defeitos superficiais corroborando com os parâmetros que proporcionam
uma melhora na resistência conforme a literatura (Monteiro et al., 2017).

3. CONCLUSÃO

Através do histograma feito é possível observar que uma frequência maior de fibras
está presente nos intervalos intermediários de diâmetro. Ainda é possível notar uma relação
matemática entre a densidade e o inverso do diâmetro confirmando que a fibra tende a possuir
uma maior densidade em intervalos menores devido a presença menor de microfibrilas
defeituosas e vazios. Além disso, a análise morfologica evidenciou uma presença maior de
irregularidades e defeitos superficiais em fibras grossas. Todas essas conclusões eram
esperadas, de acordo com estudos realizados para diferentes espécies de FNLs presentes na
literatura.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

932
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq, Faperj, ao


departamento de Ciência dos Materiais do IME.

REFERÊNCIAS

Bledzki AK, Gassan J. (1999). Composites reinforced with cellulose based fibres. Prog Polym Science, 4,
221–74.
Elanchezhian C, Ramnath BV, Ramakrishman G, Raiendrakumar M, Naveenkumar V, Saravanakumar
MK. (2018). Review on mechanical properties of natural fiber composites. Materials Today: Proceedings, 5(1),
1785–1790.
Gholampour A, Ozbakkaloglu T. (2020). A review of natural fiber composites: properties, modification and
processing techniques, characterization, applications. Springer US, 55.
Hiroce, R, Benatti JR, Feitosa, CT. (1988) Estudos nutricionais em junco: adubação e calagem. Bragantia, 47(2),
313–323.
Jha K, Kataria R, Verma J, Pradhan S. (2019). Potential biodegradable matrices and fiber treatment for
green composites: A review. AIMS Materials Science, 6(10), 119-138.
Lotfi A, Li H, Dao DV, Prusty G. (2019). Natural fiber–reinforced composites: A review on material,
manufacturing, and machinability. Journal of Thermoplastic Composite Materials.
Monteiro SN, Lopes FPD, Nascimento DCO, Ferreira SA, Satyanarayana KG. (2013). Processing and
properties of continuous and aligned curaua fibers incorporated polyester composites. Journal of Materials
Research and Technology, 42(1), 1-9.
Monteiro SN, Margem FM, Braga FO, Luz FS, Simonassi NT. (2017). Weibull analysis of the tensile
strength dependence with fiber diameter of giant bamboo. Journal of Materials Research and Technology, 317–
322.
O'connor, PD &Kleyner, A. (2012).“Practical Reliability Engineering”,5° ed., John Wiley & Sons,
Chinchester.
Reis RHM, Nunes LF, Oliveira MS, Junior VFV, Filho FCG, Pinheiro MA, Silva ACR, Candido VS,
Monteiro SN. (2019). Guaruman fiber: Another possible reinforcement in composites. Journal of Materials
Research and Technology, 9(1), 622-628.
Satyanarayana, KG, Arizaga, GGC, Wypych, F. (2009). Biodegradable composites based on lignocellulosic
fibers-An overview. Progress in Polymer Science (Oxford), 34(9), 982-1021.
Satyanarayana KG, Guimarães JL, Wypych FERN. (2007). Studies on lignocellulosic fibers of Brazil. Part
I: Source, production, morphology, properties and applications. Composites Part A: Applied Science and
Manufacturing, 38(7),1694–709.
Satyanarayana KG, Monteiro SN, Lopes FPD, Margem FM, Santafe Jr HPG, Costa LL. (2011).
Dimensional analysis and surface morphology as selective criteria of lignocellulosic fibers as reiforcement in
polymeric matrices. In: S. Kalia et al. Cellulose Fibers: Bio- and Nano-Polymer Composites, C Springer-Verlang
Berlin Heidelber.
Shioya M, Myoga A, Kitagawa A, Tokunaga Y, Hayashi H, Kogo Y, Satake SI. (2019). Analysis of
deflection and dynamic plant characteristics of Cyperus malaccensis Lam. Plant Production Science, 22(2), 242-
249.

EVALUATION OF THE CORRELATION BETWEEN THE DIAMETERS OF THE


FIBERS OF SEVEN-ISLANDS-SEDGE AND MORPHOLOGICAL
CHARACTERIZATION

Abstract.Research on natural fibers as a possible engineering material is increasing, since it


is possible to identify a series of benefits in NFLs such as: low abrasiveness, low price, low
density and high especific tensile strength. These properties combined with their
biodegradability raise interest in the research of NFLs. Therefore, in this work, for the first
time in the literature, shows results that were obtained relating the frequency distribution of
the diameters, together with their density by diameter range. In addition to a mathematical
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

933
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

correlation between the density and the inverse of the diameter and a morphological
characterization of the seven-islands-sedge (Cyperus Malaccensis Lam.) through an scanning
electron microscopy (SEM) analysis.

Keywords:Seven-islands-sedge, Diameter, Density, SEM..

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

934
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

UTILIZAÇÃO DE RESIDUOS POLIMERICOS NA FABRICAÇÃO DE CONCRETO


ESTRUTURAL: ADIÇÃO DE REJEITO (ESPUMA DE POLIURETANO RIGIDO),
PROVENIENTE DE EQUIPAMENTOS DE REFRIGERAÇÃO DESCARTADOS
COMO COMPONENTE NO CONCRETO ESTRUTURAL.

Ronald Matheus Lobo Pereira¹ – ronald.matheus@ime.eb.br


Sergio Neves Monteiro²- sergio.neves@ime.eb.br
Flavio Henrique de Jesus Pestana Sousa³ - Flavio.pestana@hotmail.com
¹ Universidade CEUMA– São Luís, MA, Brasil
²Instituto Militar de Engenharia - RJ, Brasil
³ Universidade CEUMA– São Luís, MA, Brasil

Resumo. O concreto é usualmente muito solicitado no ramo da construção civil, seu processo
de fabricação e aplicação, no Brasil se apresenta como a indústria que mais gera resíduos de
impacto ambiental. Visando a mitigação do impacto ambiental gerado, têm sido
desenvolvidos estudos relacionados ao reaproveitamento de materiais como possível solução
para sanar essa problemática. Nesta linha tênue, o presente trabalho expõe uma investigação
do levantamento de característica mecânica no incremento do concreto com diversas
concentrações de volume do poliuretano rígidas, para substituição de uma parcela do
agregado graúdo estabelecendo relações com os dias de cura do concreto predefinido, com o
intuito de produzir concreto estrutural que atenda as normas vigentes. A metodologia
adotada foi de caraterização dos materiais, verificação granulométrica, o abatimento do
concreto, a porcentagem de umidade adquira após cura do concreto e resistência a
compressão. Os dados obtidos deslustraram resultados bem satisfatórios e com potencial
para dar suporte no projeto correto de designação para pavimentos e elementos de
fundações, porém inviável para fins estruturais sendo destinado para construção civil.

Palavras-chave:Resíduo, Poliuretano, Concreto estrutural, Construção civil, Agregados.

1. INTRODUÇÃO

A indústria da construção civil apresenta grandes índices de geração de resíduos


sólidos. Visando a tomada de ações que diminuam os impactos gerados ao meio ambiente,
torna-se importante a realização de estudos voltados para a reutilização dos materiais
(TINOCO; KRAEMER, 2011).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

935
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

.
O arranjo de dois ou mais elementos diversos é um material designado como
compósito, com a finalidade de atingir um melhor arranjo de propriedades. Várias tecnologias
modernas demandam materiais com propriedades anômalos que é inerente a materiais padrões
(CALLISTER, 2002). A utilização de resíduos poliméricos, como agregado graúdo de
concreto estrutural, é uma alternativa viável, pois reutilizando esse material estaremos
reduzindo a geração de resíduos na indústria civil e de refrigeração.
As espumas de poliuretano rígido são extensamente usadas no segmento da indústria
de refrigeração, o qual pode ser encontrado nas portas e gabinetes de geladeira e freezers. Este
tipo de polímero após passa pelo processo final de fabricação não pode ser fundido e
remodelado novamente, logo não é reciclável mecanicamente. O concreto por sua vez
também, possui insumos que não são renováveis e de fonte esgotáveis, como por exemplo,
areia, brita e cimento muito solicitado na construção civil (VILAR, 2000).
O presente trabalho tem por finalidade analisar o comportamento deste material após o
incremento do PUR na produção de concreto estrutural, analisando se os dados estão dentro
do parâmetro da norma, com objetivo de consegue alcançar características interessantes que
deem valor ao novo produto.
A metodologia aplicada foi realizada por pesquisa bibliográfica, posteriormente da
definição do tipo de material a ser empregado, sendo desenvolvido ensaio de compressão para
análise da resistência alcançada após o atendimento das seguintes etapas: caracterização das
matérias, análise da granulometria, determinação do traço, slump teste, elaboração dos corpos
de prova, cura em 7, 14 e 28 dias; checagem da tensão de ruptura mediante ensaio de
compressão axial e analise dos resultados obtidos.

2. PROCEDIMENTO EXPERIMENTAL

A análise da reutilização de resíduos de PUR, como inserção aparte do compósito


(PUR/cimento/agregados/água) para o desenvolvimento de novos produtos no ramo da
construção civil. Foi realizada a caracterização dos materiais, posteriormente a definição dos
traços a serem empregados, slump teste, confecção dos corpos de prova e cura,de acordo com
os tempos predefinidos.
O procedimento experimental é aplicado conforme a (Figura 1), que teve função
imprescindível no desenvolvimento e análise das novas propriedades mecânicas adquiridas
provenientes de concreto com adição de poliuretano rígido. Na Figura 1 está mostrando um
fluxograma desse procedimento experimental resumido utilizado e, logo após as etapas em
detalhes.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

936
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CARACTERIZAÇÃO DOS MATERIAIS

OBTENÇÃO DO PUR NAS


CARACTERIZAÇÃO DOS
GRANULOMETRIAS
AGREGADOS: AREIA E BRITA
PRÉDETERMINADAS

CARACTERIZAÇÃO DOS
RESÍDUOS DE PUR

DEFINIÇÃO DOS TEORES DE SUBSTITUIÇÃO DOS AGREGADOS POR


RESÍDUOS DE PUR ATRAVÉS DA DETERMINAÇÃO DO TRAÇO DE
CONCRETO

CONFECÇÃO DOS CORPOS DE PROVA

ANÁLISE DOS RESULTADOS

Figura 1. Representação esquemática do processo experimental usado

2.1 Caracterização dos agregados

Realizou-se o método de peneiramento, utilizando peneiras para ensaios de mecânica


de solos marca BERTEL, atendendo aos requisitos da norma NBR NM-ISO 3310-1.Todos os
agregados foram peneirados e classificados granulometricamente. A série normal de peneiras
usadas foi: 50; 37,5; 25; 19; 9,5 e 4,8mm, para brita e a serie de 4,75;2;1,18;600;300;150 e
75mm para areia.
Estes materiais aplicados como agregados,tiveram suas características definidas
conforme as normas: NBR NM46:2003, NBR NM 52:2009, NBR NM 52:2009 e a NBR NM
248:2003.As quantidades utilizadas de cada um dos agregados, proporcionalmente no traço de
concreto.

2.2 Caracterização do PUR: adequação granulométrica

Para ajustar granulometricamente os resíduos de PUR, que estavam inicialmente no


formato de chapas com tamanhos variados, fragmentaram-se estes resíduos com a utilização
de um extrator de suco de laranja. Adiante, verificou-se o processo de peneiramento, usando
peneiras para ensaios de mecânica de solos marca BERTEL, atendendo aos requisitos da
norma NBR NM-ISO 3310-1. Todo o material foi peneirado e classificado granulometricamente.
A série normal de peneiras empregadas foi: 50; 37,5; 25; 19; 9,5 e 4,8mm.

2.3 Caracterização granulométrica do PUR

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

937
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A caracterização do PUR foi através do peneiramento que determinou o diâmetro e


também realizada medição por régua.As características granulométricas do PUR extratado e
separado, são apresentadas no quadro 1.

Quadro 1. Separação por formato cilíndrico do PUR pelo extrator de suco de laranja.
PASSA NA PENEIRA RETIDO NA PENEIRA (MM)
(MM)
19 9,5

2.4 Caracterização por imagem

As partículas referentes à granulometria, descrita no quadro 2, é apresentado nas


figuras 2 e 3.

Figura 2. Poliuretano rígido separado na granulometria retido na peneira 9,5 mm

Figura 3. Separação granulométrica de 19 a 9,5 mm


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

938
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As figuras 2 e 3 são referentes aos tamanhos dos diâmetros que se verificou aparte do
peneiramento, a qual ficou retida na abertura 9,5mm e por medição na régua.
2.5 Caracterização dos agregados

A caracterização referente da areia, é proveniente da pesagem com material úmido


mais a capsula e logo após passa pelo processo de secagem na estufa durante 24horas,com a
temperatura de 110ºC,assim obteve a areia seca .Pesou-se a areia seca com a capsula ,desta
forma foi possível determinar o teor de umidade do material. Conforme o resultado
apresentado nos quadros observa-se que a areia apresentou pequena porcentagem de
partículas de tamanhos 2,4 mm e uma maior concentração de tamanho 0,3mm. A brita
apresentou concentração de partículas de 9,5 a 4,8 mm de tamanho. O modulo de finura é o
somatório da % retida acumulada das peneiras da serie normal, que se faz a média das
amostras para saber o modulo de finura, sendo assim o modulo finura da areia é 2,6 e o
diâmetro máximo é obtido pela porcentagem retida acumulado menor ou igual a 5%.

2.6 Preparação dos amassamentos

Na etapa de amassamento foram manuseadas duas variações em relação a


porcentagens de material colocado no traço,sendo inseridos 25 e 50 % de poliuretano rígido
em substituição ao volume de agregado da brita.

2.7 Determinação do traço

O traço definido e conveniente para todas as amostras foi de 1; 1,14 ;1,40 e 0,38
composto de cimento, areia, brita e água, respectivamente. Este traço foi refinado com a
execução do teste por Slump utilizando o amassamento com substituição dos agregados pela
maior concentração de poliuretano rígido. Os ensaios por Slump Test foram realizados com os
equipamentos de tronco de cone, base e haste de socamento que segue as especificações da
NBR NM67: 1998.

2.8 Confecção dos corpos de provas

A preparação do concreto foi efetuado de acordo os procedimentos descritos na NBR


O equipamento empregado é a betoneira de 120 dm³. A equação abaixo determina o
12821.
método para conversão do traço em volume:

(1)

Quadro 2. Materiais utilizados para elaboração de cada traço de concreto, convertidos para volume em litros.
- CIMENTO(dm³) AREIA dm³) BRITA( dm³) ÁGUA( dm³) PUR( dm³)
PADRÃO 1 1,06 1,20 0,54 0
25% 1 1,06 0,90 0,54 0,30
50% 1 1,06 0,60 0,54 0,60

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

939
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A duração de pega constatou 2 min, discriminado segundo a NBR 16607:2018 –


Determinação dos tempos de pega do cimento Portland.
A consistência do concreto, é um dos fatores predominantes que influenciam na
trabalhabilidade do mesmo,definida provenientemente do ensaio de abatimento do concreto,
conhecido como slump test, e seguir as especificações da NBR NM67: 1998.
A confecção dos corpos de prova preparou-se colocando 2 camadas de mistura de
mesmo volume aplicando 12 golpes com soquete padrão em cada camada, de acordo com as
especificações da NBR 5738:2016.
Todos os corpos de prova confeccionados, com os compósitos obtidos foram
submetidos a ensaio de compressão, cometidos de acordo com a norma NBR 5739:2018.O
equipamento manuseado é a máquina SOLOSTEST na figura 4, alocada na universidade
CEUMA Análise Laboratorial de solo, Concreto, na cidade de São Luís – MA. Os corpos-de-
prova foram ensaiados com idades de 7, 14 e 28 dias.

Figura 4. Equipamento de ensaio de compressão

3 RESULTADOS
3.1 Slump test
A técnica por Slump Test é usado com o objetivo de se alcançar ao traço de concreto
coerente para cada mistura fazendo a devida substituição da brita por poliuretano rígido.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

940
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Gráfico 1. Slump teste

No gráfico 1, apresenta a curva de abatimento das amostras, preparadas conforme as


porcentagens de concentração com o PUR e o concreto convencional, sem tempo de cura,
tendo em vista a porcentagem em volume de poliuretano rígido na mistura de concreto em
substituição de parte da brita. A mistura de concreto de referência para abatimento se deu em
torno de 7 cm.

3.2 Absorção da água

As análises por absorção de água, verificou-se por porcentagem da água adquirida


devido ao fato de deixar as amostras mergulhadas em água com tempo predefinido,
correlacionados conforme com o tempo de cura para ruptura, sendo assim possível a saturação
dos corpos-de-prova. Para determinar a quantidade de água absorvida pelas amostras, pesou-
se antes e depois da saturação. A massa especifica das amostras submetidas ao ensaio de
compressão, foram pesados todos antes de realizar o ensaio.
O resultado das análises de todas as amostras por absorção de água é apresentado no
gráfico 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

941
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Gráfico 2. Absorção de água


As amostras de misturas com incremento de PUR com granulométrica de 19 á 9,5mm
apresentam absorções diferentes entre as concentrações de 25 a 50 %vol e o convencional,
sendo que ao passar dos dias de cura as suas absorções de água aumentar, verificou que
apenas o PUR de 25% teve um pequeno decréscimo no último dia. O PUR de 50%
apresentou-se maior absorção de água em relação aos demais, em qualquer tempo de cura.

3.3 Tensão de ruptura

O desenvolvimento dessa caracterização se executou através da utilização da máquina


de prensa, que tenciona o corpo de prova, assim obtendo o dado relativo à resistência.O
gráfico 3 mostra os resultados dos ensaios de resistência a compressão efetuados em corpos-
de-prova dos traços preparados, com idade de 7,14 e 28 dias, para uma dosagem de concreto.

Gráfico 3. De curva da tensão de ruptura versus concentração de PUR adicionados na composição do


concreto em idades de 7,14 e 28 dias.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

942
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No gráfico 3 a tensão de ruptura para 7 dias ,observa-se que o concreto convencional


alcança uma resistência média de 18MPA .Na medida que se adiciona PUR, ocorre um
decréscimo de resistência em relação ao convencional ,tendo em vista que com 25% de PUR
no concreto a resistência foi de 7,49MPA e para 50% de PUR 9 MPA .Porém, quanto mais
aumenta a concentração de PUR, a resistência a compressão aumenta.
A tensão de ruptura para 14 dias, a resistência a compressão aumenta em relação com
7 dias, para concentração de 25%PUR temos 7,87 MPA e 50% de PUR 9,35 MPA. No
entanto, quando comparado ao convencional esta muito abaixo a resistência, pois o mesmo
alcançou 24,5 MPA.
Os resultados encontrados nos ensaios de resistência a compressão executados em
corpo de provas, com idade de 28 dias. Analisa-se que a resistência à compressão continua
subindo em relação aos dias 7 e 14. Com 25% PUR a resistência chegou a 11,12 MPA e para
50%de PUR temos 18,17 MPA, ou seja, conforme passa os dias de cura temos um resultado
crescente de resistência à compressão,e quanto mais se adiciona PUR com partículas de
abertura com 19 a 9,5mm, a resistência aumenta. Porém, ainda abaixo do convencional que se
encontra com 30MPA.

4 CONCLUSÃO

Os resultados obtidos nos ensaios foram bastante satisfatórios, o slump test com o
incremento de PÚR com concentração de 25% e 50% não diferiu muito do convencional,
respectivamente o abatimento foi de 7 cm e 11 cm em relação ao convencional que obteve 7
cm. Na análise de absorção da água os dados não variaram muito, manteve quase semelhante
ao convencional. O ensaio de tensão de ruptura houve uma grande diferença de resistência em
relação ao concreto padrão.
Conforme a NBR 8953/2015, o concreto deve alcançar na compressão axial no mínimo
20MPA.Considerando-se essa norma, o resultado aquirido nos ensaios de tensão de ruptura
deu 18,17MPA abaixo do permitido, sendo inviável sua designação para fins estruturais.
Porém,o estudo demostrou grande potencial para ultrapassar essa resistência
determinado por norma, pois à medida que se aumenta a concentração de PUR, a resistência
aumenta. A norma faz referência quanto à consistência do concreto que para abatimento de 10
a 50 mm e 50 a 100 mm, indica-se para resistência abaixo de 20MPA, sua funcionalidade
designa-se para concreto extrusado, vibro prensado e pavimento.

REFERÊNCIA

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 12821: preparação de concreto em


laboratório. Rio de Janeiro: ABNT, 2009.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 5738: critérios para moldagem e cura
do corpo-de-prova. Rio de Janeiro: ABNT, 2016.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 5739: concreto: ensaio de compressão
de corpos-de-prova cilíndricos. Rio de Janeiro: ABNT, 2018.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 8953: designado para concreto
estrutural conforme a consistência das classes. Rio de Janeiro: ABNT, 2015.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 16607: determinação do tempo de
pega. Rio de Janeiro: ABNT, 2018.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR NM-46: indicação do material fino.
Rio de Janeiro: ABNT, 2003.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR NM-52: requisitos que determina a
massa especifica e aparente do agregado miúdo. Rio de Janeiro: ABNT, 2009.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR NM-67: slump test. Rio de Janeiro:
ABNT, 1998.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

943
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR NM-248: concreto: composição


granulométrica. Rio de Janeiro: ABNT, 2003.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR NM-ISO3310-1 : requisitos técnicos e
verificação para peneiras de ensaio. Rio de Janeiro: ABNT, 2016.
CALLISTER JR., W.D. Ciência e engenharia de materiais: uma introdução. 5. ed. Rio de Janeiro: LTC, 2002,
589p.
KRAEMER, Maria Elisabeth Pereira. O meio ambiente e desenvolvimento sustentável e os resíduos classe I.
Disponível em: http://www.gestaoambiental.com.br/artieles.ph?id65 Acesso: 12 de mar. 2019.
VILAR, W. Química e Tecnologia de Poliuretanos. 2. ed. Rio de Janeiro: Editora Vilar Consultoria, 2000.

USE OF POLYMERIC WASTE IN THE MANUFACTURE OF STRUCTURAL


CONCRETE: ADDITION OF REJECTION (RIGID POLYURETHANE FOAM),
FROM REFRIGERATION EQUIPMENT DISCARDED AS A COMPONENT IN THE
STRUCTURAL CONCRETE.

Abstract. Concrete is usually very requested in the construction industry, its manufacturing
and application process, in Brazil it is presented as the industry that generates most residues
of environmental impact. In order to mitigate the environmental impact generated, studies
have been developed regarding the reuse of materials as a possible solution to solve this
problem. In this thin line, the present work exposes an investigation of the mechanical
property survey in the concrete increment with several concentrations of rigid polyurethane
volume to substitute a portion of the large aggregate establishing relations with the curing
days of the preformed concrete, with the intention of produce structural concrete that attends
the current standards. The methodology adopted was to characterize the materials,
granulometric verification, the concrete abatement, the percentage of humidity acquired after
concrete curing and compressive strength. The data obtained showed satisfactory results and
with the potential to support the correct project with indication of paving elements and
foundations, but it is not feasible for structural purposes for the civil construction.

Keywords: Residue; Polyurethane; Structural Concrete; Construction; Aggregates.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

944
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

TRATAMENTO TERMOQUÍMICO DE CEMENTAÇÃO SÓLIDA DO


ENGRENAMENTO PINHÃO FEITO DO AÇO SAE 1040, E RESPECTIVOS
ENSAIOS METALOGRÁFICOS E SUA IMPORTÂNCIA QUALITATIVA

Victor Barbosa de Souza1 – victor_souza11@hotmail.com


Niander Aguiar Cerqueira2 – coord.niander@gmail.com
Afonso Rangel Garcez de Azevedo3 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila4 – markssuel@hotmail.com
Euzébio Bernabe Zanelato5 – ebzanelato@gmail.com
Carlos Mauricio Fontes Vieira6 – vieira@uenf.br
Thuany Lima Espirito Santo7 – thuanylima.es@gmail.com
Lucas de Mendonça Neuba8 – lucasmneuba@gmail.com
Sergio Neves Monteiro9 – snevesmonteiro@gmail.com
Marcio Zago Barbosa10 – marciozagobarbosa@gmail.com

1
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
2
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
3
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
4
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
5
Instituto Federal Fluminense, Campus Centro - Campos dos Goytacazes, RJ, Brasil
6
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
7
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
8
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
9
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
10
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil

Resumo. A durabilidade dos mecanismos metálicos depende muitas das vezes de bom
conhecimento estrutural e de sua composição química e ainda do seu comportamento
mecânico quando solicitado a regimes pertinentes ao seu trabalho. Pretendendo um melhor
aproveitamento final da peça, este trabalho propõe a avaliação de cementação sólida, no
qual tem por objetivo elevar a dureza superficial para resistir melhor ao desgaste e manter o
núcleo da peça dúctil e tenaz, também com o objetivo de conservar sua propriedade
absorvente de energias abruptas, de impacto ou solicitações rápidas. O trabalho discorreu
por procedimento de tratamento termoquímico e procedimentos de ensaio metalográfico

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

945
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

evidenciando mudanças de fases, características físicas e durezas inicias e finais ao


tratamento termoquímico.
Palavra-chave: Tratamento termoquímico, Cementação sólida, Dureza, Ensaio
Metalográfico.

1. INTRODUÇÃO

A importância do aumento da dureza superficial de elementos como engrenagens, pinos e


outras peças submetidas a esforços constantes, reside no aumento de sua vida útil, e para isso
são empregadas técnicas de tratamentos termoquímicos, que variam segundo necessidade de
utilização do elemento e sua composição, como seu regime de trabalho e seus esforços
solicitados (Askeland e Phulé, 2017).
A cementação é um tratamento termoquímico de modificação parcial do material por
deposição superficial de carbono e aplicação de um tratamento térmico simultâneo, podendo
ser sólida, líquida ou gasosa (Gong et al., 2020). É também conhecido como tratamento
térmico de aumento de dureza superficial, onde encontramos seu maior objetivo em conjunto
com a resistência ao desgaste da superfície e conservação da ductilidade e tenacidade do
núcleo, pois é mais comum cementar aços de baixo carbono, (usual 0,2%C) (Li et al., 2020).
A modificação parcial da composição química se dá por difusão do carbono doado do
material cementante para superfície do material cementado aquecido suficientemente para
produzir a microestrutura austenita, utilizando para isso ambientes controlados, onde
temperaturas de aquecimento, conservação de temperaturas e resfriamento do material
influenciam diretamente na espessura da camada cementada e dureza final (Singh, 2020).
Este trabalho tem como objetivo demonstrar o tratamento termoquímico sólido de uma
engrenagem de redução de velocidade, normalizada SAE 1040, a fim de demonstrar as
diferenças qualitativas de antes e após o tratamento.

2. MATERIAIS E MÉTODOS

Antes do tratamento termoquímico foi aferida em laboratório a dureza superficial média


do material em estudo, tirando a média entre três pontos diferentes, cuja média aritmética
marcou 20 HRC de dureza e pode ser observada na Figura 1.

Figura 1- Gráfico de dureza Rockwell do material aço SAE 1040 ensaiado em


laboratório da Faculdade Redentor.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

946
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Após aferição da dureza, foi efetuado “ensaio mecanográfico” a fim de certificar-se da


microestrutura do material em análise, SAE 1040, e, portanto hipo-eutetoide, sendo
identificada a microestrutura [ferrita + perlítica] uniformes em toda seção transversal da peça,
(Figura 02) (Souza, 1984).

Figura 2- Durometro de bancada Rockwell Digimess.

2.1 Ensaio Metalográfico

Para obtenção da micrografia e seus diversos constituintes (fases) em termos de fração


volumétrica, tamanho, distribuição, morfologia, composição química, estrutura cristalina e
textura das fases variáveis que controlam as propriedades mecânicas dos materiais, é
necessário preparar a amostra, através de lixamento e polimento apropriado, para o exame de
forma que se obtenha uma superfície lisa e limpa, com menor grau possível de deformação
mecânica e de alteração da estrutura real do material (Sridar et al., 2020).
A preparação metalográfica do material percorreu as seguintes etapas:

• Amostragem/Corte
Procedimento feito com perícia para prevenir o aquecimento demasiado no qual poderia
alterar a microestrutura original do material recebido para o ensaio.
• Lixamento
O principal objetivo do lixamento consiste em remover a camada superficial por demais
arranhada “danificada”, pelo disco abrasivo de corte.
Foi realizado lixamento manual com critério recomendado para otimizar os resultados da
amostra no ensaio metalográfico.
• Polimento
O principal objetivo do polimento consiste em remover a camada superficial por demais
arranhada “danificada”, pelos abrasivos das lixas. Foi utilizado alumina como material de
polimento da peça.
• Inspeção sem ataque

3. RESULTADOS

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

947
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Antes de a amostra sofrer o ataque, a mesma deve estar perfeitamente limpa e seca. Não é
possível identificar com clareza os constituintes das microestruturas antes do ataque, embora
seja possível pela premissa não destrutiva do ensaio visual, identificar inclusões, trincas e
outras imperfeições físicas (incluindo defeitos no polimento propriamente dito), conforme
Figura 3 e 4 (Vandersluis e Ravindran, 2020).

Figura 3 - Amostra micrográfica do material lixado e polido para ataque químico


posterior.

Figura 4 - Amostra micrográfica do material lixado e polido para ataque químico posterior.

• Inspeção com ataque.


O ataque ácido de nital a 2% tem o objetivo de revelar a microestrutura da amostra, ou
seja, criar em sua superfície microrelevos pela ação reagente dos constituintes da
microestrutura do material, que se diferem por seus potenciais eletroquímicos.
A face lisa do corpo a ser ensaiado foi submetida à solução de nital a 2% por 40
segundos, logo após realizou-se o procedimento de secagem, para documentação
metalográfica.
• Documentação em 3 aumentos (Figura 5).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

948
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Microestruturas analisadas do corpo de prova de aço ASE 1040, ainda sem
tratamento termoquímico. Parte clara ferrita, parte escura perlita (ferrita+cementita). Amostra
do centro e da borda do corpo de prova. Nas amostras 100x (cem vezes), 200x, 400x.

3.1 Tratamento Termoquímico

Após aferidos os parâmetros microestruturais do aço SAE 1040, foi determinado através
da tabela ferro-carboneto de ferro a temperatura de austenização de 830°C, e permanência de
2 horas para completa equalização microestrutural. Posteriormente a permanência no forno, a
peça foi submetida a resfriamento em carvão mineral e mantida por 60 minutos em contato
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

949
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

com o material cementante até seu resfriamento a temperatura ambiente. Após cementação foi
realizado revenimento, retornando a peça para o forno a 300°C e mantida por 60 minutos com
essa temperatura e resfriada no forno (Figura 6) (Wang et al., 2020).

Figura 6 – Procedimento de cementação sólida por resfriamento com material cementante


(carvão mineral) do aço SAE 1040.

Logo após a cementação foi realizado novamente o ensaio de dureza, obtendo


resultado expressivo no aumento da dureza superficial, conforme Figura 7.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

950
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 – Gráfico de dureza Rockwell do material aço SAE 1040 tratado termoquimicamente
e ensaiado em laboratório da Faculdade Redentor.

Após a cementação e revenimento, para correta identificação da microestrutura


formada foi novamente realizado todo o procedimento de ensaio metalografico, lixamento,
polimento, ataque químico e vista no microscópio óptico. Pode-se perceber que a
microestrutura formada superficialmente tem característica martensitica, evidenciando que
sua transformação ocorre em contato com o carvão mineral (Figura 8) (Beer, 2006).

Figura 8 – Amostras do centro e da borda, respectivamente, da peça cementada.

4. CONCLUSÃO

Os resultados foram os esperados sob as condições de tratamento termoquímico, a dureza


superficial da peça era em média 21 HRC, passado para a média de 31HRC, a micro estrutura
revelada no trabalho nos possibilitou saber as caraterísticas microestruturais anteriormente e
posteriormente ao tratamento termoquímico de cementação.
Após a cementação a peça ficou mais resistente ao desgaste face ao aumento da dureza
superficial da peça.

REFERENCIAS

Askeland, D. R; PHULÉ, P.P. (2017) Ciência e Engenharia dos Materiais. São Paulo: Cengage Learning.
Beer, F.P. (2006), “Resistência dos Materiais”, 4 ed., McGraw Hill, São Paulo.
Callister Jr, William D. (2009), “Introdução a Ciência e Engenharia dos Materiais”, 7 ed., Pearson - Prentice
Hall
Chiaverini, V. (2005), “Tecnologia Mecânica”, 2 ed., McGraw Hill, São Paulo.
Gong, J; Hongbin, L; Zhang, K; Wang, X. (2020) Heat treatment optimization of China low-activation
ferritic/martensitic steel with cerium addition. Fusion Engineering and DesignVolume 158, 111696.
Jiang, R; Mostafaei, A; Wu, Z; Choi, A; Guand, P; Chmielus, M; Rollett, A.D. (2020), Effect of heat treatment
on microstructural evolution and hardness homogeneity in laser powder bed fusion of alloy 718. Additive
Manufacturing. Volume 35, 101282.
Li, D.G; Chen, D.R; Liang, P. (2020) Influence of heat treatment on corrosion behaviors of 316L stainless steel
in simulated cathodic environment of proton exchange membrane fuel cell (PEMFC). International Journal of
Hydrogen Energy.
Singh, G. (2020)A review on effect of heat treatment on the properties of mild steel. Materials Today. In Press.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

951
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Souza, Sergio Augusto de (1984), “Ensaios Mecânicos de Materiais Metálicos: Fundamentos teóricos e
práticos”, 5 ed., Edgard Blucher Ltda, São Paulo.
Sridar, S; Zhao, Y; Li, K; Wang, X; Xiong, W. (2020) Post-heat treatment design for high-strength low-alloy
steels processed by laser powder bed fusion. Materials Science and Engineering: A. Volume 788, 139531.
Vandersluis, E; Ravindran, C. (2020) Effects of solution heat treatment time on the as-quenched microstructure,
hardness and electrical conductivity of B319 aluminum alloy. Journal of Alloys and Compounds. Volume
838, 155577.
Wang, Z; Xu, J; Li, J. (2020) Effect of heat treatment processes on hydrogen embrittlement in hot-rolled medium
Mn steels. International Journal of Hydrogen Energy. Volume 45, Issue 38, 20004-20020.

THERMO-CHEMICAL TREATMENT OF SOLID CEMENTATION OF PINHÃO


GEAR MADE FROM SAE 1040 STEEL, AND THEIR METALOGRAPHICAL TESTS
AND ITS QUALITATIVE IMPORTANCE

Abstract. The durability of metal mechanisms often depends on good structural knowledge
and its chemical composition and also on its mechanical behavior when requested to regimes
relevant to its work. Aiming at a better final use of the piece, this work proposes the
evaluation of solid carburizing, in which it aims to increase the surface hardness to better
resist wear and keep the core of the piece ductile and tenacious, also with the objective of
conserving its absorbent property of abrupt energies, of impact or rapid requests. The work
was carried out by thermochemical treatment procedure and metallographic testing
procedures, showing changes in phases, physical characteristics and hardnesses, initial and
final to the thermochemical treatment.

Keywords: Thermochemical treatment, solid cementation, hardness, metallographic testing.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

952
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO DO TRATAMENTO TÉRMICO DE TÊMPERA COM DIFERENTES


TIPOS DE RESFRIAMENTOS PARA AUMENTO DA DUREZA

Luis Felipe Sanches da Silva1 – luis-lipe@hotmail.com


Charles Potente Dutra2 – potentedutra@hotmail.com
Victor Barbosa de Souza3 – victor_souza11@hotmail.com
Afonso Rangel Garcez de Azevedo4 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila5 – markssuel@hotmail.com
Euzébio Bernabe Zanelato6 – ebzanelato@gmail.com
Gabriel Pereira Monteiro7 – gbrmonteiro@hotmail.com
Michelle Souza Oliveira 8 – oliveirasmichelle@gmail.com
Sergio Neves Monteiro9 – snevesmonteiro@gmail.com
Tulane Rodrigues da Silva10 – tuhrodrigues_@hotmail.com

1
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
2
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
3
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
4
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
5
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
6
Instituto Federal Fluminense, Campus Centro - Campos dos Goytacazes, RJ, Brasil
7
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
8
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
9
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
10
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil

Resumo. Este artigo tem por objetivo estudar a diferença de dureza alcançada no aço SAE
1045, quando o mesmo é submetido ao tratamento térmico de têmpera, e resfriado em três
diferentes tipos de materiais: carvão, areia e óleo. Através do ensaio mecânico de dureza e a
realização da Metalografia, as propriedades dos quatro tipos de amostras foram analisadas e
comparadas entre si. O ensaio de dureza foi realizado para determinar a diferença de dureza
alcançada nas amostras resfriadas em diferentes tipos de materiais. A metalografia foi feita
para determinar as microestruturas obtidas após o tratamento térmico. As amostras que
passaram pela têmpera obtiveram uma melhora em sua dureza, em consequência das
mudanças microestruturais.
Palavra-chave: Tratamento térmico, Ensaio de dureza, aço SAE 1045.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

953
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Em muitos casos na área da indústria, os aços recém-produzidos geralmente não possuem


as características necessárias para sua utilização em determinadas ocasiões como, por
exemplo, a dureza ou mesmo a resistência mecânica necessária. A utilização de tratamentos
térmicos para a obtenção das características desejadas é comum no setor industrial (Askeland
e Phulé, 2017).
O Tratamento térmico é o conjunto de operações de aquecimento e resfriamento a que
são submetidos os materiais, sob condições controladas de temperatura e velocidade de
resfriamento, com o objetivo de alterar as suas microestruturas e características mecânicas
(Gong et al., 2020).
A têmpera é um dos mais importantes tratamentos térmicos para área da construção
mecânica. As amostras são aquecidas em uma temperatura já pré-determinada e o
resfriamento, é dado de forma muito rápido (Sridar et al., 2020). Para este artigo o
resfriamento se deu em três tipos de materiais, óleo, areia e carvão, nos quais as amostras
foram mergulhadas após seu aquecimento. Todos esses processos resultam em modificações
microestruturais, que pode ou não formar uma microestrutura chamada martensita que garante
ao aço um aumento na dureza e na resistência a tração (Jiang et al., 2020).
O aço 1045 é um aço de baixa têmpera, o que torna a obtenção da martensita um processo
mais difícil do que quando utilizado um material de boa têmpera, pois a taxa de resfriamento
do aço 1045 tende a ser menos de meio segundo (Sridar et al., 2020).
Entende-se como têmpera a facilidade do aço de formar a martensita. Com um aço mais
temperável, pode-se usar uma taxa de resfriamento mais baixa e ainda assim formar
martensita.

2. MATERIAIS E MÉTODOS

Para a obtenção dos dados encontrados neste trabalho foram necessárias três etapas: a
realização da têmpera, o teste de dureza e o ensaio metalográfico.
Para este artigo foram utilizadas quatro amostras de aço SAE 1045, Figura 01, com 0,5
polegadas de diâmetro e 5 cm de largura, sendo uma das quatro amostras utilizadas sem
tratamento térmico apenas para fins de comparação. O aço SAE 1045 tem composição
química especificada na Tabela 1, e é classificado como um aço médio carbono, considerado
um aço de boa usinabilidade, boa resistência mecânica e alta forjabilidade (Sridar et al.,
2020). Suas aplicações são variadas dentre elas a fabricação de eixos, engrenagens comuns,
componentes estruturais de maquinas, virabrequins entre outras.

Tabela 1 - Composição Química do aço SAE 1045.


Elemento %

C 0,43 – 0,50

SI 0,15 – 0,35

Mn 0,60 – 0,9

P 0,03

S 0,05
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

954
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.1 Etapa 1: Realização do tratamento térmico de têmpera

A realização do tratamento térmico de têmpera se deu em três fases: aquecimento,


Manutenção da temperatura e o resfriamento. Para a realização desses processos foi utilizado
um forno da marca Novus, com capacidade de atingir 1200 °C mostrado na Figura 1. Todo
processo de aquecimento e resfriamento foi realizado no laboratório de tratamento térmico da
FACREDENTOR.

Figura 1- Forno Novus


Fonte: Arquivo pessoal

O forno foi aquecido até 855 °C com uma taxa de pré-aquecimento de 60 min. Após
atingir a temperatura desejada foi realizado o aquecimento das amostras no patamar
máximo por 30 min, sendo assim o tempo total de aquecimento das amostras foi de 1h e
30 min.
Para a definição da temperatura foi utilizado o diagrama Fe-C como o apresentado na
Figura 2, traçando no diagrama Fe-C uma linha até a zona crítica do aço, e tomando como
base um aço 1045 encontra-se uma temperatura aproximadamente a 775°C, de acordo com
as dimensões da amostra foi utilizada uma temperatura 80ºC acima da zona crítica, para a
completa austenitização do aço (Wang et al., 2020).

Figura 2- Diagrama Fe-C


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

955
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fonte: Vicente Chiaverini, Tecnologia Mecânica Volume 3

Para o resfriamento foram utilizados três tipos de materiais: areia, carvão e óleo, com
o objetivo de verificar a alternância de dureza obtida em cada uma das amostras.
Como demonstrado na Figura 3, a taxa de resfriamento no aço 1045 também citada
anteriormente é de meio segundo, o que torna a obtenção da martensita um processo
difícil, no momento do resfriamento nenhuma das amostras foram movimentadas dentro
dos materiais utilizados, elas foram completamente submersas de forma calma (Wang et
al., 2020).

Figura 3- Curva TTT do aço 1045, com uma linha representando o tempo máximo de
resfriamento.
Fonte: Vicente Chiaverini, Tecnologia Mecânica Volume 3

Todas as amostras tiveram um tempo de submersão de 48 horas, e sendo todas de aço


1045 elas possuem a mesma taxa de resfriamento cerca de menos de meio segundo para a
formação da martensita. O tempo que levou para as amostras serem retiradas do forno até
serem completamente submersas nos recipientes com os respectivos materiais para o
resfriamento foi cronometrado e está apresentado na Tabela 2, juntamente com a quantidade
de material utilizado para o resfriamento.
As amostras foram recolhidas de dentro do forno utilizando um tenaz mostrado na Figura
4 e 5.

Tabela 2 - Quantidade de material usado para o resfriamento e tempo de retirada do forno até
o resfriamento.
Material Tempo de Resfriamento Quantidade

Areia 5s 0,00042 m³

Carvão 4.4 s 0,001 m³


Óleo 4,2 s 0,002 m³

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

956
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b) (c)


Figura 4 - Materiais utilizados para o resfriamento, (a) areia, (b) carvão, (c) óleo.
Fonte: Arquivo Pessoal.

Figura 5 - Tenaz utilizado para recolhimento das amostras


Fonte: Arquivo Pessoal.
2.2 Etapa 2: Ensaio de Dureza

Após a realização da têmpera as amostras recolhidas foram submetidas ao ensaio de


dureza, sendo realizadas em cada amostra, dez verificações.
Para o ensaio de dureza foi utilizado um durômetro de bancada da marca digimess, fotografia
03. O durômetro de bancada é adequado para se testar dureza de metais, e é muito utilizado
em muitas áreas da indústria no mundo inteiro (Sridar et al., 2020).
O método para medir a dureza consistiu em medir a profundidade da impressão deixada
na amostra com a aplicação de uma carga, através de um penetrador de diamante em forma de
cone. Para este artigo foi adotada a escala Rockwell C.
O método de dureza Rockwell C, representado pelo símbolo HRC (Hardness Rockwell),
leva em consideração a profundidade que o penetrador atingiu, descontando-se a recuperação
elástica, devido à retirada da carga maior, e a profundidade atingida que é devida à carga
menor, no caso do símbolo C a carga principal é de 150 kgf. Nesse método, o resultado é lido
diretamente na máquina de ensaio; além da rapidez maior, este método elimina o possível erro
de medição que depende do operador.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

957
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.3 Etapa 3: Ensaio Metalográfico

Com a conclusão das duas etapas iniciais foi realizado o ensaio metalográfico para a
verificação das microestruturas obtidas após o tratamento térmico (Singh, 2020).
Para a realização do ensaio, foi necessário o lixamento das amostras com lixas 240, 340, 400,
600 e 1200. Após as amostras estarem devidamente lixadas elas foram polidas em uma
Politriz Lixadeira Motorizada Polipan-2. Com o polimento concluído as amostras passaram
por um ataque químico. No ataque químico a amostra ficou imersa em ácido nítrico por cerca
de 1 minuto. Para finalizar o ensaio, foi realizada a microscopia, descrita como análise feita
em um microscópio para verificar a microestrutura formada (Singh, 2020).

3. RESULTADOS

A Tabela 3 é resultado da durezas obtidas em Rockwell C.

Tabela 3 - Durezas obtidas em Rockwell C antes e após a têmpera, e os respectivos materiais


usados para resfriamento.

Amostra não Resfriada em Resfriada em Resfriada em


temperada areia (HRC) Carvão (HRC) óleo (HRC)
(HRC)
1ª Verificação 22 41 31 53
2ª Verificação 25 37 31 49
3ª Verificação 24 34 30 45
4ª Verificação 22 38 31 50
5ª Verificação 24 35 33 53
6ª Verificação 23 35 32 55
7ª Verificação 23 39 34 45
8ª Verificação 27 34 30 48
9ª Verificação 29 37 33 49
10ª Verificação 24 40 30 50

A Figura 6 mostra o resultado do gráfico de dureza por material resfriador.

Grafico de Dureza
60
Dureza (HRC)

50
40
30
20 Não
10 temperada
0
Carvão

Ensaios de Dureza

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

958
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 - Gráfico de Dureza por material resfriador.

Os dados apresentados abaixo relacionam a média de dureza feita em cima das dez
verificações em cada amostra com o material utilizado para o resfriamento (Tabela 4).

Tabela 4 - Média de dureza obtida em cada amostra


Amostra não Resfriada em Resfriada em Resfriada em
temperada Carvão (HRC) óleo (HRC) areia (HRC)
(HRC)

Media de 24,3 31,3 49,7 37


Dureza

As Figuras 7 a 10 apresentadas abaixo representam as microestruturas obtidas através do


ensaio metalográfico, juntamente com as observações micro estruturais em cada uma.

Figura 7 - Amostra no estado bruto com ampliação no microscópio


Fonte: Arquivo pessoal.
Grãos escuros: Perlita
Grãos claros: Ferrita proeutetóide

Figura 8 – Amostra resfriada em areia com ampliação no microscópio


Fonte: Arquivo pessoal.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

959
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Grãos escuros: Perlita, Grãos claros: Ferrita

Figura 9 – Amostra resfriada em carvão com ampliação no microscópio


Fonte: Arquivo pessoal.
Grãos escuros: Perlita fina
Graços claros: Ferrita

Figura 10 – Amostra resfriada em óleo com ampliação no microscópio


Fonte: Arquivo pessoal.
Apresenta bainita e grãos brancos de ferrita no fundo

Com a realização do tratamento térmico de têmpera foi possível garantir aos corpos de
prova um aumento em sua dureza, isto ficou comprovado com os dados obtidos no ensaio de
dureza.
A Tabela 1 demonstra a diferença de dureza obtida nos três tipos de amostras resfriadas,
cada uma resfriada em um tipo de material diferente, e para fim de comparação há também os
dados de dureza obtida da amostra que não passou pelo tratamento térmico (Singh, 2020).
Através do Ensaio metalográfico foi possível observar as mudanças microestruturais ocorridas
em cada uma das amostras após o tratamento térmico de tempera (Sridar et al., 2020).
Com o ensaio de dureza na amostra não temperada, verificou-se uma dureza média de
24,3 demonstrada na Tabela 3. Com base na dureza encontrada nesta amostra, foi feito a
análise do quão efetivo foi o aumento de dureza nas outras três amostras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

960
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O ensaio metalográfico realizado para esta amostra determinou dois tipos de materiais perlita
e ferrita, sendo o aço 1045 um aço de médio teor de carbono é possível observando 3 que a
quantidade de perlita e ferrita quase se equiparam (Li et al., 2020).
A areia como material para resfriamento se mostrou mais eficaz que o carvão, porém
menos eficaz que o óleo. A média de dureza da areia foi de 37 HRC, o que representa um
acréscimo de 12,7 HRC em comparação com a amostra não tratada termicamente.
No ensaio metalográfico a areia apresentou uma formação de grandes grãos de perlita.
A amostra resfriada em carvão foi a que obteve um menor aumento em sua dureza, ou
seja, o carvão foi o material menos efetivo para o, apresentando apenas um acréscimo de
7HRC em relação a amostra não tratada termicamente, porém foi a amostra que obteve uma
menor dispersão de valores obtidos no ensaio de dureza , isto porque o carvão é rico em
carbono tornando os grãos de perlita mais bem distribuídos, isto se comprova com os dados
do ensaio metalográfico observando a Figura 5 (Wang et al., 2020).
Dentre os materiais utilizados para o resfriamento o óleo foi o material mais efetivo
quando se busca um aumento na dureza do aço. A amostra resfriada em óleo obteve uma
dureza média de 49.7 HRC, como demonstrado na Tabela 3, isso significa uma melhora em
dureza media equivalente a 25,4 HRC em comparação com a dureza da amostra que não
passou por tratamento térmico (Gong et al., 2020).
Com o ensaio metalográfico comprovou-se a formação de bainita nesta amostra, uma
microestrutura mais dura que a perlita.

4. CONCLUSÃO

A têmpera possui grande eficiência no aumento da dureza dos aços, comprovando sua
importância para a indústria mecânica.
Os experimentos realizados demonstraram a importância da escolha do material para o
resfriamento no tratamento térmico de têmpera em razão do aumento da dureza,
comprovando-se a eficiência do óleo quando utilizado como material para o resfriamento e
certa ineficiência do carvão em estado sólido, ficando a areia entre os dois anteriores em
relação ao aumento de dureza das amostras.
Comprovaram-se também as mudanças microestruturais sofridas pelas amostras que
passaram pelo tratamento térmico de têmpera, tendo em alguns casos o aumento de perlita ou
então a formação de uma nova microestrutura como no caso do óleo, onde se formou a
bainita, O aumento ou mesmo a formação das microestruturas citadas foram responsáveis
pelo acréscimo de dureza após o tratamento térmico nas amostras.

REFERENCIAS

Askeland, D. R; PHULÉ, P.P. (2017) Ciência e Engenharia dos Materiais. São Paulo: Cengage Learning.
Beer, F.P. (2006), “Resistência dos Materiais”, 4 ed., McGraw Hill, São Paulo.
Callister Jr, William D. (2009), “Introdução a Ciência e Engenharia dos Materiais”, 7 ed., Pearson - Prentice
Hall
Chiaverini, V. (2005), “Tecnologia Mecânica”, 2 ed., McGraw Hill, São Paulo.
Gong, J; Hongbin, L; Zhang, K; Wang, X. (2020) Heat treatment optimization of China low-activation
ferritic/martensitic steel with cerium addition. Fusion Engineering and DesignVolume 158, 111696.
Jiang, R; Mostafaei, A; Wu, Z; Choi, A; Guand, P; Chmielus, M; Rollett, A.D. (2020), Effect of heat treatment
on microstructural evolution and hardness homogeneity in laser powder bed fusion of alloy 718. Additive
Manufacturing. Volume 35, 101282.
Li, D.G; Chen, D.R; Liang, P. (2020) Influence of heat treatment on corrosion behaviors of 316L stainless steel
in simulated cathodic environment of proton exchange membrane fuel cell (PEMFC). International Journal of
Hydrogen Energy.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

961
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Singh, G. (2020)A review on effect of heat treatment on the properties of mild steel. Materials Today. In Press.
Souza, Sergio Augusto de (1984), “Ensaios Mecânicos de Materiais Metálicos: Fundamentos teóricos e
práticos”, 5 ed., Edgard Blucher Ltda, São Paulo.
Sridar, S; Zhao, Y; Li, K; Wang, X; Xiong, W. (2020) Post-heat treatment design for high-strength low-alloy
steels processed by laser powder bed fusion. Materials Science and Engineering: A. Volume 788, 139531.
Vandersluis, E; Ravindran, C. (2020) Effects of solution heat treatment time on the as-quenched microstructure,
hardness and electrical conductivity of B319 aluminum alloy. Journal of Alloys and Compounds. Volume
838, 155577.
Wang, Z; Xu, J; Li, J. (2020) Effect of heat treatment processes on hydrogen embrittlement in hot-rolled medium
Mn steels. International Journal of Hydrogen Energy. Volume 45, Issue 38, 20004-20020.

STUDY OF THERMAL THERMAL TREATMENT WITH DIFFERENT TYPES


OF COOLINGS TO INCREASE HARDNESS

Abstract. This article aims to study the difference in hardness achieved in SAE 1045 steel,
when it is subjected to tempering heat treatment, and cooled in three different types of
materials: coal, sand and oil. Through the mechanical hardness test and the realization of
Metallography, the properties of the four types of samples were analyzed and compared with
each other. The hardness test was performed to determine the difference in hardness achieved
in the samples cooled in different types of materials. Metallography was performed to
determine the microstructures obtained after heat treatment. The samples that have been
tempered have improved in hardness as a result of microstructural changes.

Keywords: Heat treatment, Hardness test, SAE 1045 steel.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

962
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DAS PROPRIEDADES DO AÇO SAE 1045 EM PROL COROA POWDER


COAT DE AÇO 1045T

Hugo Veloso Soares1 – hugovelososoares@gmail.com


Karol Aparecida Amiti Fabri2 – karolamiti@hotmail.com
Victor Barbosa de Souza3 – victor_souza11@hotmail.com
Afonso Rangel Garcez de Azevedo4 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila5 – markssuel@hotmail.com
Euzébio Bernabe Zanelato6 – ebzanelato@gmail.com
Leandro Barbosa de Oliveira7 – leandrobarbosa850@gmail.com
Fabio da Costa Garcia Filho8 – fabiogarciafilho@gmail.com
Sergio Neves Monteiro9 – snevesmonteiro@gmail.com
Tulane Rodrigues da Silva10 – tuhrodrigues_@hotmail.com

1
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
2
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
3
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
4
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
5
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
6
Instituto Federal Fluminense, Campus Centro - Campos dos Goytacazes, RJ, Brasil
7
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
8
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
9
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
10
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil

Resumo. Este artigo tem por objetivo estudar o comportamento da conformação do aço 1045
quando submetido a diversos tratamentos térmicos, em prol da fabricação de coroas de kit
relação utilizados em motocicletas, pelo qual procuramos o aprimoramento e inovações,
tendo como foco levar ao mercado melhores peças, como a Coroa Powder Coat de Aço
1045T. Foi realizado um teste de tração em um corpo de prova do aço 1045 não tratado,
para obtermos a relação entre tensão e deformação. Logo após, submetemos algumas
amostras a tratamentos de normalização, têmpera à óleo e têmpera à água. Através do ensaio
mecânico de dureza, suas propriedades foram comparadas ente si e com as propriedades da
amostra não tratada. As amostras temperadas apresentaram maior dureza. A têmpera em
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

963
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

água, entre os testes feitos, foi a que apresentou maior dureza e maior uniformidade em
pontos distintos da peça.
Palavra-chave: Aço 1045, tempera, propriedades.

1. INTRODUÇÃO

Serão apresentadas e comparadas neste artigo as propriedades do aço 1045, que foram
analisadas através de ensaios nos laboratórios de Usinagem e de Metalografia e Tratamento
Térmico da Faculdade Redentor em Itaperuna no dia 15 de junho de 2015, para que assim
possam também ser comparadas com as propriedades do aço utilizado na fabricação da Coroa
Powder Coat de Aço 1045T (Askeland, 2017).
O aço utilizado na Coroa Powder Coat de Aço 1045T é produzido a partir de uma
fórmula exclusiva. Ele tem ligas de aço e as moléculas de carbono se distribuem
uniformemente, assim, mantém-se homogênea a rigidez do material em toda a sua área,
evitando partes quebradiças e frágeis, proporciona estampo de qualidade sem problemas com
a espessura a ser alcançada, o que oferece resistência maior às peças. Mas, a durabilidade e
resistência do Aço VAZ 1045T se devem principalmente ao processo pelo qual ele é
submetido, que é a tempera por indução, identificado pela letra T. A indução térmica torna
este aço ainda mais resistente à abrasão (Jiang et al., 2020).
Foi feito o ensaio de tração no corpo de prova produzido segundo as normas da ABNT do
aço 1045 não tratado para conferir a resistência deste, a normalização, a têmpera com
resfriamento em óleo e água e ensaios de dureza na peça não tratada e nas peças tratadas para
que pudessem ser comparadas as propriedades (Wang et al., 2020).
O aço 1045 é um aço de boa usinabilidade, boa resistência mecânica, média soldabilidade
e alta capacidade de forjamento. Tem em sua composição química Carbono (0,43% - 0,50%),
Silício (015% - 0,35%), Magnésio (0,30% - 0,60%), Fósforo (0,03% máx.) e Enxofre (0,05%
máx.). É muito utilizado no fabrico de peças para indústria mecânica em geral e suas maiores
aplicações são em pinos, parafusos, pregos, pinças, eixos em geral, cilindros, braçadeiras,
entre outros (Singh et al., 2020).
A partir dos ensaios de tração e dureza apresentar as propriedades do aço SAE 1045,
observar as mudanças ocorridas após a normalização e as têmperas e analisar o que as
propriedades do aço não tratado e dos aços tratados tem em comum, ou diferem, das
propriedades do aço VAZ 1045T.

2. MATERIAIS E MÉTODOS

2.1 O Ensaio de Tração

Primeiramente foi feito o ensaio de tração para medir a resistência do aço 1045. Os
corpos de prova para o ensaio de tração devem seguir um padrão de forma e dimensões para
que os resultados dos testes efetuados possam ser significativos e validados. O ensaio de
tração descrito neste artigo, e realizado no Laboratório de Engenharia Mecânica, o corpo de
prova foi devidamente dimensionado segundo a normativa MB-4 da ABNT que define
formato e dimensões do corpo para cada tipo de ensaio (Vandersluis e Ravindran, 2020).
Este teste mede a resistência de um material a um carregamento mecânico ou aplicado
lentamente. As taxas de deformação de um teste de tração são reduzidas. Isso é conseguido
pela movimentação do travessão a velocidade de constante. A máquina de ensaio de tração
utilizada no ensaio do corpo de prova é da marca Kratos Equipamentos, com célula de carga

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

964
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

máxima de 10000 kgf, e com velocidade de deslocamento de 5,00 mm/min. A seguir, na


Figura 1, é mostrada a máquina de ensaio utilizada no ensaio de tração.

Figura 1- Máquina de Ensaio de Tração.


Fonte: Própio Autor

2.2 Corpo de Prova de aço SAE 1045

Os corpos de prova, mostrados na Figura 2, tem uma seção transversal circular,


comprimento total de 150 mm, comprimento da Área útil de 35 mm e diâmetro da Área útil
de 6,2mm.

Figura 2- Corpo de Prova do Aço 1045


Fonte: Arquivo pessoal

2.3 Têmpera e Normalização

A têmpera é um procedimento muito utilizado em aços principalmente os de construção


mecânica. Ela compreende resfriar o aço, após austenitização, a uma velocidade
suficientemente rápida para evitar as transformações perlíticas e bainíticas na peça em
questão. Desta forma, obtém-se a estrutura metaestável martensítica. A têmpera resulta em
modificações estruturais que ocasionam grande aumento da dureza, da resistência mecânica,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

965
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

da resistência ao desgaste. Já as propriedades relacionadas à ductilidade sofrem uma


diminuição e há geração de tensões internas em grande intensidade.
A normalização proporciona dureza e resistência aos componentes do aço e ajuda reduzir
tensões internas produzidas por operações como usinagem, solda e forjamento, a
normalização visa geralmente à melhora da usinabilidade, estabilidade dimensional,
ductilidade entre outras propriedades do aço.
Logo após ser feito o ensaio de tração no Laboratório de Usinagem da Faculdade
Redentor, foi realizada a têmpera em dois corpos de prova e a normalização em um outro.
Eles foram aquecidos a uma temperatura de 855°C a um tempo de 00:45min e foram
resfriados em três substancias diferentes, óleo, água e ao ar livre (no caso, normalização).

2.4 Materiais e Procedimentos Utilizados no Ensaio

• Forno elétrico de capacidade máxima 1200°C;


• 3 Corpos de Prova de aço SAE 1045.

Como procedimentos, temos:


1º O forno foi ligado as 15:30h e demorou aproximadamente 01:20h até que atingisse a
temperatura de 855°C.
2º Após atingida a temperatura de 855°C são colocados os corpos de prova dentro do forno e
lá permanecem por um tempo de 00:45min.
3º Depois de decorridos os 00:45min são retirados os corpos de prova e resfriados na água, no
óleo e ao ar livre.Eles são retirados do forno, colocados diretamente em cada substância e
deixados lá até que estejam totalmente resfriados.

2.5 Dureza

Os ensaios de dureza foram feitos na peça de aço 1045 não-tratada e nas outras três peças
tratadas.
Foi utilizado o ensaio de dureza Rockwell, que é o processo mais utilizado no mundo. Ele
é rápido, de fácil execução, isento de erros pessoais, é capaz de distinguir pequenas diferenças
de dureza em aço temperado e as impressões deixadas por ele são de pequena dimensão
(Souza, 1984).
“O princípio do ensaio é semelhante ao do processo Brinell, ou seja, força-se, pela
aplicação de uma carga preestabelecida, um penetrador de forma e dimensões conhecidas,
sobre a superfície da peça a ensaiar.” (CHIAVERINI, 1986) Porém, o valor da dureza é
proporcional à profundidade de penetração.

3. RESULTADOS

Como resultado no ensaio de tração, podemos observar a Tabela 1 a seguir.

Tabela 1 Dados da Máquina e resultados do ensaio.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

966
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Módulo de Elasticidade
Limite de Escoamento
Limite de Resistência

Alongamento Carga

Diâmetro Externo
Redução de Área
Identificação da

Força Máxima

Comprimento
Alongamento
Amostra

Amostra

Máxima
MPa

MPa

MPa

Mm

Mm
No.

%
N

ART. 3876,4
1 26895,17 347,03 330,37 19,03 12,91 35,48 6,200 35,00
1045 5

Tendo em vista que a máquina que ensaiou o corpo de prova já informou os valores das
variáveis das propriedades mecânicas do aço SAE 1045, utilizaremos o gráfico Força x
Deslocamento, conforme a Figura 3 a seguir, também descrito pela máquina, para calcularmos
as propriedades já expostas na tabela acima, com o propósito de validá-las (Jiang et al., 2020).

Figura 3 - Gráfico Tensão x Deformação do Aço SAE 1045

Para fazer o gráfico Tensão x Deformação foram divididos os valores das forças
aplicadas pela área da secção transversal obtendo a tensão, e as deformações pelo
comprimento inicial obtendo a deformação. Nos ensaios de dureza Rockwell, observamos os
resultados na Figura 4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

967
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - Gráfico Comparativo do Ensaios de Dureza Rockwell

Com o comparativo do resultado dos ensaios de dureza, obtivemos que o aço feito a
tempera e resfriado em água tem maior dureza, com uma média de 55 HRC, comparado as
outras peças que obtiveram uma média menor, sem tempera 27 HRC, normalizado 35
HRC e tempera resfriado em óleo 39 HRC (Singh et al., 2020).

4. CONCLUSÃO

Ao final deste artigo, depois de feitos os ensaios nos laboratórios da Faculdade Redentor,
pudemos notar através dos ensaios de tração e de dureza que o aço 1045 tem uma boa relação
entre resistência mecânica e resistência à fratura. Como é um aço de médio teor de carbono,
tem boa resistência mecânica e média tenacidade. Ele também possui boa tempera. Assim,
observamos que tanto no resfriamento em óleo, em água e na normalização, houve aumento
da dureza. Porém, fica bem evidente na Figura 4, que o aumento da dureza foi maior na peça
que recebeu tratamento térmico de têmpera resfriada em água.
Concluímos então, que o aço 1045 com tratamento térmico obtém maior dureza, mas
quando comparado ao Aço VAZ 1045T, nota-se que este é o mais viável para a construção de
coroas para kit relação de motocicletas, pois não se deve esperar durezas uniformes no aço
1045 após a têmpera e para a construção das coroas para kit relação é exigida uma maior
dureza, maior resistência à abrasão, rigidez de maneira homogênea em toda sua área e peças
que tenham desgaste correto durante o uso, onde está diretamente ligado a durabilidade,
resistência e facilidade de usinagem da peça.
Dentre os testes feitos obtivemos que a tempera resfriada em água seria de melhor
benefício para a construção de coroas, porque foi a que nos apresentou maior média de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

968
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dureza, e estrutura mais homogenia. Porém, deveriam ser aplicados também outros
tratamentos térmicos para satisfação das propriedades necessárias em coroas para kit relação
de motocicletas.

REFERENCIAS

Askeland, D. R; PHULÉ, P.P. (2017) Ciência e Engenharia dos Materiais. São Paulo: Cengage Learning.
Beer, F.P. (2006), “Resistência dos Materiais”, 4 ed., McGraw Hill, São Paulo.
Callister Jr, William D. (2009), “Introdução a Ciência e Engenharia dos Materiais”, 7 ed., Pearson - Prentice
Hall
Chiaverini, V. (2005), “Tecnologia Mecânica”, 2 ed., McGraw Hill, São Paulo.
Gong, J; Hongbin, L; Zhang, K; Wang, X. (2020) Heat treatment optimization of China low-activation
ferritic/martensitic steel with cerium addition. Fusion Engineering and DesignVolume 158, 111696
Jiang, R; Mostafaei, A; Wu, Z; Choi, A; Guand, P; Chmielus, M; Rollett, A.D. (2020), Effect of heat treatment
on microstructural evolution and hardness homogeneity in laser powder bed fusion of alloy 718. Additive
Manufacturing. Volume 35, 101282.
Li, D.G; Chen, D.R; Liang, P. (2020) Influence of heat treatment on corrosion behaviors of 316L stainless steel
in simulated cathodic environment of proton exchange membrane fuel cell (PEMFC). International Journal of
Hydrogen Energy.
Singh, G. (2020)A review on effect of heat treatment on the properties of mild steel. Materials Today. In Press.
Souza, Sergio Augusto de (1984), “Ensaios Mecânicos de Materiais Metálicos: Fundamentos teóricos e
práticos”, 5 ed., Edgard Blucher Ltda, São Paulo.
Sridar, S; Zhao, Y; Li, K; Wang, X; Xiong, W. (2020) Post-heat treatment design for high-strength low-alloy
steels processed by laser powder bed fusion. Materials Science and Engineering: A. Volume 788, 139531.
Vandersluis, E; Ravindran, C. (2020) Effects of solution heat treatment time on the as-quenched microstructure,
hardness and electrical conductivity of B319 aluminum alloy. Journal of Alloys and Compounds. Volume
838, 155577.
Wang, Z; Xu, J; Li, J. (2020) Effect of heat treatment processes on hydrogen embrittlement in hot-rolled medium
Mn steels. International Journal of Hydrogen Energy. Volume 45, Issue 38, 20004-20020.

ANALYSIS OF PROPERTIES OF SAE 1045 STEEL IN PROL CROWN 1045T


STEEL POWDER COAT

Abstract. This article purposes to study the 1045 steel conformation behavior when subjected
to various heat treatments, for the sake of crown relation kit`s manufacturing, used on
motorcycles, where we seek improvement and innovation, willing to provide the market the
finest parts, such as the 1045T steel Crown Powder Coat. A test was conducted on an
untreated 1045 sample, aiming to achieve the relation between stress and strain. Hence, we
submitted some samples to normalization treatments, quenching to oil and quenching to
water. Through mechanical hardness tests, the outcome was compared among the treated and
untreated samples. The quenched samples offered higher hardness. The water quenched
samples showed the highest hardness and uniformity in different points of the piece.

Keywords: 1045 steel, quenching, property.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

969
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DA IMPORTÂNCIA DO TRATAMENTO TÉRMICO SUPERFICIAL DA


ENGRENAGEM DE AÇO SAE 1045 DA TRANSMISSÃO DE MOTOCICLETA
PARA AUMENTO DE DUREZA E RESISTÊNCIA AO DESGASTE

Victor Barbosa de Souza1 – victor_souza11@hotmail.com


Gean Neiva da Silva2 – gean_rockeiro@hotmail.com
João Paulo Vardiero da Silva3 – joaopaulobozojunior@hotmail.com
Afonso Rangel Garcez de Azevedo4 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila5 – markssuel@hotmail.com
Euzébio Bernabe Zanelato6 – ebzanelato@gmail.com
Higor Azevedo Rocha7 – higorazevedo_@hotmail.com
Fernanda Santos da Luz8 – fsl.santos@gmail.com
Sergio Neves Monteiro9 – snevesmonteiro@gmail.com
1
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
2
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
3
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
4
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
5
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
6
Instituto Federal Fluminense, Campus Centro - Campos dos Goytacazes, RJ, Brasil
7
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
8
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
9
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil

Resumo. Este trabalho tem por objetivo realizar a análise de dureza e da resistência ao
desgaste em uma engrenagem de transmissão de motocicleta (pinhão), tratando-a
termicamente, objetivando assim relatar o motivo no qual os fabricantes fazem os
tratamentos térmicos superficiais nas peças com o objetivo de melhorias em dureza e
resistência ao desgaste, e destacando-se assim que a peça em suas condições normais após
sua fabricação sem nenhum tipo de melhoria de dureza em sua superfície teria um desgaste
excessivo em seus dentes. A análise foi feita através de um tratamento térmico de
normalização na peça com o objetivo de minimizar os efeitos do tratamento térmico
superficial feito após sua fabricação e comparar os valores de dureza obtidos nos ensaios
realizados antes e após o tratamento térmico.
Palavra-chave: Engrenagem de Moto, Tratamento Térmico, Dureza.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

970
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Sendo um dos principais elementos de máquinas e utilizado em larga escala para


transmissões, as engrenagens desempenham um papel fundamental na indústria metal
mecânica transmitindo potência de uma unidade motora para uma unidade motriz. Uma
característica extremamente importante é o fato que em função da configuração ou arranjo
destes elementos, podemos variar as rotações consequentemente alterando o torque (Gong et
al., 2020).
Tentando retardar o alto desgaste das engrenagens por atrito, tem-se utilizado diferentes
técnicas, como por exemplo, o tratamento térmico, que sob condições controladas de tempo,
temperatura, atmosfera e velocidade de resfriamento, altera as suas propriedades mecânicas e
confere-lhes características determinadas (Jiang et al., 2020).
A utilização dos tratamentos térmicos na engenharia tem apresentado excelentes resultados,
pois com os variados tipos de tratamento térmico é possível obter a eliminação das tensões
internas adquiridas nos processos de fabricação, aumento ou diminuição da dureza,
ductilidade, tenacidade e resistência ao desgaste.
Um grande problema em projetos de engenharia é que nem todo elemento de máquina
está sujeito à carga estática mecânica, sendo na maioria dos casos aplicado carregamento
dinâmico, podendo assim variar com o tempo as tensões dinâmicas. Este tipo de carregamento
pode ocasionar um tipo de falha na peça, conhecida como falha por fadiga (Li et al., 2020).
A engrenagem da transmissão de motocicletas é um elemento de máquina sujeito a
tensões dinâmicas, pois atua como transmissor de torque e velocidades, e trabalha por contato
direto com outro elemento de máquina, neste caso a corrente da motocicleta (Vandersluis e
Ravindran, 2020). Sendo assim a engrenagem deve possuir uma boa dureza na superfície de
seus dentes, pois os mesmos devem resistir ao rompimento por cisalhamento e ao desgaste
excessive (Polonine et al., 2015).
Para um projetista, a dureza é considerada uma base de medida para o conhecimento da
resistência e do tratamento térmico ou mecânico de um metal e da sua resistência ao desgaste.
Para a medição da dureza de um material existem diferentes tipos de métodos, como Brinell,
Vickers e Rockwell (Souza, 1984).
Na análise realizada foi feito ensaios de dureza com um durômetro utilizando a escala
Rockwell C, escala na qual se utiliza um penetrador de diamante. Esse método foi introduzido
em 1922 por Rockwell, que leva seu nome e oferece algumas vantagens significantes.
Representado pelo símbolo HR (Hardness Rockwell), leva em consideração a profundidade
que o penetrador atingiu, descontando-se a recuperação elástica, devido à retirada da carga
maior, e a profundidade atingida que é devida à carga menor. Nesse método, o resultado é
lido diretamente na máquina de ensaio; além da rapidez maior, este método elimina o possível
erro de medição que depende do operador (Souza, 1984)
Para análise da peça foi feito um tratamento térmico de normalização objetivando a
minimização dos efeitos causados pelo tratamento superficial feito na mesma após sua
fabricação, como por exemplo, a possível formação de martensita na superfície de seus dentes
(Singh et al., 2020). O tratamento de Normalização visa refinar a granulação grosseira de
peças de aço, aquecendo o aço a uma temperatura acima da zona crítica, seguindo de
resfriamento no ar, obtendo perlita fina e ferrite (Wang et al., 2020).

2. MATERIAIS E MÉTODOS

2.1 A Engenhagem

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

971
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A seleção do elemento de máquina para análise foi baseada no pinhão, um modelo


simples e comercial, tratando-se de um elemento com elevado desgaste, principalmente em
motos. A Figura 1 abaixo mostra o pinhão utilizado na análise.

Figura 1- Imagem do pinhão utilizado na análise.


Fonte: Arquivo pessoal

O pinhão é constituído de aço-carbono SAE 1045, um aço muito utilizado em


construções metálicas e recebe tratamento térmico superficial após sua fabricação (Gong
et al., 2020). É um Aço carbono comum de excelente forjabilidade e boa usinabilidade,
com composição química de Carbono (0,43% - 0,50%), Silício (0,15% - 0,35%),
Magnésio (0,30% - 0,60%), Fósforo (0,03% máx.) e Enxofre (0,05% máx.), é um aço de
médio teor de carbono e baixa temperabilidade, sendo assim sua capacidade de formar
martensita é baixa, vale ressaltar que os pinhões são dimensionados a partir da norma DIN
780. As dimensões da peça são mostradas na Figura 2 a seguir, que mostra que possui 17
dentes, diâmetro externo de 73 mm, diâmetro interno de 20 mm, espessura de 7 mm e
altura do dente 7 mm (Wang et al., 2020).

Figura 2- Desenho esquemático do pinhão com dimensões.


Fonte: Catálogo de peças Honda

2.2 Primeiro Ensaio de Dureza

Com a peça apenas com uma tempera superficial, foi realizado um ensaio para medir a
dureza, foi utilizado a máquina de ensaio de dureza marca DIGIMESS, disponibilizado pela
Faculdade Redentor, localizada no laboratório de usinagem e ensaios mecânicos e tem
capacidade de 150 Kgf de carga ou 1470,9975 N, como mostra a Figura 3 abaixo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

972
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Máquina de ensaio de dureza Rockwell.


Fonte: Arquivo pessoal

Foram analisados 10 pontos diferentes da peça na região dos dentes para se obter os
seguintes dados observados na Tabela 1. Após analisarmos cada ponto do ensaio de dureza
a peça foi submetida a um tratamento térmico de normalização (Vandersluis e Ravindran,
2020).

Tabela 1- Resultados do ensaio de dureza antes do tratamento térmico de normalização

Pontos analisados Resultados em HRc


1° 47

2° 49

3° 48

4° 48

5° 49

6° 48

7° 47

8° 49

9° 48

10° 48

2.3 Tratamento Térmico

Com o objetivo de minimizar os efeitos causados pelo tratamento superficial feita após
sua fabricação e objetivando retornar as suas características originais, foi realizado um
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

973
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

tratamento térmico de normalização. Para realização deste processo a peça foi introduzida no
forno e aquecida até a temperatura de 825°C, pois o aço 1045 se austenitiza em 775°C, e é
necessário um acréscimo de no mínimo 50°C acima de sua zona crítica (Jiang et al., 2020.
Para realização desse processo foi utilizado um forno da marca NOVUS, disponibilizado pela
Faculdade Redentor, e localizado no laboratório de metalografia e tratamentos térmicos. É um
forno digital, que possibilita um controle muito preciso sobre a temperatura, e com a
capacidade máxima de 1200°C. Esse processo é dividido em 3 partes: Aquecimento,
encharque e resfriamento (Gong et al., 2020).
Com o forno desligado foi introduzido a peça. Após ligar o forno, o processo de
aquecimento teve duração de aproximadamente 40 minutos até atingir a temperatura de
825°C. Após atingir a temperatura de 825°C a peça permaneceu aproximadamente 140
minutos no forno. Nesse momento na estrutura da peça inicia-se a formação de austenita, e
ocorrer o refinamento dos grãos, como pode-se analisar no diagrama ferro-carbono mostrado
na Figura 4 abaixo (Li et al., 2020).

Figura 4 - Diagrama de Fe-C


Fonte: William D. Callister Jr.; “Ciência e Engenharia de Materiais

Como Aço 1045 possui de 0,43% à 0,50% de carbono, podemos concluir que a
temperatura de 825°C e o tempo do tratamento é suficiente para ocorrer a austenitização.
Após 140 minutos no forno a peça foi retirada e resfriada ao ar livre. Devido ao resfriamento
lento, e não um resfriamento brusco, a estrutura retorna a ter composição de ferrita e perlita
fina, mas agora com os grãos refinados. Como resultado ocorre um alívio das tensões internas
da peça, causado pelo tratamento térmico superficial feito pós-fabricação, assim ocorrendo
um aumento na tenacidade da peça e reduzindo a dureza a um nível similar de um pinhão sem
tratamento térmico (Zolin, 2010).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

974
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.4 Segundo Ensaio de Dureza

Após todo processo de tratamento térmico de normalização, foi realizado um segundo


ensaio de dureza, a fim de analisar e comparar com os resultados obtidos no primeiro ensaio.

Tabela 2 - Resultados obtidos após tratamento de normalização.

Pontos analisados Resultados em HRc

1° 33

2° 35

3° 34

4° 34

5° 35

6° 34

7° 33

8° 34

9° 34

10° 35

3. RESULTADOS

Foi realizado um ensaio de dureza no pinhão de aço SAE 1045 antes do tratamento
térmico para verificação de intensidade de dureza e após o tratamento térmico para efeito de
comparação e análise, tendo como resultado os seguintes valores de dureza em HRc como
mostra a Tabela 3 abaixo (Jiang et al., 2020).

Tabela 3 - Resultados dos ensaios de dureza antes e após o tratamento térmico medido nas
proximidades dos dentes da engrenagem

ANTES DO TRATAMENTO TÉRMICO APÓS O TRATAMENTO TÉRMICO

47 HRc 33 HRc

47 HRc 35 HRc
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

975
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

48 HRc 34 HRc

48 HRc 34 HRc

49 HRc 35 HRc

47 HRc 34 HRc

48 HRc 33 HRc

48 HRc 34 HRc

49 HRc 34 HRc

49 HRc 35 HRc

Foi medida a dureza em 10 pontos da engrenagem nas proximidades de seus dentes,


sendo que com o tratamento térmico de normalização a engrenagem minimizou bruscamente
a dureza obtida no tratamento térmico superficial na qual foi submetida (Gong et al., 2020).
Para analisar melhor a queda de dureza em cada ponto, o gráfico da Figura 5 abaixo mostra os
valores de dureza em cada ponto dos dentes da engrenagem onde foram medidos.

Figura 5 - Gráfico dos valores obtidos nos ensaios de dureza medidos em HRc

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

976
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O gráfico demonstra a expressiva queda de dureza, sendo que com a normalização a


engrenagem tornou-se mais dúctil do que em relação ao tratamento térmico superficial, sendo
assim a resistência ao desgaste cai de forma expressiva não podendo esta engrenagem atender
aos esforços na qual é solicitada (Li et al., 2020).
O processo de normalização fez com que as propriedades mecânicas, principalmente a
dureza da peça retornassem a valores equivalentes à um pinhão sem tratamento térmico (Li et
al., 2020).

4. CONCLUSÃO

Este trabalho permitiu através de um tratamento térmico, comparar a dureza de um


pinhão de motocicleta, visando mostrar a importância do tratamento térmico superficial para
minimizar o desgaste que a peça sofre devido ao esforço constante, aumentando assim o
tempo de vida útil do material sem comprometer a capacidade do núcleo.
Vale ressaltar que para uma maior vida útil do pinhão é necessário também que as
condições de trabalho no mesmo sejam favoráveis, estando sempre bem lubrificado e a folga
entre o mesmo e a corrente na qual trabalha esteja adequada ao uso.
A dureza adquirida na peça através do tratamento térmico superficial atingiu valores
significativos no ramo da engenharia, dureza na qual o aço SAE 1045 resistiria
satisfatoriamente ao desgaste na qual a peça é submetido, pois sem este tratamento térmico
seu desgaste seria muito intenso, sendo que a mesma não teria valores de dureza satisfatórios.
Através do tratamento térmico de normalização realizado com o objetivo de minimizar a
dureza já obtida em outro tratamento, fica nítida a queda da intensidade de dureza na
superfície da engrenagem, principalmente na região dos dentes onde ocorre o desgaste.
Sendo assim, conclui-se que com o tratamento térmico superficial pode-se utilizar aços de
baixo e médio teor de carbono como o aço SAE 1045 em aplicações diversas, sujeitas ao
desgaste, minimizando custos excessivos na produção, uma vez que este material submetido
ao tratamento térmico para melhoria da dureza substitui outros materiais possivelmente mais
caros.

REFERENCIAS

Callister Jr, William D. (2009), “Introdução a Ciência e Engenharia dos Materiais”, 7 ed., Pearson - Prentice
Hall
Gong, J; Hongbin, L; Zhang, K; Wang, X. (2020) Heat treatment optimization of China low-activation
ferritic/martensitic steel with cerium addition. Fusion Engineering and DesignVolume 158, 111696
Jiang, R; Mostafaei, A; Wu, Z; Choi, A; Guand, P; Chmielus, M; Rollett, A.D. (2020), Effect of heat treatment
on microstructural evolution and hardness homogeneity in laser powder bed fusion of alloy 718. Additive
Manufacturing. Volume 35, 101282.
Li, D.G; Chen, D.R; Liang, P. (2020) Influence of heat treatment on corrosion behaviors of 316L stainless steel
in simulated cathodic environment of proton exchange membrane fuel cell (PEMFC). International Journal of
Hydrogen Energy.
POLONINE, A.F., SOUZA, V.B., CERQUEIRA, N.A., AZEVEDO, A.R.G., BARBOSA, V. (2015),
“Qualidade dos Aços Inoxidáveis Austeníticos 304 e 316L e suas propriedades Mecânicas quanto à Tração”,
Congresso Nacional de Estudantes de Engenharia Mecânica, Campos dos Goyataczes, 45 - 56.
SENAI SP: Departamento Regional de São Paulo. Tratamento Térmico. São Paulo: Telecurso 2000, 1996.
Singh, G. (2020)A review on effect of heat treatment on the properties of mild steel. Materials Today. In Press.
Souza, Sergio Augusto de (1984), “Ensaios Mecânicos de Materiais Metálicos: Fundamentos teóricos e
práticos”, 5 ed., Edgard Blucher Ltda, São Paulo.
Sridar, S; Zhao, Y; Li, K; Wang, X; Xiong, W. (2020) Post-heat treatment design for high-strength low-alloy
steels processed by laser powder bed fusion. Materials Science and Engineering: A. Volume 788, 139531.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

977
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Vandersluis, E; Ravindran, C. (2020) Effects of solution heat treatment time on the as-quenched microstructure,
hardness and electrical conductivity of B319 aluminum alloy. Journal of Alloys and Compounds. Volume
838, 155577.
Wang, Z; Xu, J; Li, J. (2020) Effect of heat treatment processes on hydrogen embrittlement in hot-rolled medium
Mn steels. International Journal of Hydrogen Energy. Volume 45, Issue 38, 20004-20020.
ZOLIN, IVAN. (2010) Curso técnico em automação industrial. Ensaios mecânicos e análises de falhas.
Universidade Federal de Santa Maria: Colégio Técnico Industrial de Santa Maria.

ANALYSIS OF THE IMPORTANCE OF THE SURFACE HEAT TREATMENT OF


SAE 1045 STEEL GEAR FOR MOTORCYCLE TRANSMISSION FOR
INCREASING HARDNESS AND WEAR RESISTANCE

Abstract. This work aims to perform the analysis of hardness and wear resistance in a
motorcycle transmission gear (pinion), treating it thermally, aiming to report the reason why
manufacturers do the surface heat treatments on the parts with the objective of improvements
in hardness and wear resistance, and highlighting that the part in its normal conditions after
its manufacture without any kind of improvement of hardness on its surface would have
excessive wear on its teeth. The analysis was made through a normalization heat treatment on
the part in order to minimize the effects of the surface heat treatment done after its
manufacture and to compare the hardness values obtained in the tests carried out before and
after the heat treatment.

Keywords: Motorcycle Gear, Heat Treatment, Hardness.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

978
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

A UTILIZAÇÃO DA ESCÓRIA DE ALTO-FORNO NA PRODUÇÃO DE CIMENTO


PORTLAND E O SEU POTENCIAL HIDRÁULICO

Tulane Rodrigues da Silva 1 – tulanerodrigues@gmail.com


Afonso Rangel Garcez de Azevedo 2 – afonso.garcez91@gmail.com
Daiane Cecchin 3 – daianececchin@yahoo.com.br
Markssuel Teixeira Marvila4 – markssuel@hotmail.com
Euzébio Bernabe Zanelato5 – ebzanelato@gmail.com
Sergio Neves Monteiro6 – snevesmonteiro@gmail.com
Victor Barbosa de Souza7 – victor_souza11@hotmail.com
Fernanda Santos da Luz8 – fsl.santos@gmail.com
1
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
2
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
3
Universidade Federal Fluminense, Campus Praia Vermelha - Niteroí, RJ, Brasil
4
Universidade Estadual do Norte Fluminense, Campus Leonel Brizola – Campos dos Goytacazes, RJ,
Brasil
5
Instituto Federal Fluminense, Campus Centro - Campos dos Goytacazes, RJ, Brasil
6
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil
7
Centro Universitário REDENTOR – Campos dos Goytacazes, RJ, Brasil
8
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil

Resumo. Com a grande demanda de produção de aço ocorre o aumento da geração de


resíduos e coprodutos siderúrigocos, dentre eles a escória de alto-forno. A escória de alto-
forno é um subproduto gerado na fabricação de ferro-gusa nos altos-fornos. O processo de
fabricação de cimento proporciona a adição desse resíduo no cimento produzido. Dessa
forma, o presente trabalho destaca o potencial hidráulico da escória de alto-forno, o qual
proporciona melhora nas propriedades mecânicas do cimento, além de ser uma alternativa
sustentável para o setor. Os ensaios realizados foram da caracterização da composição
química,, relevante para verificação de sua hidraulicidade; da determinação do grau de
vitrificação, pois escórias submetidas a condições lentas de resfriamento são cristalinas e e
não apresentam propriedade hidráulica; e da atividade hidráulica pelo método acelerado
com soda, o qual confere parâmetros de hidratação da escória. A amostra estudada foi de
natureza básica, pois apresentou índice de refração próximo de 1,65. Seu grau de vitrificação
foi de 98%, em rápidas condições de resfriamento. No ensaio de atividade hidráulica com
soda em cura normal à 23°C a 48h, o resultado obtido foi de 11MPa e em cura acelerada, à
55°C a 24h foi de 12,50MPa. A amostra analisada apresentou resistência à compressão das
curas próximos aos valores de referência. Concluiu-se com o estudo que a amostra

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

979
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresentou características que a qualificam como de bom desempenho como adição ao


cimento, além de proporcionar menores impactos ao meio ambiente.

Palavra-chave: Escória de alto-forno, Cimento, Resíduos sólidos industriais, Potencial


hidráulico.

1. INTRODUÇÃO

De acordo com IAB (2018), a indústria brasileira representa 2,1% na produção mundial
de aço, sendo que na América Latina, o Brasil corresponde em torno de 53,5% da produção
de aço. Paralelo ao crescimento da produção de aço está o aumento da geração de resíduos
sólidos industriais e coprodutos siderúrgicos, podendo ser destacados os agregados de alto-
forno que correspondem em torno de 42% desses resíduos.
As principais aplicações para os agregados siderúrgicos, incluindo a escória de alto-forno,
estão vinculadas aos diversos setores da construção civil como nivelamento de terrenos, base
e sub-bases de pavimento, agregados de concreto e produção de cimento (IAB, 2018). No
processo de produção do cimento, a clinquerização é responsável por um alto consumo de
energia e liberação de dióxido de carbono ( ) para a atmosfera. A indústria do cimento
gera para cada tonelada de cimento produzida, em torno 1 tonelada de , sendo responsável
por 5% da emissão global. No Brasil, isso pode ser considerado em torno de 1,4%
(CARVALHO et al., 2017).
Atualmente, com a incorporação de aditivos minerais e ativos hidráulicos, é possível
produzir cimentos compostos com características específicas para diferentes aplicações, além
da redução de energia e de clínquer consumidos. Dessa forma, o crescimento da utilização
desses cimentos deve-se ao seu melhor desempenho mecânico e de durabilidade quando
coMParado ao cimento comum (CASTRO et al., 2017). A adição de escória de alto-forno na
produção de cimento Portland, além da reposição parcial, também pode substituir parte do
clínquer utilizado, impactando na redução de energia, consumo e emissão de gases de efeito
estufa, além do custo de produção, e com isso, apresentando-se como alternativa sustentável
na produção de cimento (CARVALHO et al., 2017).

2. REFENCIAL TEÓRICO

2.1 Cimento

O cimento Portland é um pó fino com propriedades aglomerantes, aglutinantes ou


ligantes, que endurece sob ação da água. Depois de endurecido, mesmo que seja novamente
submetido à ação da água, o cimento Portland não se decompõe mais. É composto de clínquer
e de adições (ABCP, 2002). De acordo com a NBR 16697 (ABNT, 2018) os cimentos
Portland são designados por seu tipo que correspondem a adições e propriedades especiais.
São identificados por suas siglas, seguidas de sua classe de resistência 25, 32, 40 ou ARI. Os
cimentos que utilizam escória de alto-forno em sua composição são designados como
Cimento Portland Composto (CPII E) e Cimento Portland de Alto-Forno (CP III). Os
cimentos álcali-ativados ou cimentos geopoliméricos são obtidos a partir de materiais
compostos por aluminossilicatos amorfos, como por exemplo, a escória de alto-forno, sendo
submetidos a um ambiente altamente alcalino onde ocorre o processo químico que transforma
estruturas vítreas em compósitos bem compactados e cimentícios (VARGAS et al., 2015).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

980
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Escória de Alto-Forno

A escória é um subproduto da indústria siderúrgica e é obtida em estado líquido nos


altos-fornos durante a fabricação de ferro-gusa. Deriva-se da combinação, sob condições
específicas, dos minerais presentes no minério de ferro, das cinzas de coque e do fundente.
Durante o processo de fusão, a parte metálica no estado líquido é separada da não metálica
formando a escória. A escória líquida é transportada para os granuladores, que são
equipamentos responsáveis pelo resfriamento brusco por meio de jatos de água ou ar, sob alta
pressão. Não havendo tempo suficiente para a formação de cristais, a estrutura da escória é
totalmente vitrificada e recebe o nome escória granulada de alto-forno (ALMEIDA, 2014).
Segundo Gobbo (2009), a escória submetida a diferentes processos de resfriamento apresenta
diferentes graus de vitrificação e ao alcançar elevados teores de vidro apresentam melhores
propriedades cimentícias. Se o caráter químico é básico e adequadamente resfriado para obter
uma estrutura cristalina ideal, a escória de alto-forno apresenta boa hidraulicidade durante o
processo de hidratação junto aos ativadores (POPOVIC et al., 1991).

2.3 Cimento com adição de escória de alto-forno

O uso de escória de alto-forno, como meio substituto do clínquer, permite reduzir as


emissões de poluentes e alcançar uma maior eficiência energética sem afetar as propriedades
físico-químicas do cimento (CARVALHO et al., 2017). Apenas a escória de alto-forno é
definida como uma mistura mineral ao cimento por regulamentos e normas, enquanto outras
escórias não são permitidas para estes objetivos, embora alguns deles também tenham
atividade hidráulica satisfatória (POPOVIC et al., 1991).
De acordo com a NBR 16697 (ABNT, 2018), são designados como: Cimento Portland
Composto com Escória Granulada de Alto-Forno (CPII E), sendo este com maior teor de
clínquer e menos teor de escória; e Cimento Portland de Alto-Forno (CPIII), com maior teor
de escória e menor teor de clínquer. Devido à lenta hidratação da escória, os cimentos
produzidos com maiores quantidades de clínquer, geralmente têm maior resistência nas idades
iniciais, enquanto a adição de escória atribui é melhor nas idades finais (CARVALHO et al.,
2017).

2.4 O potencial hidráulico da escória de alto-forno

O grau de vitrificação é um dos principais fatores que confere a hidraulicidade presente


nas escórias, visto que são submetidas a condições lentas de resfriamento e possuem formas
mineralógicas e químicas estáveis. Entretando, as escórias granuladas têm hidraulicidade
latente (NETO et al., 2010). Aliada à vitrificação, a composição química da escória é de
extrema relevância para obtenção de máxima reatividade (NETO et al., 2010; GOBBO,
2009). Os métodos de previsão de hidraulicidade das escórias podem ter por base sua
composição química, sua estrutura e sua própria hidratação (MASSUCATO, 2005). As
escórias possuem propriedades hidráulicas, entretanto, tais reações são muito lentas, e há a
necessidade da presença dos ativadores e catalisadores para acelerá-las como os ambientes
alcalinos (JR & Portella, 2012).

3. MATERIAIS E MÉTODOS

Considerando que o presente trabalho destaca o potencial hidráulico da escória de alto-


forno, objetivou-se ensaiar a amostra coletada do resíduo destancando sua composição
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

981
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

química, o grau de vitrificação, o índice de refração e a atividade hidráulica pelo método


acelerado com soda. Esses procedimentos demonstram os tipos de ativadores (físico e
químico) das escórias de alto-forno.

3.1 Composição química

A composição química das escórias de alto-forno podem variar de acordo com


quantidade dos minerais, fundentes e outras matérias primas utilizados no processo de
geração da escória, além das condições de operação do forno e métodos de resfriamento.
Para utilização como adição mineral só podem ser utilizadas escórias básicas. Os óxidos
mais importantes presentes na composição química da escória de alto-forno são dióxido de
silício, óxido de alumínio, óxido de cálcio e óxido de magnésio, os quais representam 95%
a 96% do total de óxidos (ALMEIDA, 2014).

3.2 Grau de vitrificação e Índice de refração

A avaliação do grau de vitrificação foi realizada pela contagem dos grãos parciais e
completamente cristalizados por meio de microscopia de luz transmitida polarizada. Os
parâmetros de classificação são considerados nos intervalos: maior que 95%; entre 90 e 95%;
e menor que 90% de fase vítrea, dessa forma, quanto mais vítrea mais reativa a escória
(GOBBO, 2009). O índice de refração pode ser considerado uma ferramenta bastante útil na
identificação de minerais ou qualificação de escórias, considerando a sua composição química
e estrutura cristalina (GOBBO, 2009). De acordo com NBR 16697 (ABNT, 2018), as escórias
que exibem índice de refração superior a 1,63 correspondem àquelas de natureza básica e
obedecem ao índice de hidraulicidade:

2 O3 2>1 (1)

As escórias de natureza básica possuem maior reatividade que as escórias ácidas


(JÚNIOR, 2007; GOBBO, 2009).

3.3 Atividade hidráulica por método acelerado com soda

A amostra de escória de alto-forno foi secada em estufa a 105ºC durante 16 horas. Em


seguida, moída em moinho de bolas por tentativas e homogeneizada até atingir o valor de
massa e área específica de 3500cm² medida por Blaine automático, pois o ativador físico
(finura) acelara o processo de hidratação da escória.
Foram preparados corpos cilíndricos de 5cm de diâmetro por 10cm de altura de acordo
com a NBR 7215 (ABNT, 2019), exceto que o cimento foi substituído por 400g de escória e a
água para solução aquosa de hidróxido de sódio (catalisador) com relação solução/escória
igual a 0,50, mostrados na Figura 1:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

982
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 – Corpos de prova

Foram adotadas condições de cura de 23ºC durante 48 horas; e à 55ºC durante 24 horas.
Os corpos de prova foram curados dentro das formas até a idade de ruptura. As condições de
cura acelerada também colaboram para o processo de hidratação da escória.

4. RESULTADOS E DISCUSSÕES

A Tabela 1 apresenta a análise química da amostra coletada:

Tabela 1- Análise química da amostra de escória de alto-forno

Resultados
Parâmetros
(% massa)
Perda ao fogo-PF 0
Dióxido de silício 34,38
Óxido de alumínio 13,56
Óxido de ferro 0,25
Óxido de cálcio 40,38
Óxido de magnésio 8,25
Óxido de sódio 0,14
Óxido de potássio 0,30
Sulfeto 0,75
Resíduo insolúvel 0,31

A Tabela 2 mostra o grau de vitrificação e natureza da amostra coletada:

Tabela 2- Vitrificação e natureza da amostra de escória de alto-forno


Grau de vitrificação (%) Índice de refração Natureza
98 1,64 -1,65 Básica

De acordo com os resultados obtidos no estudo, as escórias de alto-forno necessitam ser


vítreas e devem apresentar composição química adequada, ou seja, básica. A amostra
estudada foi de natureza básica, pois apresentou índice de refração próximo a 1,65. Seu grau
de vitrificação correspondeu a 98%, o que indica condições rápidas e adequadas de
resfriamento, bem como sua caracterização da composição química devido a maior
predominância de dióxido de silício, óxido de alumínio, óxido de cálcio e óxido de magnésio.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

983
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Tabela 3 mostra a caracterização física da amostra:

Tabela 3- Caracterização física da amostra de escória de alto-forno


Massa específica (g/cm³) Área específica (cm²/g)
2,89 3490

A Tabela 4 apresenta a composição da argamassa para elaboração dos corpos de provas


mostrados na Figura 1:

Tabela 4- Caracterização física da amostra de escória de alto-forno


Areia (g) Areia (g) Solução sódica (g)
624 1872 312

A Tabela 5 mostra os valores de resistência à compressão dos corpos de prova moldados


em suas respectivas curas:

Tabela 5- Resistência à compressão dos corpos de prova moldados (MPa)


Cura 23°C (48h) Cura 55°C (24h)
11,0 12,50

No ensaio de atividade hidráulica com solução sódica em cura normal 23°C a 48h, os
valores de resistência típicos de escórias de boa qualidade são entre 7MPa a 10MPa. O
resultado obtido no ensaio foi de 11MPa. Em cura acelerada, 55°C a 24h esses valores
aumentam de 13MPa a 15MPa. O resultado obtido foi de 12,50 MPa. Esses valores de
referência são para áreas específicas próximas de 3500cm²/g, ou seja, a amostra é adequada
também nesse parâmetro pois apresentou área de 3490cm²/g. Quanto à resistência à
compressão, apresentou valores em cura normal e acelerada próximos aos valores de
referência, 11 MPa e 12,50 respectivamente.

5. CONCLUSÃO

A partir do presente estudo foi possível verificar que a escória de alto-forno atua
positivamente nas propriedades mecânicas do cimento. Por meio da eficiência do seu
potencial hidráulico, foi possível afirmar que o resíduo colabora para o aumento de resistência
à compressão em idades mais avançadas, logo, também maior durabilidade. Além disso,
concluiu-se que a escória de alto-forno como adição ao cimento permite a redução de clínquer
na fabricação, dos gases emitidos para o meio ambiente e custo de produção, ou seja, pode ser
considerada uma alternativa sustentável para indústria do cimento.

REFERÊNCIAS

A. L. Castro, R. F. C. Santos, K. M. Gonçalves, V. A. Quarcioni. Characterization of blended cements with red


clay industry waste. Cerâmica 63 (2017) 65-76 http://dx.doi.org/10.1590/0366-69132017633652036
Associação Brasileira de Cimento Portland (ABCP). Guia básico de utilização do Cimento Portland. 7ªed. São
Paulo, 28p., 2002. ISBN 85-87024-23-X

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

984
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Associação Brasileira de Normas Técnicas(ABNT). NBR 16697: Cimento Portland – Requisitos. Rio de Janeiro,
2018.
Associação Brasileira de Normas Técnicas(ABNT). NBR 7215: Cimento Portland - Determinação da resistência
à compressão de corpos de prova cilíndricos. Rio de Janeiro, 2019.
Carlos José Massucato. Utilização de escória de alto-forno à carvão vegetal como adição no concreto.
Dissertação de mestrado, Faculdade de Engenharia Civil, Arquitetura e Urbanismo, Universidade Estadual de
Campinas. Campinas, São Paulo, 2005.
Dilermando Salvador de Souza Júnior. Estudo do comportamento de escórias de alto-forno à carvão vegetal
produzidas a partir de ativação à quente. Dissertação de mestrado, Universidade Federal de Minas Gerais, Escola
de Engenharia. Belo Horizonte, 2007.
Gyselle Maciel de Almeida. Utilização de escória produzida em alto-forno à carvão vegetal como agregado
graúdo e miúdo para concreto. Dissertação de mestrado, Instituto de Tecnologia, Univesidade Federal do Pará.
Belém, 2014.
Intituto Aço Brasil (IAB). Relatório de Sustentabilidade 2018. Acessed on:
http://www.acobrasil.org.br/sustentabilidade/ (acessed sept, 20, 2020).
J. Rossa Jr., K. F. Portella. High oven slag addition in tile adhesive type AC-I. Cerâmica 58 (2012) 542-548.
K. Popovidl, N. Kamenidl, B. TkalEid-Ciboci, V. Soukup. Technical Experience in the Use of Industrial Waste
for Building Materials Production and Environmental IMPact. Studies in Environmental Science Volume 48,
1991, Pages 479-490 doi: https://doi.org/10.1016/S0166-1116(08)70439-4
Luciano de Andrade Gobbo. Aplicação da difração de Raios-X e método de Rietveld no estudo de cimento
Portland. Tese de doutoramento, Instituto de Geociências, Universidade de São Paulo. São Paulo, 2009.
Antonio A. Melo Neto, Maria Alba Cincotto, WellingtonRepette. Drying and autogenous shrinkage of pastes and
mortars with activated slag cement. Cement and Concrete Research Volume 38, Issue 4, April 2008, Pages 565-
574 https://doi.org/10.1016/j.cemconres.2007.11.002
S.Z. Carvalho, F. Vernilli, B. Almeida, M.D. Oliveira, S.N. Silva. Reducing environmental iMPacts: The use of
basic oxygen furnace slag in portland cement. Journal of Cleaner Production (2017), doi:
10.1016/j.jclepro.2017.10.130
Vargas, A. S.; Schneider, E. L.; Schmitz, G.; Aquim, P. M. Geopolymeric mortars based on alkali-activated fly
ash containing sand casting. Cerâmica 61, 2015. Http://dx.doi.org/10.1590/0366-69132015613591784

THE USE OF BLAST-OVEN SLAG IN THE PRODUCTION OF PORTLAND


CEMENT AND ITS HYDRAULIC POTENTIAL

Abstract. The great demand for steel production, there is an increase in the generation of
waste and steel products, including blast furnace slag. Blast furnace slag is a by-product
generated in the manufacture of pig iron in blast furnaces. The cement manufacturing process
provides the addition of this residue to the cement produced. Thus, the present work
highlights the hydraulic potential of blast furnace slag, which provides an improvement in the
mechanical properties of cement, in addition to being a sustainable alternative for the sector.
The tests carried out were for the characterization of the chemical composition, which is
relevant for checking its hydraulics; the determination of the degree of vitrification, as slags
subjected to slow cooling conditions are crystalline and do not have hydraulic properties; and
hydraulic activity using the accelerated soda method, which provides slag hydration
parameters. The sample studied was basic in nature, as it had a refractive index close to 1.65.
Its degree of vitrification was 98%, in fast cooling conditions. In the test of hydraulic activity
with soda in normal cure at 23 ° C at 48h, the result obtained was 11MPa and in accelerated
cure, at 55 ° C at 24h was 12.50MPa. The sample analyzed showed resistance to compression
of the cures close to the reference values. It was concluded with the study that the sample
presented characteristics that qualify it as a good performance as an addition to cement, in
addition to providing less impact to the environment.

Keywords: Blast furnace slag, Cement, Industrial solid waste, Hydraulic potential.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

985
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DA RUGOSIDADE DO TITÂNIO APÓS TRATAMENTO DA


SUPERFÍCIE COM LASER

Luis Miguel Moncayo Morales1 - lmzpaniol@hotmail.com


Carlos Nelson Elias1 - elias@ime.eb.br
Dyanni Manhães Barbosa1 – dyanni@ime.eb.br
Francielly Moura de Souza Soares1 - mourafrancielly@outlook.com
Getúlio de Vasconcelos2– getulio@iav.cte.br

1
Lab de Biomateriais, Instituto Militar de Engnharia, Pr Gen Tiburcio 80, Rio de Janeiro-RJ
2
Instituto de Estudos Avançados, São José dos Campos-SP

Resumo: O titânio comercialmente puro e suas ligas possuem várias aplicações na


engenharia e como biomateriais. Sua utilização como biomaterial deve-se à sua
biocompatibilidade. Em algumas aplicações é necessário que o Ti apresente diferentes cores,
as quais variam com a espessura da película de óxido na superfície. O objetivo do presente
trabalho é analisar a influência do aquecimento de chapas de titânio com laser em diferentes
temperaturas na rugosidade. Neste trabalho amostras de Ti grau 2 foram coloridas com
emprego de feixe com laser. O aquecimento induziu o crescimento da espessura da camada
de óxido e criou várias cores. Os dados de rugosidade medidos por interferometria
mostraram que não existe diferença estatística significativa da rugosidade entre as 6 cores
analisadas.

Palavras-chave: Óxido de Ti colorido, rugosidade do óxido de Ti, coloração do Ti.

1. INTRODUÇÃO

Entre as diversas aplicações do titânio e suas ligas, destaca-se o uso como eletrodos para
células fotovoltaicas (Barbe C.H. et al., 1997), purificação ambiental, terapia de câncer no
qual o material é um excelente fotocatalisador (Fujishima A. et al., 2000), sensor de gás na
forma de películas finas nanocristalinas para quimiossorção (Eranna G. et al., 2004),
implantes ósseos (Sula Y.T., 2003) e componentes ópticos para os quais são necessários
revestimentos de proteção e antirreflexo (Suhail M.H., 1992).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

986
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As aplicações do titânio comercialmente puro (Ti cp) e suas ligas como biomateriais
estão associadas ao fato de serem atóxicos, biocompatíveis, apresentarem osseointegração e
serem estáveis no meio corpóreo, tanto química quanto mecanicamente.
Em algumas aplicações, o titânio é submetido à coloração.Várias técnicas podem ser
usadas para obter um revestimento de óxido de titânio colorido, entre elas a deposição
catódica (Takikawa A. et al., 1999), a deposição de plasma (Teng K.S. et al., 1998), a
deposição de laser (Garapon C. et al., 1996), a pulverização catódica (Lee J.H. et al., 2012), a
oxidação térmica (Dong H. & Bell T., 2000), a oxidação eletrolítica (Diamanti M.V. et al.,
2008; Del Pino, A. P. et al., 2004) e a oxidação por laser (O’Hana S. et al., 2008; Del Pino,
A. P. et al., 2004; Lavisse L. et al., 2000). Mais frequentemente, as marcações coloridas nas
superfícies metálicas são feitas por impressão, revestimento por emulsão ou técnicas de
oxidação eletrolítica (Yang, C.-C. et al., 2017).
Os métodos sem contato como feixes de laser não danificam a superfície do objeto e não
os desgastam. Deste modo, estes métodos de manufatura avançados têm substituído a maioria
das tecnologias convencionais dos tratamentos de superfície. Em geral, o calor produzido
durante a irradiação a laser é influenciado pela energia do laser e das propriedades do material
iluminado. O comprimento de onda selecionado do laser, a energia e o número de pulsos e o
coeficiente de absorção de calor do material afetam o calor produzido na superfície dos
objetos. Alguns estudos propuseram que o tratamento da superfície a laser com vários
parâmetros podem ser usados para obter cores diferentes no substrato do metal (Yang, C.-C.
et al., 2017).
Uma característica interessante dos revestimentos de titânio está relacionada ao seu
aspecto visual. A cor dos revestimentos obtidos através de técnicas convencionais tem sido
geralmente atribuída a fenômenos de interferências de luz na camada superficial do óxido
(Suzuki A., 1996; Teng K.S. et al., 1998; Garapon C. et al., 1996). As cores variam com a
espessura da camada de óxido. Nos revestimentos de óxido obtidos por tratamento com laser
pulsado, as diferentes cores são associadas à espessura da camada superficial constituída por
vários tipos de óxidos (Langlade C. et al., 1998; Langlade C. et al., 1998).
Os filmes de óxido de titânio apresentam uma variedade de cores, o que permite que eles
sejam usados em aplicações decorativas (Del Pino, A. P. et al., 2004), eletrônica, indústria
automotiva e arte para novos designs, publicidade e jóias (Diamanti M.V. et al., 2008;
O’Hana S. et al., 2008).
No presente trabalho a coloração do Ti cp foi feita com emprego de feixes de laser. A
coloração dos metais por laser é um exemplo de corrosão gasosa em altas temperaturas.
Literalmente, a reação com o oxigênio e a composição dos produtos da reação podem ser
previstos, baseados em dados termodinâmicos e coeficientes cinéticos. De modo geral, com o
aquecimento são formados vários tipos de óxidos de titânio com diferentes espessuras. O uso
de laser para a oxidação dos metais introduz uma série de fatores difíceis de serem analisados,
e o processo é considerado fotofísico e não fototérmico (Karlov N.V. et al., 1993).
Segundo Del Pino, A. P. et al (2004), o tratamento de superfície do titânio com laser
forma uma camada composta basicamente por TiO2 policristalino e outros óxidos, com alto
grau de oxidação e cristalinidade quando a velocidade de escaneamento do laser é baixa. As
cores observadas da camada transparente de óxido na superfície do titânio são consequências
de fenômenos de interferência da luz. A camada de óxido de titânio filtra as ondas de luz que
passa através dele e causas interferência da luz refletida. A cor que observada na peça de
titânio depende da espessura da camada de óxido. A espessura da camada de óxido pode ser
controlada por processos eletroquímicos ou aquecimento. NO presente trabalho o
aquecimento foi obtido pelo feixe laser.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

987
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. MATERIAIS E MÉTODOS

No presente trabalho foram usadas placas de titânio (130 x 14 x 0,1 mm3) com uma
pureza comercial classificado como grau 2 (ASTM F67).
Os tratamentos de oxidação com laser foram realizados com um sistema Baasel Lasertech
Nd: YAG (λ = 1,064 μm) com espelhos galvanométricos que permitem a deflexão do feixe. O
sistema foi operado no modo cw (continuous wave), e o feixe com potência de 53 W foi
focado nos alvos formando pontos circulares com diâmetro da lente de comprimento focal de
aproximadamente 350 μm a 160 mm e intensidade média do laser de aproximadamente 55
kW/cm2.
As amostras foram irradiadas ao ar através do escaneamento da superfície da amostra
linha a linha com o feixe de laser com traço paralelo a uma velocidade de escaneamento
controlada em um range de 350 – 80 mm/s. Traços adjacentes foram separados por 100 μm.
Um tempo de atraso de 2 s entre traços consecutivos foi selecionado com intuito de evitar
acúmulo excessivo de calor durante o tratamento. Na mesma placa de Ti diferentes cores
foram obtidas com diferentes velocidades de escaneamento com laser (Tabela 2).
Para medir a rugosidade do titânio, foi utilizado o equipamento New View 7100 da marca
Zygo. O equipamento é baseado na técnica de interferometria de luz branca de varredura sem
contato, tridimensional, com uma matriz de medição 640x480 µm, faixa de varredura vertical
150 μm (5906 μin), resolução vertical <0,1 nm e resolução óptica de 0,36 a 9,5 μm. O sistema
é controlado pelo software ZYGO MetroPro em execução no Microsoft Windows 7.
Para caracterizar a rugosidade foram quantificados os parâmetros:
 Ra: média aritmética dos valores absolutos das ordenadas de afastamento (yi), dos
pontos de perfil de rugosidade em relação à linha média, dentro do percurso de
medição (lm).
 Rms: média quadrática das áreas acima da linha média do perfil.
 PEAK: altura do maior pico em relação a linha média.
 Rz: diferença entre o valor médio das coordenadas dos cinco pontos mais profundos
medidos a partir da linha de referência, que não intercepta o perfil de rugosidade
durante a medição.
 Valley: profundidade do maior vale em relação a linha média.
 R3z: corresponde a cada um dos 5 módulos (cut off). Em cada módulo foram traçadas
as distâncias entre o terceiro pico mais alto e o terceiro vale mais profundo, em sentido
paralelo à linha média.

3. RESULTADOS

Mostra-se na Figura 1 a imagem de uma das placas após a coloração com laser. Na Fig 2
é mostrada a imagem representativa obtida por interferometría. Os dados medidos da
rugosidade são apresentados na Tabela 1.
Na Figura 3 mostra-se os gráficos das médias dos parâmetros de rugosidade medidos por
interferometria.

Figura 1: Imagem da chapa de Ti Grau 2 com cores produzidas por laser.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

988
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Placa colorida com laser. Imagem obtida por interferometria.

Tabela 1- Dados da rugosidade das diferentes cores da chapa de titânio (µm).


Cores do óxido de titânio
1: Cinza 2: Verde 3: Azul 4: Rosa 5: Amarelo 6: Azul
Média 0,33 0,26 0,26 0,24 0,24 0,22
Ra (µm)
DesvPad 0,05 0,02 0,04 0,02 0,04 0,03
Média 1610,47 2418,72 1538,48 1387,68 1292,95 1425,51
Rz (µm)
DesvPad 280,44 1238,22 166,82 275,45 148,75 297,58
Rms Média 0,40 0,39 0,33 0,30 0,30 0,32
(µm) DesvPad 0,07 0,08 0,06 0,03 0,05 0,10
Vale Média -833,37 -1490,72 -1397,11 -885,99 -784,72 -1005,92
(µm) DesvPad 128,80 57,47 167,62 170,15 118,38 253,87
Pico Média 1352,31 1933,87 703,21 1064,40 940,43 1581,99
(µm) DesvPad 328,20 1867,25 130,42 567,46 260,93 1504,40
Média 1399,32 2227,74 1399,23 1329,03 1207,62 1197,49
R3z (µm)
DesvPad 163,74 1289,18 145,67 248,39 42,77 94,18

Figura 2- Gráficos das médias dos parâmetros de rugosidade (Ra, Rz, Pico, Vale, Rms e R3z)
de acordo com as coloração do óxido de titânio.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

989
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. DISCUSSÃO

Pode-se observar na Tabela 1 que a diferença do mesmo parâmetro de rugosidade em


relação às cores é pequena. A análise estatística dos resultados da rugosidade medidos por
interferometria foi realizada para verificar a possível diferença significativa entre as cores da
amostra. A comparação foi feita por meio dos testes de Bonferroni, Scheffe e Tukey.
Esperava-se que existisse relação entre as cores e a rugosidade. Esta hipótese é feita
considerando que as cores variam com a potência do laser e aquecimento induzido. Portanto,
não há relação dos parâmetros de rugosidade com as diferentes cores.
Quando há diminuição da velocidade de escaneamento do laser, a temperatura do
material irradiado aumenta, aumentado a incorporação de oxigênio no titânio e a formação de
uma camada oxidada com maior espessura constituída por diferentes tipos de óxidos de
titânio.

5. CONCLUSÃO

É possível obter diferentes cores do óxido de titânio utilizando oxidação com laser em
chapas de titânio comercialmente puro grau 2.
Entre as diferentes cores do óxido de titânio não existe diferença estatística significativa
dos parâmetros de rugosidade.

Agradecimentos

Os autores agradecem aos órgãos de fomento FAPERJ, CAPES e CNPq pelo suporte
financeiro para executar o presente trabalho.

REFERÊNCIAS

Barbe, C. J., Arendse, F., Comte, P., Jirousek, M., Lenzmann, F., Shklover, V., & Grätzel, M. (1997),
Nanocrystalline titanium oxide electrodes for photovoltaic applications. Journal of the American Ceramic
Society, vol. 80, 3157-3171.
Del Pino, A. P., Fernández-Pradas, J. M., Serra, P., & Morenza, J. L. (2004). Coloring of titanium through laser
oxidation: comparative study with anodizing. Surface and Coatings Technology, vol. 187(1), 106-112.
Diamanti, M. V., Del Curto, B., & Pedeferri, M. (2008), Interference colors of thin oxide layers on titanium.
Color Research & Application, vol. 33, 221-228.
Diebold, U. (2003), The surface science of titanium dioxide. Surface science reports, vol. 48, 53-229.
Dong, H., & Bell, T. (2000), Enhanced wear resistance of titanium surfaces by a new thermal oxidation
treatment. Wear, vol. 238, 131-137.
Eranna, G., Joshi, B. C., Runthala, D. P., & Gupta, R. P. (2004), Oxide materials for development of integrated
gas sensors—a comprehensive review. Critical Reviews in Solid State and Materials Sciences, vol. 29, 111-
188.
Field, M., Kahles, J. F., & Koster, W. P. (1989), Surface finish and surface integrity. ASM Handbook., 16, 19-
36.
Fujishima, A., Rao, T. N., & Tryk, D. A. (2000), Titanium dioxide photocatalysis. Journal of photochemistry and
photobiology C: Photochemistry reviews, vol. 1, 1-21.
Garapon, C., Champeaux, C., Mugnier, J., Panczer, G., Marchet, P., Catherinot, A., & Jacquier, B. (1996),
Preparation of TiO2 thin films by pulsed laser deposition for waveguiding applications. Applied surface
science, vol. 96, 836-841.
Hinojosa Rivera, M., & Reyes Melo, M. E. (2001), La rugosidad de las superficies: Topometría. Ingenierías, vol.
4, 27-33.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

990
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Karlov, N. V., Kirichenko, N. A., & Luk'Yanchuk, B. S. (1993), Macroscopic kinetics of thermochemical
processes on laser heating: current state and prospects. Russian Chemical Reviews, vol. 62, 203.
Langlade C, Vannes A.B, Piccinini P, Baldi G, Sudarshan T.S, Jeandin M, Khor K.A (Eds.) (1998), Surface
Modification Technologies XI. THE INSTITUTE OF MATERIALS, LONDON, p. 634.
Langlade, C., Vannes, A. B., Krafft, J. M., & Martin, J. R. (1998), Surface modification and tribological
behaviour of titanium and titanium alloys after YAG-laser treatments. Surface and Coatings Technology,
vol. 100, 383-387.
Lavisse, L., Grevey, D., Langlade, C., & Vannes, B. (2002), The early stage of the laser-induced oxidation of
titanium substrates. Applied Surface Science, vol. 186, 150-155.
Lee, J. H., Jang, G. E., & Jun, Y. H. (2012), Investigation and evaluation of structural color of TiO2 coating on
stainless steel. Ceramics International, vol.38, S661-S664.
O’Hana, S., Pinkerton, A. J., Shoba, K., Gale, A. W., & Li, L. (2008), Laser surface colouring of titanium for
contemporary jewellery. Surface engineering, vol. 24, 147-153.
Sharma, A. K. (1992), Anodizing titanium for space applications. Thin solid films, vol. 208, 48-54.
Suhail, M. H., Rao, G. M., & Mohan, S. D. C. J. (1992), dc reactive magnetron sputtering of titanium‐structural
and optical characterization of TiO2 films. Journal of Applied Physics, vol. 71, 1421-1427.
Sul, Y. T. (2003), The significance of the surface properties of oxidized titanium to the bone response: special
emphasis on potential biochemical bonding of oxidized titanium implant. Biomaterials, vol. 24, 3893-3907.
Suzuki, A. (2000), Effect of multiply charged ions on the refractive index of titanium oxide films and an
application to decorative films. Japanese Journal of Applied Physics, vol. 39, 1295.
Takikawa, H., Matsui, T., Sakakibara, T., Bendavid, A., & Martin, P. J. (1999), Properties of titanium oxide film
prepared by reactive cathodic vacuum arc deposition. Thin Solid Films, vol 348, 145-151.
Teng, K. S., Delplancke, J. L., Zhang, J., & O’keefe, T. J. (1998), Electrochemical characterization of copper
deposited on plasma and thermally modified titanium surfaces. Metallurgical and Materials Transactions B,
vol. 29, 749-754.
Yang, C.-C., Lin, Y.-C., Yang, C.-C., Lin, Y.-H., Huang, K.-C., Lin, K.-M., Hsiao, W.-T. (2017), Laser-induced
coloring of titanium alloy using ultraviolet nanosecond pulses scanning technology. Journal of Alloys and
Compounds, vol. 715, 349-361.

ANALYSIS OF Ti OXIDE ROUGHNESS AFTER SURFACE LASER TREATMENT

Abstract. The commercially pure titanium and its alloys have several applications in
engineering and as biomaterial. The main property for biomaterial applications must be its
biocompatibility. In some applications, the Ti surface must have different colors. Ti oxide
color varies with the thickness of the titanium oxide film on the surface. The objective of this
work is to analyze the influence of the Ti oxide thickness heated at different temperatures in
roughness. The results showed that it is possible to obtain the growth of the Ti oxide layer
through the laser heating process. The roughness data measured by interferometry showed
that there is no statistically significant difference in roughness between 6 analyzed colors.

Keywords: Ti oxide colors, Ti oxide roughness, laser treatment.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

991
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O USO DAS EQUAÇÕES DE ESTADO (EDE) NO CÁLCULO DO VOLUME MOLAR


DA FASE LIQUIDA E VAPOR DO ETILENO.

Sérgio Silva de Sousa1 - pfsergiosousa@yahoo.com.br


Breno Tiago de Souza Mota2 - brenotsm1@gmail.com
Narcisa Corrêa da Silva3 - narcisa.correa@gmail.com
Janaı́na Imbiriba da Costa4 - janainaimbiriba@gmail.com
Luiz Nélio Henderson Guedes de Oliveira5 - nelio@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil
2 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil
3 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil
4 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil
5 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Abstract. The equations of state were developed to predict the vapor pressure, temperature
and volumetric behavior of systems of simple components and mixtures, behavior (P, V, T ),
thus becoming important tools for modeling thermodynamic systems in both sectors chemical
and petroleum engineering industry as academics. This work aims to carry out a comparative
study between the three main state equations of van der Waals (VDW), Soave-Redlich-Kwong
(SRK) and Peng-Robinson (PR) in the calculation of the molar volume of the saturated phase
of ethylene and compare the results with those found in the literature.

Keywords: State equations, Modeling, Molar Volume

1. INTRODUÇÃO

Muitas fórmulas semi-empı́ricas foram propostas para descrever as propriedades dos gases
reais pressão (P ), temperatura (T ) e o volume (V ), também denominados de comportamentos
P V T . O conhecimento dessas propriedades é muito útil na engenharia quı́mica e petrolı́fera, a
mais simples dessas equações é a lei dos gases ideais dada por
RT
P = (1)
V
sendo R a constante universal dos gases, entretanto para Faires & Clifford (1991 ) a validade da
equação Eq.(1) é restrita aos gases em baixas pressões.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

992
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para contornar essa dificuldade, a indústria procurou encontrar equações que possam
refletir com a máxima precisão e acurácia o comportamento dessas variáveis quando levadas a
condições extremas. Várias equações de estado(EDE) já foram propostas, entre as mais famosas
destacam-se quatro: a equação de Van der Waals (VDW), 1873, citada por Danesh et al. (1991 );
a equação de Redlich – Kwong(RK), 1949, publicado por Redlich & Joseph (1949 ); a equação
de Soave-Redlich-Kwong(SRK), 1972, apresentada por Soave (1972 ) e a equação de Peng
– Robinson(PR), publicada pelo próprio autor 1976, Peng & Robinson (1976 ). Todas elas
incluem duas ou mais constantes aplicáveis a diferentes gases reais. Com base nas teorias
dos princı́pios dos estados correspondentes, essas equações foram desenvolvidas, nas quais as
constantes são aplicáveis a todos os tipos de gases dentro de uma certa pressão e temperatura.
A equação do gás ideal é muito simples, logo, muito conveniente de usar. Entretanto, os gases
se desviam significativamente do comportamento ideal do gás em estados próximos à região
de saturação e ao ponto crı́tico. Segundo Cengel & Boles (2007 ), esse desvio na temperatura
e pressão especificadas é contabilizado com precisão pela introdução de um fator de correção
chamado fator de compressibilidade Z dado por

PV
Z= (2)
RT
.
Quanto mais leve for o gás, mais baixas forem as pressões e mais altas as temperaturas, mais
o fator Z se aproxima de 1 e o gás se aproxima do comportamento dos gases ideais(P V = RT ),
enquanto que para gases reais Z pode ser maior ou menor que a unidade, sendo Z < 1 gases
reais para baixas pressão e temperatura e Z > 1 gases reais para altas pressão e temperatura.
Quanto mais longe Z estiver da unidade, maior o desvio que o gás apresenta em relação ao
comportamento de um gás ideal.

2. Equação de Van der Waals (VDW)

Uma das equações de estado mais comumente usada na indústria petrolı́fera é a equação
proposta pelo fı́sico holandês Johannes Diderik Van Der Wallls(VDW) (1837-1923), em 1873.
Para Struchtrup (2014 ), Van Der Wallls considerou que a pressão real de um sistema devia levar
em consideração dois termos :
P = P R + PA , (3)
onde PR seria a pressão ocasionada pelas forças de repulsão e PA a pressão ocasionada pelas
forças de atração. Assim,
RT a
P = − 2 (4)
V −b V
sendo que o parâmetro a é chamado de força atrativa servindo para diminuir a pressão, uma vez
que as moléculas não colidirão tão facilmente no recipiente e o termo b é denominado parâmetro
repulsivo.
Manipulando a Eq. (4) e escrevendo como uma equação com a incógnita no volume no seu
ponto crı́tico obtém-se
 
3 RT a ab
V − b+ V2+ V − = 0, (5)
P P P
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

993
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sendo a Eq. (5) denominada de equação cúbica de estado em V , uma vez que existem para
um dado valor de Tc , Pc e dos parâmetros a e b, três raı́zes para o volume. Para se usar V DW
precisa-se determinar os parâmetros a e b para a substância de interesse. Pode-se encontrar
esses valores no ponto crı́tico do gráfico P vT , sendo a temperatura constante.

Do cálculo, os pontos crı́ticos ocorrem na primeira e segunda derivadas, onde a primeira


derivada fornece o intervalo de crescimento e a segunda derivada o ponto de inflexão, ou seja,
o ponto onde o gráfico muda a sua curvatura obtém-se esses pontos do gráfico da pressão em
relação ao volume.

Figure 1- Gráfico P xV analise no ponto crı́tico.

Aplicando a primeira e a segunda derivadas na equação de VDW nos pontos crı́ticos obtém-
se
27 (RTc )2
a= (6)
64Pc
e
RTc
b= (7)
8Pc
PV
A Eq. (5) pode ser escrita também em função do fator de compressibilidade (Z = ),
RT
ZRT
substituindo V = em Eq. (5) tem-se
P
 3   2  
ZRT RT ZRT a ZRT ab
− b+ + − =0 (8)
P P P p P P

fazendo as devidas simplificações obtém-se:

Z 3 − (1 + B)Z 2 + AZ − AB = 0 (9)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

994
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sendo
aP
A= (10)
R2 T 2
e
bP
B= (11)
RT
a Eq. (9) que é a equação de VDW em função do fator de compressibilidade produz uma raiz
real na região monofásica e três raı́zes reais na região bifásica (onde a pressão do sistema é
igual à pressão de vapor da substância). Segundo Ahmed (2013 ), na região bifásica a maior
raiz positiva corresponde ao fator de compressibilidade da fase de vapor Z V ; enquanto a menor
raiz positiva corresponde à da fase lı́quida Z L .

3. Equação de estado cúbica genérica

As equações de estados cúbicas (EDEC’S) são amplamente usadas na engenharia para


calcular o equilı́brio de fase e as propriedades termodinâmicas de misturas simples. Para Staudt
et al. (2010 ), a maioria das EDEC’S disponı́veis hoje são casos especiais de uma equação
cúbica genérica, que pode ser escrita como:

RT a(T )
P = − · (12)
V − b (V + b) (V + σb)
Onde  e σ são constantes para todas as substâncias e dependem da equação de estado de
referência de acordo com a Tabela 1 e a(T ) e b são, respectivamente, os termos atrativos e
parâmetros de co-volume especı́ficos para cada substância. Esses parâmetros são geralmente
determinados usando correlações generalizadas baseadas em propriedades crı́ticas e fator
acêntrico1 , de acordo com:
α (T ; ω) R2 T 2
α(T ) = Ψ , (13)
Pc
RTc
b=Ω · (14)
Pc

Onde  Tc é a temperatura
 crı́tica, Pc é a pressão crı́tica, ω é o fator acêntrico, Tr temperatura
T
reduzida Tr = , os outros sı́mbolos são mostrados na Tabela 1. Nota-se ainda que a
Tc
equação de Van der Waals é um caso especı́fico da Eq. (12), quando a(T ) = a é uma constante
que depende da substância e  = σ = 0 e
2
αSRK (T ; ω) = 1 + 0.48 + 1.57ω − 0.176ω 2 1 − Tr0.5
 
(15)
2
αP K (T ; ω) = 1 + 0.37464 + 1.54226ω − 0.26992ω 2 1 − Tr0.5
 
(16)

1
Usado para descrever a não-esfericidade das moléculas

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

995
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1- Parâmetros especı́ficos para as principais EDE


EDE α (Tr ) σ  Ω Ψ
1 27
VDW(1873) 1 0 0 8 64
−0.5
RK(1949) Tr 1 0 0.08664 0.42748
SRK(1972) αSRK (T ; ω) 1√ 0√ 0.08664 0.42748
PR(1976) αP R (T ; ω) 1 + 2 1 − 2 0.07780 0.45724

4. Aplicação das equações cubicas de estado no cálculo do volume molar

Um problema tı́pico envolvendo equações cúbicas de estado é para calcular o volume molar
a uma determinada pressão e temperatura. Este volume pode ser calculado resolvendo a Eq. (5).
Alternativamente, pode ser calculado resolvendo a equação cúbica para Z Eq. (9). O último
método é recomendado por uma série de razões. A equação para Z é adimensional, isso reduz
as chances de erros envolvendo unidades.

Os valores de Z geralmente variam de 0 a cerca de 1, por outro lado, o volume molar


abrange várias ordens de magnitude. Finalmente, como uma equação cúbica, suas raı́zes podem
ser calculadas usando fórmulas analı́ticas padrão.

Alternativamente, as raı́zes podem ser obtidas por procedimentos numéricos iterativos.


Métodos numéricos requerem suposições iniciais adequadas. Para a raiz da fase gasosa, uma
Pb
estimativa inicial é Z = 1; para a raiz da fase lı́quida, a estimativa inicial é Z = B = . No
RT
entanto, não há garantia de que essas suposições convergirão para as raı́zes adequadas, portanto
os resultados dos procedimentos numéricos iterativos devem sempre ser verificados segundo
Matsoukas (2013 ), devido a esse fato é proposto um programa para o cálculo das raı́zes da
equação cúbica em Z.

4.1 Algoritmo para resolução analı́tica da equação cúbica de estado em função de Z

Apresenta-se a seguir um algoritmo para implementação computacional baseado na fórmula


de Cardano para resolução de equações cúbicas.
i) Dado o polinômio cúbico com coeficientes reais x3 + ax2 + bx + c = 0, inicialmente, calcula-
a2 − 3b 2a3 − 9ab + 27c
se os parâmetros Q = eR= .
9 54
2 3
ii)Se R < Q , o polinômio terá três raı́zes reais sendo obtidas da seguinte forma:

 √ θ a
x1 = −2√Qcos 3 − 3

x2 = −2 Qcos θ+2π
3
− a
3
 √ θ−2π a
x3 = −2 Qcos 3 −

3

onde !
R
θ = arccos p
Q3

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

996
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

iii) Se R2 > Q3 o polinômio possui somente uma raiz real e seus parâmetros A e B devem ser
calculados da seguinte forma:
h p i 13
A = −sign(R) |R| + R2 − Q3
e (
Q
A
se A 6= 0
B=
0 se A = 0
onde sign(x) é a função que retorna o sinal de x e a sua única raiz real será dada por
a
x1 = (A + B) −
3
4.2 O problema

O etileno (C2 H4 ), um gás incolor de odor etéreo, levemente adocicado que se liquefaz a
−103o C e solidifica a −169o C, é um componente de grande utilização na industria quı́mica,
principalmente na produção de plásticos. Devido a falta de dados experimentais desse
componente e para validar a teoria apresentada e o programa desenvolvido apresenta-se um
problema sugerido por Matsoukas (2013 ) para se calcular o volume molar através das equações
de VDW, SRK e PR.

Através das equações de van der Waals(VDW), Soave-Redlich-Kwong(SRK) e Peng-


Robinson(PR) será calculado o volume molar das fases saturadas do etileno(C2 H4 ) a 260 K
sendo a pressão de saturação de 30.35 bar e comparado o resultado com os valores tabulados,
0, 0713 L 0.456 L
conhecidos da literatura, VL = e VV =
mol mol
Solução:
1)Inicialmente, deve-se obter as propriedades crı́ticas (Tc e Pc ), fator acêntrico (ω) do etileno e a
constante universal dos gases (R) através de tabelas termodinâmicas encontradas em Matsoukas
J
(2013 ): Tc = 282.35 K, Pc = 50.418 bar, ω = 0.0866 e R = 8.314 molK
2)Equação de VDW: Calcula-se os parâmetros a, b, através das Eq. (6) e Eq. (7) de VDW.
Jm3 −5 m
3
encontrando a = 0.461098 e b = 5.81999 × 10 .
mol2 mol
3)Calcula-se os parâmetros A e B através das Eq.(10) e Eq.(11), respectivamente, que vão
gerar os coeficientes da equação cubica em Z Eq.(9) de VDW dados por A = 0.299492 e
B = 0.0817142 e tendo como equação cúbica
Z 3 − 1.0817142Z 2 + 0.299492Z − 0.0244727 = 0
Usando o programa desenvolvido em C++ , baseado no algoritmo descrito anteriormente, para
equações cúbicas, obtém-se três raı́zes Z1 = 0.16559, Z2 = 0.209005 e Z3 = 0.70712, como
o sistema está na pressão de saturação, atribuı́-se a menor raiz ao fator de compressibilidade
do lı́quido e a maior raiz para o fator de compressibilidade do vapor (a raiz do meio não é
usada) logo: ZL = 0.16559 e ZV = 0.70712 e para encontrar o volume molar usa-se a Eq. (2)
obtendo-se:

(
m3
VL = ZLPRT ⇒ VL = 1.1793936 × 10−4 mol
m3
VV = ZVPRT ⇒ VV = 5.036372 × 10−4 mol

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

997
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Procedendo de forma análoga para as equações de SRK e P R, os volumes molares encontrados


e a comparação com os valores da literatura são mostrados na Tabela 2.

Table 2- Volumes molares da fase lı́quida e vapor pelas equações de VDW, SRK e PR
Equação VL (m3 /mol) Erro(%)∗ VV (m3 /mol) Erro(%)∗
VDW 1.1793936×10−4 65.41 5.036372×10−4 10.45
SRK 8.17434×10−5 14.65 4.55207×10−4 -0.17
PR 7.23918×10−5 1.53 4.39135×10−4 -3.69
Literatura 7.13×10−5 - 4.56×10−4 -

 
∗ VEDOs − VLiteratura
Erro = × 100%
VLiteratura

5. CONCLUSÃO

A equação de van der Waals apresenta o maior erro, principalmente na região do lı́quido. A
equação de Peng-Robinson fornece o menor erro no lı́quido, mas a equação de Soave-Redlich-
Kwong é melhor na região do vapor.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal


de Nı́vel Superior - Brasil (CAPES) - Código de Financiamento 001.

REFERENCES

Ahmed, Tarek. Equações de estado e análise PVT . Elsevier, 2013.


Cengel, Yunus A.; Boles, Michael A. Thermodynamics: An Engineering Approach 6th Editon (SI
Units). The McGraw-Hill Companies, Inc., New York, 2007.
Danesh, A.; Xu, D. H.; Todd, A. C. Comparative study of cubic equations of state for predicting phase
behaviour and volumetric properties of injection gas-reservoir oil systems. Fluid Phase Equilibria, v.
63, n. 3, p. 259-278, 1991.
Faires, Virgil Moring. Clifford, Max Simmang. Termodinámica. Sexta edición. Editorial UTEHA, 1982.
Matsoukas, Themis. Fundamentals of chemical engineering thermodynamics. Pearson Education, 2013.
Peng, Ding-Yu; Robinson, Donald B. A new two-constant equation of state. Industrial & Engineering
Chemistry Fundamentals, v. 15, n. 1, p. 59-64, 1976.
Redlich, Otto; Kwong, Joseph NS. On the thermodynamics of solutions. V. An equation of state.
Fugacities of gaseous solutions. Chemical reviews, v. 44, n. 1, p. 233-244, 1949.
Soave, Giorgio. Equilibrium constants from a modified Redlich-Kwong equation of state. Chemical
engineering science, v. 27, n. 6, p. 1197-1203, 1972.
Staudt, P. B., et al. ”A new cubic equation of state for prediction of VLE of polymer solutions.” Fluid
phase equilibria 295.1 (2010): 38-45.
Struchtrup, Henning. Thermodynamics and energy conversion. Springer, 2014.

APPENDIX A

THE USE OF STATE EQUATIONS (EDE) IN THE CALCULATION OF THE MOLAR


VOLUME OF THE LIQUID PHASE AND STEAM OF ETHYLENE.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

998
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Abstract. The equations of state were developed to predict the vapor pressure, temperature
and volumetric behavior of systems of simple components and mixtures, behavior (P, V, T ),
thus becoming important tools for modeling thermodynamic systems in both sectors chemical
and petroleum engineering industry as academics. This work aims to carry out a comparative
study between the three main state equations of van der Waals (VDW), Soave-Redlich-Kwong
(SRK) and Peng-Robinson (PR) in the calculation of the molar volume of the saturated phase
of ethylene and compare the results with those found in the literature.

Keywords: State equations, Modeling, Molar Volume

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

999
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO MECÂNICA E APLICAÇÃO DO COBRE NA INDÚSTRIA

Thiago Batalha Barbosa Lima 1 – thiago.batalha.b.l@gmail.com


Matheus Moraes Torres dos Santos 1 – matheusmoraests@ymail.com
Victor Barbosa Souza 1 – prof.victorbsouza@gmail.com
Euzébio Bernabé Zanelato 2 – ebzanelato@gmail.com
Afonso Rangel Garcez de Azevedo 3 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila 3 – markssuel@hotmail.com
Daiane Ribeiro Nobre 4 - daiane_nobre@outlook.com
Sergio Neves Monteiro 5 – snevesmonteiro@gmail.com
Luana C. da Cruz Demosthenes 5 – Eng.luanademosthenes@gmail.com
1
Universidade Redentor de Itaperuna – Itaperuna, RJ, Brasil
2
Instituto Federal Fluminense – Campos dos Goytacazes, RJ, Brasil
3
Universidade Estadual do Norte Fluminense, Campos dos Goytacazes, RJ, Brasil
4
Universidade São Camilo – Cachoeiro de Itapemirim, ES - Brasil
5
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil

Resumo. O presente artigo tem como objetivo primário definir quais são as propriedades
físicas e mecânicas do Cobre, baseado em um ensaio mecânico de tração. Após a realização
do estudo, puderam ser definidas as características principais do material, bem como as
possíveis aplicações nos mais variados setores da indústria nacional e internacional. Para
que isso fosse possível de ser consolidado, realizou-se um ensaio de tração, de acordo com a
norma ASTM A370, nas dependências laboratoriais da Sociedade Universitária Redentor. A
partir dos resultados obtidos e, posteriormente comprovados por meio de cálculos
matemáticos, chegamos à conclusão de diversas características que o material apresenta
quando solicitado a determinados esforços. É por essa gama de boas propriedades físicas,
químicas e mecânicas, que determinamos o Cobre como um material extremamente versátil e
de uma aplicabilidade muito grande no cenário industrial nacional e internacional.

Keywords: Cobre; ensaio de tração; propriedades mecânicas, aplicação; indústria.

Abstract. This article has as primary objective to define what are the physical and
mechanical properties of copper. After the study, the main material characteristics and
possible applications in various sectors of national and international industry could be set. To
make this possible be consolidated, there was a tensile test according to ASTM A370, the
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1000
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

laboratory facilities of the University Redeemer Society. From the results obtained and
subsequently verified through mathematical calculations, we conclude several characteristics
that the material shows when asked to determined efforts. For this range of good physical,
chemical and mechanical properties, which determine the copper as an extremely versatile
material and a very great applicability in domestic and international industrial scenario.

Keywords: Copper; tensile test; mechanical properties, application; industry.

1. INTRODUÇÃO

O Cobre é um dos metais conhecidos mais antigos na história da humanidade, e, além


disso, foi o primeiro metal utilizado pelo ser humano. Sua descoberta data por volta de 13.000
a.C. na região Norte do Golfo Pérsico. Como metal puro em seu estado metálico, foi usado
inicialmente como substituto da pedra para confecção de ferramentas de trabalho, armas e
objeto de decoração. Isso somente se tornou possível pelo fato do Cobre possuir algumas
características, como: durabilidade, alta resistência à corrosão, boa maleabilidade, boa
ductilidade e fácil manejo. Por esses fatores, o Cobre se tornou uma descoberta fundamental
na história da evolução do ser humano (Hibbeler, 2010).
Como um dos mais importantes elementos da história, o Cobre foi o primeiro metal
minerado e manufaturado pelo homem. Isso se deu pelo simples fato de estar disponível em
enormes quantidades e em regiões muito próximas à superfície do solo (facilitava a extração).
A descoberta do processo que viabilizava a extração do Cobre enquanto minério foi um
evento importantíssimo, pois esse fato deu início ao setor metalúrgico e também foi base para
o desenvolvimento de grandes indústrias. Ampère (1775-1836), Faraday (1791-1867) e Ohm
(1789-1854) deram força ao papel do Cobre. Devido aos seus estudos, foram descobertas
inúmeras propriedades físicas do material, que são o motivo do presente estudo (Callister Jr,
2002).
Como dito anteriormente, o Cobre é um metal extremamente antigo e possuiu importante
papel na evolução da raça humana. Porém, apesar de ser um material descoberto há milhares
de anos, ainda mantém a sua importância em atividade. Continua sendo um material de
grande utilização dentro dos setores responsáveis pelo crescimento da economia mundial (Liu
et al., 2019).
Na grande maioria das aplicações, o Cobre é normalmente utilizado em sua forma pura.
Porém, também pode ser combinado com outros elementos (metálicos), gerando dessa
maneira uma enorme variedade de ligas. Cada uma dessas ligas possuem características
bastante singulares e variam de acordo com a sua composição química (Li et al., 2019).
O Cobre pode apresentar inúmeras características, destacadas na tabela 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1001
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 01 - Propriedades físicas e químicas do cobre.

PROPRIEDADES FÍSICAS PROPRIEDADES ESPECÍFICAS


Maleabilidade e ductilidade. Símbolo químico – Cu
Excelente condutor elétrico. Número atômico – 29
Excelentes características de liga. Peso atômico – 63.54
Não magnético. Densidade – 8.89 g/cm³
Resistencia à corrosão. Ponto de fusão – 1083°C
Boa usinabilidade, quando ligado a Temperatura de recozimento – (475 /
outros elementos. 750)°C
Conformabilidade a frio e a quente. Ponto de ebulição – 2595°C
Soldabilidade. Estrutura Cristalina – CFC
Excelentes propriedades de troca de
Calor específico a 20°C – 380J/kg*K
calor.
Durabilidade. -----
Fonte: www.matta.com (2015)

Dentro da indústria, o Cobre é bastante utilizado devido a algumas de suas propriedades,


como resistência química, mecânica e à corrosão, além de excelente condutibilidade elétrica,
térmica, fácil manuseio e boa soldabilidade. Por isso, tem alta empregabilidade no setor
elétrico e hidráulico. O Cobre é muito usado em:
• Serpentinas de aparelhos de ar-condicionado;
• Condensadores;
• Compressores;
• Conectores e fios elétricos;
• Componentes de refrigeração;
• Redes de combate a incêndio;
• Interligações de água quente;
• Instalações hidráulicas em geral.
• Bobinas
• Tintas

Alguns estudos realizados há poucos anos tentaram encontrar um substituto que possuísse
um custo menor e com as mesmas propriedades que o Cobre. O Alumínio passou a ser
utilizado principalmente como serpentina para aparelhos de ar condicionado, devido ao seu
baixo custo e peso quando comparado com o Cobre. Porém não possui a mesma capacidade
de resistir a agentes causadores de corrosão como o Cobre (Panaskar, 2017). Isso faz com que
o Cobre ainda possua ampla utilidade no setor industrial. A Figura 1 apresenta duas
aplicações do cobre.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1002
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 01 – Cobre utilizado na confecção de conexões e fio de cobre utilizado para instalações
elétricas.
Fonte: www.reformafacil.com.br (2015)

Portanto, o presente artigo tem como objetivo principal determinar as características e


propriedades mecânicas do material ensaiado (Cobre) através de um ensaio mecânico de
tração. Para que fosse possível realizar este estudo, se fez necessário utilizar a máquina de
ensaio mecânico de tração KRATOS (TRCv61296), conforme ilustrado na Figura 2, no
Laboratório de Usinagem da Faculdade Redentor.

Figura 02 – Equipamento utilizado no ensaio de tração.

2. MATERIAIS E MÉTODOS

O corpo de prova utilizado no ensaio é cilíndrico com dimensões estabelecidas pela


norma ASTM A370, o qual é submetido a um esforço uniaxial que tende a alonga-lo até sua
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1003
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ruptura, tornando-o inutilizável. A Figura 03 apresenta as partes do corpo de prova, e a Figura


04, suas dimensões.
Para que o ensaio tenha sido realizado, se fez necessário extrair todas as dimensões
necessárias do corpo de prova. Para tal tarefa foi utilizado um paquímetro do fabricante
DIGINESS, com escala em milímetros (mm).

Figura 03 – Imagem ilustrativa do corpo de prova.

Figura 04 – Dimensões do corpo de prova.

Nesse tipo de ensaio, as deformações promovidas no material são consideradas


uniformemente distribuídas em todo do seu corpo, por causa da baixa velocidade de
deslocamento que a máquina de tração exerce sobre ele (5mm/min). A temperatura de 25ºC e
a umidade relativa de 50%, sendo aplicada uma pré carga de 254,93kgf (2,5KN).
Foi utilizado um método na resolução dos gráficos de ensaio de tração: o método do
Ensaio de Tração Real, cuja tensão é dada pela razão da carga aplicada pela área da seção
circular instantânea, á medida que o corpo de prova sofre uma deformação

3. RESULTADOS

Ao final do ensaio o corpo de prova não gerou nenhum som quando se rompeu, por
consequência do cobre possuir boa maleabilidade e ductilidade. Pode-se observar nas figuras
5 e 6 o acabamento antes e após o ensaio.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1004
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 05 – Corpo de prova antes do ensaio.

Figura 06 – Corpo de prova após o ensaio.

Os resultados obtidos foram comprovados por cálculos matemáticos sendo possível assim
a criação dos gráficos ilustrados nas Figuras 7 e 8. referentes respectivamente á carga-
deslocamento e tensão-deformação.

Figura 07 – Gráfico de carga-deformação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1005
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 08 – Gráfico de tensão-deformação utilizando valores referentes ao ensaio de tração real.

A Figura 8 permite observar a formação da curva real devida ao ensaio executado.


Porém, é de ação cautelosa utilizar outra curva, chamada de convencional. Ela é utilizada por
estar abaixo da curva real, que de certa forma fornece uma segurança a mais ao projeto, sendo
conhecida também como curva de engenharia. Seguem abaixo os cálculos das propriedades
mecânicas

a) Força máxima = 750 kgf = 7360 N

b) Módulo de elasticidade = 663,91 kgf/mm² = 6,511GPa

c) Limite de escoamento = 25,63 kgf/mm² = 251,35 Mpa

d) Limite de resistência:

e) Tensão de ruptura:

f) Deformação ( ) = = 5,952 mm
g) Deformação específica:

h) Resiliência:

i) Estricção:
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1006
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

j) Tenacidade:

k) Área instantânea última:

l) Área instantânea de ruptura:

m) Limite de resistência real:

n) Tensão de ruptura real:

o) Deformação específica do limite de resistência real:

p) Deformação específica real total (ruptura):

4. CONCLUSÃO

Através deste estudo chegou-se a conclusão que o ensaio de mecânico tração é


fundamental na maioria dos ramos na indústria moderna, pois serve para determinar controle
de qualidade de produção, eficiência, confiabilidade e aplicabilidade.
A partir dele é possível conhecer as propriedades mecânicas de um material como o
limite de escoamento, limite de resistência, módulo de elasticidade, módulo de resiliência,
tenacidade, além de determinar se ele suporta ao tipo de solicitação o qual será submetido. A
partir da análise dos valores destas propriedades, é possível dizer que se trata de um material
dúctil e possui boa resistência mecânica, ou não.
Uma característica importante que não é possível determinar através do ensaio de tração é
a alta condutibilidade térmica e elétrica do cobre. Ele possui grande aplicabilidade na
indústria, pois é muito empregado em geradores, transformadores, fios e cabos condutores,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1007
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

hastes, placas, cabos e conectores de aterramento, motores, equipamentos elétricos, trocadores


de calor, entre outros.
Possui alta durabilidade, já que o cobre não sofre corrosão com a água ou o ar,
flexibilidade, já que este tipo de tubo é totalmente modelável, permitindo uniões, dobras e
fácil instalação, propriedade antibacteriana, que evita transmissões de doenças por meio da
água em banheiros e cozinhas, facilidade de transporte, já que é leve e pode ser enrolado para
guardar, corrosão quase nula, já que é resistente a qualquer tipo de produtos químicos que
possam estar na água.
O cobre é muito importante no progresso tecnológico e científico da humanidade. Sua
participação na conservação de recursos, na redução de resíduos, na eficiência energética, na
diminuição dos efeitos nas mudanças climáticas, na reciclagem e no aumento dos ciclos de
vida de diversos produtos faz deste metal uma peça-chave no desenvolvimento econômico da
humanidade

Agradecimentos

Agradeço à Uniredentor, IFF, CNPq, FAPERJ e UENF pelo apoio à pesquisa.

REFERENCES

ASTM A370-19e1 (2019). “Standard Test Methods and Definitions for Mechanical Testing of Steel Products”.
ASTM International, West Conshohocken, PA, 2019.
Callister Jr, W.D. (2002) “Ciência e Engenharia de Materiais: Uma introdução” 5ª Edição, Rio de Janeiro.
Hibbeler, R.C. (2010) “Resistência dos materiais”, Rio de Janeiro, LTC.
Liu, Y. (2019), Cai S., Xu, F., Wang Y., Dai L. “Enhancing strength without compromising ductility in copper
by combining extrusion machining and heat treatment”, Journal of Materials Processing Technology,
Volume 267, 2019, Pages 52-60.
Li, R. (2019), Zhang, S., Zou, C., Kang, H., Wang, T. “The roles of Hf element in optimizing strength, ductility
and electrical conductivity of copper alloys”. Materials Science and Engineering: A, Volume 758, 2019,
Pages 130-138.
Panaskar,N. (2017), Terkar, R. “A Review on Recent Advances in Friction Stir Lap Welding of Aluminium and
Copper”, Materials Today: Proceedings, Volume 4, Issue 8, 2017, Pages 8387-8393.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1008
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

TRATAMENTO TÉRMICO DO AÇO SAE 4340 SOB DIFERENTES MEIOS DE


RESFRIAMENTO PARA ANÁLISE DE DUREZA

Camila Abreu de Faria Mantovani 1 – cmantovani@yahoo.com.br


Marisa Werneck Arenari 1 – marenari@yahoo.com.br
Victor Barbosa Souza 1 – prof.victorbsouza@gmail.com
Euzébio Bernabé Zanelato 2 – ebzanelato@gmail.com
Afonso Rangel Garcez de Azevedo 3 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila 3 – markssuel@hotmail.com
Daiane Ribeiro Nobre 4 - daiane_nobre@outlook.com
Sergio Neves Monteiro 5 – snevesmonteiro@gmail.com
Andressa Teixeira Souza 5 – Andressa.t.souza@gmail.com
1
Universidade Redentor de Itaperuna – Itaperuna, RJ, Brasil
2
Instituto Federal Fluminense – Campos dos Goytacazes, RJ, Brasil
3
Universidade Estadual do Norte Fluminense, Campos dos Goytacazes, RJ, Brasil
4
Universidade São Camilo – Cachoeiro de Itapemirim, ES - Brasil
5
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil

Resumo. O trabalho baseia-se em submeter amostras do aço SAE 4340 ao processo de


tratamento térmico com diferentes meios de resfriamento (carvão, areia, ar livre, óleo e água
com gelo), que alteram as microestruturas dos materiais, por conseguinte, muda as
propriedades mecânicas do aço, o que pode acarretar o aumento ou diminuição da dureza do
material. Com a realização do ensaio mecânico de dureza em cada amostra analisada, foi
possível observar que houve aumento de dureza em todas as amostras tratadas termicamente.

Keywords: Tratamento térmico; Têmpera; Aço SAE 4340.

Abstract. The work is based on subjecting the samples SAE 4340 steel heat treating process
with different cooling media (charcoal, sand, air, oil and water with ice), which alter the
microstructure of the material, therefore, changes the properties mechanical steel, which may
cause an increase or decrease in material hardness. With the completion of the mechanical
test of hardness in each sample analyzed, it was observed that there was an increase of
hardness in all samples heat treated.

Keywords: Heat treatment; Hardening; SAE 4340 steel.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1009
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Os aços, materiais formados por uma liga metálica de ferro e carbono, diferenciam-se
pela forma, tamanho e uniformidade dos grãos que o compõem e por sua composição
química, que pode ser alterada em função de sua aplicação final (Chiaverini, 1977).
Os aços apresentam diferentes graus de resistência mecânica, soldabilidade, ductilidade,
resistência à corrosão. Outras propriedades inerentes a este tipo de material são a elasticidade,
a plasticidade, a resiliência e a fluência. É um material homogêneo e, portanto, pode ser
laminado, forjado, estampado, estriado e, ainda, ter suas propriedades modificadas por
tratamentos térmicos ou químicos (Chiaverini, 1986).
A utilização do aço se faz presente de forma ostensiva, devido ao seu custo e por
apresentar características que podem ser alternadas mediante aos tratamentos térmicos.
O aço SAE 4340 é um aço para beneficiamento com elevada temperabilidade, ligado ao
cromo, níquel e molibdênio, muito utilizado na indústria para a fabricação de diferentes
componentes estruturais, quando se deseja uma combinação de resistência mecânica média à
fratura e à fadiga, bem como uma homogeneidade de dureza ao longo de pequenas ou grandes
seções transversais servindo para aplicações em eixos, engrenagens, engrenagens planetárias,
colunas, mangas e cilindros, entre outras (Askeland, 2006).
Tratamento Térmico pode ser conceituado como um processo de aquecimento e
resfriamento controlados realizado nos metais objetivando a alteração de suas propriedades
físicas e mecânicas. Está associado ao aumento da resistência mecânica, ao desgaste, à
corrosão e ao calor, à melhora da usinabilidade e das propriedades de corte, da
conformabilidade, da restauração, da ductilidade, depois de uma operação a frio alterando
características e propriedades elétricas ou magnéticas dos materiais (Krylova et al., 2019).
O tratamento térmico aplicado aos aços modifica o seu comportamento maximizando sua
utilidade, no que diz respeito ao alívio de tensões internas, provenientes de um resfriamento
desigual e as propriedades de resistência.
A temperatura de austenitização, a temperabilidade e a velocidade de resfriamento são
determinadas em função da composição do aço. Sua utilização é dada em ferramentas com
médios e altos teores de cromo, e aços inoxidáveis (Barriuso et al., 2014).
Dentre os tratamentos térmicos mais utilizados podemos destacar o recozimento, a
normalização, a têmpera e o revenido. Cada um deles apresenta características singulares.
O recozimento é utilizado quando se deseja remover tensões, devido ao tratamento
mecânico a frio ou a quente, buscando diminuir a dureza, ajustar os grãos e melhorar a
usinabilidade. A normalização é semelhante ao recozimento quanto aos objetivos, porém o
resfriamento é menos lento e feito ao ar (Ghrib et al., 2008).
A têmpera consiste no resfriamento rápido do corpo de prova, de uma temperatura
superior à crítica, para se obter uma estrutura com alta dureza que chamamos de martensítica.
Apesar de elevar o limite de resistência, de tração do aço e sua dureza, este tipo de tratamento
reduz a maleabilidade e produz o aparecimento de tensões internas, que são atenuadas através
do revenido, tratamento que sucede a têmpera com objetivo de aliviar as tensões produzidas e
corrigir a excessiva dureza e fragilidade do material, aumentando sua maleabilidade e a
resistência ao choque (Ghrib et al., 2008).
Quando se deseja a redução da dureza, a remoção de tensões residuais, a melhoria da
tenacidade, a restauração da ductilidade, a redução do tamanho do grão ou alteração das
propriedades eletromagnéticas do aço, utiliza-se as formas chamadas de amolecimento que

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1010
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

são o recozimento, o recozimento de recristalização, recozimento pleno, recozimento de


esferoidização e normalização (Krylova et al., 2019).
Por outro lado, quando a necessidade é de aumentar a resistência mecânica, ao desgaste e
à fadiga, o tratamento solicitado é de endurecimento, que é fortemente dependente do teor de
carbono embutido no aço. Os tratamentos de endurecimento são: têmpera, austêmpera, e
martêmpera (Ghrib et al., 2008).
A Têmpera foi o tratamento térmico utilizado para o desenvolvimento da maioria dos
testes realizados neste trabalho com o aço SAE 4340, uma vez que buscamos comparar o grau
de dureza provocada no mesmo, após o resfriamento dos corpos de prova de diferentes
maneiras, na tentativa de se obter uma estrutura com alta dureza.

2. MATERIAIS E MÉTODOS

Os estudos foram baseados no diagrama Fe-C, que relaciona a quantidade de carbono dos
aços com a temperatura dos mesmos, mostrando em cada fase as microestruturas presentes.
Outra base do estudo foi a curva TTT do aço SAE 4340, que relaciona a temperatura em
que ocorre a transformação da austenita e a estrutura e propriedades das fases produzidas e
função do tempo.

(a) (b)
Figura 01 – (a) Diagrama Fe-C (b) Curva TTT do aço SAE 4340..

O experimento foi realizado no laboratório de Metalografia e Tratamento Térmico (M4)


da Faculdade Redentor.
Foram utilizadas seis amostras de aço SAE 4340, cada uma com 12,7 mm de diâmetro e
120 mm de comprimento. Na amostra não tratada termicamente foram feitos dez pontos
distintos de medições para retirada da média de dureza do aço, a ser utilizado como dados
comparativos com as outras amostras que serão tratadas termicamente.
A realização dos tratamentos térmicos pode ser dividida em 3 etapas: aquecimento,
resfriamento controlado e medição da dureza.

Aquecimento das amostras

As amostras foram aquecidas no forno Novus N1040 com medição digital de


temperatura. A temperatura utilizada no processo foi de 845°C, que corresponde à 70°C
acima da temperatura de austenitização do aço, que é 775°C. Para que houvesse uma
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1011
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

homogeneização da estrutura austenítica, as peças permaneceram por 1 hora no forno à


temperatura constante.

Resfriamento das amostras

i. Resfriamento no carvão.
Após sair do forno, a amostra foi colocada em um recipiente de vidro com capacidade de
1000 ml e ficou submersa em carvão mineral triturado até que resfriasse. Após
aproximadamente 24h o aço foi retirado do recipiente.

ii. Resfriamento na areia


Um recipiente de vidro com 400 ml de areia, proveniente do laboratório de construção
civil da Faculdade Redentor, foi utilizado para depositar a amostra do aço até que esta se
resfriasse. O tempo para a retirada foi o mesmo da amostra resfriada no carvão.
Pelo fato de o recipiente não ter o tamanho necessário para que toda a amostra ficasse
submersa em areia, foi considerada apenas uma parte da peça para fazer a medição de dureza.

iii. Resfriamento ao ar livre (normalização)


Com o auxílio da tenaz, a peça foi retirada do forno e colocada em um recipiente a fim de
que resfriasse lentamente ao ar, por aproximadamente 24h

iv. Resfriamento em óleo.


O óleo utilizado foi o óleo de têmpera, em um recipiente de alumínio. Seguindo o padrão
das outras peças, esta foi retirada do forno e colocada imediatamente no óleo, provocando um
resfriamento mais rápido que todos os acima citados.

v. Resfriamento em água com gelo


Em um recipiente de alumínio foram colocados água e gelo, até que a solução atingisse
0°C. Assim que a amostra foi retirada do forno, foi inserida neste, o que provocou um
resfriamento quase instantâneo.

Medição da dureza

Para a medição da dureza de cada peça foi utilizado um durômetro de mesa, da marca
Digimess, que tem uma ponteira de diamante industrial em formato cônico e utiliza a escala
Rockwell, medida em HRC.
Em cada peça foram feitas dez medições da dureza, a fim de se obter um valor médio
entre elas. Abaixo os gráficos e tabelas que representam a dureza com cada meio de
resfriamento do aço SAE 4340.

3. RESULTADOS

Os resultados obtidos no ensaio de dureza do aço resfriado no carvão estão indicados na


Figura 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1012
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 02 – Ensaio de dureza do aço resfriado no carvão

Os resultados obtidos no ensaio de dureza do aço resfriado na areia estão indicados na


Figura 3.

Figura 03 – Ensaio de dureza do aço resfriado na areia

Os resultados obtidos no ensaio de dureza do aço resfriado ao ar livre estão indicados na


Figura 4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1013
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 04 – Ensaio de dureza do aço resfriado ao ar livre.

Os resultados obtidos no ensaio de dureza do aço resfriado no óleo estão indicados na


Figura 5.

Figura 05 – Ensaio de dureza do aço resfriado no óleo.

Os resultados obtidos no ensaio de dureza do aço resfriado na água com gelo estão
indicados na Figura 6.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1014
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 06 – Ensaio de dureza do aço resfriado na água com gelo.

A Figura 7 apresenta a comparação dos resultados obtidos entre os diferentes


resfriamentos.

Figura 07 – Comparação da dureza entre os diferentes resfriamentos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1015
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSÃO

Após a análise dos testes realizados concluímos que houve um aumento significativo da
dureza do material utilizado, quando submetido a tempera, com resfriamento em água com
gelo (0°C). Os outros métodos de resfriamento também produziram aumento da dureza,
porém em menores escalas.
No resfriamento com carvão obtivemos uma dureza de 40,3 HRC, que se deu pelo fato de
o carvão ser um material composto, basicamente, de carbono e, no processo de resfriamento,
transferir carbono para a superfície da amostra aumentando assim a dureza superficial do aço.
No caso da peça que foi resfriada na areia, sua dureza teve um aumento menor pelo fato deste
material dificultar a troca de calor da peça com o ambiente. A dureza média foi de 38,3 HRC.
Quando a terceira amostra resfriou ao ar livre ocorreu o tratamento térmico de normalização,
que gera uma dureza menor que de todos os tipos de têmperas. Sua média foi de 34,5 HRC.
No caso da peça que resfriou no óleo de têmpera, pelo fato de seu resfriamento ser mais
rápido, também teve sua dureza aumentada consideravelmente, dando um valor médio de 38,7
HRC. Já no último tipo de resfriamento, que foi na água com gelo caracterizando um processo
quase instantâneo, o aumento de dureza foi maior dando uma média de 59,1 HRC.
O tratamento térmico que usou a água com gelo para resfriamento, se faz necessário para
peças ou ferramentas que necessitam de alta dureza. Por outro lado, esse processo gera muita
tensão interna no material, que não é bom por muitas vezes gerar trincas internas e externas e
aumentar a fragilidade do aço. Para diminuir essas tensões e a fragilidade recomenda-se fazer
o revenimento.

Agradecimentos

Agradeço à Uniredentor, IFF, CNPq, FAPERJ e UENF pelo apoio à pesquisa.

REFERENCES
Askeland, R. (2006), Phulé, D., Pradeep, P. Ciência e Engenharia dos Materiais. 1ª Edição. 2006.
Barriuso, S. (2014), Jaafar, M., Chao, J., Asenjo, A., Gonzalez-Carrasco, J.L. Improvement of the blasting
induced effects on medical 316 LVM stainless steel by short-term thermal treatments, Surface and Coatings
Technology, Volume 258, 2014, Pages 1075-1081.
Chiaverini, V. (1977). “Tecnologia Mecânica: materiais de construção mecânica”. 3ª Edição. 1977. Volume 3
Chiaverini, V. (1986). “Tecnologia Mecânica: processos de fabricação e tratamento”. 2ª Edição. 1986. Volume 2
Ghrib, T. (2008), Bejaoui, F., Hamdi, A., Yacoubi, N. Correlation between thermal properties and hardness of
end-quench bars for C48, 42CrMo4 and 35NiCrMo16 steels, Thermochimica Acta, Volume 473, Issues 1–2,
2008, Pages 86-91.
Krylova, S. E. (2019), Romashkov, E. V., Gladkovsky, S. V., Kamantsev, I. S. Special aspects of thermal
treatment of steel for hot forming dies production, Materials Today: Proceedings, Volume 19, Part 5, 2019,
Pages 2540-2544.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1016
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

A INFLUÊNCIA DA VARIAÇÃO DO TEMPO NA TEMPERABILIDADE E


REVENIMENTO DO AÇO SAE 1045 FABRICADO PARA A UTILIZAÇÃO EM
PARAFUSOS

Isabela Guedes Vieira 1 – isabelavieira2@hotmail.com


Marina Teixeira Carvalho 1 – marina.carvalho17@hotmail.com
Victor Barbosa Souza 1 – prof.victorbsouza@gmail.com
Euzébio Bernabé Zanelato 2 – ebzanelato@gmail.com
Afonso Rangel Garcez de Azevedo 3 – afonso.garcez91@gmail.com
Markssuel Teixeira Marvila 3 – markssuel@hotmail.com
Daiane Ribeiro Nobre 4 - daiane_nobre@outlook.com
Sergio Neves Monteiro 5 – snevesmonteiro@gmail.com
Ulisses Oliveira Costa 5 – ulissesolie@gmail.com
1
Universidade Redentor de Itaperuna – Itaperuna, RJ, Brasil
2
Instituto Federal Fluminense – Campos dos Goytacazes, RJ, Brasil
3
Universidade Estadual do Norte Fluminense, Campos dos Goytacazes, RJ, Brasil
4
Universidade São Camilo – Cachoeiro de Itapemirim, ES - Brasil
5
Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil

Resumo. O presente trabalho tem por objetivo estudar o comportamento da conformação do


aço SAE 1045 quando submetido ao tratamento térmico de têmpera em variação do tempo e
revenimento para a fabricação e utilização em parafusos. Diversas amostras foram
submetidas aos tratamentos térmicos em diferentes tempos, variando de 30 minutos a 120
minutos. Através do Ensaio de Rockwell B, seus graus de dureza foram comparados para
obtenção de resultados de análise para fins comerciais da indústria. Ao fim dos tratamentos
térmicos foram comparados aspectos mecânicos obtidos e analisados das amostras no estado
pós-conformadas, buscando uma boa qualidade para o produto final. As amostras
temperadas e revenidas resultaram na formação de uma microestrutura com dureza média de
47,82 HB, sendo, portanto, resistente e de boa usinabilidade, resultando em peças com boa
aplicabilidade, em que a microestrutura apresentou uma dureza relativa apropriada, para o
processo de usinagem pós-tratamentos. As amostras foram, ainda, submetidas à conformação
para inserção de rosca na seção transversal, dando forma à peça final.

Keywords: tratamento térmico, conformação mecânica, aço SAE 1045.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1017
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Abstract. This work aims to study the conformation of steel SAE 1045 behavior when
subjected to heat treatment quenching in varying weather and tempering for the manufacture
and use screws. Several samples were subjected to thermal treatments at different times
ranging from 30 minutes to 120 minutes. Through the Rockwell B assay, their degrees of
hardness were compared to obtain analysis results for commercial industry. After the heat
treatment were compared and analyzed aspects mechanical obtained samples of the post-
shaped state, looking for a good quality of the final product. The hardened and tempered
samples resulted in the formation of a microstructure with a mean hardness of 47.82 HB, and
therefore strong and good machinability, resulting in parts with good applicability, wherein
the microstructure showed an appropriate hardness relative to the process of post-treatment
machining. The samples were also submitted to conformation to thread insert in cross section,
forming the final piece.

Keywords: heat treatment, metal forming, SAE 1045 steel.

1. INTRODUÇÃO

Em diversas maneiras, os materiais usados pelo processo de produções convencionais


podem apresentar algumas características, que vindo de fábrica, habitualmente apresentam
influências negativas para seu desempenho, como tensões internas, empenamentos e
estruturas cristalinas indesejáveis, onde surgem com bastante frequência e interferem as
propriedades do material. A fim de solucionar tais problemas, alguns tratamentos térmicos
podem ser utilizados, usando o aquecimento seguido de resfriamento, estabelecendo um
limite de temperatura e tempo, levando em conta o local para aquecimento e a velocidade para
seu resfriamento. Os aços são ligas metálicas de ferro e carbono, com percentagens de
carbono variando entre 0,76 % e 2,11 %. Diferente dos ferros fundidos, que também são ligas
de ferro e carbono, mas com teor de carbono entre 2,06% e 6,67%. Os aços, pela sua
ductibilidade, são facilmente deformáveis por forja, laminação e extrusão, enquanto que peças
em ferros fundidos são fabricadas pelo processo de fundição. Portanto, saber analisar o
diagrama Fe-C é de grande importância (Chiaverini, 1977).
Apesar da intensa competição que ele vem sofrendo junto aos outros tipos de materiais, o
aço tem sido mantido como o material com maior número de aplicações no mundo atual, em
virtude de sua grande versatilidade. Assim, a grande variedade de propriedades exibida pelos
diversos tipos de aços é conseguida por meio de simples variações de composição ou por
meio do processamento térmico ou mecânico.
Os aços carbono são classificados em relação ao teor de carbono, em hipoeutetóide,
eutetóide e hipereutetóide, que possuem respectivamente a quantidade menor de 0,76 % C,
exatamente 0,76 % C e quantidade maior de 0,76 % C (Chiaverini, 1986).
O aço usado neste trabalho tem em sua composição 0,45 % de carbono, e é classificado
como um aço de teor médio de carbono. Possui boas propriedades mecânicas como,
usinabilidade e soldabilidade. É considerado um aço hipoeutetóide, onde a porcentagem é
inferior à quantidade de carbono para ser um aço eutetóide, possui em sua composição logo
após resfriamento isotérmico, Ferrita e Perlita, inicialmente (Chiaverini, 1986).
Para realizar os tratamentos térmicos exige-se a compreensão e conhecimento da curva
TTT (tempo, temperatura, transformação) do material, que define as principais variações do
material com o comportamento da microestrutura.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1018
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Têmpera

A têmpera consiste em resfriar o aço, após austenitização, a uma velocidade


extremamente rápida para evitar as transformações perlíticas e bainíticas na peça em questão.
Deste modo, obtém-se a estrutura metaestável martensítica. Uma célula unitária dessa
estrutura cristalina consiste simplesmente em um cubo de corpo centrado que foi alongado em
uma das suas dimensões. Muito diferente da ferrita C, todos os átomos de carbono
permanecem como impurezas intersticiais na martensita, restringindo dessa maneira o
movimento de discordâncias em seu arranjo cristalino (Barriuso et al., 2014).
A martensita é resultante de uma transformação no estado sólido na ausência de difusão.
A taxa de crescimento da transformação martensítica, é tão alta que a nucleação se torna a
etapa controladora, ocorre um ligeiro cisalhamento da rede cristalina e a nova fase se forma.
Essa fase que se formou com a têmpera, foi intitulada martensita por Floris Osmond, em
1895, em homenagem ao metalurgista alemão Adolf Martens (Askeland, 2006).
A martensita em aços é muito dura e frágil, semelhante às cerâmicas. A estrutura
cristalina TCC não possui planos compactos, onde as discordâncias não possam se mover com
facilidade, e isso aumenta a fragilidade. A estrutura cristalina e as propriedades da martensita
do aço dependem do teor de carbono, quando o teor é baixo, a martensita cresce em forma de
"ripas", como placas bem estreitas que crescem lado a lado, essa martensita de baixo teor de
carbono não é muito dura. Com um teor de carbono mais alto, a martensita cresce na forma de
placas planas e estreitas em vez de ripas. A dureza é muito maior na microestrutura em placas
de martensita de alto teor de carbono, conforme Figura 1.

(a) (b)
Figura 01 – (a) Ripas finas de teor baixo carbono; (b) Placas maiores com alto teor de carbono de
Martensita (Askeland, 2006).

Revenimento

Revenimento é um processo feito logo após o endurecimento por têmpera. Peças que
sofreram têmpera tendem a ser muito mais quebradiças. A fragilidade é causada pela presença
da martensita, com isso pode ser removida pelo processo de revenimento. O resultado é uma
combinação desejável de dureza, ductilidade, tenacidade, resistência e estabilidade na
estrutura. As propriedades resultantes dependem da composição do aço e da temperatura em
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1019
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que foi utilizado o revenimento. É aplicado nos aços para corrigir a tenacidade e a alta dureza,
conseguindo o aumento da tenacidade dos aços (Ghrib et al., 2008).
O revenimento consiste no reaquecimento das peças temperadas, a temperaturas abaixo
da linha inferior de transformação do aço de 727 ºC. Dependendo da temperatura resulta em
pequena ou grande transformação da estrutura que se formou (Krylova et al., 2019)..
Na faixa de 140 °C e 200 °C não há alterações de significância num aço, a dureza cai
para 58 a 60 RB dependendo da composição, nesta faixa de temperatura mudou pouco a
estrutura do aço trabalhado (Krylova et al., 2019)..
Na faixa de 210 °C e 260 °C as tensões internas são alteradas, e assim começa a baixar a
dureza apresentada, o que não teve nenhuma modificação na estrutura considerável, logo
assim inicia a alteração da estrutura (Krylova et al., 2019)..
Na faixa de 270 °C e 360 °C começa a precipitação de carbonetos finos presentes. O
revenimento já faz alterações maiores na estrutura feita por têmpera (Krylova et al., 2019)..
Na faixa de 370 °C e 730 °C a transformação na estrutura é maior. Conforme a
temperatura de revenimento é maior. A 730 °C, o revenimento pode levar a uma queda da
dureza significativa. Aços altamente ligados apresentam um comportamento diferente no
revenimento, pois na faixa de 600 °C apresentam precipitação de carboneto de liga (Krylova
et al., 2019)..
Esse processo já é empregado para as ligas ferrosas há milhares de anos. Por exemplo,
vários desses tratamentos térmicos foram usados para produzir o famoso aço Damasco e as
espadas dos samurais japoneses. Pode-se obter uma distribuição bastante fina de Fe3C e
ferrita, conhecida como martensita revenida, com o tratamento térmico de revenimento da
martensita. O tratamento de revenimento determina as propriedades finais do aço temperado
(Askeland, 2006).

Dureza

A dureza de um material é um conceito relativamente complexo de definir, apresentadas


as diferentes interpretações que podem ser atribuídas. Em principio pode-se dizer que a
dureza é a resistência à deformação penetrante.
Há varias definições que podem servir de base para alguns ensaios de dureza. Assim são
elas: resistência à penetração, absorção de energia sob cargas dinâmicas, resistência à ação do
risco, resistência à abrasão, resistência ao corte.
A "resistência à penetração" é a que apresenta maior interesse para o engenheiro, mesmo,
na prática, a resistência à abrasão e a resistência ao corte correspondem às características dos
materiais, sabendo que o conhecimento é fundamental (Chiaverini, 1986).
Para determinar a dureza, constitui um método rápido e não destrutivo que permite achar
resultados para as condições de fabricação e tratamento das ligas em processo, as diferenças
estruturais locais e com a influência de elementos de liga e, mesmo que não sirva como
aparato para projetos de peças, contem relações com uma provável aproximação com algumas
propriedades mecânicas.
A figura 2 ilustra a deformação do material logo após o ensaio. A linha cheia indica a
impressão obtida e a linha pontilhada, a forma da impressão final, mostrando que houve uma
região de deformação elástica, dentro da deformação total de natureza plástica.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1020
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 02 – Deformação do material logo após o ensaio (Chiaverini, 1986).

Utiliza-se um penetrador, na forma de esfera ou pirâmide ou tronco de cone, fabricado de


aço temperado, "material duro" ou diamante, o que é colocado para penetrar no material cuja
dureza se quer medir pela quantidade de uma carga de natureza estática. Resulta uma
deformação que provoca um aparecimento de uma impressão na superfície do material. As
profundidades relativas dessa impressão constituem a base para averiguar os valores
representativos da dureza. Diversos são os ensaios de penetração para a determinação da
dureza dos metais, um dos mais empregados é Rockwell.
O Ensaio de dureza Rockwell é o processo mais utilizado, por ser rápido, ter facilidade de
execução, sendo isento de erros pessoais, capacidade para diferenciar pequenas ocorrências de
dureza em aço temperado e ainda porque as impressões obtidas aparecem em pequenas
dimensões, de modo que as peças finalizadas possam entrar em serviço e podem ser ensaiadas
sem danos sensíveis na sua superfície. O valor da dureza é um número proporcional à
profundidade de penetração, em relação à carga aplicada e a área da impressão que ocorreu.
No processo industrial, há três faixas principais de dureza Rockwell:
• Escala Rockwell A, para materiais mais duros (metal duro, por exemplo), em que o
penetrador possui ponta de diamante em forma de cone com ângulo ao vértice de 120º e a
carga é de 60 kg;
• Escala “Rockwell B, para materiais de dureza média, na qual se usa como penetrador,
uma esfera de aço de 1/16” de diâmetro e uma carga de 100 kg;
• Escala Rockwell C, para materiais mais duros (como aços temperados), na qual se
emprega como penetrados a ponta de diamante da escala A e uma carga de 150 kg.
O sistema de aplicação da carga no processo Rockwell é muito simples e sua sequência
está ilustrada na Figura 3.
a) O penetrador é colocado em contato com a superfície da peça.
b) A seguir aplica-se a carga inicial de 10 kgf.; coloca-se, então, o ponteiro do mostrador da
máquina no ponto básico de referência (100 para as escalas C e A e 30 para a escala B);
c) Aplica-se, a seguir, a carga maior correspondente à escala adotada, de modo a ter-se a
penetração desejada; a carga é mantida até o ponteiro do mostrador parar.
d) A carga é então removida de modo a permitir-se a recuperação elástica, sendo mantida a
carga inicial de 10 kgf.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1021
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 03 – Procedimento do ensaio de dureza (Chiaverini, 1986).

Procede-se, então, à leitura da dureza no mostrador onde o ponteiro parou.


A determinação da dureza dos metais é um método de controle de qualidade muito
importante na engenharia e na indústria, para a verificação das condições de fabricação,
tratamentos térmicos, uniformidade de materiais, etc. (Chiaverini, 1986).
O objetivo do presente trabalho é o estudo dos efeitos da variação do tempo, a saber,
têmpera e revenimento no aço SAE 1045, aplicando o ensaio de Dureza Rockwell B, levando
assim a obtenção para resultados que possam interferir pra a sua aplicabilidade no setor de
produção.

2. MATERIAIS E MÉTODOS

Tratamentos Térmicos

Os tratamentos térmicos foram realizados em um forno convencional no Laboratório


de Tratamentos Térmicos da Faculdade Redentor. Para tal, as amostras foram introduzidas no
interior do torno, onde foram aquecidas até a uma temperatura de 840 ºC a 850 ºC, passados
30 minutos depois de colocadas no interior do forno, foi retirada a primeira amostra do
material e resfriada rapidamente, assim como as outras peças, até chegar ao final da
quantidade de amostras com um tempo de 120 minutos.
Realizou-se a têmpera na faixa de temperatura de 840 ºC a 850 ºC. Foi utilizado um
meio de resfriamento: em gelo, onde é um meio mais severo dentre outros tipos de
resfriamento, abaixando bruscamente a temperatura até a temperatura ambiente.
Na etapa de revenimento, a temperatura utilizada foi de 400 ºC no tempo de
permanência de 20 minutos dentro do forno, sendo o resfriamento lento ao ar calmo, até
atingir a temperatura ambiente.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1022
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Amostras

As amostras utilizadas foram cortadas aproximadamente em um comprimento de


100mm, com 1/2 polegada de diâmetro cada. Abaixo estão as especificações de tempo de
forno e na Figura 4 são ilustradas as amostras.

Especificação de tempo no forno:


• Amostra A - 30 minutos;
• Amostra B - 45 minutos;
• Amostra C - 60 minutos;
• Amostra D - 90 minutos;
• Amostra E - 120 minutos.

Figura 04 – Amostras A,B,C,D e E no estado pós-conformadas.

Conformação

As amostras formadas foram colocadas uniforme e aleatoriamente. Todas foram


submetidas aos tratamentos térmicos mencionados, porém usando uma variação de tempo de
30, 45, 60, 90 e 120 minutos.
Ensaios de dureza Rockwell B foram realizados nas amostras a fim de analisar o efeito
dos tratamentos térmicos e da conformação mecânica.

3. RESULTADOS

Após passarem pelo processo de têmpera e revenimento, dez pontos foram escolhidos ao
longo da seção transversal de cada amostra, para ser realizado o ensaio de dureza de Rockwell
B, apresentando os seguintes resultados.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1023
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 01 - Tabela de Dureza obtidas em ensaios de Rockwell B

A comparação dos resultados obtidos está ilustrada na figura 5.

Figura 05 – Comparação dos resultados obtido no ensaio de dureza.

A fotografia 08 mostra uma pequena diferença de coloração após realização dos


tratamentos térmicos, indicando maior formação de martensita. Com relação às durezas das
amostras após têmpera e revenimento, foi possível perceber uma pequena diferença entre as
amostras tratadas em tempos aproximados, o que condiz na conformação das mesmas.
Mas se comparadas amostras com a variação de tempo maior como 30 minutos e 120
minutos, ocorre uma variação significativa nos valores de dureza. Fato evidenciado nos
valores apresentados na tabela 09.

4. CONCLUSÃO

Há um interesse no campo de estudos a respeito da têmpera em gelo e processo de


revenimento, uma vez que as amostras submetidas a esses tratamentos tiveram provavelmente
maior conformabilidade, o que pode possibilitar a aplicação para fins comerciais da
conformação em peças temperadas e revenidas.
Os tratamentos térmicos de têmpera e revenimento concedem boa conformabilidade ao
aço SAE 1045 ao passo que a têmpera em resfriamento em gelo, deixa as amostras pouco
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1024
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

conformável. As amostras temperadas obtiveram provavelmente martensita, com dureza mais


elevada.
Houve recristalização nas amostras revenidas, provavelmente devido ao maior
crescimento de grão em consequência da baixa taxa de resfriamento ao final do processo a ar
calmo.
Para ser aplicada como parafuso, a peça precisa adquirir resistência, porém não
apresentar um grau de dureza muito elevado, devido ao fato que passará pelo processo de
usinagem para inserção de rosca. De acordo com os resultados observados, a amostra que
mais se adequou ao tipo de estudo, para o fim comercial de parafusos, apresentou uma dureza
média de 47,82 HB, na escala de Rockwell B. Esse valor se evidenciou na amostra C, tratada
no tempo de 60 minutos, permanecendo no interior do forno.

Agradecimentos

Agradeço à Uniredentor, IFF, CNPq, FAPERJ e UENF pelo apoio à pesquisa.

REFERENCES
Askeland, R. (2006), Phulé, D., Pradeep, P. Ciência e Engenharia dos Materiais. 1ª Edição. 2006.
Barriuso, S. (2014), Jaafar, M., Chao, J., Asenjo, A., Gonzalez-Carrasco, J.L. Improvement of the blasting
induced effects on medical 316 LVM stainless steel by short-term thermal treatments, Surface and Coatings
Technology, Volume 258, 2014, Pages 1075-1081.
Chiaverini, V. (1977). “Tecnologia Mecânica: materiais de construção mecânica”. 3ª Edição. 1977. Volume 3
Chiaverini, V. (1986). “Tecnologia Mecânica: processos de fabricação e tratamento”. 2ª Edição. 1986. Volume 2
Ghrib, T. (2008), Bejaoui, F., Hamdi, A., Yacoubi, N. Correlation between thermal properties and hardness of
end-quench bars for C48, 42CrMo4 and 35NiCrMo16 steels, Thermochimica Acta, Volume 473, Issues 1–2,
2008, Pages 86-91.
Krylova, S. E. (2019), Romashkov, E. V., Gladkovsky, S. V., Kamantsev, I. S. Special aspects of thermal
treatment of steel for hot forming dies production, Materials Today: Proceedings, Volume 19, Part 5, 2019,
Pages 2540-2544.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1025
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

REMOÇÃO DE FOSFATO A PARTIR DO ÓXIDO MISTO DE ESTRUTURA


LAMELAR COMPOSTO POR MG E AL

Nathália Isidoro Ribeiro1 – ribeiro.in@hotmail.com


Eduarda Chiabai Rodrigues de Melo1 – eduarda-melo@hotmail.com
Maria Luiza Gomes Soares Pessanha1 – maria12luiza@hotmail.com
Damaris Guimarães1 – guimaraes.damaris@yahoo.com.br
1
Universidade Federal do Espírito Santo/Centro de Ciências Agrárias e Engenharias, Alto
Universitário, S/N Guararema, 29500-000 - Alegre - ES, Brasil

Resumo. No presente estudo, o hidróxido duplo lamelar (HDL) do tipo


Mg6Al2(CO3)(OH)16.4H2O foi sintetizado pelo método de co-precipitação a pH variável e, em
seguida, foi calcinado a 500ºC. Assim, foi obtido o óxido misto de estrutura lamelar composto
por Mg e Al, o qual foi empregado como adsorvente na remoção de fosfato de uma solução
aquosa. O ensaio cinético foi realizado em temperatura ambiente, utilizando 2 g de
adsorvente para 1 L de solução de fosfato (425 mg/L), em pH 6,9. Após o ensaio, alguns
modelos cinéticos foram ajustados aos dados obtidos. O adsorvente foi caracterizado antes e
após os ensaios de adsorção por difração de raios-X. Os resultados mostraram que a
estrutura do óxido misto foi formada e que, após a adsorção, retornou à estrutura típica de
um HDL, cujo carregamento de fosfato foi de 52,7 mg/g. Esse processo foi relativamente
rápido (equilíbrio atingido com cerca de 70 min), sendo o modelo de pseudossegunda ordem
o que melhor se ajustou aos dados experimentais. A rota de remoção de fosfato investigada
neste trabalho se mostrou exequível, porém requer estudos futuros para melhorar sua
eficiência de remoção do ânion (24,8%).

Palavras-chave: Adsorção, Estudo Cinético, Tratamento de efluentes.

1. INTRODUÇÃO

Uma das principais formas de combate à poluição industrial é o tratamento dos efluentes
gerados nos processos antes de serem descartados em corpos hídricos. Com o crescimento e o
desenvolvimento da população, o tratamento dos efluentes tornou-se essencial para que o
progresso industrial e as boas condições de vida para os seres vivos pudessem se tornar mais
equilibrados (ARAÚJO et al., 2016). Para isso, o Conselho Nacional do Meio Ambiente
(CONAMA) criou diretrizes a fim de estipular as concentrações máximas permitidas de íons

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1026
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

contaminantes em efluentes descartados após a zona de mistura dos corpos d’água


(CONAMA, 2005; 2011).
Dentre os diversos contaminantes, encontra-se o fosfato, um íon que, apesar de possuir
grande importância para o crescimento e desenvolvimento de seres vivos, em altas
concentrações pode ocasionar a eutrofização, desencadeando uma série de problemas, dentre
os quais, perda da qualidade da água e sobrevivência de seres aeróbios (BARROS, SILVA,
ARAÚJO, 2012). A concentração máxima que esse íon pode possuir ao ser descartado varia
de acordo com o tipo de corpo hídrico. Segundo a resolução 357 de 2005, para águas doces
Classe II, águas paradas e águas com pouco movimento, as concentrações máximas
permitidas após a zona de mistura são, respectivamente, 0,020 mg/L P (fósforo), 0,025 mg/L
P e 0,1 mg/L P (CONAMA, 2005; 2011).
Dentre as técnicas utilizadas para remoção do fosfato, pode-se citar a precipitação
química, os processos biológicos e a adsorção, sendo que a adsorção possui notoriedade por
conta da diversidade dos adsorventes que podem ser usados, os quais em muitos casos podem
ser reutilizados, reduzindo a geração de resíduos (BASSIN et al., 2012; PRATT et al., 2012;
SHIH et al., 2017). Dentre os compostos frequentemente empregados como adsorventes, os
hidróxidos duplos lamelares (HDL) se destacam por ser um bom adsorvente de ânions. O
HDL é uma argila aniônica, que pode ser obtida de forma natural ou sintética, possui estrutura
lamelar com cátions di e trivalentes e um ânion responsável pela estabilização das lamelas
(ROY, 1992; REIS, 2009). Considerando as vantagens de se utilizar a técnica de adsorção,
assim como o HDL como adsorvente para auxiliar a remoção do fosfato, o objetivo do
presente trabalho compreende o estudo cinético da adsorção do fosfato utilizando o óxido
misto oriundo da calcinação do HDL do tipo hidrotalcita (Mg-Al-CO3-HDL).

2. METODOLOGIA

O HDL do tipo Mg6Al2(CO3)OH16.4H2O foi sintetizado pelo método de coprecipitação a


pH variável, utilizando 500 mL de cada uma das soluções de cloreto de alumínio
hexahidratado (0,64 mol/L), nitrato de magnésio hexahidratado (1,9 mol/L), hidróxido de
sódio (5,13 mol/L) e bicarbonato de sódio (0,32 mol/L), as quais foram adicionadas em um
bécker. O pH do sistema foi inicialmente ajustado para 10 e, no decorrer da síntese o mesmo
foi apenas monitorado. A mistura foi posta em agitação em banho termostático QUIMIS,
modelo Q3334M-28, a 80°C por 10 h, seguido de agitação por 24 h a temperatura ambiente.
O material resultante foi filtrado, lavado com água destilada, seco em estufa a 50°C até que a
massa não sofresse variação. Após, o mesmo foi levado à calcinação em forno FORTELAB
ME 1700/10, por 8 horas, a 500ºC e, por fim, macerado e peneirado para segregação
granulométrica em peneira de 250 mesh.
Nos ensaios de adsorção, foram utilizados 2 g do óxido misto para 1 L de solução de
fosfato na concentração inicial de 425 mg/L e pH 6,9. Em seguida, o bécker foi vedado com
plástico filme de PVC e a solução foi posta em agitação com o auxílio de um agitador
magnético. Alíquotas de 2 mL foram coletadas em intervalos de tempos pré-determinados até
se completar 180 min de experimento. Posteriormente, as amostras passaram por filtração,
centrifugação e diluição antes da quantificação do íon fosfato que foi feita utilizando a técnica
de colorimetria com ácido ascórbico, disponível na 23ª edição da obra Standard Methods for
the examination of Water and Wastewater (APHA, AWWA, 2017). Para tal, foram pipetados
3 mL de cada solução diluída que se desejava quantificar e também de amostras de água
destilada, utilizadas como branco. As soluções pipetadas foram misturadas com 0,48 mL de
solução combinada (proposta pelo método). A absorbância de todas as amostras foi
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1027
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

imediatamente medida em Espectrofotômetro UV-VIS, DRAWELL, modelo Du-8800d,


utilizando 880 nm como comprimento de onda. Por fim, os modelos de Pseudoprimeira e
Pseudossegunda ordem foram ajustados aos dados cinéticos obtidos.
As amostras na forma de pó foram caracterizadas antes e após os ensaios de adsorção
pela técnica de difratometria de raios-X (DRX), utilizando difratômetro RIGAKU, modelo
Mini-Flex 600, em intervalo angular 2θ de 5º a 80º, taxa de varredura de 10º (2θ) por minuto,
com velocidade de passo de 0,02°/s, usando CuKα como fonte de radiação.

3. RESULTADOS

Na Figura 1, são apresentados os difratogramas de raios-X do óxido misto obtido a partir


da calcinação do HDL do tipo Mg6Al2(CO3)(OH)16.4H2O, antes (a) e após (b) o processo de
adsorção, bem como o difratograma do Mg-Al-CO3-HDL, utilizado para fins de comparação.

Figura 1 - Difratograma do óxido misto antes (a) e após a adsorção de fosfato e


difratograma do Mg-Al-CO3-HDL para comparação (b).

Fonte: Autoras.

Para uma avaliação das etapas controladoras da velocidade global do processo de


adsorção de fosfato, foram aplicados os modelos cinéticos de Pseudoprimeira Ordem e o de
Pseudossegunda Ordem, cujas equações e parâmetros, equações experimentais e os
respectivos coeficientes de ajuste obtidos da adsorção de fosfato em óxido misto estão
apresentados na Tabela 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1028
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 – Modelos e suas respectivas equações e parâmetros e equações experimentais e


coeficientes de ajuste para os modelos cinéticos ajustados aos dados obtidos na adsorção
de fosfato em óxido misto composto por Mg e Al.
Equação
Equação do experimental
Modelo Parâmetros
modelo e coeficiente
de ajuste
Pseudoprimeira dqt/dt: taxa de y = -0,0837x
ordem adsorção em função + 28,725
do tempo R² = 0,4053
K1: constante de
velocidade de
adsorção de
pseudoprimeira
ordem (min-1)
Pseudossegunda qe e qt: quantidades y = 0,0181x +
ordem adsorvidas por 0,0601
grama de R² = 0,9955
adsorvente no
equilíbrio e e no
tempo t,
respectivamente
(mg/g)
K2: constante de
velocidade de
adsorção de
pseudossegunda
ordem (g/mg.min)
Fonte: NASCIMENTO et al. (2014), adaptado pelas autoras.

4. DISCUSSÃO

A partir da Figura 1 (a), é possível observar um difratograma característico do óxido


misto obtido a partir da calcinação do Mg-Al-CO3-HDL (Figura 1-b, difratograma destacado
de preto), uma vez que os picos referentes a este HDL (hidrotalcita) estão ausentes, devido à
decomposição das hidroxilas e dos componentes da região interlamelar (ânions carbonato e
moléculas de água) ocorrida durante a calcinação (CAI et al., 2012). É válido destacar que
durante as análises não foi possível encontrar uma ficha do International Centre for
Diffraction Data (ICDD) com fórmula química condizente ao óxido misto estudado. No
entanto, os picos de difração localizados em 43,37° e 62,60° são muito próximos aos
encontrados por Rafael et al. (2019) sendo referentes ao óxido misto de magnésio e alumínio,
o que sugere que a calcinação foi bem sucedida. Além disso, Miyata (1980), em seus estudos,
relatou que em temperaturas de calcinação entre 500 e 700°C de um HDL do tipo Mg-Al-
CO3-HDL, o composto se decompõe resultando em um óxido misto de magnésio e alumínio,
que, uma vez em contato com uma solução aquosa contendo ânions de diversas composições,
forma novamente um HDL. Isso pode ser comprovado na Figura 1 (b), obtida após o contato
do óxido misto com solução aquosa contendo íons fosfato. Nesse caso, é possível notar que os
picos localizados em 2θ igual a 11,46° e 23,13° são referentes aos planos de difração (003) e
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1029
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(006) e são próximos aos encontrados por Rodrigues (2007) para o HDL do tipo Mg-Al-CO3-
HDL, sendo característicos dessas estruturas em camadas. Além disso, os picos localizados
em 34,9°, 39,9°, 43,1° e 45,5° estão deslocados em comparação aos picos do difratograma do
HDL precursor do óxido misto (Mg-Al-CO3-HDL), o que indica uma alteração na distância
interlamelar da estrutura devido à presença do fosfato adsorvido nesta região (SOUZA, 2008).
Com o estudo cinético realizado, foi possível observar um baixo valor de adsorção de
fosfato com óxido misto com uma concentração final de 319,77 mg/L, o que equivale a uma
remoção de 24,8% e quantidade máxima adsorvida por grama de adsorvente de 52,7 mg/g. O
equilíbrio foi atingido com 70 minutos de contato entre adsorvato e adsorvente e o pH medido
no início e final do processo foi de 6,9 e 9,0, respectivamente. Cai et al. (2012) mostraram que
a quantidade de fosfato dissolvido em Mg-Al-HDL calcinado é máxima em pH em torno de 6
e que em valores de pH mais altos, a superfície do adsorvente pode estar mais negativamente
carregada, gerando repulsão eletrostática entre a superfície adsorvente e o ânion em solução.
De acordo com Souza (2008), a adsorção de ânions em solução aquosa ocorrida pela
regeneração do HDL calcinado ocasiona um aumento no pH da solução. Nesse caso, uma
forma de aumentar a eficiência do processo seria controlando o pH de forma a mantê-lo em
uma faixa de valores mais baixos, uma vez que as cargas de adsorvato e adsorvente devem
ser opostas de modo a haver maior atração eletrostática entre eles (BAUTISTA-TOLEDO et
al., 2005).
O baixo desempenho apresentado pelo adsorvente também pode estar atribuído à sua
dosagem e à concentração inicial de fosfato. Lv et al. (2008) utilizaram óxido misto de
magnésio e alumínio obtido a partir da calcinação de HDL do tipo Mg-Al-CO3-HDL para
remover fosfato de solução aquosa. Os resultados mostraram que para uma concentração
inicial da solução de fosfato de 136 mg/L, a dosagem de 1,5 g/L de adsorvente alcançou uma
remoção de 97,7% e quantidade adsorvida por grama de adsorvente próxima de 88 mg/g,
enquanto que uma dosagem de 0,2 g/L apresentou remoção de 39,1% e quantidade adsorvida
por grama de adsorvente próxima de 265 mg/g, para a mesma concentração inicial. Levando
em consideração as proporções de concentração inicial para dosagem de adsorvente, a
dosagem utilizada no presente trabalho foi duas vezes inferior, o que pode justificar a baixa
remoção apresentada. Adicionalmente, Peleka e Deliyanni (2009), estudaram a remoção de
fosfato de solução aquosa utilizando hidrotalcita calcinada a 500°C. No estudo, foi empregada
uma dosagem de adsorvente de 0,5 g/L para uma solução de fosfato na concentração inicial de
10 mg/L, em pH 9,25. Os resultados mostraram um percentual de remoção de quase 100% e
quantidade adsorvida por grama de adsorvente de 9,8 mg/g.
A partir dos resultados expressos na Tabela 1, os valores de R² maiores que 1 possuem
um ajuste melhor, assim para este trabalho o modelo de pseudossegunda ordem foi o que
melhor se ajustou aos dados experimentais. Neste caso, a etapa determinante é a de
quimiossorção (CRINI; BADOT, 2008), sendo esta, a etapa responsável pela determinação da
velocidade global do processo de adsorção de fosfato em HDL.

5. CONCLUSÃO

Ao comparar os dados obtidos neste trabalho com os resultados encontrados na literatura,


pode-se verificar que houve a confirmação de que o material sintetizado corresponde ao óxido
misto de magnésio e alumínio e que, ao ser colocado em contato com solução aquosa
contendo fosfato, retoma a estrutura lamelar do HDL. Embora uma baixa remoção de fosfato
de 24,8% tenha sido observada, isso pode ser explicado pela dosagem de adsorvente
empregada em relação à alta concentração inicial da solução de fosfato, assim como pela
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1030
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ampla variação de pH observada no meio. Assim, apesar de o óxido misto ter se mostrado
capaz de adsorver fosfato, quantidades maiores de remoção poderiam ser obtidas a partir da
realização de estudos adicionais de modo a investigar qual desses fatores teria maior
influência no desempenho do adsorvente.

Agradecimentos

À Fundação de Amparo à Pesquisa e Inovação do Espírito Santo – FAPES, pelo fomento


à pesquisa. Ao Laboratório de Engenharia Química 1/CCAE/UFES, pela realização das
análises de Difratometria de raios-X.

REFERÊNCIAS

Apha, Awwa, W. (s.n), “Standard methods for the examination of water and wastewater, american public health
association”, 23. ed, Washington.
Araújo, K. S. Et al. (2016), Processos oxidativos avançados: uma revisão de fundamentos e aplicações no
tratamento de águas residuais urbanas e efluentes industriais, Revista ambiente água, vol 11, 387-401.
Barros, L. de H. V.; Silva, L. A. A. da; Araújo, A. L. C. (2012), “Recuperação de fósforo de efluentes através da
precipitação de estruvita-map”, VII Connepi - Congresso Norte Nordeste de Pesquisa e Inovação.
Bassin, J. P. Et al. (2012), Simultaneous nitrogen and phosphate removal in aerobic granular sludge reactors
operated at different temperatures, Water research, 46, 3805–3816.
Bautista-Toledo, I. Et al. (2005), Bisphenol a removal from water by activated carbon. Effects of carbon
characteristics and solution chemistry, Environmental science and technology, 39, 6246–6250
Cai, P. Et al. (2012), Competitive adsorption characteristics of fluoride and phosphate on calcined Mg-Al-CO3
layered double hydroxides. Journal of hazardous materials, 213–214, 100–108.
Conselho nacional do meio ambiente- conama. (2005), Resolução nº 357, de 17 de março de 2005 ,58–63.
Conselho nacional do meio ambiente- conama. (2011), Resolução n° 430, de 13 de maio de 2011, 8.
Crini, G., Badot, P. (2008), “Application of chitosan, a natural aminoplysaccharide, for dye removal from
aqueous solutions by adsorption processes using batch studies: a review of recent literature”, Progress in
Polymer Science, Oxford, vol 33, 399 – 447.
Lv, L. Et al. (2008), "Phosphate removal and recovery with calcined layered double hydroxides as an adsorbent",
Phosphorus, Sulfur, and Silicon, vol 183, 519–526.
Miyata, S. (1980), “Physico-chemical properties of synthetic hydrotalcites in relation to composition”, Clays and
Clay Minerals, vol 28, 50-56.
Nascimento, R. F. Et al. (2014), “Adsorção : aspectos teóricos e aplicações ambientais”, Fortaleza.
Peleka, E. N., & Deliyanni, E. A. (2009), Adsorptive removal of phosphates from aqueous solutions.
Desalination, 245, 357–371.
Pratt, C. Et al. (2012), “Biologically and chemically mediated adsorption and precipitation of phosphorus from
wastewater”, Current Opinion in Biotechnology, vol 23, 890–896.
Rafael, T. F. Et al. (2019), "Síntese, caracterização e aplicação de óxidos mistos, oriundos de hidróxidos duplos
lamelares, impregnados com v e mo na reação de desidrogenação oxidativa de propano", Cbcat.
Reis, M. J. (2009), “Síntese e caracterização de hidróxidos duplos lamelares preparados na presença de
polímeros orgânicos ou com macromoléculas intercaladas”, Tese de Doutorado - Programa de Pós-
Graduação em Química, Universidade de São Paulo, Ribeirão Preto.
Rodrigues, J. C. (2007), “Síntese, caracterização e aplicações de argilas aniônicas do tipo hidrotalcita”,
Dissertação de Mestrado, Instituto de Química, UFRGS, Porto Plegre, RS, 1–112.
Roy, A. Et al. (1992), Anionic clays: trends in pillaring chemistry. Expanded Clays and Other Microporous
Solids. Springer, Boston, MA, 108-169.
Shih, Y. J. Et al. (2017), “Recovery of phosphorus from synthetic wastewaters by struvite crystallization in a
fluidized-bed reactor: effects of ph, phosphate concentration and coexisting ions”, Chemosphere, vol 173,
466–473.
Souza, L. G. (2008), "Estudo da remoção de ânions de soluções aquosas por meio de sorção em hidróxidos
duplos lamelares", Dissertação de Mestrado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1031
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

APÊNDICE A

Abstract. In present study, the Layered Double Hydroxide (LHD) of the type
Mg6Al2(CO3)(OH)16.4H2O was synthesized by the co-precipitation method at variable pH and
then calcined at 500ºC. Thus, mixed lamellar oxide composed of Mg and Al was established,
which was used as an adsorbent in the removal of phosphate from an aqueous solution. The
kinetic test was performed at room temperature, using 2 g of adsorbent for 1 L of phosphate
solution (425 mg/L), at pH 6,9. After the test, some kinetic models were adjusted to the data
used. The adsorbent was corrected before and after the adsorption X-ray diffraction tests. The
results induced that the oxide structure was formed and that, after adsorption, it returned to
the typical structure of an LHD, whose phosphate load was 52.7 mg/g. This process was
relatively quick (equilibrium reached in about 70 min), with the pseudo-second order model
being the one that best fit the experimental data. The phosphate removal route investigated in
this work proved to be feasible, however, it requires future studies to improve its anion
removal efficiency (24.8%).

Keywords: Adsorption, Kinetic Study, Effluent treatment.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1032
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

PARALELIZAÇÃO DE UM MODELO PREDITIVO AUTO-REGRESSIVO PARA


ESTIMAR VALORES FALTANTES EM SÉRIES DE DADOS METEOROLÓGICOS

Nely Grillo Guzmán1 – nely.iprj@gmail.com


Joel Sanchez Dominguez1 – joel.iprj@gmail.com
Joaquim Teixeira de Assis1 – joaquim.iprj@gmail.com
1
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brazil

Resumo. Neste trabalho é apresentada a paralelização do método preditivo auto regressivo


para a estimativa de dados faltantes em séries de dados meteorológicos, usando somente a
informação da mesma série. O objetivo deste trabalho é comparar o desempenho do
algoritmo usando programação paralela com sua versão serial. Os resultados mostram que
na medida que aumenta a quantidade de dados a computar e a ordem do modelo, o uso de
OpenMP faz mais eficiente o processamento. Ao comparar as velocidades de cálculo das
versões serial e paralela se obteve uma aceleração máxima de 1,28 vezes, demonstrando que
a paralelização do modelo aumenta a eficiência do mesmo.

Palavras-chave: Estimativa de dados faltantes, Método Preditivo Auto Regressivo, OpenMP

1. INTRODUÇÃO

A meteorologia é a ciência que estuda todos os processos físicos e químicos que


acontecem na atmosfera. Na hora de fazer uma pesquisa que permita conhecer os elementos
meteorológicos, variabilidade, frequência e probabilidade de valores críticos, é preciso que os
dados históricos sejam contínuos e coerentes, diminuindo assim os riscos de resultados
errados.
É muito comum encontrar séries de dados incompletas ou com valores evidentemente
errados, por exemplo: encontrar uma medição de 100 em uma série de dados de temperatura
em °C. As estações automáticas, frequentemente localizadas em regiões remotas, necessitam
de calibração e manutenção periódica, perdendo-se informação no período em que estiver
inativa (Tanner B. D., 1990). Se a estação encontra-se isolada ou em uma localização com
características físico-geográficas particulares, não poderiam ser usados os dados de uma
estação vizinha. Contar então com um método numérico que consiga calcular estes dados de
uma forma eficiente e em um curto período de tempo seria essencial para conseguir fazer um
estudo climático mais específico e uma futura previsão do tempo mais acertada.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1033
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Uma estação meteorológica automática coleta informação das variáveis atmosféricas 24


horas por dia, os 365 dias do ano sem precisar da presença humana para que isto seja possível.
Em média, cada estação automática tem 4 sensores essenciais: o anemômetro, piranômetro, o
sensor de temperatura e umidade e o pluviômetro, coletando informação de pelo menos 6
variáveis: velocidade e direção do vento, radiação solar global, temperatura, umidade e
precipitação (Ferreira et. al., 2004).
A estação meteorológica automática que usamos para o estudo coleta informação a cada
10 minutos para cada variável, resultando em 144 dados por dia, 4320 por mês e 51840 dados
por ano. Se formos processar este cúmulo de informação com métodos não eficientes, os
cálculos poderiam levar muito tempo para serem concluídos.

Grillo N. (2018), apresentou um modelo preditivo autorregressivo com o objetivo de


estimar valores faltantes em séries de dados meteorológicos. Os testes apresentados
demoraram em ocasiões até pouco mais de duas horas. Considerando que este tempo é só para
a análise dos dados de uma variável durante um mês, se fossem ser analisados os dados de 6
variáveis para um ano, o tempo poderia ser mais de 144 horas, resultando pouco prático o uso
de um modelo que precise de quase uma semana para devolver os resultados.
Com o desenvolvimento das novas tecnologias é necessário otimizar os modelos para
reduzir o tempo de computação e assim obter os resultados requeridos com maior velocidade.
O uso de ferramentas de programação paralela é uma alternativa viável, cada vez mais
adotada em sistemas computacionais, uma vez que estas podem contribuir significativamente
para o aumento do desempenho dos programas que as utilizam (Migon, R., 2018).
Com esse objetivo propusemo-nos a paralelizar, usando ferramentas de OpenMP, o
modelo apresentado por Grillo, N (2018) na Dissertação de Mestrado "Modelagem para
estimar valores faltantes em séries de dados meteorológicos".

2. FUNDAMENTAÇÃO TEÓRICA

Para estimar os dados faltantes nas séries de dados meteorológicos, segundo Ulrych T. J.;
Bishop T. N. (1975) e Ulrych T. J.; Clayton R. W. (1976), pode ser usado um modelo
preditivo auto regressivo conhecido como “AR (p)”, o qual é um modelo linear que usa os
valores de p tempos anteriores e posteriores de amostragem para estimar o valor em um
determinado momento. Para o cálculo dos coeficientes gerados pelo modelo foi usado o
método de Burg, proposto por Burg R. (1967) e Burg R. (1968).
A estimativa AR foi originalmente desenvolvida para o processamento de dados
geofísicos, onde foi denominado Método de Entropia Máxima (MEM). Foi utilizado para
aplicações em radares, imagens, radioastronomia, biomedicina, oceanografia e sistemas
ecológicos (Steven M. K.; Marple S. L., 1981).

Hoje em dia, por questões de economia de energia e pela redução de danos causados ao
meio ambiente, é fundamental que se tenha sistemas computacionais que consumam menos e
que consigam utilizar os recursos disponíveis da melhor maneira possível (Pilla, M. L.;
Santos, R. R. dos; Cavalheiro, G. G. H., 2009). Em sistemas paralelos, os programas são
executados em processadores paralelos para alcançar altas taxas de desempenho e,
geralmente, existem tantos processos quanto processadores, tentando resolver um problema
de forma mais rápida ou um problema maior na mesma quantidade de tempo (Andrews, G.
R., 2009).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1034
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Segundo Pilla, M. L.; Santos, R. R. dos; Cavalheiro, G. G. H. (2009), no processamento


dos computadores de primeira geração, chamado de processamento sequencial, a execução de
um programa se dá em um único processador ou Unidade Central de Processamento - CPU,
com as instruções sendo processadas uma de cada vez. O processamento paralelo, ao contrário
do sequencial, é realizado pela execução simultânea de instruções de programas que foram
alocados em múltiplos processadores com o simples objetivo de rodar um programa em
menos tempo ou conseguir resolver problemas mais complexos e de maior dimensão.

Os principais desafios da programação paralela, decorrentes da utilização de arquiteturas


paralelas, são: (i) desenvolvimento de algoritmos paralelos eficientes, (ii) gerenciamento de
recursos e de dados para as tarefas paralelas, (iii) utilização de mecanismos de comunicação e
balanceamento de carga e o (iv) gerenciamento da complexidade de um programa paralelo.
Como tentativa de solucionar esses problemas surgem as ferramentas de auxílio à construção
de programas paralelos, permitindo uma fácil manutenção e apoiando a documentação desses
programas (Jaquie, K. R. L., 2009). Entre essas ferramentas está o OpenMP, a qual foi
utilizadas na paralelização neste trabalho.

A ferramenta Open Multi-processing – OpenMP (Chandra, R. et al., 2011) é uma


interface de programação que oferece diversos recursos para a criação, desenvolvimento e
execução de programas multithread. O suporte a esta API encontra-se implementado em C/C+
+ e Fortran sobre diferentes sistemas computacionais, incluindo plataformas Unix e Microsoft
Windows. É composta por uma série de recursos, tais como: diretivas de compilação,
chamadas a funções de biblioteca e variáveis de ambiente (Schwarzrock, J., 2018). Uma
aplicação com OpenMP utiliza o modelo de programação fork-and-join, com uma thread
principal sendo criada no início do programa e a mesma executando sozinha até localizar uma
diretiva que permita uma execução paralela, voltando a thread principal a executar sozinha
após o termino da região paralela (Marongiu, A.; Burgio, P.; Benini, L., 2011).

3. MATERIAIS E MÉTODOS

3.1 Estação de estudo

Para o teste e implementação deste modelo, foram usados os dados da Estação


Meteorológica do Centro de Tecnologia em Meio Ambiente (CETEMA) que está localizada
no bairro Vila Amélia, no Campus Regional da UERJ em Nova Friburgo à 870 metros de
altitude, sob as coordenadas de 22° 28’68”S e 42° 54’31”W. (Maps and Directions, 2018) Os
dados usados foram os referentes à temperatura do mês de fevereiro de 2011 pois a série
estava completa e não houve ocorrência de fenômeno meteorológico extremo nenhum que
mudasse o ciclo diário normal desta variável, e ela em particular tem um ciclo diário bem
marcado, ótimo para bons resultados do modelo preditivo auto-regressivo (Grillo, N., 2018).

3.2 O modelo preditivo auto regressivo

Foi escolhido por Gillo, N. (2018) o modelo preditivo auto-regressivo porque não se
contava com os dados de nenhuma estação nas proximidades ou com características físico-
geográficas similares as da estação em estudo nas datas que faltava informação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1035
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A primeira aproximação usada para estimar os dados em falta foi a média dos valores
existentes na série de dados.
O modelo auto-regressivo de ordem p, AR (p) , obedece à Equação 1:
p
y [t ]=∑ ai y [t−i]+φ [t ] (1)
i=1

Onde a saída no tempo t depende dos p valores anteriores mais um valor φ, o qual
corresponde ao ruído introduzido nos cálculos, e ai são os coeficientes do modelo. Então, o
filtro preditivo correspondente é mostrado na Equação 2:
p
y b [t ]=∑ ai y [t−i] (2)
i=1

O método também executa o filtro em tempo reverso, então agora o dado no tempo t se
estima com os p valores futuros da série (Eq. 3):
p
y f [t]=∑ ai y [t+i] (3)
i=1

Note que ambos filtros preditivos são executados dentro dos dados, sem sair dos limites
da série. Então, o filtro que usa os p valores anteriores não produz saída para os p primeiros
valores da série, e o filtro que usa os p valores posteriores não produz saída para os p últimos
valores da série. Porém, para os valores dos extremos, é usada a única saída disponível, e para
os valores do meio, é usada a média das duas saídas, como mostrado nas Equações 4, 5 e 6:

y est [t ]= y f [t ] para 0≤t≤ p (4)


y est [t ]= y f [t ]+ y b [t] para p<t ≤ N− p (5)
y est [t ]= y b [t ] para N− p< t ≤ N (6)

Onde: N é a quantidade de dados da série; p é a ordem do modelo; y est é a série estimada;


y b é o filtro preditivo que usa os p valores anteriores da série ; e y f é o filtro preditivo que
usa os p valores posteriores da série.

O cálculo dos coeficientes (a i) de um modelo AR (p) pode ser feito através de vários
métodos. Um dos métodos mais usados segundo Rodríguez G. (1995) é o método de Burg, o
qual é usado para o tratamento de séries determinísticas. Para o cálculo dos coeficientes do
modelo através do Método de Burg, foi usado o algoritmo desenvolvido por Andersen N.
(1974).

3.3 Método para a estimativa de dados faltantes em séries de dados meteorológicos

Algoritmo para a modelagem da estimativa de dados faltantes:


Serão mostrados os passos seguidos para o desenvolvimento do modelo:
1. É preciso ter a série de dados num arquivo de texto que possa ser lido pelo programa
(*.txt).
2. Detectar onde faltam dados e substituí-los pelo código ‘9999’.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1036
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. Fazer a primeira aproximação do método, que em nossa pesquisa foi feita com o valor
médio dos valores da série toda.
4. Aplicar o método preditivo auto regressivo.
5. Imprimir os resultados obtidos num arquivo de texto para a sua futura utilização (*.txt
ou *.csv).

Algoritmo para a modelagem do método preditivo auto regressivo:


Fazer enquanto a diferença máxima entre duas iterações consecutivas seja maior do que
um valor definido com antecedência pelo usuário, ou chegar a uma quantidade de iterações
também definida pelo usuário com antecedência.
1. Calcular os coeficientes do método.
2. Calcular os filtros preditivos anterior e posterior (Eq. 2 e 3).
3. Definir o vetor de valores estimados (Eq. 4, 5 e 6).
4. Redefinir o vetor de valores estimados. Este passo foi feito substituindo os valores
estimados somente nas posições dos dados faltantes na série com os dados
meteorológicos originais.
5. Calcular a diferença máxima entre a iteração atual e a anterior.

Algoritmo para o cálculo dos coeficientes do método (Método de Burg):


1. Inicializar os vetores auxiliares definidos como b1 (Eq. 7) e b2 (Eq. 8). Estes vetores
vão ter o tamanho N−1, onde N é a quantidade de valores da série meteorológica onde
estão sendo estimados os dados faltantes.

b 1[i]= y [i] (7)


b 2[i]= y [i−1] (8)

Fazer enquanto m seja menor que a ordem do modelo

2. Calcular o coeficiente correspondente à ordem da iteração através da Equação 9:


N −m

∑ b 1[i]b 2 [i ]
a m= N −mi=1 (9)
∑ (b12 [i]+b 22 [i])
i=1

3. Se: m > 1
Recalcular os coeficientes anteriores aos da presente iteração através da Equação 10:

a [i]=aanterior [i]−am [i]aanterior [m−1] (10)

4. Aumentar o iterador m
5. Fazer o vetor dos coeficientes anterior igual ao vetor dos coeficientes na iteração:

a anterior [i]=am [i] (11)

6. Recalcular os vetores auxiliares b1 (Eq. 12) e b2 (Eq. 13):

b 1[i]=b 1[i]−aanterior [m−1]b 2[i] (12)


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1037
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

b 2[i]=b 2 [i+1]−aanterior [m−1]b 1[i+1] (13)

Erro quadrático médio:


A ordem do modelo foi determinada empiricamente. Para determinar quais valores da ordem
foram as que obtiveram melhores estimativas, foi calculado o Erro Quadrático Médio (Eq. 14)
e a diferença máxima entre os dados estimados e os dados originais da série.
N
1
EQM= ∑ ( y est [i]− y [i]) ² (14)
N i =1

3.4 Programação em paralelo

Foi utilizado o código em linguagem C++ do programa desenvolvido por Grillo, N


(2018), para estimar valores faltantes em séries de dados meteorológicos, como mostrado nas
subsecções anteriores. Cada parte do processo estava dividido por funções, pelo que nossa
primeira tarefa foi detectar quais das funções teria maiores ganhos ao serem paralelizadas.

Analisando as estruturas e comandos usados em cada função:

primeira aproximação: Esta função calcula uma primeira aproximação dos valores
faltantes na série de dados como a média dos valores todos da série. Esta função só usa uma
porcentagem muito pequena do tempo todo de cálculo do modelo.

erro quadrático médio: Nesta secção é calculado o erro quadrático médio como o
objetivo de comparar os resultados obtidos pelo modelo e os valores originais da série. Esta
secção também tem pouco custo computacional.

Entre as duas funções anteriores só é usado o 0,096% do tempo total de cálculo do


modelo, por isso achamos que não seria necessário a paralelização de estas secções do
modelo.

método preditivo auto regressivo: Esta função executa o método preditivo auto
regressivo, usando dentro dela uma outra função para o cálculo dos coeficientes do método.
Durante o cálculo desta função é usado o 86,48% do tempo todo de cálculo do modelo.

outras funções: Entre outras funções estão aquelas para ler e escrever dados nos arquivos
de entrada e saída, cálculo de erro relativo entre iterações consecutivas e criação de vetores e
arrays precisos para cálculos posteriores. Estas funções só ocupam o 13,42% do tempo de
cálculo total do modelo.

Depois de analisar por partes o código, definimos que a função que é preciso paralelizar
para obter um maior rendimento do método é a função encarregada do cálculo do método e os
coeficientes. Nela encontramos várias secções que poderiam ser paralelizadas e testamos cada
uma delas, comparando o SpeedUp obtido para cada implementação.

Algoritmo para a modelagem do método preditivo auto regressivo paralelizado:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1038
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fazer enquanto a diferença máxima entre duas iterações consecutivas seja maior do que
um valor definido com antecedência pelo usuário, ou chegar a uma quantidade de iterações
também definida pelo usuário com antecedência.
1. Calcular os coeficientes do método.
2. Calcular os filtros preditivos anterior e posterior (Eq. 2 e 3).
Para o cálculo destes filtros são usados dois loops “for” anidados para cada filtro, e
foram paralelizados os loops internos com a diretiva de compartilhamento de trabalho
“#pragma omp parallel for reduction(+:Sum)” com a cláusula de redução com a qual
o compilador gera código de tal forma que uma condição de corrida é evitada e não
sejam sobrescritos os valores das variáveis de redução pelos diferentes threads.
3. Definir o vetor de valores estimados (Eq. 4, 5 e 6).
Esta seção está composta por vários loops “for” que definem o novo vetor de valores
estimados usando os resultados dos vetores filtros preditivos anterior e posterior, os
quais foram paralelizados usando a diretiva “#pragma omp parallel for” para
compartilhamento de trabalho.
4. Redefinir o vetor de valores estimados. Este passo foi feito substituindo os valores
estimados somente nas posições dos dados faltantes na série com os dados
meteorológicos originais.
Esta seção também foi paralelizada usando a diretiva “#pragma omp parallel for”,
similar a seção anterior.
5. Calcular a diferença máxima entre a iteração atual e a anterior.

Algoritmo para o cálculo dos coeficientes do método paralelizado (Método de Burg):


1. Inicializar os vetores auxiliares definidos como b1 (Eq. 7) e b2 (Eq. 8).
Foi usada a diretiva para compartilhamento de trabalho “#pragma omp parallel for”
para paralelizar o loop encarregado da inicialização destes vetores auxiliares.
Fazer enquanto m seja menor que a ordem do modelo
2. Calcular o coeficiente correspondente à ordem da iteração através da Equação 9:
Se: m > 1
3. Recalcular os coeficientes anteriores aos da presente iteração através da Equação 10:
4. Aumentar o iterador m
5. Fazer o vetor dos coeficientes anterior igual ao vetor dos coeficientes na iteração:
6. Recalcular os vetores auxiliares b1 (Eq. 12) e b2 (Eq. 13).
Também paralelizamos a seção encarregada de recálculo dos vetores auxiliares,
usamos neste caso a diretiva de compartilhamento de trabalho “#pragma omp parallel
for reduction(+:num, den)” com a cláusula de redução com a qual o compilador gera
código de tal forma que uma condição de corrida é evitada e não sejam sobrescritos os
valores das variáveis de redução pelos diferentes threads.

4. RESULTADOS E DISCUSSÃO

Como resultado deste trabalho foi paralelizado o modelo apresentado por Grillo, N.
(2018) para a estimativa de dados faltantes nas séries de dados meteorológicos usando os
dados da mesma Estação Meteorológica. Para a paralelização foram usadas técnicas de
OpenMP no código em C++. O qual permitiu obter uma maior velocidade na hora de executar
o modelo usando ordens maiores a 775. Estas ordens são usadas quando a quantidade de
dados é maior que 1550 dados, como por exemplo, quando se executa o modelo com os dados
de um mês de uma estação meteorológica automática (4032 dados). Segundo a natureza do
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1039
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

modelo preditivo autorregressivo usado, não é recomendado usar ordens maiores à metade da
quantidade de dados da série a ser testada (Grillo, N; 2018).

Para os testes do modelo foi usando um computador Acer Aspire ES 15, com sistema
operacional Linux (Ubuntu 18.04.5 LTS) e 4 processadores Intel® Core™ i3-7100U CPU de
2.40GHz, com 2 núcleos físicos e 2 lógicos.

Os testes foram feitos como os valores de temperatura coletados a cada 10 minutos


durante um mês, pois é uma variável com um ciclo diário bem marcado, e o modelo apresenta
melhores resultados com variáveis deste tipo (Grillo, N; 2018). Foi usado o ano 2011, pois
não faltaram dados dentro da série, e o mês de fevereiro porque não houve fenômenos
meteorológicos extremos que gerassem uma variação muito grande nos valores das variáveis
meteorológicas além do ciclo diário normal delas. Ao todo foram usados um total de 4032
dados (medições a cada 10 minutos durante os 28 dias do mês de fevereiro).

Segundo Grillo, N (2018), o modelo obteve bons resultados com até 10 dados faltantes
consecutivos em diferentes posições da série, sempre que estiverem depois da terceira
posição. Então foram apagados, manual e aleatoriamente, seções de 10 valores consecutivos
em diferentes posições da série (14, 814, 1914, 2914 e 3914).

Valores da ordem p do modelo de até a metade da quantidade de dados a serem


computados podem ser testados para detectar quais seriam as ordens com melhores resultados,
então foram feitos testes com ordens até 2000 pois a quantidade de dados computados foi
4032.

Com o objetivo de comparar o desempenho do modelo usando os núcleos físicos e


lógicos foi executado usando 2 e 4 threads, obtendo-se uma maior aceleração ao serem usados
só os núcleos físicos, alocando 1 thread a cada processador.
Executando o modelo com 2 threads, começaram se obter valores de SpeedUp maiores a
1 com a utilização de valores de ordem do modelo superiores a 775. Usando 4 threads não se
observou SpeedUp maior que 1 nos testes feitos.

Na Tabela 1 são amostrados os tempos de execução do modelo tanto da versão serial


quanto a paralelizada e o SpeedUp para algumas das ordens calculadas com 2 threads.

Tabela 1- Tempos de execução das versões serial e paralela e SpeedUp para cada ordem.

Tempo M. Serial Tempo M. Paralelizado


Ordem SpeedUp
(seg) (seg)
1 0,01 0,18 0,08
50 3,11 14,58 0,21
500 109,49 127,38 0,86
775 258,23 254,07 1,02
1000 795,70 689,09 1,15
1500 5949,39 4764,67 1,25
2000 7232,98 5715,05 1,27

Na Figura 1 são apresentados em um gráfico os valores de SpeedUp obtidos das execu-


ções dos modelos serial e paralelo com as diferentes ordens do modelo com 2 threads.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1040
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Comportamento do SpeedUp enquanto aumenta a Ordem do modelo


(execução com 2 threads)

A maior aceleração obtida foi de 1,28 com a ordem 1700 do modelo. O speedup
aumentou de forma exponencial até o valor máximo antes comentado, a partir do qual ficou
constante.

5. CONCLUSÕES

Com esta pesquisa conseguiu se paralelizar com sucesso o modelo preditivo auto-
regressivo desenvolvido por Grillo, N. (2018). Foram feitos testes com 2 treads (físicos) e 4
threads (2 físicos e 2 lógicos), e obtivéram-se melhores resultados quando usados só 2 threads
pois não se obteve SpeedUp maior a 1 quando usados 4 threads nos testes feitos. Usando 2
threads, o tempo de cálculo do modelo foi acelerado em até 1,28 vezes, obtendo-se uma
aceleração do modelo paralelizado em comparação ao modelo serial, a partir da ordem 775,
antes desse valor a versão serial obteve melhores resultados em quanto a tempo de execução.
Concluiu-se que a eficiência do modelo aumenta com a paralelização dele.
Futuramente se recomenda fazer testes com uma quantidade maior de dados e paralelizar
outros algoritmos desenvolvidos por especialistas com o objetivo de fazer estimativas de
dados faltantes em séries de dados meteorológicos, pois é um problema muito frequente na
hora de fazer estudos climatológicos com séries de dados extensas.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nível Superior -Brasil (CAPES) - Código de Financiamento 001
Os autores agradecem à CNPq e FAPERJ pelo apoio nas pesquisas, ao CETEMA pela
disponibilidade dos dados da Estação Meteorológica que está localizada no IPRJ em Nova
Friburgo.

REFERÊNCIAS

Andersen, N. Short Notes: On the calculation of filters coefficients for maximum entropy spectral analysis.
Geophysics. v 39, n 1, p 69-72. 1974.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1041
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Andrade, G.; Márcia, C.; Cera. Comparação do uso de OpenMP e Pthreads em uma Paralelização de
Multiplicação de Matrizes.
(https://www.researchgate.net/publication/336748706_Comparacao_do_uso_de_OpenMP_e_Pthreads_em_u
ma_Paralelizacao_de_Multiplicacao_de_Matrizes). 2016
Andrews, G. R. Foundations of Multithreaded, Parallel, and Distributed Programming. Boston: Addison Wesley,
2009.
Burg, R. Máximum Entropy spectral analysis. Proc. 37th Meeting of the society of exploration Geophysicists.
1967.
Burg, R. A new analysis technique for time series analysis. NATO advanced study Inst. on signal processing
with emphasis on Underwater Acoustics, Enschede, The Netherlands. 1968.
Chandra, R. et al. Parallel Programming in OpenMP. São Francisco: Morgan Kaufmann, 2011.
Ferreira, et al. Implementação de sistema para controle de qualidade dos dados meteorológicos da rede de PCDs
do INPE. XIV Congresso Brasileiro de Meteorologia. 2006, Florianópolis.
Grillo, N. Modelagem para estimar valores faltantes em série de dados meteorológicos. 2018. 69 f. Dissertação
(Mestrado em Modelagem Computacional) - Instituto Politécnico de Rio de Janeiro - UERJ, Rio de Janeiro,
2018.
Jaquie, K. R. L. Extensão da ferramenta de apoio à programação paralela (F.A.P.P.) para ambientes paralelos
virtuais. 2009. 152 f. Dissertação (Mestrado em Ciência da Computação e Matemática Computacional) –
Instituto de Matemática e Computação da Universidade de São Paulo - USP, São Paulo, 2009.
Maps and Directions. Estação Meteorológica do IPRJ. Disponível em:
https://www.mapsdirections.info/coordenadas-de-googlemaps.html. 2018. Consultado: março 2018.
Marongiu, A.; Burgio, P.; Benini, L. Supporting OpenMP on a multi-cluster embedded MPSoC. In:
Microprocessors and Microsystems, 8. 2011, Amsterdam. Proceedings at Microprocess Microsyst.
Amsterdam: Elsevier Science Publishers, p. 668-682, 2011.
Migon, R. Uma análise de eficiência do uso das ferramentas de programação paralela OpenMP e TBB na
remoção de ruídos em imagens. Revista Thema: 2018 | Volume 15 | No 4 | Pág. 11234 a 1255. 2018.
Pilla, M. L.; Santos, R. R. dos; Cavalheiro, G. G. H. Introdução à programação em arquiteturas multicore. In: IX
Escola Regional de Alto Desempenho (ERAD), 9. 2009, Porto Alegre. Anais da IX Escola Regional de Alto
Desempenho (ERAD). Porto Alegre - Rio Grande do Sul: UCS, p. 72-102, 2009.
Rodríguez, German. Métodos de análisis espectral del oleaje. Estudio Comparativo. Universidad de Las Palmas
de Gran Canaria. Departamento de Física. 1995.
Schwarzrock, J. Adaptação dinâmica do número de threads em aplicações paralelas openMP para otimizar EDP
em sistemas embarcados. 2018.
Steven M. K.; Marple S. L. Spectrum Analysis-A Modern Perspective. Proceedings of the IEEE. v 69, n 11,
1981.
Tanner. B. D. Automated weather stations. Remote Sensing Reviews. Abingdon, v.5, n.1, p. 73-98. 1990.
Ulrych, T. J.; Bishop, T. N. Maximum Entropy Spectral Analysis and Autoregressive Decomposition. Reviews
of Geophysics and Space Physics. v 13, n 1, p 183-200. 1975.
Ulrych, T. J.; Clayton, R. W. Time Series Modelling and Maximum Entropy. Physics of the Earth and Planetary
Interiors. n 12, p 188-200, 1976.

PARALLELIZATION OF A PREDICTIVE AUTO-REGRESSIVE MODEL TO


ESTIMATE MISSING VALUES IN SERIES OF METEOROLOGICAL DATA

Abstract. This work presents the parallelization of the auto-regressive predictive method for
the estimation of missing data in meteorological data series, using only the information from
the same series, presented by Grillo (2018). The objective of this work is to compare the
performance of the algorithm using parallel programming and the one presented by Grillo
(2018). Our results show that as the amount of data to be computed and the model order
increases, the use of OpenMP makes the calculation more efficient. Comparing the
calculation speeds of the serial and parallel versions, was obtained a maximum SpeedUp of
1.28 times, demonstrating that the parallelization of the model increases its efficiency.

Keywords: Missing data estimation, Auto Regressive Predictive Method, OpenMP

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1042
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

QUITOSANA NA ADSORÇÃO DE FOSFATO: UMA COMPARAÇÃO ENTRE


QUITOSANA SINTETIZADA EM LABORATÓRIO E QUITOSANA COMERCIAL

Nathália Isidoro Ribeiro1 – ribeiro.in@hotmail.com


Maria Luiza Gomes Soares Pessanha1 – maria12luiza@hotmail.com
Eduarda Chiabai Rodrigues de Melo1 – eduarda-melo@hotmail.com
Damaris Guimarães1 – guimaraes.damaris@yahoo.com.br
1
Universidade Federal do Espírito Santo/Centro de Ciências Agrárias e Engenharias, Alto
Universitário, S/N Guararema, 29500-000 - Alegre - ES, Brasil

Resumo. Neste trabalho, foi feita a comparação do desempenho da quitosana experimental,


sintetizada em laboratório a partir de resíduos pesqueiros, e a quitosana comercial para a
remoção do fosfato contaminante. Inicialmente, ambos os materiais foram caracterizados por
difração de raios-X e análise termogravimétrica. Os ensaios de adsorção foram conduzidos a
temperatura ambiente, em que 1g de quitosana comercial e 1 g de quitosana experimental
foram postos em contato com 500 mL de soluções de fosfato nas concentrações iniciais de
427 mg/L e 439 mg/L, respectivamente. Os resultados mostraram que a quitosana
experimental apresentou carregamento máximo de fosfato de 37,46 mg/g, o que equivale a
uma remoção de 17,5% e que o equilíbrio foi atingido no tempo de 50 minutos. Já para a
quitosana comercial, o equilíbrio foi atingido no tempo de 70 minutos com um carregamento
de 38,87 mg/g e 17,68% de remoção. Além disso, o modelo de pseudossegunda ordem
apresentou melhor ajuste aos dados experimentais. Pelos resultados, foi constatado que
ambas as quitosanas são similares, sendo possível a substituição da quitosana comercial pela
experimental, oriunda de resíduos.

Palavras-chave: Resíduo pesqueiro, Cinética, Efluentes.

1. INTRODUÇÃO

A eutrofização é causada pelo excesso de fósforo, um composto químico que


naturalmente é encontrado na natureza e é nutriente fundamental para os seres vivos.
Entretanto, seu excesso provoca uma produção excedente de fitoplânctons e cianobactérias
tóxicas, que são capazes de ocasionar a deficiência de oxigênio dissolvido, a redução da
biodiversidade e a qualidade da água (BANU; MEEENAKSHI, 2018; AWUAL, 2019).
Diversos estudos de remoção e recuperação de fosfato estão disponíveis na literatura, cujas

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1043
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

técnicas empregadas compreendem, por exemplo, a precipitação química, os processos


biológicos e a eletrodiálise (MAIA et al., 2020).
Técnicas alternativas para a remoção de fosfato têm sido estudadas e uma que se
sobressai é a adsorção, devido a sua capacidade de remoção, possibilidade de utilização de
diversos tipos de adsorventes, individuais ou combinados, e também pela possibilidade de
regeneração do adsorvente, dependendo de suas características (MAIA et al., 2020). A
adsorção é um processo físico-químico que consiste na concentração das moléculas ou íons
(adsorvato) presentes em um fluido sobre a superfície sólida do adsorvente. Dentre os
adsorventes propícios à remoção de ânions, um destaque é dado à quitosana por apresentar
estrutura bastante reativa, a qual possui grupamentos amina que se tornam protonados,
conforme o pH do meio (OLIVEIRA, 2004; SZYMCZYK et al., 2016, HE; WANG;
ZHANG, 2019).
A quitosana é obtida por meio da desacetilação da quitina, material responsável por
formar exoesqueletos de crustáceos e outros animais marinhos. Esse composto apresenta
algumas propriedades importantes como baixa toxicidade, biodegradabilidade,
biocompatibilidade e propriedades antibacterianas, o que permite sua utilização em diversas
áreas, como no tratamento de águas, produção de cosméticos, drogas e medicamentos e
adsorventes (MATHUR; NARANG 1990; MATTEUS, 1997; JANEGITZ, et al., 2007;
SZYMCZYK et al., 2016). Por ter muitas aplicações, o presente trabalho foi desenvolvido
com o objetivo de sintetizar a quitosana a partir de resíduos pesqueiros e aplicá-la na adsorção
de íons fosfato presente em meio aquoso, comparando seu desempenho ao obtido pela
quitosana comercial.

2. METODOLOGIA

Para a obtenção da quitosana experimental, foram utilizados resíduos de camarão


oriundos da indústria pesqueira do município de Piúma-ES. Inicialmente, o material passou
pela etapa de pré-tratamento, em que foi lavado com água corrente para a retirada de
sujidades. Os mesmos foram secos em estufa a 50ºC por 48 h e triturados em moinho de facas
MARCONI, modelo MA340. Em seguida, foi feita a desmineralização com ácido clorídrico
(1 mol/L) na razão de 1:10 (g de matéria-prima/mL de solução de ácido clorídrico), conduzida
sob agitação por 2 h em temperatura ambiente. Na etapa de desproteinização, foi utilizado
hidróxido de sódio (2 mol/L) também na razão de 1:10, sob agitação por 4 h a 45ºC. A etapa
de despigmentação foi feita com hipoclorito de sódio (1% v/v), razão 1:10, em agitação por 3
h em temperatura ambiente. Com essas etapas, obteve-se a quitina. A partir dela, foi possível
sintetizar a quitosana pelo processo de desacetilação, em que foi utilizado hidróxido de sódio
(60% p/v), razão 1:30, mantido em agitação por 12 h a 90°C. É válido destacar que ao final de
cada etapa, o produto foi filtrado a vácuo, lavado com água destilada até pH neutro e seco em
estufa a 50ºC por 12 h, para que se pudesse dar início à etapa seguinte. A partir da quitosana
pronta, seu grau de desacetilação foi determinado pela técnica de titulação condutimétrica,
assim como realizado por Santos et al. (2003).
Os ensaios cinéticos foram feitos em batelada, com solução de fosfato no volume de 500
mL posta em contato com 1 g de quitosana, sendo este procedimento feito para a quitosana
experimental e comercial. Para a quitosana experimental, a concentração inicial da solução de
fosfato foi de 439 mg/L e 427 mg/L para a quitosana comercial. A diferença dos valores das
concentrações das duas quitosanas se dá porque pelo fato de ambas terem sido preparadas em
momentos diferentes, logo, houve diferença na massa pesada durante o preparo das mesmas,
isso influenciou na concentração resultante. Com o auxílio do agitador magnético, as misturas
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1044
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

foram mantidas sob agitação constante, retirando-se alíquotas em triplicata no volume de 2


mL, em tempos pré-determinados de 0 a 180 min. As alíquotas foram filtradas, centrifugadas
e diluídas. Para a quantificação do íon fosfato, foi utilizado o método colorimétrico com ácido
ascórbico disponível na 23ª edição da obra Standard Methods for the examination of Water
and Wastewater (APHA, AWWA, 2017), que consistia na retirada de alíquotas com volumes
de 3 mL das soluções de interesse e o mesmo volume de água, utilizada como branco. Um
volume de 0,48 mL da solução combinada proposta pelo método foi adicionada a cada
alíquota para que a absorbância fosse medida. Para a medição da absorbância, foi utilizado o
espectrofotômetro UV-Vis, modelo Du-8800d, marca Drawell, com comprimento de onda
igual a 800 nm. A fim de verificar quais modelos descrevem melhor os dados obtidos, os
modelos de Pseudoprimeira ordem e Pseudossegunda ordem foram escolhidos.
Para a caracterização das amostras foram utilizadas as técnicas de: difração de raios-X
(DRX), com difratômetro de bancada da RIGAKU, modelo Mini-Flex 600, em intervalo
angular 2θ de 5º a 80º, taxa de varredura de 10º (2θ) por minuto e velocidade de passo de
0,02°/s, usando CuKα como fonte de radiação; termogravimetria (TG) e análise térmica
diferencial (DTA), com o analisador térmico SETARAN, modelo Labsys Evo, sob atmosfera
de nitrogênio, com rampa de aquecimento de 20 a 750ºC a uma taxa de 10ºC/min. Por fim, o
método proposto por Knidri et al. (2016) foi utilizado para calcular o índice de cristalinidade
das quitosanas, após a caracterização por DRX.

3. RESULTADOS

A Figura 1 apresenta o difratograma de raios-X da quitosana experimental e comercial.

Figura 1 – Difratograma de raios-X das quitosanas experimental e comercial.

Fonte: Autoras.

De modo a obter informações adicionais de caracterização e comparar as quitosanas


estudadas, a termogravimetria foi utilizada. Deste modo, a Figura 2 mostra as
porcentagens de perda de massa e o fluxo de calor, respectivamente, em função da
temperatura, evidenciando cada evento ocorrido.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1045
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – TG e Fluxo de Calor para quitosana experimental (i e ii) e quitosana comercial


(iii e iv)

Fonte: Autoras.

Na Tabela 1, são apresentados os dados obtidos a partir dos estudos cinéticos.

Tabela 1: Resultados dos estudos cinéticos da quitosana comercial e experimental.


Tempo em R² R²
Quitosana que o Carregamento(mg/g) % Pseudo- Pseudo-
adsorvente Remoção primeira segunda
atingiu o Ordem Ordem
equilíbrio
(min)
Experimental 50 37,46 17,53 0,9216 0,9701
Comercial 70 38,87 17,68 0,0677 0,9856
Fonte: Autoras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1046
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. DISCUSSÃO

O difratograma referente à quitosana comercial (Figura 1, curva destacada de preto)


possui picos cristalinos em 9,39°, 20,10° e 22,21°, sendo os últimos valores próximos aos que
foram encontrados por Kucukgulmez et al. (2011), 20,2 e 22,4, respectivamente. Com relação
à quitosana experimental, seus picos cristalinos estão localizados em 2θ igual a 10,37º, 19,80º
e 22,09º. Pode-se perceber a similaridade no difratograma das duas quitosanas estudadas,
exceto pelo primeiro pico de DRX de ambas. Sendo o pico da quitosana comercial com valor
inferior a 10° e o pico da quitosana experimental com valor acima de 10°, estando este último,
dentro da faixa de valores que a quitosana costuma ser encontrada, que é de 10° a 20° em 2θ,
segundo estudos de Knidri et al. (2016) . A posição do pico em 2θ igual a 9,39° e 10,37° para
a quitosana comercial e experimental, respectivamente, é semelhante aos valores que Wang et
al. (2013), Knidri et al. (2016) e Moussout et al. (2016) encontraram em seus trabalhos.
Segundo Moussout et al. (2016), o deslocamento neste pico localizado próximo de 10° se
deve aos grupos acetilados que estão presentes na estrutura polimérica.
A partir dos dados de DRX, os índices de cristalinidade (IC%) das quitosanas foram
calculados. Tais valores têm a função de representar o grau de ordenamento do polímero. A
quitosana comercial apresentou um índice de cristalinidade de 73,61%, ao passo que a
quitosana experimental apresentou tal índice igual a 64,46%. Valores próximos a estes foram
encontrados por Signini e Campana-Filho (2001), em uma faixa de 64,1 a 68,5. Segundo
Battisti e Campana-Filho (2008), o índice de cristalinidade é influenciado pela purificação
quitosana, em que obtiveram valores de IC% superiores a 71% para quitosana purificada e
valores inferiores a 64% para quitosana não purificada.
Observando os dados obtidos nos ensaios experimentais apresentados no presente
trabalho e a comparação feita com os valores da literatura, é possível entender que os dois
compostos estudados podem ser, de fato, considerados quitosanas, pois ambas apresentam
células unitárias ortorrômbicas e possuem picos cristalinos muito próximos.
Analisando os dados de termogravimetria, é observado na Figura 2 (i e ii) que a quitosana
experimental possui três eventos (A, B e C), sendo que o evento A está localizado na faixa de
temperatura de 30°C e 150°C, com 8,35% de perda de massa e perfil endotérmico. Esse
evento representa a eliminação das moléculas de água, referentes à umidade do material
(SAGHEER et al., 2009; ELANCHEZHIYAN; MEENAKSHI, 2017). Foi possível perceber
que na faixa de temperatura de 150°C a 250°C a massa não sofreu variação significativa. O
evento B, representando a decomposição das cadeias poliméricas que contêm grupos amino,
teve 43,10% de perda de massa, sendo um pico exotérmico, ocorrendo na faixa de
temperatura de 250°C a 400°C (MOUSSOUT et al., 2016; KUMARI et al., 2017). Na faixa
de temperatura de 400°C a 740°C, da curva de calor, é possível observar a ocorrência do
evento C, no qual houve 12,45% de perda de massa. A este fato, pode-se atribuir a degradação
dos anéis de piranose. A perda de massa da quitosana experimental teve um somatório de
63,9%.
De maneira similar à análise feita para a quitosana experimental, na Figura 2 (iii e iv), são
observados três eventos (D, E e F), em que a quitosana comercial possui um pico endotérmico
situado na faixa de temperatura de 30°C a 150°C, evento D, que está relacionado à eliminação
das moléculas de água de umidade de material (SAGHEER et al., 2009;
ELANCHEZHIYAN; MEENAKSHI, 2017), totalizando 8,13% de perda de massa. Assim
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1047
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

como na quitosana experimental, foi observado que a massa não teve variação significativa na
faixa de 150°C a 250°C para a quitosana comercial. Já entre 250°C e 400°C, é possível
observar um pico exotérmico com 41,84% de perda de massa, referente ao evento E. Esse
evento está relacionado à decomposição das cadeias poliméricas que contêm aminogrupos,
em que as ligações das unidades monoméricas de glicose são quebradas (MOUSSOUT et al.,
2016; KUMARI et al., 2017). Em seguida, entre 400°C e 740°C, houve a ocorrência do
evento F, com 10,04% de perda de massa, referente à degradação do anel de piranose da
quitosana, segundo Moussout et al. (2016). Desta forma, a perda de massa total da quitosana
comercial foi de 60,01%.
Assim como observado a partir dos dados de DRX, foi possível notar similaridade no
comportamento das quitosanas comercial e experimental também frente à análise térmica,
tendo os materiais apresentado eventos ocorrendo nas mesmas faixas de temperatura,
reforçando o que foi indicado com base nas informações de DRX, ou seja, de que é possível
fazer a substituição da quitosana comercial pela experimental.
Com relação aos testes cinéticos, a Tabela 1 mostra que o ensaio cinético realizado com a
quitosana experimental apresentou carregamento máximo de fosfato por grama de quitosana
de 37,46 mg/g, representando 17,53% de remoção do contaminante, atingindo o equilíbrio no
tempo de 50 minutos. Este mesmo tempo também foi obtido no trabalho de Liu e Zhang
(2015). Já o ensaio cinético com a quitosana comercial apresentou equilíbrio no tempo de 70
minutos, no qual foi alcançado o carregamento de fosfato de 38,87 g/mg, tendo porcentagem
de remoção máxima de 17,68%. Szymczyk et al. (2016) diz em seu trabalho que a baixa
remoção do fosfato pode ser explicada pela alta concentração inicial da solução de fosfato,
sendo assim uma relação inversamente proporcional. Dentre as concentrações utilizadas de
fosfato em seus experimentos, Szymczyk et al. (2016) obtiveram melhor remoção para a
menor concentração de fosfato, que foi de 1 mg/L. Fazendo uma analogia do presente
trabalho com o que foi feito por Szymczyk et al. (2016), para obter remoção de fosfato
próxima de 57%, seria necessário aumentar a concentração de quitosana de 2 g/L para 427
g/L, no caso da quitosana commercial e 439 g/L para a quitosana experimental, ou então
reduzir a concentração de fosfato inicial. O pH também foi medido no início e no final da
adsorção. Ao início, tanto para quitosana comercial quanto experimental o valor de pH foi de
5,4. Já no final, a solução contendo quitosana comercial apresentou um valor de pH de 6,7 e a
quitosana experimental de 7,0. Embora o pH tenha aumentado para ambas as quitosanas, os
valores apresentados ainda estão abaixo do pH no ponto de carga zero, encontrado na
literatura como 7,9 para a quitosana, o que indica que a carga superficial do adsorvente é
positiva favorecendo a adsorção de fosfato (SZYMCZYK et al., 2016).
A partir dos dados obtidos, conforme pode ser visto na Tabela 1, o modelo que melhor se
ajustou nos dois ensaios foi o modelo de pseudossegunda ordem, com R² igual a 0,9701 para
a quitosana experimental e 0,9856 para a quitosana comercial. Isso mostra que a etapa de
quimissorção nos dois casos é a responsável pela velocidade do processo de adsorção de
fosfato utilizando a quitosana como adsorvente.

5. CONCLUSÃO

De acordo com os estudos feitos neste trabalho, foi possível observar grande similaridade
entre a quitosana comercial com a quitosana obtida experimentalmente a partir de resíduos da
indústria pesqueira. Tanto na difração de raios-X quanto na análise termogravimétrica os
resultados para os dois compostos foram similares e dentro do padrão encontrado na
literatura, de modo que a substituição da quitosana comercial pela experimental é possível de
ser feita. Essa possibilidade é reforçada pelo fato de ter sido observado similaridade nos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1048
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

valores de carregamento de fosfato alcançado por ambas as quitosanas, mostrando ser um


processo rápido de adsorção, cuja etapa determinante da velocidade do processo é a de
quimissorção. Com relação à remoção, foi possível observar, por meio de comparação com a
literatura, que a baixa remoção do fosfato contaminante pode ser explicada pela alta
concentração inicial da solução de fosfato ou também pela baixa dosagem de quitosana
utilizada no experimento, em relação a alta concentração do fosfato.

Agredecimentos

À Fundação de Amparo à Pesquisa e Inovação do Espírito Santo – FAPES, pelo fomento


à pesquisa. Ao Laboratório de Engenharia Química 1/CCAE/UFES, pela realização das
análises Termogravimétrica e de Difratometria de raios-X.

REFERÊNCIAS

APHA, AWWA, W. Standard Methods for the Examination of Water and Wastewater, American Public
Health Association. 23. ed. Washington: [s.n.], 2017.
AWUAL, M. R. Efficient phosphate removal from water for controlling eutrophication using novel composite
adsorbent. Journal of Cleaner Production, v. 228, p. 1311–1319, 2019.
BANU, H. T.; MEEENAKSHI, S. Effective removal of phosphate from aqueous solution by lanthanum loaded
bio-polymeric composite. Materials Today: Proceedings, v. 5, n. 8, p. 16165–16171, 2018.
BATTISTI, M. V.; CAMPANA-FILHO, S. P. Obtenção e caracterização de α-quitina e quitosanas de cascas de
Macrobrachium rosembergii. Química Nova, v. 31, n. 8, p.60 2014–2019, 2008.
ELANCHEZHIYAN, S. S.; MEENAKSHI, S. Synthesis and characterization of chitosan/Mg-Al layered double
hydroxide composite for the removal of oil particles from oil-in-water emulsion. International Journal of
Biological Macromolecules, v. 104, p. 1586–1595, 2017.
HE, X.; WANG, B.; ZHANG, Q. Phenols removal from water by precursor preparation for Mg–Al layered
double hydroxide: Isotherm, kinetic and mechanism. Materials Chemistry and Physics, v. 221, p. 108–117,
2019.
JANEGITZ, C. B. et al. Desenvolvimento de um Método Empregando Quitosana para Remoção de Íons
Metálicos de Águas Residuárias. Química Nova, São Carlos, v. 30, n. 4, p. 879-884, 2007.
KNIDRI, H. et al. Extraction, chemical modification and characterization of chitin and chitosan. International
Journal of Biological Macromolecules, v. 120, p. 1181–1189, 2016.
KUCUKGULMEZ, A. et al. Physicochemical characterization of chitosan extracted from Metapenaeus stebbingi
shells. Food Chemistry, v. 126, n. 3, p. 1144–1148, 2011.
KUMARI, S. et al. Physicochemical properties and characterization of chitosan synthesized from fish scales,
crab and shrimp shells. International Journal of Biological Macromolecules, v. 104, p. 1697–1705, 2017.
LIU, X.; ZHANG, L. Removal of phosphate anions using the modified chitosan beads: adsorption kinetic,
isotherm and mechanism studies. Powder Technology, v. 277, p. 112-119, 2015.
MATTEUS, F.A.G (ed.). –"Application of Chitin and Chitosan", Technomic Publishing AG, Switzerland
(1997).
MAIA, M. A. et al. Phosphate removal from industrial wastewaters using layered double hydroxides.
Environmental Technology (United Kingdom), p. 1–37, 2020.
MATHUR, N. K.; NARANG, C. K. Chitin and chitosan, versatile polysaccharides from marine animals.
Journal of Chemical Education, v. 67, n. 11, p. 938, 1990.
MOUSSOUT, H. et al. Kinetics and mechanism of the thermal degradation of biopolymers chitin and chitosan
using thermogravimetric analysis. Polymer Degradation and Stability, v. 130, p. 1–9, 2016.
OLIVEIRA, M. H. A. Cinética e equilíbrio de adsorção para armazenamento de gás natural em carvão
ativado. 2004. Dissertação (Programa de pós-graduação em engenharia química) - Universidade Federal de
Pernambuco, Recife - PE, 2004.
SAGHEER, F. A. A. et al. Extraction and characterization of chitin and chitosan from marine sources in Arabian
Gulf. Carbohydrate Polymers, v. 77, n. 2, p. 410–419, 2009.
SANTOS, J. E. et al. Caracterização de quitosanas comerciais de diferentes origens. Polímeros, v. 13, n. 4, p.
242–249, 2003.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1049
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SIGNINI, R.; CAMPANA FILHO, S. P. Características e propriedades de quitosanas 66 purificadas nas formas
neutra, acetato e cloridrato. Polímeros, v. 11, n. 2, p. 58–64, 2001.
SZYMCZYK, P. et al. Phosphate removal from aqueous solutions by chitin and chitosan in flakes. Progress on
Chemistry and Application of Chitin and its Derivatives, v. 21, n. 18, p. 192–202, 2016.
WANG, Y. et al. Crystalline structure and thermal property characterization of chitin from Antarctic krill
(Euphausia superba). Carbohydrate Polymers, v. 92, n. 1, p. 90–97, 2013.

APÊNDICE A

Abstract. In this work, a comparison was made of the performance of experimental


chitosan, synthesized in the laboratory from fishing residues, and commercial chitosan for the
removal of contaminating phosphate. Initially, both materials were characterized by X-ray
diffraction and thermogravimetric analysis. The adsorption tests were carried out at room
temperature, in which 1 g of commercial chitosan and 1 g of experimental chitosan were put
in contact with 500 mL of phosphate solutions in the initial concentrations of 427 mg/L and
439 mg/L, respectively. The results showed that the experimental chitosan showed a maximum
phosphate loading of 37.46 mg/g, which is equivalent to a 17.5% removal and that the
balance was reached in 50 minutes. For commercial chitosan, the balance was reached in 70
minutes with a loading of 38.87 mg/g and 17.68% removal. In addition, the pseudo-second
order model showed a better fit to the experimental data. From the results, it was verified that
both chitosans are similar, being possible the substitution of commercial chitosan for the
experimental one, coming from residues.

Keywords: Fishing residue, Kinetics, Effluents.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1050
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

UTILIZAÇÃO DE 10% DE PERÓXIDO DE HIDROGÊNIO (V/V) COMO OPÇÃO


DE TRATAMENTO DA ÁGUA RESIDUÁRIA DO CAFÉ BRUTA

Alcione Alves de Freitas1 – alcionedfreitas@gmail.com


Bruno Simas Maximiano2 – brunoosiimas@gmail.com
Patrícia Rodrigues Gonring3 – patriciagonring@gmail.com
Damaris Guimarães4 - guimaraes.damaris@yahoo.com.br
1, 2, 3, 4
Universidade Federal do Espírito Santo/Departamento de Engenharia Rural

Resumo - O Brasil é um dos países em destaque no cenário cafeeiro. O processamento dos


grãos se dá por duas formas: via úmida ou via seca. Dessas, cada vez mais a via úmida ganha
destaque, pois proporciona maior qualidade final aos grãos. Entretanto, por essa técnica é
gerado grande volume de resíduos líquidos e, o tratamento deste efluente se faz necessário
uma vez que, o descarte do mesmo sem tratamento gera danos ao meio ambiente. Neste
contexto, no presente trabalho foi realizado o tratamento da água residuária do café com
peróxido de hidrogênio 10% (v/v). Para a obtenção dos resultados, realizou-se ensaios nos
tempos de 2, 3 e 4 h, em seguida foi feita a análise dos parâmetros estudados. Observou-se
que a remoção dos compostos fenólicos aumentou gradualmente (26,40%, 30,43% e 47,31%
em 2, 3 e 4 h, respectivamente). A turbidez foi removida 26,12%, 35,56% e 37,01% em 2, 3 e
4 h, respectivamente. Os sólidos suspensos totais tiveram uma redução de 76,16%, 74,53% e
76,37% em 2, 3 e 4 h, respectivamente. O tratamento da ARC com o H2O2 para a eliminação
dos poluentes presentes no efluente se mostrou simples e eficaz, sendo possível em 2 horas
remover boa parte dos poluentes.
Palavras-chave: Tratamento de Efluente, Café, Oxidação Avançada, Remoção de Fenol.

1. INTRODUÇÃO

A indústria cafeeira é de extrema importância para o Brasil devido à sua


expressividade na economia nacional (Campos, Prado & Pereira, 2014). De acordo com a
Organização Internacional de Café (2020), na safra de 2017, a produção de sacas de café de
60 kg correspondeu a cerca de 1/3 da produção mundial.
Para a obtenção do café processado, pronto para ser ensacado, há de se escolher entre duas
vias: por via seca, secando-se os grãos integralmente ou por via úmida, na qual os grãos são
descascados e despolpados (Bruno & Oliveira, 2008). No país, apesar do método de secagem
por via seca ser o mais utilizado, representando cerca de 90% da produção nacional (Leite &
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1051
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Silva, 2000), tem-se notado o aumento de propriedades que optam pela despolpa e
desmucilagem dos grãos, pois, com isso, nota-se um aumento da qualidade dos grãos quando
esses vão para o mercado (Bruno & Oliveira, 2008).
Porém, a atividade de lavagem e despolpa dos frutos, realizada quando se opta pela via
úmida, é responsável por gerar grandes volumes de resíduo líquido, que devido à elevada
concentração de matéria orgânica e inorgânica, se disposto em locais impróprios pode causar
danos à fauna e à flora locais (Mato & Lo Mônaco, 2006). Com isso, surge a necessidade de
implementação de sistemas de gestão de resíduos com baixo custo de operação e manipulação
para se tratar tal resíduo (Mato & Lo Mônaco, 2003).
O efluente gerado nesse processo é conhecido como água residuária do café (ARC), o qual
é caracterizado pela sua alta acidez (Haddis, Addis & Devi, 2008) devido à alta concentração
de compostos fenólicos e, em particular, de ácidos clorogênicos (Barcelos et al., 2001), que
causam a alta toxicidade. Alguns estudos ainda afirmam que a concentração de fenóis totais
presentes na ARC varia de 80 a 90 mg L-1 (Bruno & Oliveira, 2008), podendo chegar ao valor
de 300 mg L-1 (Matos, Eustáquio Júnior & Matos, 2015). Como elevadas concentrações de tal
poluente estão associadas a diversos impactos ambientais, o Conselho Nacional de Meio
Ambiente (Brasil, 2011) estabelece um limite para lançamento em corpos d’água de 0,5 mg L -
1
. Isso implica aos produtores a necessidade de se tratar tal efluente. O2, O3
Há vários métodos de tratamento de efluentes na remoção de fenol, dentre eles destaca-se o
processo de oxidação avançada promovido por agentes oxidantes, como o peróxido de
hidrogênio (H2O2), o oxigênio, o ozônio, dentre outros. A técnica que se mostra mais eficaz e
econômica entre essas descritas é a utilização de peróxido de hidrogênio, devido ao seu baixo
consumo de energia em comparação aos demais e por promover a degradação de uma série de
poluentes orgânicos além do fenol, podendo atingir as condições ambientais estabelecidas por
lei (Britto & Rangel, 2008).
Desse modo, o presente trabalho objetivou tratar a ARC utilizando 10% (v/v) de peróxido
de hidrogênio como agente oxidante para a eliminação dos principais poluentes presentes, em
especial o fenol, visto que a quantidade deles contida na ARC excede a concentração máxima
prevista nas resoluções do CONAMA 357/2005 e 430/2011 (Brasil, 2005 & 2011) para o
despejo em corpos hídricos.

2. METODOLOGIA

Os experimentos realizados neste trabalho foram executados nos laboratórios de


Engenharia Química da Universidade Federal do Espírito Santo (UFES), no campus de
Alegre, Espírito Santo, Brasil. A ARC utilizada foi coletada no município de Ibatiba - ES, a
qual provém de uma unidade de processamento (UP) de grãos de café da espécie Arábica
(Coffea arabica), colhidos na safra de 2019 e que passaram pelos processos de lavagem,
descascamento e desmucilagem.
Na Tabela 1, estão representados os padrões realizados para analisar as variáveis do
efluente estudado. O pHmetro e o turbidímetro foram devidamente calibrados com seus
respectivos padrões antes de realizar-se as análises. Todas as análises foram realizadas em
triplicata.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1052
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 - Variáveis analisadas e método utilizado para detecção, forma de preservação, prazo
para análise e volume mínimo a ser coletado segundo a NBR 9898.
Equipamentos e Prazo para Volume
Parâmetro Preservação
Métodos análise mínimo
Açúcares Espectrofotômetro
Refrigeração a 4°C 24 horas 200 mL
redutores UV-Vis - DNS
Espectrofotômetro H3PO4 1:0 até pH <
Compostos
UV-Vis – Método de 2 e refrigeração a 24 horas 1000 mL
fenólicos
Folin-Ciocalteau 4°C

pH pHmetro Refrigeração a 4°C 6 horas 200 mL

Refrigeração e
Turbidez Turbidímetro armazenamento ao 24 horas 200 mL
abrigo da luz
SST Gravimétrico Refrigeração a 4ºC 7 dias 1000 mL
Condutividade Condutivímetro de
Refrigeração a 4ºC 28 dias 500 mL
elétrica eletrodo
Fonte: NBR 9898, adaptado pelos autores.

Nos experimentos realizados, utilizou-se uma concentração de 9,7 mol L-1 de peróxido de
hidrogênio para o tratamento da água residuária do café (ARC) nos períodos de 2, 3 e 4 h. Em
cada erlenmeyer usado para os experimentos, foram três ao todo, foi adicionada uma
quantidade de peróxido de hidrogênio correspondente a 10% do volume resultante da mistura
com a ARC. Os erlenmeyers foram dispostos em um agitador SHAKER SL 222 da marca
SOLAB e no tempo de 2 h foi retirado o primeiro erlenmeyer para a análise dos parâmetros
estudados. O segundo e o terceiro erlenmeyers foram retirados, respectivamente, no tempo de
3 e 4 h.

3. RESULTADOS E DISCUSSÃO

Na Tabela 2, estão representados os resultados da caracterização da água residuária do


café (ARC) utilizada experimentalmente no presente trabalho. Já a Tabela 3, mostra a
eficiência de remoção (em %) dos poluentes presentes na água residuária do café e a variação
da condutividade elétrica (CE) e pH utilizando 10% de peróxido de hidrogênio (H2O2) para o
tratamento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1053
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 - Valores médios referentes à caracterização da água residuária do café (ARC) sem
tratamento com o peróxido de hidrogênio (H2O2) utilizada no estudo.
Parâmetro Unidade Valor Médio
Açúcares redutores (AR) mg L-1 2.440,31 ± 88,42
-1
Compostos fenólicos (CF) mg L 1.462,19 ± 9,29
pH - 4,19 ± 0,08
Turbidez NTU 11.483,33 ± 211,11
Sólidos totais dissolvidos (SST) mg L-1 26.396 ± 268
Condutividade elétrica (CE) mS cm-1 4,686 ± 0,022
Fonte: os autores.

Tabela 3 - Eficiência de remoção (em %) dos poluentes presentes na água residuária do café e
a variação da condutividade elétrica e pH utilizando 10% de peróxido de hidrogênio (H 2O2)
para o tratamento.
Tempo de
Eficiência de remoção (%) Variação Média
reação
Hora AR CF Turbidez SST pH CE (mS cm-1)
2 96,87 26,40 26,12 76,16 -0,30 -1,55
3 95,72 30,43 35,56 74,53 -0,40 -1,59
4 94,50 47,31 37,01 76,37 -0,82 -1,55
Fonte: os autores.

Nas Figuras 1 e 2 estão representadas a água residuária do café com 10% de peróxido de
hidrogênio antes e depois da reação, respectivamente.

Figura 1 - ARC antes da reação com 10% de peróxido de hidrogênio.

Fonte: os autores.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1054
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Água residuária do café com 10% de peróxido de hidrogênio depois da reação (da
esquerda para a direita: 2, 3 e 4 h, respectivamente).

Fonte: os autores.

Analisando a Tabela 3, observa-se nas Figuras 1 e 2, que ao longo do tempo houve uma
nítida alteração da coloração do efluente, mostrando que ocorreu uma reação entre o peróxido
de hidrogênio e o efluente.
Observou-se que a remoção dos compostos fenólicos ocorreu de forma crescente,
aumentando gradualmente de 26,40% no tempo de 2 h, 30,43% no tempo de 3 h, sendo maior
na última hora de reação, 47,31%. De acordo com Britto e Rangel (2008), a oxidação de fenol
é a etapa determinante da velocidade da reação, notando-se também, que os intermediários
gerados no processo se degradam mais rapidamente que o fenol.
Quanto à turbidez, na Tabela 3, nota-se que nas duas primeiras horas ocorreu uma pequena
remoção, sendo ela igual a 26,12% e, nas últimas horas houve uma remoção maior de
turbidez, 35,56% em 3 h e 37,01% em 4 h. Resultados semelhantes foram observados por
Nagel-Hassemer et al. (2012), os quais também relataram um decréscimo da mesma ao longo
do tempo empregando H2O2 junto à radiação UV como pós tratamento. É importante destacar
que diferença de turbidez em relação ao efluente bruto, observada no presente estudo,
provavelmente se deve ao fato de o peróxido de hidrogênio consumir os sólidos suspensos
que são constituídos basicamente de compostos orgânicos. A diminuição na variação de
remoção de turbidez nos tempos de 3 e 4 h pode ser um indicativo de que a reação entre o
peróxido de hidrogênio e os sólidos suspensos estava se encaminhando à sua máxima.
Em relação aos açúcares redutores na ARC, observou-se que a maior eliminação ocorreu
nas duas primeiras horas, 96,87%, enquanto que nos tempos 3 e 4 h a remoção foi de 95,72%
e 94,50%, respectivamente (Tabela 3). Com isso, foi possível estimar que o efluente não terá
grande produção de alcalinidade, como mostrado nos valores de pH, pois, de acordo com
Chernicharo (2007), a degradação de carboidratos não gera alcalinidade por não produzirem
cátions como produto final, assim, provavelmente não haveria tamponamento durante o
processo de biodegradação.
O pH do meio reduziu pouco, sendo que em 2 h de reação houve uma redução de 0,30;
0,40 no tempo igual a 3 h e 0,82 em 4 h, fazendo com que o efluente se tornasse mais ácido
do que já era inicialmente devido ao fato de que o peróxido de hidrogênio tem o seu valor de
pH entre 1 e 3,5. Tal característica final do efluente faz com que o mesmo tenha que ter seu
pH corrigido antes de ser descartado nos corpos hídricos (BRASIL, 2005).
Em relação aos açúcares redutores na ARC, observa-se pela Tabela 3 que a maior
eliminação ocorreu nas duas primeiras horas, 96,87%, enquanto que nos tempos de 3 e 4 h, a
remoção foi de 95,72% e 94,50%, respectivamente. Foi possível estimar que o efluente não
terá grande produção de alcalinidade, pois, de acordo com Chernicharo (2007), a degradação
de carboidratos e álcoois não geram alcalinidade por não produzirem cátions como produto
final, assim, provavelmente não haveria tamponamento durante o processo de biodegradação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1055
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Comparando os dados de condutividade elétrica (Tabelas 2 e 3), observa-se que essa


variável diminui em relação ao efluente bruto, não havendo muita variância entre os 3 tempos
de reação, decaindo em 1,55 mS cm-1 nos tempos de 2 e 4 h de reação e 1,59 mS cm-1 no
tempo de 3 h. De acordo com Campos (2000) e Botelho (1999), dentre os parâmetros da
qualidade da água para a utilização em irrigação, têm-se três graus de restrição para o uso da
água, em função da condutividade elétrica (CE), dos sólidos totais dissolvidos (STD) e da
salinidade:
- Classe de salinidade C1, com nenhum grau de restrição ao uso, com CE<0,7 dS.m -1 e
STD < 450 mg.L-1 ;
- Classe de salinidade C2: grau de restrição de leve a moderado, com CE de 0,7 a 3,0 dS.m-
1
e STD de 450 a 2.000 mg.L-1;
- Classe de salinidade C3: grau de restrição severo, com CE>3,0 dS.m-1 e
STD>2.000 mg.L-1.
Observando na Tabela 3 os valores médios de CE nos tempos de 2, 3 e 4 h,
respectivamente de 3,37; 3,14 e 3,10 mS cm-1 e os valores de sólidos totais nos 3 tempos se
encontram acima de 6000 mg.L-1 indicando que a ARC se encontra como grau de restrição
severo, na classe de salinidade C3.
Em relação aos Sólidos Suspensos Totais, pela Tabela 3, percebe-se que a menor
porcentagem de remoção ocorreu no tempo de 3 horas, 74,53%, enquanto que o maior
decaimento está evidenciado no tempo de 4 horas, 76,37%. Nota-se que não há muita
diferenciação entre os tempos de 4 e 2 h (76,16%), indicando que com a concentração
escolhida de peróxido de hidrogênio se mostra eficiente para a remoção de tal poluente. Em
seu trabalho, Nagel-Hassemer et al. (2012) também relatam uma redução dos sólidos
presentes em seu efluente com o tratamento combinado entre UV/H2O2.

4. CONCLUSÕES

O tratamento da ARC com peróxido de hidrogênio para a eliminação de poluentes


presentes no efluente se mostrou rápida, simples e eficaz, principalmente, com relação aos
açúcares redutores e os sólidos suspensos totais, podendo observar que em 2 horas é possível
remover boa parte desses parâmetros. Porém, no caso dos compostos fenólicos, principal foco
no presente trabalho, a maior eficiência de remoção foi observada após as 4 horas de ensaio,
sendo necessário, portanto, um tempo superior a este para obter melhores resultados.
A fim de se elevar os índices de remoção alcançados no presente trabalho para os
parâmetros estudados, sugere-se que em trabalhos futuros seja testada concentrações maiores
de peróxido de hidrogênio, processos de pré-tratamento do efluente para remoção dos sólidos
suspensos, além de uma combinação de radiação Ultravioleta e peróxido de hidrogênio
(UV/H2O2) para que sejam alcançados índices mais altos de remoção dos compostos
fenólicos.
Quanto ao pH do efluente tratado, o fato deste ter ficado bem baixo faz com que o efluente
não possa ser descartado nos corpos hídricos, ocorrendo o mesmo devido à condutividade
elétrica e sólidos totais, apesar da diminuição dos parâmetros. Com isso, é necessário que a
ARC passe por uma etapa de pós-tratamento para ser neutralizado para se enquadrar às
normas ambientais atuais. No entanto, ela poderia ser usada como fertilizante e/ou como água
de reuso. Os valores consideráveis de açúcares redutores indicam, também, a possibilidade de
produção de biogás.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1056
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS

Barcelos, A. F., Paiva, P. C. A., Pérez, J. R. O., Santos, V. B., Cardoso, R. M (2001), Fatores Antinutricionais da
Casca e da Polpa Desidratada de Café (Coffea arabica L.) Armazenadas em Diferentes Períodos. Revista
Brasileira de Zootecnia, v. 30, n. 4.
Botelho, C. G (1999), Qualidade da água para irrigação. Lavras: UFLA/FAEPE, p. 96.
Brasil. Ministério do Meio Ambiente (2005). Conselho Nacional de Meio Ambiente. Resolução no 357, de 17 de
março de 2005.
Brasil. Ministério do Meio Ambiente. Conselho Nacional de Meio Ambiente. Resolução nº 430, de 13 de maio
de 2011.
Britto, J. M., Rangel, M. C (2008), Processos avançados de oxidação de compostos fenólicos em efluentes
industriais. Revista Química Nova, São Paulo, v. 31, n. 1.
Bruno, M., Oliveira, R. A. de (2008), Tratamento anaeróbio de águas residuárias do beneficiamento de café por
via úmida em reatores UASB em dois estágios. Revista Engenharia Agrícola, Jaboticabal, v. 28, n. 2, p. 364-
377.
Campos, C. M. M (2000), Qualidade da água para irrigação. Lavras: UFLA/FAEPE, p. 113.
Campos, C. M. M., Prado, M. A. C., Pereira, E. L (2014), Kinetic parameters of biomass growth in a UASB
reactor treating wastewater from coffee wet processing (WCWP). Revista Ambiente & Água, v. 9, n. 4, p.
577-592.
Chernicharo, C. A. L (2007), Reatores anaeróbios: princípios do tratamento biológico de águas residuárias. Belo
Horizonte: Politécnica, p. 379.
Haddis, A., Devi, R (2008), Effect of effluent generated from coffee processing plant on the water bodies and
human health in its vicinity. Journal of Hazardous Materials, v. 158, p. 259-262.
International Coffee Organization. Exporting countries: total production: crop years commencing.
Leite, C. A. M., Silva, O. M. da (2000), Demanda de cafés especiais. In: ZAMBOLIM, L. Café: produtividade,
qualidade e sustentabilidade. Imprensa Universitária, UFV, Viçosa, p. 50-74.
Matos, A. T., Eustáquio Júnior, V. Matos, M. P (2105), Eficiência de aeração e consumo de oxigênio no
tratamento de água residuária do processamento dos frutos do cafeeiro em sistema de aeração em cascata.
Engenharia Agrícola, Jaboticabal, v. 35, n. 5, p. 941-950.
Matos, A. T., Lo Mônaco, P. A (2003), Tratamento e aproveitamento agrícola de resíduos sólidos e líquidos da
lavagem e despolpa dos frutos do cafeeiro. Viçosa, n. 7, p. 68.
Matos, A. T., Magalhães, M. A., Fukunaga, D. C (2006), Remoção de sólidos em suspensão na água residuária
da despolpa de frutos do cafeeiro em filtros constituídos por pergaminho de grãos de café submetido a
compressões. Engenharia Agrícola, v. 26, n. 2.
Nagel-Hassemer. E., Coral, L. A., Lapolli, F. R., Amorim, M. T. S. P (2012), Processo UV/H2O2 como pós-
tratamento para remoção de cor e polimento final em efluentes têxteis. Revista Química Nova, v. 35, p. 900-
904.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1057
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

MODELAGEM MATEMÁTICA COMPUTACIONAL PARA A REPRESENTAÇÃO 3D


DO CRESCIMENTO DO FRUTO DE TOMATE

Maiara Andressa Streda1 - maiara.streda@sou.unijui.edu.br


Manuel Osório Binelo2 - manuel.binelo@unijui.edu.br
José Antonio Gonzalez da Silva3 - jose.gonzales@unijui.edu.br
1 Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Brasil
2 Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Brasil
3 Universidade Regional do Noroeste do Estado do Rio Grande do Sul, Brasil

Resumo.
A aparência dos alimentos tem grande impacto no seu consumo e valor econômico. Sendo
assim, é importante que frutas e verduras, quando expostas nas fruteiras, chamem a atenção
do consumidor. Neste sentido, este trabalho busca modelar o crescimento de frutos de tomate a
fim de criar um modelo paramétrico tridimensional que melhor represente este crescimento. O
texto que segue consiste em um estudo de revisão sobre temas fundamentais que se relacionam
ao conteúdo proposto neste trabalho, além destes, é exposto também o andamento da pesquisa
até o momento.

Keywords: Tomate, Modelagem Matemática, Superfı́cies Implı́citas

1. INTRODUÇÃO

Quando expostos nas fruteiras, os alimentos precisam chamar a atenção aos olhos do
consumidor para que este queira levá-los para casa. Tratando-se de tomates não é diferente,
os frutos precisam estar visivelmente saudáveis, ter a pele lisa, poucas manchas, e sem dúvidas,
o tamanho também é importante na hora de escolher os frutos, uma vez que um fruto de tamanho
considerado normal indica que este teve um desenvolvimento saudável.
Nesse contexto, a produção de tomates de qualidade é de extrema importância, pois além
de beneficiar os consumidores, que estão no fim da cadeia de consumo, também traz benefı́cios
econômicos ao produtor, que, por sua vez, trabalha e investe na produção esperando o melhor
retorno possı́vel (FOOLAD, 2007). É fato conhecido que quanto maior a qualidade dos frutos
do tomate, maior será a renda do produtor.
A análise dos aspectos morfológicos do fruto, tais como tamanho e forma, em seus
diferentes estágios de desenvolvimento, é fundamental para atingir a excelência na produção

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1058
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e atender as expectativas do mercado consumidor (BERGOUGNOUX, 2014). A possibilidade


de o produtor poder comparar o tomate, em qualquer fase de desenvolvimento, com modelos
tridimensionais, preferencialmente fı́sicos, consiste em uma ferramenta útil para a análise da
qualidade dos frutos sendo desenvolvidos.
Por esse viés, estudos que analisem o crescimento dos frutos mostram-se relevantes, uma
vez que os mesmos têm efluência na qualidade final do produto, beneficiando o consumidor e
também o produtor. Embora a geração de imagens digitais possa auxiliar o produtor, a criação
de modelos tridimensionais concretos por meio de impressoras 3D, permite uma percepção
superior das caracterı́sticas morfológicas do fruto. Esse artigo está inserido no contexto de uma
dissertação na qual serão obtidos dados experimentais de frutos de tomate em diferentes estágios
de desenvolvimento, com o objetivo de desenvolver um modelo paramétrico que represente
o crescimento dos frutos, para tal, serão utilizadas técnicas de fotogrametria, modelagem de
superfı́cies implı́citas e também a impressão tridimensional.
Desse modo, nas próximas seções desse trabalho, é apresentado um panorama do referencial
teórico abordando conceitos sobre o tomate, suas caracterı́sticas morfológicas e importância
econômica, uma seção com explicações sobre o escâner por imagem, e outra com informações
referentes à impressão 3D. Na sequência são explanados conceitos de modelagem paramétrica e
algumas técnicas de superfı́cies implı́citas. Também são abordados trabalhos de outros autores
que tem relação o problema de pesquisa, e por fim é exposto o desenvolvimento do trabalho até
o momento.

2. REFERENCIAL TEÓRICO

2.1 O Tomate

A produção mundial de tomate aumentou significativamente nos últimos anos devido ao


crescimento da população mundial, o que, consequentemente, resultou no aumento da demanda
entre os consumidores (KHAN et al., 2017). Esse aumento está relacionado diretamente à
conscientização das pessoas por uma alimentação mais saudável, à industrialização em larga
escala, ao aumento da demanda de alimentos preparados nas diversas formas, principalmente,
às refeições fora do domicı́lio e a consolidação de redes de fast food, que utilizam essa hortaliça
nas formas processada e fresca (KHAN et al., 2017).
A cultura do tomate é de grande expressão econômica no cenário nacional e internacional.
Segundo dados da Organização das Nações Unidas para Agricultura e Alimentação (FAO,
2020), a produção mundial de tomates em 2018 ultrapassou 182,2 milhões de toneladas, um
aumento de 33,7 % em comparação com o ano de 2008 na qual a produção alcançou 136,2
milhões de toneladas. Atualmente o continente asiático domina a produção mundial com mais
de 61 % da produção. No ano de 2018, a participação do Brasil na produção mundial foi pouco
mais de 2,25 %, com a produção passando de 4,11 milhões de toneladas e rendimento médio de
71,9 toneladas por hectare (IBGE, 2020). Isso fez com que o Brasil ocupa-se a 10o posição no
ranking mundial.

2.2 Escaneamento Tridimensional e Fotogrametria

O escaneamento tridimensional, na literatura, é citado também como Engenharia Reversa


(RE, do inglês Reverse Engineering). O objetivo da RE é gerar um modelo CAD a partir

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1059
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de dados medidos de um modelo fı́sico como uma réplica do original (YE et al., 2008).
Os escâneres 3D vem se mostrando muito úteis em aplicações que exigem medições e
visualizações em escala tridimensional de objetos estacionários, outrossim, a engenharia reversa
é amplamente aplicada a áreas como design de produtos industriais, automotivos, petrolı́fera,
aeroespacial, além de produtos de consumo simples, saúde, geração de energia, design de
brinquedos, e também em pesquisa e educação (YE et al., 2008)
De modo geral, os Scanners 3D coletam grandes quantidades de dados tridimensionais a
partir da superfı́cie de um objeto, na forma de uma nuvem de pontos ou malha poligonal
(LINDER, 2009). Atualmente, existem vários tipos de escâneres, e cada um deles apresenta
vantagens e desvantagens sobre os demais. A fotogrametria pode ser definida como a “ciência
da medição em fotos”, uma vez que esta ciência possibilita a geração de modelos 3D a partir
de imagens bidimensionais (2D), geralmente fotografias (LINDER, 2009). É a arte, ciência e
tecnologia capaz de, a partir da interpretação de fotografias, fazer medições 3D, além de obter
volumes e informações verdadeiramente confiáveis.
A técnica da fotogrametria se sobressai aos outros métodos de escaneamento 3D (LINDER,
2009). Um dos motivos para tal é o tempo relativamente curto necessário para a aquisição
dos dados. Além disso, essa técnica também é capaz de capturar a cor e a textura dos objetos
de forma única, permitindo que pontos da malha possam ser observados minuciosamente. Os
fatores de baixo custo, acessibilidade e facilidade que se tem ao capturar, armazenar e manipular
as imagens estão preparando as bases para uma ampla adoção desta tecnologia (EVIN et al.,
2016).

2.3 A Manufatura Aditiva e a Tecnologia FDM

A Manufatura Aditiva (AM, do inglês Additive Manufacturing) é uma abordagem digital


promissora para o paradigma industrial moderno que ganhou amplo interesse em todo o mundo
ao fabricar objetos camada por camada a partir de modelos tridimensionais de desenho auxiliado
por computador (3D) (QI et al., 2019). A AM oferece vários benefı́cios: cria produtos
com formas complexas, como estruturas topologicamente otimizadas, difı́ceis de fabricar com
fundição ou processos tradicionais; pode ser usado para gerar novas caracterı́sticas de materiais,
como redes de deslocamento, que são muito atraentes para pesquisadores acadêmicos; e reduz
o desperdı́cio de material e, portanto, economiza em custos para a indústria (QI et al., 2019).
Entre as categorias dos processos de fabricação dentro da AM, destaca-se a Modelagem de
Deposição Fundida (FDM). Atualmente, esta é a técnica mais utilizada entre as impressoras,
especialmente as domésticas. É adequada para produzir peças com geometrias complexas,
possui baixo custo de manutenção, baixo custo de fabricação e é de fácil operação, além de
ser capaz de altas velocidades de impressão em comparação com outras técnicas de impressão
3D (BEKAS et al., 2019).
O princı́pio básico desse processo de fabricação é gerar um modelo em um sistema
de design computacional em três dimensões (CAD) e fabricá-lo sem a necessidade de um
planejamento do processo, ou seja, criar protótipos fı́sicos diretamente a partir de dados digitais
(WIMPENNY; PANDEY; KUMAR, 2017). A fabricação de peças usando esse processo,
consiste no derretimento de um filamento termoplástico, que em seguida, é extrudado através de
um bico aquecido em um padrão prescrito para uma plataforma. Na medida em que o material
é depositado, ele esfria, solidifica e se liga ao material adjacente. Quando uma camada inteira é
depositada, a placa de base se move para baixo em um incremento igual à espessura do filamento

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1060
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e a próxima camada é depositada, crindo uma camada bidimensional em cima de outra; o ciclo
é repetido até que o modelo completo seja construı́do (DIZON et al., 2018).

2.4 Modelagem Paramétrica (MP)

A modelagem paramétrica é a forma de modelagem mais frequentemente usada, ela consiste


em um processo de modelagem que tem a capacidade de alterar toda a forma da geometria do
modelo apenas modificado o valor de algum parâmetro (FU, 2018). Usualmente a MP constitui-
se de funções que trabalham com variáveis de entrada e de saı́da, entre as quais é possı́vel
estabelecer alguma relação funcional, a qual pode ser explorada para prever valores do futuros,
com base em medições obtidas das respectivas variáveis de entrada (THEODORIDIS, 2015).
Na modelagem paramétrica, essa relação funcional é definida por meio de um conjunto de
parâmetros desconhecidos, cujo número é fixo.
Os modelos paramétricos são baseados inicialmente por um vetor de parâmetros a, e
consequentemente, a partir de observações da entrada e saı́da do processo a ser modelado,
obtém-se então os parâmetros do modelo que melhor descrevem o processo (OGATA, 2004)
apud (BEERBAUM et al., 2016). Em termos resumidos, modelos paramétricos são modelos
que possuem um número finito de parâmetros.
As superfı́cies implı́citas têm recebido maior atenção na criação (design) e na animação de
objetos 3D, pois apresentam vantagens úteis sobre as superfı́cies paramétricas tradicionais. As
superfı́cies implicitamente definidas possuem alguns atributos únicos e úteis para modelagem,
como propriedades de mesclagem e restrição (SHEN; THALMANN, 1995). São exemplos de
subconjuntos de superfı́cies implı́citas: Splines, Cilindros Generalizados e Metaballs.
As funções Splines são usadas para aproximar uma função ou interpolar dados, de fato, a
simplicidade de suas expressões facilita sua implementação. Uma Spline é uma curva definida
matematicamente por dois ou mais pontos de controle. Os pontos de controle que ficam na
curva são chamados de nós, e os demais pontos definem a tangente à curva em seus respectivos
nós (AVERBUCH; NEITTAANMÄKI; ZHELUDEV, 2014).
Um Cilindro Generalizado (CG) é um objeto 3D definido a partir do movimento de
um contorno 2D ao longo de uma trajetória 3D. Isto é, uma curva da coluna vertebral e
uma sequência de curvas de contorno (LEE, 2005). A forma da superfı́cie de um cilindro
generalizado é determinada pela deformação e o movimento espacial de uma curva transversal.
As texturas de reação e diâmetros de reação são mapeadas nas superfı́cies dos CGs para dar a
aparência adequada, por sua vez, a visualização é feita por traçado de raios, e isto resulta em
imagens muito realistas (LEE, 2005).
As Metaballs são formas de gráficos de computador que têm uma aparência orgânica
e macia, são apresentados como nuvens de pontos ou superfı́cies geralmente implı́citas
(RILLING; MUDUR, 2002). Uma Metaball é definida a partir de um dado ponto central em
um campo de densidade variável tridimensional. O valor do campo pode variar linearmente
com a distância do centro ou de qualquer outra maneira expressável por meio de uma fórmula
matemática. Pode-se considerar que cada Metaball é uma partı́cula que tem determinada energia
(força) e influência sobre as partı́culas circundantes e vizinhas (RILLING; MUDUR, 2002).

2.5 Trabalhos Relacionados

Buscando mapear a produção acadêmica relacionada à área de pesquisa deste trabalho,


foram encontradas produções de assunto parcialmente relacionados, alguns podem ser

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1061
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

associados com o assunto sobre tomate, outros com a técnica de fotogrametria, e outros ainda
com a modelagem paramétrica.
Pesquisadores como Rupanagudi et al. (2014), apresentam uma metodologia para
realizar inspeções de classificação de maturação do tomate, de maneira econômica com uma
configuração simples, a qual utiliza técnicas de processamento de imagem, tendo em mente
uma solução mais rápida e menos complicada, a fim de reduzir o tempo necessário para obter
resultados. Já os autores Fukui et al. (2017) desenvolveram um método de processamento
de imagem completo para determinar o volume de frutos de tomate usando uma câmera de
profundidade e uma câmera colorida.
Os autores Verhulst et al. (2017) apresentam em sua produção uma abordagem
personalizável para gerar frutas e vegetais (FaVs) visualmente realistas com variabilidade
de forma e aspecto. Para isso os autores seguiram uma abordagem usando uma estrutura
esquelética, Splines, cilindros generalizados e Metaballs.

3. MATERIAIS E MÉTODOS

Como o objetivo deste trabalho consiste em acompanhar o desenvolvimento do fruto de


tomate, e a partir disto desenvolver um modelo paramétrico para a impressão 3D, serão
coletados dados dos frutos por meio de medições e registros por imagens.
O experimento contará com um total de trinta plantas de tomate, das quais serão escolhidos
de forma aleatória dez plantas e em cada planta serão identificados quatro frutos. Os frutos
serão monitorados diariamente, desde o momento que saı́rem da flor, até estarem no ponto de
maduro. O desenvolvimento dos frutos será registrado por meio de fotografias digitais e também
será utilizado um paquı́metro para obter as dimensões dos frutos. Atualmente o experimento
encontra-se na fase inicial, as mudas, de 35 dias, foram transplantadas no dia 17 de setembro de
2020 e estão sendo monitoradas, aguardado o inicio da floração.
Os dados obtidos serão trabalhados usando a técnica da fotogrametria por software a ser
definido, para criar um modelo virtual do desenvolvimento do tomate. Na etapa atual do
trabalho foi utilizado processamento digital de imagem, utilizando a biblioteca imageio do
P ython para isolar o tomate do restante da imagem e obter os pontos do seu contorno, como
mostrado na Figura 1.

Figura 1- Fotografia com processamento digital de imagem.

A técnica para a criação do modelo virtual 3D, contará com uma estrutura esquelética
usando Splines, cilindros generalizados e Metaballs. Dado que as Splines permitem a
modelagem de uma grande variedade de formas e geometrias, por sua vez os cilindros
generalizados então varrem a estrutura esquelética criada pelas Splines para dar a forma geral

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1062
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e finalmente Metaballs serão usados para obter uma aparência de forma orgânica. O modelo
3D será então convertido para o formato STL (uma abreviatura de estereolitografia, do inglês
stereolithography) para ser impresso em uma impressora 3D. Os resultados obtidos após a
impressão do modelo serão relacionados com o modelo virtual e os dados das dimensões
originais do fruto, buscando-se a validação, através da correta calibração dos parâmetros do
modelo.
Atualmente, estão sendo trabalhados os programas utilizando linguagem Python, para
criação de modelos genéricos aos quais serão adicionados futuramente os dados obtidos no
experimento. Resultados iniciais parciais podem ser observados na Figura 2.

Figura 2- Modelo tridimensional do tomate.

Na Figura 2 pode ser observado o modelo gerado a partir da interpolação de pontos médios
extraı́dos de forma manual de um tomate. O programa cria espécies de pontes entre os pontos
gerando uma malha de triângulos. Destaca-se que o modelo ainda é preliminar, baseado em
um tomate já maduro. A partir dos dados obtidos experimentalmente, será possı́vel construir o
modelo paramétrico completo do desenvolvimento do tomate.

4. CONCLUSÕES

É notória a presença de elementos da natureza em grande parte das pesquisas que envolvem,
de alguma forma, a computação gráfica. Muito tem se estudado para manter o realismo
virtual destes elementos, mas devido à complexidade geométrica que estes podem apresentar,
modelá-los geometricamente ainda é um grande desafio, e o processo que o envolve não é
nada simples (HASANUDDIN et al., 2015). Muitos estudos têm sido desenvolvidos com
o objetivo de melhorar a genética dos frutos produzidos, além de aspectos morfológicos,
como tamanho, forma e cor dos frutos visando aliar quantidade e qualidade. Há pesquisas
relacionadas ao crescimento das plantas de tomate, e outras sobre o desenvolvimento dos
frutos, mas trabalhos que aliam o crescimento de frutos de tomate à técnicas de escaneamento,
modelagem paramétrica e impressão 3D ainda são escassos na literatura.
os resultados preliminares mostram que é viável a utilização de processamento digital de
imagem e modelagem 3D paramétrica para a construção do modelo tridimensional do tomate.
A partir dos resultados experimentais que serão obtidos será possı́vel construir o modelo
paramétrico completo do desenvolvimento do tomate.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1063
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal


de Nı́vel Superior – Brasil (CAPES).

Referências

AVERBUCH, A. Z.; NEITTAANMÄKI, P.; ZHELUDEV, V. A. Spline and spline wavelet methods with
applications to signal and image processing. [S.l.]: Springer, 2014.
BEERBAUM, A. V. et al. Estudo teórico da construção de modelos matemáticos autorregressivos e
comparação com modelos analı́ticos para a predição do tempo de vida de baterias que alimentam
dispositivos móveis. 2016.
BEKAS, D. et al. 3d printing to enable multifunctionality in polymer-based composites: A review.
Composites Part B: Engineering, Elsevier, p. 107540, 2019.
BERGOUGNOUX, V. The history of tomato: from domestication to biopharming. Biotechnology
advances, Elsevier, v. 32, n. 1, p. 170–189, 2014.
DIZON, J. R. C. et al. Mechanical characterization of 3d-printed polymers. Additive Manufacturing,
Elsevier, v. 20, p. 44–67, 2018.
EVIN, A. et al. The use of close-range photogrammetry in zooarchaeology: Creating accurate 3d models
of wolf crania to study dog domestication. Journal of Archaeological Science: Reports, Elsevier, v. 9,
p. 87–93, 2016.
FAO. Organização das Nações Unidas para Agricultura e Alimentação. 2020. Disponı́vel em:
http://www.fao.org/faostat.
FOOLAD, M. R. Genome mapping and molecular breeding of tomato. International Journal of Plant
Genomics, Hindawi, v. 2007, 2007.
FU, F. Design and analysis of tall and complex structures. [S.l.]: Butterworth-Heinemann, 2018.
FUKUI, R. et al. Growth measurement of tomato fruit based on whole image processing. In: IEEE. IEEE
International Conference on Robotics and Automation (ICRA). [S.l.], 2017. p. 153–158.
HASANUDDIN, M. O. et al. 3d scanner for orthodontic using triangulation method. In: IEEE.
International Conference on Electrical Engineering and Informatics (ICEEI). [S.l.], 2015. p.
360–364.
IBGE. Instituto Brasileiro de Geografia e Estatistica. 2020. Disponı́vel em: https://sidra.ibge.gov.br.
KHAN, M. A. et al. Morphological and physico-biochemical characterization of various tomato cultivars
in a simplified soilless media. Annals of Agricultural Sciences, Elsevier, v. 62, n. 2, p. 139–143, 2017.
LEE, J.-H. Modeling generalized cylinders using direction map representation. Computer-Aided Design,
Elsevier, v. 37, n. 8, p. 837–846, 2005.
LINDER, W. Digital photogrammetry. [S.l.]: Springer, 2009.
QI, X. et al. Applying neural-network-based machine learning to additive manufacturing: Current
applications, challenges, and future perspectives. Engineering, Elsevier, 2019.
RILLING, J.; MUDUR, S. P. On the use of metaballs to visually map source code structures and
analysis results onto 3d space. In: IEEE. Ninth Working Conference on Reverse Engineering, 2002.
p. 299–308.
RUPANAGUDI, S. R. et al. A cost effective tomato maturity grading system using image processing
for farmers. In: IEEE. 2014 International Conference on Contemporary Computing and Informatics
(IC3I). [S.l.], 2014. p. 7–12.
SHEN, J.; THALMANN, D. Interactive shape design using metaballs and splines. [S.l.], 1995.
THEODORIDIS, S. Machine learning: a Bayesian and optimization perspective. Academic Press, 2015.
VERHULST, A.; NORMAND, J.-M.; MOREAU, G. Generation of variability in shape, aspect and
time of 3d fruits and vegetables. In: IEEE. 2017 23rd International Conference on Virtual System e
Multimedia (VSMM). [S.l.], 2017. p. 1–8.
WIMPENNY, D. I.; PANDEY, P. M.; KUMAR, L. J. Advances in 3D printing e additive manufacturing
technologies. [S.l.]: Springer, 2017
YE, X. et al. Reverse innovative design—an integrated product design methodology. Computer-aided
design, Elsevier, v. 40, n. 7, p. 812–827, 2008.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1064
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

APPENDIX A

COMPUTATIONAL MATHEMATICAL MODELING FOR THE 3D REPRESENTATION


OF TOMATO FRUIT GROWTH

Abstract. The appearance of food has a major impact on its consumption and economic value.
Therefore, it is important that fruits and vegetables, when exposed in fruit trees, attract the
attention of the consumer. In this sense, this work seeks to model the growth of tomato fruits
in order to create a three-dimensional parametric model that best represents this growth. The
text that follows consists of a review study on fundamental themes that are related to the content
proposed in this work, in addition to these, it is also exposed the research progress so far. This
work refers to the dissertation research in progress, developed in the Stricto Sensu Graduate
Program in Mathematical Modeling, Master’s Degree, from the Regional University of the
Northwest of the State of Rio Grande do Sul.

Keywords: Tomato; Mathematical Modeling; Implicit Surfaces

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1065
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO DE COMPÓSITO DE MATRIZ EPOXÍDICA REFORÇADA


COM FIBRAS DE CURAUÁ FUNCIONALIZADOS COM ÓXIDO DE GRAFENO

Julianna Magalhães Garcia1 – Julianna@ime.eb.br


Ulisses Oliveira Costa1– ulissesolie@gmail.com
Lucio Fabio Cassiano Nascimento1 – LUCIO_COPPE@yahoo.com.br
Wendell Bruno Almeida Bezerra1 – wendellbez@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia-IME

Resumo. A fibra de curauá (Ananas erectifolius) é uma candidata promissora a substituir as


fibras sintéticas como por exemplo as fibras de vidro e aramida. A adição de óxido de
grafeno (GO) em sua superfície mostrou-se ser uma excelente solução para otimizar
propriedades por meio da melhor compatibilidade entre a fibra (hidrofílica) e a matriz
polimérica (hidrofóbica). O presente trabalho trata da caracterização de resinas epóxi e
fibras de curauá, ambas funcionalizadas com GO, aplicadas na produção de compósitos,
através das técnicas de FTIR, RAMAN, MEV e EDS. Os resultados obtidos são promissores,
pois foi possível analisar como ocorreu a funcionalização e a influencia nos grupamentos
funcionais de ambas as fases, fibra e epóxi.

Palavras-Chave: Fibras de curaua, Matriz epóxi, FTIR, RAMAN, Óxido de grafeno

1.INTRODUÇÃO

As fibras naturais lignocelulósicas (FNLS) possuem grandes vantagens em relação às


fibras sintéticas, pois em geral são atóxicas, biodegradáveis, baixo custo, baixa densidade,
boas propriedades mecânicas específicas, além de fácil fabricação. Por outro lado, possuem
também desvantagens, como por exemplo heterogeneidade de propriedades e baixa resistência
térmica (sanjay et al., 2018; pickering et al., 2016; thakur et al., 2014). A fibra de curauá (FC)
é uma das mais promissoras dentre as FNLs para substituir as fibras sintéticas, devido as suas
propriedades mecânicas e físicas.
Contudo, diversos tratamentos podem ser realizados a fim de otimizar as propriedades
dessas fibras. Esses tratamentos podem ser físicos, químicos, mecânicos e biológicos etc; no
entanto, não chegam a influenciar de forma expressiva nas propriedades das fibras.
Principalmente quando se fala de propriedades físicas. Por exemplo, as FNLs não possuem

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1066
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

boa resistência térmica, sendo um fator limitante para a utilização de fibras naturais em
diversas aplicações. (Dittenber & Gangarao, 2012; Bledzki, 1999).
Assim sendo, estudos recentes utilizando materiais a base de grafeno, mais conhecidos
pela obreviação inglesa GO de “ graphene oxide”, sugerem uma possível e emergente solução
para tais desvantagens. O (GO), se destaca no âmbito de recobrimento de fibras para
aplicação em compósitos poliméricos, devido aos grupos funcionais presentes em sua
estrutura que influenciam a resistência da interface entre a matriz polimérica e as fibras
(Tsagkalias et al., 2017; Sarker et al., 2018; Chen et al., 2018).
O presente trabalho tem por objetivo caracterizar por diversas técnicas a funcionalização
tanto das fibras naturais de curauá quanto do sistema Epóxi/TETA com GO.

2 MATERIAIS E MÉTODOS

2.1 Materiais utilizados

Foram utilizadas fibras de curauá fornecidas pela Universidade Federal do Pará (UFPA).
A Figura 1 mostra as fibras de curauá como fornecidas.

Figura 1 - Fibras de curauá como fornecidas pela UFPA

2.2 Preparação das fibras de curauá para funcionalização com óxido de grafeno

Primeiramente as fibras de curauá foram limpas, cortadas na dimensão de 150 mm e


secas em estufa por 24 h. Com isso foram funcionalizadas com GO. Em seguida estas fibras
foram imersas em uma solução de GO na concentração de 0,56 mg/ml, permanecendo sob
agitação por 1 hora em um agitador mecânico universal, afim de garantir e otimizar o contato
do GO com a fibra,. Na etapa seguinte as fibras embebidas nesta solução foram colocadas em
estufa a 80 °C por 24 horas, obtendo ao final as fibras de curauá tratadas com GO, o
procedimento está indicado na Figura 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1067
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)

(c) (d)
Figura 2 - Fibras de curauá durante o tratamento com GO: a) fibras de curauá penteadas e
cortadas; b) solução de GO e agitador mecânico universal utilizados; c) fibras de curauá
imersas na solução de GO; d) fibras de curauá após o tratamento com o GO.

2.3 Preparação da matriz epoxídica para funcionalização com óxido de grafeno

O processo de funcionalização da resina epóxi ocorreu como mostrado na Figura 3.


Inicialmente a suspensão de GO em água foi seca para posterior ressuspensão em álcool
isopropílico PA, com auxílio de um agitador ultrasônico até atingir uma suspensão
homogênea. Em seguida a resina foi adicionada à essa suspensão e misturada por um agitador
mecânico. A mistura Álcool, resina e GO foi colocada em uma estufa para evaporação do
álcool e então o catalisador é adicionado à mistura de GO e resina.

Figura 3 - Esquema da rota de funcionalização da resina epóxi com óxido de grafeno

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1068
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.4 Preparação dos compósitos epóxi-fibras de curauá

O polímero utilizado como o material da matriz da placa compósita foi a resina epóxi
comercial do tipo éter diglicidílico do bisfenol A (DGEBA), endurecida com trietileno
tetramina (TETA), utilizando-se a proporção estequiométrica de 13 partes de endurecedor
para 100 partes de resina. A empresa fabricante da resina foi a Dow Chemical do Brasil e
fornecida pela distribuidora Epoxyfiber Ltda.
Para fabricar os compósitos foi utilizada um molde metálico com dimensões de 15 x 12 x
1,19 cm. As placas foram prensadas em uma prensa hidráulica de 30 toneladas. Utilizou-se
uma carga de 5 toneladas durante 24 horas para fabricação dos corpos compósitos. Para as
fibras de curauá utilizou-se como referência inicial a densidade de 0,92 g/cm3, e para a resina
epóxi (DGEBA-TETA) o valor de 1,11 g/cm3. O percentual de fibra curauá utilizado no
trabalho foi 30%v/v.

2.5 Análise espectroscópica de infravermelho com transformada de Fourier

A técnica de espectroscópica de infravermelho com transformada de Fourier , conhecida


pela sigra inglesa de FTIR, Fourie transform infrared spectroscopy, foi utilizada para
investigar as possíveis influências do GO nos grupamentos funcionais das fibras de curauá.
Para isso foi utilizado um espectrômetro modelo IR-Prestige-21 da Shimadzu, pelo método de
transmitância empregando a técnica de pastilha de KBr. Para todas as amostras foi usada a
mesma quantidade de massa de 2 mg de fibra e 110 mg de KBr.

2.6 Espectroscopia Raman

A espectroscopia Raman foi realizada no Laboratório do Acelerador Van de Graaff da


Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO), utilizando um comprimento
de onda de 473 nm, para analisar a estrutura do GO, das fibras e da resina epóxi em ambas as
condições.

3 RESULTADOS E DISCUSSÃO

3.1 Espectroscopia de Infravermelho com Transformada de Fourier (FTIR)

A espectroscopia de FTIR é frequentemente usada para caracterizar fibras


lignocelulósicas para algumas bandas de transmitância características dos infravermelhos de
seus constituintes. Assim, a fibra de curauá foi caracterizada usando a técnica de FTIR. A
análise foi realizada para as duas condições das fibras de curauá, sem tratamento (FC) e com
tratamento com GO (FCGO), a fim de caracterizar os grupos funcionais presente na condição
de controle e o efeito do tratamento com GO na estrutura química das fibras. O espectro é
mostrado na Figura 4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1069
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - Espectro de FTIR das fibras de curauá FC e CGO.

As principais bandas de absorção do espectro da fibra de curauá FC podem ser atribuídas


como: 3379 cm – 1, que está relacionado ao alongamento dos grupos OH presentes na celulose
e água; 2916 cm-1, que pode ser atribuído ao estiramento simétrico e assimétrico (C–H) da
cadeia alifática, 1736 cm-1 correspondendo à vibração de alongamento ácido (C = O); 1430
cm– 1 (vibração C–H alifática) e 1110 cm–1 da vibração do alongamento dos grupos éter.
Tratamentos químicos ou modificações dos principais grupos (-OH) da superfície da fibra
podem ser muito valiosos para detectar e confirmar o tipo de nova ligação estabelecida na
superfície da fibra e a interação com o polímero, no caso de polímeros reforçados com fibra
(Tomczak et al., 2007; Fan et al., 2016; Bykkam et al., 2013; Costa et al., 2019).
Com a adição de GO, mesmo em baixas concentrações, diversas mudanças nos espectros
podem ser visualizadas na Figura 4. As intensidades relativas entre algumas bandas foram
alteradas, o que sugere que a molécula do GO pode ter se ligado aos grupos funcionais tais
quais os supracitados, reduzindo quase todas as intensidades do espectro. Além disso,
observa-se a banda de absorção em apoximadamente 1649 cm-1 que pode ser referente a
vibrações do anel esquelético presente do GO (Fan et al., 2016; Bykkam et al., 2013; Costa et
al., 2019).
A leve banda que pode ser vista em 1560 cm-1 pode ser atribuída a vibrações de anéis
benzênicos presentes no GO (Bykkam et al., 2013; Costa et al., 2019). Além disso, com o
tratamento das fibras de curauá com GO as bandas de absorção em 833 cm-1 (C - H fora do
plano referente às unidades p-hidroxifenil) (Costa et al., 2019) reduziram de intensidade e as
bandas em 411 cm-1 tiveram suas intensidades relativas aumentadas, sugerindo que o GO
causou modificações nos grupamentos funcionais da fibra FC.
A técnica de FTIR foi utilizada também para as duas condições da matriz epoxídica,
epóxi puro e com adição de GO, a fim de caracterizar os grupos funcionais presente na
condição de controle e o efeito nesses com a adição do GO. O espectro é mostrado na Figura
5.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1070
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 - Espectro de FTIR das matrizes utilizadas; DGEBA/TETA e DGEBA/TETA/GO

De acordo com Bouvet, et al. (2016), as bandas em 914 cm-1 são características da
vibração dos grupos epóxidos. Isso sugere que as resinas epóxi foram totalmente curadas, no
entanto, podem ter ocorrido diferenças no grau de reticulação ou ligações cruzadas, devido às
intensidades destas bandas terem sido alteradas com a adição do GO. As principais bandas da
Figura 5 são consistentes com os resultados relatados na literatura sobre epóxi (Ngono &
Maréchal, 2000; Riaz & Park, 2019).
Com a adição do GO na resina epóxi, foram causadas mudanças nas intensidades
relativas de algumas bandas, assim como deslocamentos, por exemplo, da banda em 3387 cm-
1
referente ao estiramento dos grupos (O-H), que pode indicar uma interação dos grupos
funcionais do GO com os da resina epóxi (Betancur et al., 2019; Zhbankov et al., 2002). De
acordo com Ngono e Maréchal, (2000), a banda em 1510 cm-1 é referente a vibrações de anéis
fenil (C=C), cujo qual se apresentou com mais intensidade relativa no espectro
EPÓXI/TETA/GO, que pode ser explicada pela presença da estrutura do GO que contribuiu
para esse aumento de intensidade e definição do pico.
Além disso, bandas muito sutis apareceram no espectro EPOXI/TETA/GO entre 1800 e
1600 cm-1, como mostrado na Figura 5 ampliada. Segundo Bykkam, et al. (2013) a banda em
1652 cm-1 pode ser atribuída a anéis benzênicos presentes no GO, assim como também as
bandas 1722 e 1639 cm-1 referentes a vibração de carboxil (C=O) e vibrações de alongamento
de (C=C) respectivamente (Sarker et al., 2018; Bykkam et al., 2013; Betancur et al., 2019).

3.2 Análise por espectroscopia Raman do GO e das fibras FC e FCGO.

Na Figura são mostradas as bandas em 900 cm−1 e 1093 cm−1 do espectro de fibras de
celulose que são bandas características da celulose tipo I (Rourke et al., 2011), que mostram
uma mudança óbvia após a funcionalização com GO na superfície da fibra.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1071
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 - Espectro de Raman do GO e das fibras de curauá; FC e FCGO

O espectro Raman do GO na faixa de 800-2000 cm-1 é dominado por duas bandas, a


banda D (a 1371 cm-1, atribuídas a desordem induzida por defeitos e curvatura na rede da
estrutura do GO) e a banda G (a 1592 cm-1, devido à vibração no plano das ligações C-C)
(Chike et al., 1993). As razões de área integral da banda D e da banda G (ID/IG) podem ser
usadas para avaliar a extensão de quaisquer defeitos contendo carbono (Chike et al., 1993). O
valor de ID/IG para as fibras de FCGO (0,84) diminuiu em relação ao do GO (1,13) e
aumentou em relação às fibras FC (0,65), que pode ser atribuído ao acréscimo de ligações (C-
C), assim como o aumento da quantidade de grupos funcionais adicionados pelo recobrimento
com GO.
Além da contribuição das bandas (como a banda a 1387 cm-1) de fibras do curauá, há
indícios que o GO com mais defeitos (ou grupos funcionais) são mais facilmente revestidos
na superfície das fibras lignocelulósicas. Além disso, os deslocamentos em ambas as
posições, banda D (de 1371 a 1374 cm-1) e banda G (de 1592 a 1586 cm-1), puderam ser
observados no espectro de fibras de curauá funcionalizadas com GO, Figura 7. O
revestimento resultante da funcionalização das fibras de curauá formou um impedimento
(barreira) para que as bandas características da celulose tipo I fossem detectadas com menor
intensidade.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1072
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 - Espectro de Raman do GO e da resina epóxi

O espectro da DGEBA/TETA pode ser visto na Figura 7, as bandas referentes da epóxi


pura estão de acordo com a literatura (Comyn et al., 1981; Wan et al., 2014). Sendo 1122 cm-
1
referente ao estiramento do grupamento C-O, 1194 cm-1 referente ao estiramento do
grupamento alifático C-C, 1236 – 1300 cm-1 é indicado o estiramento de anéis aromáticos C-
O, 1470 cm-1 pode ser atribuido à curvatura do grupo C-H e em 1618 cm-1 estiramento de
anéis aromáticos C-C.
É notável o aparecimento da banda 1371 cm-1 no sitema DGEBA/TETA/GO, mostrando
que houve um aumento da banda referente ao defeitos da estrutura do GO, assim também
como um aumento da intensidade relativa da banda em 1560 cm-1, referente a banda G das
ligações C-C.
Após a funcionalização do DGEBA, o valor ID/IG (1,28) do DGEBA/TETA/GO exibe
um ligeiro aumento em comparação com o do óxido de grafeno, implicando que a ligação
covalente ocorre entre as cadeias de DGEBA e o GO sem destruição significativa da rede de
carbono (Wan et al., 2014). Isso équivale a dizer que o GO interagiu com a resina epóxi,
causando mudanças nos seus grupamentos funcionais, que modificou sua estrutura e otimizou
suas propriedades.

3.3 Microscopia Eletrônica de Varredura (MEV)

A Figura 8 mostra imagens MEV de ambas as fibras de curaua investigadas: (a) como
não recebidas (FC) e (b) revestido com óxido de grafeno (FCGO). Medições de diâmetro
médio realizadas em 10 fibras para cada caso revelou valores de 54,2 ± 14,3 μm para o FC e
51,1 ± 12,0 μm para o FCGO. Como esperado, esses valores são praticamente os mesmos
dentro do desvio padrão. Isso indica que o grafeno não afetou o diâmetro da fibras.
De fato, o revestimento GO foi estimado em aproximadamente 10 nm. Isso
corresponderia a um aumento insignificante de menos de 3 a 10% vol. na fração volumétrica
da fibra curauá.
Com maior ampliação, a Figura 9 ilustra os diferentes aspectos da superfície de FC e
FCGO. Deve-se notar a superfície uniforme e mais lisa do FCGO, Figura 9b, devido ao
revestimento de óxido de grafeno em comparação com a superfície mais áspera do FC na
Figura 9a.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1073
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As folhas GO, preparadas pelo método Hummers modificado (CHIKE et al., 1981)
formam uma suspensão estável e homogênea e exibem um aspecto ondulado transparente
típico, quando revestidas nas fibras, como mostra a Figura 9b.

(a) (b)
Figura 8 - Micrografias por microscopia eletrônica de varredura (MEV) de ambas as
fibras de curauá investigadas: (a) FC não revestida; b) FCGO (500X)

(a) (b)
Figura 9 - Imagens de superfície MEV de ambas as fibras: (a) FC; b) FCGO (3000X).

4 CONCLUSÃO

De acordo com a análise do FTIR, o GO causou alterações nas bandas características dos
grupos funcionais presentes na estrutura das fibras FC e na resina epóxi, sugerindo a
formação de ligações de hidrogênio, bem como o surgimento de novas bandas características
da estrutura molecular do GO.
A análise Raman foi importante para mostrar as mudanças na razão ID/IG antes e depois
da funcionalização, mostrando que além deste ter sido incorporado nas fases, não houve
destruição de sua estrutura de carbono. E com isso foi possível caracterizar os grupos
funcionais antes e depois do tratamento.

Agradecimentos

Os autores deste trabalho agradecem ao CNPq, FAPERJ, CAPES e a UFPA pelo apoio e
fornecimento das fibras de curauá.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1074
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS

Betancur, A. F., García, A., & Pérez, F. R. (2019, May). Thermal stability and chemical analysis of hybrid
materials reinforced with graphene oxide. In Journal of Physics: Conference Series (Vol. 1219, No. 1, p.
012003). IOP Publishing..
Bledzki, A. K., & Gassan, J. (1999). Composites reinforced with cellulose based fibres. Progress in polymer
science, 24(2), 221-274.
Bouvet, G., Dang, N., Cohendoz, S., Feaugas, X., Mallarino, S., & Touzain, S. (2016). Impact of polar groups
concentration and free volume on water sorption in model epoxy free films and coatings. Progress in Organic
Coatings, 96, 32-41.
Bykkam, S., Rao, K., Chakra, C., & Thunugunta, T. (2013). Synthesis and characterization of graphene oxide
and its antimicrobial activity against klebseilla and staphylococus. Int. J. Adv. Biotechnol. Res, 4(1), 142..
Chen, J., Huang, Z., Lv, W., & Wang, C. (2018). Graphene oxide decorated sisal fiber/MAPP modified PP
composites: Toward high‐performance biocomposites. Polymer Composites, 39, E113-E121.
Chike, K. E., Myrick, M. L., Lyon, R. E., & Angel, S. M. (1993). Raman and near-infrared studies of an epoxy
resin. Applied Spectroscopy, 47(10), 1631-1635.19 COMYN, J. et al. The application of inelastic
electron tunnelling spectroscopy to epoxide adhesives. The Journal of Adhesion, v. 12, n. 3, p. 171-188, 1981
Costa, U. O., Nascimento, L. F. C., Garcia, J. M., Monteiro, S. N., Luz, F. S. D., Pinheiro, W. A., & Garcia
Filho, F. D. C. (2019). Effect of graphene oxide coating on natural fiber composite for multilayered ballistic
armor. Polymers, 11(8), 1356.
Comyn, J., Horley, C. C., Oxley, D. P., Pritchard, R. G., & Tegg, J. L. (1981). The application of inelastic
electron tunnelling spectroscopy to epoxide adhesives. The Journal of Adhesion, 12(3), 171-188.
Dittenber, D. B., & GangaRao, H. V. (2012). Critical review of recent publications on use of natural composites
in infrastructure. Composites Part A: applied science and manufacturing, 43(8), 1419-1429.5
Fan, B., Guo, H., Shi, J., Shi, C., Jia, Y., Wang, H., ... & Zhang, R. (2016). Facile one-pot preparation of
silver/reduced graphene oxide nanocomposite for cancer photodynamic and photothermal therapy. Journal
of Nanoscience and Nanotechnology, 16(7), 7049-7054.
Nguyen, D. D. (2012). Revêtements polymères sous contraintes environnementales couplées (Doctoral
dissertation).
Pickering, K. L., Efendy, M. A., & Le, T. M. (2016). A review of recent developments in natural fibre
composites and their mechanical performance. Composites Part A: Applied Science and Manufacturing, 83,
98-112.
Riaz, S., & Park, S. J. (2019). Thermal and Mechanical Interfacial Behaviors of Graphene Oxide-Reinforced
Epoxy Composites Cured by Thermal Latent Catalyst. Materials, 12(8), 1354.
Rourke, J. P., Pandey, P. A., Moore, J. J., Bates, M., Kinloch, I. A., Young, R. J., & Wilson, N. R. (2011). The
real graphene oxide revealed: stripping the oxidative debris from the graphene‐like sheets. Angewandte
Chemie, 123(14), 3231-3235.
Sanjay, M. R., Madhu, P., Jawaid, M., Senthamaraikannan, P., Senthil, S., & Pradeep, S. (2018).
Characterization and properties of natural fiber polymer composites: A comprehensive review. Journal of
Cleaner Production, 172, 566-581.
Sarker, F., Karim, N., Afroj, S., Koncherry, V., Novoselov, K. S., & Potluri, P. (2018). High-performance
graphene-based natural fiber composites. ACS applied materials & interfaces, 10(40), 34502-34512..
Thakur, V. K., Thakur, M. K., & Gupta, R. K. (2014). Raw natural fiber–based polymer composites.
International Journal of Polymer Analysis and Characterization, 19(3), 256-271..
Tomczak, F., Satyanarayana, K. G., & Sydenstricker, T. H. D. (2007). Studies on lignocellulosic fibers of Brazil:
Part III–Morphology and properties of Brazilian curauá fibers. Composites Part A: Applied Science and
Manufacturing, 38(10), 2227-2236.
Tsagkalias, I. S., Manios, T. K., & Achilias, D. S. (2017). Effect of graphene oxide on the reaction kinetics of
methyl methacrylate in situ radical polymerization via the bulk or solution technique. Polymers, 9(9), 432.
Wan, Y. J., Tang, L. C., Gong, L. X., Yan, D., Li, Y. B., Wu, L. B., ... & Lai, G. Q. (2014). Grafting of epoxy
chains onto graphene oxide for epoxy composites with improved mechanical and thermal properties. Carbon,
69, 467-480.
Zhbankov, R. G., Firsov, S. P., Buslov, D. K., Nikonenko, N. A., Marchewka, M. K., & Ratajczak, H. (2002).
Structural physico-chemistry of cellulose macromolecules. Vibrational spectra and structure of cellulose.
Journal of molecular structure, 614(1-3), 117-125.17

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1075
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CHARACTERIZATION OF EPOXIDIC MATRIX COMPOSITES REINFORCED


WITH GRAPHENE OXIDE FUNCTIONALIZED CURAUA FIBERS

Abstract: Curauá fiber (Ananas erectifolius) is a promising candidate to replace synthetic


fibers such as glass and aramid fibers. The addition of graphene oxide (GO) to its surfaces
proved to be an excellent solution to optimize properties through better compatibility between
the fiber (hydrophilic) and the polymeric matrix (hydrophobic). The present work deals with
the characterization of epoxy resins and curauá fibers, both functionalized with GO, applied
in the production of composites, through the techniques of FTIR, RAMAN, SEM and EDS.
The results obtained are promising, since it was possible to analyze how functionalization
occurred and the influence on the functional groups of both phases, fiber and epoxy.

Keywords: Curauá fibers, Epoxy matrix, FTIR, RAMAN, Graphene oxide

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1076
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DO COMPORTAMENTO TÉRMICO DE COMPÓSITO DE MATRIZ


EPOXÍDICA REFORÇADA COM FIBRAS DE CURAUÁ FUNCIONALIZADAS
COM ÓXIDO DE GRAFENO*

Julianna Magalhães Garcia1 – Julianna@ime.eb.br


Ulisses Oliveira Costa1– ulissesolie@gmail.com
Lucio Fabio Cassiano Nascimento1 – LUCIO_COPPE@yahoo.com.br
Wendell Bruno Almeida Bezerra1 – wendellbez@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
1
Instituto Militar de Engenharia-IME

Resumo. A fibra de curauá (Ananas erectifolius) assim como várias outras fibras naturais,
apresenta excelentes propriedades, aumentando o campo de materiais apropriados para
aplicações de engenharia assim como as fibras sintéticas. No presente trabalho a utilização
de grafeno (G) e seus derivados como o óxido de grafeno (GO) mostrou ser uma solução
promissora para otimizar propriedades por meio da melhor compatibilidade entre a fibra
(hidrofílica) e a matriz polimérica (hidrofóbica). Devido à característica anfifílica do GO a
funcionalização dessas fibras faz com que a degradação térmica das mesmas seja retardada,
permitindo, portanto, que essas tenham cada vez mais possibilidades para às novas
aplicações de engenharia.

Palavras-chaves: Fibras de curauá, Matriz epóxi; Comportamento térmico, Funcionalização,


Óxido de grafeno.

1. INTRODUÇÃO

Devido a sua atoxicidade, biodegradabilidade, baixo custo, baixa densidade, boas


propriedades mecânicas e boas propriedades específicas, além de fácil fabricação, as fibras
naturais lignocelulósicas (FNLS) possuem grandes vantagens em relação às fibras sintéticas
(Sanjay et al., 2018; Pickering et al., 2016; Monteiro et al., 2008, 2015 e 2017; ZAH et al.,
2007; Thakur et al., 2014; Gomes et al., 2007; Monthé & Araujo, 2004; Silva & Aquino,
2008). Por outro lado, possuem também desvantagens, como por exemplo heterogeneidade de
propriedades e baixa resistência térmica. A fibra de curauá (FC) é uma das mais promissoras
dentre as FNLs para substituir as fibras sintéticas, devido as suas propriedades mecânicas e
físicas (Santos et al., 2009; Beltrami et al., 2014; Morais et al., 2016).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1077
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No entanto, diversos tratamentos podem ser realizados a fim de otimizar as propriedades


dessas fibras. Esses tratamentos podem ser físicos, químicos, mecânicos, biológicos, etc. No
entanto, não é expressiva a influência desses tratamentos nas propriedades das fibras.
Sobretudo quando se fala de propriedades físicas, por exemplo, as FNLs não possuem boa
resistência térmica, sendo um fator que muitas vezes limita a utilização das mesmas em
diversas aplicações (Dittenber & Gangarao, 2012; Bledzki, 1999).
Assim sendo, estudos recentes utilizando materiais a base de grafeno sugerem uma
possível e emergente solução para tais desvantagens. O oxido de grafeno, mais conhecido
pela sigla em inglesa de graphene oxide (GO), se destaca no âmbito de recobrimento de fibras
para aplicação em compósitos poliméricos, devido aos grupos funcionais presentes em sua
estrutura que influenciam a resistência da interface entre a matriz polimérica e as fibras
(Tsagkalias et al., 2017; Sarker et al., 2018; Chen et al., 2018). Além do mais, muito pouco
tem sido estudado a respeito do curauá e sua interação com derivados de grafeno.
Sabendo disso, o presente trabalho tem por objetivo a avaliação da influência do
recobrimento com GO nas propriedades térmicas de fibras naturais de curauá e em
compósitos epoxídicos reforçados com estas fibras.

2. MATERIAIS E MÉTODOS

2.1 Materiais utilizados

Foram utilizadas fibras de curauá fornecidas pela Universidade Federal do Pará (UFPA).
A Figura 1 mostra as fibras de curauá como fornecidas.

Figura 1 - Fibras de curauá como fornecidas pela UFPA

2.2 Preparação das fibras de curauá para funcionalização com óxido de grafeno

Primeiramente as fibras de curauá foram limpas, cortadas na dimensão de 150 mm e


secas em estufa por 24 h. Sendo então funcionalizadas com GO. Para tal as fibras de curauá
foram imersas em uma solução de GO na concentração de 0,56 mg/ml, permanecendo sob
agitação por 1 hora em um agitador mecânico universal, afim de garantir e otimizar o contato
do GO com a fibra. Em seguida as fibras embebidas nesta solução foram colocadas em estufa
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1078
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a 80 °C por 24 horas, obtendo ao final as fibras de curauá funcionalizadas com GO. O


procedimento está indicado na Figura 2.

(a) (b)

(c) (d)
Figura 2 - Fibras de curauá durante o tratamento com GO: a) fibras de curauá penteadas e
cortadas; b) solução de GO e agitador mecânico universal utilizados; c) fibras de curauá
imersas na solução de GO; d) fibras de curauá após o tratamento com o GO.

2.3 Preparação da matriz epoxídica para funcionalização com óxido de grafeno

O processo de funcionalização da resina epóxi com GO ocorreu como mostrado na Figura


3. Inicialmente a suspensão de GO em água foi secada para posterior ressuspensão em álcool
isopropílico PA, com auxílio de um agitador ultrassônico até atingir uma suspensão
homogênea. Em seguida a resina foi adicionada à essa suspensão e misturada por um agitador
mecânico. A mistura de álcool, resina e GO foi colocada em uma estufa para evaporação do
álcool e em seguida o catalisador foi então adicionado à mistura de resina+GO.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1079
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3 - Esquema da rota de funcionalização da resina epóxi com óxido de grafeno

2.4 Preparação dos compósitos epóxi-fibras de curauá

O polímero utilizado como o material da matriz da placa compósita foi a resina epóxi
comercial do tipo éter diglicidílico do bisfenol A (DGEBA), endurecida com trietileno
tetramina (TETA), utilizando-se a proporção estequiométrica de 13 partes de endurecedor
para 100 partes de resina. A empresa fabricante da resina foi a Dow Chemical do Brasil e
fornecida pela distribuidora Epoxyfiber Ltda.
Para fabricar os compósitos foi utilizado um molde metálico com dimensões de 15 x 12 x
1,19 cm. As placas foram prensadas em uma prensa hidráulica de 30 toneladas. Utilizou-se
uma carga de 5 toneladas durante 24 horas para fabricação dos corpos compósitos. Para as
fibras de curauá utilizou-se como referência inicial a densidade de 0,92 g/cm3, e para a resina
epóxi (DGEBA-TETA) o valor de 1,11 g/cm3. O percentual de curauá utilizado no trabalho
foi 30%v/v.

2.5 Análise Térmica das fases FC, FCGO, DGEBA/TETA e DGEBA/TETA/GO e seus
respectivos compósitos

A análise térmica por termogravimetria (TGA) foi realizada em fibras de curauá sem
tratamento (FC) e funcionalizadas com GO (FCGO) bem como em compósitos com matriz
epoxídica sem tratamento (FC/E) e funcionalizada com GO (FCGO/EGO) e (FC/EGO).
Para as análises por (TGA), as fibras de curauá nas condições FC, FCGO e seus
compósitos (FC/E e FCGO/E), foram cominuídas e colocadas em cadinho de alumínio do
equipamento TA Instruments, modelo Q 500 analyzer, pertencentes ao Instituto de
Macromoléculas (IMA), as amostras foram submetidas à uma taxa de aquecimento de 10
°C/min, partindo de 30 °C até atingir 700 °C.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1080
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÃO

3.1 Fases (FC, FCGO, DGEBA/TETA e DGEBA/TETA/GO)

O início da etapa de degradação foi observado em aproximadamente 64 °C a 150 °C em


ambas FC e FCGO. Esse efeito pode indicar a evaporação da umidade absorvida pelas fibras.
A principal etapa de degradação de massa foi indicada com início em 293 °C para as fibras
FC e 300 °C para as fibras FCGO (Figura 4). Segundo alguns pesquisadores, o efeito indica as
etapas de degradação da hemicelulose, celulose e lignina, respectivamente (Caraschi & Leão,
2000; Spinace et al., 2009; Corrêa et al., 2009). O resíduo gerado pelas fibras FC foi de 15%
e pelas fibras FCGO foi obtido a porcentagem de 14% de resíduo.

Figura 4 - Curvas de TGA das fases FC, FCGO, Epóxi/TETA e Epóxi/TETA/GO

Com base nos resultados da análise termogravimétrica das resinas DGEBA/TETA e


DGEBA/TETA/GO, a degradação do DGEBA/TETA ocorreu em 3 etapas como indicado
pela Figura 4: (i) 329,17 °C, (ii) 423,83 °C e (iii) 466,69 °C, referentes a degradação da rede
epoxídica (GRASSIE et al., 1986). Por outro lado, a degradação do DGEBA/TETA/GO foi
distinta, ocorrendo em 4 etapas na faixa de temperatura estudada, Figura 5: (I) 309 °C (II)
370,65 °C, (III) 476,29 °C e (IV) 583 °C semelhante ao que ocorreu em outros estudos
(Morais et al., 2016). Observa-se que todas as reações mostradas para o sistema com GO
ocorreram em temperaturas maiores, além de inibir a reação que ocorreu em 342,22 °C do
DGEBA/TETA. Ademais, a taxa de degradação a partir dos 350 °C foi menor para o sistema
com GO.
Para estabilidade térmica do epóxi com GO, postula-se que o compósito
DGEBA/TETA/GO possui um melhor efeito de barreira que retarda a volatilização da
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1081
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

decomposição do polímero devido à dispersão. Além disto as interfaces aprimoradas para os


nanocompósitos DGEBA/GO, pois o GO fortalece as ligações entre as moléculas,
necessitando assim de mais energia para serem rompidas (Wan et al., 2013 e 2014).
Na análise das curvas de DTG (Figura 5) das fibras FC foram observados três estágios. O
primeiro apresentou-se entre 250 e 300 °C, referente a decomposição da hemicelulose, com
taxa de degradação máxima em 272 °C. O segundo processo ocorreu entre 293 e 350 °C, com
taxa máxima de degradação em torno em 327 °C, a qual pode ser referente a decomposição da
celulose. A decomposição da lignina ocorreu no terceiro estágio, entre 400 e 450 °C, com taxa
máxima de degradação por volta de 423 °C. Entretanto, um comportamento distinto foi
apresentado pelas fibras FCGO, as quais a degradação foi deslocada para temperaturas
maiores, esse efeito pode indicar o aumento da estabilidade térmica das fibras (Caraschi &
Leão, 2000; Spinace et al., 2009; Corrêa et al., 2009).
A relação de degradação das diferentes fibras, FC e FCGO (Figura 5), em temperaturas
diferentes pode ser indicada pela presença do óxido de grafeno em FCGO, indicada pelo
aumento da estabilidade térmica da temperatura em 9°C, com início em 300 °C. O efeito pode
ser devido à formação de um impedimento para propagação do calor através do grafeno na
superfície da fibra. Isto é observado nas micrografias da Figura 6, mostrando que o GO
retardou a degradação, e melhorou sua estabilidade térmica (Sarker et al., 2018).

Figura 5 - Curvas de DTG das fibras FCF, FCGO, Epóxi/TETA e Epóxi/TETA/GO

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1082
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)
Figura 6 - Superfície das fibras: (a) FC; (b) FCGO (5000X)

Oberva-se da Figura 6 que para grandes aumentos usando a técnica de microscopia


eletrônica de varredura, fissuras são abertas na superfície das fibras FC. Por outro lado, para o
mesmo aumento e parâmetros do equipamento o mesmo fenômeno não ocorre na superfície
das fibras FCGO, o que indica uma maior estabilidade térmica e uma melhor condutibilidade
elétrica promovida pela fina camada de GO presente nas mesmas, sendo portanto um método
empírico que corrobora as análises térmicas (Costa et al., 2019).

3.2 Compósitos (FC/E, FCGO/E, FC/EGO e FCGO/EGO)

De acordo com os resultados de TGA dos compósitos mostrados na Figura 7, foi


observado que a velocidade de degradação em 250 a 400 °C diminuiu, o que indicou a
influencia da incorporação do GO pelas fibras tratadas (Tsagkalias et al., 2017).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1083
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 - Curvas de TGA dos compósitos com fibras FC, FCGO, FC/EGO e
FCGO/EGO

Da mesma forma, os compósitos que tiveram incorporação de GO na matriz aumentaram


ainda mais suas estabilidades térmicas. Isto foi conseguido aumentando o número de etapas
de degradação e retardando-as para temperaturas maiores. O compósito FC/EGO foi o que
mostrou melhor estabilidade térmica dentre os demais, com sua degradação ocorrendo em três
etapas, com respectivas temperaturas nas quais as taxas de degradações foram máximas em
332, 388 e 544 °C. Enquanto que para o compósito FC/E a taxa de degradação foi em 346 °C,
como pode ser visualizado na Figura 8.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1084
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 8 - Curvas de DTG dos compósitos FC/E, FCGO/E, FC/EGO e FCGO/EGO

Através das curvas de DTG, Figura 8, é possível verificar que houve um deslocamento
além de uma mudança no perfil da curva do compósito FC/E por volta de 276°C, que pode ser
referente à decomposição da hemicelulose presente nas fibras. O mesmo evento não foi
identificado no compósito FCGO/E, assim como a respectiva decomposição da lignina que
ocorreu em temperaturas próximas a 400 °C (Caraschi & Leão, 2000; Spinace et al., 2009;
Corrêa et al., 2009), o qual pode ser observado nos compósitos FCGO/E. O resíduo gerado
maior nos compósitos FCGO/E pode ser um indicativo da ação do GO na proteção do
compósito. Este seria outro efeito que pode ser explicado pela melhor adesão do reforço
recoberto com GO na matriz epoxídica.

4. CONCLUSÃO

De acordo com os resultados mostrados, pode-se concluir que a degradação térmica das
fibras FCGO foi retardada pela reação do GO na superfície das mesmas causando um
impedimento para que iniciasse a degradação.
Quando em conjunto com uma matriz polimérica as fibras FCGO também causaram um
impedimento para a degradação térmica sugerindo que o GO causou modificações na
interface fibra matriz e possivelmente no processo de cura da resina epóxi de modo que as
taxas de degradação ocorreram em temperaturas mais elevadas apresentando curvas
deslocadas para a direita em relação ao compósito com fibras FC.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1085
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

Os autores deste trabalho agradecem ao CNPq, FAPERJ, CAPES e a UFPA pelo apoio e
fornecimento das fibras de curauá.

REFERÊNCIAS

Beltrami, L. V. R., Cristine Scienza, L., & Zattera, A. J. (2014). Efeito do tratamento alcalino de fibras de
curauá sobre as propriedades de compósitos de matriz biodegradável. Polímeros, 24(3), 388-394.
Bledzki, A. K., & Gassan, J. (1999). Composites reinforced with cellulose based fibres. Progress in polymer
science, 24(2), 221-274.
Caraschi, J. C., & Leão, A. L. (2000). Characterization of curaua fiber. Molecular Crystals and Liquid Crystals
Science and Technology. Section A. Molecular Crystals and Liquid Crystals, 353(1), 149-152.
Chen, J., Huang, Z., Lv, W., & Wang, C. (2018). Graphene oxide decorated sisal fiber/MAPP modified PP
composites: Toward high‐performance biocomposites. Polymer Composites, 39, E113-E121.
Costa, U. O., Nascimento, L. F. C., Garcia, J. M., Monteiro, S. N., Luz, F. S. D., Pinheiro, W. A., & Garcia
Filho, F. D. C. (2019). Effect of graphene oxide coating on natural fiber composite for multilayered
ballistic armor. Polymers, 11(8), 1356.
de Morais Teixeira, E., Corrêa, A. C., Manzoli, A., de Lima Leite, F., de Oliveira, C. R., & Mattoso, L. H. C.
(2010). Cellulose nanofibers from white and naturally colored cotton fibers. Cellulose, 17(3), 595-606.
Dittenber, D. B., & GangaRao, H. V. (2012). Critical review of recent publications on use of natural composites
in infrastructure. Composites Part A: applied science and manufacturing, 43(8), 1419-1429.
Gomes, A., Matsuo, T., Goda, K., & Ohgi, J. (2007). Development and effect of alkali treatment on tensile
properties of curaua fiber green composites. Composites Part A: Applied Science and Manufacturing,
38(8), 1811-1820.
Grassie, N., Guy, M. I., & Tennent, N. H. (1986). Degradation of epoxy polymers: part 4—thermal degradation
of bisphenol-A diglycidyl ether cured with ethylene diamine. Polymer Degradation and Stability, 14(2),
125-137.
Monteiro, S. N., Aquino, R. C. M., & Lopes, F. P. D. (2008). Performance of curaua fibers in pullout tests.
Journal of materials science, 43(2), 489-493.
Monteiro, S. N., Louro, L. H. L., Trindade, W., Elias, C. N., Ferreira, C. L., de Sousa Lima, E., ... & Da Silva, L.
C. (2015). Natural curaua fiber-reinforced composites in multilayered ballistic armor. Metallurgical and
Materials Transactions A, 46(10), 4567-4577.
Monteiro, S., de Oliveira Braga, F., Pereira Lima, E., Henrique Leme Louro, L., & Wieslaw Drelich, J. (2017).
Promising curaua fiber‐reinforced polyester composite for high‐impact ballistic multilayered armor.
Polymer Engineering & Science, 57(9), 947-954.4
Morais, J. A. D., Gadioli, R., & De Paoli, M. A. (2016). Curaua fiber reinforced high-density polyethylene
composites: effect of impact modifier and fiber loading. Polímeros, 26(2), 115-122.14
Mothé, C. G., & Araujo, C. R. D. (2004). Caracterização térmica e mecânica de compósitos de poliuretano com
fibras de curauá. Polímeros, 14(4), 274-278.
Pickering, K. L., Efendy, M. A., & Le, T. M. (2016). A review of recent developments in natural fibre
composites and their mechanical performance. Composites Part A: Applied Science and Manufacturing,
83, 98-112.
Sanjay, M. R., Madhu, P., Jawaid, M., Senthamaraikannan, P., Senthil, S., & Pradeep, S. (2018).
Characterization and properties of natural fiber polymer composites: A comprehensive review. Journal of
Cleaner Production, 172, 566-581.
Santos, P. A., Spinacé, M. A., Fermoselli, K. K., & De Paoli, M. A. (2009). Efeito da forma de processamento e
do tratamento da fibra de curauá nas propriedades de compósitos com poliamida-6. Polímeros, 19(1), 31-
39.12
Sarker, F., Karim, N., Afroj, S., Koncherry, V., Novoselov, K. S., & Potluri, P. (2018). High-performance
graphene-based natural fiber composites. ACS applied materials & interfaces, 10(40), 34502-34512.
Silva, R. V., & Aquino, E. M. F. (2008). Curaua fiber: a new alternative to polymeric composites. Journal of
reinforced plastics and composites, 27(1), 103-112.
Spinace, M. A., Lambert, C. S., Fermoselli, K. K., & De Paoli, M. A. (2009). Characterization of lignocellulosic
curaua fibres. Carbohydrate Polymers, 77(1), 47-53.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1086
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Thakur, V. K., Thakur, M. K., & Gupta, R. K. (2014). Raw natural fiber–based polymer composites.
International Journal of Polymer Analysis and Characterization, 19(3), 256-271.7
Tsagkalias, I. S., Manios, T. K., & Achilias, D. S. (2017). Effect of graphene oxide on the reaction kinetics of
methyl methacrylate in situ radical polymerization via the bulk or solution technique. Polymers, 9(9), 432.
Wan, Y. J., Gong, L. X., Tang, L. C., Wu, L. B., & Jiang, J. X. (2014). Mechanical properties of epoxy
composites filled with silane-functionalized graphene oxide. Composites Part A: Applied Science and
Manufacturing, 64, 79-89.
Wan, Y. J., Tang, L. C., Gong, L. X., Yan, D., Li, Y. B., Wu, L. B., ... & Lai, G. Q. (2014). Grafting of epoxy
chains onto graphene oxide for epoxy composites with improved mechanical and thermal properties.
Carbon, 69, 467-480.
Zah, R., Hischier, R., Leão, A. L., & Braun, I. (2007). Curauá fibers in the automobile industry–a sustainability
assessment. Journal of cleaner production, 15(11-12), 1032-1040.

EVALUATION OF THERMAL BEHAVIOR OF EPOXIDIC MATRIX COMPOSITES


REINFORCED WITH GRAPHENE OXIDE FUNCTIONALIZED CURAUÁ
FIBERS

Abstract. The curauá fiber (Ananas erectifolius) as well as several other natural fibers, has
excellent properties, increasing the field of materials suitable for engineering applications as
well as synthetic fibers. In the present work the use of graphene (G) and its derivatives such
as graphene oxide (GO) has proved to be a promising solution to optimize properties through
better compatibility between the fiber (hydrophilic) and the polymeric matrix (hydrophobic).
Due to the amphiphilic characteristic of the GO, the functionalization of these fibers causes
their thermal degradation to be delayed, thus allowing them to have more possibilities for new
engineering applications.

Keywords: Curauá fibers, Epoxy matrix, Thermal behavior, Functionalization, Graphene


oxide.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1087
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Simulação da dispersão de poluentes transiente em condições de vento fraco usando


dados de vento simulados pelo modelo LES-PALM

Viliam Cardoso da Silveira - viliamcardoso@gmail.com


Daniela Buske - danielabuske@gmail.com
Universidade Federal de Pelotas - UFPel, Programa de Pós-Graduação em Modelagem Matemática -
Pelotas, RS, Brasil

Resumo. O objetivo desse trabalho é simular a dispersão de poluentes na atmosfera


em condições de vento fraco utilizando a Técnica da Transformada de Laplace Integral
Generalizada em três dimensões 3D-GILTT que resolve analiticamente a equação de advecção-
difusão. Foram feitas simulações com o modelo WRF (Weather Research and Forecasting)
para a região do experimento INEL (Idaho National Engineering Laboratory) realizado nos
EUA e os dados foram utilizados para inicializar o modelo LES-PALM (Large-Eddy Simulation
Parallelized). A partir das componentes do vento simuladas pelo modelo LES-PALM, foram
calculados os ângulos do vento e ambas informações foram consideradas para simular
a concentração de poluentes na atmosfera. O modelo simula o pico das concentrações
observadas de forma satisfatória, podendo ser utilizado para aplicações regulatórias de
qualidade do ar.

Palavras-chave: Dispersão de poluentes, Modelo LES-PALM, Componentes do vento, Ângulo


do vento

1. INTRODUÇÃO

O objetivo desse trabalho é simular a dispersão de poluentes na atmosfera considerando o


fenômeno de meandro do vento que ocorre em condições de vento fraco e dados simulados
pelos modelos WRF, LES-PALM e técnica 3D-GILTT para a região onde o experimento INEL
foi realizado. Será calculada a concentração de poluentes para cada valor do ângulo θ calculado
com base nas componentes do vento simuladas pelo modelo LES-PALM e os dados serão
comparados com dados observados durante a realização do experimento INEL.
Trabalho similar foi desenvolvido por Fávero et al. (2020), onde foi utilizado um modelo
de pluma segmento com velocidades estocásticas para simular a dispersão de poluentes em
condições de vento fraco para cada ângulo θ observado em cada teste do experimento INEL.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1088
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nesse trabalho ao contrário do trabalho de Fávero et al., o vento foi simulado pelo modelo
LES-PALM e não estocasticamente.
Neste trabalho foi usada uma abordagem Euleriana para calcular a concentração de
poluentes. Geralmente, os modelos Eulerianos de dispersão de poluentes consideram que o
vento médio é dominante na direção x e desprezam a componente v do vento [Buske et al.
(2007)]. No caso da ocorrência de meandro, as duas componentes horizontais (u e v) do vento
devem ser consideradas.
Conforme Mortarini e Anfossi (2015), em condições de vento fraco, a função de
autocorrelação Euleriana das componentes do vento horizontal tem um comportamento
oscilatório caracterı́stico identificando um lóbulo negativo e um pico no espectro que caracteriza
o meandro do vento. Além do mais, a razão entre os parâmetros de ajuste da função de
autocorrelação deve ser maior ou igual a 1.

2. METODOLOGIA

A equação que modela o fenômeno fı́sico em estudo é a equação de advecção-difusão


tridimensional transiente e é dada como [Blackadar (1997)]
     
∂c ∂c ∂c ∂c ∂ ∂c ∂ ∂c ∂ ∂c
+u +v +w = Kx + Ky + Kz (1)
∂t ∂x ∂y ∂z ∂x ∂x ∂y ∂y ∂z ∂z

sendo Kx , Ky e Kz os coeficientes de difusão nas direções longitudinal, lateral e vertical,


respectivamente. Os termos do lado esquerdo da equação (1) representam a advecção e os
termos do lado direito a difusão. A equação (1) está sujeita as condições de fluxo nulo em
x = 0, Lx ; y = 0, Ly e z = 0, h, condição inicial nula em t = 0 e condição de fonte dada
por u c(0, y, z, t) = Qδ(y − y0 )δ(z − Hs ), sendo Q a intensidade da fonte (g/s), h a altura da
camada limite planetária (m), Hs a altura da fonte (m), Lx e Ly os limites para longe da fonte
nos eixos x e y, respectivamente em (m) e δ é a função delta de Dirac.
Neste trabalho assume-se que a velocidade w é nula e ainda que o coeficiente de difusão Ky
tem dependência somente na direção z (Ky0 = 0) [Alves et al. (2012)], assim a equação (1) é
escrita como (c = c(x, y, z, t))

∂ 2c
   
∂c ∂c ∂c ∂ ∂c ∂ ∂c
− −u −v + Kx + Ky 2 + Kz =0 (2)
∂t ∂x ∂y ∂x ∂x ∂y ∂z ∂z

Aplicando a técnica da transformada integral na variável y, expande-se a concentração de


poluentes como [Buske et al. (2012)]
N
X cn (x, z, t)ζn (y)
c(x, y, z, t) = 1 (3)
n=0 Nn 2

sendo ζn (y) um conjunto de autofunções ortogonais dadas por ζn (y) = cos(λn y), com λn =
Z Ly

(n = 0, 1, 2, ...), sendo λn o conjunto de autovalores e Nn é dado por Nn = ζn2 (y)dy.
Ly
Z Ly 0
1
Substituindo a equação (3) na equação (2) e tomando momentos 1 ζm (y)dy pode-se
Nm2 0

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1089
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

escrever
∂cn (x, z, t) ∂cn (x, z, t)
αn,m + αn,m u + βn,m v cn (x, z, t) =
∂t ∂x
∂cn (x, z, t) ∂ 2 cn (x, z, t) ∂cn (x, z, t)
= αn,m Kx0 + αn,m Kx 2
+ αn,m Kz0 + (4)
∂x ∂x ∂z
∂ 2 cn (x, z, t)
+αn,m Kz − αn,m λ2n Ky cn (x, z, t)
∂z 2

As expressões para αn,m e βn,m que aparecem na equação (4) são dadas por
Z Ly 
1 0, m 6= n
αn,m = 1 1 ζn (y)ζm (y)dy = (5)
Nn Nm
2 2 0 1, m = n
(
Z Ly 2n2
1 0
Ly (m2 −n2 )
[cos(nπ)cos(mπ) − 1], m 6= n
βn,m = 1 1 ζn (y)ζm (y)dy = (6)
Nn Nm 0 2 2 0, m = n
Aplicando a técnica da transformada de Laplace na equação (4) na variável t e usando
a condição inicial [cn (x, z, 0) = 0] do problema, pode-se escrever o seguinte problema
estacionário
∂C(x, z, r)
αn,m r C(x, z, r) + αn,m u + βn,m v C(x, z, r) =
∂x

∂C(x, z, r) ∂ 2 C(x, z, r) ∂C(x, z, r)


= αn,m Kx0 + αn,m Kx 2
+ αn,m Kz0 + (7)
∂x ∂x ∂z

∂ 2 C(x, z, r)
+αn,m Kz − αn,m λ2n Ky C(x, z, r)
∂z 2


sendo que C C(x, z, r) = L {cn (x, z, t); t → r} denota a transformada de Laplace na variável
t e r é complexo.
Propõe-se a solução do problema da equação (7) com base nas autofunções do problema de
Sturm-Liouville e expande-se a concentração C(x, z, r) da seguinte forma
I
X
C(x, z, r) = cn,i (x, r)ςi (z) (8)
i=0

em que ςi (z) é um conjunto de autofunções ortogonais dadas por ςi (z) = cos(γi z), com

γi = (i = 0, 1, 2, ...), no qual γi é um conjunto de autovalores e I se refere ao número
h
de autovalores no somatório.
Substituindo a equação (8) na equação (7) resolve-se o problema pela Técnica da
Transformada de Laplace Integral Generalizada (GILTT) [Buske et al. (2007)]. A técnica
GILTT combina uma expansão em série com uma integração. Na expansão, é usada uma
base trigonométrica determinada com a ajuda de um problema auxiliar de Sturm-Liouville.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1090
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O sistema resultante de equações diferenciais ordinárias é analiticamente resolvido usando a


transformada de Laplace e diagonalização.
Finalmente, a concentração cn (x, z, t) é calculada pelo método da quadratura de Gauss-
Legendre [Stroud e Secrest (1996)]. Substituindo a solução do problema 2D na equação (3),
obtém-se a solução 3D-GILTT da equação de advecção-difusão.

2.1 Parametrização da turbulência e perfil do vento

Os coeficientes de difusão (Kα , α = x, y, z) que levam em conta o efeito de memória da


pluma de poluentes foram parametrizados seguindo [Degrazia et al. (1996)]
√ √
2 π 0, 64 u∗ ha2i (1 − z/h)α1 (z/h)X ∗ [2 π 0, 64 a2i (z/h) + 8ai (fm )i (1 − z/h)α1 /2 X ∗ ]
Kα = √
[2 π 0, 64 (z/h) + 16ai (fm )i (1 − z/h)α1 /2 X ∗ ]2
(9)
em que u∗ é a velocidade de fricção, z é a altura acima do solo, h é a altura da camada limite
1/3
estável (CLE), ai = (2, 7ci )1/2 /(fm )n,i , i = u, v, w, cu = 0, 3 e cv,w = 0, 4 são constantes, α1 =
1, 5 é uma constante que depende da evolução da CLE, (fm )n,i é a frequência do pico espectral
na estratificação neutra [(fm )n,u = 0, 045; (fm )n,v = 0, 16; (fm )n,w = 0, 33], X ∗ é a distância
adimensional dada pela equação X ∗ = x u∗ /(u h), sendo x a distância da fonte e u a velocidade
média do vento. Por fim, (fm )i = (fm )n,i (1 + 0, 03 ai fc z/u∗ + 3, 7 z/Λ) é a frequência do
pico espectral, sendo au = 3889, av = 1094, aw = 500, fc = 10−4 s−1 o parâmetro de Coriolis
e Λ o comprimento de Monin-Obukhov local dado por Λ = L (1 − z/h)5/4 , em que L é o
comprimento de Monin-Obukhov.
Neste trabalho foi utilizado o perfil de vento descrito por uma lei de potência [Panofsky e
Dutton (1984)], ou seja
 α
V z
= (10)
V1 z1
no qual V e V 1 são as velocidades médias horizontais do vento nas alturas z e z1 e α é uma
constante, onde neste trabalho o valor utilizado foi α = 0, 2 (valor utilizado na camada limite
estável).

2.2 Dados experimentais

Para validar o modelo foram utilizados dados de vento fraco reportados no experimento
INEL (USA) [Sagendorf e Dickson (1987)]. O experimento INEL consiste de uma série de
testes difusivos, conduzidos em um terreno plano e uniforme. O poluente SF6 foi coletado em
arcos posicionados nos raios de 100, 200 e 400 m do ponto de emissão na altura de 0, 76 m do
solo. O poluente foi liberado de uma altura de 1, 5 m acima do nı́vel do solo. O parâmetro
meteorológico vento em 2 m foi obtido do experimento. A rugosidade na superfı́cie foi de
0, 005 m.
Os parâmetros, comprimento de Monin-Obukhov, velocidade de fricção e altura da CLP,
não foram medidos no experimento INEL (USA), mas foram calculados por formulações
empı́ricas. O comprimento de Monin-Obukhov foi calculado [Zannetti (1990)] pela expressão
L = 1100u∗ 2 . A velocidade de fricção foi calculada como u∗ = ku(zr )/ln(zr /z0 ), sendo
zr = 2 m (altura de referência) e z0 = 0, 005. A altura da camada limite h foi calculada como
h = 0, 4(u∗ L/fc )1/2 [Zilitinkevith (1972)].

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1091
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.3 Modelo WRF

O modelo WRF é um modelo meteorológico regional de mesoescala amplamente utilizado


no Brasil e no mundo. O modelo pode ser inicializado por diversas fontes de dados. Nesse
trabalho, foram usadas reanálises 1 do NCEP/NCAR (National Centers for Environmental
Prediction/National Center for Atmospheric Research). O modelo WRF foi configurado para
trabalhar com 3 grades aninhadas conforme Figura 1.

Figura 1- Configurações das grades no modelo WRF.

Os processos fı́sicos presentes na atmosfera foram parametrizados no modelo WRF


conforme descrito na Tabela 1.

2.4 Modelo LES-PALM

A sigla PALM se refere ao modelo de simulação dos grandes turbilhões (LES) para fluxos
atmosféricos e oceânicos que se destina a arquiteturas de computadores em paralelos. A técnica
LES é baseada na separação de escalas, com o objetivo de reduzir o número de graus de
liberdade da solução.
Ψ(xi , t) = Ψ(xi , t) + Ψ0 (xi , t) (11)
em que Ψ se refere aos turbilhões.
Os grandes turbilhões (baixa frequência) são calculados diretamente e representam as
escalas resolvidas, já os pequenos turbilhões (alta frequência) são parametrizados usando
um modelo estatı́stico (escalas subgrade/subfiltro). Os pequenos e grandes turbilhões são
diferenciados definindo um comprimento de corte ∆.
O modelo LES-PALM [Raasch (2015)] usa discretização espacial e temporal por diferenças
finitas. Os métodos de passo de tempo explı́cito usados pelo modelo são os de Euler e Runge-
Kutta de segunda ou terceira ordem. Os métodos de advecção utilizados são Upstream, Piacsek-
Williams (diferenças finitas centradas de segunda ordem), esquema de Bott-Chlond (somente

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1092
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Parametrizações utilizadas para rodar o modelo WRF.


Processo Parametrização Referências
Microfı́sica Momento único Hong et al. (2004)
3 classes
Radiação de onda curta Dudhia Dudhia (1989)
Radiação de onda longa RRTM Mlawer et al. (1997)
Camada de superfı́cie MM5 Similaridade Paulson (1970)
Dyer e Hicks (1970)
Webb (1970)
Beljaars (1994)
Zhang e Anthes (1982)
Superfı́cie terrestre Modelo de superfı́cie Tewari et al. (2004)
terrestre unificado Noah
Camada limite planetária Mellor-Yamada Nakanishi e Niino (2006)
Nakanishi Niino Nakanishi e Niino (2009)

Parametrização cumulus Kain-Fritsch Kain (2004)

para escalares) e esquema de quinta ordem de Wicker e Skamarock. A equação de Poisson


para pressão é resolvida pelo método direto FFT e pelo método multigrade. As condições de
contorno horizontais podem ser cı́clicas ou não cı́clicas. A camada de superfı́cie é parametrizada
com a teria de similaridade de Monin-Obukhov e tem-se influxo turbulento para as condições
de contorno horizontais não cı́clicas.
As equações no modelo LES-PALM são espacialmente discretizadas na grade C de
Arakawa. Todas as variáveis escalares são definidas nos centros das grades. As componentes
da velocidade são deslocadas por metade do espaçamento da grade.
Os perfis de temperatura potencial e fluxos de calor (latente e sensı́vel) gerados pelo modelo
WRF foram considerados como condição inicial para o modelo LES-PALM. O modelo LES-
PALM foi configurado com 319 pontos nas direções x e y e 40 pontos na direção vertical.
O espaçamento de grade horizontal foi de 12, 5m e o vertical de 4, 0m, sendo que a grade é
esticada verticalmente a partir da altura de 40m.
Calcula-se o ângulo θ a partir das componentes horizontais do vento geradas pelo modelo
LES-PALM e utiliza-se esses dados para simular a dispersão de poluentes.

2.5 Função de autocorrelação

A função de autocorrelação mede o grau de correlação de uma variável consigo mesma


em um dado instante de tempo e em um instante de tempo posterior. Na forma discreta, ela é
calculada com base na seguinte expressão
Pn−k
(xi − x)(xi+k − x)
R(k) = i=1Pn 2
(12)
i=1 (xi − x)

sendo que n é o número total de observações (0 ≤ k ≤ n − 1) e x refere-se a uma dada


observação.
A partir da função de autocorrelação, calculada com base nos dados simulados pelo modelo
LES-PALM, emprega-se o método de ajuste. O método de ajuste utilizado é o algoritmo de
Gauss-Newton Bates e Watts (1988).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1093
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dentre as fórmulas de ajuste mais utilizadas, pode-se citar a proposta por Frenkiel [Frenkiel
(1953)]
R(τ ) = e−pτ cos(qτ ) (13)
e a proposta por Degrazia [Szinvelski et al. (2013); Moor et al. (2015)]
cos(qτ )
R(τ ) = (14)
(1 + pτ )2
sendo p e q os parâmetros de ajuste. A razão entre os parâmetros de ajuste é dada por m = q/p,
sendo m uma quantidade adimensional que controla a frequência de oscilação do meandro.

3. RESULTADOS

A Figura 2 mostra as funções de autocorrelação para as componentes u e v do vento


simuladas pelo modelo LES-PALM e seus respectivos espectros para o teste 4 do experimento
INEL. Pode ser observado o lóbulo negativo tanto para a componente u como para a componente
v juntamente com a razão dos parâmetros de ajuste maior do que 1 e pico do espectro na baixa
frequência, caracterı́sticas associadas ao meandro do vento.

Figura 2- Funções de autocorrelação (R (τ )) e espectros das componentes do vento horizontal simulados


pelo modelo LES-PALM, utilizando a parametrização de Mellor-Yamada Nakanishi Niino nı́vel 3 no
modelo WRF para o teste 4 do experimento INEL: a) componente u, b) componente v. τ é o tempo de
meandro (segundos).

A Figura 3 mostra as concentrações observadas (co ) para o teste 4 do experimento INEL


e preditas (cp ) pelo método 3D-GILTT. Como pode ser observado, o modelo simula de forma
satisfatória as concentrações observadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1094
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Concentrações observadas (co ) e preditas (cp ) pelo método 3D-GILTT para o teste 4 do
experimento INEL e para os arcos de 100, 200 e 400 m.

4. CONCLUSÕES

Foi descrita uma metodologia que identifica a ocorrência do fenômeno de meandro do vento.
As funções de autocorrelação calculadas com base nos dados de vento simulados pelo modelo
LES-PALM mostram um lóbulo negativo, juntamente com a razão dos parâmetros de ajuste
maior do que 1 e os respectivos espectros mostram um pico nas baixas frequências. Essas
caracterı́sticas, segundo a literatura, indicam a presença do fenômeno de meandro do vento.
O modelo euleriano baseado na equação da advecção-difusão leva em conta o efeito do
meandro do vento para simular a dispersão de poluentes na atmosfera. A turbulência foi
parametrizada por uma formulação que leva em conta o efeito de memória da pluma de
poluentes. O vento foi parametrizado usando perfil potência. Os dados usados para validar
a metodologia foram do experimento realizado nos EUA (INEL) sob condições atmosféricas
estáveis e de vento fraco.
O modelo de dispersão simula de forma satisfatória as concentrações observadas no teste 4
do experimento INEL. Como trabalhos futuros pretende-se fazer simulações para outros testes
desse experimento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1095
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Agradecimentos

Os autores agradecem a Coordenação de Aperfeiçoamento de Pessoal de Nı́vel Superior


(CAPES) pelo apoio financeiro para realização deste trabalho.

REFERÊNCIAS

Alves, I.P.; Degrazia, G.A.; Buske, D.; Vilhena, M.T.; Acevedo, O.C. (2012), Derivation of an eddy
diffusivity coefficient on source distance for a shear dominated planetary boundary layer. Physica. A
(Print), 1, 1-10.
Bates, D.M.; Watts, D.G. (1988), Nonlinear Regression Analysis and Its Applications. New York, p.90,
John Wiley & Sons.
Beljaars, A.C.M. (1994), The parameterization of surface fluxes in large-scale models under free
convection. Quarterly Journal of the Royal Meteorological Society, 121, 255-270.
Blackadar, A.K. (1997), “Turbulence and diffusion in the atmosphere: lectures in Environmental
Sciences”, Springer-Verlag.
Buske, D.; Vilhena, M.T.; Moreira, D.M.; Tirabassi, T. (2007), Simulation of pollutant dispersion for
low wind conditions in stable and convective planetary boundary layer. Atmospheric Environment,
41, 5496-5501.
Buske, D.; Vilhena, M.T.; Tirabassi, T.; Bodmann, B. (2012), Air pollution steady-state advection-
diffusion equation: the general three-dimensional solution. Journal of Environmental Protection
(Print), 3, 1124-1134.
Degrazia, G.A.; Vilhena, M.T.; Moraes, O.L.L. (1996), An algebraic expression for the eddy diffusivities
in the stable boundary layer: a description of near-source diffusion. Il Nuovo Cimento, 19C, 399-403.
Dudhia, J. (1989), Numerical Study of Convection Observed during the Winter Monsoon Experiment
Using a Mesoscale Two-Dimensional Model. Journal of the Atmospheric Sciences, 46, 3077-3107.
Dyer, A.J.; Hicks, B.B. (1970), Flux-gradient relationships in the constant flux layer. Quarterly Journal
of the Royal Meteorological Society, 96, 715-721.
Fávero, C.; Gonçalves, G.A.; Buske, D.; Quadros, R.S.; Silveira, V.C. (2020), Modelo de pluma
segmento com velocidades estocásticas para dispersão atmosférica em condições de vento fraco.
Ciência e Natura, 42, e11.
Frenkiel, F.N. (1953), Turbulent diffusion: mean concentration distribution in a flow field of
homogeneous turbulence. Advances in Applied Mechanics, 3, 61-107.
Hong, S.; Dudhia, J.; Chen, S. (2004), A Revised Approach to Ice Microphysical Processes for the Bulk
Parameterization of Clouds and Precipitation. Monthly Weather Review, 132, 103-120.
Kain, J. (2004), The Kain-Fritsch Convective Parameterization: An Update. Journal of Applied
Meteorology, 43, 170-181.
Mlawer, E.J; Taubman, S.J.; Brown, P.D.; Iacono, M.J. (1997), Radiative transfer for inhomogeneous
atmospheres: RRTM, a validated correlated-k model for the longwave. Journal of Geophysical
Research, 102, 16,663-16,682.
Moor, L.P.; Degrazia, G.A.; Stefanello, M.B.; Mortarini, L.; Acevedo, O.C.; Maldaner, s.; Szinvelski,
C.R.P.; Roberti, D.R.; Buligon, L.; Anfossi, D. (2015), Proposal of a new autocorrelation function in
low wind speed conditions, Physica A, 438, 286-292.
Mortarini, L.; Anfossi, D. (2015), Proposal of an empirical velocity spectrum formula in lowwind speed
conditions. Quarterly Journal of the Royal Meteorological Society, 141, 85-97.
Nakanishi, M.; Niino, H. (2006), An Improved Mellor–Yamada Level-3 Model: Its Numerical Stability
and Application to a Regional Prediction of Advection Fog. Boundary-Layer Meteorology, 119, 397-
407
Nakanishi, M.; Niino, H. (2009), Development of an Improved Turbulence Closure Model for the
Atmospheric Boundary Layer. Journal of the Meteorological Society of Japan, 87, 895-912.
Panofsky, H.A.; Dutton, J.A. (1984), “Atmospheric Turbulence”, John Wiley & Sons, New York.
Paulson, C.A. (1970), The Mathematical Representation of Wind Speed and Temperature Profiles in the
Unstable Atmospheric Surface Layer. Journal of Applied Meteorology, 9, 857-861.
Raasch, S. (2015), PALM Overview. Institut für Meteorologie und Klimatologie, Leibniz Universität
Hannover. https://palm.muk.uni-hannover.de/trac/wiki/doc/tut/tec/overview. Acessado em 15 jul
2017.
Sagendorf, J.F.; Dickson, C.R. (1987), Diffusion under low wind-speed, inversion conditions. “Technical
Memorandum ERL ARL-52”, National Oceanics and Atmospherics Administration, Idaho Falls,
Idaho, https://www.arl.noaa.gov/documents/reports/ARL-52.pdf.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1096
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Stroud, A. H.; Secrest, D. (1996), “Gaussian quadrature formulas”, Englewood Cliffs, N. J., Prentice
Hall Inc.
Szinvelski, C.R.P.; Degrazia, G.A.; Buligon, L.; Moor, L. (2013), Dedução da equação da variança
espacial lateral para uma nova formulação da função de autocorrelação lagrangiana. Ciência e Natura,
Edição Especial, 187-190.
Tewari, M.; Chen, F.; Wang, W.; Dudhia, J.; Lemone, M.A.; Mitchell, K.; Ek, M.; Gayno, G.; Wegiel, J.;
Cuenca, R.H. (2004), Implementation and verification of the unified noah land surface model in the
WRF model. 20th Conference on Weather Analysis and Forecasting/16th Conference on Numerical
Weather Prediction.
Webb, E.K. (1970), Profile relationships: the log-linear range, and extension to strong stability. Quarterly
Journal of the Royal Meteorological Society, 96, 67-90.
Zhang, D.; Anthes, R.A. (1982), A High-Resolution Model of the Planetary Boundary Layer - Sensitivity
Tests and Comparisons with SESAME-79 Data. Journal of Applied Meteorology, 21, 1594-1609.
Zannetti, P. (1990), “Air Pollution Modelling”, p.444, Computational Mechanics Publications,
Southampton.
Zilitinkevith, S.S. (1972), On the determination of the height of the Ekman boundary layer. Boundary-
Layer Meteorology, 3, 141-145.

TRANSIENT POLLUTANTS DISPERSION SIMULATION IN LOW WIND CONDITIONS


UTILIZING WIND DATA SIMULATED BY LES-PALM MODEL

Abstract. The aim of this work is to simulate the pollutants dispersion in the atmosphere
in low wind conditions using Generalized Integral Laplace Transform Technique in three
dimensions (3D-GILTT) where the advection-diffusion equation is solved in a analytically way.
Were made simulations with WRF (Weather Research and Forecasting) model to INEL (Idaho
National Engineering Laboratory) experiment region helded in USA and the data were used to
initialize the LES-PALM (Large-Eddy Simulation Parallelized) model. From the simulated wind
components by LES-PALM model, were calculated the wind angles and both informations were
considered to simulate the pollutants concentration in the atmosphere. The model simulates the
observed concentrations peak in a satisfactory way and can be used to air quality regulatory
applications.

Keywords: Pollutants dispersion, LES-PALM model, Wind components, Wind angle

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1097
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

VERIFICAÇÃO DO VOLUME DE CONTROLE EM SIMULAÇÕES NUMÉRICAS


NA ENGENHARIA DO VENTO COMPUTACIONAL

Matheus Borges Seidel1 - matheusbseidel@outlook.com


Geraldo José Belmonte dos Santos1 - belmonte@uefs.br
José Mário Feitosa Lima1 - lima.jmf@gmail.com
1 Universidade do Estadual de Feira de Santana, PPGECEA - Feira de Santana, BA, Brasil

Resumo. O estudo dos efeitos do vento em edificações deu origem à chamada Engenharia
do Vento que, tradicionalmente, utiliza-se de ensaios fı́sicos com modelos reduzidos em túneis
de vento ou procedimentos de cálculos contidos em normas especı́ficas. Apesar da validade
desses métodos, verifica-se que as normas tem seu escopo de aplicação limitado aos casos
de edificações e situações mais comuns encontrados e os túneis de vento não são facilmente
acessı́veis, devido à sua escassez e alto custo. Assim, o uso da modelagem numérico-
computacional apresenta-se como uma alternativa viável no estudo aerodinâmico de estruturas
em Engenharia do Vento Computacional. Neste campo, uma das principais limitações
verificadas nos estudos encontra-se no poder de processamento dos computadores que limita
o número de equações resolvidas em tempo hábil e, consequentemente, limita também o nı́vel
de refinamento da malha necessário para captação de fenômenos que acontecem em escalas
menores, exigindo, desta forma, modelos matemáticos eficazes de representação dos efeitos
de turbulência. Na tentativa de minimizar o custo computacional das análises, o presente
trabalho analisa as dimensões do volume de controle do fluido na simulação do vento sobre uma
estrutura de forma a obter o menor volume possı́vel que não interfira na acurácia da análise. Os
resultados mostram ser viável reduzir as dimensões do domı́nio do fluido em relação a outros
ensaios já publicados sem prejuı́zo significativo da análise, reduzindo, consequentemente, o
custo computacional.

Palavras-chave: Engenharia do vento computacional, interação fluido-estrutura, domı́nio do


fluido

1. INTRODUÇÃO

O estudo dos efeitos do vento em edificações deu origem à chamada Engenharia do Vento
(EV) que, tradicionalmente, utiliza ensaios fı́sicos em túneis de vento para simular a ação

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1098
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

do vento em estruturas reais por meio de modelos reduzidos submetidos a ventos artificiais
(BRAUN, 2007). No Brasil, os resultados obtidos em tais estudos foram sistematizados na
norma NBR 6123:1988 – Forças devidas ao vento em edificações. Apesar de sua validade,
a própria norma reconhece sua limitação, pois sua aplicação é restrita a casos de geometrias
especı́ficas e simplificadas, e sugere estudos adicionais para edificações consideradas fora do
comum (ABNT, 1988). Segundo Stathopoulos (1997) e Awruch, Braun e Greco (2015), embora
importantes, os resultados obtidos em túneis de vento possuem várias fontes de erros que devem
ser avaliadas e seus resultados não devem ser recebidos como dogmaticamente inquestionáveis.
Nesse contexto, o avanço da computação cientı́fica deu origem à chamada Engenharia do
Vento Computacional (EVC), que utiliza ferramentas computacionais para resolver problemas
modelados pelas equações de Navier-Stokes (BRAUN, 2007). Assim, diante das limitações dos
túneis de vento e da aplicação de normas, a EVC tem se apresentado como uma alternativa
viável para a resolução de problemas de estruturas submetidas a cargas de vento. Diversos
trabalhos como Awruch, Braun e Greco (2015), Blocken, Stathopoulos e Beeck (2016),
Gunawardena et al. (2017) e Mukherjee e Bairagi (2018) tem demonstrado a validade e
confiabilidade dos resultados da EVC.
Desde o seu surgimento na década de 80, umas das principais limitações da EVC foi o
poder de processamento dos computadores. De acordo com Murakami (1997), a presença de
corpos rombudos (bluff body) com arestas vivas constitui uma das maiores dificuldades nas
simulações da EVC, pois exige a implementação de malhas bastante refinadas para a captação
de importantes fenômenos (vórtices) que acontecem nas escalas menores, aumentando,
consequentemente, de forma proibitiva o custo computacional dessas análises.
Embora a resolução direta das equações em todas as escalas seja a forma mais precisa
de resolver problemas de escoamento (SANGALLI, 2009), o refinamento da malha exigido
para isso torna-se proibitivo. Apesar do avanço na capacidade dos computadores, o custo
computacional continua sendo uma preocupação na resolução de problemas de EVC. Para
ilustrar o problema, Neto (2002) apresenta uma expressão matemática que calcula o número N
de equações que seriam necessárias para solucionar escoamentos atmosféricos tridimensionais
de forma direta, isto é, sem aplicação de modelos de turbulência:

L
N = ( )3 , (1)
l
onde L é a dimensão caracterı́stica do problema e l é a escala dissipativa de Kolmogorov, onde
a energia dos vórtices em pequenas escalas é absorvida pelas forças viscosas do fluido. Um
problema que apresente, por exemplo, L = 30, 0 m e l = 1, 0 mm, contará com um número de
equações da ordem de N = 1013 , cerca de 100.000 vezes mais do que o número de equações
praticável atualmente, em torno de 108 (PICCOLI, 2009).
Para atenuar as limitações impostas pelos computadores disponı́veis atualmente, são
utilizados modelos de turbulência que permitem representar a multiplicidade de escalas em
que ocorrem os fenômenos aerodinâmicos de forma computacionalmente exequı́vel (PICCOLI,
2009). Além disso, deve-se buscar formas de reduzir o número de graus de liberdade por meio
da simplificação e redução do modelo ou uso de malhas adaptativas. Na tentativa de reduzir o
custo computacional das análises (mesmo com aplicação de modelos de turbulência), o presente
trabalho analisa as dimensões do volume de controle do fluido na simulação do vento sobre uma
estrutura prismática de forma a obter o menor volume possı́vel que não interfira na acurácia
da análise. Para isso, são apresentados dois ensaios de validação do modelo e, em seguida,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1099
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresenta-se a simulação de uma estrutura com um volume de controle usual que é reduzido
progressivamente. As simulações apresentadas foram realizadas no módulo Fluid Flow (Fluent)
do software Ansys Workbench.

2. MODELAGEM MATEMÁTICA DA AÇÃO DO VENTO EM ESTRUTURAS

2.1 Equações de Navier-Stokes Associadas ao Modelo de Turbulência LES

A modelagem matemática do problema do vento é dada pelas equações Navier-Stokes


filtradas espacialmente para representar grandes vórtices e por modelo de turbulência LES
(Large Eddy Simulation). Dessa forma, tem-se

∂ v̄
ρ + ρv̄.∇v̄ = ρg − ∇P̄ + µ 4 v̄ + λ∇div(v̄) + div(σ SGS ) e (2)
∂t
σ SGS = 2µt ∇S v̄ (3)
div(v̄) = 0, (4)
onde ρ é a massa especı́fica do ar atmosférico, considerado incompressı́vel; g é a aceleração
da gravidade; P é a pressão estática do fluido; µ e λ são a viscosidade dinâmica e volumétrica,
respectivamente, do ar atmosférico; v̄ é o vetor velocidade do fluxo; e t é o instante de tempo;
σ SGS é o tensor tensão submalha de Reynolds, dado pela hipótese de Boussinesq e usado
para representar os efeitos das menores escalas (inferiores aos elementos da malha); µt é a
viscosidade turbulenta, sendo dada pelo modelo de Smagorinsky-Lily que pode ser visto em
detalhes em Braun (2007).
Vale salientar que os modelos de turbulência viabilizam a solução de problemas na
EVC, possibilitando simular fenômenos aerodinâmicos em todas as escalas, reproduzindo,
desta forma, o comportamento do vento real sem utilizar um número de graus de liberdade
excessivamente elevado que inviabilize a solução, conforme Sangalli (2009).
O modelo de turbulência de Simulação de Grandes Escalas (ou LES), aqui utilizado, foi
escolhido por mostrar-se mais adequado ao objetivo proposto, conforme Murakami (1997),
Stathopoulos (1997), Braun (2007) e Awruch, Braun e Greco (2015). O modelo LES é baseado
no conceito de cascata de energia, que modela o escoamento turbulento como uma superposição
de vórtices, o que é adequado para altos números de Reynolds. Os vórtices maiores retiram
energia do escoamento principal e transferem-na para vórtices de uma escala menor, que por
sua vez transportam a energia para vórtices de uma escala ainda menor, de forma sucessiva,
até chegar em uma escala pequena o suficiente onde a energia possa ser absorvida pelas forças
viscosas do fluido.

2.2 Coeficientes aerodinâmicos

De acordo com Nunez, Loredo-Souza e Rocha (2012), coeficientes aerodinâmicos são a


forma mais básica para analisar o comportamento aerodinâmico de uma estrutura submetida a
escoamento de ar. Esses coeficientes são conceitos utilizados nas normas de vento (e.g. NBR
6123:1988) e corrigem a distribuição de pressão dado pela equação de Bernoulli; são expressos
matematicamente na equação:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1100
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4P F
C= 2
= (5)
(1/2)ρv q.Ae
onde F é a força lı́quida numa região da estrutura; C é o coeficiente aerodinâmico; q =
(1/2)ρv 2 é a pressão no ponto de estagnação da região dada pela equação de Bernoulli; e Ae é
a área efetiva da região analisada.
No caso da aplicação da referida norma de vento, os coeficientes C são obtidos em tabelas
e ábacos e, então, a força é calculada. No caso de ensaios numéricos (ou, semelhantemente, em
túnel de vento) as forças e momentos são obtidos na análise a partir dos resultados de pressão
sobre a superfı́cie e os coeficientes podem, assim, ser determinados pela equação (6), que são
decorrentes da equação (5) aplicadas a cada direção:

Fx Fy Fz Mx My Mz
CFx = ; CFy = ; CFz = ; CMx = 2
; CMy = 2
; CMz =
q.HW q.HL q.W L q.H L q.H W q.HLW
(6)
onde Fi e Mi são a força e o momento resultantes na direção i, respectivamente; L, W e H são
as dimensões da estrutura em x, y e z, respectivamente.

3. ENSAIOS DE VALIDAÇÃO

3.1 Cilindro 2D < = 103

O primeiro exemplo analisado é um cilindro de 1,0 metro de diâmetro submetido ao


escoamento turbulento bidimensional de um fluido viscoso com número de Reynolds igual a
103 . A Figura 1 mostra a geometria do problema e sua respectiva malha.

Figura 1- Cilindro 2D. Dimensões em metros

A face AC foi definida como a entrada do fluido com velocidade uniforme e a face BD
foi definida como a saı́da com pressão relativa nula. As faces AB e CD foram definidas como
paredes com condição de contorno de deslizamento livre (cisalhamento nulo). A superfı́cie do
cilindro foi modelada como uma parede rı́gida com condição de não deslizamento.
Os dados fı́sicos, geométricos e a organização da malha deste problema foram replicados
de Braun (2007), sendo massa especı́fica de 1,0 kg/m3 , viscosidade dinâmica de 0,01 Ns/m2 ,
velocidade de entrada de 10,0 m/s, dimensão caracterı́stica (diâmetro) de 1,0 m e passo de
tempo igual a 1, 8 × 10−3 s.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1101
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os coeficientes de pressão foram calculados como valores médios ao longo do tempo no


escoamento e os resultados foram comparados com os obtidos em Braun (2007) e os calculados
usando a NBR 6123, os quais estão explicitados na Figura 2. Cabe observar nesses resultados
que Braun (2007) utilizou dois métodos numéricos, explı́cito-iterativo e explı́cito de 2 passos,
que conduziram a resultados diferentes.

Figura 2- Coeficientes de pressão em torno do cilindro

A análise dos coeficientes de pressão mostra um pico de diferença de 17% entre os valores
do presente trabalho e aqueles obtidos por Braun (2007) na região de maior sucção, em
aproximadamente 75o , o que resulta dos diferentes procedimentos matemáticos adotados. Nas
demais regiões, verifica-se boa concordância entre os coeficientes. No caso da NBR 6123,
constatou-se discordâncias consideráveis na região entre 110o e 250o , sendo a divergência
explicada pela grande diferença no número de Reynolds do presente trabalho para aquele
considerado na Norma, que é superior a 4, 2 × 105 .

3.2 Prisma tridimensional

Nesse caso tridimensional, foi replicada a análise de um edifı́cio vertical isolado que foi
resolvido por Braun (2007). O autor utilizou o código implementado em sua tese de doutorado e
validou seus resultados com Akins, Peterka e Cermak (1977). A Figura 3 apresenta a geometria
do edifı́cio e do domı́nio do fluido.

Figura 3- Caracterı́sticas geométricas do escoamento. Fonte: Braun (2007)

A face à esquerda do domı́nio do fluido consiste na entrada do escoamento e a face à direita


em uma saı́da livre com pressão relativa nula. Os limites laterais e superior do domı́nio do fluido
foram modelados como condições de contorno com livre deslizamento, o que simula a situação
do edifı́cio em um local aberto, como de fato acontece na edificação real. O limite inferior (solo)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1102
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e as paredes do edifı́cio foram modeladas como faces de deslizamento nulo, onde a velocidade
tangencial do fluido no contato é nula. O vento na entrada foi modelado pela lei de potência
apresentada por Loredo-Souza, Schettini e Paluch (2004) com p = 0, 34 e v(zref ) = 50, 0m/s.
A malha de volumes finitos utilizada teve 42.139 nós e 231.274 elementos. Já nesta etapa,
após testes realizados, verificou-se possı́vel diminuir o volume de controle utilizado por Braun
(2007) sem prejuı́zo dos resultados da análise. Ao invés de utilizar um comprimento de 1.530
m na direção x (conforme Figura 3), utilizou-se 930 m, sendo 600 m de comprimento livre a
sotavento (10H), o que tornou a análise mais rápida. Este ensaio foi realizado em Seidel (2020),
onde maiores detalhes estão disponı́veis.
As propriedades do escoamento simulado são: massa especı́fica de 1,25 kg/m3 , viscosidade
dinâmica de 6, 96×10−3 Ns/m2 , velocidade caracterı́stica de 27,56 m/s, dimensão caracterı́stica
de 30,0 m e passo de tempo de 5×10−3 s. Para modelagem da turbulência, utilizou-se o modelo
LES e o modelo de submalha Smagorinsky-Lily com CS = 0, 1, conforme Braun (2007) e
Akins, Peterka e Cermak (1977).
A Tabela 1 apresenta os resultados obtidos neste trabalho e aqueles utilizados para validação.
Na comparação, também foram incluı́dos os coeficientes de força obtidos pela NBR 6123,
embora a Norma estabeleça coeficientes com base na ação estática do vento. Os coeficientes de
momento não são dados pela Norma, portanto, só foram considerados coeficientes de força. Os
ı́ndices dos coeficientes (x, y e z) estão de acordo com os eixos de referência dados na Figura 3.

Tabela 1- Coeficientes médios de força e momento - Prisma tridimensional

P. trabalho Braun (2007) Akins, Peterka e Cermak (1977) NBR 6123


CFx 1,435 1,407 1,457 1,4
CFy 0,047 0,012 0,009 0,0
CFz 1,178 1,340 1,266 0,8
CMx 0,018 0,000 0,000 NA
CMy 0,824 0,874 0,829 NA
CMz 0,011 0,024 0,000 NA

Os coeficientes calculados mostram boa concordância com os resultados dos demais autores,
sendo que as maiores diferenças relativas foram verificadas nos coeficientes que possuem
valor nulo ou próximo de nulo. Os coeficientes da Norma na direção do escoamento (CFx )
e na direção transversal ao mesmo (CFy ) mostraram-se coerentes com os demais resultados,
porém divergências consideráveis, em torno de 50%, foram identificadas no coeficiente de
força vertical (CFz ), o que evidencia a limitação da Norma e necessidade de estudos mais
aprofundados. A Figura 4 mostra o campo de pressão relativa e as linhas de corrente do ensaio
realizado.

4. ANÁLISE DO VOLUME DE CONTROLE

Para verificação das dimensões do volume de controle considerado, propôs-se uma estrutura
prismática de dimensões 15, 0 m × 10, 0 m × 60, 0 m (dimensões x,z,y) colocada, inicialmente,
no domı́nio de fluido indicado na Figura 5. As dimensões iniciais de referência foram adotadas
com proporções semelhantes a outros trabalhos da EVC (AWRUCH; BRAUN; GRECO, 2015;
BRAUN, 2007) (também cf. seção 3.2). Quanto à seção transversal, de acordo com Bênia

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1103
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- (a) Campo de pressão (Pa) vertical no plano de simetria, (b) campo de pressão (Pa) horizontal
em z=30,0 m, (c) linhas de corrente (m/s) no plano vertical no eixo de simetria e (d) linhas de corrente
(m/s) no plano horizontal em z=30,0 m

(2013), a razão entre a área de bloqueio e a seção de escoamento, devido a presença dos
modelos, não deve ser superior a 5% em ensaios em túnel de vento, ou, caso o limite seja
ultrapassado, deve-se recorrer a correções dos resultados. No exemplo em questão, a área de
bloqueio é inferior a 0,5%, então, considerando-se o limite de 5% como um parâmetro balizador,
infere-se que a seção adotada a priori mostra-se bastante razoável. As faces laterais e superior
do volume de controle foram consideradas como paredes de deslizamento livre, simulando a
condição da estrutura em local aberto. As faces inferior (solo) e as paredes do modelo foram
consideradas como faces de não deslizamento, onde a velocidade tangencial no contato é nula.

Figura 5- Volume de controle da análise

Novamente, o vento na entrada foi modelado pela lei de potência apresentada por Loredo-
Souza, Schettini e Paluch (2004) com p = 0, 34 e, para modelagem da turbulência, utilizou-
se o modelo LES e o modelo de escala da submalha Smagorinsky-Lily com CS = 0, 1.
As propriedades do ar atmosférico foram tomadas em CNTP, com massa especı́fica igual a
1, 225 kg/m3 e viscosidade dinâmica igual a 1, 7894 × 10−4 N s/m2 . A velocidade de entrada
foi de 30, 0 m/s e o passo de tempo foi 0, 005 s.
A Tabela 2 apresenta os coeficientes médios de força e momento obtidos na análise inicial,
além dos coeficientes de força previstos pela NBR 6123. Na comparação dos coeficientes de
força da norma com os da análise one way, foi verificado que o coeficiente na direção do
escoamento (CFz ) apresentou uma diferença de 22% e o coeficiente na direção transversal
ao escoamento (CFx ) foi igual ao da simulação numérica; assim como na simulação anterior, a
maior diferença encontrada foi no coeficiente de força vertical (CFy ), onde a divergência foi de
55%.
Após esta análise inicial, foram realizadas simulações reduzindo-se os parâmetros
geométricos a, b, c e d (conforme Figura 5) e foram determinados os coeficientes de força

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1104
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e momento. As Tabelas de 3 a 6 apresentam os resultados obtidos. Em todos os casos, as


demais dimensões foram mantidas iguais ao volume de controle inicial. Foi realizado também
um ensaio aumentando-se a dimensão b de 600, 0 m para 900, 0 m, o que conduziu a resultados
com diferenças desprezı́veis da ordem de 0,02.

Tabela 2- Coeficientes médios de força e momento de referência - Prisma tridimensional

P. trabalho NBR 6123


CFz 0,881 1,1
CFy 0,452 0,7
CFx 0,002 0,0
CMy 0,005 NA
CMz 0,009 NA
CMx -0,485 NA

Tabela 3- Coeficientes médios de força e momento - Variação do parâmetro a

Ref. a=250m a=200m a=150m


CFz 0,881 1,007 0,911 0,866
CFy 0,452 0,485 0,491 0,352
CFx 0,002 0,107 -0,066 -0,046
CMy 0,005 0,369 -0,467 -0,466
CMz 0,009 0,038 -0,040 -0,028
CMx -0,485 -0,606 -0,629 -0,611

Tabela 4- Coeficientes médios de força e momento - Variação do parâmetro b

Ref. b=300m b=150m b=100m b=75m b=50m


CFz 0,881 0,891 0,934 0,909 0,932 0,568
CFy 0,452 0,448 0,559 0,447 0,282 0,034
CFx 0,002 0,008 -0,009 -0,096 0,027 0,007
CMy 0,005 0,001 0,000 -0,011 0,000 0,000
CMz 0,009 0,003 0,002 -0,054 0,015 0,006
CMx -0,485 -0,488 -0,509 -0,498 -0,494 -0,324

Tabela 5- Coeficientes médios de força e momento - Variação do parâmetro c

Ref. c=250m c=200m c=150m c=100m


CFz 0,881 0,878 0,898 0,902 0,927
CFy 0,452 0,302 0,245 0,469 0,554
CFx 0,002 0,015 -0,049 0,029 0,098
CMy 0,005 0,003 -0,007 0,007 0,006
CMz 0,009 0,005 -0,035 0,018 0,058
CMx -0,485 -0,468 -0,475 -0,497 -0,511

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1105
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 6- Coeficientes médios de força e momento - Variação do parâmetro d

Ref. d=250m d=200m d=150m d=100m d=80m d=65m


CFz 0,881 0,874 0,879 0,864 0,895 0,919 0,952
CFy 0,452 0,432 0,394 0,484 0,381 0,388 0,504
CFx 0,002 0,038 0,011 -0,013 -0,045 0,0107 -0,0591
CMy 0,005 -0,001 0,003 0,006 0,002 0,004 0,009
CMz 0,009 0,017 0,002 -0,013 -0,030 0,005 -0,043
CMx -0,485 -0,473 -0,476 -0,475 -0,479 -0,489 -0,512

Assumindo o volume de controle inicial como referência balizadora (com base nos ensaios
de validação), verifica-se que todas as reduções dos parâmetros a e c conduziram a erros
consideráveis em pelo menos um dos coeficientes de força/momento e, portanto, não permitem
redução desta dimensão sob pena de prejuı́zo dos resultados finais.
Por outro lado, os parâmetros geométricos b e d sofreram reduções sem prejuı́zo na obtenção
dos coeficientes. A dimensão b, quando reduzida de 600m para 300m (equivalente a 5 vezes
a altura da estrutura), implicou em diferenças desprezı́veis nos resultados finais, apresentando
divergência máxima igual a 0,01 no coeficiente CFz . De forma semelhante, a dimensão d,
quando reduzida de 300m para 150m (equivalente a 2,5 vezes a altura da estrutura), apresentou
resultados bastante semelhantes aos de referência, com uma diferença máxima de 0,03 no
coeficiente CFy .
Apesar das análises com as reduções supracitadas nas dimensões b e d aplicadas
isoladamente não prejudicarem os resultados dos coeficientes, quando as duas reduções foram
feitas na mesma simulação, verificou-se um erro considerável no coeficiente CFy , que foi igual
a 0,357; os demais coeficientes mantiveram-se com divergências desprezı́veis. Assim, nota-
se que as reduções do volume de controle devem ser feitas de forma cautelosa, de maneira a
garantir a acurácia necessária a cada simulação.
A partir dos dados apresentados, é possı́vel otimizar o volume do domı́nio do fluido
considerado em modelagens na EVC, tendo em vista a necessidade de se reduzir o número de
elementos presentes na malha e, por conseguinte, o custo computacional da simulação realizada.

5. CONCLUSÃO

Portanto, tendo em vista as limitações impostas pelo poder de processamento dos


computadores atuais à resolução numérica de problemas da EVC, os resultados apresentados
neste trabalho podem auxiliar trabalhos futuros nesta área ao vislumbrar a possibilidade de
reduzir o custo computacional das análises através da otimização das dimensões do volume de
controle.
Tendo em vista o não esgotamento deste assunto, estudos semelhantes a estes serão úteis
para verificar a possibilidade de redução do volume de controle em situações de geometrias,
velocidades e tipos de fluidos distintos dos aplicados no presente texto.
Agradecimento
Os autores agradecem à CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nı́vel
Superior pela bolsa de estudos concedida durante o desenvolvimento deste trabalho.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1106
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Referências

AKINS, R. E.; PETERKA, J. A.; CERMAK, J. E. Mean force and moment coefficients for
buildings in turbulent boudary layers. Journal of industrial aerodynamics, Amsterdam, n. 2, p.
195–209, 1977.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6123: Forças devidas ao
vento em edificações. Rio de Janeiro, 1988.
AWRUCH, A. M.; BRAUN, A. L.; GRECO, M. Engenharia do vento computacional e suas
aplicações na engenharia civil. análise aerodinâmica e aeroelástica. Revista internacional de
métodos numéricos para cálculo y diseño en ingienierı́a, Barcelona, v. 1, n. 31, p. 55–64, 2015.
BLOCKEN, B.; STATHOPOULOS, T.; BEECK, J. P. A. J. van. Pedestrian-level wind
conditions around buildings: Review of wind-tunnel and cfd techniques and their accuracy for
wind comfort assessment. Building and Environment, Amsterdam, v. 100, p. 50–81, 2016.
BêNIA, M. C. D. Determinação dos Efeitos de Vizinhança na Resposta Dinâmica de Edifı́cios
Altos Sob Ação do Vento. Dissertação (Mestrado) — Universidade Federal do Rio Grande do
Sul, Porto Alegre, set. 2013.
BRAUN, A. L. Simulação numérica na engenharia do vento incluindo efeitos de interação
fluido-estrutura. Tese (Doutorado) — Universidade Federal do Rio Grande do Sul, Porto
Alegre, 2007.
GUNAWARDENA, T. et al. Wind analysis and design of tall buildings, the state of the art. 8th
Internacional conference on structural engineering and construction management, Colombo,
p. 2–10, 2017.
LOREDO-SOUZA, A. M.; SCHETTINI, E. B. C.; PALUCH, M. J. Simulação da camada
limite atmosférica em túnel de vento. Escola de Primavera de Transição e Turbulência -
Associação Brasileira de Engenharia e Ciências Mecânicas, Porto Alegre, n. IV, 2004.
MUKHERJEE, S.; BAIRAGI, A. K. Interference effect on principal building due to setback
tall building under wind excitation. SEC18: Proceedings of the 11th Structural Engineering
Convention, West Bengal, n. 20180306, p. 13–18, 2018.
MURAKAMI, S. Current status and future trends in computacional wind engineering. Journal
of wind and industrial aerodynamics, Amsterdam, v. 67 e 68, p. 3–34, 1997.
NETO, A. S. Fundamentos da turbulência nos fluidos. Rio de Janeiro: Associação Brasileira
de Ciências Mecânicas, 2002.
NUNEZ, G. J. Z.; LOREDO-SOUZA, A. M.; ROCHA, M. M. Uso do túnel de vento como
ferramenta de projeto no design aerodinâmico. Design e Tecnologia, Porto Alegre, v. 2, n. 4, p.
10–23, 2012. ISSN 2178-1974.
PICCOLI, G. L. Analise numerica na engenharia do vento computacional empregando
computacao de alto desempenho e simulacao de grandes escalas. Dissertação (Mestrado) —
Universidade Federal do Rio Grande do Sul, Porto Alegre, maio 2009.
SANGALLI, L. A. Analise numerica da acao do vento sobre pontes com sistemas de controle
de vibracao. Dissertação (Mestrado) — Universidade Federal do Rio Grande do Sul, Porto
Alegre, maio 2009.
SEIDEL, M. B. Avaliação Computacional do efeito de vizinhança na ação do vento em
edificações. Dissertação (Mestrado) — Universidade Estadual de Feira de Santanal, Feira de
Santana, out. 2020.
STATHOPOULOS, T. Computacional wind engineering: Past achievements and future
challaenges. Journal of wind and industrial aerodynamics, Amsterdam, v. 67 e 68, p. 509–532,
1997.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1107
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

QUALIDADE DE AÇOS INOXIDÁVEIS AUSTENÍTICOS 304 E 316L E SUAS


PROPRIEDADES MECÂNICAS QUANTO A TRAÇÃO.

Victor Barbosa de Souza1 – victor_souza11@hotmail.com


Otávio Goulart de Mello Gomes1 – otaviogoulat@hotmail.com
Thaynara Ramos de Andrade1 – thaynara-andrade12@hotmail.com
Markssuel Teixeira Marvila2 – markssuel@hotmail.com
Afonso Rangel Garcez de Azevedo2 – afonso.garcez91@gmail.com
Euzébio Bernabé Zanelato2 – ebzanelato@gmail.com
Sergio Neves Monteiro3 – snevesmonteiro@gmail.com
Wendell Bruno Almeida Bezerra3 – wendellbez@ime.eb.br
Carlos Maurício Fontes Vieira2 – viera@uenf.br
1
Centro Universitário Redentor – Itaperuna, RJ, Brasil.
2
Universidade Estadual do Norte Fluminense – Campos dos Goytacazes, RJ, Brasil.
3
Instituto Militar de Engenharia – Rio de Janeiro, RJ, Brasil.

Resumo. O aço inoxidável é uma liga de ferro (Fe) e Cromo (Cr) com no mínimo 10,50% de
Cr, é um material conhecido por ter uma grande resistência à corrosão, ao impacto e à
abrasão, além de grande durabilidade. Embora os aços inoxidáveis aqui estudados sejam
austeníticos AISI 304 e 316L, suas propriedades podem se diferenciar em cada caso a se
utilizar. Com isso conceituamos na melhoria de como aferir de modo que cada um deles seja
melhor em qualquer especialização que se queira projetar, fornecendo com suas pequenas
diferenças o seu aperfeiçoamento. O existente trabalho, através de um ensaio de tração e
analisando diversos dados e diagramas gerados pelo mesmo, tem a finalidade de estabelecer
um comparativo entre as propriedades mecânicas e físicas dos tradicionais aços inoxidáveis
austeníticos estudados, usados diariamente nas indústrias e diversos outros campos de
trabalho.

Palavras-chave: Aços inoxidáveis austeníticos, propriedades mecânicas, ensaio de tração.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1108
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

O aço inoxidável é uma liga de ferro (Fe) e Cromo (Cr) com no mínimo 10,50% de Cr,
sendo um material conhecido por ter uma grande resistência à corrosão, ao impacto e à
abrasão, além de grande durabilidade (Carbó, 2001). Porém ele é mais utilizado em processos
de corrosão e isso se deve à formação de um filme passivo de óxidos, o cromo (Cr) livre na
superfície do aço que reage com oxigênio e do ar e umidade, e assim forma um “filme” que
isola o aço do oxigênio e dessa forma evitando a oxidação do ferro. No aço inoxidável os
filmes passivos são extremamente finos, são de uma espessura aproximadamente de 30 a 50
angstrom e são favorecidos pela presença de meio oxidantes, não dizendo apenas que só o aço
inoxidável tem passividade (filmes passivos) só que o caso é quanto mais oxidável for o
metal, mais ele terá formação de filme passivos que assim se forma através da reação entre
água e o metal base (Carvalho et al., 2020).
O aço inoxidável com adição de outros elementos como especialmente o cromo e o
níquel e outras ligas como o molibdênio (Mo), titânio (Ti) e nióbio (Nb) a fim de se obter
determinadas características e assim formando famílias de martensíticos, ferríticos,
austeníticos, duplex e endurecíveis por precipitação (Garcés et al., 2020). Os aços estudados
nesse trabalho apresentam a composição química ilustrada pela Tabela 1. Essas famílias
também terão a presença de carbono e de outros elementos que encontram presentes em todos
os aços, como silício (Si), manganês (Mn), fósforo (P) e enxofre (S) (Carvalho et al., 2020).

Tabela 1 - Composição química dos aços inoxidáveis austeníticos estudados.


Fonte: Sarmento (2012).

ASTM AISI C (%) Si Mn P (%) S (%) Cr Ni Mo


(%) (%) (%) (%) (%)
S30400 304 0,07 0,75 2 0,045 0,03 17,5 a 8a -
19,5 10,5
S31603 316L 0,03 0,75 2 0,045 0,03 16 a 10 a 2a3
18 14

De acordo com a Tabela 1 a diferença entre eles pela composição química é que 304
possui mais carbono que o 316L e outra grande diferença é que o 316L possui molibdênio
(Mo). Esse fator contribui para diferenciar na qualidade de vários ramos trabalho assim como
diferenciar dentro da família dos austeníticos, pois se sabe que é excelente a resistência
corrosão, mas é preciso estabelecer que mesmo sendo pequena a diferença, isso pode mudar
muito nas estruturas de projeto em relação de resistência mecânica (Garcés et al., 2020).
Diminuição do carbono: Isso ajuda em trabalhos que há a necessidade de realização de
soldagem e precisa que ele seja resistente a corrosão mesmo depois da soldagem assim
evitando o fenômeno da sensitização, isso ocorre devido à precipitação de carbonetos de
cromo nos contornos de grão em temperaturas entre 425ºC e 850ºC (Sarmento, 2012).
Por isso o aço 316L é melhor que 304 para se trabalhar em industrias, especialmente
em peças soldadas que vão trabalhar em meios oxidantes. Porém é preciso se ter um cuidado,
pois reduzindo o teor carbono ocorre a queda da resistência mecânica, assim na hora da
seleção desse material deve levar em conta isso assim aumento sua espessura da peça para não
levar tanto em conta esse risco da queda resistência mecânica (Gonzalez et al., 2020).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1109
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cuidados param se evitar a corrosão intergranular nos aços austeníticos, chamado de


sensitização, deve se evitar que os aços austeníticos por serem muitos sensíveis a corrosão
intergranular que continue por muito tempo a temperaturas entre 425ºC e 850ºC e também se
resfriarem muito lentamente temperaturas elevadas a 1.000 ºC (Gonzalez et al., 2020).
Nesse trabalho o enfoque é nos aços inoxidáveis austeníticos, sendo realizado o estudo de
suas propriedades mecânicas e composição química utilizando duas amostras de aços dessa
série, utilizando o aço 304 e 316L. Os dados foram comparados com outros aços dentro dessa
mesma família de austeníticos, verificando se existem diferenças estatisticas. A análise
realizada foi sobre ensaio de tração, apesar de os aços inoxidáveis serem muitos utilizados em
trabalhos para resistência a corrosão. Destaca-se que o foco desse trabalho foi sobre suas
propriedades enquanto tracionado, para verificar se os aços estudados apresentam parâmetros
satisfatórios para aplicações cotidianas.

2. MATERIAIS E MÉTODOS

2.1 Materiais

Para a realização do ensaio de tração foi utilizado dois corpos de prova do tipo cilíndrico,
uma para cada tipo de material (inox 304 e 316l). Sua usinagem foi feita em um torno
mecânico de acordo com as especificações na norma ASTM A 370. Os corpos de prova
possuem, na regiam de seção reduzida, uma área de seção transversal de 32,97918mm² e
diâmetro de 6,48mm para o aço inox 304, e área de 32,16991mm² e diâmetro de 6,4mm para
o 316l. É possível notar que ambas as áreas e diâmetros são bem próximos em seus valores.
Possuem também um comprimento da seção reduzida de 35 mm. A geometria do corpo de
prova de tração pode ser observada através de uma imagem real tirada antes do ensaio, essa
imagem está representada pela Figura 1.

Figura 1: Corpos de prova antes do ensaio.

Após o ensaio de tração, seu comprimento possui um valor maior do que seu
comprimento inicial e é visível o ponto onde ocorre a estricção do material ou
“empescoçamento”. Ao atingir a tensão última, a área da seção transversal começa a diminuir
em uma região localizada do corpo-de-prova, e não mais ao longo do seu comprimento
nominal. Este fenômeno é causado pelo deslizamento de planos no interior do material e as
deformações reais produzidas pela tensão cisalhante. Uma vez que a área da seção transversal
diminui constantemente, esta área só pode sustentar uma carga menor. Assim, o diagrama
tensão-deformação tende a curvar-se para baixo até a ruptura do corpo-de-prova com uma
tensão de ruptura (Beer, 2006).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1110
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Foi utilizada para a realização do ensaio de tração no corpo de prova a máquina de


ensaios KRATOS v1.0 com a capacidade de 100 KN de força na tração do corpo de prova,
tendo entre suas características uma velocidade de ensaio regulável por software sem degraus
entre 5 e 250 mm/min, tratamento estatístico dos resultados dos ensaios, cálculo automático
da área, do limite de resistência e de escoamento, do módulo de elasticidade, do alongamento,
da redução de área, relação Lr/Lê, carga no limite de escoamento, pontos de interesse da
curva, extrema facilidade de operação dispensando o nível técnico em informática para os
operadores e treinamentos demorados, visualização simultânea em tempo real da curva do
ensaio e dos valores de carga x deformação.

O corpo de prova é fixado na máquina de ensaio através das castanhas, onde sob alta
pressão permite a fixação do corpo de prova para realização do ensaio sem que o mesmo se
solte. A Figura 2 mostra o local onde é fixado o corpo de prova para o ensaio e a Figura 3
mostra a máquina utilizada na realização do ensaio de tração.

Figura 2 – Fixação do corpo de prova.

Figura 3 - Máquina de Tração KRATOS


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1111
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Métodos

Foi realizado um ensaio de tração no corpo de prova, de acordo com a especificação das
normas americanas (ASTM A370: 2017). O ensaio foi realizado na máquina de ensaios
KRATOS v1.0 à temperatura de 25º C, com uma força aplicada pela máquina que pode
chegar até 100KN. A máquina mede a própria deformação e a do corpo de prova, sendo a
deformação da máquina desprezível. Foram levantados o limite de escoamento, limite de
ruptura e deformação específica a partir das curvas de carregamento apresentadas no ensaio.
Força máxima, limite de resistência (MPa), limite de escoamento (MPa), alongamento (%),
alongamento(%) carga máxima (%), módulo de elasticidade (MPa), diâmetro externo (mm),
comprimento (mm).
O resultado de um ensaio de tração desse tipo é registrado na forma da carga ou força em
função do alongamento. Essas características carga-deformação são dependentes do tamanho
do corpo de prova. Se o comprimento e a área de seção transversal forem dobrados, serão
necessárias duas vezes mais carga para produzir um mesmo alongamento.

3. RESULTADOS E DISCUSSÃO

Através do cálculo da tensão e deformação normal, gerados pelos resultados da máquina


de ensaio, é possível obter a curva tensão x deformação ilustrada pela Figura 4 e 5, para os
aços 304 e 316 L, respectivamente. É importante ressaltar que dois diagramas de dois corpos-
de-prova de um mesmo material não são exatamente idênticos, pois os resultados dependem
de várias variáveis como, composição do material, imperfeições microscópicas, fabricação,
velocidade de aplicação da carga e temperatura do ensaio.

Figura 4 – Diagrama tensão x deformação para o Aço Inox 304.


Fonte: Beer (2006)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1112
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Diagrama tensão x deformação para o Aço Inox 316L.


Fonte: Beer (2006)

A partir do ensaio a máquina gera uma serie de dados previamente selecionados com a
finalidade de ajudar na análise do comportamento mecânico desses materiais em estudo.
Esses dados podem ser visualizados na Tabela 2. E através dos dados apresentados na Tabela
2 é possível calcular outros parâmetros que podem ser visualizados na sequência do texto e
são copilados na Tabela 3.

Tabela 2 – Dados obtidos no ensaio de tração.

Alongamento
Força Limite de Limite de Modulo de
Amostra Alongamento a Carga
Máxima Resistência Escoamento Elasticidade
Máxima
Inox 23217,61 704,01
615,52 MPa 49,09% 39,34% 7318,9 MPa
304 N MPa
Inox 20030,4 622,64
403,7 MPa 57,37% 45,6% 6409,57 MPa
316L N MPa

- Tensão de ruptura:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1113
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

- Resiliência:

- Tenacidade:

Tabela 3 – Parâmetros obtidos no ensaio de tração.


Inox 304 Inox 316L
Tensão de Ruptura (MPa) 13,2996 Tensão de Ruptura (MPa) 11,774
Resiliência (MPa) 25,8826 Resiliência (MPa) 12,7133
Tenacidade (MPa) 154,330 Tenacidade (MPa) 119,1216

4. CONCLUSIONS

Pela observação dos aspectos analisados é possível concluir que apesar das amostras
analisadas serem de aços inoxidáveis austeníticos, suas propriedades mecânicas são
diferentes, devido a suas composições, o que altera as suas características. O aço inox 304 é o
mais utilizando no mercado e sua propriedade apresenta um elevado grau de deformação que
o material suporta até o momento de sua fratura, isso lhe confere um grande potencial de
utilização em vários campos de trabalho. O aço 316L por ter uma redução de carbono na sua
composição, e por isso sua resistência mecânica deve ser levada em consideração na hora de
se escolher esse material quando houver a seleção de suas espessuras, para que não haja
comprometimento nos projetos. Esta conclusão foi obtida devido aos testes feitos em
laboratório e em estudos na área abordada.
Utilizando um método destrutivo, ensaio de tração, para saber todas as suas
especificações como carga máxima, sua deformação e o limite de resistência, por exemplo,
onde podemos observar melhor o material a ser trabalhado. Todo o assunto abordado sobre os
aços inoxidáveis estudados, 304 e 316L, foi pensando como seria ele dimensionado e o
utilizado em alguma ação de mecanização. Nesse sentido pode-se concluir na melhora do
material escolhido, sempre revisando devido as especificação. Como é possível observar nos
resultados obtidos, o desenvolvimento do aço inoxidável austenítico 304 vem contribuindo
melhor nas propriedades mecânicas, então devido a esse fato a qualidade dos aços austeníticos
é excelente para trabalhos enquanto tração, mas sempre vendo os parâmetros empregados.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1114
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

ASTM A370 - American Society for Testing and Materials (2017). Standard Test Methods and Definitions for
Mechanical Testing of Steel Products.
Beer, F.P., (2006). Resistência dos Materiais, 3ª ed., Pearson, McGraw Hill.
Carbó, H.M., (2001). Núcleo Inóx: especificações dos aços., 1ª ed., Independente, São Paulo.
Carvalho, V.R.; Machado, I.G., (2020). Brasagem de Aços Inoxidáveis Martensíticos Utilizando Pasta à Base de
Níquel em Forno a Vácuo. Sondagem e Inspeção, 25, 33-37.
Garcés G.A.;Rojas, V.H.; Bravo, C.; Sampaio, C.S., (2020). Shear bond strength evaluation of metallic brackets
bonded to a CAD/CAM PMMA material compared to traditional prosthetic temporary materials: an in vitro
study. Dental Press Journal of Orthodontics, 25, 12-18.
Gonzalez, A.R.; Machado, I.G.; Tomazi, A., (2020). Análise dos Parâmetros de Polaridade Negativa do Processo
MAG-PV sobre Distorções Angulares. Sondagem e Inspeção, 25, 45-50.
Sarmento, J.P., (2012). Aços inoxidáveis planos, 1ª ed., Independente, São Paulo.

QUALITY OF AUSTENITIC STAINLESS STEELS 304 AND 316L AND ITS


MECHANICAL PROPERTIES AS TO TRACTION.

Abstract. Stainless steel is an alloy of iron (Fe) and Chromium (Cr) with at least 10.50% Cr,
it is a material known for having a great resistance to corrosion, impact and abrasion, in
addition to great durability. Although the stainless steels studied here are AISI 304 and 316L
austenitic, their properties may differ in each case to be used. With that we conceptualize in
the improvement of how to measure so that each one of them is better in any specialization
that one wants to project, providing with its small differences its improvement. The existing
work, through a tensile test and analyzing various data and diagrams generated by it, has the
purpose of establishing a comparison between the mechanical and physical properties of the
traditional austenitic stainless steels studied, used daily in industries and several other fields
of work .

Keywords: Austenitic stainless steels, mechanical properties, tensile test.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1115
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ANÁLISE DO DESEMPENHO DE UM PROPULSOR HALL COM ÍMÃS


PERMANENTES VARIANDO A CONFIGURAÇÃO DO CAMPO MAGNÉTICO

Igor Barreto Cabral de Oliveira1 - igor_bco@hotmail.com


Gesil Sampaio Amarante Segundo1 - gsamarante@uesc.br
1 Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil

Resumo. Propulsores Hall estão entre os tipos mais usados de propulsão elétrica para
manutenção e transferência de órbita de satélites. Com o propósito de contribuir com os
esforços para o desenvolvimento de um propulsor Hall em condições de vôo no Brasil, este
trabalho usa o protótipo desenvolvido no Laboratório de Física dos Plasmas da Universidade
de Brasília como modelo para análise através de simulações numéricas. Alterando o arranjo
dos ímãs permanentes, foram selecionadas três configurações capazes de produzir um campo
magnético radial com um pico de cerca de 85G no diâmetro médio do canal. O campo
magnético gerado por cada um desses arranjos foi calculado pelo método dos elementos finitos,
e os resultados foram usados como dados de entrada para simular a operação do propulsor pelo
método Particle-in-Cell com colisões de Monte Carlo. Através das simulações foi avaliado o
desempenho com cada uma das três configurações de linhas de campo, e uma delas apresentou
melhor resultado de força de empuxo.

Palavras-chave: propulsor hall, particle-in-cell, impulso específico, empuxo, phall

1. INTRODUÇÃO

A propulsão elétrica é uma tecnologia muito usada para manutenção e mudança de órbita
de satélites. São sistemas que produzem impulso através da descarga de íons acelerados de uma
massa de plasma, que é gerado pela ionização de um fluido de trabalho. Os íons são expelidos
a velocidades muito mais altas que a dos gases de exaustão de um sistema de propulsão
química. Logo, apesar da força de propulsão obtida ser relativamente baixa, a propulsão elétrica
consegue, operando por mais tempo, gerar um impulso total maior com a mesma massa de
fluido. Esse maior aproveitamento do fluido de trabalho significa menos carga a bordo. Essa é
a maior e grande vantagem da propulsão elétrica, que faz dela uma tecnologia promissora para
explorações mais distantes.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1116
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O propulsor Hall é um tipo específico de propulsão elétrica baseado no efeito Hall, de onde
vem o seu nome. Os detalhes da sua operação são descritos em Goebel & Katz (2008). Ele
possui uma geometria cilíndrica, com um canal anelar onde é contido o plasma. Em uma
extremidade do canal anelar estão localizados o ânodo, que gera uma diferença de tensão
positiva em relação à região externa, e a admissão do gás usado como fluido de trabalho. A outra
extremidade é a descarga do canal. Fora do canal é posicionado um catódo que emite elétrons,
que são atraídos para o canal. Eletroímãs ou ímãs permanentes geram um campo magnético
radial que captura os elétrons no canal. A combinação do campo magnético com o campo
elétrico produzido pelo ânodo força os elétrons em um movimento de deriva perpendicular a
ambos os campos, ou seja, ao redor do eixo central. Esse fluxo de elétrons é a chamada corrente
de Hall. Através de colisões, esses elétrons ionizam os átomos neutros do gás, formando o
plasma. Os íons do plasma são acelerados para fora pela força eletrostática, gerando impulso.
No Brasil, o Laboratório de Física dos Plasmas da Universidade de Brasília (LFP-UnB)
desenvolveu e testou quatro protótipos de propulsores Hall batizados de PHall. Os propulsores
PHall usam ímãs permanentes, no lugar de eletroímãs, para gerar o campo magnético no canal,
diminuindo a potência consumida (Ferreira et al., 2016; Martins et al., 2017; Martins et al.,
2019). A pesquisa desenvolvida no LFP-UnB motivou este trabalho, que busca contribuir
para o desenvolvimento de novos protótipos. O modelo usado como base neste trabalho é o
protótipo PHall-IIc, o mais recente deles. Os seus anéis interno e externo de ímãs permanentes
são compostos por ímãs mais curtos do que os usados nas primeiras versões. Isso permite a
variação no arranjo dos ímãs, com mudanças na posição e alinhamento dos polos.
A configuração das linhas de campo magnético no canal pode influenciar bastante o
desempenho e a vida útil do propulsor. O principal fator limitante na vida útil é a erosão
nas paredes do canal, causada pela colisão de íons (Mazouffre, 2016; Kim, 1998). Uma
técnica conhecida para reduzir esse desgaste é manter as linhas de campo magnético paralelas
às paredes do canal na região de aceleração dos íons, se estendendo até a região próxima ao
ânodo. Essa solução é chamada de escudo magnético e funciona pela alteração do potencial
elétrico na região próxima às paredes(Hofer et al., 2014; Mazouffre et al., 2014; Mikellides
et al., 2011; Mikellides et al., 2013; Mikellides et al., 2014). Também é possível melhorar o
confinamento do plasma no canal através de uma configuração das linhas de campo chamada de
espelho magnético. Quando a intensidade do campo magnético radial aumenta o suficiente do
centro do canal até as paredes, os elétrons que se aproximam das paredes sofrem uma força que
os reflete de volta para o centro (Chen, 2016; Keidar & Boyd, 2005). O aumento da largura do
canal reforça esse espelho magnético, além de reduzir a razão área-volume do canal, diminuindo
a interação do plasma com as paredes (Mazouffre et al., 2012).
Por conta de sua importância no desempenho de um propulsor, a configuração das linhas de
campo magnético é o alvo de estudo deste trabalho. O trabalho foi feito em duas etapas, cada
uma delas com uma ferramenta de simulação numérica diferente. Na primeira parte do trabalho,
foi feita uma análise, através de simulação pelo método dos elementos finitos, da configuração
das linhas de campo variando a posição e o alinhamento dos polos dos ímãs. Nessa análise
foram observadas três formas de disposição dos ímãs capazes de gerar um campo magnético
radial no centro do canal. A ferramenta de simulação usada nessa etapa foi o software COMSOL
Multiphysics. O campo magnético fornecido pelas três formas de disposição dos ímãs foi usado
como dado de entrada para a segunda parte do trabalho. Nessa segunda etapa foram feitas
simulações da operação do propulsor com cada uma das três configurações das linhas de campo
obtidas na etapa anterior. O método numérico usado é uma combinação do método Particle-
in-cell com o método Monte Carlo Collisions (PIC-MCC). A ferramenta usada foi o software

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1117
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

VSim e o código da simulação foi validado por Choi et al. (2012). Esse mesmo código também
foi usado por Braga (2019) para simular o PHall-IIc. A diferença deste trabalho foi aprimorar
o modelo de Braga (2019) com uma representação mais precisa do campo magnético, que é o
alvo da análise.
Com os dados extraídos da simulação, foram calculados a força de empuxo e o impulso
específico para cada configuração de campo magnético. Na primeira configuração, os dois
anéis estão com os polos alinhados na direção radial. A segunda é similar à configuração usada
no Instituto de Tecnologia de Harbin, na China (Ding et al., 2016; Ding et al., 2017). Os
polos são alinhados na direção axial, com os ímãs internos e externos em sentidos opostos,
produzindo dois picos de campo radial no canal. Os ímãs foram posicionados de forma que
o segundo pico coincida com a saída do canal. O terceiro arranjo combina os dois primeiros,
com o anel externo posicionado como no primeiro arranjo e o anel interno como no segundo.
Como o objetivo é avaliar a configuração das linhas de campo, a magnetização dos ímãs em
cada arranjo foi alterada para manter uma intensidade de cerca de 85G no centro do canal, que é
aproximadamente o valor medido em laboratório pelo LFP-UnB. O terceiro arranjo foi capaz de
produzir mais empuxo que os outros dois. A simulação também retorna o número de partículas
arrancadas da parede do canal, mas nos três casos esse número foi muito baixo para permitir
uma comparação conclusiva.

2. CAMPO MAGNÉTICO

As configurações das linhas de campo foram obtidas através de simulações pelo método dos
elementos finitos, variando a posição e o alinhamento dos polos dos ímãs para obter um campo
radial no canal. Foram selecionados três formas de arranjo dos ímãs permanentes capazes de
gerar o campo radial no canal. A ferramenta de simulação usada foi o software COMSOL
Multiphysics versão 5.3. Para aproveitar a simetria axial do canal do propulsor, foi usado um
domínio bidimensional em coordenadas cilíndricas. As dimensões do canal do PHall-IIc foram
obtidas no trabalho de Braga.
A Fig. 1 mostra as três formas de arranjo dos ímãs, que estão representados em vermelho,
com os polos Norte e Sul indicados pelas letras N e S, respectivamente. No primeiro arranjo os
ímas interno e externo tem os polos alinhados na direção radial. No segundo arranjo, os polos
são alinhados na direção axial, em sentidos contrários, e os ímãs são posicionados de forma que
o pico do campo magnético no raio médio do canal coincida com o plano de saída. O terceiro
arranjo é uma combinação dos dois primeiros.

Figura 1- Representação do canal do propulsor e da configuração dos ímas nos três arranjos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1118
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Como o objetivo é avaliar as configurações das linhas, e não a intensidade, a magnetização


em cada arranjo foi alterada para gerar a mesma intensidade de campo radial no centro do canal.
Nos três arranjos o valor do pico do campo radial no raio médio do canal é de cerca de 85G, que
é aproximadamente o valor medido em laboratório pelo LFP-UnB. O valor da magnetização
dos ímãs, M , em cada arranjo é indicado na Fig. 1.
As Fig. 2, 3 e 4 mostram os resultados para os arranjos 1, 2 e 3, respectivamente. Em
(a) é mostrada a intensidade da componente radial do campo magnético, Br . O eixo vertical
representa a coordenada z e o horizontal a coordenada r. Para melhorar a visualização do campo
no interior do canal, os limites na escala de cores foram ajustados para um máximo de 100G e
mínimo de -100G. As setas representam a direção e sentido do campo. No gráfico em (b), o eixo
vertical representa o módulo de Br no raio médio do canal, e o eixo horizontal a coordenada
z. A origem (z = 0) é a posição do ânodo, e a posição da saída do canal é marcada pela linha
vertical tracejada.

Figura 2- Configuração do campo magnético para o Arranjo 1.

Figura 3- Configuração do campo magnético para o Arranjo 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1119
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Configuração do campo magnético para o Arranjo 3.

3. SIMULAÇÃO PIC-MCC

As configurações de campo calculadas previamente são usadas como dados de entrada para
uma simulação da operação do propulsor. A ferramenta de simulação é o software VSim e
o código foi validado por Choi et al. (2012). A teoria dos códigos PIC-MCC é descrita em
detalhes em (Birdsall, 1991; Birdsall & Langdon, 2004).A Fig. 5 mostra um esquema do
domínio da simulação, com as condições de contorno de potencial elétrico. Para manter a
simetria axial do modelo, o cátodo é representado de forma simplificada uma fonte uniforme
de elétrons na saída do canal. O gás neutro não é tratado como partícula pelo código PIC,
e serve apenas como alvo de colisões. A densidade dos átomos neutros de Xe é considerada
constante no tempo, e varia apenas ao longo do eixo z, diminuindo linearmente a partir de um
valor máximo no ânodo. O código usa a mudança de escala proposta e validada por Taccogna
et al. (2005), para reduzir o custo computacional e manter a similaridade do modelo. O fator de
redução, ζ, é igual 50.

Figura 5- Domínio da simulação PIC-MCC.

A Tabela 1 mostra os parâmetros de operação da simulação. São as mesmas condições


de operação usadas nas simulações do PHall-IIc feitas por Braga (2019), com exceção do
campo magnético. Ao invés de usar a aproximação gerada pelo código, uma representação

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1120
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

simplificada, são usadas as configurações calculadas na etapa anterior. Apesar dos testes em
laboratório do PHall-IIc terem sido realizados com gás Argônio, o fluido de trabalho neste
modelo é o gás Xenônio (Xe), de uso mais comum em propulsores Hall. Em cada simulação
foram rodados 300 mil passos de tempo de 5, 6433864079 × 10−13 s, chegando a um tempo total
de simulação de quase 170ns.

Tabela 1- Parâmetros da simulação

Comprimento do canal (m) 0,0235


Raio interno (m) 0,033
Raio externo (m) 0,058125
Espessura int. do mat. dielétrico(m) 0,01
Espessura ext. do mat. dielétrico(m) 0,004875
Comprimento da saída (m) 0,0115
Potencial no ânodo (V) 105,5
Potencial na saída (V) 0
Corrente emitida (A) 4,46
Energia inicial dos elétrons (eV) 5,61
−3
Densidade máxima de Xe (m ) 1021
Número de células em z 128
Número de células em r 80

4. RESULTADOS

A simulação PIC atualiza o potencial elétrico e a posição e velocidade das partículas (íons,
elétrons e moléculas arrancadas da parede) a cada passo de tempo, salvando os dados com a
frequência desejada. Os dados foram salvos a cada mil passos de tempo. Ou seja, a cada mil
passos de tempo, o código imprime em um arquivo as coordenadas (z, r) e componentes de
velocidade (vz , vr , vφ ) de todas as partículas no domínio da simulação naquele determinado
passo de tempo. Com os dados das partículas de Xe+ , foram calculados a densidade média, n̄, e
a velocidade axial média, vz , dos íons na região até 0,5mm de distância da fronteira de saída do
domínio. Esse intervalo da região de saída foi escolhido para contabilizar um número razoável
de partículas e em uma região onde praticamente não há mais queda de potencial, e portanto
aceleração dos íons. A teoria da força de empuxo, T , e do impulso eespecífico, Isp, é descrita
em Goebel & Katz (2008). A força de empuxo foi calculada pela Eq. (1),
2
T = ṁi v̄zi = Mi n̄i v̄zi A (1)

onde Mi é a massa do íon e A é a área da fronteira de saída. O impulso específico foi calculado
pela Eq. (2),
ṁi v̄zi v̄zi
Isp = = ηm (2)
ṁp g g

onde ηm é a eficiência de utilização da massa, ou seja, a razão entre o fluxo de íons e o fluxo
total de gás e g é a aceleração da gravidade (9,8 m/s2 ). Como o fluxo de gás é representado

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1121
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de forma simplificada pelo código, essa eficiência foi considerada igual a 1, por conveniência.
Portanto, valor de Isp apresentado representa a velocidade de saída dos íons em unidade de
impulso específico, para facilitar a comparação com valores de outros trabalhos.
A Fig. 6 apresenta à esquerda os valores de Isp e à direita a densidade média dos íons
na saída. A densidade está na escala reduzida da simulação, que, pela similaridade aplicada no
modelo, é 50 vezes maior que o valor real (Taccogna et al., 2005). O número de passos de tempo
usados é uma quantidade razoável para atingir regime estacionário nesse tipo de simulação. A
tendência das curvas aponta para uma provável estabilização. Os arranjos 2 e 3 apresentam
melhores resultados de Isp. Além disso o arranjo 3 apresenta uma maior densidade na saída.
Como resultado, o arranjo 3 produz mais empuxo, como mostra a Fig. 7.

Figura 6- Resultado de Isp e densidade na saída.

Figura 7- Resultado da força de empuxo produzida.

5. CONCLUSÃO

Alterando a posição dos ímãs foram encontrados três configurações capazes de gerar um
campo magnético radial desejado para o funcionamento do propulsor. O desempenho das três
formas de arranjo dos ímãs foi avaliado através de simulações PIC-MCC. Com os 300 mil

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1122
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

passos de tempo das simulações não foi possível obter resultados conclusivos da comparação
do desempenho em relação ao desgaste por erosão. O número de partículas arrancadas das
paredes foi muito baixo em todos os casos. Mas foi possível observar que o terceiro arranjo
produziu uma força de empuxo maior que os outros dois, com um impulso específico de cerca
de 1000s.
Contribuições futuras a este trabalho podem ser feitas avaliando a divergência do feixe de
íons e a perda de energia do plasma para as paredes do canal. Ambas afetam negativamente a
eficiência e a vida útil do propulsor. Com uma estimativa da perda de energia para as paredes
também é possível fazer uma análise térmica do propulsor, para conhecer as temperaturas às
quais os materiais estarão expostos. Temperaturas muito altas podem alterar as propriedades
magnéticas dos ímãs permanentes.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal


de Nível Superior – Brasil (CAPES). Agradecemos o suporte do Programa de Pós-graduação
em Modelagem Computacional da Universidade Estadual de Santa Cruz (UESC).

Referências

Birdsall, C. (1991), Particle-in-Cell Charged-Particle Simulations, Plus Monte Carlo Collisions With
Neutral Atoms, PIC-MCC. IEEE Transactions on Plasma Science, vol. 19, no . 2.
Birdsall, C.; Langdon, A. (2004), Plasma Physics via Computer Simulation. 1o ed. Taylor Francis.
Braga, L. (2019), Estudo da erosão em propulsores Hall através de simulações numéricas, Dissertação
de Mestrado em Integridade de Materiais da Engenharia, Universidade de Brasília, Brasília.
Braga, L.; Miranda, R. (2019), Particle-in-cell numerical simulation of the PHall-IIc Hall thruster. J.
Phys.: Conf. Ser., vol. 1365, 012013.
Chen, F. (2016) Introduction to Plasma Physics and Controlled Fusion. 3o ed. Springer
Choi, Y.; Mahalingam, S.; Likhanskii, A. (2012), Predicting Hall Thruster Operational Lifetime with
Computational Models. IEEE Aerospace Conference, 10.1109/AERO.2012.6187323.
Ding, Y. et al. (2016), Computer simulations of Hall thrusters without wall losses designed using two
permanent magnetic rings. J. Phys. D: Appl. Phys., vol. 49, 465001.
Ding, Y. et al. (2017), Influence of hollow anode position on the performance of a hall-effect thruster
with double-peak magnetic field. Vacuum, vol. 143, 251-261.
Ding, Y. et al. (2017), Effect of matching between the magnetic field and channel length on the
performance of low sputtering Hall thrusters. Advances in Space Research, vol. 61.
Ding, Y. et al. (2017), A 200 W Hall thruster with hollow indented anode. Acta Astronautica, vol. 139,
521-527.
Ferreira, J. L. et al. (2016), Permanent magnet Hall thruster development for future Brazilian space
missions. Comp. Appl. Math., vol. 35, 711–726.
Goebel, D. M.; Katz, I. (2008), Fundamentals of Electric Propulsion: Ion and hall thrusters. Jet
Propulsion Laboratory, California Institute of Technology, Califórnia.
Hofer, R. et al. (2014), Magnetic shielding of a laboratory Hall thruster. II. Experiments. Journal of
Applied Physics, vol. 115, 043304.
Keidar, M.; Boyd, I. (2005) On the magnetic mirror effect in Hall thrusters. Applied Physics Letters, vol.
87, 121501.
Kim, V. (1998), Main Physical Features and Processes Determining the Performance of Stationary
Plasma Thrusters. Journal of Propulsion and Power, vol. 14, no. 5, pp. 736–743.
Martins, A. A. et al. (2017), Magnetic Field Design for a Strongly Improved PHALL Thruster. J. Phys.:
Conf. Ser., vol. 911, 012024.
Martins, A. A. et al. (2019), Preliminary Experimental Results of the PHALL II-C with Improved
Magnetic Circuit Design and Hollow Cathode. J. Phys.: Conf. Ser., vol. 1365, 012025.
Mazouffre, S. et al. (2012), Ionization and acceleration processes in a small, variable channel width,
permanent-magnet Hall thruster. . Phys. D: Appl. Phys., vol. 45 185203.
Mazouffre, S. et al. (2014), Visual Evidence of Magnetic Shielding With the PPS-Flex Hall Thruster.
IEEE Transactions on Plasma Science, vol. 42, no . 10.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1123
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mazouffre, S. (2016), Electric propulsion for satellites and spacecraft: established technologies and
novel approaches. Plasma Sources Science and Technology, vol. 25.
Mikellides, I. et al. (2011), Magnetic shielding of the channel walls in a Hall plasma accelerator. Physics
of Plasmas, vol. 18, 033501.
Mikellides, I. et al., (2013), Magnetic shielding of walls from the unmagnetized ion beam in a Hall
thruster. Applied Physics Letters, vol. 102, 023509.
Mikellides, I. et al. (2014), Magnetic shielding of Hall thrusters at high discharge voltages. Journal of
Applied Physics, vol. 116, 053302.
Mikellides, I. et al. (2014), Magnetic shielding of a laboratory Hall thruster. I. Theory and validation.
Journal of Applied Physics, vol. 115, 043303.
Taccogna, F. et al. (2005), Self-similarity in Hall plasma discharges: Applications to particle models.
Physics of Plasmas, vol. 12, 053502.

PERFORMANCE ANALYSIS OF A HALL THRUSTER WITH PERMANENT MAGNETS


VARYING THE MAGNETIC FIELD CONFIGURATION

Abstract. Hall Thrusters are one of the most relevant type of electric propulsion systems for
orbit transfer and station keeping. In this work the prototype developed in the University of
Brasília Plasma Physics Laboratory is taken as a model for numerical simulations. The purpose
is to give a contribution to the development of a thruster with flight conditions in Brazil. The
permanent magnets were rearranged in three different configurations, all of them keeping a
radial magnetic field of about 85G in the channel mean diameter. The magnetic field was
calculated through a finite element method analysis for each configuration. The results were
used as input data in a Particle-in-cell with Monte Carlo Collisions simulation to evaluate the
thruster operation. The results show that one of the field lines configuration produces more
thrust than the other two.

Keywords: hall thruster, particle-in-cell, specific impulse, thrust, phall

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1124
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

INFLUÊNCIA DA VARIAÇÃO DIAMETRAL SOBRE AS PROPRIEDADES


MECÂNICAS DAS FIBRAS DE CARNAÚBA

Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Texeira Souza1 – andressa.t.souza@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
1
Instituto Militar de Engenharia, Seção de Ciências dos Materiais – Rio de Janeiro, RJ, Brasil.

Abstract. As fibras naturais, em especial as lignocelulósicas são materiais que apresentam


elevada complexidade em sua constituição celular, tal fator destaca a elevada variabilidade
de suas propriedades. Diante de tal ponto, torna-se importante investigar as propriedades
apresentadas por diferentes fibras naturais lignocelulósicas (FNLs). Para tal, o presente
estudo destina-se a avaliar as propriedades mecânicas apresentadas pelas fibras de
carnaúba (Copernícia prunífera). Para determinação da variação diametral foi aplicada a
microscopia óptica, as propriedades mecânicas foram levantadas através do ensaio de tração
das fibras e os dados foram tratados pela análise de variância (ANOVA). A análise de
variação diametral apresentou o valor de diâmetro médio de 0,769 mm localizado no
intervalo de 0,31 a 1,21 mm. Os ensaios de tração das fibras retornaram propriedades
mecânicas razoáveis para as fibras, com resistência à tração média de 70 MPa, módulo de
elasticidade de 1,54 GPa e alongamento de 5,5%. A análise de variância juntamente ao teste
de Tukey destacaram as fibras finas (0,31 ~ 0,46 mm) como as mais resistentes, com valor de
resistência média à tração de 157,3 MPa. Diante das propriedades mecânicas obtidas para
as fibras de carnaúba, constatou-se um elevado potencial da utilização das fibras como
reforço em compósitos poliméricos.

Palavras-chave: Fibras de carnaúba, propriedades mecânicas, variação diametral.

1. INTRODUÇÃO

As fibras possuem duas principais classificações, podendo ser fibras naturais ou


químicas. Dentro da primeira designação, as fibras podem ser agrupadas em diversos
subgrupos (vegetal, animal ou mineral). As fibras naturais, em especial as lignocelulósicas
são obtidas em vegetais e constituem bons exemplos de materiais ecologicamente corretos
(MONTEIRO et al. 2011). As FNLs são materiais que apresentam elevada complexidade em

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1125
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sua constituição celular (BLEDZKI e GASSAN, 1999; MONTEIRO et al. 2011). Segundo
John e Thomas (2008) as FNLs são compostas basicamente por uma matriz de hemicelulose e
lignina, a qual envolve fibrilas de celulose semicristalina.
É crescente a empregabilidade de fibras naturais lignocelulósicas em diversos setores
tecnológicos, conforme apresenta John e Thomas (2008) ao se referir às fibras de banana
aplicadas pela Mercedes Benz no modelo Classe A. No Brasil em especial pode-se listar
alguns exemplos da aplicação de FNLs na indústria automotiva, onde as fibras de algodão,
juta, rami e coco são aplicadas em: revestimentos internos, painéis e plásticos (JOSEPH e
CARVALHO, 1999; MATTOSO e FRAGALLE, 1996).
Cada fibra natural apresenta variação de suas propriedades, isso pode ser atrelado a
diversos fatores como: proporção de seus constituintes (celulose, hemicelulose e lignina),
ângulo microfibrilar, local de cultivo, idade da planta, variação geométrica, dentre outros
fatores (KALIA, KAITH e KAURS, 2011; MOHANTY, MISRA e HINRICHSEN, 2000).
A não uniformidade, limitação dimensional e heterogeneidade microestrutural podem ser
apontadas como parâmetros que dificultam o aumento da aplicabilidade das FNLs em
indústrias.
A comparação entre algumas propriedades mecânicas apresentadas pelas FNLs em
relação às fibras sintéticas pode ser observada na Tabela 1.

Tabela 1 – Propriedades mecânicas para algumas fibras, em destaque as propriedades


apresentadas pelos materiais sintéticos.
Massa Resistência à
Módulo de Máx. σ/ρ
FNL específica ρ tração σ
Young (GPa) (MPa.cm3/g)
(g/cm3) (MPa)
Curauá
Ananas 0,57 – 0,92 117 – 3000 27 - 80 2193
erectifolium
Malva
1,37 – 1,41 160 17,4 117
Urena lobata
Rami
1,5 400 - 1620 61 - 128 1080
Boehmeria nivea
Vidro E 2,50 – 2,58 2000 - 3450 70 - 73 1380
Aramida 1,44 3000 - 4100 63 - 131 2847
Fonte: Adaptado de Monteiro et al. (2011).

Alguns fatores como: redução da cristalinidade com a idade da planta, ângulo


microfibrilar, variação geométrica, comprimento e redução da quantidade de defeitos com o
inverso do diâmetro são fatores apresentados por Monteiro e outros (2011), o qual destaca
como possíveis responsáveis pela variação da resistência mecânica das fibras naturais.
Os inconvenientes apresentados pelas fibras naturais são sobrepostos por vantagens
como: custo baixo, maior flexibilidade, baixa massa específica, não abrasividade e
possibilidade de desenvolvimento social e econômico. O fato de serem biodegradáveis e
provenientes de recursos renováveis, às qualificam como potenciais fontes de renda para
regiões em desenvolvimento, em especial as regiões mais pobres do Brasil (MONTEIRO et
al. 2011). Diante do exposto, ocorre uma tendência de substituição de fibras sintéticas por
fibras naturais, sendo observada principalmente em alguns setores industriais (KALIA,
KAITH e KAURS, 2011; JOHN e THOMAS, 2008).
A carnaubeira é uma palmeira da família Palmae do tipo xerófito, cuja o nome científico
da espécie originária no Brasil é Copernícia prunífera (Miller) H. E. Moore (CONAB, 2017;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1126
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

LORENZINE et al. 1996). A palavra carnaúba é derivada diretamente da língua indígena,


significando “a árvore que arranha”, recebendo tal nomenclatura por apresentar espinhos ao
longo de seu caule, se destaca outras designações para essa planta, tais como: carnaúva,
carnaba, carandaúba e carnaíba. De acordo com o site Gbif (2020), o qual reporta a ocorrência
de diversas espécies vegetais no mundo, a Copernícia prunífera (Mill) H.E. Moore está
presente em países como Índia, Paraguai, Cuba e sua maior incidência no Brasil,
principalmente na região Nordeste Figura 1.

Figura 1 – Localidades em que a espécie Copernícia prunífera está presente, (a) América do
Sul, (b) Brasil e (c) Nordeste. Fonte: adaptado de Gbif (2020).

No Brasil a carnaubeira pode ser encontrada no Pantanal mato-grossense em menor


incidência e na região Nordeste principalmente nos estados do Ceará, Piauí, Maranhão e Rio
Grande do Norte (CONAB, 2017). A produção da Copernícia prunífera tem principal
predominância nos estados do Ceará e Piauí, os estados restantes são responsáveis pela
contribuição minoritária para a produção dessa espécie no país (GLASSMAN, 1972).
Diante da elevada empregabilidade dessas fibras de forma genérica para produção de
artesanatos, se observa um elevado potencial para destiná-las a aplicações de engenharia ou
de responsabilidade, como no caso de materiais compósitos com matriz polimérica.
A variação diametral das FNLs é um ponto de extrema importância para se predizer as
propriedades mecânicas apresentadas por esses materiais, especialmente quando se trata de
aplicações de responsabilidade. Diversos autores investigam a variabilidade das propriedades
mecânicas em relação a variação dimensional apresentadadas por diferentes fibras naturais
lignocelulósicas (FIDELIS et al. 2013; MONTEIRO et al. 2017; BALAJI et al. 2020;
CHOKSHI et al. 2020).
Devido à falta de informações literárias sobre as propriedades mecânicas apresentadas
por estas fibras, o presente trabalho se faz de grande valor científico, buscando estudar
desenvolver o campo de pesquisa relacionado a aplicabilidade de fibras naturais como reforço
de matrizes poliméricas na produção de materiais compósitos.

2. MATERIAIS E MÉTODOS
2.1 Fibras de carnaúba

As fibras de carnaúba utilizadas neste trabalho foram adquiridas de produção rural, as


quais vieram da cidade de Barro no estado do Ceará. O material foi disponibilizado em forma
de folhas, portanto ainda verdes, dessa forma foram submetidas a imersão em água durante 24
h, seguidas de secagem ao sol por 10 h e posterior desfio. A Figura 2 ilustra as folhas de
carnaúba conforme recebido.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1127
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – Folhas de carnaúba como recebidas.

As folhas recebidas foram submetidas a um conjunto de etapas para a obtenção das fibras
propriamente ditas, as etapas adotadas estão representadas na Figura 3.

Figura 3 – Fluxo de etapas tomadas para tratamento das fibras de carnaúba.

2.2 Variação diametral

Foi utilizado o microscópio óptico, operado em campo escuro, com câmera digital
embutida (Olympus – BX53M), pertencente ao laboratório de metalografia do IME para
medição dos diâmetros. As cem fibras foram medidas em cinco pontos distintos ao longo do
seu comprimento. Em cada ponto foram realizadas seis leituras, sendo que três dessas foram a
0° outras três a 90°, totalizando cerca 30 pontos de coleta de dados ao longo do comprimento
útil.

2.3 Ensaios mecânicos das fibras

O ensaio de tração das fibras foi realizado em parceria com o Laboratório de Ensaios
Mecânicos da Universidade Federal Fluminense (UFF) com equipamento Emic Serie 23, foi
utilizada célula de carga de 20 kN a uma taxa de tração de 0,5 mm/min.
A realização do ensaio tomou como base orientações conforme a norma ASTM C1557-
14 (2014). A seção transversal das fibras foi determinada através do diâmetro médio para 0° e
90°, as quais foram obtidas no Laboratório de Metalografia do IME. As fibras ensaiadas
foram selecionadas de acordo com o diâmetro médio apresentado.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1128
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme norma, foram confeccionadas molduras de papel representados pela Figura


4(a). As molduras de papel possuem as funções de: proteção das fibras, auxiliar o contato da
garra, evitar escorregamento, evitar ruptura prematura, evitar esmagamento das fibras e
mascaramento dos dados. Algumas fibras selecionadas estão representadas na Figura 4(b).

Figura 4 – Moldura de papel utilizado para ensaio de tração das fibras (a) e (b) fibras de
carnaúba montadas sob as molduras de papel.

2.4 Análise de variância (ANOVA)

A Análise de Variância (ANOVA) é um procedimento utilizado para a comparação entre


tratamentos aplicados para influência da variação de propriedades a serem observadas. Este
teste baseia-se na distribuição por amostragem do teste “F” de Snedecor, a qual possui
eficácia ao identificar diferenças entre médias. No presente estudo análise de variância foi
aplicada para se determinar qual faixa diametral apresenta melhores valores de resistência à
tração. Foi utilizado um nível de confiabilidade para os testes de 95% ou nível de
significância de 5%.

2.5 Diferença mínima significativa (d.m.s) – Teste de Tukey

A utilização do Teste de Tukey permite a comparação entre as médias obtidas dois a dois,
para cada um dos tratamentos empregados (porcentagem de fibras). A partir dos resultados é
possível rejeitar ou não a hipótese de igualdade entre as médias comparadas através da
diferença mínima significativa (d.m.s.), conforme Equação 1.

(1)

Onde:
q: a amplitude total estudantizada (valor tabelado, dependente do grau de liberdade,
resíduo e número de tratamentos);
QMR: quadrado médio do resíduo;
r: número de repetições de cada tratamento.

3. RESULTADOS E DISCUSSÃO
3.1 Variação diametral

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1129
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As FNLs apresentam elevada variabilidade de suas propriedades e constituintes. Diversos


fatores são responsáveis por tais variações, dentre os quais pode-se citar: a composição do
solo, umidade, luminosidade, local de cultivo, idade da planta (MONTEIRO et al. 2011).
Indiferente ao comportamento apresentado por outras FNLs, as fibras de carnaúba
também apresentam elevadas variações em suas propriedades, nesse quesito, pode-se listar a
variação diametral. O estudo dessa variação passa a ser um parâmetro de extrema importância
para se predizer seu comportamento mecânico. Pois de acordo com Monteiro et al. (2011) as
FNLs apresentam a tendência de aumento das propriedades mecânicas com o inverso do
diâmetro, devido provavelmente a redução na quantidade de defeitos nas fibras de menor
diâmetro, tornando-as mais resistentes.
As fibras do presente estudo estão alocadas em um grupo de cem amostras com diferentes
faixas de diâmetros. A distribuição apresenta um valor de diâmetro médio de 0,769 ± 0,21
mm, localizados no intervalo de 0,313 a 1,207 mm. Os valores obtidos para a variação
diametral das fibras de carnaúba podem ser observados na Tabela 2.

Tabela 2 – Parâmetros de variação diametral das fibras estudadas.


Intervalo de diâmetro (mm) Diâmetro médio (mm)
0,31 – 0,46 0,385
0,46 – 0,61 0,535
0,61 – 0,76 0,685
0,76 – 0,91 0,835
0,91 – 1,06 0,985
1,06 – 1,21 1,135

3.2 Caracterização mecânica

Diversos fatores são responsáveis pela variabilidade das propriedades mecânicas


apresentadas pelas fibras naturais. O estudo sobre a determinação das propriedades mecânicas
apresentadas pelas fibras de carnaúba é primordial, sendo um passo de fundamental
importância para que se possa destinar uma aplicação viável para esse material. Dessa
maneira, os ensaios de tração foram realizados nas fibras, através deles foi possível realizar o
levantamento das propriedades mecânicas apresentadas pelas fibras, as quais são apresentados
pela Tabela 3.
Tabela 3 – Propriedades mecânicas das fibras de carnaúba.
Propriedade Média Propriedade Média
Resistência à Tração (MPa) 69,8 ± 38,8
Módulo de Elasticidade (GPa) 1,54 ± 0,9
Alongamento (%) 5,5 ± 1,0

Os valores das propriedades mecânicas apresentadas pelas fibras de carnaúba foram


relacionados para cada faixa de diâmetro em análise, dessa maneira as propriedades obtidas
estão apresentadas na Figura 5.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1130
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Propriedades mecânicas em função do diâmetro médio das fibras de carnaúba. (a)
Resistência à tração, (b) Módulo de elasticidade e (c) Alongamento.

Os valores observados para a resistência à tração juntamente ao módulo de elasticidade


apresentados na Figura 5(a) e (b), respectivamente, apresentam a tendência de queda com o
aumento do diâmetro médio apresentado pelas fibras. De acordo com Satyanarayana e outros
(2011) esse fenômeno pode ser explicado pelo aumento de defeitos internos
proporcionalmente ao crescimento do diâmetro da fibra. O alongamento percentual Figura
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1131
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5(c) apresentado pelas fibras de carnaúba tende a apresentar valores superiores com o
aumento do diâmetro médio. Conforme observado por Monteiro e colaboradores (2017), as
fibras de menor diâmetro tendem a apresentar maiores resistências à tração. O aumento do
diâmetro médio das FNLs acarreta no decrescimento da resistência à tração das fibras, tal
redução apresenta curva aproximadamente hiperbólica (MONTEIRO et al, 2017; CHOKSHI
et al. 2020; BALAJI et al. 2020).
A Figura 5(a) apresenta o comportamento da resistência média em tração, dessa forma
tende ao crescimento com a redução do diâmetro médio. É possível observar diferença visível
entre a resistência média à tração das fibras de menor diâmetro em relação às fibras de maior
diâmetro. Com o objetivo de avaliar a influência do diâmetro médio das fibras sobre a
resistência média à tração foi aplicada a análise de variância (ANOVA) nos dados, onde os
resultados obtidos estão descritos na Tabela 4.

Tabela 4 – Análise de variância da tensão média em tração para os diferentes intervalos de


diâmetros das fibras.
Causas de Soma de Quadrado
GL FCalc FTab
Variação Quadrados médio
Tratamentos 5 109871,5 21974,3 22,16 2,2732
Resíduo 54 53553,85 991,738
Total 59 163425,4

De acordo com os valores obtidos através da ANOVA e listados na Tabela 4, rejeita-se a


hipótese de que as médias são iguais com nível de significância de 5%, pois têm-se: Fcalc
(22,16) > Ftab (2,2732). Portanto, conclui-se que a variação do diâmetro médio das fibras de
carnaúba apresenta influência sobre a resistência média à tração observada, assim
apresentando resultados diferentes para cada intervalo de diâmetro. Para a comparação entre
médias obtidas em cada intervalo foi aplicado o Teste de Tukey com um nível de confiança de
95%, com o objetivo de verificar a faixa que apresenta melhor resistência à tração. A
diferença média significativa (d.m.s) obtida foi de 41,64. Os resultados encontrados para as
diferenças entre os valores de resistência à tração para cada intervalo de diâmetro estão
representados na Tabela 5.

Tabela 5 – Resultados obtidos para as diferenças entre os valores de tensão média em tração
para cada intervalo de fibras, após aplicação do teste de Tukey.
Intervalo de
1° 2° 3° 4° 5° 6°
diâmetro
1° 0 55,4 100,2 116,33 119,34 127,86
2° 55,4 0 44,8 60,93 63,94 72,46
3° 100,2 44,8 0 16,13 19,14 27,66
4° 116,33 60,93 16,13 0 3,01 11,53
5° 119,34 63,94 19,14 3,01 0 8,52
6° 127,86 72,46 27,66 11,53 8,52 0

Com base nos valores obtidos, tem-se que, com o nível de significância de 5%, as fibras
pertencentes ao primeiro intervalo de diâmetro (0,31 – 0,46 mm) apresentaram melhor
desempenho que as demais, sendo significativamente diferente dos outros intervalos, com
valor de resistência à tração média de 157,3 MPa. Dessa forma há diferença significativas
entre as tensões médias em tração nesse intervalo, sendo superior ao valor d.m.s (41,64). É
importante ressaltar que não há diferença significativa entre os valores de resistência à tração
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1132
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresentados no 3°, 4°, 5° e 6° intervalos, pois as diferenças entre as médias observadas não
são superiores ao d.m.s. calculado.
Um fator a ser levado em consideração de acordo com Bhatinagar (2016), é que fibras
mais finas tendem a apresentar maiores teores de celulose, a qual é responsável por conferir a
resistência às fibras, esse aumento se dá possivelmente pela elevada concentração de
microfibrilas em sua estrutura, dessa maneira, fibras mais espessas apresentam maior
concentração de lignina em relação à celulose, assim sendo menos resistentes,
correlacionando assim a variação da resistência à tração com a variação do diâmetro médio
das fibras.
O estudo da influência da variação diametral sobre as propriedades mecânicas é de
fundamental importância para se predizer possíveis aplicações para as FNLs, visto que,
através de uma simples seleção de fibras que apresentem menor diâmetro, abre a possibilidade
de produção de materiais com propriedades superios (MONTEIRO et al, 2011; MONTEIRO
et al, 2017).
Conforme é apresentado por Monteiro e outros (2011), as fibras naturais lignocelulósicas
apresentam diferentes características que as tornam tão peculiares entre si, diante de tal
informação torna-se difícil fazer comparação entre diferentes FNLs.

4. CONCLUSÃO

Através da análise diametral das fibras percebeu-se que a distribuição apresenta um valor
de diâmetro médio de 0,769, com valor de diâmetro mínimo de 0,313 mm e máximo de 1,207
mm.
Os ensaios de tração retornaram valores das propriedades mecânicas das fibras de
carnaúba, com resistência à tração média de 69,8 MPa, módulo de elasticidade igual a 1,54
GPa e alongamento percentual de 5,5%. Foi confirmada a variação da resistência média a
tração com o aumento do diâmetro das fibras, com os melhores valores de resistência
apresentados para as fibras pertencentes ao intervalo de menor diâmetro (0,31 – 0,46 mm),
com valor de resistência à tração média de 157,3 MPa.
De acordo com as propriedades mecânicas apresentadas pelas fibras de carnaúba,
destaca-se possibilidade de aplicação das fibras de carnaúba como reforço em matriz
polimérica na produção de compósitos, destinados para aplicações de engenharia.

Agradecimentos

Os autores deste trabalho agradecem à CAPES e a FAPERJ por meio do PDS pelo
financiamento da pesquisa.

REFERÊNCIAS

ASTM C1557-14. (2014), Standard test method for tensile strength and young’s modulus of fibers. American
Society for Testing of Mateials: ASTM International. West Conshohocken, PA, USA.
Balaju, N. S. et al. (2020), Study of mechanical and thermal behaviours of zea-coir hybrid polyestercomposites.
Materials Today: Proceedings, 27, 2048 - 2051.
Bhatnagar, A. (2016), Lightweight ballistic composites: military and law-enforcement applications. Woodhead
Publishing.
Bledzki, A. K.; Gassan, J. (1999), Composites Reinforced with Cellulose Based Fibres. Progress in Polymer
Science, Vol. 4, p. 221-274.
Chokshi, S. et al. (2020), Tensile strength prediction of natural fiber and natural fiber yarn: Strain rate variation
upshot. Materials Today: Proceedings, 27, 1218-1223.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1133
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CONAB. (2017), Conjuntura Mensal - Carnaúba. Conab - Companhia Nacional de Abastecimento, por: Enio
Calos Moura de Souza. Brasilia, p. p. 5.
Fidelis, M. E. A. et al. (2013), The effect of fiber morphology on the tensile strength of natural fibers. J Mater
Res Techol, 2 (2), 149-157.
Gbif. (2020), Pesquisas de ocorrência. Gbif. Disponivel em:
<https://www.gbif.org/pt/occurrence/map?taxon_key=2738262>. Acesso em: 27 mar. 2020.
Glassman, S. F. A. (1972), Revision of B E Dahlgren's Index of American Palms. CHICAGO: Cramer, v. 4, 294
p.
John, M. J.; Thomas, S. (2008), Biofibers and Biocomposites. Carbohydrate Polymers, Vol. 71, p. 343-364.
Joseph, K.; Carvalho, L. H. (1999), Propriedades de compósitos híbridos de poliéster insaturado/tecidos híbridos
de juta e algodão. Congresso Brasileiro de Polímeros, 5. Anais. Águas de Lindóia, p. p. 834 - 839.
Kalia, S.; Kaith, B. S.; Kaurs, I. (2011), Cellulose Fibers: Bio and Nano-Polymer Composites. 1ª. ed. New York:
Springer.
Lorenzine, H. et al. (1996), Palmeiras no Brasil. São Paulo, Plantarum. Nova Odessa, p. p. 70.
Mattoso, L. H. C.; Fragalle, E. P. (1996), Uso de fibras vegetais na indústria automobilística: necessidade
ecológica, oportunidade para o Brasil. Polímeros: Ciência e Tecnologia, Vol. 4, p. 9-1.
Monteiro, S. N. et al. (2017), Weibull analysis of the tensile strength dependence with fiber diameter of giant
bamboo. J Mater Res Technol, 6 (4), 317-322.
Monteiro, S. N. et al. (2011), Natural Lignocellulosic Fibers as Engineering Materials - An Overview.
Metallurgical and Materials Transactions A, Vol. 42 A, p. 2963-2974.
Satyanarayana, G. et al. (2011), Dimensional analysis and surface morphology as selective criteria of
lignocellulosic fibers as reiforcement in polymeric matrices. Springer-Verlang Berlin Heidelber, Berlin.

INFLUENCE OF THE DIAMETRAL VARIATION ON THE MECHANICAL


PROPERTIES OF CARNAUBA FIBERS

Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Texeira Souza1 – andressa.t.souza@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
1
Military Engineering Institute, Materials Science Section – Rio de Janeiro, RJ, Brazil.

Abstract. Natural fibers especially lignocellulosic, are materials that present high complexity
in their cellular constitution, this factor highlights the high variability of their properties.
Given this point, it is important to investigate the properties presented by different natural
lignocellulosic fibers (NFLs). To this end, the present study aims to evaluate the mechanical
properties presented by the carnauba fibers (Copernicia prunifera). To determine the
diametrical variation, optical microscopy was applied, the mechanical properties were raised
through the fiber tensile test and the data were treated by analysis of variance (ANOVA). The
diametrical variation analysis showed an average diameter value of 0.769 mm located in the
range of 0.31 to 1.21 mm. The fiber tensile tests returned reasonable mechanical properties
for the fibers, with an average tensile strength of 70 MPa, an elasticity modulus of 1.54 GPa
and an elongation of 5.5%. The ANOVA together with the Tukey test highlighted the fine
fibers (0.31 ~ 0.46 mm) as the most resistant, with an average tensile strength value of 157.3
MPa. Given the mechanical properties obtained for the carnauba fibers, there was a high
potential for using the fibers as reinforcement in polymeric composites.

Keywords: Carnauba fibers, mechanical properties, diametrical variation.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1134
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

INFLUÊNCIA DA VARIAÇÃO DIAMETRAL SOBRE A DENSIDADE DAS FIBRAS


DE CARNAÚBA UTILIZADAS COMO REFORÇO EM COMPÓSITOS
POLIMÉRICOS

Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Texeira Souza1 – andressa.t.souza@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
1
Instituto Militar de Engenharia, Seção de Ciências dos Materiais – Rio de Janeiro, RJ, Brasil.

Resumo. A crescente empregabilidade das fibras naturais lignocelulósicas (FNLs) em setores


industriais evidencia o interesse do mercado pelas propriedades apresentadas por esses
materiais. A busca por materiais ecologicamente corretos ocasiona o aumento da utilização
das FNLs em diversos setores, desencadeando assim o desenvolvimento econômico nos
mercados direta e indiretamente envolvidos. Diante da elevada variabilidade das
propriedades apresentadas por esses materiais, se fazem necessários estudos detalhados de
suas características intrínsecas, buscando uma possível aplicação de responsabilidade para
as FNLs. O presente trabalho se propõe a estudar a variação da massa específica em relação
ao diâmetro médio das fibras de carnaúba (Copernícia prunífera). Para tal aplica-se a
utilização da microscopia óptica, para determinação do diâmetro médio apresentado pelas
fibras. Para a determinação da densidade foi aplicado o princípio de Arquimedes. As
micrografias obtidas por microscopia óptica indicaram uma seção transversal
aproximadamente elíptica, com diâmetro médio de 0,769 mm localizado no intervalo de 0,31
a 1,21mm. A densidade média apresentada pelas fibras estudadas foi de 1,13 ± 0,22 g/cm3. As
fibras de carnaúba apresentaram diâmetro médio e densidade média equivalente a outras
fibras naturais já estudadas, destacando assim a possibilidade de sua utilização como reforço
em compósitos de matriz polimérica.

Palavras-chave: Copernícia prunífera, Massa específica, Fibra natural, Compósitos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1135
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

É crescente a empregabilidade de fibras naturais lignocelulósicas (FNLs) em diversos


setores tecnológicos John e Thomas (2008), visto que essa classe de material apresenta
diversos benefícios, dentre eles ser ecologicamente correto. No Brasil em especial pode-se
listar alguns exemplos de aplicações de FNLs na indústria, onde se destacam a utilização em
revestimentos internos, painéis e forros de automóveis (LOTIF et al. 2019; REIS et al. 2019).
O aumento na aplicação de fibras naturais em setores industriais pode ser correlacionado
através do aumento da produção anual desses materiais (LOTIF et al. 2019), os dados
observados para produção anual de algumas fibras naturais em diferentes países estão
representados na Tabela 1.

Tabela 1 - Produção anual de fibras naturais em diversos países.


Produção
Fibras Espécie Países Referência
(103 tons)
Hibiscus Índia, Bangladesh,
Kenaf 970
cannabinus Estados Unidos
> que1250 China, Índia,
Bambu 30000
espécies Indonésia
Corchorus LOTIF et
Juta Índia, Bangladesh 2500
capsularis al. (2019)
Rami Boehmeria nivea China, Brasil, Filipinas 100
China, Índia, Estados
Algodão Gossypium sp. 25000
Unidos
Bagaço - Brasil, Índia, China 75000
Carnaúba (Pó Copernícia CONAB
Brasil 20000
cerífero) prunífera (2017)

O elevado interesse pela utilização de FNLs por parte da indústria pode estar aliado as
propriedades apresentadas por esses materiais, podendo citar o custo baixo, baixa massa
específica e serem provenientes de fontes ecológicas. As fibras quando em uso, podem ser
submetidas a uma grande variação de deformações mecânicas (estiramento, torção,
cisalhamento e abrasão), as quais geralmente apresentam resistência á tração e módulo de
elasticidade elevados (CALLISTER JR e RETHWISCH, 2011).
As fibras possuem duas principais classificações, podendo ser fibras naturais ou
químicas. Dentro da primeira designação, as fibras podem ser agrupadas em diversos
subgrupos (vegetal, animal ou mineral). As fibras naturais, em especial as lignocelulósicas
são obtidas em vegetais e constituem bons exemplos de materiais ecologicamente corretos
(MONTEIRO et al. 2011). Cada fibra natural apresenta variação de suas propriedades, isso
pode ser atrelado a diversos fatores como: proporção de seus constituintes (celulose,
hemicelulose e lignina), massa específica, idade da planta, diâmetro médio, dentre outros
fatores (KAILA et al. 2011; MOHANTY et al. 2000).
A não uniformidade, limitação dimensional e heterogeneidade microestrutural podem ser
apontadas como parâmetros que dificultam o aumento da aplicabilidade das FNLs em
indústrias. Ao comparar as fibras naturais às sintéticas se destaca outro fator importante, a
interação com a umidade. Os inconvenientes apresentados pelas fibras naturais são
sobrepostos por vantagens como: custo baixo, maior flexibilidade, baixa massa específica,
não abrasividade e possibilidade de desenvolvimento social e econômico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1136
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A carnaubeira é uma palmeira da família Palmae do tipo xerófito, cuja o nome científico
da espécie originária no Brasil é Copernícia prunífera (Miller) H. E. Moore (LORENZINE et
al. 1996). O gênero Copernícia possui cerca de 28 espécies, as quais são encontradas em
algumas regiões da Índia e na América do Sul. Estima-se que a carnaubeira possa chegar de
10 a 15 metros de altura, possuindo vida produtiva de 200 anos, é bastante resistente e se
adapta muito bem a estiagens severas e inundações (CONAB, 2017).
O presente estudo se propõe a levantar informações inerentes a massa específica e
variação diametral das fibras de carnaúba. Devido à escassez de informações referente a essa
classe de materiais, este trabalho se faz de grande valor científico contribuindo diretamente
com o enriquecimento de informações voltadas ao estudo de fibras naturais. As informações
levantadas neste trabalho serão tomadas como base para o desenvolvimento de estudos
voltados à aplicação das fibras de carnaúba para a produção de compósitos de matriz
polimérica.

2. MATERIAIS E MÉTODOS

2.1 Fibras de carnaúba

As fibras de carnaúba utilizadas neste trabalho foram adquiridas de produção rural, as


quais vieram da cidade de Barro, Ceará. O material foi disponibilizado em forma de folhas,
portanto ainda verdes, dessa forma foram submetidas a imersão em água durante 24 h,
seguidas de secagem ao sol por 12 h e posterior desfio.

2.2 Variação diametral

Conforme foi observada elevada variação nos diâmetros das fibras de carnaúba, foram
empregados métodos para a determinação do diâmetro médio. Inicialmente as folhas de
carnaúba foram desfiadas de forma manual até que se obtivesse cerca de cem fibras.
Foi utilizado o microscópio óptico, operado em campo escuro, com câmera digital
embutida (Olympus – BX53M), pertencente ao laboratório de metalografia do IME para
medição dos diâmetros. As cem fibras foram medidas em cinco pontos distintos ao longo do
seu comprimento. Em cada ponto foram realizadas seis leituras, sendo que três dessas foram a
0° outras três a 90°, totalizando cerca 30 pontos de coleta de dados ao longo do comprimento
útil.

2.3 Determinação da densidade

Para a avaliação da densidade foi tomado como base o princípio de Arquimedes, onde
foram utilizadas cem fibras com cerca de 50 mm de comprimento, balança hidrostática
Gehaka – BK300, béquer de 250 ml e 200 ml de gasolina. As fibras passaram por secagem
em estufa por 24h a 80°C até a realização do ensaio. Conforme a norma ASTM D3800-99
(2010), o ensaio foi realizado em água e óleo vegetal, porém a balança não detectou variação
no peso durante a leitura. Com isso foi utilizada gasolina como líquido, com densidade de
0,76 g/cm3 à temperatura ambiente. O método de Arquimedes se baseia na seguinte Eq. (1).

(1)

Onde:
ρArq: densidade da amostra;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1137
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

PAS: peso da amostra seca;


PAM: peso da amostra úmida;
PAI: Peso da amostra imersa;
ρliq: densidade do líquido utilizado.

2.4 Análise estatística de Weibull

A distribuição de Weibull é um dos métodos estatísticos mais empregados para realização


de cálculos de engenharia e confiabilidade, pois, apresenta a vantagem de se adequar a
diversos casos reais apenas pelo ajuste de parâmetros observados na distribuição
(O'CONNOR e KLEYNER, 2012). Dentre as possibilidades, este método permite representar
falhas típicas, aleatórias, devido ao desgaste, uma representação gráfica simples, além de
permitir a obtenção de parâmetros significativos da configuração das falhas.
A função de distribuição cumulativa de Weibull é dada pela Eq. (2).

(2)

Onde:
θ: Unidade característica de Weibull ou parâmetro de escala;
β: Módulo de Weibull ou parâmetro de forma.

Para um melhor entendimento do método gráfico de probabilidades, se faz necessário a


linearização da Eq. (2), apresentando-se assim na forma linearizada Eq. (3).

(3)

Onde:
: apresenta-se como variável independente (Y);
β: coeficiente de inclinação da reta (A);
𝑙𝑛𝑥: variável independente (X);
𝛽𝑙𝑛𝜃: Intercepto do eixo das ordenadas.

3. RESULTADOS E DICUSSÃO

3.1. Histograma de variação geométrica

As FNLs apresentam elevada variabilidade de suas propriedades e constituintes. Diversos


fatores são responsáveis por tais variações, dentre os quais pode-se citar: a composição do
solo, umidade, luminosidade, local de cultivo, idade da planta (MONTEIRO et al. 2011).
A determinação do diâmetro médio das fibras ocorreu por meio da utilização de
microscopia óptica, constando de 30 pontos de coletas ao longo do comprimento útil da fibra.
A Figura 1 (a) ilustra a coleta de dados em um dos pontos de análise para uma fibra de menor
diâmetro (0,36 mm), de forma similar a Figura 1 (b) apresenta as medidas realizadas em fibra
de diâmetro elevado (0,93 mm). De forma similar foram feitas micrografias das seções
transversais das fibras ilustradas pelas Figuras 1(c) e 1(d).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1138
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 – Medição do diâmetro das fibras. Seção longitudinal 5x (a) Fibra fina e (b)
Fibra grossa. Seção transversal 5x (c) Fibra fina e (d) Fibra grossa.

Ao se analisar as Figuras 1(c) e 1 (d) é possível identificar a predominância de uma área


aproximadamente elíptica, com uma dimensão ∅1 maior que ∅2, característica apresentadas
por outras FNLs (MONTEIRO et al. 2011). Pode-se observar orifícios de diâmetros maiores
no centro da fibra, provavelmente associado ao lúmen da fibra, canal responsável pela
condução de nutrientes pela planta (REIS et al. 2019). Em associação pode-se observar canais
de dimensão menor, provavelmente associados às microfibrilas presentes na constituição da
fibra.
A extração das fibras de carnaúba ocorre pelo cisalhamento das folhas, se dando tanto por
via úmida quanto por via seca. No presente trabalho foi utilizado a imersão em água como
agente facilitador do processo de desfio. A geometria da ferramenta utilizada para o processo,
ação do operador e imersão em água são fatores que podem contribuir com a variação
diametral. Os dados obtidos para a variação diametral estão apresentados no histograma
representado pela Figura 2.

Figura 2 – Histograma da frequência por intervalo de diâmetro das fibras de carnaúba.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1139
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme apresentado na Figura 2, as fibras foram divididas em seis faixas de diâmetro


médio, onde pode-se observar uma curva que apresenta comportamento similar a uma
distribuição normal. Os seis intervalos de variação apresentados pelas fibras estão localizados
entre o valor de diâmetro mínimo (0,313 mm) e máximo (1,207 mm). O terceiro intervalo
apresentou maior número de fibras, alocadas entre 0,613 mm a 0,763 mm, com uma
frequência de 30 fibras. O primeiro intervalo (0,313 a 0,463 mm) apresentou a menor
frequência da distribuição, tal fato pode estar aliado a dificuldade de se obter fibras com
diâmetros reduzidos. Portanto, quanto menor o diâmetro da fibra maior é a dificuldade
observada ao se realizar o desfio manual sem que ocorra o rompimento da mesma. As fibras
mais grossas, localizadas no intervalo seis (1,063 a 1,207 mm) apresentaram a segunda menor
frequência, tal fato pode estar aliado a dificuldade de se desfiar fibras mais grossas, pois estas
apresentam maior quantidade de defeitos internos, assim se rompendo com maior facilidade
durante o desfio. As fibras estudadas na distribuição de frequência apresentam o valor de
diâmetro médio de 0,769 ± 0,21 mm.
De forma similar foi plotado o histograma para a variação do comprimento das fibras, o
qual é representado pela Figura 3. O segundo intervalo (23,2 a 27,6 cm) apresentou maior
número de fibras, com o total de 30 fibras. Este valor pode ser relacionado a uniformidade das
fibras pertencentes a esse intervalo, assim apresentando maior facilidade de se realizar o
processo de desfio. O intervalo que apresentou menor ocorrência foi o sexto (40,8 a 45,5 cm),
com o total de 3 fibras. A distribuição observada na Figura 3 apresenta a média de 30,1 cm,
retornando o valor médio do comprimento para as fibras de carnaúba estudadas.

Figura 3 – Histograma da frequência por intervalo de comprimento das fibras de


carnaúba.
3.2. Determinação da densidade

As fibras utilizadas no presente trabalho apresentam geometria da seção transversal


aproximadamente elipsoidal, característica já apresentada por outras FNLs (MONTEIRO et
al. 2011; REIS et al. 2019).
Os valores de densidade obtidos pelo princípio de Arquimedes em relação a faixa de
diâmetro médio das fibras estão representados na Tabela 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1140
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 – Densidade média das fibras de carnaúba obtidas pelo princípio de Arquimedes.
Intervalo de diâmetro médio(mm) Densidade (g/cm3)
0,31 – 0,46 1,61 ± 0,20
0,46 – 0,61 1,43 ± 0,16
0,61 – 0,76 1,27 ± 0,10
0,76 – 0,91 1,09 ± 0,17
0,91 – 1,06 0,93 ± 0,22
1,06 – 1,21 0,72 ± 0,13

Conforme apresentado na Tabela 2 pode-se observar uma tendência no aumento da


densidade com a redução do diâmetro das fibras, essa variação pode estar relacionada com a
redução dos defeitos internos presentes nas fibras mais finas (MONTEIRO et al. 2011).
A densidade média obtida é 1,13 ± 0,22 g/cm3, onde o método de Arquimedes
proporcionou valores próximos a valores encontrados por Melo (2012), os dados se
encontram no mesmo intervalo de grandeza, caso seja tomado como base o valor do desvio
padrão, o autor apresenta valores de 1,34 a 1,47 g/cm3 para fibras de carnaúba in natura. As
fibras de carnaúba apresentam densidade aproximada à diversas outras FNLs também
aplicadas à compósitos poliméricos (SATYANARAYANA, ARIZAGA e WYPYCH, 2009;
MONTEIRO et al., 2011).
A análise estatística de Weibull foi aplicada para determinação da densidade
característica das fibras de carnaúba, os parâmetros de Weibull fornecidos pelo Software
Weibull Analysis estão representados na Tabela 3.

Tabela 3 – Parâmetros de Weibull para a determinação da densidade das fibras de carnaúba.


Intervalo de Diâmetro médio (mm) β R2
0,31 – 0,46 12,34 1,62 0,893
0,46 – 0,61 30,64 1,45 0,999
0,61 – 0,76 32,85 1,29 0,962
0,76 – 0,91 25,65 1,11 0,932
0,91 – 1,06 20,87 0,96 0,974
1,06 – 1,21 13,92 0,76 0,950

A Tabela 3 aponta o módulo de Weibull β, o parâmetro de escala θ e o ajuste de precisão


R2 dos dados coletados para as densidades das fibras. Se observa o mesmo comportamento
apresentado na Tabela 2, onde a redução do diâmetro implica no aumento da densidade
característica representada pelo parâmetro de escala. O valor de R2 se manteve entre 0,89 a
0,99, retornando assim uma faixa de confiabilidade experimentalmente aceitável. Os elevados
valores de β, representam a elevada uniformidade para os dados obtidos. Pela estatística de
Weibull obteve-se 1,22 g/cm3,sendo caracterizada como densidade de maior probabilidade,
valor próximo aos valores obtidos para outros estudos (MELO, 2012; OLIVEIRA et al. 2014).
Os valores apresentados pelas Tabela 2 e 3 são utilizados para plotagem das curvas
representadas pelas Figuras 4 (a) e (b), respectivamente. Ao se analisar as Figuras 4 (a) e (b)
pode-se entender claramente a redução da densidade com o aumento do diâmetro conforme
apresentado por Monteiro et al. (2011). Também é possível observar um aumento nos valores
da densidade característica, tal comportamento é correlacionado ao método estatístico
empregado, pois, o mesmo divide a distribuição de dados de forma assimétrica (63,2 e 46,8
%). Dessa forma obtendo a densidade característica, sendo compreendida como a densidade
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1141
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de maior probabilidade de ocorrência na faixa de diâmetro estudada (REIS et al. 2019;


SATYANARAYNA et al. 2009).

Figura 4 – Dependência da massa específica da fibra em relação ao diâmetro (a) e (b) relação
entre a densidade característica e o diâmetro das fibras de carnaúba.

De acordo com Satyanarayana e outros (2009) é possível relacionar propriedades de


algumas FNLs com o inverso de seu diâmetro, havendo assim a possibilidade de plotagem de
uma reta crescente que represente as propriedades estudadas. Nesse caso foi construído o
gráfico (Figura 5) que relaciona a densidade característica da fibra de carnaúba com o inverso
do diâmetro.

Figura 5 – Aproximação linear da relação entre a massa específica característica versus o


inverso do diâmetro das fibras.

Com base na aproximação linear realizada na Figura 5 é possível desenvolver uma


equação que represente a dependência da densidade característica pelo diâmetro médio das
fibras, a Eq. (4) ilustra essa dependência aproximada.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1142
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(4)

Onde:
ρcarac: Densidade característica;
D: Diâmetro médio;

Observa-se que os valores seguem uma tendência que pode ser aproximada por uma reta,
os dados obtidos apresentam baixa dispersão em relação à aproximação, dessa forma foi
obtido valor R2 = 0,873, representando qualidade no ajuste da reta em relação aos dados. Ao
se analisar a equação, pode-se concluir que para um aumento excessivo do diâmetro médio, o
valor da densidade tende a aproximar-se de 0,487 g/cm3. Entretanto, quando o diâmetro
médio é reduzido ocorre a tendência no aumento da densidade, comportamento também
reportado por outros autores (SATYANARAYANA et al. 2009).

4. CONCLUSÃO

Através da análise diametral das fibras percebeu-se a predominância da geometria elíptica


para seção transversal das fibras, apresentando diâmetro médio de 0,769 mm no intervalo de
0,31 a 1,21 mm, comprimento médio de 30,10 cm no intervalo de 18,6 a 45,5 mm. Tais
medidas são comumente observadas em outras fibras naturais.
A densidade por Arquimedes se mostrou condizente com valores já observados em outros
estudos. A densidade média encontrada para as fibras foi de 1,13 ± 0,22 g/cm3, a densidade
das fibras de carnaúba é comparável a valores apresentados por outras FNLs. Foi observado o
comportamento inverso da densidade com o diâmetro, assim fibras de menor diâmetro
apresentam maiores densidades, apontando assim a influência da variação diametral sobre a
densidade apresentada pelas fibras.
As fibras de carnaúba apresentam variação diametral e densidade média muito similar a
outras FNLs já estudadas, destacando sua semelhança e possibilidade de aplicabilidade em
reforço de matrizes poliméricas para a produção de materiais compósitos.

Agradecimentos

Os autores deste trabalho agradecem à CAPES e a FAPERJ por meio do PDS pelo
financiamento da pesquisa.

REFERÊNCIAS

ASTM D3800-99. (2010), Standard Test Method for Density of High-Modulus Fibers. American Society for
Testing of Materials: ASTM International.
Callister Jr, W.D.; Rethwisch, D.G. (2016), Ciência e engenharia de materiais – uma introdução. 9th ed. Rio de
Janeiro: LTC.
CONAB. (2017), Conjuntura Mensal - Carnaúba. Brasilia: Conab - Companhia Nacional de Abastecimento, por:
Enio Calos Moura de Souza.
John M.J.; Thomas , S. (2008), Biofibers and Biocomposites. Carbohydrate Polymers. p. p. 343-364.
Kalia S, Kaith B.S.; Kaurs, I. (2011), Cellulose Fibers: Bio and Nano-Polymer Composites. 1st ed. New York:
Springer.
Lorenzine, H.; Sousa, H.; Coelho, L.S.; Medeiros, J.; Nikolaus, B. (1996), Palmeiras no Brasil. Nova Odessa:
São Paulo, Plantarum.
Lotfi, A.; Li, H.; Dao, D.V.; Prusty, G. (2019), Natural fiber–reinforced composites: A review on material,
manufacturing, and machinability. Journal of Thermoplastic Composite Materials. p. 1-47.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1143
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Melo, J.D.D. (2012), A biodegradable composite material based on polyhydrosybutyrate (PHB) and carnauba
fibers. Composites: Part B. p. p. 2827-2835.
Mohanty, A.K.; Misra, M.; Hinrichsen, G. (2000), Biofibres, Biodegradable Polymers and Bio-composites: An
Overview. Macromolecular Materials and Engineering. p. p. 1-24.
Monteiro, S.N.; Lopes, F.P.D.; Barbosa. A.P.; Bavitori, A.B.; Silva, I.L.A.; Costal, L.L. (2011), Natural
Lignocellulosic Fibers as Engineering Materials - An Overview. Metallurgical and Materials Transactions A.
p. p. 2963-2974.
O'Connor, P. D. T.; Kleyner, A. (2012), Practical Reliability Engineering. 5ª. ed. Chinchester: John Wiley &
Sons.
Oliveira, F.S.; Mendes J.U.L.; Costa L.L.L.; Santos L.M.P. (2014), Caracterização de fibras da palha da
carnaúba para aplicação em compósitos de isolação térmica. Cuiabá: In: 21º CBECIMAT - Congresso
Brasileiro de Engenharia e Ciência dos Materiais.
Reis, R.H.M.; Cândido, V.S.; Nunes, L.F.; Monteiro, S.N. (2019), Chemical and morphological characterization
of guaruman fiber. In: Green Materials Engineering. Springer. p. p. 107–113.
Satyanarayana K.G.; Arizaga G.C.; Wypych, F. (2009), Biodegradable composites based on lignocellulosic
fibers—An overview. Progress in Polymer Science. p. p. 982-1021.

INFLUENCE OF DIAMETRAL VARIATION ON THE DENSITY OF CARNAUBA


FIBERS USED AS REINFORCEMENT IN POLYMERIC COMPOSITES

Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com


Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Texeira Souza1 – andressa.t.souza@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
1
Military Engineering Institute, Materials Science Section – Rio de Janeiro, RJ, Brazil.

Abstract. The growing employability of natural lignocellulosic fibers (NFLs) in industrial


sectors highlights the market's interest in the properties presented by these materials. The
search for environmentally friendly materials leads to an increase in the use of FNLs in
several sectors, thus triggering economic development in directly and indirectly related
markets. In view of the high variability of the properties presented by these materials, detailed
studies of their intrinsic characteristics are necessary, in search of a possible engineering
application for FNLs. The present work proposes to study the variation of the specific mass in
relation to the average diameter of the carnauba fibers (Copernicia prunifera). To this end,
the use of optical microscopy is applied to determine the average diameter presented by the
fibers. Archimedes' principle was applied to determine density. approximately elliptical cross
section, with an average diameter of 0.769 mm located in the range of 0.31 to 1.21 mm. The
average density presented by the studied fibers was 1.13 ± 0.22 g / cm3. Carnauba fibers had
an average diameter and average density equivalent to other natural fibers already studied,
thus highlighting the possibility of their use as reinforcement in polymer matrix composites.

Keyword: Copernicia prunifera, Especific mass, Natural fiber, Composites.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1144
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Análise da Estabilidade de Sistemas Intervalares Discretos e Contínuos

Thalita E. Nazaré1 - thalitanazare@gmail.com


Paulo S. P. Pessim1 - paulopessim777@hotmail.com
Márcio J. Lacerda1 - lacerda@ufsj.edu.br
Erivelton G. Nepomuceno1 - nepomuceno@ufsj.edu.br
1 Grupo de Controle e Modelagem (GCoM), Departamento de Engenharia Elétrica, Universidade
Federal de São João del-Rei Praça, Frei Orlando, 170, Centro - 36307-352, São João del-Rei, MG,
Brasil

Resumo. Este artigo trata do problema de estabilidade de sistemas intervalares contínuos e


discretos no tempo. Para isso foi proposto um método de análise da positividade das matrizes
de Lyapunov obtidas pela resolução da equação de Sylvester. Entretanto, na maioria dos
trabalhos encontrados na literatura, pouca atenção é dada às incertezas de representação
numéricas do computador e qual o efeito que podem causar na análise dos resultados. Dessa
forma, o principal objetivo é propor um método de análise que leve em consideração não
apenas as incertezas do sistema, mas também as incertezas da representação numérica do
computador ao realizar as simulações. Para garantir a utilização dos axiomas da aritmética
intervalar, em todas as etapas da análise foi utilizado o toolbox INTLAB do software Matlab.
Exemplos numéricos comparam a metodologia proposta com técnicas existentes na literatura,
e os resultados obtidos demonstram que incorporar as incertezas da representação numérica
ao longo de todo o processo influencia nos limites do intervalo em que o sistema é certificado
como estável.

Palavras-chave: Aritmética Intervalar; Análise da Estabilidade; Teoria de Lyapunov.

1. INTRODUÇÃO

Nas últimas décadas, a utilização de computadores para solução de diferentes tipos de


problemas tem crescido consideravelmente, de tal forma que grande parte dos trabalhos
encontrados na literatura utilizam simulação computacional. Dessa forma, a simulação
numérica desempenha um papel de fundamental importância em diversas áreas da engenharia,
desde a análise de circuitos elétricos, até o controle e modelagem de sistemas dinâmicos não-
lineares (Nepomuceno., 2002; Lozi, 2013). Entretanto, a resolução de problemas por meio

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1145
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

simulações em ambientes computacionais estão sujeitas a diversas fontes de erro que podem
contribuir para resultados não exatos (Vargas et al., 2008).
É esperado que durante os processos de simulação os resultados possuam erros dentro
de faixas de tolerância especificadas. A norma IEEE 754-2008 (Institute of Electrical
and Electronics Engineers (IEEE), 2008) com sua versão revisada IEEE 754-2019 (Institute
of Electrical and Electronics Engineers (IEEE), 2019) para aritmética de ponto flutuante,
estabelece o comportamento de arredondamento, tratamento de erros e o grau de precisão dos
cálculos realizados, fazendo com que os resultados se aproximem do valor esperado. Porém,
como afirma Lozi (2013), há muitos trabalhos publicados cuja confiabilidade dos resultados
numéricos não tem sido avaliada com cuidado. Um método muito utilizado para minimizar
essas incertezas é o uso da aritmética intervalar, apresentada por Moore et al. (2009), para
a simulação dos sistemas. Entre as ferramentas mais utilizadas para realizar este tipo de
simulação encontra-se o conhecido INTLAB (Rump, 1999), que é um pacote para Matlab capaz
de implementar algoritmos de análise intervalar.
Existem na literatura trabalhos que levantaram dúvidas sobre a confiabilidade das
simulações numéricas, entre eles está o trabalho realizado por Vargas et al. (2008), em que
os autores apresentam um estudo da matemática intervalar aplicada ao problema das incertezas
no fluxo de potência em redes de energia elétrica. Assim como foi aplicado em Vargas et al.
(2008), esse método pode ser abordado também em diferentes áreas, por exemplo em projetos
de controladores robustos e análise de estabilidade de um sistema linear, que será o foco deste
trabalho.
A teoria de Lyapunov é uma técnica amplamente difundida no meio acadêmico, e pode
ser usada para certificar a estabilidade de sistemas dinâmicos (Khalil, 2002). Uma grande
vantagem na utilização da teoria de Lyapunov é escrever as condições na forma de desigualdade
matriciais lineares (LMIs, do inglês Linear Matrix Inequalities), possibilitando assim a inclusão
de incertezas presentes nos modelos de uma forma simples (Boyd et al., 1994). Em Pessim
et al. (2017, 2019), a estabilidade de sistemas incertos contínuos e discretos no tempo é
certificada por meio da existência de uma função de Lyapunov composta por um número
genérico de derivadas de ordem superior no vetor de estados (caso contínuo) e por um vetor
aumentado de estados deslocados (caso discreto). Uma outra maneira de tratar essas incertezas
é considerar os parâmetros incertos como intervalos representados por limitantes inferiores e
superiores (Fazzolari and Ferreira, 2015). No que diz respeito a sistemas incertos intervalares,
em Smagina and Brewer (2002); Lee et al. (2006) é realizado o projeto de controle robusto
utilizando representação intervalar para modelar a incerteza presente no modelo. Os intervalos
considerados pelos autores são apenas relacionados às incertezas do próprio sistema, não
abrangendo as incertezas numéricas provindas de cálculos computacionais.
Este trabalho tem por objetivo encontrar uma solução para equação de Lyapunov que
garanta a estabilidade do sistema que será analisado, utilizando aritmética intervalar como
forma de considerar os erros de simulação computacional. A solução de LMIs é realizada
por meio de pacotes computacionais baseados em programação semidefinida. Tais pacotes
permitem encontrar uma solução para o sistema que garanta a estabilidade, e como dito
anteriormente, ao utilizar o pacote INTLAB, os valores numéricos passam a ser representados
por intervalos. Uma abordagem possível para tratar este tipo de problema é a resolução de LMIs
intervalares fazendo uso dos pacotes baseados em programação semidefinida em conjunto com
o INTLAB. Entretanto, este método não é trivial, pois a integração dessas ferramentas ainda
é limitada. Sendo assim, o método proposto neste trabalho é baseado no uso de equações
de Sylvester, possibilitando, então, encontrar uma solução para a análise da estabilidade de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1146
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sistemas dinâmicos, considerando as incertezas computacionais existentes na representação


numérica.

2. Conceitos Preliminares

Esta seção apresenta a base teórica na qual este trabalho foi fundamentado, de forma a
auxiliar o leitor a entender melhor o objetivo proposto. Na subseção 2.1 são abordados conceitos
relacionados à estabilidade de sistemas lineares contínuos e discretos invariantes no tempo,
utilizando a teoria de Lyapunov. A subseção 2.2 apresenta os conceitos da aritmética intervalar,
ou seja, a maneira como são realizadas as operações matemáticas neste cenário.

2.1 Estabilidade Assintótica

Considere o sistema linear contínuo no tempo

ẋ(t) = Ax(t), (1)

em que x(t) ∈ Rn é o vetor de estados e A ∈ Rn×n a matriz dinâmica do sistema. Um


sistema contínuo é dito assintoticamente estável, se e somente se, a matriz A possuir autovalores
com parte real negativa. De acordo com Lyapunov um sistema contínuo como em (1) é
assintoticamente estável, se e somente se, existir uma função de Lyapunov que satisfaça as
seguintes condições (Ogata, 2011):

• V (0) = 0, V (x(t)) > 0, ∀x 6= 0 e V̇ (x(t)) < 0, ∀x 6= 0.

Considerando uma função quadrática na forma V (x(t)) = x(t)T P x(t) como candidata à
função de Lyapunov o seguinte lema pode ser enunciado (Boyd et al., 1994):

Lema 1. O sistema representado em (1) é assintoticamente estável se, e somente se, existir uma
matriz P = P T ∈ Rn×n tal que as condições

P >0 (2)

AT P + P A < 0 (3)
sejam satisfeitas.

Prova. A escolha de uma função de Lyapunov na forma V (x(t)) = x(t)T P x(t) é suficiente
para atender a condição V (0) = 0. A condição (2) garante que V (x(t)) = x(t)T P x(t) seja
definida positiva para todo x(t) 6= 0. Multiplicando (3) por x(t)T a esquerda e por x(t) a direita
pode-se escrever

x(t)T (AT P + P A)x(t) = x(t)T AT P x(t) + x(t)T P Ax(t) = ẋ(t)T P x(t) + x(t)T P ẋ(t)
= V̇ (x(t)) < 0

Logo, a estabilidade assintótica do sistema (1) é assegurada.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1147
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Considere agora um sistema linear discreto no tempo,

xk+1 = Axk . (4)

A estabilidade assintótica do sistema discreto é garantida se, e somente se,todos os autovalores


da matriz A estiverem contidos dentro do círculo de raio unitário. Em sistemas discretos a
condição V̇ (x) < 0 é substituída por V (xk+1 ) − V (xk ) < 0. De forma análoga ao caso
contínuo, a utilização de uma função de Lyapunov quadrática para o caso discreto permite
enunciar o seguinte lema (Ogata, 1995):

Lema 2. O sistema representado em (4) é assintoticamente estável se, e somente se, existir uma
matriz P = P T ∈ Rn×n tal que as condições

P >0 (5)

AT P A − P < 0 (6)
sejam satisfeitas.

Prova. Assim como no caso contínuo, a escolha de uma função de Lyapunov quadrática,
juntamente com a condição (5) satisfazem as condições V (0) = 0 e V (x) > 0, ∀x 6= 0.
Multiplicando (6) por xk T a esquerda e por xk a direita pode-se escrever

xk T (AT P A − P )xk = xk T AT P Axk − xk T P xk = xk+1 T P xk+1 − xk T P xk


= V (xk+1 ) − V (xk ) < 0.

Logo, a estabilidade assintótica do sistema (4) é assegurada.


As desigualdades matriciais definidas nos Lemas 1 e 2 podem ser substituídas pelas
respectivas equações de Lyapunov na busca numérica pela matriz P . Realizando a referida
substituição, temos AT P + P A = −Q, para o caso contínuo no tempo, e AT P A − P = −Q
para sistemas discretos no tempo. Nessa situação, é importante ressaltar que Q deve ser uma
matriz definida positiva para assegurar que o lado direito da equação seja negativo.
Definição 1. Uma matriz simétrica P ∈ Rn×n é definida positiva se, e somente se, qualquer
uma das condições a seguir for verificada:

(a) Todos os autovalores de P são positivos;

(b) v T P v > 0, ∀v ∈ Rn , v 6= 0;

(c) Existe R ∈ Rn×n não singular tal que P = RT R;

(d) Todos os menores principais líderes são positivos.

Além dos tópicos apresentados na Definição 1, uma condição necessária para que uma
matriz seja definida positiva é que todos os elementos de sua diagonal principal sejam positivos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1148
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Aritmética Intervalar

A aritmética intervalar foi proposta por Moore et al. (2009) como uma ferramenta para
minimizar erros de arredondamento e truncamento em programas de computador. Desde
então, tem-se desenvolvido como uma metodologia geral para analisar incertezas numéricas
de diversos tipos de problemas (Zhang and Liu, 2007). Ao utilizar aritmética intervalar, os
números não são representados da forma convencional, mas sim com limites que estabelecem
um conjunto de possíveis valores dos quais ele pode estar contido, estabelecendo, assim, um
intervalo (Rump, 1999). Esses intervalos são representados como [X] = [X,X], em que, X e
X são os limites superior e inferior de X, respectivamente.
Proposição 1. Sejam [x],[y] ∈ R. Então:

1. Adição intervalar: [x] + [y] = [x + y, x + y].

2. Subtração intervalar: [x] − [y] = [x] + (−[y]) = [x − y,x − y].

3. Multiplicação intervalar:

[x] · [y] = [min{x · y,x · y,x · y,x · y},max{x · y,x · y,x · y,x · y}].

4. Divisão intervalar:
    
[x] x x x x x x x x
= min , , , ,max , , , .
[y] y y y y y y y y

É interessante ressaltar que operações de adição e multiplicação são associativas


e comutativas, entretanto, como apresentado por Nepomuceno and Martins (2016) a
distributividade não pode ser considerada geral para todos os casos, de tal forma que duas
expressões matematicamente equivalentes podem não ser equivalentes na aritmética intervalar.

3. Metodologia

Como mencionado anteriormente, o objetivo deste trabalho é analisar a estabilidade de


sistemas intervalares discretos e contínuos invariantes no tempo, utilizando a equação de
Lyapunov intervalar, considerando as incertezas do próprio sistema e as incertezas numéricas
do computador. É importante ressaltar que em todos os casos, com relação às incertezas do
sistema, a matriz P foi considerada constante, aumentando o conservadorismo dos resultados.

3.1 Equação de Lyapunov Intervalar

Considerando a extensão proposta por Seif et al. (1994) para a equação de Lyapunov para
sistemas contínuos

[A][X] + [X][A]′ = −[C], (7)

o sistema ẋ(t) = [A]x(t) será assintoticamente estável se para qualquer A ∈ [A], e para
qualquer matriz intervalar simétrica definida positiva [C], se a equação de Lyapunov intervalar

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1149
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresentar uma única solução [X] simétrica definida positiva. A equação (7) pode ser reescrita
como [G][x] = [c] (Seif et al., 1994), em que

[G] = ([A] ⊗ In ) + (In ⊗ [A]), [x] = vec(X), [c] = vec([C]).

sendo In é uma matriz identidade de ordem n, e desta forma a matriz de Lyapunov pode ser
recuperada pela resolução de um sistema de equações lineares.
De forma análoga, para sistemas discretos tem-se [A]′ [P ][A] − [P ] = −[C], sendo possível
utilizar o produto de Kronecker para obter uma solução na forma [G][p] = [c] com a propriedade
vec(ABC) = (C ′ ⊗ vec(A))vec(B), resultando em:

(In2 − [A]′ ⊗ [A]′ )vec([P ]) = vec([C]), (8)

em que
[G] = (In2 − [A]′ ⊗ [A]′ ), [p] = vec([P ]), [c] = vec([C]).
sendo In2 é uma matriz identidade de ordem n2 .
Exemplo 1 - Seja a equação [A][X] + [X][A]′ = [C] para um sistema contínuo incerto, em
que    
[0,7; 1,3] [1,75; 2,25] [0,5; 0,9] [0,75; 1,25]
[A] = , [C] =
[2,9; 3.1] [0,75; 1,25] [0,65; 1,15] [0,8; 1,4]
Nesse caso, as incertezas representadas por intervalos são referentes somente ao sistema.
Por outro lado, a metodologia deste trabalho aborda a consideração de incertezas numéricas
presentes nesse tipo de sistema. Sendo assim, as matrizes [A] e [C] passam a apresentar os
seguintes valores:
   
[0,6999; 1,3001] [1,7499; 2,2501] [0,5000; 0,9001] [0,7499; 1,2501]
[A] = , [C] = .
[2,899; 3.1001] [0,7499; 1,25001] [0,6499; 1,1500] [0,8000; 1,4000]

Dessa forma, pretende-se considerar todas as incertezas presentes em um sistema, ao realizar
a análise de estabilidade. Para verificar se as matrizes da função de Lyapunov obtidas são
realmente definidas positivas, será utilizado o conceito dos menores principais líderes, pois os
mesmos podem ser computados apenas com operações matemáticas básicas, e assim sendo,
todo o procedimento pode ser realizado utilizando o INTLAB. Todos os resultados apresentados
na próxima seção, foram simulados em um computador Windows 10, Intel(R) Core(TM) i5-
6200 CPU @ 2.30 GHz 2.40 GHz e sistema operacional de 64 bits.

4. Resultados

Para aplicação da metodologia proposta foram escolhidos dois sistemas. O primeiro é


um sistema massa-mola-atrito apresentado na Figura 1, em que foram realizadas análises em
tempo contínuo e discreto, como mostram os Exemplos 2 e 3. Com esses dois exemplos foi
possível comparar os resultados obtidos com os fornecidos por Fazzolari and Ferreira (2015),
mostrando a influência das incertezas numéricas na análise do sistema. Como forma de auxiliar
a interpretação dos resultados e fazer uma análise gráfica, no Exemplo 4 é utilizado um sistema
intervalar discreto (Shafai et al., 1991), em que os resultados obtidos pela metodologia proposta
também foram comparados com os obtidos pelos autores, reforçando a diferença entre os
intervalos necessários para manter o sistema estável.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1150
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Exemplo 2 - Análise em tempo contínuo do sistema massa-mola-atrito


Considere o sistema massa-mola-atrito apresentado na Figura 1. Este sistema foi também
utilizado em Fazzolari and Ferreira (2015).

 
0 1 0 0
 −([k1 ]+[k2 ]) −[c1 ] [k2 ]
0 
m1 m1 m1
ẋ(t) =   x(t)
 0 0 0 1 
[k2 ] −([k2 ]+[k3 ]) −[c2 ]
m2 0 m2 m1
(9)
Figura 1- Sistema massa-mola-atrito.
A planta possui dois parâmetros precisamente conhecidos m1 = 2,77kg e m2 = 2,59kg. Os
parâmetros intervalares são definidos em função de um valor real e um raio de incerteza. Os
valores centrais dos parâmetros são dados por k1c = 200N/m, k2c = 390N/m. k3c = 30N/m,
c1c = 1,2N.s/m e c2c = 0,2N.s/m. Uma representação para este sistema é dada por
No trabalho realizado por Fazzolari and Ferreira (2015), os autores afirmam que é possível
certificar estabilidade para um raio de incerteza de até 12,74% utilizando o método proposto. A
matriz de Lyapunov intervalar obtida pelos autores é apresentada em (10). Entretanto os autores
não relatam ter considerado também as incertezas do computador.
Ao considerar todas as incertezas possíveis, representação do número no computador
e do próprio sistema, resolvendo a Eq.(7) com INTLAB, o maior raio de incerteza que
pode ser considerado para que o sistema permaneça estável é de 0,14% para todos os
parâmetros da planta. A matriz de Lyapunov obtida neste caso é representada por (11). Com
esse resultado, é possível afirmar que as incertezas de representação numérica presentes na
simulação, influenciam consideravelmente na análise do sistema, deixando os resultados mais
conservadores.
Ao computar os menores principais líderes das matrizes (10) e (11), com o auxílio do
INTLAB, considerando os axiomas da aritmética intervalar em todo o processo, pode-se
perceber que a matriz (10) não pode ser considerada definida positiva, enquanto a matriz (11)
possui todos os menores principais líderes positivos. A tabela 1 apresenta uma comparação
entre os menores principais líderes dos dois casos.

Tabela 1- Menores Principais Líderes Xi - Comparação entre a metodologia proposta e a solução


apresentada em Fazzolari and Ferreira (2015)

[Pmulti ] [PI ]
X4 [−64,7 × 104 ; 13,8 × 105 ] [11,3 × 102 ; 44,3 × 105 ]
X3 [−75,9 × 103 ; 34,5 × 104 ] [10,8 × 102 ; 19 × 102 ]
X2 [5,5 × 102 ; 10,8 × 102 ] [0,63 × 102 ; 0,8 × 102 ]
X1 [3,8 × 102 ; 4 × 102 ] [0,018 × 102 ; 0,02 × 102 ]

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1151
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

 
[375,76; 412,19] [0,09; 0,68] [−259,55; −227,44] [0,22; 0,86]
 [0,09; 0,68] [1,47; 2,61] [−0,49; −0,31] [−0,46; 1,01] 
[Pmulti ] = 
[−259,55; −227,44] [−0,49; −0,31] [181,35; 391,22] [−0,43; −0,26]
 (10)
[0,22; 0,86] [−0,46; 1,01] [−0,43; −0,26] [0,89; 3,11]
 
[1,75; 2,07] [−3,16; 2,16] [0,05; 0,45] [−3,03; 2,26]
[−3,16; 2,16] [364,55; 378,70] [−2,26; 3,03] [−255,82; −238,63]
[PI ] =  [0,05; 0,45]
 (11)
[−2,26; 3,03] [1,89; 2,38] [−4,01; 3,01] 
[−3,03; 2,66] [−255,82; −238,63] [−4,01; 3,01] [297,23; 320,02]

Exemplo 3 - Análise em tempo discreto do sistema massa-mola-atrito


O sistema (9) foi discretizado utilizando-se o método de Euler. Considere o sistema linear autônomo
˙ = [A]x(t), [A] ∈ Rn×n . A derivada pode ser aproximada por
contínuo no tempo intervalar x(t)
x(t + ∆t) − x(t) ∼
= [A]x(t)
∆t
sendo ∆t = T o período de amostragem. Para t = kT , x((k + 1)T ) ∼ = (T [A] + I)x(kT ), considerando
[Ad ] = (T [A] + I), obtém-se x(k + 1) ∼ = [Ad ]x(k), que corresponde à expressão do sistema discreto no
tempo intervalar.
 
0 1 0 0
 −T ([k1 ]+[k2 ]) 1 − T [c1 ] T [k2 ]
0 
Ad = 
 m1 m1 m1 
0 0 0 1

 
T [k2 ] −T ([k2 ]+[k3 ]) T [c2 ]
m2 0 m2 1 − m1

Para esse caso, o método proposto, foi capaz de certificar estabilidade para uma incerteza de 1,2%
considerando T = 0,0001. Sendo assim, os maiores valores de intervalos para os parâmetros da planta
que podem ser considerados para certificar estabilidade, utilizando o método proposto, são:

• m1 = 2,77kg, m2 = 2,59kg, c1c = [1,1856; 1,2144]N.s/m,

• c2c = [0,1976; 0,2024]N.s/m, k1c = [197,5999; 202,4000]N/m

• k2c = [385,3199; 394,6800]N/m, k3c = [29,6400; 30,3600]N/m

Entretanto, ao considerar as incertezas numéricas que podem estar presentes em m1 e m2 , o intervalo


máximo capaz de garantir a estabilidade do sistema caiu de 1,2% para 0,6%. Ou seja, considerar as
incertezas de representação do número no computador influenciou consideravelmente nos resultados
obtidos para esse caso.
Exemplo 4 - Análise em tempo discreto
Considere o sistema intervalar discreto disponível em Shafai et al. (1991).
 
0,5 + δ11 0 0,5
A= 1 0,5 + δ22 1  (12)
0,5 0 0,25 + δ33

De acordo com Shafai et al. (1991) o máximo limite tolerável para as incertezas δi tal que o sistema
permaneça estável é de 0 < δ11 < 16 , δ22 < 12 , 0 < δ22 < 14 . Ao analisar a estabilidade
pela metodologia proposta, soluções factíveis foram encontradas apenas para valores de incertezas
δi = 0,003. A Matriz de Lyapunov obtida neste caso é representada por (13) e os menores principais
líderes são: M P L(1×1) = [10,2414; 91,2414], M P L(2×2) = [29,5671; 31,0058], M P L(3×3) =
[23,4158; 24,3527]. A Figura 2 apresenta a trajetória da função de Lyapunov obtida.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1152
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

60
50
50
45
40 40

30 1 2 3 4 5

20

10

0
1 6 11 16 21 26 31 36 40

Figura 2- Trajetória da função de Lyapunov intervalar cuja matriz é representada por (13), com condições
iniciais , x1 = [1,1891; 1,1892], x2 = [−0,0377; −0,0376] e x3 = [0,3272; 0,3273]. Conforme
esperado, é possível perceber um comportamento positivo e monotonicamente decrescente, indicando
que o sistema é estável para os intervalos estabelecidos, considerando as incertezas da representação
numérica em todas as etapas de análise.
 
[23,4158; 24,3527] [1,2630; 1,2860] [17,9577; 18,6971]
[PEx3 ] =  [1,2630; 1,2860] [1,3333; 1,3388] [1,1227; 1,1422]  (13)
[17,9577; 18,6971] [1,1227; 1,1422] [15,4661; 16,0484]

5. Conclusão

Este trabalho apresentou um método para considerar as incertezas da representação numérica na


análise da estabilidade de sistemas dinâmicos. Com esse método, considerando todos os parâmetros
como intervalos, bem como todos os cálculos intervalares, foi possível verificar que há uma redução
nos valores de intervalos que podem ser utilizados ao analisar a estabilidade de um sistema. Ou seja,
com o aumento de incertezas, o tamanho máximo do intervalo para os parâmetros diminui, o que não
é um resultado desejado ao se procurar métodos capazes de certificar estabilidade de sistemas. Por
outro lado, é um fator que deve ser levado em consideração, principalmente em aplicações práticas, nas
quais qualquer erro de arredondamento numérico pode levar à consequências catastróficas. Sendo assim,
pode-se concluir que ao considerar as incertezas da representação numérica e a utilização dos axiomas
da aritmética intervalar em todas as etapas da análise da estabilidade, condições mais conservadoras
são obtidas, uma vez que tais condições irão impor que a função de Lyapunov obtida seja definida
positiva e monotonicamente decrescente em um intervalo em que a incerteza da representação numérica
foi considerada em todas as etapas de análise.

Agradecimentos

Os autores agradecem ao apoio financeiro da Fapemig, CNPq e Capes.

REFERÊNCIAS

Boyd, S., El Ghaoui, L., Feron, E., and Balakrishnan, V. (1994). Linear Matrix Inequalities in System
and Control Theory. SIAM Studies in Applied Mathematics, Philadelphia, PA.
Fazzolari, H. A. and Ferreira, P. A. V. (2015). Análise de Estabilidade Robusta para Sistemas Intervalares
com Tratamento de Multi-incidências de Parâmetros. XII Simpósio Brasileiro de Automação
Inteligente (SBAI).
Institute of Electrical and Electronics Engineers (IEEE) (2008). IEEE Standard for Floating-Point
Arithmetic. IEEE Std 754-2008, pages 1–70.
Institute of Electrical and Electronics Engineers (IEEE) (2019). Ieee standard for floating-point
arithmetic. IEEE Std 754-2019 (Revision of IEEE 754-2008), pages 1–84.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1153
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Khalil, H. K. (2002). Nonlinear Systems. Prentice Hall.


Lee, H., Xie, W., Chen, H., Kau, S., and Fang, C. (2006). Robust H∞ control for interval descriptor
systems. In 2006 IEEE International Conference on Systems, Man and Cybernetics, volume 4, pages
2926–2931.
Lozi, R. (2013). Can we trust in numerical computations of chaotic solutions of dynamical systems?,
volume 1. World Scientific.
Moore, R. E., Kearfott, R. B., and Cloud, M. J. (2009). Introduction to Interval Analysis. Society for
Industrial and Applied Mathematics.
Nepomuceno., E. G. (2002.). Identificação multiobjetivo de sistemas não-lineares. Master’s thesis,
Programa de Pós-Graduação em Engenharia Elétrica, Universidade Federal de Minas Gerais, Belo
Horizonte, Brasil,.
Nepomuceno, E. G. and Martins, S. A. (2016). A lower bound error for free-run simulation of the
polynomial narmax. Systems Science and Control Engineering, 4(1):50–58.
Ogata, K. (1995). Discrete-Time Control Systems. Prentice-Hall International, Inc., Upper Saddle River,
NJ, USA.
Ogata, K. (2011). Engenharia de controle moderno. Pearson Universidades, 4ed edition.
Pessim, P. S., Oliveira, B., and Lacerda, M. J. (2017). Análise da estabilidade de sistemas incertos
usando funções de lyapunov com derivadas de ordem superior dos estados. In Anais do XIII Congresso
Brasileiro de Automação Inteligente, pages 1–6, Porto Alegre, RS, Brasil.
Pessim, P. S. P., Leite, V. J. S., and Lacerda, M. J. (2019). Robust performance for uncertain systems via
Lyapunov functions with higher order terms. Journal of the Franklin Institute, 356(5):3139–3156.
Rump, S. (1999). INTLAB - INTerval LABoratory. In Csendes, T., editor, Developments in Reliable
Computing, pages 77–104. Kluwer Academic Publishers, Dordrecht.
Seif, N. P., Hussein, S. A., and Deif, A. S. (1994). The interval Sylvester equation. Computing,
52(3):233–244.
Shafai, B., Perev, K., Cowley, D., and Chehab, Y. (1991). A necessary and sufficient condition for
the stability of nonnegative interval discrete systems. IEEE Transactions on Automatic Control,
36(6):742–746.
Smagina, Y. and Brewer, I. (2002). Using interval arithmetic for robust state feedback design. Systems
and Control Letters, 46(3):187–194.
Vargas, R., Farias, C., Barboza, L., and Dimuro, G. (2008). Incerteza de dados em fluxo de potência -
uma abordagem com a matemática intervalar do c-xsc. Sociedade Brasileira de Matemática Aplicada
e Computacional.
Zhang, X. and Liu, S. (2007). A New Interval-genetic Algorithm. Third International Conference on
Natural Computation.

Stability analysis of continuous and discrete-time interval systems.


Abstract. This paper deals with the stability problem of continuous and discrete-time interval systems.
A method is proposed to analyze the positivity of Lyapunov matrices, obtained by solving the Sylvester
equation. However, in most of the works found in the literature, little attention is paid to the uncertainties
of numerical representation of the computer and what effect they can cause in the analysis of the
results. Thus, the main objective is to propose an analysis method that takes into account not only
the uncertainties of the system but also the uncertainties of the numerical representation of the computer
when carrying out the simulations. To ensure the use of the axioms of interval arithmetic, the Matlab
software INTLAB toolbox was used at all stages of the analysis. Numerical experiments compare the
proposed methodology with existing techniques in the literature, and the results obtained demonstrate
that incorporating the uncertainties of numerical representation throughout the process, influences in
the bounds of the interval that the system is certificate as stable.

Keywords: Interval Arithmetics; Stability Analysis; Lyapunov Theory.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1154
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

INTELIGÊNCIA COMPUTACIONAL APLICADA NUM MODELO DE CIRCUITO


DE KART

Lohann Pelgrino Medeiros1 - lohannfjv@gmail.com


Lucas Venâncio P.C. Lima2 - lucaslima.iprj@gmail.com
1−2 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Resumo.
Este projeto almeja a construção de um algoritmo que ajude a definir circuitos de pistas de
kart, e para isto utilizou-se um algoritmo de inteligência computacional e simulação do kart em
um circuito. Este trabalho primeiramente envolve a implementação dos dados da pista dentro
do ambiente do software MATLAB. Em seguida, ocorre a implementação de um cursor móvel
dentro do circuito. Com a pista e o cursor prontos, busca-se obter dados a partir do cálculo
de distâncias do cursor com relação aos limites da pista. Decorrido este desenvolvimento, será
aplicado o algoritmo da inteligência computacional.

Keywords: Inteligência Computacional, Rede Neural, Algoritmo genético

1. INTRODUÇÃO

O escopo da inteligência artificial consiste em simular a forma do raciocı́nio humano, desta


forma, podendo ser aplicado na resolução de problemas. Dentre as possı́veis abordagens na
construção de uma inteligência computacional, a mais comum é a chamada rede neural. A
mesma possui tal nome, uma vez que, emula o funcionamento de uma rede de neurônios,
próximo ao encontrado na natureza.

Como o intuito de otimizar a rede neural são utilizados algoritmos genéticos, que simulam
os processos de evolução, baseados na ideia darwiniana de seleção. A inicialização deste tipo
de algoritmo ocorre pela geração de um determinado número de indivı́duos, onde cada um
destes representa uma possibilidade de resolução de uma dado problema. Selecionado-se os
indivı́duos com os melhores desempenhos, é feito a combinação destes para que produzam
a próxima geração de indivı́duos. Estes processos são repetidos até que haja uma solução
satisfatória(indivı́duo) para o problema em questão.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1155
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1.1 REDE NEURAL

Rede neural é um a técnica de machine learning (aprendizado de máquina) a qual permite


que um computador aprenda a partir de uma associação de dados. Redes neurais possui
diversas aplicações como identificação de faces (Rowley,Baluja & Kanade, 1998), sistemas
de recuperação de informação (Ferneda, 2008) ou até mesmo dados pluviométricos (Moreira,
Cecilio,Pinto & Pruski, 2008).

Rede neurais biológicas (Figura 1) consistem em neurônios interconectados com os


dendritos que recebem dados de entrada, tais dados são processados e em seguida são
transmitidos para outros neurônios através dos axônios.

Figura 1: Estrutura de um neurônio biológico.

Uma rede neural artificial (Figura 2) consiste em nós que analogamente ao biológico
representa o corpo celular, conectadas por arcos. Os quais representam os dendritos e os
axônios.

Figura 2: Ilustração de um neurônio na rede neural artificial.

Cada arco está associado a um valor numérico, conhecido como “peso”. Similarmente ao
biológico nos nós as informações são processadas e passadas a diante, na rede neural artificial
tais informações são processadas e estocadas segundo a Equação 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1156
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

S = X1 W1 + X2 W2 + . . . + Xn Wn (1)

Onde X1 , X2 , ... e Xn são os dados de entrada e W1 , W2 , ... e Wn são os pesos.

Uma vez feita está combinação entre os dados de entrada do nó e os pesos, o resultado
desta combinação (S) é aplicado em uma função de ativação, que tem como finalidade ativar
ou desativar o nó (neurônio), ou seja, determinar se a informação contida no nó será passada
adiante ou não.

Uma das funções de ativação mais utilizadas neste meio, e também neste presente projeto,
é a função sigmoide (φ), que é dada segundo a Equação 2.

1
φ(S) = (2)
1 + e−S
Redes neurais artificiais são tipicamente organizadas em camadas (layers) (Rowley,Baluja
& Kanade, 1998). A rede neural pode conter 3 tipos de camadas: camada de entrada, camada
escondida e camada de saı́da (Figura 3 ).

Figura 3: Ilustração de uma estrutura de rede neural artificial.

O propósito da camada de entrada é receber os dados iniciais. Usualmente o número de nós


desta camada é igual ao de dados de entrada. Nesta etapa os dados não são alterados, ou seja,
a função de ativação não é utilizada nesta etapa da rede, os valores são apenas distribuı́dos para
suas diversas saı́das.

Passado a camada de entrada os dados são imersos na camada escondida, nesta camada os
dados são combinados com os pesos conforme a Equação 1. Além disso, normalmente a função
de ativação é aplicada nesta etapa, desativando ou ativando os nós. Pode haver mais de uma
camada escondida, com diferente números de nós.

Na última etapa da rede, na camada de saı́da , os dados mais uma vez são submetidos a
Equação 1, entretanto a função de ativação pode ou não ser utilizada dependendo do tipo de
problema. Esta camada resulta na resposta causada pela estimulação dos dados de entrada. O
número de nós nesta camada, também é escolhido em função do tipo de problema.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1157
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Uma vez montada a estrutura rede neural, aplica-se um procedimento, visando o seu
processo de aprendizagem , conhecido como algoritmo de otimização. Sendo um dos mais
utilizados o algoritmo genético.

1.2 ALGORITMO GENÉTICO

Algoritmo genético é inspirado na teoria de Charles Darwin a respeito da evolução natural.


Este algoritmo é iniciado através de diversos “indivı́duos” (vetores com dados) aleatórios que
são aplicados em um sistema. Cada indivı́duo é classificado por sua aptidão em responder
o sistema (fitness), sendo assim o Algoritmo Genético busca otimizar o sistema através da
maximização ou minimização do fitness. processo de seleção natural onde os indivı́duos mais
aptos são selecionados para reprodução.

Uma vez que todos os indivı́duos são ganham uma nota de aptidão 00 f itness00 , uma nova
geração de indivı́duos será composta através da combinação destes, onde os melhores adaptados
possuem maior probabilidade de serem selecionados, porém, são mantidos os menos adaptados
no intuito de evitar que o algoritimo faça uma convergência muito rápida para um mı́nimo local
e busque se aproximar da solução ótima (Haupt,1995).

Existem 5 fases essenciais em um algoritmo genético, sendo elas:


• População inicial
• Fitness (aptidão)
• Seleção
• Crossover
• Mutação

1.2.1 População inicial

Esta etapa do algoritmo, consiste na criação de um número determinado de indivı́duos, que


formarão a população. Cada indivı́duo é uma potencial solução para um dado problema. Um
individuo é formado por uma série de parâmetros conhecidos como genes.

Figura 4: Ilustração do gene, indivı́duo e população.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1158
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1.2.2 Fitness

Para determinar a aptidão de um indivı́duo, é criado uma função, que analisa seu
desempenho e resulta na probabilidade de um indivı́duo ser selecionado. Tal função varia de
acordo com o tipo prolema analisado.

1.2.3 Seleção

A finalidade desta fase é selecionar os melhores indivı́duos e transmitir seus genes para a
próxima geração. Indivı́duos mais aptos possuem maiores chances de seleção e reprodução.
Entretanto, deve-se manter a probabilidade de selecionar indivı́duos menos aptos, para evitar
mı́nimos locais e explorar novas soluções.

1.2.4 Crossover

Os indivı́duos selecionados na etapa anterior sofrem cruzamento compartilhando de seu


código genético. Para cada par de pais é selecionado um ponto de cruzamento de maneira
aleatória, ou seja, um novo indivı́duo é gerado com uma parte de um pai e completada com a
do outro. A Figura 5 exemplifica esse procedimento com um ponto de cruzamento igual a 2.

Figura 5: Ilustração do procedimento de crossover.

1.2.5 Mutação

Após a formação da nova população, gerada pela fase anterior, alguns genes podem estar
sujeitos a sofrerem mutação. Este procedimento é importante para ampliar as possibilidades de
soluções evitando que o algoritmo converta para um mı́nimo local. Entretanto, a probabilidade
de mutação não deve ser muito alta, afim de evitar o desaparecimento dos genes dos pais nas
próximas gerações.Dada o fim desta fase, o algoritmo deve retornar a fase de Fitness, para dar
continuidade a busca pela solução do problema. O Fluxograma seguinte (Figura 6) exemplifica
o funcionamento do algoritmo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1159
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6: Fluxograma do Algoritmo Genético.

2. MÉTODOS

Inicialmente em nossos experimentos utilizamos dados geométricos de uma pista, que fora
desenhada por um projetista em um software de CAD . Tais dados foram importados ao software
MATLAB, permitindo assim, ter uma visão da pista de maneira bidimensional (Figura 7).

Figura 7: Visualização do percurso.

Na tentativa de simular um veı́culo, foi implementada um cursor móvel ao algoritmo já


mencionado. A mobilidade do cursor permitiu obter distâncias instantâneas em certas direções,
distâncias estas relativas a posição do cursor com os limites da pista. Este recurso deve ser
utilizado para coletar informações que serão utilizadas como dados de entrada para a tomada de
decisões, que abrange acelerar/frear ou virar o volante para alguma direção. Em uma primeira
instância, o número de direções determinado foi de 5 (Figura 8 ).

Figura 8: Ilustração das direções utilizadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1160
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Inicialmente a rede neural foi gerada de maneira aleatória, o que resultou em tomadas de
decisões ruins, as quais causaram a colisão do cursor com um dos extremos da pistas em poucos
momentos. Para auxiliar no refinamento da rede, foi desenvolvido um algorı́timo genético.
Foram realizadas 10 gerações com 100 indivı́duos cada, selecionando-se os indivı́duos mais
aptos para a reprodução, ao logo das gerações. Cada indivı́duo possui sua própria rede neural,
que age em conjunto com o algoritmo genético, sendo assim, os pesos (W) da rede neural de
um indivı́duo, são identificados como os seus genes. Para este projeto o genes são valores
pertencentes ao intervalo fechado de -100 até 100.

Após a criação da população inicial, os indivı́duos foram submetidos a percorrer o


circuito da pista. Com o objetivo de contabilizar o desempenho, foram utilizados espécies
de marcadores, que foram dispostos ao longo da pista de uma forma para que estivessem
equidistantes, onde era atribuı́do um pontuação de 1 ao indivı́duo para cada marcador
ultrapassado pelo mesmo. Finalizada esta simulação, os indivı́duos foram ranqueados conforme
a função Fitness utilizada (Equação 3 ), que “traduziu” o desempenho de cada indivı́duo em
número pertencente ao intervalo fechado de 0 até 1.

n
F itness(n) = (3)
N
Onde n representa o número de marcadores ultrapassados por um indivı́duo e N o número
total de marcadores que foi de 70.

A probabilidade de seleção foi proporcional ao ranking dos indivı́duos, conferindo maiores


chances de seleção aos indivı́duos com os valores de Fitness mais próximos de 1. Dessa forma é
garantida a possibilidade de escolhas não extremamente aptas, dificultando a convergência para
mı́nimos locais.

Dentre os indivı́duos, são selecionados 2 “pais”para formar um outro indivı́duo através do


crossover. Conforme exemplificado no subitem 1.2.4, o ponto de cruzamento é escolhido de
maneira aleatória para que haja a combinação dos genes dos pais. Essa etapa de crossover é
finalizada ao formar o número de indivı́duos estabelecido.

Com o fim da etapa de crossover, cada gene dos indivı́duos é submetido a uma possibilidade
de mutação, que neste projeto foi de 10%. Caso o gene seja submetido a mutação, um novo
valor, de maneira aleatória, é atribuı́do a este gene em questão, presente no intervalo fechado de
-100 até 100.

Dado o fim desta etapa, esse procedimentos são repetidos até o número de gerações
estabelecido for atingido.

3. RESULTADOS

Com a aplicação do algoritmo genético, pode-se observar como houve evolução da rede
neural, através da Figura 9. Onde exibe o fim de algumas gerações de destaque, destacando o
melhor indivı́duo e seu trajeto. Em média, cada geração utilizou cerca de 5, 5 minutos de tempo
de máquina para ser concluı́da.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1161
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Primeira Geração (b) Segunda Geração

(d) Terceira Geração (d) Quarta Geração

(e) Décima Geração

Figura 9: Simulação 1

Em uma tentativa de obter melhores resultados uma nova simulação (Figura 10) foi feita
com um número de gerações de 20 e o mesmo número de indivı́duos.

(a) Primeira Geração (b) Terceira Geração

(d) Décima sétima Geração (d) Vigésima Geração

Figura 10: Simulação 2

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1162
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 11 exibe o valor de Fitness para cada indivı́duo ao longo das gerações.

(a) Fitness x Geração da simulação 1

(b) Fitness x Geração da simulação 2

Figura 11: Valor de Fitness ao longo das gerações

4. DISCUSSÕES

Na primeira simulação, houve indivı́duos que completaram o circuito sem colidir, entretanto
o algoritmo convergiu para um mı́nimo local, o qual pode ser observado onde percurso realizado
pelo melhor indivı́duo da última geração, tem um formato de “zigzag” demonstrado na Figura 9
(e), indicando que este não é o comportamento ideal neste intervalo da pista, e sim um percurso
próximo a uma linha reta . Na simulação 2 houve um comportamento que se aproximou desse
ideal, por outro lado, nenhum indivı́duo completou o circuito.

Com o avanço das gerações, nota-se que os indivı́duos tendem a avançarem no percurso
antes de colidirem. A Figura 11 mostra que com o avanço das gerações a densidade de
indivı́duos tendem a se concentrar mais próximo do máximo valor de Fitness.

5. CONCLUSÕES

O treinamento da rede neural por algoritmo genético se mostrou interessante. Apesar de


poucos indivı́duos e poucas gerações, observa-se que houve um aprimoramento da população
em geral. Entretanto, o melhor indivı́duo obtido não varia muito depois das gerações iniciais,
dando-se a entender que o algoritimo está convergindo para um mı́nimo local. Talvez seja
possı́vel obter um melhor desempenho caso utilize-se um número maior de indivı́duos e mais
gerações, resultando em uma variedade maior nas possı́veis soluções do problema. Outra
possibilidade é estudar a influência de um coeficiente maior de mutação. Porém uma população
inicial maior com um maior número de gerações apresentará um custo computacional maior.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1163
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Como trabalhos futuros, almeja-se comparar os resultados atingidos pelo algorı́timo


genético, com outras possı́veis ferramentas de otimização. Estas avaliações de diferentes
ferramentas de otimização pode ser importante para se selecionar qual algoritmo será utilizado
antes de aumentar o número de indivı́duos e gerações.

Outra perspectiva importante para trabalhos futuros é implementaras equações de dinâmica


de movimento de um kart, podendo adotar por exemplo o modelo de sete graus de liberdade
proposto por Dal Bianco (Dal Bianco, Nicola, Roberto Lot, & Marco Gadola,2018). Uma vez
acrescentadas tais equações será possı́vel obter um simulador de circuito de karts interessante
para diversas aplicações como a comparação entre algoritmos de otimização ou mesmo auxiliar
no projeto de design de circuitos.

Referências

Dal Bianco, Nicola, Roberto Lot, and Marco Gadola. “Minimum time optimal control
simulation of a GP2 race car.“Proceedings of the Institution of Mechanical Engineers, Part
D: Journal of Automobile Engineering 232.9 (2018): 1180-1195.
Ferneda, Edberto. (2006). Redes neurais e sua aplicação em sistemas de recuperação de
informação. Ciência da Informação, 35(1), 25-30
H. A. Rowley, S. Baluja and T. Kanade, “Neural network-based face detection,”in IEEE
Transactions on Pattern Analysis and Machine Intelligence, vol. 20, no. 1, pp. 23-38, Jan.
1998, doi: 10.1109/34.655647.
R. L. Haupt, “An introduction to genetic algorithms for electromagnetics,”in IEEE Antennas
and Propagation Magazine, vol. 37, no. 2, pp. 7-15, April 1995, doi: 10.1109/74.382334.
MOREIRA, Michel Castro; CECILIO, Roberto Avelino; PINTO, Francisco de Assis de
Carvalho and PRUSKI, Fernando Falco. Desenvolvimento e análise de uma rede neural
artificial para estimativa da erosividade da chuva para o Estado de São Paulo. Rev. Bras.
Ciênc. Solo [online]. 2006, vol.30, n.6

COMPUTATIONAL INTELLIGENCE APPLIED IN A GO-KART CIRCUIT MODEL

Lohann Pelgrino Medeiros1 - lohannfjv@gmail.com


Lucas Venâncio P.C. Lima2 - lucaslima.iprj@gmail.com
1−2 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Abstract.
This project’s goal is an elaboration of an algorithm, which be able to define go-kart track
circuits. An intelligence computational algorithm and a simulation of a kart on a circuit have
been used to accomplish this objective. Primarily, this project includes the data implementation
of a go-kart track into the MATLAB environment, after that, there is the inclusion of a mobile
cursor into the circuit. Once, the data implementation is done, the algorithm calculates
the distances among the cursor and the track boundaries. Succeeding this procedure, the
intelligence computational algorithm can be applied.

Keywords: Computational Intelligence, Neural Network, Genetic Algorithm

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1164
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO DA INFLUÊNCIA DA GEOMETRIA DA FERRAMENTA E DOS


PARÂMETROS DE CORTE SOBRE AS TENSÕES RESIDUAIS GERADAS NO
TORNEAMENTO DE AÇO INOXIDÁVEL SUPER MARTENSÍTICO

Maria Cindra Fonseca1 – mariacindra@id.uff.br


Túlio Salek Quintas1 – tulio_salek@id.uff.br
Luciana Lima2 – luciana.lima@vallourec.com
Marilia Lima2 – marilia.lima@vallourec.com
1
Universidade Federal Fluminense, Escola de Engenharia, Departamento de Engenharia Mecânica
/PGMEC – Niterói, RJ, Brasil.
2
Vallourec Soluções Tubulares do Brasil S/A – Av. Olinto Meireles, 65, Bairro das Indústrias I, CEP
30640-010 – Belo Horizonte, MG, Brasil.

Resumo. Aços Inoxidáveis Super Martensíticos (S13Cr) são aplicados na fabricação de


componentes tubulares conhecidos como OCTG (Oil Country Tubular Goods), utilizados na
exploração de poços de petróleo, onde ficam expostos a meios corrosivos sob condições
severas de temperatura e pressão. Sob essas condições, as tensões residuais geradas na
usinagem desses componentes podem influenciar de forma significativa seu desempenho em
serviço. Neste trabalho foram analisadas as tensões residuais geradas no torneamento de
amostras de aço S13Cr utilizando ferramentas de corte com duas geometrias (convencional e
wiper) e parâmetros de corte diferentes. As tensões residuais foram medidas por difração de
raios-X, pelo método do sen2 e comparadas com medições feitas por ruído magnético
Barkhausen. Os resultados mostraram que tensões residuais trativas, de menores magnitudes,
mais favoráveis à vida em serviço dos componentes, foram obtidas com o uso de inserto
wiper e com uma combinação de maiores velocidades de corte e menores avanços. Os
resultados de ruído magnético Barkhausen foram coerentes com os resultados obtidos por
difração de raios-X.

Palavras-chave: Tensões residuais, Difração de raios-X, ruído magnético Barkhausen,


Torneamento, Aço S13Cr.

1. INTRODUÇÃO

Os aços inoxidáveis supermartensíticos são aplicados principalmente na fabricação de


tubos sem costura que integram um conjunto de componentes chamados de Oil Country

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1165
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tubular Goods (OCTG), utilizados na exploração de poços de petróleo (Hara, et al., 2020;
Taban et al., 2016). Esses aços foram desenvolvidos a partir de aços inoxidáveis
martensíticos, mantendo o teor de cromo na faixa de 12-13% e tendo como principais
alterações a redução do teor de carbono para valores inferiores a 0,03% e a adição de Ni e Mo
(Tavares et al., 2018). O Ni é adicionado para estabilizar a formação de austenita em
tratamentos de revenido, aumentando as propriedades, tais como tenacidade, resistência à
corrosão e ductilidade (Fraga et al. 2017), enquanto o Mo é adicionado para aumentar a
resistência à corrosão localizada.
É possível encontrar na literatura diferentes trabalhos sobre aços inoxidáveis
supermartensíticos, entretanto, pouco se sabe sobre o comportamento das tensões residuais na
usinagem desses materiais. Em um estudo sobre a influência das condições de corte nos
mecanismos de desgaste e na vida da ferramenta de corte durante o torneamento de aços
inoxidáveis martensítico e supermartensítico foi observada menor vida da ferramenta de corte
na usinagem do supermartensítico, ao utilizar parâmetros mais elevados de velocidade de
corte, avanço e profundidade de corte. Os principais mecanismos de desgaste atuantes na
usinagem do supermartensítico foram adesão e abrasão (Corrêa et al., 2017). Apesar do
estudo revelar os efeitos do torneamento desse material sobre as propriedades da ferramenta
de corte, nada foi observado em relação às tensões residuais geradas.
Tensões residuais são as tensões existentes nos materiais e estruturas na ausência de
qualquer tipo de carregamento externo e gradientes de temperatura (Valíček et al., 2019).
Essas tensões são geradas em praticamente todos os processos de fabricação e, dependendo de
sua natureza, podem influenciar de forma significativa o desempenho de um componente
mecânico em serviço (Wang & Xu 2018). Tensões residuais trativas produzem efeitos
deletérios, como acelerar a propagação de trincas em um componente em serviço e suas
origens são associadas a efeitos térmicos, como o aquecimento e resfriamento não uniforme
de uma peça. Já as tensões residuais compressivas produzem efeitos benéficos, como impedir
a propagação de trincas, aumentando a vida em fadiga de um componente e suas origens são
associadas a efeitos mecânicos, principalmente deformações plásticas (Capello 2005;
Mirkoohi et al., 2019). As tensões residuais presentes em peças fabricadas por torneamento
são geradas pelas grandes deformações plásticas e aquecimento da peça durantre o processo e
são influenciadas principalmente pelos parâmetros de corte e geometria da ferramenta de
corte (Sarnobat & Raval, 2019).
A geometria da ferramenta de corte impacta sobre as características das superficies
usinadas. Insertos multiraios, do tipo wiper, produzem um efeito alisador, responsável por
grandes deformações plásticas na superfície do componente (Zhang et al., 2019). Essas
deformações são fontes de tensões residuais compressivas, que podem atuar no sentido de
aliviar a intensidade das tensões residuais trativas, normalmente geradas pelo uso de insertos
convencionais.
Neste trabalho foi analisada a influência da geometria da ferramenta de corte e dos
parâmetros de corte sobre as tensões residuais geradas no torneamento de amostras de aço
Super 13Cr. As tensões residuais foram medidas por difração de raios-X e medições de ruído
magnético Barkhausen (RMB) foram realizadas para complementar o estudo.

2. MATERIAIS E MÉTODOS

No presente trabalho foi estudado o aço inoxidável supermartensítico 13Cr de produção


industrial, cujas composição química e propriedades mecânicas, informadas pelo fabricante,
estão apresentadas na Tabela 1 e na Tabela 2, respectivamente.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1166
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 – Composição química do aço S13Cr (Fonte: Fabricante).

C Si Mn P S Cr Mo Ni
0,01 0,30 0,40 0,02 0,002 11,80 2,0 5,70

Tabela 2 – Propriedades mecânicas do aço S13Cr (Fonte: Fabricante).

Limite de escoamento (MPa) Limite de resistência (MPa) Dureza média (HRC)


841 887 25,4

O material foi fornecido em formato de barras cilíndricas pré-usinadas a partir de


amostras de um tubo laminado, segundo a direção de laminação, no estado temperado e
revenido. A Fig. 1 ilustra as amostras e suas dimensões, em mm.

Figura 1 – Barras cílindricas pré-usinadas (dimensões em mm).

Os ensaios de torneamento (Tabela 3) foram realizados no Laboratório de Tecnologia


Mecânica do Departamento de Engenharia Mecânica da UFF, utilizando um torno CNC
VEKER modelo LVK175, com rotação máxima de 3000 rpm. Foram usados insertos de metal
duro de geometria convencional (C), com raio de ponta RE = 0,4 mm e geometria wiper (W),
com raio de ponta equivalente REeq = 0,8 mm, ambos com revestimento CVD
TiCN+Al2O3+TiN.

Tabela 3 – Condições dos ensaios de torneamento.

Geometria do Velocidade de Avanço f Profundidade de Fluido de


Amostra
inserto corte Vc (m/min) (mm/rot) corte ap (mm) corte
C1 100
C2 80 0,1
C3 Convencional 60 0,5 Jorro
C4 100
C5 80 0,2
C6 60
W1 100
W2 80 0,1
W3 60
Wiper 0,5 Jorro
W4 100
W5 80 0,2
W6 60
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1167
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os insertos foram trocados antes de cada ensaio para evitar o efeito do desgaste da
ferramenta. Resumindo os parâmetros apresentados na Tabela 3: foram usados 2 geometrias
de ferramenta de corte, 3 velocidades de corte e 2 avanços, perfazendo um total de 12 ensaios
de torneamento, com aplicação de fluido de corte em jorro.

As tensões residuais geradas nos ensaios de torneamento foram medidas por difração de
raios-X, com o método do sen²ψ, no Laboratório de Análise de Tensões, LAT/UFF, utilizando
o analisador de tensões XStress3000, da Stresstech. As medições foram realizadas na direção
longitudinal (do avanço) da ferramenta em um ponto de cada amostra, localizado na metade
do comprimento usinado. A Fig. 2 apresenta o sistema de medição.

(a) (b)
Figura 2 – Analisador de tensões X-Stress3000: a) Sistema de medição com software e a
amostra analisada; b) equipamento completo com unidade de controle.

O equipamento foi configurado para operar com radiação CrKα, com comprimento de
onda λ = 2,29092 Å, difratando com 5 ângulos de inclinação ψ (0º - 20,7º - 30º - 30,7º - 45º),
ângulo de difração 2θ = 156,42º e um colimador de 2 mm.

Após a medição das tensões residuais por difração de raios-X foram realizadas medições
de Ruído magnético Barkhausen (RMB), no Laboratório de Ensaios Não-Destrutivos
(LEND/UFF), utilizando o equipamento Barktech, desenvolvido por pesquisadores da
Universidade de São Paulo. As medições foram realizadas nos mesmos pontos onde as
tensões residuais foram medidas por difração de raios-X, na direção do avanço.

3. RESULTADOS E DISCUSSÃO

3.1 Tensões residuais medidas por difração de raios-X

Os resultados das medições por difração de raios-X são apresentados na Tabela 4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1168
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4 –Tensões residuais longitudinais (TR) medidas por difração de raios-X.

Amostra C1 C2 C3 C4 C5 C6 W1 W2 W3 W4 W5 W6
TR
140 320 210 120 240 400 80 160 180 120 240 240
(MPa)

Os resultados mostram que todas as tensões residuais geradas nos ensaios foram trativas.
O maior valor de tensão residual obtido foi de 400 MPa, na amostra C6, torneada com inserto
convencional, Vc = 60 m/min e f = 0,2 mm/rot, enquanto que o menor valor foi de 80 MPa,
obtido na amostra W1, torneada com inserto wiper, Vc = 100 m/min e f = 0,1 mm/rot. Tensões
residuais trativas de menores magnitudes foram obtidas com o uso de inserto wiper,
entretanto, na usinagem das amostras C4, W4, C5 e W5 não houve influência da geometria
dos insertos nas tensões residuais.
Este efeito alisador da geometria wiper sobre superficies torneadas, que conduz à geração
de tensões residuais menos trativas está coerente com o estudo (Zhang et al. 2019) em que os
autores observaram que essa geometria produz maiores deformações plásticas na superfície
usinada. Além disso, a geometria wiper promove a remoção de cavacos com maiores seções
quando comparados aos produzidos pela geometria convencional, o que permite maior
dissipação de calor pelos cavacos, aliviando os efeitos térmicos e, consequêntemente, gerando
tensões residuais trativas de menores magnitudes.
A Fig. 4 apresenta os resultados dos ensaios em um gráfico de barras, de modo a facilitar
sua visualização e análise.

Figura 4 – Tensões residuais longitudinais.

É possível notar que menores valores de tensões residuais trativas foram obtidos com
maiores valores de velocidade de corte. Resultados semelhantes podem ser encontrados na
literatura. Em um estudo sobre a efeito dos parâmetros de corte nas tensões residuais geradas
no torneamento de AISI 1035 (Salman et al. 2019) os autores observaram que tensões
residuais trativas de maiores magnitudes foram obtidas com uso de menores velocidades de
corte. Isso poderia ser justificado pelo fato de que menores velocidades de corte produzem
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1169
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

menores taxas de remoção de material e, consequentemente, menor é a dissipação de calor


pelo cavaco removido, intensificando os efeitos térmicos associados à geração de tensões
residuais trativas.
O uso de menor avanço resultou em tensões trativas de maiores magnitudes, o que
também pode estar associado à menor dissipação de calor devido à menor taxa de remoção de
material, exceto no caso da amostra C6. Essa amostra apresentou o maior valor de tensão
residual obtida, o que pode estar associado à combinação de parâmetros usada nesse ensaio.
Com maior avanço e menor velocidade de corte, menor é a taxa de remoção de material,
diminuindo ainda mais a dissipação de calor.
A Fig. 5 apresenta um gráfico de efeito dos parâmetros de corte (Vc e f) e da geometria do
inserto (C e W). O gráfico de efeito revela as diferenças entre as médias dos resultados
obtidos (tensões residuais longitudinais) para cada valor dos parâmetros (Vc, f, C e W),
permitindo analisar o efeito desses parâmetros sobre os resultados.

Figura 5 – Efeito dos parâmetros de corte e da geometria da ferramenta de corte.

Em relação à velocidade de corte, a média foi de 257,5 MPa para as tensões residuais
geradas com Vc = 60 m/min, 240 MPa para as tensões geradas com Vc = 80 m/min e 115
MPa para as tensões geradas com Vc = 100 m/min. Não houve grande diferença entre as
médias obtidas para as velocidades de corte de 60 e 80 m/min, indicando que os ensaios com
essas velocidades não produziram resultados com variação significativa. Por outro lado, uma
maior diferença foi observada em relação à média obtida para Vc = 100 m/min, indicando que
os ensaios realizados com essa velocidade de corte produziram resultados com varição
significativa. Essa análise revela que a velocidade de corte de 100 m/min apresentou maior
efeito sobre as tensões residuais longitudinais, conduzindo à geração de tensões de menores
magnitudes.
Em relação ao avanço, as médias obtidas mostraram diferença significativa, indicando
que os ensaios realizados com diferentes avanços produziram resultados com variações
significativas. Além disso, o menor avanço teve o efeito de gerar tensões residuais de menores
magnitudes.
Analogamente, em relação à geometria do inserto, houve grande diferença entre a média
dos resultados obtidos com inserto convencional (C) e a média dos resultados com inserto
wiper (W), indicando que o tipo de inserto influencia de forma significativa os
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1170
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

resultados. Nesse caso, o uso de inserto wiper teve o efeito de gerar tensões residuais
longitudinais de menores magnitudes. Este resultado pode ser explicado pela combinação do
efeito alisador da geometria wiper, responsável por induzir deformações plásticas que dão
origem às tensões compressivas, ou tensões trativas de menores magnitudes.
A Fig. 6 apresenta um gráfico de interação entre os parâmetros, velocidade de corte (Vc),
avanço (f) e a geometria do inserto, convencional (C) e wiper (W). Esse gráfico permite
verificar se o efeito de um parâmetro sobre os resultados é influenciado pelo efeito dos outros
parâmetros.

Figura 6 – Interação entre os parâmetros de corte e geometria do inserto: a) Vc x f;


b) Vc x Geometria do inserto; c) f x Geometria do inserto.

A Fig. 6 (a) revela que a variação do avanço não teve efeito significativo sobre as tensões
residuais geradas nos ensaios com Vc = 100 m/min e com Vc = 80 m/min. Por outro lado, nos
ensaios realizados com Vc = 60 m/min, os maiores valores de tensão foram obtidos com o
maior avanço (0,2 mm/rot). A interação entre a velocidade de corte e a geometria do inserto é
mostrada na Fig. 6 (b). É possível observar que, independentemente da velocidade de corte
usada, tensões residuais de menores magnitudes foram obtidas nos ensaios com inserto wiper
(W), porém, as tensões residuais geradas nos ensaios com Vc = 100 m/min não apresentaram
grande variação em relação à geometria do inserto. A Fig. 6 (c) apresenta a interação entre a
geometria do inserto e o avanço, revelando que nos ensaios realizados com f = 0,2 mm/rot
tensões residuais de menores magnitudes foram obtidas com o uso de inserto wiper. Da
mesma forma, para f = 0,1 mm/rot, tensões residuais de menores magnitudes também foram
obtidas com o uso de inserto wiper.

3.2 Ruído magnético Barkhausen (RMB)

Apesar da técnica de Ruído Magnético Barkhausen não oferecer diretamente valores de


tensões residuais, é entendido que os valores obtidos em mV tem correlação com os
resultados de tensão. Quanto mais trativas as tensões, maiores os sinais em mV medidos nas
amostras. A Fig. 7 apresenta os resultados de RMB. Os valores do ruído mostram o
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1171
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

comportamento esperado, considerando que está estabelecido que tensões residuais


compressivas, ou tensões residuais trativas de pequenas magnitudes estão associadas a baixos
valores de RMB, enquanto que tensões trativas, ou compressivas com pequenas magnitudes,
são associadas a maiores valores de RMB.

Figura 7 – Sinais de RMB.

Comparando-se os resultados de RMB (Fig. 7) com os resultados de tensão residual por


difração de raios-X (Fig. 8), pode-se observar que os menores valores de sinais estão
relacionados com as tensões residuais trativas de menores magnitudes. Além disso, nas
amostras W5 e W6, com valores iguais de tensão residual (240 MPa), os sinais de RMB
obtidos foram muito próximos (80,0 e 81,3 mV), refletindo o comportamento obtido para as
tensões residuais.

4. CONCLUSÕES

O presente trabalho, que teve como objetivo analisar a influênica da geometria da


ferramenta de corte e dos parâmetros de corte sobre as tensões residuais geradas no
torneamento cilíndrico de um aço Super 13Cr, permite as seguintes conclusões:

1) Todas os ensaios resultaram em tensões residuais trativas, sendo que os menores


valores foram obtidas com o uso de inserto wiper. Tensões residuais de maiores
magnitudes foram associadas a um maior valor de avanço em amostras torneadas com
inserto wiper, enquanto que o maior avanço resultou em menores tensões residuais
trativas na usinagem com inserto convencional.
2) Com relação aos parâmetros de corte, tensões residuais trativas de menores
magnitudes foram obtidas com o uso de maiores velocidades de corte e menores
avanços. A variação do avanço apresentou efeito mais expressivo com o uso de
velocidade de corte de 60 m/min.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1172
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3) O comportamento dos sinais de RMB foi coerente com o comportamento das tensões
residuais, mostrando que essas tensões influenciam de forma significativa os sinais de
RMB.

Agradecimentos

Este estudo foi financiado, em parte, pela Coordenação de Aperfeiçoamento de Pessoal


de Nível Superior (CAPES) - Código Financeiro 001. Os autores também gostariam de
agradecer às agências de pesquisa CNPq e FAPERJ, pelo apoio financeiro, que permitiu a
realização deste trabalho.

REFERÊNCIAS

Capello, E. 2005. “Residual stresses in turning: Part I: Influence of process parameters”. Journal of Materials
Processing Technology 160(2): 221–28.
Corrêa, J. G., Schroeter, R. B., Machado A. R. 2017. “Tool life and wear mechanism analysis of carbide tools
used in the machining of martensitic and supermartensitic stainless steels”. Tribology International
105(September 2016): 102–17. http://dx.doi.org/10.1016/j.triboint.2016.09.035.
Fraga, M. M., Soares, R. B., Campos, W. R. C., Ardisson, J. D., Lins, V. F. C. 2017. “Influência Do Teor De
Austenita Reversa Na Corrosão Do Aço Supermartensítico”. The Journal of Engineering and Exact
Sciences 3(8): 1167–73.
Hara, T., Hiroyuki, S., Hisashi, A. 2020. Reference Module in Materials Science and Materials Engineering Pipe
and Tube Steels for Oil and Gas Industry and Thermal Power Plant. Elsevier Ltd.
http://dx.doi.org/10.1016/B978-0-12-803581-8.12107-1.
Mirkoohi, E., Bocchini, P., Liang, S. Y. 2019. “Inverse analysis of residual stress in orthogonal cutting”.
Journal of Manufacturing Processes 38(February): 462–71. https://doi.org/10.1016/j.jmapro.2019.01.033.
Salman, K. H., Elsheikh, A. H., Ashham, M., Ali, M. K. A., Rashad, M., Haiou, Z. 2019. “Effect of cutting
parameters on surface residual stresses in dry turning of AISI 1035 alloy”. Journal of the Brazilian Society
of Mechanical Sciences and Engineering 41(8). https://doi.org/10.1007/s40430-019-1846-0.
Sarnobat, S. S., Raval, H. K. 2019. “Experimental investigation and analysis of the influence of tool edge
geometry and work piece hardness on surface residual stresses, surface roughness and work-hardening in
hard turning of AISI D2 steel”. Measurement: Journal of the International Measurement Confederation
131: 235–60. https://doi.org/10.1016/j.measurement.2018.08.048.
Taban, E., Erdinc K., Ojo, O. O. 2016. “Properties, weldability and corrosion behavior of supermartensitic
stainless steels for on-and offshore applications”. Materialpruefung/Materials Testing 58(6): 501–18.
Tavares, S. S.M., Almeida, B. B., Corrêa, D. A.L., Pardal, J. M. 2018. “Failure of super 13Cr stainless steel due
to excessive hardness in the welded joint”. Engineering Failure Analysis 91(March): 92–98.
https://doi.org/10.1016/j.engfailanal.2018.04.018.
Valíček, J., Czán, A., Harničárová, M., Šajgalík, M., Kušnerová, M., Czánová, T., Kopal, I., Gombár, M., Kmec,
J., Šafář, M. 2019. “A new way of identifying, predicting and regulating residual stress after chip-forming
machining”. International Journal of Mechanical Sciences 155(November 2018): 343–59.
Wang, H., Zhu, L., Xu, B. 2018. “Residual Stresses and Nanoindentation Testing of Films and Coatings”.
Residual Stresses and Nanoindentation Testing of Films and Coatings: 1–19.
Zhang, P., Liu, Z. Modeling and prediction for 3D surface topography in finish turning with conventional and
wiper inserts. Measurement: Journal of the International Measurement Confederation, v. 94, p. 37–45,
2016. https://doi.org/10.1016/j.measurement.2016.07.080.
Zhang, P., Zheng, Y., Li, J., Liu, M., Gao, W., Shi, T. 2019. “Stress corrosion crack evaluation of super 13Cr
tubing in high-temperature and high-pressure gas wells”. Engineering Failure Analysis 95(October 2017):
263–72.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1173
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas – TO

STUDY OF THE INFLUENCE OF CUTTING TOOL GEOMETRY AND CUTTING


PARAMETERS ON THE RESIDUAL STRESSES INDUCED BY TURNING OF
STAINLESS SUPERMARTENSITIC STEEL

Maria Cindra Fonseca1 – mariacindra@id.uff.br


Túlio Salek Quintas1 – tulio_salek@id.uff.br
Luciana Lima2 – luciana.lima@vallourec.com
Marilia Lima2 – marilia.lima@vallourec.com
1
Universidade Federal Fluminense, Escola de Engenharia, Departamento de Engenharia Mecânica
/PGMEC – Niterói, RJ, Brazil.
2
Vallourec Soluções Tubulares do Brasil S/A – Av. Olinto Meireles, 65, Bairro das Indústrias I, CEP
30640-010 – Belo Horizonte, MG, Brazil.

Abstract. Supermartensitic steels are applied in the production of tubular components as Oil
Country Tubular Goods (OCTG), used in the exploration of oil and gas wells, where they are
exposed to corrosive enviroments under severe conditions of temperature and pressure.
Under these conditions, the residual stresses induced by the machining of these components
may influence their performance. This study presents an analysis of the residual stresses
induced by turning of a S13Cr steel, using two cutting tool geometries (conventional and
wiper) and different cutting parameters. The residual stresses were measured by X-ray
diffraction, with the sin²ψ method and compared with measurements of Barkhausen magnetic
noise. Results show that tensile residual stresses of lower magnitudes, less detrimental to the
service life of a component, were induced with the use of wiper insert and with a combination
of higher cutting speed and lower feed. The results of magnetic Barkhausen noisen
measurements were coerent with those obtained by X-ray diffraction.

Keywords: Residual stresses, X-ray diffraction, Barkhausen magnetic noise, Turning, S13Cr
steel.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1174
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

BRAZILIAN FEDERAL ROADS: IDENTIFYING PATTERNS IN TRAFFIC


ACCIDENTS USING DATA MINING TECHNIQUES WITH APRIORI
ALGORITHM

Natália Nogueira Monteiro1 – natalia_nmonteiro@outlook.com


Ricardo da Silva Tavares1 – rickardotavares@gmail.com
Henrique Rego Monteiro da Hora1 – dahora@gmail.com
Renato Gomes Sobral Barcelos1 – rgsbarcellos@gmail.com
Rodrigo Martins Fernandes1 – rodrigo.fernandes@iff.edu.br
1
1Instituto Federal de Educação, Ciência e Tecnologia Fluminense – Campos dos Goytacazes, RJ,
Brazil

Abstract. Terrestrial transportation plays an essential role in the people’s daily lives all
around the globe, and its demand is continuously increasing, being the mainly transportation
modality for people and goods, causing intense traffic inconvenience in urban areas and
highways, making it easier for the traffic accidents occurrence, with different levels of
severity. These accidents are one of the major causes of deaths in the world, and Brazil ranks
the third place in the 2018 traffic deaths global ranking. For this reason, the traffic accidents
major causes identification is important to understand their origins and influences, in order
to establish strategies to reduce these occurrences. Data Mining have been widely used as a
traffic accidents data analysis tool, identifying patterns and helping traffic managers to
improve the transport flow. Accordingly, this paper analyzes traffic accidents data occurred
in 2017 brazilian’s federal highways, using Data Mining techniques with the association
algorithm Apriori. The results report that accidents majority involves the drivers themselves,
mainly male, due to lack of attention in traffic and excessive speed, occuring more frequently
in straight line roads. Finally, Data Mining techniques showed its effectiveness in detecting
patterns from different variables, being helpful for the traffic management.

Keywords: Cars, Accidents, Association, Apriori, Data Mining

1. INTRODUCTION

Terrestrial transportation, especially cars and motorcycles, is essential in the daily lives of
everyone, and its increasingly demand leads to congested traffic in urban areas and on

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1175
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

highways, resulting in risks that can easily become accidents with severity different levels or
even fatals.
These accidents are one of the deaths mainly causes all around the world. The year of
2018 recorded more than 1.3 million deaths on roads, which means more than 3500 deaths per
day (WHO, 2018; WHO, 2018). In Brazil, about 485 thousand indemnities were paid for
traffic deaths from 2009 to 2018, (Seguradora Líder, 2019), placing Brazil in the third place in
the 2018 traffic deaths global ranking, according to the WHO “Global Status Report on Road
Safety” report (World Health Organization, 2018).
Still according to the “Semana Nacional de Trânsito” report (Seguradora Líder, 2019),
accidents involving motorcycles have the highest fatal victims number in Brazil, followed by
drivers and pedestrians, highlighting the southeast region.
According to Tian et al. (2010), data from traffic accidents are the basis for the tracking
of their causes. Therefore, it’s necessary to investigate the main reasons for these accidents, so
that their origin and influencing factors can be found, such as road and climatic conditions
and the driver’s behavior, which turns the work harder (Figueira et al., 2017).
Furthermore, the existent amount of terrestrial traffic data of is extremely large, requiring
an even more complex work to be done, especially by humans (Taamneh et al., 2017).
This way, the Data Mining tools have been widely and efficiently used to compile and
interpret information from traffic accidents, showing patterns between their different
variables, using different techniques and algorithms, so as to help the terrestrial traffic
managers in decision making and to train drivers as prevention (Zhang e Fan, 2013; Figueira
et al., 2017).
In Canada, Lee and Li (2015) studied the accidents effects, the driver, the traffic and the
geometric and environmental particulars for the level of injuries to the victims, using the
CART model.
Al-Turaiki et al. (2016) used the CHAID, J48 and Naive Bayes classification algorithms
to analyze and understand the traffic accidents in Saudi Arabia.
Li et al. (2017), in California, studied the relation between the death rates and factors
such as how the collision occurred, the weather and lighting conditions and the consumption
of alcohol by drivers, using Apriori, Naïve Bayes and K-means algorithms.
Dadashova et al. (2016) analyzed by using the CART model the external influences
effects on the accidents severity in the two main routes in Spain.
Bayam et al. (2005) related the traffic accidents and the drivers with advanced ages in the
USA, using Neural Networks, Decision Tree and CART.
In Brazil, Figueira et al. (2017) aimed to identify rules through decision trees with the
CART model, to find accidents with victims, their type and possible causes, based on data
from the Régis Bittencourt avenue, in São Paulo.
Galvão e Marin (2010) noticed the relations between the victims and the incidence of
hospital morbidity and mortality in Cuiabá, using the Apriori algorithm.
As shown, there are so many survey about terrestrial traffic using the Data Mining
techniques, however, these studies cover some specific areas around the world. Hence, this
paper focuses on finding patterns in accidents occured on federal roads in Brazil in 2017,
using Data Mining techniques with the Apriori algorithm.

2. LITERATURE REVIEW

2.1 Data Mining

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1176
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Data Mining is one of the most important techniques in Information Technology, and
basically find consistent patterns in incomplete, confusing and random data set (Han and
Kamber, 2012; Tayeb et al., 2015).
The analyzing methods are based on the Machine Learning techniques, the traditional
statistics and patterns identification, such as cluster and regression analysis, and neural
networks, applied in the question identifications and their dataset studies, in order to detect
patterns and rules for them (Olson e Delen, 2008; Sferra, 2003).
For this reason, some may say that this technique is a process of analyzing data from
different points of view, summarizing them in useful information, making predictions and
conclusions about future behaviors (Witten et al., 2011; Gai, 2012).
There are some different methods for applying Data Mining techniques, like
Classification, Grouping/Clustering and Association, for example.
The classification method basically associates which types of items belong to which
classes or categories previously defined, so that a rule can be created to classify a new
observation later. The grouping/clustering method emphasizes the self-classification based on
the similarity of variables, relating an item to a class (or cluster) determined by the item itself,
using probability rules such as “If, Then”. The association method identifies relationships
between data inside a database, aiming to create conclusions and possible patterns or hidden
information, having its relevance measured to the levels of “support” and “confident” (Sferra,
2003; Gai, 2012).
In doing so, Data Mining tools need to be versatile and scalable, so as to be used in
different models, for small or large databases, and applied in different areas (Olson and Delen,
2008).

2.2.1 Apriori

Apriori is an association algorithm proposed by R. Agrawal e R. Srikant in 1994, aiming


to mine a common set of itens in a database (Chen, 2014). The Apriori algorithm main
concept is the identification of frequent and infrequent items in a set, relating them using
relationship rules, which reduces the number of scans inside the database, making the data
mining much more efficient and optimizes (Gai, 2012).

Apriori allows the association rules classification according to some metrics (DevMedia,
2007):
• Confidence: porcentage of data that are covered by both premise A and the
consequence B, which means, among the data that have items from A, how many also have
items from B.
• Lift: confidence divided by the proportion of all items that are covered by the
consequence B, indicating how much more frequent B becomes when A occurs.
• Leverage: proportion of additional items that are covered by premise A and
consequence B, if they are independent.
• Conviction: measure of removal from independence.

2.2 Python

Python is an interpreted programming language, in other words, it’s not necessary to be


translated into the machine language, once it’s read by the Interpreter, and has open-source
code. This language was created by Guido van Rossum in 1991, breaking several

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1177
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

programming paradigms, aiming to promote a simpler and faster program production, with
readable syntax, but also allowing the development of complex algorithms (Python, 2009).
Python has a standard library with different classes and functions, but it’s also able to
use external libraries, accordingly to the user’s needs.

3. METHOD

This study was developed in 3 stages: first, the data acquisition and its preliminary
treatments. Second, a more complex treatment was done, and the Data Mining algorithm to be
used was defined. Last, the executions of the algorithm for further analysis of results.

3.1 Data acquisiton and first treatments

This study analyzed data from the accident database of all the federal roads for the year
of 2017, available online on the Brazilian Federal Highway Police (“Polícia Rodoviária
Federal (PRF)”) portal.
First, as a data pre-treatment, the software LibreOffice ® was used to tabulate them,
manually, in order to get the accidents registers and their attributes, such as date, time, type
and cause. Then, the libraries Numpy (math) and Pandas (data analysis) from Python were
used for a more detailed treatment of the dataset, removing unnecessary and duplicated lines
of information to avoid data skell.
Finally, it was decided to work with the subset, using only data from the accidents main
causes, and some irrelevant features were also removed, such as ‘Inversed Date’, ‘Time’,
‘Main Cause’ and ‘Accident Order/Type’. Some features treatment was necessary, turning
them into number types: ‘PesID’, ‘KM’, ‘Vehicle ID’, ‘Year of manufacture’ and ‘Age’.

3.2 Execution – software WEKA

After the data cleaning on Python was concluded, a new file was created in .CSV format,
with clean data to be analyzed through the Apriori algorithm, so as to identify patterns and
relationships between the database variables.
The software WEKA - Waikato Environment for Knowledge Analysis was chosen for
this study because of its easy access and open-source. The dataset was imported into Weka for
processing.
Furthermore, some data such as year of fabrication and driver’s age needed to be
discretized in range of values, using the Discretize function, and numeric variables were
changed into nominal, by use of the NumericToNominal function.
At last, the association was selected, and the association rules were created by the Apriori
algorithm, using attributes as shown in Table 1.

Table 1 – Attributes description and Data types

Name of Attribute Data type Description

Month Numeric Month of occurence of the accident

Day of the week Nominal Day of occurence of the accident


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1178
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Shift Nominal Day period of occurence of the accident

State Nominal State of occurence of the accident

City Nominal City of occurence of the accident

Road (BR) Numeric Road of occurence of the accident

KM Numeric KM of the road of occurence of the accident


Phenomena of nature, lack of attention, wheel damage, high
Cause of accident Nominal
speed, slippery track, mechanical fault in the vehicle, etc
Type of accident Nominal Collision, overturning, tipping over, fire, run over, etc
Classification of
Nominal No victims or injured victims
accident
Weather condition Nominal Weather condition at the time of the accident

Type of the road Nominal Single carriageway , dual carriageway, multiple

Layout of the road Nominal Straight, curve, viaduct, intersection, return, etc.

Type of vehicle Nominal Car, motorcycle, truck, bus, bike, etc.

Brand Nominal Brand of the vehicle


Year of
Numeric Year of manufacture of the vehicle
manufacture
Type involved Nominal Driver, passenger, pedestrian
Level of injury of the victims (unharmed, mild, serious,
Physical state Nominal
death)
Age Numeric Age of the victim

Gender Nominal Gender of the victim

4. RESULTS AND DISCUSSION

Initially, the first 300 association rules were generated by the Apriori algorithm, using
Confidence as a parameter:

• Minimum support: 0.2


• Minimum metric (confidence): 0.5

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1179
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Some rules exemples using Confidence are shown in the Table 2 below:

Association rule Conf. Lift Lev. Conv.


type_road = Single carriageway , layout_road = Straight,
0.9 1.17 0.03 2.37
type_involved = Driver (38968)  gender = Male (35174)
classification_accident = Injured victims, type_road = Single
carriageway, type_involved = Driver (36739)  gender = 0.89 1.16 0.03 2.08
Male (32666)
classification_accident = Injured victims, layout_road =
Straight, type_involved = Driver (49737)  gender = Male 0.88 1.14 0.03 1.89
(43672)
shift = Afternoon, type_involved = Driver (38457)  gender
0.87 1.14 0.02 1.83
= Male (33623)
cause_accident = Lack of Attention, type_involved = Driver
0.87 1.13 0.03 1.81
(49713)  gender = Male (43383)
type_vehicle = car, type_involved = Driver (52611) 
0.82 1.07 0.02 1.3
gender = Male (43279)
age = '[29-39]' (44099) gender = Male (35001) 0.79 1.03 0.01 1.12
weather_condition = Clear sky, layout_road = Straight
0.78 1.01 0 1.03
(63941)  gender = Male (49609)
cause_accident = Lack of attention, layout_road = Straight
0.77 1.01 0 1.02
(46921)  gender = Male (36330)

Then, some variables were removed, such as: gender, age, type_involved and year_vehicle,
and 300 association rules were generated using Lift as parameter:

 Minimum support: 0.1


 Minimum metric (confidence): 0.5

Some exemples of rules using Lift are shown in the Table 3 below:

Association rule Conf. Lift Lev. Conv.


type_vehicle = motorcycle (26026) 
0.91 1.41 0.04 4.04
classification_accident = Injured victims (23753)
cause_accident = Lack of Attention, type_road = Single
0.75 1.12 0.01 1.32
carriageway (26352)  layout_road = Straight (19789)
classification_accident = Injured victims, weather_condition
= Clear sky, type_road = Dual carriageway (22828)  0.74 1.11 0.01 1.28
layout_road = Straight (16983)
cause_accident = Lack of Attention, classification_accident
= Injured victims, weather_condition = Clear sky (26822) 0.74 1.1 0.01 1.27
 layout_road = Straight (19896)
Shift = Night, weather_condition = Clear sky (25935) 
0.73 1.09 0.01 1.22
layout_road = Straight (18927)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1180
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

cause_accident = Lack of Attention (64762)  layout_road


0.72 1.08 0.02 1.19
= Straight (46921)
weather_condition = Clear sky, type_road = Single
carriageway, physical_state = unharmed (25223)  0.7 1.04 0 1.08
layout_road = Straight (17573)
Br = 101 (24594)  layout_road = Straight (17074) 0.69 1.03 0 1.07
cause_accident = Lack of Attention (64762) 
0.68 1.05 0.01 1.11
classification_accident = Injured victims (44108)
Br = 101 (24594)  classification_accident = Injured
0.67 1.04 0 1.08
victims (16561)
type_accident = Rear-end collision (32912) 
0.67 1.24 0.03 1.4
physical_state = unharmed (22090)
type_vehicle = Motorcycle (26026)  physical_state = mild
0.64 1.89 0.05 1.84
(16712)
layout_road = Curve (31487)  classification_accident =
0.06 0.93 -0.01 0.89
Injured victims (19003)

From the results of this study it was possible to identify the main causes of accidents
with injured victims, the gender of the drivers and the level of the injury, as shown in the
Figures 1, 2 and 3, respectively.

Figura 1 - Accidents Main Causes Graph with Injured Victims

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1181
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Victims Injury Level Graph

Driver's Gender
Gender

121582

14983

Male Female

Figura 3 - Driver's Gender Graph

In addition, it was identified that most of these accidents occured in clear skies, in the
afternoon, and when the road had a straight line. This study also showed that rear-end
collision accidents, generally, do not cause injuries for the victims, and most of accidents
involving motorcycles have injured victims.

5. CONCLUSION

From this study, it was possible to identify patterns relating the accidents main causes
that occurred on Brazilian highways during 2017. The association rules obtained from the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1182
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Data Mining shows the need of taking actions to educate drivers and prevent the accidents
occurrence in terrestrial traffic.
In both Apriori algorithm executions, it was observed that most of the accidents are
related to male drivers, according to Figueira et al. (2017) and Taamneh et al. (2017) and their
researches.
On the other hand, this study did not observe the driver’s age influence on accidents
occurrence, contrary to what Bayam et al. (2005) and Taamneh et al. (2017) found in their
studies.
It was also observed that the accidents main causes is the lack of attention while driving,
just like Al-Turaiki et al. (2016) pointed in their studies.
Other factors that had more influence were the high speed in straight line roads (Li et al.,
2017; Figueira et al., 2017).
This paper confirms that Data Mining techniques are great tools to analyze large datasets,
to identify patterns and relationships between variables, being very useful for aiding the
decision making.
The results of this paper gives support to Brazilian traffic managers, making it possible to
adopt preventive actions, both by the Government and by the drivers, aiming to make traffic
safer, with a better people flow and reducing the number of accidents and fatalities in Brazil.

REFERENCES

Al-Turaiki, I., Aloumi, M., Aloumi, N., Alghamdi, K., 2016. Modeling traffic accidents in Saudi Arabia using
classification techniques, in: 2016 4th Saudi International Conference on Information Technology (Big Data
Analysis) (KACSTIT). Presented at the 2016 4th Saudi International Conference on Information Technology
(Big Data Analysis) (KACSTIT), pp. 1–5. https://doi.org/10.1109/KACSTIT.2016.7756072
Bayam, E., Liebowitz, J., Agresti, W., 2005. Older drivers and accidents: A meta analysis and data mining
application on traffic accident data. Expert Syst. Appl. 29, 598–629.
https://doi.org/10.1016/j.eswa.2005.04.025
Chen, J.X., 2014. Application of Data Mining Technology Based on Apriori Algorithm. Appl. Mech. Mater.
543–547, 2036–2039. https://doi.org/10.4028/www.scientific.net/AMM.543-547.2036
Dadashova, B., Ramírez, B.A., McWilliams, J.M., Izquierdo, F.A., 2016. The Identification of Patterns of
Interurban Road Accident Frequency and Severity Using Road Geometry and Traffic Indicators. Transp. Res.
Procedia 14, 4122–4129. https://doi.org/10.1016/j.trpro.2016.05.383
DevMedia, 2007. Data Mining de Regras de Associação [WWW Document]. DevMedia. URL
https://www.devmedia.com.br/data-mining-de-regras-de-associacao/6941 (accessed 12.10.19).
Figueira, A. da C., Pitombo, C.S., de Oliveira, P.T.M. e S., Larocca, A.P.C., 2017. Identification of rules induced
through decision tree algorithm for detection of traffic accidents with victims: A study case from Brazil. Case
Stud. Transp. Policy 5, 200–207. https://doi.org/10.1016/j.cstp.2017.02.004
Gai, Y.L., 2012. Research on Data Mining and Apriori Algorithm. Adv. Mater. Res. 546–547, 497–502.
https://doi.org/10.4028/www.scientific.net/AMR.546-547.497
Galvão, N.D., Marin, H.F., 2010. Traffic Accident In Cuiabá-Mt: An Analysis Through The Data Mining
Technology. Stud. Health Technol. Inform. 510–513. https://doi.org/10.3233/978-1-60750-588-4-510
Han, J., Kamber, M., 2012. Data mining: concepts and techniques, 3rd ed. ed. Elsevier, Burlington, MA.
Lee, C., Li, X., 2015. Predicting Driver Injury Severity in Single-Vehicle and Two-Vehicle Crashes with
Boosted Regression Trees. Transp. Res. Rec. J. Transp. Res. Board 2514, 138–148.
https://doi.org/10.3141/2514-15
Li, L., Shrestha, S., Hu, G., 2017. Analysis of road traffic fatal accidents using data mining techniques, in: Bacon
L., M.L., Ma J. (Ed.), Proceedings - 2017 15th IEEE/ACIS International Conference on Software
Engineering Research, Management and Applications, SERA 2017. Institute of Electrical and Electronics
Engineers Inc., pp. 363–370. https://doi.org/10.1109/SERA.2017.7965753
Olson, D.L., Delen, D., 2008. Advanced Data Mining Techniques. Springer Science & Business Media.
Python, 2009. The Python Tutorial — Python 3.8.0 documentation [WWW Document]. URL
https://docs.python.org/3/tutorial/ (accessed 12.8.19).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1183
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Seguradora Líder, 2019. Taxa de Mortalidade no Trânsito - Relatório Especial 10 anos.


Sferra, H.H., 2003. Data Mining Concepts and Applications 11, 16.
Taamneh, M., Alkheder, S., Taamneh, S., 2017. Data-mining techniques for traffic accident modeling and
prediction in the United Arab Emirates. J. Transp. Saf. Secur. 9, 146–166.
https://doi.org/10.1080/19439962.2016.1152338
Tayeb, A.A.E., Pareek, V., Araar, A., 2015. Applying Association Rules Mining Algorithms for Traffic
Accidents in Dubai 2.
Tian, R., Yang, Z., Zhang, M., 2010. Method of road traffic accidents causes analysis based on data mining, in:
2010 International Conference on Computational Intelligence and Software Engineering, CiSE 2010. Wuhan.
https://doi.org/10.1109/CISE.2010.5677030
WHO, 2018a. The top 10 causes of death [WWW Document]. URL https://www.who.int/news-room/fact-
sheets/detail/the-top-10-causes-of-death (accessed 11.26.19).
WHO, 2018b. Death on the roads [WWW Document]. URL https://extranet.who.int/roadsafety/death-on-the-
roads/#deaths (accessed 11.27.19).
Witten, I.H., Frank, E., Hall, M.A., 2011. Data mining: practical machine learning tools and techniques, 3rd ed.
ed, Morgan Kaufmann series in data management systems. Morgan Kaufmann, Burlington, MA.
World Health Organization, 2018. Global Status Report On Road Safety 2018.
Zhang, X.-F., Fan, L., 2013. A decision tree approach for traffic accident analysis of Saskatchewan highways, in:
Canadian Conference on Electrical and Computer Engineering. Regina, SK.
https://doi.org/10.1109/CCECE.2013.6567833

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1184
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DAS PROPRIEDADES DE CONCRETO ESTRUTURAL COM


REUTILIZAÇÃO DO RESÍDUO DE CONSTRUÇÃO CIVIL

Anna Carolina Lopes Rabello1 – lopesrabello@gmail.com


Renan Tavares Vicente1 – vicenterenan@hotmail.com
Victor Barbosa de Souza1 – victor_souza11@hotmail.com
Markssuel Teixeira Marvila2 – markssuel@hotmail.com
Afonso Rangel Garcez de Azevedo2 – afonso.garcez91@gmail.com
Euzébio Bernabé Zanelato2 – ebzanelato@gmail.com
Sergio Neves Monteiro3 – snevesmonteiro@gmail.com
Matheus Pereira Ribeiro3 – mathuespribeiro@ime.eb.br
Carlos Maurício Fontes Vieira2 – viera@uenf.br
1
Centro Universitário Redentor – Itaperuna, RJ, Brasil.
2
Universidade Estadual do Norte Fluminense – Campos dos Goytacazes, RJ, Brasil.
3
Instituto Militar de Engenharia – Rio de Janeiro, RJ, Brasil.

Resumo. No Brasil, a construção civil é um dos setores de maior representatividade, uma vez
que é grande geradora de postos de trabalho e riqueza. O crescimento populacional e a
densidade demográfica mostram sua relevância. Esse ramo, tido para muitos, como a mais
importante atividade do planeta, vem sendo alvo de grandes discussões, pois quanto maior a
quantidade de obras, maior é a produção de RCC (Resíduos da Construção Civil) e consumo
exagerado de matéria prima. Em estudos realizados, nota-se que esses entulhos representam
grande parte da massa total de resíduos sólidos urbanos de uma cidade de médio e grande
porte. E baseado neste aspecto, este artigo visa estudar as propriedades adquiridas pelo
cimento convencional na composição 1:2:3 (cimento:areia:brita) em volume misturado com
diferentes porcentagens de RCC em sua composição, feito com corpos de prova padronizados
com molde, e testado com ensaio de compressão. Esse artigo objetiva testar as propriedades
do concreto, quando em sua composição, substituirmos a areia, pelo RCC triturado, em
diferentes porcentagens, a fim de reduzir, reciclar e reutilizar essa grande quantidade de
resíduos oriundos das construções civis no país.

Palavras-chave: RCC; Reutilização; Construção Civil; Concreto.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1185
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

No Brasil, a construção civil está em grande ascensão, devido ao crescimento


populacional e também ao fato de ser grande geradora de postos de trabalho e riqueza. Porém,
tal crescimento leva-nos a pensar em curiosos fatos, como a matéria prima utilizada para isso,
nos resíduos oriundos desse processo, dos locais onde serão depositados esses resíduos, e
também dos impactos causados pelo depósito dos mesmos clandestinamente em certos locais
causando assim, problemas ao setor público e sociedade envolvendo questões econômicas e
socioambientais (Marvila et al., 2019; Azevedo et al., 2020; Marvila et al., 2020).
Essa demanda pelas construções civis, ainda é agravada pelo maciço processo de
migração, iniciado na segunda metade do século XX, ocasionando numa nova e crescente
necessidade de novas casas, prédios, entre outros. Esse fato ocorre também, devido as grandes
obras efetuadas no Brasil, durante os últimos anos em prol da Copa do Mundo e das
Olímpiadas. Para ilustrar a quantidade de resíduo de construção civil (RCC) gerado, a Tabela
1 apresenta uma estimativa da quantidade de resíduos produzidos em milhões de toneladas
por ano em alguns países ao redor do mundo.

Tabela 1 – Estimativa de geração de RCC em alguma países.


Fonte: Costa et al. (2014) e Fernandez et al. (2011).
Quantidade anual em
País
milhões t/ano
Estados Unidos 136 – 171
Japão 99
Alemanha 79 – 300
Reino Unido 50 – 70
Itália 35 – 40
Brasil 31
Holanda 12,8 – 20,2
Bélgica 7,5 – 34,7
Portugal 3,2 – 4,4
Dinamarca 2,3 – 10,7
Suécia 1,2 – 6

A principal pergunta é até quando o meio ambiente vai suportar a grande retirada de
matéria prima e pouquíssima reposição da mesma? Onde estão locados esses resíduos? E se
somados com outros fenômenos, que mal podem nos oferecer? Uma possibilidade é aplicação
dos resíduos gerados pela construção civil em concreto estrutural, que é um dos principais
materiais utilizados pelo setor. Assim, reaproveita-se os resíduos gerados pela construção
civil na própria construção civil. Alguns conceitos relevantes, entretanto, precisam ser
elucidados. A princípio, será descrita a definição de compósitos.
De forma geral, pode-se considerar um compósito como sendo qualquer material
multifásico que exiba uma proporção significativa das propriedades de ambas as fases que o
constituem, de tal modo que é obtida uma melhor combinação de propriedades. (Callister,
1999). Os materiais compósitos são combinados entre vários materiais, como metais,
cerâmicas e polímeros, a fim de obter-se uma nova geração de materiais com a união de suas
melhores características mecânicas, tais como a rigidez, tenacidade e resistência nas
condições ambientes e a altas temperaturas.
O concreto é um tipo de compósito, é o elemento mais importante na construção civil,
pois é resultante da união de proporções eficazes utilizando aglomerante (cimento), agregado
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1186
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

fino (areia), agregado grosseiro (pedra britada – zero, neste caso) e água. Tem aplicações
estruturais, revestimento, pavimentos, paredes, canalizações, fundações e outros. Tem bom
comportamento a compressão, porém não é tão eficiente quando o assunto é tração. As
propriedades do concreto são variadas, entre elas destacamos massa específica, durabilidade,
permeabilidade e absorção, deformação, propriedade acústica e, por fim a que será tratado
nesse artigo, resistência mecânica (Malysz et al., 2020; Araújo et al., 2020).
A resistência mecânica é a principal propriedade desse material e é influenciada por
diversos fatores, tais como, idade, relação à quantidade de água em sua composição. Quanto
maior a idade (tempo de cura) deste concreto, maior sua resistência mecânica. E quanto maior
o excesso de água menor a resistência mecânica.
Com relação ao RCC, segundo Levy (1997), entulho de construção civil é definido
como a parcela mineral dos resíduos provenientes das atividades de construção e demolição.
Porém, essa definição não é tão abrangente, não considerando assim atividades envolvidas em
infraestrutura, como por exemplo tubos PVC. Para Zordan (2000), “resíduos sólidos não
contaminados, provenientes de construção, reforma, reparos e demolição de estruturas e
estradas, e resíduos sólidos não contaminados de vegetação, resultantes de limpeza e
escavação de solos. Como resíduos, incluem-se, mas não limitam-se, blocos, concreto e
outros materiais de alvenaria, solo, rocha, madeira, forros, argamassa, gesso, encanamentos,
telhas, pavimento asfáltico, vidros, plásticos que não camuflem outros resíduos, fiação
elétrica e equipamentos que não contenham líquidos perigosos e metais que estiverem num
dos itens acima.”
Diante desse contexto, o objetivo principal desse trabalho é estudar as propriedades do
RCC quando usado como agregado na produção de concreto, como opção sustentável para
obter matéria prima, possibilitando assim a preservação do meio ambiente.

2. MATERIAIS E MÉTODOS
Os corpos de prova foram preparados e ensaiados segundo os procedimentos das normas
NBR 5738 e NBR 5739. Foram preparados para tal ensaio, cinco diferentes traços de
concreto, utilizando-se a proporção 1:2:3 (cimento:areia:brita) em volume, variando com
diferentes porcentagens de RCC em sua composição, conforme observa-se na Tabela 2. Todos
os corpos de prova foram obtidos a partir de um molde cilíndrico de 100 de diâmetro por 200
mm de altura, segundo as normas técnicas já citadas. Para cada composição estudada foram
utilizados 3 corpos de prova.

Tabela 2 – Composições estudadas.

Areia Brita Zero Cimento


Composição RCC (kg)
(kg) (kg) (kg)

0% 57,53 34,76 14,89 0

25% 43,15 34,76 14,89 11,72

50% 28,77 34,76 14,89 23,44

75% 14,38 34,76 14,89 35,16

100% 0 34,76 14,89 46,89

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1187
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Todos os corpos de prova referentes a cada traço foram preparados com o cimento (CP
III – 32). O método de solidificação usado em todos os casos foi solidificação ao ar. E a
peneira utilizada para peneirar tanto areia como as diferentes porcentagens de RCC, foi a de
4,25 milímetros. Os primeiros corpos de prova referentes à primeira etapa do ensaio foram
preparados com o traço comum, com 0% de RCC em sua composição, para servir de
parâmetro relacionando com os outros resultados. Nessa primeira etapa, obtivemos uma
média de 100,13 mm de diâmetro, 200,33 mm de comprimento, respeitando assim as medidas
de tolerância que não devem ultrapassar mais que 1% de diâmetro e 2% na altura em cada
corpo de prova. O peso médio referente aos corpos prova da primeira etapa deste ensaio foi
de 3,43 kg.

A segunda etapa do ensaio foi preparada substituindo-se 25% da areia por RCC
triturado. E assim, ao desenformar os corpos de prova, e medi-los, obtivemos uma média de
100,09 mm de diâmetro e 203,74 mm de comprimento, obedecendo assim à tolerância
preestabelecida pela norma já citada em cada corpo de prova. A média das pesagens dos
corpos de prova foi de 3,35 kg. A terceira etapa desenvolvida constituiu-se na substituição de
50% da areia do traço comum, por RCC. A média obtida no comprimento foi de 203,14 mm e
99,89 mm no diâmetro. A média de peso obtida nesta etapa foi de 3,40 kg. A quarta etapa foi
preparada com substituição de 75% de areia por RCC. A média de comprimento obtida foi de
202,64 mm e 100,01 mm no diâmetro. Já o peso médio foi de 3,11 kg. A quinta etapa foi
preparada com substituição total de areia por RCC, ou seja, o novo traço obtido foi
constituído por 100% de RCC, como agregado fino, dois de pedra britada zero e um de
cimento. O comprimento médio foi de 203,81 mm e 99,66 mm para o diâmetro médio. O peso
médio para esta quinta etapa, foi de 3,37 kg. A Figura 1 apresenta os corpos de prova
moldados.

Figura 1 – Corpos de prova moldados.

Após sete dias da data de moldagem, foi executado um ensaio de compressão com
velocidade de 5 mm/min, em cada corpo de prova de cada etapa da preparação do para o
ensaio. A Figura 2 apresenta o equipamento utilizado no ensaio.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1188
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – Equipamento utilizado no ensaio de compressão.

3. RESULTADOS E DISCUSSÃO
Os resultados obtidos através dos ensaios foram satisfatórios, apesar de algumas
surpresas. No primeiro traço que, serviu como parâmetro para comparação dos outros traços,
obtivemos uma média de compressão de 19,28 MPa, dentro dos limites regulamentos. O
segundo traço, feito com 25% de RCC em substituição da areia, apresentou resultados,
relativamente abaixo das expectativas, quando resistiu à apenas 5,66 MPa de média.
Acreditamos que esse fato ocorreu devido à excessiva porosidade apresentada nos corpos de
prova.
No terceiro traço, feito com 50% de RCC, atingiu resultados além do esperado,
apresentando assim uma média de 16,22 MPa, e superando expectativas quanto ao destino
futuro dos RCC’s e diminuição da poluição do meio ambiente. O quarto traço estudado, feito
com 75% de RCC, obteve uma média de 4,53 MPa, não superando assim, o limite estrutural
mínimo necessário a resistência mecânica é de 6 MPa. Já o quinto traço, feito com 100% de
resíduos, obteve uma média de resistência de 11,69 MPa, uma média bastante alta para um
traço feito completo de RCC. A Figura 3 apresenta os resultados de resistência obtidos no
ensaio.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1189
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

22

20

Resistência à compressão (MPa) 18

16

14

12

10

0 20 40 60 80 100
% RCC

Figura 3 – Resultados de resistência obtidos no ensaio de compressão.

Em resumo, os corpos de prova de com 50% e 100% de RCC, obtiveram os melhores


resultados de resistência à compressão nos ensaios com sete dias, após suas respectivas
moldagens. Tal resultado é satisfatório, pois deixa claro que, podemos sim reciclar esses
materiais, ajudando assim o meio ambiente.

4. CONCLUSÃO

De acordo com a situação atual do país, a quantidade de resíduos de construção civil


geradas é alarmante, gerando um grande prejuízo ambiental já que praticamente todo lixo
gerado por esse setor é destinado de maneira incorreta e irresponsável. Esse problema de
deposição desses resíduos é ainda agravado se somado a algum outro fenômeno natural,
podendo assim, trazer consequências irreparáveis a sociedade e ao meio ambiente.
De maneira geral, existe a dificuldade em estabelecer estimativas de geração, tratamento
e disposição final desses resíduos em nível nacional. Em prol desse assunto, constatamos em
estudos realizados, que podemos sim reduzir, reciclar e reutilizar RCC, na produção de
concreto.

REFERÊNCIAS

Araújo, W.M.P.; Avelino, F.P.; Picanço, M.S.; Macêdo, A.N. (2020). Study of the physical and mechanical
properties of permeable concrete with the addition of TiO 2 for the treatment of sewage. Rev. IBRACON
Estrut. Mater., 13-5.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT), NBR 5738 - Moldagem e cura de corpos-
de-prova cilíndricos ou prismáticas de concreto.
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT), NBR 5739 – Concreto – Ensaio de
compressão de corpos-de-prova cilíndricos.
Azevedo, A.R.G.; Alexandre, J.; Marvila, M.T.; Xavier, G.C.; Monteiro, S.N.; Pedroti, L.G. (2020).
Technological and environmental comparative of the processing of primary sludge waste from paper industry
for mortar. Journal of Cleaner Production, 249, 119336.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1190
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Callister, J.W.D, (1999). Ciência e Engenharia de Materiais, 5ª ed.. LTC, 623p.


Costa, R.V.G.; Júnior, G.B.A.; Oliveira, M.M. (2014). Taxa de geração de resíduos da construção civil em
edificações na cidade de João Pessoa. Ambient. constr., 14-1.
Fernandez, J.A.; Roma, J.C.; Moura, (2011). A.M.M. RESÍDUOS DA CONSTRUÇÃO CIVIL - Relatório III,
São Paulo, 46p.
Levy, S.M. (1997). Reciclagem de entulho de construção civil para utilização com agregado para argamassas e
concreto. Dissertação (mestrado), São Paulo, 147p.
Malysz, G.N.; Molin, D.C.C.D.; Masuero, A.B. (2020). Study of the influence of jigging of recycled coarse
aggregate on the compressive strength of concrete. Rev. IBRACON Estrut. Mater., 13-5.
Marvila, M.T.; Alexandre, J.; Azevedo, A.R.G.; Zanelato, E.B.; Xavier, G.C.; Monteiro, S.N. (2019). Study on
the replacement of the hydrated lime by kaolinitic clay in mortars. Advances in Applied Ceramics, 118:7,
373-380.
Marvila. M.T.; Azevedo, A.R.G.; Barroso, L.S.; Barbosa, M.Z.; Brito, J. (2020). Gypsum plaster using rock
waste: A proposal to repair the renderings of historical buildings in Brazil. Construction and Building
Materials, 250, 118786.
Zordan, S.E. (2000). A utilização de entulho na confecção do concreto. Disseetação (mestrado), Campinas, 140p.

EVALUATION OF STRUCTURAL CONCRETE PROPERTIES WITH RE-USE OF


CIVIL CONSTRUCTION WASTE

Abstract. In Brazil, civil construction is one of the most representative sectors, since it is a
major generator of jobs and wealth. Population growth and demographic density show its
relevance. This branch, considered by many to be the most important activity on the planet,
has been the subject of great discussions, because the greater the quantity of works, the
greater the production of RCC (Civil Construction Waste) and excessive consumption of raw
materials. In studies carried out, it is noted that these debris represent a large part of the
total mass of solid urban waste in a medium and large city. Based on this aspect, this article
aims to study the properties acquired by conventional cement in the composition 1: 2: 3
(cement: sand: gravel) in volume mixed with different percentages of RCC in its composition,
made with standardized specimens with mold, and tested with compression test. This article
aims to test the properties of concrete, when in its composition, we substitute sand, for
crushed RCC, in different percentages, in order to reduce, recycle and reuse this large
amount of waste coming from civil constructions in the country.

Keywords: RCC; Reuse; Construction; Concrete.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1191
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AUTOMATIZAÇÃO DE CONFIGURAÇÕES DURANTE EXAME DE


RESSONÂNCIA MAGNÉTICA UTILIZANDO RECONHECIMENTO
AUTOMÁTICO DE ANATOMIA POR IMAGENS

Rávisson Amaral Almeida1 – ravissonsf@yahoo.com.br


Antonio Wilson Vieira2 – awilsondcc@gmail.com
Marcos Flávio S. V. D’angelo3 – marcos.dangelo@unimontes.br
Luciano Henrique Rodrigues4 – lucianohenriquebio@gmail.com
Mikaella Pricila Alves Dias5 – mikaellapricila@gmail.com
1
Universidade Estadual de Montes Claros, UNIMONTES, Montes Claros, MG, Brasil
2
Universidade Estadual de Montes Claros, UNIMONTES, Montes Claros, MG, Brasil
3
Universidade Estadual de Montes Claros, UNIMONTES, Montes Claros, MG, Brasil
4
Rua Santa Madalena, 171, ap 102, Bairro Vila Brasília, Montes Claros, MG, Brasil
5
Universidade Estadual de Montes Claros, UNIMONTES, Montes Claros, MG, Brasil

Abstract. Este trabalho apresenta uma proposta para a utilização de técnicas de visão
computacional para o processamento de imagens provenientes de equipamento de
ressonância magnética (RM) durante a aquisição dos exames, visando automatizar e auxiliar
o operador na tomada de decisão quanto ao posicionamento das marcações nas estruturas do
corpo do paciente em estudo. O trabalho foi feito baseado em imagens extraídas da tela do
console de um equipamentode RM durante aquisição de exames de crânio. O resultado deste
trabalho, ainda que preliminar, mostra o potencial da técnica para processar imagens
médicas de RM, podendo ser uma opção menos onerosa em termos computacionais ao uso de
redes neurais artificiais, sendo um elo entre a atual forma de execução de exame e uma nova
forma, mais automatizada e menos dependente do fator humano.

Palavras-chave: Visão computacional, SIFT, Ressonância magnética, Automatização

1. INTRODUÇÃO

Na última década, as alterações na distribuição da renda do brasileiro, a regulamentação


econômica aplicada às fontes pagadoras e a intensa incorporação de tecnologia aos serviços
de saúde (fenômeno mundial) estão expandindo o segmento de medicina diagnóstica
(Martins, 2014). A partir de dados extraídos do CNES (Brasil, 2019), é possível observar, a
título de caracterização desta expansão, um crescimento de 41% na quantidade de
equipamentos de tomografia computadorizada (TC) e de 62% em equipamentos de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1192
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ressonância magnética (RM) entre Dezembro de 2013 e Junho de 2019 no Brasil. É um


crescimento expressivo, uma vez que entre 2015 e 2016 o país sofreu a pior recessão desde
1948 (Saraiva, 2017).
Essa expansão traz consigo desafios como o consequente aumento da necessidade de
mão-de-obra qualificada para operação desses equipamentos. Essa qualificação necessária,
especialmente longe de centros aonde esses profissionais são formados em maior quantidade,
pode apresentar um empecilho ao gestor desta área, uma vez que o domínio da rotina de um
serviço de diagonóstico por imagem por parte de um operador de equipamentos desta área,
especialmente de TC e RM, pode levar meses ou até anos. Os operadores geralmente acham
difícil encontrar tempo pessoal para os esforços de educação continuada (Watson, 2013). Esse
cenário pode levar à escassez de mão-de-obra, em alguns casos chegando a impedir o acesso
da população à exames essenciais (Cappelli, 2020).
Na área de diagnóstico por imagem, os profissionais operadores dos equipamentos estão
na linha de frente da qualidade e segurança do paciente (Watson, 2013). Esses operadores,
que são responsáveis pela execução do exame, aonde as imagens são de fato adquiridas para
posterior avaliação pelo radiologista, possuem um papel fundamental no diagnóstico do
paciente. Dentre suas principais atividades estão: preparar os pacientes para os procedimentos,
posicionar o paciente e o equipamento para obter a imagem correta, operar o equipamento
computadorizado para gerar as imagens e manter registros detalhados do paciente (U.S.,
2020).
Uma vez que para a execução do exame há grande dependência do operador, existe então
a contribuição do fator humano para o sucesso do exame. Assim, como em outras áreas em
que tomadas de decisões são feitas por humanos, características pessoais e de estado destes
podem impactar no resultado final. Quando os profissionais de saúde não conseguem dormir
adequadamente, por exemplo, podem sofrer lapsos de atenção, motivação reduzida e
capacidade diminuída de resolver problemas (The Joint Commission, 2018). Como
consequência, podem surgir erros que inviabilizam o diagnóstico preciso.
Como apresentado por Chrysikopoulos (2020), o consenso é que a maioria dos erros na
área de imagem se deve à percepção defeituosa. A percepção visual e o comportamento visual
são diretamente influenciados pelo conhecimento e pela cognição, formando um ciclo de
realimentação virtuoso. Após várias atualizações desse ciclo, obtem-se experiência nesse
domínio. Desta forma, para auxiliar nos processos que demandam percepção visual durante a
aquisição do exame de diagnóstico por imagem, é proposto neste trabalho o emprego da visão
computacional.
A visão computacional tem a missão de automatizar e integrar uma ampla gama de
processos e representações usados para percepção visual (Ballard, 1982). Como apresentado
por Bates (2003), o emprego de tecnologia pode melhorar substancialmente a segurança na
assistência médica estruturando ações, coletando erros e com suporte à decisão centradas no
paciente, tendo que aproveitar - sempre que possível e econômico - as oportunidades (WHO,
2016). Assim, o presente trabalho tem por objetivo apresentar uma aplicação de visão
computacional, utilizando descritores de imagem, para suportar a tomada de decisão do
operador durante exames de ressonância magnética, visando reduzir as ocorrências de erro
humano, aumentando o conforto e trazendo mais segurança para o paciente. Alguns esforços
já tem sido feitos nesse sentido, porém utilizando outras tecnologias, como apresentado por
Ravi e Geethanath (2020), que lançaram um trabalho em direção a um sistema de ressonância
magnética autônomo usando Aprendizagem de Máquina Extrema (ELM – Extreme Learning
Machine – em inglês) e Polzin (2019) que apresenta um sistema desenvolvido pela fabricante
de equipamentos de RM General Eletric (GE) utilizando Aprendizagem Profunda (Deep
Learning em inglês). Uma das principais vantagens da utilização de descritores de imagem
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1193
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

em relação ao uso dos métodos utilizados nessas pesquisas mencionadas, baseados em redes
neurais artificiais, é a facilidade na criação do modelo. O resultado deste trabalho, que
considera um conjunto limitado de 17 imagens, indica que utilizando apenas essas 17
imagens, é possível selecionar imagens de treino e de teste, para cada plano (sagital e
coronal), de forma a criar um modelo capaz de localizar com grande precisão as estruturas
anatômicas nas imagens de teste no mesmo conjunto considerado. Como comparativo, o
modelo da GE foi treinado com 29000 imagens.

2. FUNDAMENTAÇÃO TEÓRICA

Como o cerne do trabalho é a geração de descritores para posterior reconhecimento de


estruturas anatômicas específicas do crânio, foi utilizado o algoritmo proposto por Lowe
(2004), chamado SIFT, apresentado adiante. Também será abordada de forma sucinta a
formação das imagens de Ressonância Magnética (RM), uma vez que as imagens utilizadas
no trabalho são provenientes deste tipo de equipamento.

2.1 Imagem por Ressonância Magnética (RM)

Conforme apresentado por Hage e Iwasaki (2008), a imagem por ressonância magnética
promoveu um grande avanço na medicina no que diz respeito a imagens encefálicas devido ao
alto contraste de tecidos moles e à possibilidade de cortes em qualquer plano escolhido. De
uma forma resumida, a aquisição de imagens por RM é constituída das seguintes etapas: o
paciente é colocado no interior do magneto do equipamento (Figura 1-a); os núcleos atômicos
do paciente se alinham ao longo do campo magnético aplicado, gerando um vetor de
magnetização; gradientes de campo magnético sequenciais são aplicados para a localização
espacial dos sinais a serem adquiridos; os pulsos de excitação são aplicados e os núcleos
absorvem energia; após os pulsos, passam a ocorrer os fenômenos de relaxação; os núcleos
passam a induzir o sinal de RM nas bobinas receptoras; o sinal de RM é adquirido; o sinal de
RM é processado por meio da transformada de Fourier; a imagem é formada ponto a ponto
numa matriz. Na Figura 1-b é mostrado o operador no console do equipamento, de onde o
mesmo é comandado. Na Figura 1-c é apresentado exemplo de imagem gerada utilizando esta
tecnologia.

a) b) c)

Figura 1: Equipamento de RM. a) Magneto: local onde o paciente é inserido durante o exame.
b) Console: utilizado pelo operador para executar o exame e monitorar o paciente. c) Imagem
gerada por Ressonância Magnética de uma mão.

2.1.2 Exames de RM de crânio

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1194
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Durante exames de RM de crânio, no plano sagital as extremidades inferiores do corpo


caloso são utilizadas para determinar a inclinação das imagens que serão geradas durante o
exame. O operador do equipamento utiliza essas estruturas para alinhar a marcação que
delimita a área de estudo passando orientação para a formação das demais imagens, (Figura 2-
a). O corpo caloso (Figura 2-b) é uma parte do cérebro de mamíferos que encontra-se na
fissura longitudinal que conecta os hemisférios direito e esquerdo do cérebro. Como resultado
deste trabalho, é esperado que essas extremidades sejam reconhecidas e localizadas
automaticamente pelo programa proposto. À partir da localização destas extremidades seria
possível fornecer ao programa do console qual a inclinação que deverá ser utilizada na
marcação, que hoje é escolhida pelo operador. De forma análoga, o operador sempre precisa
fazer estas marcações nos planos coronal e axial também.

a) b)

Figura 2: a) Imagem de RM de crânio - Durante exame de RM de crânio é gerada a


imagem sagital do crânio, aonde o operador localiza as extremidades inferiores do corpo
caloso e posiciona a linha horizontal passando por esses dois extremos. b) Vista sagital do
crânio.

2.2 SIFT - Scale Invariant Feature Transform

Conforme apresentado por Szeliski (2010), as assinaturas do SIFT são formadas pelo
cálculo do gradiente em cada pixel em uma janela 16x16 em torno do ponto-chave detectado,
usando o nível apropriado da pirâmide gaussiana na qual o ponto-chave foi detectado.

Figura 3: Uma representação esquemática da transformada de característica invariante


de escala (SIFT) de Lowe (2004).

As magnitudes dos gradientes são ponderadas por uma função Gaussiana para reduzir a
influência de gradientes distantes do centro, uma vez que estes são mais afetados por
pequenos erros de registro. Os 128 valores não-negativos resultantes formam uma versão
bruta do vetor de descritor SIFT. Para reduzir os efeitos de contraste ou ganho (variações
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1195
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

aditivas já são removidas pelo gradiente), o vetor 128-D é normalizado para o comprimento
da unidade. Para tornar o descritor mais robusto para outras variações fotométricas, os valores
são limitados para 0.2 e o vetor resultante é novamente renormalizado para tamanho unitário.
Os descritores resultantes tem invariância à escala e à rotação. A Figura 3 ilustra esse
processo: à esquerda, orientações e magnitudes de gradiente são calculadas em cada pixel e
ponderadas por uma função gaussiana (círculo). À direita, um histograma de orientação de
gradiente ponderado é então computado em cada sub-região, usando interpolação trilinear.
Embora essa figura mostre um patch de 8x8 pixels e um vetor de descritores 2x2, a
implementação real de Lowe usa 16x16 patches e uma matriz 4x4 de histogramas de oito
séries.

3. METODOLOGIA

Para o desenvolvimento deste trabalho foi delimitado o escopo do estudo para exames de
RM para a região do crânio, sendo considerado somente pacientes adultos e sem histórico de
patologias que afetem o corpo caloso significativamente.
Este trabalho foi desenvolvido em Python, utilizando o OpenCV, a partir de etapas
previamente definidas, que consistiram da amostragem da tela do operador, recorte da área da
tela para estudo, geração de descritores para os pontos de interesse na imagem de treino,
geração de descritores nas imagens de busca e o matching. A seguir serão detalhadas cada
uma destas etapas considerando a vista sagital do crânio. Porém, no resultado deste trabalho
foram consideradas as análises no plano coronal também, seguindo a mesma metodologia
aqui proposta.

Amostragem da tela: Para poder processar as imagens que são vistas durante o exame pelo
operador, foram coletadas amostras da tela do console (Figura 1-b) do equipamento no
momento em que o operador precisa localizar o corpo caloso. Estas amostras foram realizadas
para exames de diversos pacientes. Estas amostras serão utilizadas para as etapas de
processamento descritas adiante.

Recorte da área para estudo: Em cada tela amostrada, foram recortadas a imagem sagital do
crânio, que seria utilizada pelo operador para fazer a marcação baseada no corpo caloso
(Figura 4-a). O recorte forma uma nova imagem contendo somente uma imagem do crânio
(Figura 4-b). Estas últimas imagens geradas foram utilizadas para treino e como imagens de
busca durante os testes nas próximas etapas.

Geração de descritores de interesse: Dentre as imagens geradas à partir dos recortes da tela,
foi selecionada uma dentro do escopo para que fosse utilizada na geração dos descritores nos
pontos de interesse. Esses pontos são os pontos que contém as características que deverão ser
buscadas em outras imagens pelo programa gerado. No caso da imagem do plano sagital os
pontos de interesse são as extremidades inferiores do corpo caloso. Esses descritores geram
assinaturas, que são vetores que descrevem aquela região selecionada da imagem. Estas
assinaturas foram geradas utilizando o método SIFT, já apresentado anteriormente. Os pontos
centrais destas duas regiões de interesse foram selecionados manualmente e inseridos no
programa para que fossem computadas as assinaturas SIFT para elas (círculos na Figura 4-b).
O tamanho da região foi escolhido de forma que cada uma delas contivesse informações
suficientes para se tornarem mais únicas, para aumentar a precisão da fase de matching. Neste
trabalho, esta imagem de onde foram computados os descritores nos pontos de interesse (no
corpo caloso) é chamada de imagem de treino e estes descritores, chamados de descritores de
interesse.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1196
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a) b)

Figura 4: Processamento inicial das telas - a) Tela do console com área a ser recortada
destacada pelo tracejado. b) Imagem gerada à partir do recorte já com a marcação da área que
terão os descritores SIFT computados.

Geração de descritores nas imagens de busca: São consideradas imagens de busca neste
trabalho a imagem que é utilizada pelo programa para este tentar localizar uma assinatura
similar à que foi gerada no passo anterior. Nesta etapa foram gerados descritores distribuídos
de forma uniforme em uma região da imagem. Essa região foi escolhida baseada na posição
do corpo caloso nas diversas imagens recortadas.
Foram realizados testes com descritores com diferentes distâncias entre si (passo) e
diferentes tamanhos de região de interesse (Figura 5). Esses testes seriam para determinar a
melhor combinação durante a fase de matching. Cumpridos os requisitos desta etapa, parte-se
então para a fase de matching.

Figura 5: Distribuição uniforme de descritores na imagem com diferentes distâncias entre si


(passo) e diferentes tamanhos de região de interesse, ambos dados em pixels (a) Tamanho 50,
passo 25 (b) Tamanho 50, passo 50 (c) Tamanho 100, passo 50 (d) Tamanho 25, passo 5.

Matching: Nesta fase, todos os descritores gerados em uma imagem de busca na etapa
anterior são comparados com os descritores de interesse, na busca pelo descritor que
apresente a melhor correspondência (similaridade). A busca para encontrar o melhor
candidato é feita comparando-se descritor por descritor com a tarefa de localizar o vizinho
mais próximo (em inglês "nearest neighbor") do descritor de interesse. O vizinho mais
próximo é aquele que possuir a menor distância euclidiana. Assim, após localizar o vizinho
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1197
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mais próximo, é traçada uma linha de correspondência entre as coordenadas centrais dos
descritores de interesse e as do vizinho mais próximo localizado. Este passo ocorre para cada
um dos descritores de interesse. Os resultados podem ser vistos na Figura 6.

Figura 6: Resultados da busca por correspondência entre descritores – Matching. À esquerda,


o crânio de referência, com os pontos de interesse escolhidos manualmente. À direita, a
imagem de busca. As linhas, geradas automaticamente pelo programa, ligam os pontos com
maior similaridade entre as imagens.

4. EXPERIMENTOS E RESULTADOS

Com a finalidade de mensurar a capacidade do sistema de localizar os pontos desejados


na imagem de busca (fase de matching) que sejam relevantes para a aplicação prática
considerando o cenário de tomada de decisão do operador, foram escolhidos manualmente na
imagem de busca pontos que servem de orientação para o operador e que deveriam ser
encontrados de forma automática pelo sistema. Após, como na prática o operador do
equipamento de RM precisa alinhar uma reta passando por esses pontos, foram traçadas duas
retas utilizando regressão linear: uma que mais se adequava aos pontos marcados
manualmente, chamada de reta M, e outra que mais se adequava aos pontos encontrados pelo
programa, a reta E (Figura 7). As retas estão praticamente sobrepostas.
Criadas as retas, foram então escolhidas as seguintes métricas para mensurar a efetividade
do sistema: 1) distância euclidiana entre os pontos marcados manualmente (em mm) e a reta
encontrada a partir dos pontos localizados pelo sistema (reta E); 2) diferença entre o ângulo da
reta gerada a partir dos pontos marcados manualmente e da reta gerada a partir dos pontos
localizados pelo sistema.
Na Tabela 1 são mostradas as coordenadas dos pontos marcados manualmente e dos
pontos encontrados pelo programa criado, para os planos coronal e sagital. Também são
apresentadas as distâncias em pixel (px) entre os pontos encontrados manualmente e a reta E,
bem como a média aritmética dessas distâncias já convertida para milímetro. A distância entre
os pontos marcados manualmente e a reta criada a partir dos pontos encontrados pelo
programa (reta E) foi de 1,05 mm e 0,56 mm para os planos coronal e sagital, respectivamente
(Tabela 1). Já na Tabela 2 é apresentado que o ângulo formado entre as retas foi de 0,06 grau
para o plano coronal e 1,13 grau para o plano sagital.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1198
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a) b)

c) d)

Figura 7: No quadro a) e b) são mostrados pontos brancos, que foram os pontos centrais dos
descritores gerados na imagem de referência/treino. Em c) e d) são apresentadas as retas
geradas a partir das marcações manuais (reta M) e a reta gerada a partir dos pontos
localizados pelo programa na imagem de busca (reta E).

Tabela 1 - Coordenadas dos pontos marcados manualmente e dos pontos encontrados pelo
programa criado e suas distâncias para a reta E.

P1 P2 P3
Distância Distância Distância Distância
Tipo de
Plano x1 y1 x2 y2 x3 P1-E y3 P2-E P3-E Média
Marcação
(px) (px) (px) P-E (mm)
Manual Coronal 267 212 270 287 278 580 2,73 1,99 2,82
1,05
Encontrado Coronal 271 198 270 302 281 562
Manual Sagital 241 284 364 290 1,99 0,70
0,56
Encontrado Sagital 233 282 363 291

Considerando que para os radiologistas o limite aceitável seja de 3mm para a distância
pontos-reta e de 3 graus para a diferença no ângulo das retas (Polzin, 2019), o resultado
encontrado foi satisfatório e atende as exigências para que o exame seja realizado de forma
correta, uma vez que nenhuma das medidas excedeu esses limites.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1199
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 – Coeficientes das retas traçadas a partir das coordenadas dos pontos marcados
manualmente (reta M) e dos pontos encontrados pelo sistema (reta E).

Coeficientes da reta
Tipo de Coeficiente angular Ângulo entre as retas em
Plano a b c
reta (-a/b) graus
M Coronal -0,00383 0,00011 0,99999 34,29751
0,05668
E Coronal -0,00380 0,00011 0,99999 33,17114
M Sagital 0,00019 -0,00369 0,99999 0,05097
1,12788
E Sagital 0,00027 -0,00377 0,99999 0,07072

5. CONCLUSÃO E TRABALHOS FUTUROS

O presente trabalho apresentou uma abordagem baseada em técnicas de visão


computacional para auxiliar na automatização da tomada de decisão do operador do
equipamento de ressonância magnética (RM) durante a realização dos exames, pela indicação
automática do posicionamento das marcações nas estruturas anatômicas em imagens.
Como resultado, foi observado que a partir de um conjunto limitado de imagens foi
possível selecionar imagens de treino e de teste, para cada plano, de forma a localizar nas
imagens de busca, com precisão comparada à indicação por especialistas, os pontos do corpo
caloso e os pontos na linha medial escolhidos na imagem de treino.
Este trabalho, ainda que incipiente, mostra o potencial da técnica de descritores de
imagem para processar imagens médicas de RM, sendo possível um elo entre a atual forma de
execução de exame e uma nova forma, mais automatizada e menos dependente do fator
humano. A técnica empregada se mostrou como uma alternativa quando comparada ao uso de
redes neurais artificiais para a localização de estruturas anatômicas para o planejamento do
exame de ressonância magnética, uma vez que, apesar dos avanços significativos na
automatização usando redes neurais, a utilização de redes neurais pode demandar grande
poder de processamento computacional e número elevado de imagens para um treinamento
satisfatório, dificultando o acesso ao emprego dessa técnica e sua expansão para as diferentes
partes do corpo. Neste trabalho foi empregado um conjunto limitado de imagens para cada
plano (sagital e coronal) para a criação do modelo, o que sugere que esta abordagem pode ser
expandida com maior facilidade para outras estruturas anatômicas quando comparado ao uso
das redes neurais artificiais, que pode precisar de centenas ou até milhares de imagens de
treino para cada nova estrutura anatômica a ser estudada.
Para referência para trabalhos futuros, é entendido que é necessário um aumento
significativo da base de imagens, especialmente em imagens de teste para validar o método
num escopo maior. Outra direção para continuidade do trabalho inclui melhorias na geração
dos descritores nas imagens de busca, testes de desempenho com outros algoritmos para gerar
descritores, integração em tempo-real com o equipamento de RM e a localização de estrutura
anatômica no plano axial. Além disso, testes considerando outras regiões examinadas (joelho,
mão, coração, etc), podem contribuir de forma valiosa para este trabalho e para o futuro desta
linha de pesquisa.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1200
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS

Ballard, D. H. e Brown, C. M. (2020),“Computer Vision”, Prentice Hall.


Bates, D. W. e Gawande, A. A. (1990), “Improving Safety with Information Technology”, vol 348, num 25,
2526-2534, The New England Journal of Medicine.
Brasil (2019),“Ministério da Saúde do Brasil. Base de dados CNES 2013-2019”.
Cappelli, Paulo (2020), “Sem operadores de tomógrafos, centros de imagem inaugurados por Crivella
não produzem exames”, https://oglobo.globo.com/rio/sem-operadores-de-tomografos-centros-de-imagem-
inaugurados-por-crivella-nao-produzem-exames-24439007, acessado em 11 junho de 2020, O Globo, Rio de
Janeiro.
Chrysikopoulos, H. (2020),“Errors in Imaging”, Springer.
Hage, M. C. F. N. S. e Iwasaki, M. (2008), “Imagem por ressonância magnética: princípios básicos”, Ciência
Rural.
Lowe, D. (2004), “Distinctive image features from scale invariant key points”, International Journal of
Computer Vision.
Martins, L. O. (2014), “O segmento da medicina diagnóstica no brasil”, Rev.Fac.Ciênc.Méd.Sorocaba, vol. 16,
no. 3, pp. 139–145.
Polzin, J.A (2019), “Intelligent Scanning Using Deep Learning for MRI”,
https://blog.tensorflow.org/2019/03/intelligent-scanning-using-deep-learning.html, acessado em 17 de
agosto de 2020.
Ravi, K. S. e Geethanath, S. (2020), “Autonomous magnetic resonance imaging”, Magnetic Resonance Imaging,
vol 73, 177.185, Elsevier.
Saraiva, A. e Sales R. (2017), “PIB do Brasil cai 7,2% em dois anos, pior recessão desde
1948”, https://valor.globo.com/brasil/noticia/2017/03/07/pib-do-brasil-cai-72-em-dois-anos-pior-
recessao-desde-1948.ghtml, acessado em 09 junho de 2020, Valor Econômico, Rio de Janeiro.
Szeliski, R. (2010), “Computer Vision: Algorithms and Applications”, ser. Texts in Computer Science. Springer.
The Joint Commission (2018), “Sentinel Event Alert: Health care worker fatigue and patient safety”,
https://www.jointcommission.org/-/media/tjc/documents/resources/patient-safety-topics/sentinel-
event/sea48hcwfatiguefinalw2018addendum.pdf, acessado em 09 junho de 2020.
U.S (2020), “U.S. Department of Labor - Occupational Outlook Hand-book - Radiologic and MRI
Technologists”, https://www.bls.gov/OOH/healthcare/radiologic-technologists.htm#tab-2, Bureau of
Labor Statistics, acessado em 11 junho de 2020.
WHO (2016), “Global strategy on human resources for health: workforce 2030”, WHO Library.
Watson, L. e Odle, T. G. (2013), “Patient Safety and Quality in Medical Imaging: The Radiologic Tech-
nologist’s Role”, American Society of Radiologic Technologists.

AUTOMATION OF SETTINGS DURING EXAMINATION OF MAGNETIC


RESONANCE USING AUTOMATIC ANATOMY RECOGNITION BY IMAGES

Abstract. This work presents a proposal for the use of computer vision techniques for
processing images from magnetic resonance (MRI) equipment during the acquisition of
exams, aiming to automate and assist the operator in decision making regarding the
positioning of markings on the images of the structures of the patient body under study. The
work was performed based on images taken from the console screen of an MRI equipment
during the acquisition of brain exams. The result of this work, although preliminary, shows
the potential of the technique to process MRI images, which may be a less costly option in
computational terms compared to the use of artificial neural network, being a link between
the current form of examination and a new way, more automated and less dependent on the
human factor.

Keywords: Computer vision, SIFT, Magnetic resonance, Automation

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1201
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

PROJETO DE UM MOTOR DE RELUTÂNCIA VARIÁVEL MONOFÁSICO


USANDO O MÉTODO DOS ELEMENTOS FINITOS

Adriel Senna de Oliveira Candido1,2 – adriel.candido@ufpr.br


Juliana Almansa Malagoli1, 2, 3 – juliana.malagoli@ufpr.br
Daniel Nelson Fabiani Sanches1 – danielsanches0732@gmail.com
Eduardo Chiarello1 – eduardochiarelloufpr@gmail.com
Thomas da Silva Carneiro Terrana1 – thomasscterrana@gmail.com
1
Universidade Federal do Paraná, Departamento de Engenharia Elétrica – Curitiba, PR, Brasil
2
Programa de Pós-Graduação em Engenharia Elétrica – Curitiba, PR, Brasil
3
Centro de Estudos do Mar – Pontal do Paraná, PR, Brasil

Resumo. O motor de relutância variável monofásico induz polos magnéticos não permanentes
no ferromagnético do rotor, onde não possui nenhum enrolamento. Neste contexto, o presente
trabalho tem por objetivo modelar o projeto do dispositivo eletromagnético usando o método
dos elementos finitos. Além disso, analisa-se o gráfico da densidade de fluxo magnético no
entreferro e verificam-se as perdas no cobre nos enrolamentos do motor. Os resultados
mostram as análises do motor de relutância variável através dos parâmetros que caracterizam
o modelo matemático apresentado. Por fim, a simulação computacional é comparada aos
cálculos analíticos e mostrou-se eficiente aos resultados esperados.

Palavras-Chave: Método Computacional, Método dos Elementos Finitos, Motor de Relutância


Variável Monofásico.

1. INTRODUÇÃO

É de preocupação de todos a pauta utilização de energia elétrica. No que refere-se ao seu


consumo, sabe-se que é preferível minimizar os seus custos que vêm por consequência a surgir,
assim como sempre melhorar sua eficácia. Nesse cenário, o motor elétrico revolucionou o
mercado como um excelente dispositivo a fim de corresponder às necessidades estabelecidas.
Com diferentes características construtivas e também de operação, estudos possuindo detalhes
intrínsecos dessas máquinas, tornam-se de extrema importância nos dias atuais, a fim de
compreender a sua importância para a sociedade Chapman, (2013), Fitzgeral et al., (2014).
O Motor de Relutância Variável (MRV) é um dos motores elétricos mais antigos que se
tem registro. Isso ocorre, pelo fato do MRV possuir uma construção simples em comparação

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1202
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

aos motores de indução, todavia eficiente quando o mesmo é comparado aos motores de
corrente contínua. As principais características de um MRV são um estator com enrolamentos
de excitação, rotor sem enrolamentos e sem imãs permanentes, sem escovas ou comutadores, e
robustez semelhante a encontrada em motores de indução Mamede, (2016). Além disso, o
conjugado é produzido pelo deslocamento da sua parte móvel (rotor) para a posição em que há
maximização da indutância no enrolamento de excitação, sendo os polos estáticos (estator). O
rotor tende a se alinhar de forma a produzir uma relutância magnética mínima e, assim, uma
densidade máxima de fluxo Mamede et al. (2016). Devido sua forma construtiva, encontra-se
algumas desvantagens, o MRV não pode ser conectado de forma direta à rede, necessita de
acionamento eletrônico e identificação instantânea da posição do rotor.
Com o avanço da eletrônica de potência nas últimas décadas, o controle e o acionamento
do MRV deixou de ser um ‘empecilho’ para sua utilização. Dessa forma, converteu-se em
maiores possibilidades de pesquisas envolvendo o MRV. A despeito de certas limitações, o
MRV apresenta muitas vantagens como, por exemplo, bom rendimento, robustez, construção
simples, baixa inércia, confiabilidade e tolerância a falhas. Por suas vantagens e características,
o MRV tem sido fabricado em alguns países em escala industrial para diversas aplicações,
principalmente as que exigem variação de velocidade, controle de posição e tração com alto
conjugado Fitzgeral et al. (2014).
Com o intuito de adquirir uma modelagem significativa desse motor, é necessário o
conhecimento dos parâmetros do dispositivo eletromagnético, os quais são encontrados através
de simulações, usando o Método dos Elementos Finitos (MEF). O estudo referido consiste-se
basicamente na modelagem de um MRV monofásico, o qual essencialmente possui 4 polos no
estator e 4 polos no rotor, denominado 4x4. Com o apoio do software Finite Element Method
Magnetics (FEMM), o qual possui ferramentas baseadas no MEF aludido, é possível obter
características estáticas do MRV com escopo em analisar a densidade de fluxo magnético no
entreferro e as perdas no cobre.
Este artigo, organiza-se em 6 seções, as quais seguem os seguintes tópicos: a seção 2
apresenta o projeto do motor de relutância variável monofásico 4x4, a seção 3 explana sobre o
método dos elementos finitos, a seção 4 mostra a metodologia adotada, a seção 5 é designada
aos resultados e discussões e por fim, a seção 6 descreve as considerações finais.

2. PROJETO DO MOTOR DE RELUTÂNCIA VARIÁVEL MONOFÁSICO 4X4

O ponto inicial do desenvolvimento do projeto de um MRV é a obtenção da equação de


saída de potência, porém será definido também outras variáveis como número de polos, arcos
polares do rotor e estator, comprimento do núcleo, diâmetro interno, número de espiras por
fase, entreferro, culatra do rotor e do estator. Além disso, escolheu-se inicialmente as
caracterísitcas do motor monofásico de um fabricante para desenvolver o projeto do MRVM
(Motor de Relutância Variável Monofásico) conforme Tabela 1.

Tabela 1- Principais características do MRVM.


Parâmetros Valores
Potência de Entrada (W) 750
Velocidade Nominal (rpm) 1735
Corrente Nominal (A) 7,6
Conjugado Nominal (N.m) 4,02
Tensão Nominal (V) 220
Número de Polos 4
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1203
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 1 apresenta todas as cotas que devem ser determinadas para a construção do MRV
e que serão descritas a seguir.

Figura 1- Cotas de um MRV.

Onde: βs é o arco polar do estator (graus); β𝑟 é o arco polar do rotor (graus); 𝑙𝑝𝑠 é a largura do
polo do estator (mm); 𝑙𝑝𝑟 é a largura do polo do rotor (mm); 𝑐𝑠 é a culatra do estator (mm); 𝑐𝑟 é
a culatra do rotor (mm); ℎ𝑠 é a altura do polo do estator (mm); ℎ𝑟 é a altura do polo do rotor
(mm); D𝑠ℎ é o diâmetro do eixo (mm); 𝐷𝑖 é o diâmetro interno (mm); 𝐷0 é o diâmetro externo
(mm); 𝑔 é o comprimento do entreferro (mm).
No projeto é necessário especificar uma velocidade base de operação, a potência de saída
nominal e o torque nominal Mamede, (2016). Além disso, determina-se o comprimento da pilha
como um múltiplo do diâmetro interno, conforme a Equação (1):

L  k.Di (1)

Onde: L é o comprimento da pilha (m); Di é o diâmetro interno (m); k não é escolhido


arbitrariamente, é decidido pela natureza da aplicação do motor e limitação de espaço. Para
aplicações não-servo, o intervalo de 𝑘 é 0,25 a 0,75 e para aplicações servo, o intervalo de 𝑘 é
1,0 a 3,0 Mamede et al. (2016). A potência desenvolvida pode ser calculada:

Pd  k.ke .kd .k1.k2 .B. As .Di3.Nrt


(2)

A partir da Equação (2) é possível determinar o valor de Di, o valor da eficiência ke deve
ser inferior a unidade e a velocidade Nrt é a base de operação. Além disso, os valores de kd e k1
podem ser calculados:

 s .N r
kd 
2 (3)

2
k1 
120 (4)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1204
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Onde: Nr é o número de polos do rotor. Para a posição alinhada, adota-se o valor máximo de B
permitido pelo material do núcleo. Os valores de k2 e As são adotados dentro de um intervalo
razoável. Em geral, no ponto de operação nominal do motor, o intervalo de k2 é:

0, 65  k2  0, 75 (5)
O carregamento elétrico específico, 𝐴𝑠, geralmente é:

25000  As  90000 (6)


Dessa forma, pode-se determinar o valor de Di e a partir dele, os valores das outras
dimensões do MRV. Nesta fase inicial do projeto, é necessário determinar o valor do entreferro,
para motores de potência inferior a 1,0 cv, o entreferro deve variar de 0, 18 a 0, 25 (𝑚𝑚), já
para motores com potência superiores a 1,0 cv podem ter o entreferro a partir de 0,3 a 0, 5
(𝑚𝑚). Portanto, o diâmetro externo D0 é determinado como um múltiplo do diâmetro interno.
Geralmente, o diâmetro interno é de 0, 4 a 0, 7 vezes o valor do diâmetro externo Bianchi et al.
(2012), Mamede, (2016).
O valor mínimo para os arcos polares é calculado a seguir:

4
min   s   (7)
N s .N r

O arco polar do estator será referenciado como valor mínimo calculado acima e, seguindo
as premissas apresentadas anteriormente, o arco polar do rotor será 5% maior que o arco polar
do estator, logo:

r  1,05 . s
(8)

A largura dos polos do rotor e do estator são determinados pelos arcos polares e pelo valor
do diâmetro interno. Dessa forma, a largura do polo do estator é:

 
l ps  Di .sen  s  (9)
 2 

E a largura do polo do rotor é:

 
l pr   Di - 2 g  .sen  r  (10)
 2 

A culatra do estator deve suportar metade da densidade de fluxo que passa pelo polo do
estator. Além disso, a culatra do estator deve ser no mínimo metade da largura do polo do estator
Bianchi et al. (2012). Então, o valor da culatra deve estar no intervalo:

l ps  cS  0, 5l ps
(11)

É sugerido escolher valores maiores que o mínimo para 𝑐𝑠, já a culatra do rotor não é
necessário ser grande como do estator e também não é indispensável ser igual ao valor mínimo,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1205
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que é igual ao mínimo da culatra do estator. A culatra do rotor, em termos da largura do polo
do estator, pode ser definida no intervalo:

0,5l ps  cr  0, 75l ps
(12)

Após determinar os valores do diâmetro externo, interno, da culatra do estator, pode-se


encontrar o valor da altura do polo do estator a partir da Equação (13).

D0  Di  2cs
hs  (13)
2
A altura do polo do rotor pode ser determinada como:

Di  2g  Dsh  2cr
hr  (14)
2

Além disso, o número de espiras (𝑁𝑇) por fase é dado pela densidade de fluxo magnético
(B), pela corrente de pico (Ip) e pelo comprimento do entreferro (g), conforme a Equação (15):

2.g B
NT 
I p 0 (15)

Através da densidade de corrente máxima (Jc) permitida em uma bobina e o número de


fases q, a seção do condutor pode ser calculada como:

Ip
ac 
Jc q (16)

Além disso, o comprimento médio de cada bobina é dado:

lm  2.L.NT
(17)
Com o valor de lm , encontra-se a resistência da bobina R f que é calculada como:

ρ.lm
Rf  (18)
ac

As perdas no cobre para corrente nominal, pode ser calculado através da Equação (19).

Pc  I 2 .Rf (19)

3. MÉTODO DOS ELEMENTOS FINITOS

O Método dos Elementos Finitos (MEF) consiste em um método numérico aproximado


para análise de diversos fenômenos físicos que ocorrem em meios contínuos, e que são descritos
através de equações diferenciais parciais. Além disso, são subdivisão geométrica em formas
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1206
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

menores de triângulos e quadrilateros definidos por elementos finitos Luz, (2003), Malagoni,
(2012). As etapas para aplicação do MEF são:
A. Pré-processamento:
o Definição do problema e do domínio;
o Discretização ou divisão do domínio em elementos;
B. Processamento:
o Obter as equações dos elementos;
o Escolha da função de aproximação:
 Método dos Resíduos Ponderados:
 Método de Galerkin;
o Modelagem ou colocação das equações dos elementos juntas;
o Acréscimo das condições iniciais e de contorno;
o Solução do sistema linear ou não linear;
C. Pós-processamento:
o Apresentação dos resultados ou visualização gráfica;
o Determinação de variáveis secundárias.
A Figura 2 mostra o diagrama de blocos das etapas básicas do MEF.

Figura 2- Diagrama de blocos das etapas básicas do MEF (Adaptado de Tschiptschin, 2020).

Todos os fenômenos eletromagnéticos são descritos por equações clássicas de Maxwell.


Estas constituem um sistema de equações diferenciais parciais que ligam os fenômenos
magnéticos para os fenômenos elétricos e que unificam todos os princípios do
eletromagnetismo (Dular, 1996), (Luz, 2003). Para o modelo magnetostático essas equações
são:
D
rot H  J 
t (20)

div B  0 (21)

Onde: H é o campo magnético (A/m); J é a densidade superficial de corrente (A/m2); D é a


indução elétrica (C/m2); B é a indução magnética (T).
A modelagem completa de fenômenos relacionados ao eletromagnetismo exige as leis de
comportamento dos materiais (ou relações constitutivas), que estabelecem a relação entre
campos elétricos e magnéticos, e o meio em que estão inseridos (Malagoni, 2012). A relação
constitutiva é dada pela seguinte Equação (22):

B  µH (22)
Onde: B é a indução magnética (T); µ é a permeabilidade magnética (H/m); H é o campo
magnético (A/m).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1207
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. MEDOTOLOGIA

Através dos parâmetros do projeto do motor, pode-se obter analiticamente e por simulação
computacional usando o Método de Elementos Finitos (MEF) com o software FEMM os
valores das perdas no cobre nos enrolamentos e a densidade de fluxo magnético no entreferro.
Para melhor entendimento da metodologia empregada neste trabalho, alguns pontos devem ser
destacados:
 As dimensões do motor são próximas das dimensões reais e a modelagem foi realizada
no software FEMM;
 As correntes usadas nas simulações são: 7,6 (A); 12,6 (A); 17,6 (A) e 22,6 (A);
 O diâmetro externo é duas vezes o diâmetro interno, ou seja, o diâmetro interno é 0,5
vezes o valor do diâmetro externo;
 No pós-processamento, pode-se analisar a densidade de fluxo magnético no entreferro
graficamente, com o motor alinhado e desalinhado;
 Analisa-se a perda total no cobre das bobinas comparando com os cálculos analíticos.
Além disso, adotou-se os seguintes parâmetros para o início do projeto, conforme mostra
a Tabela 2.
Tabela 2- Valores adotados para o início do projeto.
Parâmetros Valores
Densidade magnética (T) 1,90
g (mm) 0,30
Dsh (mm) 28,00
ke 0,50
k2 0,70
k 0,70
As (A.esp/m) 25000
Jc (A/mm2) 6,00

A Figura 3 mostra a curva de magnetização BxH do aço silício de grãos não orientados
M19 usado para o projeto e simulação do protótipo, observa-se que o material satura em torno
de 1,90 (T), foi o valor considerado como referência para o projeto do MRVM.

Figura 3- Curva de magnetização BxH do aço silício M19.

Os valores adotados e calculados para iniciar o processo de dimensionamento e projeto do


MRVM são apresentados na Tabela 3.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1208
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3- Dimensionamento do MRVM.


Parâmetros Valores
βs (graus) 45
βr (graus) 47,25
Di (mm) 95,00
D0 (mm) 190,00
L (mm) 66,50
lps (mm) 36,35
lpr (mm) 38,07
cs (mm) 21,81
cr (mm) 21,81
hs (mm) 25,68
hr (mm) 11,38
NT (espiras) 60
ac (mm2) 1,65

A determinação da seção do condutor é feita através da aproximação da área calculada com


os fios fabricados. Assim, observa-se que a seção do condutor mais próximo ao calculado é do
condutor 15 AWG, com seção de 1,65 (𝑚𝑚2). A seção 5 mostra com detalhes todos os
resultados analisados deste trabalho, como: o cálculo analítico e simulações computacionais do
motor de relutância variável monofásico usando o software FEMM.

5. RESULTADOS E DISCUSSÕES

Na seção II, a Tabela 1 mostra as principais características do motor de relutância variável


monofásico 4x4. Além disso, a Figura 1 apresenta todas as cotas necessárias para o
desenvolvimento do projeto e a Tabela 2 mostra os parâmetros essenciais e os valores adotados
para o desenvolvimento do projeto. Dessa forma, a Tabela 3 mostra as dimensões do MRVM
adquiridos através das equações de projeto.

Figura 4- Densidade de Fluxo Magnético no motor de relutância variável monofásico 4x4


para a corrente de 22,6 (A), onde: (a) é o motor alinhado e (b) é o motor desalinhado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1209
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nas simulações, são apresentadas as densidades de fluxos magnéticos no motor, no


entreferro através de gráficos e as perdas no cobre nos enrolamentos via software FEMM. A
Figura 4 mostra as densidades de fluxos magnéticos no MRVM para a corrente máxima adotada
de 22,6 (A) para duas situações, onde: (a) é o motor alinhado e (b) é o motor desalinhado. Existe
também na imagem uma legenda de cores que indica de forma escalar a intensidade da
densidade de fluxo magnético.

Figura 5- Gráficos das densidades de fluxos magnético no entreferro em um polo para as


diferentes correntes nos enrolamentos: (a) motor alinhado e (b) motor desalinhado.

Já a Figura 5 mostra a densidade de fluxo magnético no entreferro de um polo do motor


para as quatro correntes diferentes: 7,6(A), 12,6(A), 17,6(A) e 22,6(A) nos enrolamentos do
dispositivo eletromagnético. Além disso, a Tabela 4 apresenta as perdas resistivas totais (W)
nos enrolamentos para as diferentes correntes nas bobinas do MRVM. Por fim, apresenta o
resultado do cálculo numérico obtido através da Equação (19) e o valor simulado no software
FEMM, assim como o erro percentual.

Tabela 4- Perdas resistivas (W) nos enrolamentos.


Corrente (A) Simulado FEMM Cálculo Analítico Erro (%)
7,6 9,6695 9,6020 0,698
12,6 26,5783 26,3922 0,700
17,6 51,8578 51,4945 0,701
22,6 85,5065 84,9087 0,699

Percebe-se que as densidades de fluxos magnéticos no entreferro em um polo do MRVM


crescem quando se aumentam as correntes. Considerando este comportamento, há possibilidade
de aplicação de uma análise equivalente para as perdas resistivas. Portanto, a corrente é
diretamente proporcional ao fluxo magnético e as perdas resistivas. Conclui-se que não houve
saturação do material ferromagnético, a saturação ocorre em torno de 1,9 (T) e o maior valor da
densidade obtido é 1,1092 (T). A análise realizada neste trabalho, é a primeira etapa para uma
aplicação prática. A próxima etapa deste trabalho, será minimizar as perdas no cobre.

6. CONSIDERAÇÕES FINAIS

Este trabalho teve por finalidade modelar um motor de relutância variável monofásico
através do método dos elementos finitos e simular várias correntes de forma a gerar gráficos
das densidades de fluxos magnéticos no entreferro em um polo. Além disso, o software livre de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1210
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

simulação computacional FEMM proposto neste trabalho, facilitou a observação e análise da


variação de corrente e a alteração proporcional da densidade de fluxo magnético.
Destaca-se que os valores da densidade e da perda no cobre obtidos através de cálculos,
atendem as necessidades do projeto e são aplicáveis em casos reais. Com isso, o método dos
elemento finitos, provou-se uma ferramenta efetiva para otimização de motores de relutância
variavel, além da eficácia em obter dados eletromagnéticos viáveis.

Agradecimentos

Os autores agradecem a UFPR/Tesouro Nacional e a CAPES pelos recursos destinados ao


desenvolvimento deste trabalho de pesquisa.

REFERÊNCIAS

Bianchi, R. B., Gomes, L. C., Andrade, D. A., Rêgo, M. B., Neves, A. B. F. (2012). “Projeto, modelagem e
levatamento de curva de indutância em máquina a relutância variável 8x6 utilizando elementos finitos”,
Conferência de Estudos em Engenharia Elétrica, ISSN: 2178-8308.
Chapman, S. J. (2013). “Fundamentos de Máquinas Elétricas”. 5ª ed. Porto Alegre, Bookman.
Dular, P. (1996). “Modélisation du champ magnétique et des courants induits dans des systémes tridimensionnels
non linéaires”, Tese de Doutorado, Université de Liége, Bélgica.
Fitzgerald, A. E.; Kingsley Jr., C.; Umans, S. D. (2014). “Máquinas Elétricas”. 7ª ed. Porto Alegre, Bookman.
Luz, M. V. F. (2003). “Desenvolvimento de um software para cálculo de campos eletromagnéticos 3D utilizando
elementos de aresta, levando em conta o movimento e o circuito de alimentação”, Tese de Doutorado,
Universidade Federal de Santa Catarina, Florianópolis-SC, Brasil.
Malagoni, J. A. (2012). “Os elementos finitos no estudo de eletromagnetismo utilizando os software
Gmsh/GetDP”, Dissertação de Mestrado, Universidade Federal de Uberlândia, Uberlândia-MG, Brasil.
Mamede, A. C. F. (2016). “Projeto iterativo, simulação, análise e otimização de máquina a relutância variável
monofásica”, Dissertação de Mestrado, Universidade Federal de Uberlândia, MG, 2016.
Mamede, A. C. F., Camacho, J. R., Andrade, D. A. (2016). “Design Procedures and Analysis for Single-Phase
Variable Reluctance Motors”, International Conference on Renewable Energies and Power Quality, Spain.
Tschiptschin, A. P. (2020). “Método de elementos finitos aplicado à seleção de materiais”, Notas de aula,
Departamento de Engenhria Metalúrgica e de Materiais, USP, São Paulo, 2020.

DESIGN OF A SINGLE PHASE VARIABLE RELUCTANCE MOTOR USING THE


FINITE ELEMENT METHOD

Abstract. The single-phase variable reluctance motor induces non-permanent magnetic poles
in the ferromagnetic of the rotor, where it has no winding. In this context, the present paper
aims to model the design of the electromagnetic device using the finite element method. In
addition, the graph of the magnetic flux density in the air gap is analyzed and the copper losses
in the motor windings are checked. The results show the analyzes of the variable reluctance
motor through the parameters that characterize the mathematical model presented. Finally, the
computer simulation is compared to the analytical calculations and proved to be efficient to the
expected results.

Keywords: Computational Method, Finite Element Method, Monophasic Variable Reluctance


Motor.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1211
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

APLICAÇÃO DE TÉCNICAS DE REDUÇÃO DE DIMENSIONALIDADE NO


DIAGNÓSTICO AUTOMATIZADO DE GLAUCOMA

Carla Nascimento Neves1 - cnneves@uesc.br


Denilson Santos da Encarnação1 - encarna.denilson@gmail.com
Francisco Bruno Souza Oliveira1 - fbsoliveira@uesc.br
Paulo Eduardo Ambrósio1 - peambrosio@uesc.br
1 Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil

Resumo. As técnicas de redução de dimensionalidade são frequentemente utilizadas para obter


um conjunto limitado de atributos relevantes dentre os dados, simplificando a representação dos
mesmos, e consequentemente facilitando as tarefas de análise de dados, como classificação.
Este trabalho teve como estudo de caso a classificação de imagens de retinografia para
diagnótico automatizado de glaucoma. Foram aplicados alguns métodos de redução de
dimensionalidade ao vetor de atributos gerado por pelo processamento digital das imagens
citadas, com o objetivo de aumentar a precisão da classificação desse vetor e verificar
qual método teria o melhor desempenho. Os métodos utilizados foram: Decomposição de
Valores Singulares (Singular Value Decomposition - SVD), Análise de Componentes Principais
(Principal Component Analysis - PCA), Kernel PCA (KPCA), Análise de Componentes
Independentes (Independent Component Analysis- ICA), Análise de Fatores (Factor Analysis
- FA) e Isomap.O classificador utilizado para avaliar o desempenho dos subconjuntos gerados
foi o Random Forest. Os resultados mostraram que o melhor desempenho foi obtido pelo KPCA.
Enquanto os dados originais alcançaram taxas de 79.6% de acurácia, 78.0% de sensibilidade
e 80.7% de especificidade, um dos subconjuntos obtidos pelo KPCA alcançou 91.0% 89.9% e
91.8% para as mesmas métricas.

Palavras-chave: Redução de dimensionalidade, Processamento digital de imagens, Mineração


de dados, Classificação, Dados multidimensionais.

1. INTRODUÇÃO

Ao trabalhar com técnicas de classificação automatizadas, alguns atributos usualmente


verificados podem apresentar baixa relevância para a solução de um problema específico. Sendo
assim, buscam-se métodos para reduzir a dimensão do espaço de representação do problema,
objetivando aumentar a acurácia dos resultados de classificação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1212
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A redução de dimensionalidade é a transformação de dados de alta dimensão em uma


representação significativa dos mesmos com dimensionalidade reduzida, pois seu processo
reduz o número de características empregadas para representar um determinado conjunto de
dados (DeMers & Cottrell, 1993; Vicente, 2006).
As técnicas de redução de dimensionalidade de dados podem ser aplicadas na área de
Processamento Digital de Imagens (PDI) pois as etapas deste processamento usualmente geram
vetores de atributos que representam as imagens analisadas, e estes vetores, por sua vez,
tendem a comportar uma grande quantidade de elementos que podem pouca relevância para
classificação das imagens.
Neste artigo, tomou-se como estudo de caso a classificação de imagens de retinografia para
diagnóstico do Glaucoma. Esta é uma neuropatia irreversível caracterizada por um grupo de
condições que causa dano progressivo ao nervo óptico e perda do campo visual, sendo a segunda
causa de cegueira no mundo (Barreto, 2019) e representa um grande desafio para muitas áreas
da ciência.
Uma das principais técnicas para o diagnóstico do glaucoma é a retinografia, que consiste
na captação de imagens de fundo de olho (Lima, 2019). É possível otimizar esse processo
associando as imagens obtidas com a retinografia às técnicas de processamento digital de
imagens (PDI), facilitando o reconhecimento de padrões e a caracterização das ocorrências
visuais relacionadas à doença.
Uma etapa importante do PDI é a extração de características da imagem, que resulta na
geração de vetores de atributos que tendem a acomodar um grande número de elementos,
aumentando a dimensionalidade e complexidade do problema. Devido a este elevado número
de características, em certos problemas de análise e processamento de imagens a redução da
dimensionalidade é importante para se obter um conjunto ideal de características necessárias
para realizar uma determinada operação em uma imagem.
Existem muitos métodos de redução de dimensionalidade para várias tarefas, como
mineração de dados e reconhecimento de padrões, e isso demonstra sua importância para a
resolução de problemas.
Nos trabalhos de Van Der Maaten et al. (2009), Ding et al (2012), Jindal & Vianna (2017)
e Huang et al. (2019) existem revisões sobre algumas técnicas de revisão de dimensionalidade,
tais como Decomposição de Valores Singulares (Singular Value Decomposition - SVD), Análise
de Componentes Principais (Principal Component Analysis - PCA), Kernel PCA (KPCA),
Análise de Componentes Independentes (Independent Component Analysis- ICA), Análise de
Fatores (Factor Analysis - FA), Isomap etc., bem como análises comparações de propriedades
Para se beneficiar das técnicas de redução de dimensionalidade com o objetivo de maximizar
a precisão do algoritmo de aprendizado, é necessário ter consciência das várias vantagens dessas
técnicas e das particularidades de cada uma delas.
Sendo assim, o foco nesta pesquisa é analisar o desempenho de algumas técnicas de redução
de dimensionalidade aplicadas em imagens de retinografia e comparar as performances de
classificação dessas imagens, e assim, tentar identificar qual seria a técnica mais apropriada
para ser usada no diagnóstico automatizado de glaucoma.

2. EXTRAÇÃO DE ATRIBUTOS DE TEXTURA

A análise do padrão de textura de uma imagem fornece um conjunto de informações


estatísticas que auxiliarão na sua classificação, tais como: distribuição espacial, variação de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1213
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

brilho, rugosidade, regularidade, etc (Pedrini & Schwartz, 2008).


Em Haralick et al. (1973), quatorze características foram postuladas para descrever
o comportamento espacial entre os pixels de uma imagem. Para a obtenção dessas
informações, foi utilizada a matriz de co-ocorrência, Transformando a imagem em uma
estrutura bidimensional de intensidade de nível de cinza baseada na relação espacial entre os
pixels. Este método é usado principalmente para aplicar cálculos estatísticos para extração de
atributos.
O uso da matriz de co-ocorrência é assumido como uma etapa essencial para a extração
dos descritores postulados por Haralick em Haralick et al. (1973). A aplicação dessas técnicas
gera vetores com os atributos obtidos nas imagens, e esses vetores tendem a conter um grande
número de elementos. Ao trabalhar com técnicas de classificação automatizada, alguns atributos
comumente verificados podem ter baixa relevância para resolver um problema específico ou até
mesmo piorar a classificação.
Com um número menor de elementos, que pode ser obtido pela redução da
dimensionalidade do vetor gerado, é possível ter uma melhor interpretação dos dados e,
consequentemente, uma melhor classificação é obtida. A Redução de Dimensionalidade,
responsável por encontrar representações dos dados com um número reduzido de atributos,
será discutida na próxima seção.

3. REDUÇÃO DE DIMENSIONALIDADE

No mundo real, a alta dimensionalidade é uma característica comum os conjuntos de dados.


Muitos objetos só podem ser representados eletronicamente com dados de alta dimensão -
sinais de voz, imagens, vídeos, documentos de texto, letras e números manuscritos, impressões
digitais e imagens hiperespectrais, etc. Geralmente, precisamos analisar uma grande quantidade
de dados e processá-los.
A complexidade excessiva característica de espaços de dados de alta dimensão
leva a problemas como a conhecida maldição da dimensionalidade (Bellman, 1961) e
overfitting(Hawkins, 2004)
De acordo com Carreira-Perpinan (1997), a redução de dimensionalidade dos dados é
introduzida como uma forma de superar a maldição da dimensionalidade ao lidar com dados
vetoriais em espaços de alta dimensão e como uma ferramenta de modelagem para esses dados.
É uma pesquisa de um espaço de dados de baixa dimensão que incorpora os dados de alta
dimensão.
A redução da dimensionalidade é uma técnica que consiste em transformar dados de grande
dimensão em estruturas com menos atributos, que devem manter ao máximo a topologia do
espaço de dados original para manter suas propriedades relevantes (Medeiros & Costa, 2008;
Camargo, 2010). Conforme DeMers & Cottrell (1993), essas representações são mais eficientes
porque a redundância dos dados é eliminada.
Como vemos em diversos trabalhos, por exemplo Van Der Maaten et al. (2009), Engel et al
(2012) e Voruganti et al. (2008), o problema da redução de dimensionalidade pode ser definido
da seguinte forma:
Seja X = {x1 , x2 , ..., xn } um conjunto de n observações de um espaço D-dimensional, tal
que, xi ∈ Rm . Assuma que este conjunto tem dimensionalidade intríseca d, sendo d < D. Em
termos matemáticos, dimensionalidade intríseca significa que os pontos no conjunto de dados X
residem em um subespaço de dimensionalidade d, que está embutido no espaço D-dimensional

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1214
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Van Der Maaten et al. (2009).


A redução de dimensionalidade busca encontrar um conjunto de saída correspondente
Y = {y1 , y2 , ..., yn }, de dimensionalidade d, tal que yi ∈ Rp , sendo p < m e Y , a representação
mais fiel possível de X no espaço de dimensão reduzida.
Vemos que, basicamente, nada mais é do que uma projeção, isto é, um mapeamento de
um espaço D-dimensional para um espaço d-dimensional, para D > d, com sua alteração de
coordenadas associada.
A área de pesquisa de redução de dimensionalidade é amplamente ativa Liu & Gillies
(2016). Em virtude do aumento constante do volume de informação produzido e da facilidade
de acesso a essa informação, as pesquisas na área de redução de dimensionalidade produziram
uma rica variedade de métodos e algoritmos Carreira-Perpinan (1997).
Estes métodos são aplicados com o objetivo de facilitar tarefas como classificação,
visualização e compressão de dados de alta dimensão, e também no pré-processamento para
mineração de dados, pois geralmente melhora o desempenho dos processos como classificação
(Hsu & Wu, 2018; Camargo, 2010), sendo este última aplicação utilizada neste trabalho.

3.1 Aplicação de técnicas de redução de dimensionalidade para problemas de classificação

O reconhecimento de padrões usa métodos de aprendizado de máquina para classificar


objetos físicos, para que os resultados do reconhecimento sejam o mais consistente possível
com objetos objetivos em condições de probabilidade mínima de erro (Huang et al., 2019).
No processo de reconhecimento de padrões, grandes quantidades de dados fornecem
informações úteis, mas também podem dificultar o uso eficaz desses dados. Com uma grande
quantidade de atributos, a informação útil pode ser inundada por um grande número de
características redundantes que não contribuirão para a classificação e o tornarão o processo
de treinamento demorado ou até impedirão a convergência da rede de treinamento, afetando a
precisão do reconhecimento (Ding et al, 2012).
A redução de dimensionalidade de dados é usada em tarefas de aprendizado de máquina
para melhorar a qualidade dos atributos dos dados, reduzir a complexidade computacional e
melhorar a precisão do reconhecimento de padrões. Várias técnicas foram desenvolvidas para
resolver o problema de reduzir variáveis irrelevantes e redundantes, que podem atrapalhar a
tarefa de classificação.
A grande quantidade de técnicas desenvolvidas e que são utilizadas para classificação de
dados demonstra a importância das mesmas para este problema, e é necessário fazer a escolha
adequada para o problema com que se deseja trabalhar, e este é o objetivo deste trabalho, tendo
como estudo de caso dados extraídos de imagens de retinografia para diagnóstico de glaucoma.

4. MATERIAIS E MÉTODOS

Para o desenvolvimento do trabalho foram seguidas as etapas do processo de descoberta do


conhecimento, baseado nas três etapas principais: pré-processamento, mineração de dados e
pós-processamento.
O processo geral a ser seguido pode ser descrito da seguinte maneira: Primeiramente, foi
feita a classificação do conjuntos de dados em sua forma bruta, ou seja, utilizando todos os
atributos. Após essa tarefa, ocorreu a redução de dimensionalidade dos dados originais com
diferentes métodos. Em seguida, os subconjuntos obtidos com a redução de dimensionalidade
foram submetidos a um algoritmo de classificação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1215
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Finalmente, será realizada a etapa de pós-processamento, em que os resultados obtidos serão


avaliados. Este processo pode ser visualizado na Figura 1. Cada parte será descrita nas seções
a seguir.

Figura 1- Passos gerais executados nos experimentos.

4.1 Base de imagens

Esta pesquisa utilizou um banco de dados aberto que contém imagens retinianas para
avaliação do nervo óptico, chamado RIM-ONE 1 , que é dividido em três versões. A
segunda versão está sendo utilizada neste artigo porque contém um número semelhante entre
retinogramas de olhos normais e glaucomatosos, totalizando um conjunto de 455 imagens
(255 saudáveis e 200 patológicas). Existem dois exemplos de imagens deste banco de dados
na Figura 2: O primeiro é o retinograma de um olho saudável (a) e o outro é de um olho
glaucomatoso (b).

Figura 2- Exemplos do banco de dados RIM-ONE. (a) Olho saudável (b) Olho glaucomatoso

4.2 Descritores de textura

Neste trabalho, foram extraídos padrões de textura para obtenção de informações estatísticas
sobre as imagens apresentadas na subseção anterior, que auxiliam na sua classificação. Foi
utilizada a matriz de coocorrência para obter essas informações, transformando a imagem em
uma estrutura bidimensional de intensidade de nível de cinza baseada na relação espacial entre

1
Disponível em rimone.isaatc.ull.es

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1216
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

os pixels. A matriz de coocorrência é usada principalmente para aplicar cálculos estatísticos


para extração de características.
Em Haralick et al. (1973) quatorze características foram postuladas para descrever o
comportamento espacial entre os pixels de uma imagem. No entanto, nesta pesquisa apenas
nove características de textura foram aplicadas: segundo momento angular, contraste, média
da soma, variância, correlação, variância da soma, momento da diferença inversa, entropia e
medida de correlação. As 9 características de textura foram submetidas a 4 ângulos da matriz
de coocorrência, resultando em 36 atributos para cada imagem.

4.3 Etapa de redução de dimensionalidade

Com os recursos de textura mencionados na Subseção 4.2 , foi possível criar um vetor com
os atributos que representam as imagens mencionadas na Subseção 4.1.
O número de elementos desse vetor é equivalente ao produto do número de ângulos que
os pixels de uma imagem foram submetidos à matriz de coocorrência pelo número de recursos
de textura implementados. Nesse caso, 9 atributos de textura foram submetidas a 4 ângulos da
matriz de co-ocorrência, resultando em 36 atributos para cada imagem.
O vetor resultante do DIP é o parâmetro de entrada os algoritmos de redução de
dimensionalidade. As técnicas escolhidas são bastante utilizadas na literatura, e foram citadas
na introdução: SVD, PCA, KPCA, ICA, FA e Isomap.
Para a implementação dessas técnicas, uma ferramenta bastante útil foi a biblioteca Scikit-
learn, da linguagem de programação Python. Essa biblioteca contém uma coleção de algoritmos
para tarefas de análise de dados, dentre elas, redução de dimensionalidade.
Segundo Pedregosa et al (2011), a biblioteca Scikit-learn fornece implementações de última
geração de muitos algoritmos de aprendizado de máquina bem conhecidos, enquanto mantém
uma interface fácil de usar totalmente integrada com a linguagem Python.

4.4 Classificação

Um dos objetivos do trabalho é reduzir da quantidade de atributos do conjunto de dados


original para melhorar o desempenho da classificação, porém é importante lembrar que, se a
redução de dimensionalidade for excessiva, o classificador pode ter seu poder de discriminação
reduzido. Por isso, é importante analisar a variação do comportamento do classificador com
base na quantidade total de atributos, de forma que seja possível estimar a dimensionalidade
ideal do conjunto de dados para determinado classificador baseado na sua taxa de acerto.
Sendo assim, o conjunto de dados original foi submetido em sua forma bruta ao algoritmo
de classificação Random Forest com a metodologia cross validation 10-fold como forma de
ter um parâmetro de taxa de acerto do classificador para comparar com os outros subconjuntos
gerados por métodos de redução de dimensionalidade.
Para a execução do algoritmo de classificação será utilizado o software Weka versão 3.8.4.
O Weka (Waikato Environment for Knowledge Analysis) é um pacote formado por um conjunto
de implementações de algoritmos de diversas técnicas de Mineração de Dados. Desenvolvido
na Universidade de Waikato na Nova Zelândia, ele está implementado na linguagem Java.
Este software pode ser executável nas mais variadas plataformas, além de ser um software de
domínio público.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1217
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. RESULTADOS

Os resultados foram obtidos da execução dos algoritmos sobre a base de dados original e
sobre os subconjuntos de atributos gerados através dos métodos redução de dimensionalidade.
O conjunto de atributos original foi submetido aos algoritmos de redução de dimensionalidade,
com objetivo de ter um parâmetro para avaliar os resultados do classificador nos subconjuntos
gerados.
As métricas avaliadas foram: Acurácia (a probabilidade de discriminar corretamente as duas
condições de interesse: a ausência ou presença de glaucoma), sensibilidade (a probabilidade
de diagnosticar corretamente os doentes) e especificidade (a probabilidade de diagnosticar
corretamente os indivíduos sadios).
Com o conjunto de dados original, o classificador alcançou de 79,5% de acurácia, 78,0% de
sensibilidade e 80,7% de especificidade. Esses dados foram reduzidos continuamente por cada
método até que restassem somente 2 atributos, afim de avaliar em qual espaço de dados reduzido
seria obtida a melhor classificação. A Figura 3 mostra os resultados da classificação para a base
de dados original e os melhores resultados alcançados pelos subconjuntos produzidos por todos
os métodos aplicados para as métricas consideradas.

Figura 3- Resultado da classificação da base de dados original e melhores taxas alcançadas pelos
subconjuntos produzidos por cada método de redução de dimensionalidade.

O melhor resultado foi obtido com o método KPCA, que apresentou em um dos espaços
reduzidos taxas de acurácia de 91,0%, sensibilidade de 89,9% e especificidade de 91.8%, as
melhores taxas em todas as métricas avaliadas. Percebe-se que nem todos os métodos tiveram
ganhos na classificação, como foi o caso do ISOMAP.Nas três métricas verificadas, a melhor
taxa encontrada nos subconjuntos obtidos por esse método é bem inferior às que foram obtidas
com outras técnicas e inclusive à taxa de acerto dos dados originais. Isso acontece porque,
provavelmente, o ISOMAP é adequado para outros tipos de dados ou outros tipos tarefas, então
vemos a importância de explorar alguns métodos para analisar suas performances e decidir qual
se adequará melhor ao problema estudado e ao tipo de dados com que se trabalha.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1218
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Outro ponto interessante que os resultados dos experimentos ressaltaram é que é preciso
analisar como o resultado da classificação será em cada subconjunto resultante da redução
de dimensionalidade. A Figura 4 descreve o comportamento da classificação alcançada pelos
subconjuntos produzidos pelo KPCA, o método que alcançou a melhor classificação, conforme
o tamanho do espaço de atributos reduzia. Os resultados mostrados no gráfico começam a partir
da classificação do conjunto de dados original, e continuam conforme o número de atributos
decresce.

Figura 4- Taxas de acerto alcançadas pelos subconjuntos produzidos pelo KPCA conforme o número de
atributos reduz. Em destaque: Acurácia original e melhor acurácia alcançada pelo KPCA
Vemos que ele alcançou seu melhor desempenho nas primeiras reduções, e depois esse
desempenho é reduzido, mas ainda alcança classificações que superam as dos dados originais.
E a partir de um certo número de atributos, os dados ficam descaracterizados e a redução não é
mais vantajosa. Cada método teve sua melhor taxa de acurácia alcançada por um subconjunto
de tamanho diferente, como mostra a Tabela 1.

Tabela 1- Melhores subconjuntos de cada método. Critério: Taxa de Acerto


Método Melhor taxa de acerto (%) No de Atributos
SVD 84,2 31
PCA 82,9 33 e 16
KPCA 91,0 35
ICA 81,5 13
FA 82,6 22, 15 e 14
Isomap 61,1 8

Desta forma, percebe-se a necessidade de analisar a variação da taxa de acerto obtida


pelo classificador em cada um dos subconjuntos gerados, além do método que obtém os
melhores resultados na classificação. As melhores taxas de sensibilidade, especificidade e
acurácia foram obtidas com o método KPCA, com o subconjunto que continha 35 atributos.
Portanto, considerando os resultados da classificação, este foi o melhor subconjunto produzido
nos experimentos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1219
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

6. CONSIDERAÇÕES FINAIS

As técnicas de redução de dimensionalidade são comumente utilizadas para obter uma


representação simplificada dos dados originais, representação esta que tem como objetivo
facilitar as tarefas de análise de dados, como a classificação. Neste caso, reduzir a dimensão do
espaço de representação do problema tem como objetivo aumentar a precisão da classificação
dos objetos estudados.
Para se beneficiar das técnicas de redução de dimensionalidade, é necessário conhecer suas
propriedades e saber qual técnica se aplica melhor para o problema com que se está trabalhando.
Neste trabalho, foi feita a redução de dimensionalidade de dados extraídos de 455 imagens
de retinografia, utilizadas no diagnóstico de glaucoma. A redução foi feita por meio de
diferentes métodos, com o objetivo de verificar qual delas teria melhor desempenho no aumento
da precisão do classificador.
Foram utilizadas seis técnicas diferentes (SVD, PCA, KPCA, ICA, FA e Isomap), e o
classificador utilizado para avaliar o desempenho dos subconjuntos gerados foi o Random
Forest, por meio do software WEKA. Foi feita a classificação dos dados originais, para obter
um parâmetro de classificação para os subconjuntos gerados pelos métodos de redução de
dimensionalidade. Os resultados mostraram que, excetuando o Isomap, todos os métodos
apresentaram ganhos na classificação, e o melhor desempenho foi obtido pelo KPCA.
Enquanto os dados originais, que continham 36 dimensões, alcançaram taxas de 79.6%
de acurácia, 78.0% de sensibilidade e 80.7% de especificidade, o métodos KPCA conseguiu
resultados bem melhores logo nas primeiras reduções, e o subconjunto de 35 atributos obtido
por esta técnica alcançou 91.0% 89.9% e 91.8% para as mesmas métricas.
Outro ponto observado foi que é dificil determinar um número ótimo de elementos para
o espaço de dados reduzido, uma vez que cada método teve seu melhor desempenho na
classificação alcançado por um conjunto de dados de tamanho distinto.
Como trabalho futuro, estão a avaliação da aplicação de mais técnicas de redução de
dimensionalidade em outras bases de dados, com tamanhos e tipos de atributos variados, com o
objetivo de investigar quais métodos tem melhor desempenho para diferentes tipos de dados.

Agradecimentos

Os autores agradecem à Coordenação de Aperfeiçoamento de Pessoal de Nível Superior


(CAPES) pelo apoio financeiro a esta pesquisa

Referências

Barreto, I. F. G. (2019), “Prevalência e causas de cegueira e visão subnormal em pacientes atendidos


em um hospital público de referência de Fortaleza-CE.”, Especialização em Oftalmologia, Escola de
Saúde Pública do Ceará, Fortaleza.
Bellman, R. E. (1961),“Adaptive control processes: a guided tour”, Princeton university press.
Borges, L.S. (2016), Medidas de Acurácia diagnóstica na pesquisa cardiovascular. Int J Cardiovasc Sci,
29, 218-22.
Camargo, S.S. (2010), “Um modelo neural de aprimoramento progressivo para redução de
dimensionalidade”, Tese de Doutorado, UFRGS, Porto Alegre.
Carreira-Perpinan, M. A. (1997), A review of dimension reduction techniques. Department of Computer
Science. University of Sheffield. Tech. Rep., 9, 1-69.
DeMers, D., e Cottrell, G. W. (1993), Non-linear dimensionality reduction. Advances in neural
information processing systems, 5, 580-587.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1220
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ding, S.; Zhu, H.; Jia, W.; Su, C. (2012), A survey on feature extraction for pattern recognition. Artificial
Intelligence Review, 37, 169-180.
Engel, D.; Hüttenberger, L.; Hamann, B. (2012), “A survey of dimension reduction methods for
high-dimensional data analysis and visualization”, in Visualization of Large and Unstructured Data
Sets: Applications in Geospatial Planning, Modeling and Engineering-Proceedings of IRTG 1131
Workshop 2011, Schloss Dagstuhl-Leibniz-Zentrum fuer Informatik.
Haralick, R.M.; Shanmugam, K.; Dinstein, I. (1973), Textural features for image classification. IEEE
Trans. Syst. Man Cybern., 6, 610-621.
Hawkins, D. M. (2004), The problem of overfitting. Journal of chemical information and computer
sciences, 14, 1-12.
Hsu, C. and Wu, J. (2018), Visualized mixed-type data analysis via dimensionality reduction. Intelligent
Data Analysis, 22, 981-1007.
Huang, X.; Wu, L. ; and Ye, Y.; (2019), A Review on Dimensionality Reduction Techniques.
International Journal of Pattern Recognition and Artificial Intelligence, 33, p. 1950017.
Jindal, P. e Kumar, D. (2017), A review on dimensionality reduction techniques. International journal of
computer applications, 173, 42-46.
Lima, A.C.M. (2019), “Aprendizagem Profunda Aplicada ao Diagnóstico do Glaucoma”, Dissertação
de Mestrado, CCET/UFMA, São Luís.
Liu, R. e Gillies, D. F. (2016), Overfitting in linear feature extraction for classification of high-
dimensional image data. Pattern Recognition, 53, 73-86.
Medeiros, C.J.F. e Costa, J. A. F. (2008), Uma Comparação Empírica de Métodos de Redução de
Dimensionalidade Aplicados a Visualização de Dados. Learning and Nonlinear Models-Revista da
Sociedade Brasileira de Redes Neurais (SBRN), 6, 81-110.
Pedregosa, F.; Varoquaux, G. ; Gramfort, A. ; Michel, V.; Thirion, B. Grisel, O.; Blondel, M.;
Prettenhofer, P. and Weiss, R. and Dubourg, V. (2011), Scikit-learn: Machine learning in Python.
the Journal of machine Learning research, 12, 2825–2830.
Pedrini, H., e Schwartz, W. R. (2008),“Análise de imagens digitais: princípios, algoritmos e
aplicações”, Thomson Learning.
Van Der Maaten, L.; Postma, E.; Van den Herik, J. (2009), Dimensionality reduction: a comparative. J
Mach Learn Res, 13, 66-71.
Vicente, I.S. (2006), “Human action recognition based on linear and nonlinear dimensionality reduction
using PCA and Isomap”, Tese de Doutorado, Royal Institute of Technology, Stockholm, Sweden.
Voruganti, S.; Ramyakrishna, K.; Bodla, S.; Umakanth, E. (2018),Comparative Analysis of
Dimensionality Reduction Techniques for Machine Learning. Int J S Res Sci. Tech, 4, 364-369.

APPLICATION OF DIMENSIONALITY REDUCTION TECHNIQUES IN AUTOMATED


GLAUCOMA DIAGNOSIS

Abstract. The dimensionality reduction techniques are often used to obtain a limited set
of relevant attributes among the data, simplifying their representation, and consequently
facilitating data analysis tasks, such as classification. This paper had as a case study
the classification of retinography images for automated diagnosis of glaucoma. Some
dimensionality reduction methods were applied to the vector of attributes generated by the
digital processing of the cited images, with the objective of increasing the accuracy of the
classification of this vector and verifying which method would have the best performance.
The methods used were: Singular Value Decomposition (SVD), Principal Component Analysis
(PCA), Kernel PCA (KPCA), Independent Component Analysis (ICA), Factor Analysis (FA)
and Isomap. The classifier used to evaluate the performance of the generated subsets was
Random Forest. The results showed that the best performance was obtained by the KPCA.
While the original data reached rates of 79.6% of accuracy, 78.0% of sensitivity and 80.7% of
specificity, one of the subsets obtained by the KPCA achieved 91.0% 89.9% and 91.8% for the
same metrics.

Keywords: Dimensionality reduction, Digital image processing, Data mining, Classification,


Multidimensional data.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1221
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTUDO SOBRE A INFLUÊNCIA DOS DIFERENTES MEIOS RESFRIADORES


COM A DUREZA RESULTANTE PARA O AÇO SAE 1045.

Kaio César Fernandes 1 – kaio.fernandes19@hotmail.com


Edson Vicente Coelho da Silva Júnior 1 – edson.17vicente@hotmail.com
Victor Barbosa de Souza1 – victor_souza11@hotmail.com
Markssuel Teixeira Marvila2 – markssuel@hotmail.com
Afonso Rangel Garcez de Azevedo2 – afonso.garcez91@gmail.com
Euzébio Bernabé Zanelato2 – ebzanelato@gmail.com
Sergio Neves Monteiro3 – snevesmonteiro@gmail.com
Raí Felipe Pereira Junior3 – raivsjfelipe@ime.eb.br
Carlos Maurício Fontes Vieira2 – viera@uenf.br
1
Centro Universitário Redentor – Itaperuna, RJ, Brasil.
2
Universidade Estadual do Norte Fluminense – Campos dos Goytacazes, RJ, Brasil.
3
Instituto Militar de Engenharia – Rio de Janeiro, RJ, Brasil.

Resumo. Para este trabalho, os corpos de provas cilíndricos de aço SAE 1045 foram
submetidos ao tratamento térmico de têmpera, sendo austenitizados a uma temperatura de
850°C e imediatamente resfriados em água e óleo a fim de se comparar suas durezas
encontradas por meio de ensaio. Para o acompanhamento da evolução micro-estrutural em
ambas as amostras após seus respectivos resfriamentos foi realizado a metalografia. Os
resultados obtidos permitem a avaliação da dureza do material e a verificação dos efeitos do
ensaio realizado na microestrutura.

Palavras-chave: Tratamento térmico de Têmpera, aço SAE 1045, Resfriamento água e Óleo.

1. INTRODUÇÃO

Para a engenharia, ligas de ferro-carbono são de extrema importância, pois antes mesmo
de serem usadas em projetos, principalmente para a construção mecânica, são submetidos a
tratamentos térmicos visando modificar as propriedades das ligas. Em tratamento térmico de
têmpera, o estudo da cinética da mudança fase da austenitaé inevitável, pois é obrigatório a
austenitização completa do material para que em seguida sejam resfriados. Os resultados
obtidos através destes processos de aquecimento e resfriamento controlado estará sujeito a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1222
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ensaios para que suas propriedades mecânicas se aproximem das requeridas (Hibbeller, 2010;
Van Vlack, 2004).
O tempo e temperatura serão de extrema influência para as transformaçõesde fases, visto
que o diagrama de curvasTTT (tempo-transformação-temperatura), demonstram o qual deverá
ser o tempo de resfriamento do aço SAE 1045 para o tratamento térmico de têmpera, que visa
otimizar dureza e tenacidade. A otimização para este aço, é possível através do rearranjo dos
carbonetos durante o resfriamento, dando origem a novas fazes, são elas: ferrita, bainita,
martensita e perlita (Callister, 2005).
Existem vários tipos de resfriamento após os tratamentos térmicos como: salmoura, óleo
de têmpera, água, carvão, areia. Os meios de resfriamento possuem taxas de resfriamento
diferente, portanto a escolha dos mesmos é determinante quanto a formação da microestrutura
final (Beer, 2006).
O aço SAE 1045 usado por este artigo é empregado em diversos componentes industriais,
tais como eixo, peças forjadas, engrenagens comuns, componentes estruturais e de máquinas,
virabrequim. Classificado como aço de médio teor de carbono (0,45%C) este aço reúne boas
propriedades mecânicas. Outro aspecto importante para este aço carbono comum é a baixa
temperabilidade, ou seja, dificuldade em formar martensita (Askeland, 2012).
O objetivo para este artigo é o aumento da dureza no aço SAE 1045 através do tratamento
térmico de têmpera com resfriamento em água e óleo para que por fim possa ser comparado e
qualificados entre si suas respectivas durezas.

2. MATERIAIS E MÉTODOS
2.1 Materiais
Para a realização da têmpera foi utilizado dois corpos de provas de aços SAE 1045,
fornecidos por uma concessionária local, foram recebidos em forma cilíndrica de ½ polegadas
de diâmetro por 5 centímetro de comprimento, constituído mecanicamente segundo as normas
ABNT. A composição química do aço é ilustrado na Tabela 1 e o corpo de prova é ilustrado
na Figura 1. Possui fases iniciais de ferrita pró-eutetóide e perlita.

Tabela 1 – Composição química em % (porcentagem) para o aço. Fonte: Chiaverini


(2005).
P
C S
ABNT Mn (manganês) (fósforo)
(carbono) (enxofre)
1045 0,43 – 0,50 0,60 – 0,90 0,040 0,050

Figura 1 – Aço não temperado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1223
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Métodos
O forno utilizado para a têmpera nos aços é da marca NOVUS de controlador de
temperatura digital podendo atingir até 1200°C, conforme ilustrado na Figura 2.

Figura 2 – Forno utilizado.

O aço foi colocado no forno a uma temperatura de 850°C que é o somatório da


temperatura austenitização de 775°C mais 75°C que é obrigatório para a realização da
têmpera, esta soma foi feita através da análise do diagrama Fe-C (Figura 3) visto que o
percentual de carbono para o aço corresponde a 0,45%. A peça foi mantida ao forno por 1
hora e 30 minutos para a transformação da peça em 100% austenita.

Figura 3 – Diagrama Fe-C. Fonte: Chiaverini (2005).

Após o aquecimento, as peças foram resfriadas utilizando dois procedimentos: em


água e em óleo. O tempo utilizado para a retirada do aço e leva-lo para o recipiente contendo
200 mililitros de água calma a temperatura ambiente a aproximadamente 30°C foi de 3
segundos e a retirada da amostra do recipiente foi feita após 24 horas. Para o resfriamento em
óleo, o tempo utilizado para levar o aço até o recipiente contendo aproximadamente 4 litros de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1224
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

óleo calmo a temperatura ambiente foi de 5 segundos, assim como o resfriamento em água a
retirada da amostra do recipiente levou 24 horas.

A máquina de ensaio de dureza Rockwell C utilizada para o ensaio no aço é da marca


DIGIMESS com carga máxima de 60-150kgf e menor que 10kgf, ilustrado na Figura 4. Sua
esfera de contato possui formato cônico com diâmetro de 1/16-1/2 polegadas. Este ensaio foi
realizado antes e depois da têmpera para que se possa acompanhar a evolução do aço em
dureza. A norma para este ensaio é ASTM E18-05e1. Para a realização da metalografia foi
necessário a utilização dos equipamentos ilustrados nas Figuras 5 e 6.

Figura 4 – Durômetro de bancada.

Figura 5 – Máquina de polimento PANTEC com capacidade de rotação de 300 ou


600RPM.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1225
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 – Microscópio óptico.

3. RESULTADOS E DISCUSSÃO
Os dados fornecidos pelo durômetro antes e depois da realização do tratamento térmico
de têmpera são expostos pelas Figuras 7 e 8.

Figura 7 – Séries de ensaio ilustrada.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1226
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 8 – Média para os estados não temperado e temperado resfriado em água e óleo.

A micrografia das amostras resfriadas em água e óleo estão expostas através das
Figuras 09, 10, 11.

Figura 9 - Micrografia da amostra resfriada em água. F= Ferrita.

Figura 10 – Micrografia da amostra resfriada em óleo. F= Ferrita.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1227
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 11 - Micrografia da amostra não temperada. F= Ferrita.

A amostra de aço SAE 1045 em seu estado não temperado, observado na micrografia da
Figura 11, notou-se que a quantidade de ferrita é predominante em sua matriz e que através do
ensaio constatou-se dureza média de 23,4HRC. Através da análise da Figura 10 para a peça
resfriada em óleo, notou-se que em relação ao aço não temperado, houve uma considerável
diminuição de ferrita e também um aumento de 17,8 HRC, pois a média encontrada através
dos ensaios para este tipo de resfriamento foi de 41,2 HRC.
O resfriamento em água foi o que obteve a maior média de dureza com 47,9 HRC, que
representa um aumento de 24,5 HRC em relação ao estado do aço não temperado. Para esta
amostra, observado sua microestrutura na Figura 9, constatou uma presença menos frequente
de ferrita em sua matriz se comparado a amostra resfriada em água. Vale ressaltar que a
diminuição da microestrutura ferrítica está relacionado diretamente com o rearranjo dos
carbonetos formando novas fazes durante o resfriamento visto pelo diagrama de curvas TTT.

4. CONCLUSÃO
A diminuição quantitativa de ferrita na matriz das amostras de aço SAE 1045 temperadas
e resfriadas em água e óleo, resultou em um aumento significativo em dureza Rockwell C.
Portanto o meio de resfriamento foi de total influência quanto obtenção de dureza final.
A não formação da microestrutura martensita nas amostras resfriadas em água e óleo após
o tratamento térmico de têmpera, ocorreu devido aotempo gasto para o resfriamento ter
excedido a aproximadamente 0,5 segundos necessários para a formaçãos desta microestrutura.
Para a amostra resfriada em água, imediatamente após ter sido austenitizada a 850°C, no
âmbito de aumento de dureza, foi a que obteve melhores resultados, com 6,7 HRC a mais em
comparação com a que foi resfriada em óleo.

REFERENCES

Askeland, R.R.; Phulé, P.P. (2012). Ciência e Engenharia dos Materiais, 1ª ed., LTC, 112p.
Beer, F.P., (2006). Resistência dos Materiais, 3ª ed., Pearson, McGraw Hill.
Callister, J.W.D, (1999). Ciência e Engenharia de Materiais, 5ª ed.. LTC, 623p.
Chiaverini, V. (2005). Ciência dos Materiais, 2ª ed., Makron, 222p.
Hibbeller, R.C. (2010) Resistência dos Materiais. Rio de Janeiro, 4ª ed., LTC.
Van Vlack, L. H. (2004) Princípios de Ciência e Tecnologia de Materiais, 1 ed., São Paulo, Editora Campus.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1228
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

STUDY ON THE INFLUENCE OF DIFFERENT COOLING MEDIA WITH


RESULTING HARDNESS FOR SAE 1045 STEEL.

Abstract. For this work, the cylindrical test specimens of SAE 1045 steel were subjected to
tempering heat treatment, being austenitized at a temperature of 850 ° C and immediately
cooled in water and oil in order to compare their hardness found through testing. To monitor
the microstructural evolution in both samples after their respective cooling, metallography
was performed. The results obtained allow the evaluation of the material hardness and the
verification of the effects of the test performed on the microstructure.

Keywords: Quench heat treatment, SAE 1045 steel, Water and Oil cooling.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1229
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ESTIMATION OF THE OPTIMAL TIKHONOV REGULARIZATION PARAMETER


USING REDUCED DIMENSION MODEL

Lucas Correia da Silva Jardim1,2 - ljardim@iprj.uerj.br


Diego Campos Knupp1 - diegoknupp@iprj.uerj.br
Carlos Alberto Cruz Corona2 - carloscruz@decsai.ugr.es
Antônio José da Silva Neto1 - ajsneto@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil
2 Universidad de Granada, DECSAI - Granada, AN, Spain

Abstract. We present a method to reduce the computational cost of determining the Tikhonov
Regularization parameter. Methods such as the L-curve and the Fixed Point Iteration require
the inverse problem to be solved several times in order to determine the best regularization
parameter, leading to a high computational cost when the dimension of the problem is increased.
In this work we propose an alternative path to overcome this difficulty by solving a problem
with a smaller dimension. This solution is then used to obtain an estimate for the regularization
parameter of the complete model. The results are obtained in the scope of an inverse heat
transfer problem where it is necessary to determine the inlet temperature profile of a channel.
They showed that when the number of points of the low cost model is sufficiently large, the
respective estimate is reasonably good.

Keywords: Tikhonov Regularization, Heat Transfer, Inverse Problem, Fixed Point Iteration

1. INTRODUCTION

The function estimation problem is often an ill-posed inverse problem, meaning that the
presence of noise on the input (experimental data) renders severe oscillations on the obtained
solution. To overcome this behavior, one classical approach is to use a technique known as
Tikhonov Regularization (TR) (Tikhonov, 1963), which intends to solve this issue by penalizing
oscillatory solutions. This technique requires the fine tuning of the regularization parameter λ,
which is a positive scalar that multiplies the penalization term in the objective function.
Several methods can be found in the literature that deals with the problem of finding
the optimal λ, such as the L-curve (Hansen, 1992; Hansen & O’Leary, 1993), the Morozov
Discrepancy Principle (Morozov, 1984), the Fixed Point Iteration method (Bazán, 2008) and

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1230
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

others. For a more detailed review of these methods, the reader can see the work of Hansen
(1998).
In general, methods such the L-curve and the Fixed Point Iteration (FP) are very robust and
do not require prior information of the experimental error variance. They work by finding a
regularization parameter that balances the values of the objective function terms, i.e., equalizes
the least-squares and the regularization term. To do so, the L-Curve requires the computation
of several solutions of the inverse problem with different values of the regularization parameter,
then the squared norm of the regularized solution and the squared norm of the residue between
experimental data and calculated quantities are displayed against each other in a log-log plot.
This plot usually have a ”L” shape with distinctive horizontal and vertical parts, where the
corner is considered the region generated by the best regularization parameter. This idea is based
on the assumption that the corner region is where small changes in λ do not yield significant
changes on any of the terms. To select this region, the L-curve method chooses the λ which
maximizes the curvature of the log-log plot and this task is not always trivial (Bazán, 2008).
The FP uses the same principle, but λ is selected as the convergence of a series where each new
term is calculated by solving the problem once, where this series solution is the maximizer of
the curvature of the L-curve. Although the FP method is usually less computationally expensive
than the L-curve, both methods are affected when the dimension of the problem increases due
to the fact that they require the solution of the inverse problem to be obtained several times.
In this work we propose an approach to obtain an estimate of the optimal value of λ
for problems with large number of variables by solving an alternative problem with reduced
dimensions. This estimated value of λ can be set as initial value for starting the FP method, i.e.,
as the first term of the series. Then, it is expected that convergence will be reached much faster.
Tests are performed in the scope of a convective inverse heat transfer problem, where the
inlet temperature profile must be recovered given that some temperature measurements are
available at some position of the duct. To demonstrate the feasibility of the proposed technique,
we computed the optimal regularization parameter for problems with lower number of variables
by using the Fixed Point Iteration method. Then, each of this solution suggested a optimal value
for the model with higher number of variables.

2. DIRECT AND INVERSE PROBLEMS

2.1 Direct problem formulation

Consider the problem of determining the steady state temperature field of a


hydrodinamically developed and thermally developing fluid inside two parallel plates subjected
to a constant heat flux q, as presented schematically in Figure (1). Neglecting viscous
dissipation, free convection the axial conduction effects, the mathematical formulation that
describes the temperature field T (x, y) can be written as (Bokar & Özisik, 1995; Bejan, 2013;
Shah & London, 1978)

∂ 2 T (x, y) ∂T (x, y)
K = v(y)ρc p , (1a)
∂y 2 ∂x


∂T (x, t)
K = q, (1b)
∂y y=h

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1231
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

y K ∂T = q
∂y

T(0,y)= f(y) v(y) h

x
x=0 ∂T x=b
-K =q
∂y

Figure 1- Schematic representation of the parallel plates system system showing the height dependant
fluid velocity.


∂T (x, t)
−K = q, (1c)
∂y y=0

y y
v(y) = 6vm 1− (1d)
h h

T (0, y) = f (y) (1e)

where the thermophysical parameters k, ρ and cp are: the thermal conductivity, specific mass
and specific heat capacity, respectively. The term vm is the average velocity of the fluid inside
the walls.
The problem described by Eq. (1) is solved using the built-in routine ”NDSolve” of the
Mathematica system. The Finite Elements Method is used as option of the routine and the
mesh generated to discretize the domain is retangular with all the elements having the same
dimensions, i.e., the mesh is uniform. In this approach, the velocity field v(y) and the inlet
temperature f (y) are implemented as continuous functions, so the discretization needed to solve
the differential equation is performed automatically by the routine.

2.2 Inverse problem formulation

The inverse problem consists of estimating the inlet temperature profile f (y) given that
temperature measurements are available at some discrete positions on the channel. In this case,
the vector of unknowns contains temperatures values representing discrete points of f (y)

u = {T1 , T2 , ..., Tn }T , T1 = f (y1 ), T2 = f (y2 ), ..., Tn = f (yn ) (2)

where n is the total number of points used in the discretization of the sought function within the
inverse problem solution. The experimental measurements are simulated with

Tiexp = T (xexp , yi , f * ) + v, v ∼ N(0, σ 2 ), i = 1, 2, ..., Nd (3)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1232
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

where Nd is the total number of experimental data, f * is the exact inlet temperature profile, v
are random numbers drawn from a normal distribution centered at 0 with variance of σ 2 and xexp
is the position along x where the experimental data are acquired. Then, the objective function
is formulated as

Q(u) = ||Texp − T (u)||2 + λ2 ||Lu||2 (4)

where λ is the regularization parameter and L is the derivative operator matrix, chosen here as
the first derivative finite difference approximation. The operator ||.|| is the l2 euclidean norm.
Namely, we call the term ||Texp − T (u)|| as the residue norm and ||Lu|| as the regularization
norm.
The minimization of Eq. (4) is obtained with the Differential Evolution (Storn & Price,
1997) method with fixed number of iterations followed sequentially by the Nelder-Mead
(Nelder & Mead, 1965) algorithm with a specific stopping criterion. Further details of these
implementations are explained in the next sections.

3. TECHNIQUE DESCRIPTION

3.1 Fixed Point Iteration

The Fixed Point Iteration (FP) method main idea is to select the λ that minimizes the product
between the residue norm and the regularized solution norm as a function of λ (Bozzoli et al.,
2014). In other words, one must find the limit of the series

||Texp − T(u)||

λi+1 = , i = 1, 2, ... (5)
||Lu|| λi

where the residue norm and the regularization norm are obtained from the solution of the inverse
problem with λi . Therefore, it is necessary to perform the optimization cycle in order to obtain
the next term of the sequence.
A few aspects of this technique must be pointed. First of all, it is possible that the series will
not converge, the original work of Bazán (2008) presents an algorithm that deals with this issue.
Furthermore, to start the series, the author suggests that the regularization parameter should be
close to zero, i.e., λ0 → 0. Finally, the series is considered converged when |(λi+1 /λi ) − 1| ≤ 
being  a relatively small tolerance.

3.2 Reduced problem extrapolation

The objective of this extrapolation is to find an estimate for the initial λ of the series by
solving the inverse problem with a coarser discretization of the sought function, leading to
a problem of lower dimension. Once that the optimal regularization parameter λlow and the
regularized solution ulow of this problem is known, consider that one wants to determine the
optimal regularization parameter λhigh for a problem of higher dimension, i.e., more points on
the discretization of f (y), namely, uhigh . To solve this problem, one idea is to equalize the
regularization norms with their respective regularization parameters, yielding

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1233
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1- Exact values of the parameters of parameters of the direct and inverse problem.
Parameter Value Dimension Observation
k 0.0265 [W/m.K] Thermal conductivity
cp 1007.0 [J/kgK] Specific heat
ρ 1.1614 [kg/m3 ] Specific mass
h 0.128 [m] Spacing between plates
b 0.635 [m] Plates length
um 0.025 [m/s] Average fluid velocity
q 500 [ºC] Ambient temperature
Nd 101 - Number of experimental data
σ 0.50 [ºC] Standard deviation of the measurement errors

λ2low ||Lf ||2low = λ2high ||Lf ||2high (6)

where low and high are the indexes indicating the lower and the higher dimension inverse
problem, respectively. Then:

||Lu||low
λhigh = λlow (7)
||Lu||high

where λlow and ||Lu||low are known from the solution of the lower dimension problem. The
matrix Lhigh is simply the finite difference operator with the corresponding dimensions. Yet to
be determined is the term uhigh . Here some assumptions must be introduced, since we do not
have any solution u obtained with the the high model, the suggestion is to perform a linear
interpolation of ulow in order to generate uhigh .
Now it is possible to evaluate the whole expression of Eq. (7) to obtain an initial value for
λhigh since all the terms on the right-hand side are determined. In terms of computational cost,
this can be of great advantage if the estimated value of λhigh is reasonably good, meaning that
the higher dimension problem will be solved fewer times.

4. RESULTS AND DISCUSSION

Simulated experimental data The fluid considered on the heat transfer problem is air and
the considered properties are presented in Table 1. The experimental data are acquired with
101 evenly distributed measurements on the y direction at the horizontal position of x = b/5.
This acquisition of temperature can be achieved in real experiments by the use of infrared
thermography. In this work, the exact inlet temperature profile f (y) is a step function, which can
represent a stratified flow of magnitude 26.85 ºC in 0 < y ≤ h/2 and 46.85 ºC in h/2 < y ≤ h.
The experimental noise is then added to the exact solution by using a noise level of σ = 0.5 ºC
in Eq. 3.

Optimization The optimization is performed with the Differential Evolution (DE) and
Nelder-Mead (NM) methods. For every solution obtained, DE is started with a random
population of five times the dimension of u or 5 × n. Also for DE, the parameters of the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1234
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

λ = 0.0001 λ = 0.0068 λ = 0.0201 λ = 0.0442 λ = 0.1527


◆ ◆
50 ◆ ◆

◆ ◆ ◆ ◆ ◆◆◆ ◆◆
◆ ◆ ◆ ◆
◆ ◆
◆◆◆ ◆◆
45 ◆
◆ ◆◆ ◆
Temperature [ºC]


40 ◆
◆ ◆ ◆
35 ◆



30 ◆ ◆
◆ ◆ ◆ ◆
◆ ◆
◆◆◆ ◆
◆ ◆ ◆◆
25 ◆
◆ ◆ ◆◆
◆ ◆

0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12
y [m] y [m] y [m] y [m] y [m]

λ = 0.3746 λ = 0.4472 λ = 0.4723 λ = 0.4852 λ = 0.4901


50 Estimated
◆ ◆ ◆ ◆ Exact ◆
◆ ◆◆ ◆◆◆◆ ◆ ◆ ◆◆◆◆
◆◆ ◆ ◆◆◆◆◆◆◆ ◆ ◆◆◆◆◆◆◆ ◆

◆◆◆◆
◆◆

45
◆ ◆ ◆ ◆ ◆
Temperature [ºC]

40
◆ ◆ ◆ ◆ ◆
35

◆ ◆ ◆ ◆ ◆
30

◆◆◆
◆ ◆ ◆
◆ ◆◆◆◆◆◆ ◆ ◆◆◆◆◆◆ ◆ ◆◆◆◆◆◆ ◆ ◆◆◆◆◆◆ ◆
25 ◆ ◆◆ ◆◆ ◆◆ ◆◆

0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12 0.00 0.04 0.08 0.12
y [m] y [m] y [m] y [m] y [m]

Figure 2- Evolution of the solution obtained for different values of λ as the FP series converge.

method, namely crossover probability CR and differential weight F , must be defined by the
user. According to the original authors of the method and after some tests, we setted these
parameters as CR = 0.25 and F = 0.85, respectively. The method is stopped when 100
loops are completed. Then, all of the points from DE are used to start the NM algorithm.
The reflection, expansion, contraction and shrink coefficients are the ones considered standard,
which are, respectively, 1.0, 2.0, 0.5 and 0.5. Since the convergence of the FP series depends
on the solution found by this search, the stopping criterion chosen must be robust. Hence, the
iterative procedure of NM is stopped when the standard deviation of the objective function value
from every point of the simplex is less or equal to 0.05 [ºC]2 . The search is performed inside
the limits of -73.15 ºC to 326.85 ºC.

Computational experiments In order to test the proposed technique, we begin by solving


the problem with n = 21, without any auxiliary lower dimension problem. Starting with
λ0 = 0.0001 and stopping with  = 0.01. In Fig. 2 the evolution of the solutions for each
λ found in the series is presented. It is possible to observe how the solutions obtained for the
three initial values of λ are very unregularized when compared to the last six ones. In Fig. 3 the
evolution of λ is shown. It is possible to see how the convergence behave like a S-shape curve.
Now that the solution with n = 21 points is determined, we will present values also for the
problem solved with n = 31, which refers to the higher dimension problem. We tested values
of λ obtained from lower dimension problems with n = 6 to n = 13 points and their respective
estimated values of λhigh . This is shown in Tab. 2, where the column λ21 = 0.4923 is the best λ
found for n = 21 points and the column λ31 = 0.5957 for n = 31 points.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1235
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0.5 ◆ ◆ ◆


0.4

0.3

λi
0.2

0.1

0.0 ◆ ◆ ◆
0 1 2 3 4 5 6 7 8 9 10
i

Figure 3- Evolution of λ for every term of the series.

Table 2- Results obtained several λ and their respective λhigh estimatives.


n λlow λ21 = 0.4923 λ31 = 0.5957
6 0.2280 0.4570 0.5597
7 0.3232 0.6263 0.7225
8 0.2807 0.5135 0.5998
9 0.3030 0.5119 0.6048
10 0.3249 0.4996 0.6017
11 0.3402 0.4809 0.5893
12 0.3509 0.4957 0.5991
13 0.3753 0.5052 0.6050

As it is possible to observe in Tab. 2, the estimations for λhigh gets closer to the value
found by solving the high dimension problem itself. This is expected since the error of the
approximation reduces when the dimensions are closer. Another thing to notice is that the
regularization parameter found for n = 7 generated the highest value of λhigh . One possible
way to explain this is due to the organization of the points itself, where the error increases
depending on where the points are allocated.

5. CONCLUSIONS

This work proposed a technique aimed at obtaining an estimate for the Tikhonov
Regularization parameter. This is achieved by finding the optimal parameter of a problem
with reduced number of variables and then equalizing the norm of the regularized solutions.
Results show that this approach is feasible. Research must continue on testing this technique on
other inverse problems and also on the development of a more robust and automatic algorithm,
especially regarding 2D function estimation problems.

Acknowledgements

The authors acknowledge the financial support provided by CAPES—Coordenação de


Aperfeiçoamento de Pessoal de Nı́vel Superior (Finance Code 001), CNPq—Conselho Nacional
de Desenvolvimento Cientı́fico e Tecnológico, and FAPERJ—Fundação Carlos Chagas Filho

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1236
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de Amparo à Pesquisa do Estado do Rio de Janeiro. The authors also acknowledge the CAPES
PrInt program (Process Code 88887.469279/2019-00).

REFERENCES

Bazán, F.S.V. (2008), Fixed-point iterations in determining the Tikhonov regularization parameter.
Inverse Problems, 24, 3, 035001.
Bejan, A. (2013) Convection Heat Transfer. Fourth Edition Ed. Hoboken, Wiley, New Jersey, NJ.
Bokar, J.C., Özisik, M.N. (1995), An Inverse Analysis for Estimating the Time-Varying Inlet
Temperature in Laminar Flow Inside A Parallel Plate Duct, International Journal of Heat and Mass
Transfer 38 (1):39–45.
Bozzoli, F., Cattani, L., Rainieri, S., Bazán, F. S. V. and Borges, L. S. (2014). Estimation of the local
heat-transfer coefficient in the laminar flow regime in coiled tubes by the Tikhonov regularisation
method. International Journal of Heat and Mass Transfer, 72, 352-361.
Hansen, P.C., (1992), Analysis of discrete ill-posed problems by means of the L-curve. SIAM Review,
34, 4, 561-580.
Hansen, P.C. and O’Leary, D.P. (1993), ”The use of the L-curve in the regularization of discrete ill-posed
problems.” SIAM journal on scientific computing 14.6: 1487-1503.
Hansen, P.C. (1998), Rank-deficient and Discrete Ill-Posed Problems, SIAM, Philadelphia.
Morozov, V.A. (1984), Regularization Methods for Solving Incorrectly Posed Problems, Springer, New
York, NY.
Nelder, J. A., & Mead, R. (1965). A simplex method for function minimization. The computer journal,
7(4), 308-313.
Shah, R.K.E., London, A.L. (1978), Laminar Flow Forced Convection in Ducts. New York: Academic
Press, . V. 1. (Advances in Heat Transfer, 1)
Storn, R., Price, K. (1997). Differential evolution–a simple and efficient heuristic for global optimization
over continuous spaces. Journal of global optimization, 11(4), 341-359.
Tikhonov, A.N., (1963), Solution of incorrectly formulated problems and the regularization method.
Soviet Math. Dokl., 4, 1035-1038.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1237
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SIMULAÇÃO DO ESCOAMENTO BIFÁSICO EM UM TANQUE DE COMBUSTÍVEL


UTILIZANDO O MÉTODO LATTICE BOLTZMANN

Ana Paula Moreira de Freitas1 - ana.moreira@ufu.br


Francisco José de Souza2 - francisco.souza@ufu.br
1 Universidade Federal de Uberlândia, Faculdade de Engenharia Química - Uberlândia, MG, Brasil
2 Universidade Federal de Uberlândia, Faculdade de Engenharia Mecânica - Uberlândia, MG, Brasil

Resumo. Este trabalho tem como objetivo simular o escoamento bifásico em um tanque
de combustível usando o Método Lattice Boltzmann. A simulação foi realizada através da
utilização da biblioteca Palabos. O sloshing no tanque foi aproximado por um problema
de dambreak. As fases líquida e gasosa do combustível foram representadas por água e ar,
respectivamente. A pressão de impacto foi monitorada em uma parede do tanque e os resultados
foram semelhantes àqueles encontrados na literatura, o que indica o potencial do método em
análise.

Keywords: Método Lattice Boltzmann, Sloshing, CFD, Escoamento Bifásico, Palabos.

1. INTRODUÇÃO

Ao longo dos últimos anos, a Dinâmica dos Fluidos Computacional (CFD, do inglês
Computational Fluid Dynamics) tem tido um papel fundamental no desenvolvimento de
produtos mais eficientes, tais como aeronaves, automóveis e trens de alta velocidade. Além
de permitir a otimização do projeto, proporciona uma considerável redução do custo e do ciclo
de desenvolvimento, já que muitos experimentos dispendiosos e complexos não precisam ser
realizados. O CFD também revela-se como uma ferramenta essencial na compreensão e análise
de vários fenômenos cuja investigação experimental é difícil ou mesmo impossível em alguns
casos.
Apesar de sua extensiva aplicação no mundo moderno, os métodos comumente empregados
em CFD não têm uma base matemática sólida, e foram derivados, nas décadas de 80 a 90
com base nas equações de Navier-Stokes (NS) (Ferziger & Peric, 2013). De forma bastante
empírica, os métodos de discretização das equações de NS foram propostos e testados buscando-
se evitar os problemas comuns de instabilidade numérica relacionados à precisão finita dos
processadores digitais. Infelizmente, uma consequência do desenvolvimento destes métodos foi

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1238
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

o aumento da complexidade dos algoritmos envolvidos. Mesmo para problemas simples como
o escoamento laminar de um fluido em um canal, vários sistemas lineares envolvendo milhares
de incógnitas devem ser resolvidos, resultando em um custo computacional considerável. Para
escoamentos em regime turbulento, o tempo de CPU cresce conforme uma potência do número
de Reynolds, e a solução precisa em tempo hábil exige clusters de processadores. Os algoritmos
mais popularmente utilizados, da família SIMPLE (Ferziger & Peric, 2013), são inerentemente
ineficientes em função do chamado acoplamento pressão-velocidade. O avanço destas variáveis
deve ser contido para evitar divergência do conjunto de equações, o que exige várias iterações.
Como uma alternativa interessante à simulação das equações de Navier-Stokes, surge a
abordagem do Método Lattice Boltzmann (LB) (Succi, 2001; Wolf-Gladrow, 2005). Assim,
este trabalho tem como objetivo principal a simulação do escoamento bifásico em um tanque
de combustível através da utilização do método Lattice Boltzmann. Tal método foi escolhido
devido à sua capacidade de tratar fluxos multifásicos e multicomponentes sem a necessidade
de rastrear as interfaces entre as diferentes fases e, além disso, não há o chamado acoplamento
pressão-velocidade, pois a pressão é obtida de uma equação de estado algébrica, como será
visto adiante. Para realizar a simulação, foi utilizado um framework baseado no Método Lattice
Boltzmann chamado de Palabos, que não necessita de instalação e está disponível gratuitamente
sob os termos de uma licença AGPLv3 de código aberto. O download desse framework pode
ser realizado em link: http://www.palabos.org/.
Resumidamente, o método Lattice Boltzmann consiste na solução da equação de Boltzmann
(Chapman & Cowling, 1970), que por sua vez pode ser compreendida como análoga das
equações de NS em nível molecular. Essencialmente, a equação de Boltzmann descreve
a dinâmica espacial-temporal de uma grandeza estatística chamada função distribuição de
probabilidade (FDP). A principal vantagem desta abordagem em relação às equações de Navier-
Stokes é não estar limitada pela hipótese do contínuo, o que permite sua aplicação a uma
gama de problemas mais vasta. É possível, portanto, descrever o movimento de fluidos que
não se estejam no chamado regime hidrodinâmico. Além disso, o LB demonstra considerável
eficiência. O algoritmo é mais simples que aquele empregado na solução das equações do
contínuo, já que sistemas lineares não precisam ser resolvidos. De forma sintética, apenas
partículas com velocidade discreta e determinados pesos descrevem a FDP em cada ponto.
O avanço no tempo de um escoamento é descrito por duas operações explícitas: colisão e
advecção das partículas. As propriedades macroscópicas de interesse como velocidade são
simplesmente calculadas com base em médias em cada ponto. Conclui-se assim que é possível
descrever escoamentos complexos com este método com recursos mais modestos que aqueles
normalmente empregados na solução das equações de NS. Em função de sua simplicidade, a
extensão do método para aplicação em computação de alto desempenho (paralelização) é uma
tarefa bastante realizável, diferentemente das equações do contínuo.
Acerca da conhecida dificuldade de se representar bem geometrias complexas já há soluções
efetivas, como o refinamento adaptativo (www.palabos.org/). Há inclusive códigos
comerciais de uso bastante simples quando comparado aos softwares convencionais. Para
exemplificar, a Fig. 1 mostra a simulação de uma turbina eólica, realizada pelo software
XFLOW (http://www.xflowcfd.com/), com o movimento rotativo das pás. Esta
aplicação ainda representa um desafio para as técnicas convencionais de CFD, já que há a
necessidade de geração da malha a cada passo de tempo em função da movimentação das
fronteiras.
O fenômeno simulado no presente trabalho é conhecido por sloshing que, de forma
simplificada, significa qualquer movimento da superfície livre do líquido no interior do seu

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1239
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Simulação de uma turbina eólica, com movimento das pás, realizada com o software XFLOW
(http://www.xflowcfd.com/industries/view/energy).

recipiente. A geração e propagação de ondas devido a uma aceleração lateral gera um


movimento oscilatório por conta do deslocamento deste líquido em busca da posição de
equilíbrio. Essas ondas gravitacionais são extremamente energéticas e devido a distribuição
de forças, momentos, pressões e frequências naturais da superfície livre são provocados efeitos
sobre a estabilidade dinâmica e desempenho dos reservatórios móveis (Ibrahim, 2005). Este
fenômeno físico é de grande importância devido a sua aplicabilidade. O problema de sloshing
em recipientes móveis ou estáticos é uma grande preocupação na indústria aeroespacial e civil,
para engenheiros nucleares, físicos, projetistas de caminhões tanques e navios petroleiros, e
também para matemáticos (Ibrahim, 2005).
Para exemplificar algumas aplicações é possível citar: projetos de reservatórios de líquidos
posicionados no topo de edifícios elevados com a finalidade de controlar oscilações devidas
a terremotos; efeitos desestabilizantes em navios petroleiros e plataformas do tipo FPSO
(Floating Production, Storage and Offloading Unit) e FSO (Floating Storage and Offloading
Unit); estudos da influência do sloshing em veículos lançadores de satélites e em espaçonaves,
pois o movimento do líquido no interior de sua estrutura altera suas propriedades de inércia
e simetria (Junior, 2017), um exemplo deste problema foi o primeiro pouso lunar da missão
Apollo 11 quando, pouco antes do pouso, o sloshing causado pelo combustível restante
provocou um movimento oscilatório do Módulo Lunar (de cerca de 2-3 graus), prejudicando
seriamente a segurança da manobra de aterrissagem (Veldman, 2006).
Assim, o estudo das forças sobre um tanque em movimento acelerado permite prever
o movimento do combustível, tornando possível a redução de ruídos, otimização da forma
geométrica do tanque, e de sua localização.
Este trabalho foi organizado da seguinte forma: a Seção 2. discorre brevemente sobre o
método empregado na simulação do sloshing. A Seção 3. apresenta as hipóteses assumidas
na modelagem matemática e suas equações governantes, bem como informações sobre as
simulações desenvolvidas. Na Seção 4. são analisados os resultados obtidos. Por fim, na Seção
5. encontram-se as principais conclusões do trabalho.

2. O MÉTODO LATTICE BOLTZMANN

O método Lattice Boltzmann pode ser visto como um método intermediário entre as
simulações de dinâmica molecular (MD, do inglês Molecular Dynamics) e a abordagem
contínua de simulação das equações de transporte de massa, momento e energia. Ao não
considerar o comportamento de cada partícula isoladamente, nem de uma grande quantidade
de partículas em um nó, volume ou elemento do domínio discretizado (na ordem de 1016

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1240
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

partículas), mas sim o comportamento de um conjunto de partículas como uma unidade,


referindo-se a ideia principal de Boltzmann, que é preencher a lacuna entre a microescala
e a macroescala, estando na chamada mesoescala (Mohamad, 2011). As propriedades deste
conjunto de partículas são representadas por funções de distribuição. Na Fig. 2 são
exemplificados os três métodos brevemente discutidos. A Fig. 3 ilustra a representação de
partículas reais em um volume em contraste com a representação do LB.

Figura 2- Técnicas de simulação.

Figura 3- Representação de partículas reais em um volume em contraste com a representação em lattice


D3Q19 do LB.

2.1 Formulação Matemática

Considerando um sistema que pode ser descrito estatisticamente por uma função de
distribuição f (r,c,t), que representa o número de partículas no instante t entre r e r + dr,
as quais têm velocidades entre c e c + dc. Uma força externa F agindo sobre uma partícula de
unidade de massa altera a sua velocidade de c para c + F dt, e sua posição de r para r + cdt,
como mostra à esquerda na Fig. 4.

Figura 4- À esquerda, vetor posição e velocidade para uma partícula antes e após a aplicação de uma
força F . À direita, representação em lattice para modelo bidimensional D2Q9 (acima) e unidimensional
D1Q3 (abaixo).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1241
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O número de partículas f (r,c,t) antes da aplicação da força externa é igual ao número de


partículas após a perturbação, f (r + cdt, c + F dt, t + dt), considerando não haver colisões entre
as mesmas. Entretanto, se ocorrem colisões entre as partículas há, então, uma diferença líquida
entre o número de partículas no intervalo drdc. Portanto, a Equação de Lattice Boltzmann
discretizada é dada por:
∆t eq
fi (r + ci ∆t, t + ∆t) = fi (r,t) + [f (r,t) − fi (r,t)] (1)
τ i
em que, o segundo termo do lado direito da equação representa a taxa de alteração entre os
estados final e inicial da função distribuição e é chamado de operador de colisão Ω. ∆t
representa o passo no tempo, τ está associado ao coeficiente de difusão na escala macroscópica,
representando um tempo de relaxamento para a função distribuição de equilíbrio (fieq (r,t)) e
esta, por sua vez, mede a diferença para alcançar o estado de equilíbrio após uma perturbação,
conforme Fig. 4 à esquerda. Os subscritos i caracterizam um conjunto de velocidades discretas
(i = 0, ..., m) conectando os nós de um lattice regular, conforme Fig. 4 à direita e Fig. 3,
de acordo com a dimensão e número de ligações adotados. O lattice D3Q19 (3 dimensões
e 19 velocidades), foi utilizado na modelagem do problema tratado neste trabalho e pode ser
visualizado à direita na Fig. 3.
A Eq. (1) é resolvida em duas etapas: colisão e advecção. O lado esquerdo corresponde a
uma representação de velocidade exata de advecção, enquanto o lado direito descreve a colisão
das partículas. A forma mais usual da função de equilíbrio local é dada pela Eq. (2). Tal
expressão vem da função de distribuição de Maxwell expandida em série de Taylor até os termos
de segunda ordem e com número de Mach baixo (~u/cs << 1), em que cs é a velocidade do som
(Mohamad, 2011; Freitas,P 2019). Assim, a equação é semelhante
P em lattice de um Maxwelliano
local com densidade ρ = i fi e velocidade de fluxo ~u = i fi ci /ρ.

fieq = λωi A + B~ ci · ~u)2 + Du2


 
ci · ~u + C(~ (2)

em que, A, B, C e D são constantes a serem determinadas para cada problema com base
no princípio de conservação de massa, momento e energia, λ é um parâmetro escalar, como
densidade (ρ) ou temperatura, e ω = 1/τ é a frequência de colisão. Note que, a relação se dá de
forma quadrática, pois manteve-se somente os termos de segunda ordem e este cálculo depende
necessariamente de informações acerca do sistema investigado, tais como velocidade do fluido e
algum parâmetro escalar, e informações referentes à mesoescala, como as velocidades discretas
nos lattices, além da frequência de colisão que pode ser vista como uma medida da perturbação
causada no sistema, já que depende do tempo de relaxamento para a função distribuição de
equilíbrio e esta, por sua vez, dá a medida da diferença do estado de equilíbrio do sistema após
uma perturbação nele.

3. METODOLOGIA

Para o modelo de superfície livre, a simulação realizada descreve a evolução de um fluido


inicialmente confinado em um tanque retangular. Uma das paredes laterais é removida de modo
que o fluido entre em um domínio confinado maior. Para isso, a Palabos utiliza um modelo de
superfície livre inspirado em um método de volume de fluido e realizando algumas adaptações,
foi possível estudar o comportamento do sloshing, observando a distribuição de velocidade e
a pessão de impacto em uma das paredes do tanque ao longo do tempo. A versão utilizada

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1242
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

foi a Palabos 2.0, por apresentar algumas ferramentas necessárias na solução do problema aqui
abordado, tais como: fluidos multifásicos, fluxos de superfície livre (abordagem volume de
fluido), modelo LES de Smagorinsky para turbulência de fluidos, Modelo BGK e arranjo de
lattice D3Q19. Esta versão também oferece um código exemplo semelhante ao necessário para
a simulação do escoamento bifásico em um tanque com condição de baixo enchimento.
O fluxo de um fluido viscoso, homogêneo e incompressível é descrito pela conservação de
massa e momento dado pelo LB.

3.1 O sloshing

Em geral, o sloshing é um fenômeno de superfície livre não-linear envolvendo movimentos


altamente transitórios. Por esta razão, o estudo do mesmo só era possível por meio de métodos
experimentais. Contudo, as ferramentas computacionais de CFD contribuem para o estudo
deste fenômeno, mas requerem métodos de simulação numérica que sejam capazes de lidar
com este tipo de não-linearidade e o método Lattice Boltzmann é um bom candidato, uma
vez que, este trabalho envolve a simulação de um escoamento bifásico e o LB possibilita o
tratamento conveniente para este tipo de fluxo, não sendo necessário rastrear as interfaces entre
as duas fases. A parcela do código adaptado na Palabos para este trabalho pode ser acessado
em https://github.com/anapaulamoreira/sloshingTankFuel.

3.2 Superfície Livre e Condições de Contorno

Nas paredes do tanque foram utilizadas condições de contorno sem deslizamento ~u = 0.


Na superfície livre, as tensões normal e tangencial são dadas por (3) e (4), respectivamente.
∂un
−p + 2µ = −p0 + σκ (3)
∂n
 
∂un ∂ut
µ + =0 (4)
∂t ∂n
em que un e ut são as componentes normal e tangencial da velocidade, respectivamente, p0 , é
a pressão atmosférica, σ é a tensão superficial, κ denota a curvatura total da superfície livre e µ
é a viscosidade dinâmica do fluido. O ângulo entre a superfície livre e a parede é denominado
ângulo de contato, e na simulação foi utilizado um ângulo de contato estático com valor de 80°.
Na Palabos, a modelagem da superfície livre é feita por meio da classe FreeSurfaceFields3D.

3.3 Hipóteses para Simulação

Uma maneira de escrever a pressão em função da densidade do fluido utilizando o LB é


p = c2s ρ, em que cs é a velocidade do som (Mohamad, 2011). Mas, para o cálculo numérico,
a conversão entre o espaço LB (mesoscópico) e o espaço físico (macroscópico) é essencial,
devido o comprimento e tempo discretos no modelo numérico. Desta forma, faz-se necessário
uma normalização para a densidade do fluido (Huang et al, 2019). Desta forma, na Eq. 5, a
subtração (ρ∗ − 1) normaliza a matriz de densidades de forma que ao espaço vazio seja atribuído
p = 0, o que é coerente, pois o fluido está confinado em um tanque fechado. Quando multiplica-
2
se essa subtração por ∆x
∆t2
ρ, chega-se na unidade Pascal para a pressão (Freitas, 2019). Portanto,
a equação implementada para o monitoramento da pressão, dada em Pascal, foi:
∆x2
p = c2s (ρ∗ − 1) ρ (5)
∆t2
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1243
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

em que cs é a velocidade do som, ρ∗ é a densidade em unidades de lattice, ∆x e ∆t representam,


o incremento no espaço em metros e no tempo em segundos, respectivamente. Por fim, ρ é a
densidade física do fluido. ρ∗ é obtido através do método computeDensity() da classe Cell
implementada na Palabos.
O objetivo aqui é monitorar a pressão de impacto na parte inferior da frente do tanque e
avaliar seu comportamento com o encontrado na literatura. Abaixo pode-se observar a posição
de interesse.

Figura 5- À esquerda é representada a posição de interesse para monitorar a pressão no tanque. À direta
é apresentado o tanque com o volume de fluido a ser liberado.

À esquerda da Fig. 5, pode-se visualizar uma representação do tanque e o ponto P onde é


monitorada a pressão de impacto. Nota-se que esse ponto é próximo à parede esquerda do plano
yz, na metade exata do comprimento em y. Foi considerado desta forma, pois é razoável pensar
no posicionamento real de um sensor neste ponto.
Para a modelagem do escoamento bifásico foi utilizada a densidade da água ρ = 1000kg/m3
em unidades físicas ou ρ∗ = 0 em unidades de lattice para representar o combustível líquido, e
a densidade do ar ρ = 1,29kg/m3 em unidades físicas ou ρ∗ = 1 para representar a mistura de
gases dentro do tanque. No cálculo da tensão superficial para modelagem da superfície livre foi
definido um valor de densidade vazia ρempty = 1. Esse valor é o recomendável nas simulações
LB para manter a maior precisão possível nos cálculos. Usar valores mais altos pode afetar a
precisão e, por fim, a estabilidade numérica do LB.
Foi utilizado um tanque com dimensões 3,22 ×1 ×1 m com um volume de 1,992 ×1 ×0,55 m
de água a ser liberado, conforme mostrado à direita na Fig. 5. Estas dimensões foram adotadas
para que fosse possível realizar comparativos com resultados reportados por Veldman (2006).

4. RESULTADOS E DISCUSSÕES

Os parâmetros de entrada do programa foram: viscosidade cinemática em unidades físicas:


1 × 10−6 m2 /s; Número de Bond: 100; Ângulo de contato: 80°; Número de nós de lattice em z
no tanque: 100; Passo no tempo: 1 × 10−4 s; Número de iterações: 80000. dA partir do número
de iterações e do passo de tempo, sabe-se que a simulação teve um tempo total de t = 8 s.
Na Fig. 6 é possível observar a evolução da magnitude da velocidade do fluido dentro do
tanque entre os tempos t = 0,02 s e t = 2,59 s. Além disso, nota-se a diminuição da quantidade
de movimento logo após o impacto com a parede vertical esquerda, decrescendo ainda mais

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1244
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

quando o escoamento tende a retornar em direção à parede vertical direita e em seguida para a
esquerda novamente, repetindo este movimento oscilatório. Isso ocorre devido a condição de
contorno de não-escorregamento, que impõe que a velocidade do escoamento rente a parede
inferior do tanque seja nula, e à viscosidade do fluido, que faz com que o fluido atrite consigo
mesmo, aumentando assim a resistência ao escoamento, pois uma parcela do fluido tende a se
mover em uma direção enquanto a outra tende a se mover na direção oposta, estando estas duas
parcelas em contato. Além disso, o decréscimo na quantidade de movimento traz a diminuição
na formação de ondas. Um vídeo da simulação com a evolução da velocidade entre os tempos
t = 0 s e t = 8,0 s pode ser acessado pelo link https://youtu.be/mFMTyAKfTFY.

Figura 6- À esquerda, a evolução da velocidade nos tempos t = 0,02 s, t = 0,28 s e t = 0,90 s, de cima
para baixo. À direita, a evolução da velocidade nos tempos t = 1,17 s, t = 1,53 s e t = 2,59 s, de cima
para baixo.

A pressão de impacto ao longo do tempo foi obtida, porém, estes resultados mostraram-se
ruidosos. Com isso, foi utilizado um filtro passa-baixa com fator de filtragem de 0,1. O sinal de
pressão filtrado pode ser observado à esquerda da Fig. 7.

Figura 7- Histórico da pressão exercida pelo impacto de ondas sobre uma parede vertical. À esquerda,
resultados obtidos utilizando a Palabos. À direita, resultados obtidos experimentalmente e em simulação
por Veldman (2006).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1245
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Fig. 7, é possível observar que o comportamento obtido (à esquerda) é muito próximo


ao encontrado na literatura (à direita), conforme Veldman (2006) que apresenta resultados
experimentais e de simulação com ênfase nos métodos de Navier-Stokes. Tal comportamento
tem como característica ressaltante o pico máximo de pressão que ocorre no momento do
choque da primeira onda na parede esquerda, em seguida esta onda caminha na direção contrária
e após o choque na parede direita retorna colidindo novamente na parede esquerda formando
um pico secundário de menor amplitude. O restante do perfil mostra a formação de ondas
menos violentas e íngremes, devido à modificação da pressão hidrostática pela aceleração
vertical da água, perdendo a magnitude de sua força neste movimento de vai e vem. Por fim,
o escoamento entra em equilíbrio e a pressão torna-se estável com valor quase constante até o
fim da simulação. Segundo Peregrine (2003), o campo de pressão está associado a propagação
e reflexão das ondas no tanque. Observa-se também que os tempos apresentados nos eixos das
abcissas são diferentes e isso se dá por coleta de dados de pressão em posição distinta. Porém o
comportamento apelidado por "church roof" é o mesmo, bem como as dimensões adotadas para
a geometria do tanque.
Além disso, à esquerda na Fig. 7, identifica-se o perfil típico da pressão obtida na parede
vertical esquerda do tanque. No gráfico, é possível notar a formação de dois picos. O primeiro
e de maior amplitude acontece devido à inércia do fluido, ocorrendo em um pequeno intervalo
de tempo na ordem de milissegundos. E o segundo ocorre devido à pressão hidrostática causada
pelo movimento descendente da onda.

Figura 8- Momento em que há impacto de fluido pela segunda vez na parede vertical esquerda em
t = 5,62 s.
O pequeno aumento de pressão em t = 5,62 s, visto à esquerda na Fig. 7, ocorre quando
há um segundo impacto do escoamento na parede esquerda. A Fig. 8 mostra o momento exato
deste impacto.

5. CONCLUSÕES E TRABALHOS FUTUROS

O Método Lattice Boltzmann foi capaz de resolver problemas complexos envolvendo


escoamento bifásico e fluxo de superfície livre, mostrando resultados coerentes e próximos
aos encontrados na literatura.
A simulação realizada permitiu a obtenção do comportamento geral do sloshing, podendo
notar, principalmente, o histórico da pressão na parede vertical esquerda do tanque devido ao
impacto das ondas formadas pelo referido fenômeno. Além disso, foram observados resultados
qualitativos como os apresentados para a velocidade.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1246
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A utilização da versão 2.0 da biblioteca Palabos se mostrou trabalhosa, devido a falta


de documentação, não padronização dos algoritmos, não implementação das boas práticas
de programação e falha na comunicação entre a comunidade que a utiliza, não havendo
resposta a alguns questionamentos realizados nos fóruns destinados à troca de experiências
e conhecimentos. Uma alternativa seria a utilização de outras bibliotecas que implementam
o Método Lattice Boltzmann encontradas na literatura. Cabe ressaltar que o objetivo deste
trabalho não foi avaliar o desempenho da Palabos frente a outras bibliotecas, análise que será
considerada em trabalhos futuros.

Referências

Chapman S.; Cowling, T.G. (1970), The Mathematical Theory of Non-uniform Gases: An Account
of the Kinetic Theory of Viscosity, Thermal Conduction and Diffusion in Gases. [S.l.]: Cambridge
University Press.
Ferziger J.; Peric, M. (2013), Computational Methods for Fluid Dynamics. 3. ed. [S.l.]: Springer Verlag.
Freitas, A. P. M. (2019), Simulação do Escoamento Bifásico em um Tanque de Combustível. Projeto de
Conclusão de Curso. Faculdade de Engenharia Mecânica, Universidade Federal de Uberlândia, Minas
Gerais.
Huang, J.; Bao, C.; Jiang, Z.; Zhang, X. (2019), A general approach of unit conversion system in lattice
Boltzmann method and applications for convective heat transfer in tube banks. International Journal
of Heat and Mass Transfer.
Ibrahim, R. A. (2005), Liquid sloshing dynamics, theory and applications. [S.l.]: Cambridge.
Junior, D. P. C. (2017), Comportamento do sloshing em ambiente de microgravidade. Dissertação
(Mestrado). Instituto Nacional de Pesquisas Espaciais.
Mohamad, A. A. (2011), Lattice-Boltzmann Method: Fundamentals and Engineering Applications with
Computer Codes. [S.l.]: Springer.
Peregrine, D. H. (2003), Water-Wave Impact on Walls. Annual Review of Fluid Mechanics.
Succi, S. (2001), The Lattice Boltzmann Equation for Fluid Dynamics and Beyond (Numerical
Mathematics and Scientific Computation). [S.l.]: Oxford University Press.
Veldman, A. E. P. (2006), The simulation of violent free-surface dynamics at sea and in space. European
Conference on Computational Fluid Dynamics.
Wolf-Gladrow, D. A. (2005), Lattice-Gas Cellular Automata and Lattice Boltzmann Models. [S.l.]:
Springer.

SIMULATION OF BIPHASIC FLOW IN A TANK OF FUEL USING THE LATTICE


BOLTZMANN METHOD

Abstract. This work aims to simulate the two-phase flow in a fuel tank using the Lattice
Boltzmann Method. The simulation was performed using the Palabos library. Tank sloshing was
approached by a dambreak problem. The liquid and gaseous phases of the fuel were represented
by water and air, respectively. The impact pressure was monitored on a tank wall and the results
were similar to those found in the literature, which indicates the potential of the method under
analysis.

Keywords: Lattice Boltzmann Method, Sloshing, CFD, Biphasic Flow, Palabos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1247
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

EVALUATION OF THE FLEXURE BEHAVIOR OF EPOXY MATRIX


COMPOSITES WITH GUARUMAN FIBERS

Miriane Alexandrino Pinheiro¹ – mirialexandrino@gamil.com


Edemarino Araújo Hildebrando¹ – edemarino@ufpa.br
Alisson Clay Rios da Silva¹ – alissonrios@ufpa.br
Raphael Reis² – raphael.reis.a@gmail.com
Sérgio Neves Monteiro² – snevesmonteiro@gmail.com
Verônica Scarpini Candido¹ – scarpini@ufpa.br
¹Universidade Federal do Pará (UFPA) – Tv We 26, nº2, Cidade Nova, Ananindeua – PA, Brasil
² Instituto Militar de Engenharia (IME) - Praça General Tibúcio, Urca, Rio de Janeiro – RJ, Brasil

Abstract Over the past few years, the production of composite materials reinforced with
natural fibers, has aroused great interest in researchers and industries. The importance
of using natural fibers is mainly due to the advantages of using these fibers when
compared to synthetic fibers. Natural fibers have important characteristics,
such as being from a renewable source, low price, non-toxic nature, lightness
and biodegradability. Furthermore, these fibers can be found easily in nature,
and m particularly in the Amazon region, the Guaruman (Ischinosiphon arouma) is a
species abundant this region. From this plant, the fibers are removed, which are being
evaluated as an alternative for reinforcement in composite materials. Thus,
the objective of this work is to evaluate the flexural strength of epoxy matrix
composites with guaruman fiber reinforcement. The composites were produced with
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de
Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1248
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

incorporation of 10, 20 and 30vol% of volume of fiber. The mechanical properties of


the composites were evaluated in flexion according to the ASTM D 790 standard, and
the fractured region was analyzed by scanning electron microscopy (SEM). The results
obtained showed that the incorporation of guaruman fibers in an epoxy matrix did not
significantly alter the resistance module, and the fracture region analysis of the
composites showed an indicative of fragile fracture.

Keywords Composite materials. Guaruman fibers. Flexural strength.

1 INTRODUCTION

The use of natural fibers as possible reinforcing agents in composite materials


has been largely investigated in recent years. The use of natural fibers with as yet little
known mechanical properties are being investigated as potential reinforcing materials in
polymeric composites. This fact is mainly due to the differentiated properties that
natural fibers have, especially their biodegradability, low toxicity and low cost [1-7].
Global interest in sustainable products has increased due to concerns about
environmental conservation and the use of renewable materials. This fact has led
researchers to investigate the substitution of synthetic fibers by natural fibers in the
production of polymeric composite materials, decreasing the environmental impacts that
can be caused by the use of synthetic fibers [3-10]. Various researches and publications
on natural fibers and composite materials have been carried out. Sisal and jute are
examples of plant fibers that have proven to exhibit excellent mechanical properties,
and can be used for structural application and substitution of synthetic composites in
buildings and constructions [11-12]. Composites with incorporation of curaua fibers,
present good properties in tensile and flexural, the results present higher values when
compared with the matrix [13-14]. The incorporation of bamboo fibers into composite
materials showed excellent mechanical properties such as tensile strength, flexural and
impact [15-16].
The guarumã (Ischnosiphon arouma) is a plant native to the northern region of
Brazil, the rod taken from the stem of this plant have been used for centuries by
indigenous tribes and riverside communities in the production of crafts typical of the
region, of these can be removed fibers [17]. Guaruman fibers, which have advantages

1249
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

common to other natural fibers such as biodegradability, low cost and lightness, [18].
Preliminary studies are being carried out to evaluate the potential of Guaruman fiber as
reinforcement in polymeric composites, the results obtained indicate that this fiber has
good mechanical properties and can play a promising reinforcement in polymeric
composites [19].
In the present study, the mechanical behavior in flexural of epoxy matrix
composites reinforced with up to 30vol% of volume of continuous guaruman fibers was
evaluated.

2 Materials and Methods

The composites were made from the fibers extracted from the stem of the
guaruman plant, collected in the metropolitan region of Belém. The polymer matrix
used was epoxy resin based on bisphenol A (GY 250) and catalyst based on aliphatic
amine in stoichiometric ratio 2:1.
Initially, the stem of Guaruman was cut in an average length of 40 cm, and
brought to the oven for a period of 4 hours to 60 °C for drying process. Subsequently,
the fibers were shredded and cut in an average length of 15 cm. Fig. 1 shows the
guaruman plant and Fig.2 the extracted fibers.
Fig. 1: The guaruman plant

1250
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fig. 2: Extracted fibers

The test bodies were produced individually in silicone mold, where the resin was
poured over the fibers aligned longitudinally, the test bodies were removed from the
mold after 24h, period of curing the material. Composites with 10, 20 and 30% fiber
volume were produced.
The mechanical behavior of the composites has been assessed by the flexural
strength test following the guidelines of ASTM D 790 on the AROTEC WDW-100E 5
kN load cell test machine, the test was conducted at a displacement speed of the
machine head of 2 mm/min.
The results obtained were evaluated by analysis of variance (ANOVA), through
the F test with significance level of 5% for all tests.

3 Results and Discussion

The visual analysis of the composites tested in flexural presented in Fig. 3,


revealed that the fracture occurred in general, near the center of the length of the test
bodies. In addition, it is not visually possible to identify deformation, indicating that the
test bodies presented a fragile behavior.

1251
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fig. 3: Macroscopic aspect


of fracture of composites
tested in flexural

0% 10% 20% 30%

The graph of flexural strength, elastic modulus of epoxy matrix composites


reinforced with guaruman fibers is shown in Fig. 4 the tensile strength (a) and elastic
modulus (b), respectively.

1252
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fig. 4: Tensile strength (a) 120


and elastic modulus (b) of
epoxy matrix composites 110
reinforced with guaruman

Tensile strength (MPa)


fibers. 100

90

80

70
0 10 20 30

Volume fraction of fibers (%)


(a)
6

5
Elastic modulus (GPa)

0 10 20 30

Volume fraction of fibers (%)

(b)

The average results of flexural strength of composites incorporated with


guaruman fibers, showed a decrease in relation to the strength of pure resin, this fact
may be associated with a low adhesion of the fibers in the matrix, or even, the presence
of voids in the test bodies, which may be due to manual processing in the manufacture
of composites, which makes it difficult to impregnate the fibers in the resin. This same
pattern was observed in flexural strength studies of polymer matrix composites
reinforced with banana and jute fibers [21-23]. When taking into account the standard
deviation bars, no significant differences are observed, this factor can be confirmed by
the analysis of variance (ANOVA), shown in Table 1.

Table 1 Analysis of variance of the flexural strength of composites reinforced with


guaruman fibers.
Source of variation SS df MS F P-value F crit

1253
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Between groups 429,9254 3 143,3085 2,637385 0,077681 3,098391


Within groups 1086,747 20 54,33733

Total 1516,672 23

From the results obtained in the analysis of variance in Table 1, the calculated F
statistic (2.64) is lower than the critical F value (3.09). Thus, the mean flexural strengths
are not significantly different, considering the 95% confidence level. Therefore, it can
be said that the addition of guaruman fibers in an epoxy matrix does not significantly
influence the flexural strength of the composites.
The results presented in Fig. 3 (b) referring to the modulus of elasticity, show a
slight increase with the incorporation of guaruman fibers, however, when considering
the standard deviation bars, it is not possible to observe a significant difference in the
results. This behavior may be associated with a non-homogeneous distribution of fibers
in the matrix, due to the difficulty in processing the composites. The analysis of
variance (ANOVA) of the modulus of elasticity of composites reinforced with
guaruman fibers tested in flexural shown in Table 2.

Table 2 Analysis of variance in the flexural elasticity modulus of composites reinforced


with guaruman fibers.
Source of variation SS df MS F P-value F crit

Between groups 0,317107 3 0,105702 0,25468 0,857078 3,098391


Within groups 8,300822 20 0,415041
Total 8,617929 23

According to the analysis of variance, the value of the calculated F statistic


(0.25) is less than the critical F (3.09). Therefore, the elastic modulus means are not
significantly different with a 95% confidence level. Thus, it is possible to state that the
incorporation of guaruman fibers in epoxy matrix does not influence the elasticity
modulus of the composites tested in flexural.

4 Conclusions

1254
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The evaluation of the mechanical behavior in flexural of epoxy matrix


composites reinforced with up to 30vol% by volume of continuous guaruman fibers,
showed that the addition of fibers led to a decrease in the average values obtained for
this property, however, the statistical analysis proved that there was no significant
variation in these results.

References

[1] Gowda TY, Sanjay MR, Bhat KS, Madhu P, Senthamaraikannan P, Yogesha B.
(2018) Polymer matrix-natural fiber composites: An overview. Cogent
Engineering. 5(1):1446667.

[2] Jariwala H, Jain P. (2019) A review on mechanical behavior of natural fiber


reinforced polymer composites and its applications. Journal of Reinforced Plastics and
Composites. 38(10): 441-453.

[3] Sanjay MR, Madhu P, Jawaid M, Senthamaraikannan P, Senthil S, Pradeep S.


(2018) Characterization and properties of natural fiber polymer composites: A
comprehensive review. Journal of Cleaner Production. 172: 566-581.

[4] Rahman R, Putra SZFS. (2019) Tensile properties of natural and synthetic fiber-
reinforced polymer composites. In Mechanical and Physical Testing of Biocomposites,
Fibre-Reinforced Composites and Hybrid Composites. Woodhead Publishing. pp: 81-
102.

[5] Thakur VK, Thakur MK. (2014) Processing and characterization of natural
cellulose fibers/thermoset polymer composites. Carbohydrate polymers, 109: 102-117.

[6] Jeyapragash R, Srinivasan V, Sathiyamurthy S. (2020) Mechanical properties of


natural fiber/particulate reinforced epoxy composites–A review of the
literature. Materials Today: Proceedings. 22:1223-1227.

[7] Monteiro SN, Lopes FPD, Barbosa AP, Bevitori AB, Da Silva ILA, Da Costa LL.
(2011) Natural lignocellulosic fibers as engineering materials—an
overview. Metallurgical and Materials Transactions A. 42(10): 2963-2974.

[8] Benin SR, Kannan S, Bright RJ, Moses AJ. (2020) A review on mechanical
characterization of polymer matrix composites & its effects reinforced with various
natural fibres. Materials Today: Proceedings. doi.org/10.1016/j.matpr.2020.06.259.

[9] Maciel NDOR, Ferreira JB, da Silva Vieira J, Ribeiro CGD, Lopes FPD, Margem
FM, da Silva LC. (2018) Comparative tensile strength analysis between epoxy
composites reinforced with curaua fiber and glass fiber. Journal of materials research
and technology. 7(4): 561-565.

[10] Teixeira RS, Santos SF, Christoforo AL, Payá J, Savastano Jr H, Lahr FR. (2019)
Impact of content and length of curauá fibers on mechanical behavior of extruded

1255
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

cementitious composites: Analysis of variance. Cement and Concrete Composites. 102:


134-144.

[11] Ramesh M, Palanikumar K, Reddy KH. (2013) Mechanical property evaluation of


sisal–jute–glass fiber reinforced polyester composites. Composites Part B:
Engineering. 48: 1-9.

[12] Ekundayo G, Adejuyigbe S. (2019) Reviewing the Development of Natural Fiber


Polymer Composite: A Case Study of Sisal and Jute. American Journal of Mechanical
and Materials Engineering. 3(1): 1-10.

[13] Monteiro SN, Lopes FPD, Nascimento DCO, da Silva Ferreira A, Satyanarayana
KG. (2013) Processing and properties of continuous and aligned curaua fibers
incorporated polyester composites. Journal of Materials Research and Technology. 2(1):
2-9.

[14] Amorim FDC, Souza JFBD, Reis JMLD. (2018) The quasi-static and dynamic
mechanical behavior of epoxy matrix composites reinforced with Curaua
fibers. Materials Research. 21(3).

[15] Monteiro SN, Margem FM, de Oliveira Braga F, da Luz FS, Simonassi NT. (2017)
Weibull analysis of the tensile strength dependence with fiber diameter of giant
bamboo. Journal of Materials Research and Technology 6(4): 317-322.

[16] Lokesh P, Kumari TS, Gopi R, Loganathan GB. (2020) A study on mechanical
properties of bamboo fiber reinforced polymer composite. Materials Today:
Proceedings. 22: 897-903.

[17] de Melo Valente R, de Almeida SS. (2001) As palmeiras de Caxiuanã: informações


botânicas e utilização por comunidades ribeirinhas. Museu Paraense Emílio Goeldi.

[18] Pinheiro MA, Gomes LG, Silva ACRD, Candido VS, Reis RHM, Monteiro SN.
(2019) Guaruman: a Natural Amazonian Fiber with Potential for Polymer Composite
Reinforcement. Materials Research. 22. doi.org/10.1590/1980-5373-mr-2019-0092.

[19] Reis RHM, Nunes LF, Oliveira MS, de Veiga Junior VF, Garcia Filho FDC,
Pinheiro MA, Monteiro SN. (2020) Guaruman fiber: another possible reinforcement in
composites. Journal of Materials Research and Technology 9(1): 622-628.

[20] Reis RHM, Cândido VS, Nunes LF, Monteiro SN. (2019) Chemical and
Morphological Characterization of Guaruman Fiber. In Green Materials
Engineering. pp: 107-113.

[21] Gopalan V, Sharma SK, Jangid AK, Pragasam V, Satonkar N, Chinnaiyan P.


(2020) Investigations on Tensile and Flexural Characteristics of Fly Ash and Banana
Fiber-Reinforced Epoxy Matrix Composites. Engineering Transactions, 68(1), 89-101.

[22] Silva I. (2014) Propriedades e estrutura de compósitos poliméricos reforçados com


fibras contínuas de juta. Universidade Estadual do Norte Fluminense–UENF. Centro de
Ciências e Tecnologia. Tese de Doutorado. 110f.

1256
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

[23] Sood, M, Dwivedi G. (2018) Effect of fiber treatment on flexural properties of


natural fiber reinforced composites: A review. Egyptian journal of petroleum. 27(4):
775-783.

1257
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

INCORPORAÇÃO DA LAMA DE ALTO FORNO EM MASSA CERÂMICA


PARA PRODUÇÃO DE TELHAS

Roberta Costa¹ – superuteis@gmail.com


Alisson Clay Rios da Silva¹ – alissonrios@ufpa.br
Fernanda Santos da Luz² – fsl. santos@gmail.com
Sérgio Neves Monteiro² – snevesmonteiro@gmail.com
Verônica Scarpini Candido¹ – scarpini@ufpa.br
¹Universidade Federal do Pará (UFPA) – Tv We 26, nº2, Cidade Nova,
Ananindeua – PA, Brasil
² Instituto Militar de Engenharia (IME) - Praça General Tibúcio, Urca, Rio de
Janeiro – RJ, Brasil

Abstract This work has the objective to evaluate the granulometry and the plasticity
index of the addition of up to 10% by wt of blast furnace sludge to a clay slag
constituted of strong and weak clay from the municipality of São Miguel do Guamá-PA.
The sedimentation and sieving test and the plasticity were determined by determining
the Atterberg limit, allowing to delimit the appropriate regions to manufacture certain
products and classify the compositions in zones of optimal and acceptable extrusion.
The results showed that the clays are kaolinitic and that contributes to a good plasticity
since the residue does not modify the workability of the clays in the compositions

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de
Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1258
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

studied. The residue has a favorable granulometry and its incorporation of up to 5% by


wt is used for the production of tiles

Keywords Red Clay, waste.

1 INTRODUCTION

Com aproximadamente 42 fábricas, o município de São Miguel do Guamá,


localizado na região nordeste do Pará, a 144 km de Belém, é considerado o principal
distrito industrial cerâmico da região norte do Brasil. É responsável por mais de 3 mil
empregos diretos e fabricação mensal aproximada de 30 milhões de tijolos e 9 milhões
de telhas. Tem participação em 92% na oferta da produção estadual [1]. O volume de
produção é absorvido dentro do estado do Pará e uma pequena parte é distribuída ao
estado vizinho, o Maranhão [2].

Atualmente, observa-se que em muitas cerâmicas, há uma maior preocupação


em formular composições que apresentem melhores parâmetros tecnológicos e há maior
controle de qualidade do produto final. Essas mudanças no processo produtivo
proporcionam maior economia de energia e maior lucro no produto final [3].

Diversos tipos de resíduos são produzidos e as formas de descarte por vezes são
ineficientes ou inadequadas. Junkes (2011) [4] ressalta que nos últimos anos, a
reutilização de vários resíduos sólidos vem crescendo e a utilização desses materiais
como constituintes mássicos em cerâmica vermelha é uma alternativa viável para
descartar sem agredir o ambiente e melhorar as propriedades das peças cerâmicas.

Há estudos com adição de vários tipos de resíduos que podem ser incorporados
em massa argilosa para produção de peças de cerâmica vermelha e os resultados sobre
as propriedades tecnológicas têm se mostrado positivos. Dentre os diversos tipos de
resíduos que são incorporados à cerâmica vermelha destacam-se os resíduos de
siderurgia [5].

Estudo sobre a influência da lama de alto forno no comportamento tecnológico


de massas argilosas sinterizadas torna-se importante, pois esse resíduo é pouco utilizado

1259
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

para a produção de artefatos cerâmicos com possível aplicação no setor da construção


civil [6].

Contudo nota-se que não se tem conhecimento preciso da composição


mineralógica e das propriedades fundamentais para controle das etapas do
processamento de telhas cerâmicas. Nesse contexto, estudou-se dois tipos de argilas
oriundas de uma empresa do município de São Miguel do Guamá-PA e a lama de alto
forno proveniente da região sudeste paraense a fim de produzir peças com propriedades
exigidas por norma e, também, melhorar a etapa de processamento cerâmico. Dessa
forma, este trabalho tem por objetivo de estudar a granulometria e o índice de
plasticidade da incorporação da lama de alto forno em massa argilosa para produção de
telhas.

2 Materials and Methods

Para este trabalho foi utilizada uma argila forte e uma argila fraca cedida pela
Cerâmica Menegalli, localizada no nordeste paraense e o resíduo cedido por um
siderúrgica localizada no sudeste do estado do Pará.
As matérias-primas assim como o resíduo foram encaminhados para a etapa de
beneficiamento no Laboratório de Síntese de Materiais Cerâmicos – LASIMAC da
Universidade Federal do Pará.

As argilas e a lama de alto forno foram secas em estufa a 110oC por 24 horas e,
em sequência, foram desagregadas em um moinho de jarro em cerâmica sinterizada
sobre rolos motorizados da marca Marconi modelo MA 500/CFT por 30min.
Posteriormente foi feita a identificação da argila forte (AFO), argila fraca (AFR) e a
lama de alto forno (LAF).
Em seguida os materiais foram passados em peneira de 325 mesh, as argilas
forte e fraca foram encaminhadas para realizar a espectrometria de raios-x (EDS)
utilizando o equipamento espectrômetro de fluorescência de raios x EDS-720X, marca
Shimadzu e a lama de alto forno para realizar a fluorescência de raios-x (FRX)
utilizando o equipamento Axios Minerals da PANalytical a fim de determinar a
composição química. [H1] Comentário: Retire esse
Após essa etapa, foram elaboradas, três composições, assim definidas: uma dado, não iremos apresentar os
dado0s de frx e eds
somente com a argila forte e argila fraca (AFOAFR) e as demais correspondentes à
incorporação do resíduo na massa argilosa, nos percentuais de 5% (AFOAFR5LAF) e
10% (AFOAFR10LAF) em peso. Estas composições foram homogeneizadas com
adição de 8% de umidade, e em seguida, passadas em moinho de bola da marca WORK
INDEX, Série 005 para sua homogeneização por 30min. e, em seguida, passadas na
peneira de 35 mesh.

1260
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A distribuição de tamanho de partículas foi realizada pelo método combinado de


sedimentação e peneiramento, de acordo com a 7181/2016 [7]. Para a sedimentação
foram separadas 70g da amostra das argilas, do resíduo e das composições estudadas,
após passadas em peneiras de 200 mesh elas foram dispersadas em 125ml de água
destilada com adição de 5,71g de hexametafosfato de sódio e 1g de carbonato de sódio,
o material foi agitado até ficar submerso e deixado em repouso, por 24h. Após a solução
foi agitada durante 15min. por um dispersor e colocados em tubos de ensaio de 1.000ml
para iniciar a leitura da sedimentação. Baseando-se na Lei de Stokes (Equação 1), onde
a velocidade terminal de sedimentação depende do tamanho da partícula e viscosidade
do fluido determinado. A velocidade foi determinada por:

Onde:

V= velocidade terminal (m/s);


g= gravidade (m/s²);
d= representa diâmetro esférico equivalente da partícula (m);
ρ massa específica do material (kg/m³);
ρf = representa massa específica do fluido (kg/m³);
= viscosidade dinâmica do meio fluido (N.s/m²).

No método de peneiramento as amostras foram inicialmente passadas por um


peneiramento mais grosseiro (até a peneira de 2 mm – 10 mesh) e posteriormente por
um peneiramento mais fino (até a peneira de 0,075 mm – 200 mesh).
Com os resultados obtidos foi elaborado o gráfico da curva de distribuição do
tamanho das partículas que apresenta a fração “argila”, fração “silte e a fração “areia” e
o diagrama de Winkler que delimita as regiões apropriadas para a fabricação de
determinados produtos, como: região 1, tijolo maciço; região 2, blocos vazados; região
3, telhas; região 4, manilhas.
O ensaio de plasticidade foi realizado no Laboratório da Engenharia Civil – LEC
da UFPA, para todas as formulações já citadas e foi seguindo as normas 7180/2016 [8]
e 6459/2016 [9]. Assim a determinação do limite de Atterberg se dá pela técnica de
determinação de dois limites de consistência, conhecidos como limite de liquidez (LL) e
limite de plasticidade (LP).
O índice de plasticidade (IP) de Atterberg (Equação 2) é representado:
( )
Onde:

IP= índice de plasticidade;

LL= limite de liquidez;

P= limite de plasticidade.

O LL trata-se do máximo peso de água que pode ser adicionado a massa e que
permite que essa massa quando separada por uma ranhura se una novamente após 25

1261
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

golpes no aparelho Casagrande. Já o LP é o mínimo de água que pode ser adicionado a


massa e que permite que essa massa seja moldada em cilindros de 3 a 4mm de diâmetro
e 15 cm de comprimento.
Com o resultado do IP foi elaborado o prognóstico de extrusão que classifica as
argilas e as composições em zona de extrusão ótima e zona de extrusão aceitável.

3 Results and Discussion

A figura 1 apresenta a curva de distribuição granulométrica das argilas, do


resíduo e das composições estudadas.

Figura 1. Curva de distribuição do tamanho das partículas das argilas, dos resíduos das
composições estudadas.

Nota-se que tanto a AFO quanto AFR apresentam baixos percentuais de fração
“argila” o que se confirma que esse material é pouco argiloso, sendo a fração “silte” de
maior concentração granulométrica tanto na AFO quanto na AFR. Já a LAF não é
apresentada a fração “argila”, sendo a fração “areia” que apresenta maior índice
granulométrico.
Nas composições estudadas observa-se que a AFOAFR foi o que apresentou
baixo teor de fração “argila”, já as com adição do resíduo aumentou a fração “argila”
desses materiais, esse comportamento pode estar associado ao peneiramento dessas
massas, selecionando assim grãos menores.
Na figura 2 apresenta o diagrama de Winkler.

1262
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2. Diagrama de Winkler para as argilas, resíduo e composições estudadas.

Observa-se que a composição AFOAFR e AFOAFR5LAF está localizada no


setor 3, sugerindo que essa composições pode ser usadas para a fabricação de telhas,
objetivo deste estudo.
As argilas situam-se entre fração “silte” e fração “areia” comprovando os
resultados na curva granulométrica.
Já a lama de alto forno se apresenta no gráfico próximo ao 100% da fração
“areia”, já confirmado na figura 1, sugerindo então, que esse resíduo pode contribuir
para controlar a plasticidade das argilas.
Na figura 3 apresenta o prognóstico de extrusão das matérias-primas e das
composições estudadas.

Figura 3. Prognóstico de extrusão por meio dos limites de Atterberg.

Nota-se que a composição AFOAFR localiza-se no campo de extrusão ótima


sendo que as demais composições estão localizadas fora dos limites e que são
aceitáveis, sugerindo assim um ajuste de plasticidade, já que todos os materiais
apresentam alto teor de fração “areia” que confere baixa plasticidade em nossos
materiais.

1263
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Assim, pode-se inferir que a mistura entre a argila forte e a argila fraca
contribuiu para controlar a plasticidade das massas e que a utilização de até 5% em peso
da lama de alto forno favorece a produção de telhas.

4 Conclusions

Com o estudo conclui-se que as argilas cedidas pela empresa Cerâmica Menegalli são
de preeminência cauliníticas, assim essas argilas podem contribuir para uma boa
plasticidade do material uma vez que é o argilomineral responsável pelo
desenvolvimento da plasticidade em mistura com a água.
A lama de alto forno apresenta uma granulometria favorável à adição em massa
argilosa, da mesma forma que o resíduo não modifica a trabalhabilidade das argilas nas
concentrações estudadas, porém a sua adição não pode ultrapassar os 5%.
Assim, pode-se concluir que as composições AFOAFR e AFOAFR5LAF
apresentaram resultados favoráveis a fabricação de telhas
References

1 SEBRAE – Serviço Brasileiro de Apoio às Micros e Pequenas Empesas.


Cerâmica Vermelha: Estudos de Mercados. Setembro, 2008.
2 ROCHA, A. L.; BARTOLOMEU, A. O.; BOTELHO, J. L.; NEVES, R. M. A
produção industrial da cerâmica vermelha em São Miguel do Guamá e as recentes
inovações adotadas pelo segmento em âmbito nacional. Revista de arquitetura
da IMED. Passo Fundo, RS. v. 2, n.1, 2013, p. 01-09.
3 RAMOS, I. S.; ALVES, M. G.; ALEXANDRE, J. Diagnóstico do Polo Cerâmico
de Campos dos Goytacazes – RJ. Cerâmica Industrial, São Carlos, 11 (1) 2006.
4 JUNKES, J.A. Formulação de produtos cerâmicos a partir de resíduos
minerais usando o diagrama de fases do sistema SiO2-Al2O3-K2O. 2011. 148 f.
Tese (Doutorado em Ciências e Engenharia de Materiais). Universidade Federal de
Santa Catarina, Florianópolis, 2011.
5 DAS, B.; Prakash, S.; Reddy, P. S. R.; Misra, V. N. An overview of utilization of
slag and sludge from steel industries. Resources, Conservation & Recycling, In
Press. 2006.
6 DIAS, C. A. C. M. Reciclagem de lama de alto forno em cerâmica vermelha.
2011. 158 f. Tese (Doutorado em Engenharia e ciências dos materiais) –
Universidade do Norte Fluminense, Rio de Janeiro, 2011
7 ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS - ABNT NBR 7181
Determinação da análise granulométrica dos solos. Rio de Janeiro, (2016).
8 ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS - ABNT NBR 7180
Determinação de limites de plasticidade: método de ensaio. Rio de Janeiro,
(2016).
9 ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS - ABNT NBR 6459
Determinação do limite de liquidez: método de ensaio. Rio de Janeiro, (2016).

1264
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTIMAÇÃO DE PROPRIEDADES TÉRMICAS EMPREGANDO O MÉTODO


DE MONTE CARLO COM CADEIAS DE MARKOV

Clarice Lessa G. da Fonseca1 – claricelessagdf@gmail.com


Josiele da Silva Teixeira1 – josyelly1@gmail.com
Antônio José da Silva Neto1 – ajsneto@iprj.uerj.br
1
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brasil

Resumo. Esse trabalho tem como objetivo a formulação e solução do problema inverso de
estimação de propriedades termofísicas empregando uma abordagem Bayesiana. O potencial
de aplicação dessa abordagem abrange diversas áreas da engenharia e indústria. Uma placa
termicamente fina é considerada na formulação do problema direto de condução de calor, cuja
solução é obtida via Método de Diferenças Finitas (MDF). O problema de estimação de
parâmetros é então formulado como um problema inverso, cujo objetivo é estimar
propriedades termofísicas da placa empregando o método de Monte Carlo com Cadeias de
Markov convencional (MCMC), implementado via Algoritmo de Metropolis-Hastings.

Palavras-chave: Condução de Calor, Método de Diferenças Finitas, Inferência Bayesiana,


Métodos de Monte Carlo com Cadeias de Markov.

1. INTRODUÇÃO

A determinação de propriedades físicas de materiais, que consiste na sua caracterização


macroscópica, tem sido o objeto de estudo de grande parte da comunidade científica nos últimos
anos. Sua importância emerge da necessidade de diversos setores industriais em obter materiais
com propriedades físicas e químicas bem definidas e com pequenas incertezas. Pode-se
destacar, por exemplo, a indústria de desenvolvimento de materiais não-homogêneos, como a
de nanocompósitos, que lida com o problema de caracterização das propriedades físicas de seus
produtos, caso a caso, com o intuito de garantir sua eficiência em uso, visto que, existem
inúmeras possibilidades de composição das fases e arranjo de cada uma (Danes et al., 2003;
Kumlutas e Tavman, 2006). Dessa forma, desenvolver materiais novos de alto desempenho é
de grande importância na evolução da indústria moderna, onde tais avanços são utilizados em
grande parte dos produtos de uso cotidiano com alto impacto social. Portanto, estimar
propriedades materiais tornou-se uma prioridade para a indústria (Cuevas, 2015).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1265
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Destacada a importância da estimação de propriedades físicas materiais, o presente


trabalho propõe a aplicação da inferência Bayesiana para a formulação e solução do problema
de identificação de propriedades térmicas da placa termicamente fina. Devido a sua grande
aplicabilidade e eficiência, os métodos Bayesianos estão, cada vez mais, sendo utilizados pela
comunidade científica para resolução de problemas em diversas áreas de interesse (Malakoff,
1999). Permitir que informações a priori sobre os parâmetros a serem estimados sejam
incorporadas ao processo de estimação é uma de suas grandes vantagens, assim como a
facilidade de incorporá-las em um contexto formal de decisão, o tratamento explícito das
incertezas do problema e a habilidade de assimilar novas informações em contextos adaptativos
(Costa, 2004). Nesta abordagem, as grandezas do problema são modeladas como variáveis
aleatórias e ao final do processo, obtém-se uma aproximação da Função Densidade de
Probabilidade (PDF) a posteriori dos parâmetros de interesse, da qual é possível inferir várias
propriedades estatísticas, tais como média, desvio padrão e intervalos de credibilidade (Teixeira
et al., 2020). As vantagens inerentes à aplicação da inferência Bayesiana na solução de
problemas inversos de transferência de calor aumentaram significativamente o interesse da
comunidade científica por esse tema, onde diversas aplicações podem ser encontradas na
literatura especializada, como pode ser visto, por exemplo, nos trabalhos de Orlande et al.
(2008), Mota et al. (2009), Knupp et al. (2012), Abreu et al. (2014).
O presente trabalho tem como objetivo a formulação e solução dos problemas direto de
condução de calor unidimensional e inverso de estimação de propriedades térmicas de uma
placa termicamente fina. Para a solução do problema direto será utilizado o Método das
Diferenças Finitas (MDF). Já o problema inverso será resolvido a partir de uma abordagem
Bayesiana, onde será empregado o método de Monte Carlo com Cadeias de Markov
convencional (MCMC), implementado a partir do algoritmo de Metropolis-Hastings.

2. FORMULAÇÃO DO PROBLEMA DIRETO

No presente trabalho, a modelagem do problema direto foi realizada considerando a versão


homogênea do problema de condução de calor unidimensional, em uma placa termicamente
fina, descrita em Knupp et al. (2013). A temperatura média 𝑇𝑚 é estabelecida ao longo da seção
transversal da placa, direção 𝑧, via formulação clássica dos parâmetros concentrados (Ozisik,
1993; Naveira-Cotta et al, 2010 e 2011), a troca de calor por condução é considerada apenas na
direção 𝑥 ∈ [0, 𝐿𝑥 ] e atuam efeitos de convecção e radiação. Admite-se que, em z = 0, a
superfície da placa é parcialmente aquecida por uma resistência elétrica. A resistência possui
0,04 m x 0,04 m nas direções 𝑥 e 𝑦, estando fixa na metade superior da placa, enquanto a metade
inferior é termicamente isolada. A Figura (1) apresenta o sistema para a formulação do
problema direto.
Segundo Incropera et al. (2008) é possível determinar a equação que modela o sistema
através do balanço de energia, como segue

Ė𝑒𝑛𝑡𝑟𝑎 + Ė𝑔𝑒𝑟𝑎𝑑𝑎 − Ė𝑠𝑎𝑖 = Ė𝑎𝑐𝑢𝑚𝑢𝑙𝑎𝑑𝑎 (1)

Para o problema proposto, a Eq. (1) pode ser matematicamente escrita como

𝜕²𝑇𝑚 (𝑥, 𝑡) 𝑞′′ ℎ(𝑥 )[𝑇𝑚 (𝑥, 𝑡) − 𝑇∞ ] 𝜕𝑇𝑚 (𝑥, 𝑡) (2)


𝑘 + − = 𝜌𝑐𝑝
𝜕𝑥² 𝐿𝑧 𝐿𝑧 𝜕𝑡

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1266
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 - Representação esquemática do modelo de transferência de calor para identificação de propriedades


termofísicas (Torres, 2018).

após incorporar as condições de contorno em 𝑧 = 0 e 𝑧 = 𝐿𝑧 , onde, ℎ(𝑥 ) é o coeficiente de


troca térmica efetivo e leva em consideração os efeitos de convecção e radiativos e 𝑞 ′′ (𝑥 ) é o
fluxo de calor. Escrevendo

𝜌𝑐𝑝 = 𝑤 (3)

1
[ℎ(𝑥)𝑇∞ + 𝑞”] = 𝑃(𝑥) (4)
𝐿𝑧

onde 𝜌 é a massa específica, 𝑐𝑝 é o calor específico e 𝑃(𝑥 ) é um termo fonte, substituindo as


Eqs. (3) e (4) na Eq. (2), obtém-se

𝜕𝑇𝑚 (𝑥, 𝑡) 𝜕 2 𝑇𝑚 (𝑥, 𝑡) ℎ(𝑥 )𝑇𝑚 (𝑥, 𝑡) (5)


𝑤 − 𝑘 + = 𝑃 ( 𝑥 ); 0 < 𝑥 < 𝐿𝑥 , 𝑡 > 0
𝜕𝑡 𝜕𝑥 2 𝐿𝑧

A condição inicial é dada por

𝑇𝑚 (𝑥, 0) = 𝑇∞ , 0 ≤ 𝑥 ≤ 𝐿𝑥 (6)

e as condições de contorno do tipo Neumann são dadas por

𝜕𝑇𝑚 (0, 𝑡) (7.a)


−𝑘 = 0; t>0
𝜕𝑥

𝜕𝑇𝑚 (𝐿𝑥 , 𝑡) (7.b)


𝑘 = 0; t>0
𝜕𝑥

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1267
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os coeficientes 𝑤 e 𝑘 da Eq. (5) são as propriedades térmicas de interesse do material que


compõe a placa, onde 𝑤 é a capacidade térmica volumétrica e 𝑘 é a condutividade térmica. O
modelo descrito pelas Eqs. (5)-(7) descreve um típico problema de condução de calor transiente
unidimensional em uma placa termicamente fina, incluindo um fluxo prescrito em uma
superfície e perda de calor por convecção natural e radiação na superfície oposta. Além disso,
como a placa só é aquecida em uma determinada parte e em outra é isolada o fluxo de calor,
𝑞 ′′ (𝑥 ), ao longo da direção 𝑥, é modelado por

𝐿𝑥
𝑞 ′′ 𝑎𝑞 , 0≤𝑥≤
′′ ( )
𝑞 𝑥 = { 2 (8)
𝐿𝑥
0, < 𝑥 ≤ 𝐿𝑥
2
′′
Neste trabalho foi considerado 𝑞𝑎𝑞 = 440,5 W/m². Este valor foi escolhido de acordo com
experimentos reais realizados no Laboratório Patrícia Oliva Soares de Experimentação e
Simulação Numérica em Transferência de Calor e Massa - LEMA (Torres, 2018). O coeficiente
de troca térmica efetivo, ℎ(𝑥 ), leva em consideração a perda de calor da placa para a vizinhança,
na temperatura 𝑇∞ = 24 °C. Esta troca de calor envolve a convecção natural em uma placa
vertical e a linearização do fluxo de calor devido à radiação numa vizinhança na temperatura
𝑇∞ . Assumindo que as regiões com e sem aquecimento da placa possuem diferentes valores de
temperatura, o coeficiente de troca térmica efetivo pode ser modelado por uma função definida
por partes, sendo ela
𝐿𝑥
ℎ𝑥0 , 0≤𝑥≤
ℎ (𝑥 ) = { 2
𝐿𝑥 (9)
ℎ𝑥𝐿 , < 𝑥 ≤ 𝐿𝑥
2
onde ℎ𝑥0 = 17,0 W/m²K e ℎ𝑥𝐿 = 4,0 W/m²K. Estes valores também foram calculados
considerando o aparato experimental disponível no laboratório LEMA (Torres, 2018).

2.1. Método das Diferenças Finitas Explícito

O Método das Diferenças Finitas (MDF) é empregado para obtenção de uma solução
aproximada, fisicamente satisfatória, da equação que modela o problema físico abordado. De
modo geral, o MDF pode ser resumido em dois passos principais, o primeiro passo consiste na
discretização do domínio de interesse, i.e, a solução do problema deixa de ser contínua e passa
a ser calculada em pontos discretos da malha. No segundo passo, as derivadas do potencial
𝑇𝑚 (𝑥, 𝑡) são aproximadas por expansões de Taylor usando os nós da malha discretizada.
Conforme pode ser visto na Figura 2, o domínio contínuo (𝑥, 𝑡) é substituído por uma malha
computacional onde cada nó (𝑥𝑖 , 𝑡𝑛 ) é identificado pelo par de índices (𝑖, 𝑛).
Considerando o domínio discretizado, apresentado na Figura (2), e as expansões em séries
de Taylor para as derivadas, considerando diferenças avançadas no tempo e centradas no
espaço, cada um dos termos da Eq. (5) pode ser então aproximado por

𝑛+1 𝑛
𝜕𝑇𝑚 (𝑥𝑖 , 𝑡𝑛 ) 𝑇𝑚 𝑖 − 𝑇𝑚 𝑖 (10)
=
𝜕𝑡 ∆𝑡

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1268
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – Malha computacional com molécula de cálculo do MDF (Torres, 2018).

𝑛 𝑛 𝑛
𝜕²𝑇𝑚 (𝑥𝑖 , 𝑡𝑛 ) 𝑇𝑚 𝑖+1 − 2𝑇𝑚 𝑖 + 𝑇𝑚 𝑖−1 (11)
=
𝜕𝑥² ∆𝑥²
onde

𝑇𝑚 𝑛+1
𝑖
= 𝑇𝑚 (𝑥𝑖 , 𝑡𝑛+1 ), 𝑇𝑚 𝑛𝑖 = 𝑇𝑚 (𝑥𝑖 , 𝑡𝑛 ), 𝑖 = 1, … , 𝐼 − 1, 𝑛 = 1, … , 𝑁𝑡𝑓

𝑘
Utilizando as Eqs. (10) e (11) e considerando a difusividade térmica 𝛼 = 𝑤 [m²/s], a Eq.
(5) pode ser reescrita na forma discretizada como

𝛼∆𝑡 𝑛 ∆𝑡 ∆𝑡 (12)
𝑇𝑚 𝑛+1 = 𝑇𝑚 𝑛𝑖 + [𝑇𝑚
𝑛
− 2𝑇𝑚
𝑛
+ 𝑇𝑚
𝑛
] − 𝑇𝑚 ℎ 𝑖 + 𝑃
𝑖 ∆𝑥 2 𝑖+1 𝑖 𝑖−1 𝑖 𝑤𝐿
𝑧 𝑤 𝑖

A condição inicial discretizada é dada por


(13)
0
𝑇𝑚 (𝑥𝑖 , 0) = 𝑇𝑚 𝑖 = 𝑇∞, 𝑖 = 0, … , 𝐼

Para a representação das condições de contorno do problema original, Eqs. (7a) e (7b), pelo
Método das Diferenças Finitas, é considerado o uso de nós fictícios, permitindo, deste modo,
empregar diferenças centradas nos contornos. Então é possível escrever, para os contornos em
𝑖 = 0 e 𝑖 = 𝐼, respectivamente

𝑇𝑚 𝑛−1 = 𝑇𝑚 1𝑛 , 𝑛 = 1, … , 𝑁𝑡𝑓 (14)

𝑇𝑚 𝑛𝐼+1 = 𝑇𝑚 𝑛𝐼−1 , 𝑛 = 1, … , 𝑁𝑡𝑓 (15)

Como é considerada a abordagem explícita, o passo no tempo para este problema


marchante (e parabólico, do ponto de vista matemático), precisa ser escolhido de modo a
satisfazer
𝛼Δ𝑡 1
(Δ𝑥)2
≤ (16)
2

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1269
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. FORMULAÇÃO DO PROBLEMA INVERSO

A solução final do problema inverso pode ser consideravelmente afetada por incertezas,
que são inerentes aos erros experimentais e/ou ao modelo computacional, por exemplo. Tais
incertezas podem ser levadas em consideração a partir de uma abordagem probabilística, onde
os parâmetros do problema são modelados como variáveis aleatórias. Este tipo de
caracterização do problema é adotada na denominada inferência Bayesiana, cujo objetivo é
gerar uma distribuição de probabilidade a posteriori dos parâmetros de interesse, a partir de
informações a priori de seus valores e a partir de dados experimentais disponíveis.
Do ponto de vista Bayesiano, a solução do problema inverso, dadas as observações
experimentais 𝒁𝑬 , é uma função densidade de probabilidade a posteriori de 𝜷 = [𝑤, 𝑘]𝑇 ,
denotada por 𝑝(𝜷|𝒁𝑬 ), que pode ser escrita, de acordo com o teorema de Bayes, como

𝑝( 𝒁 𝑬 | 𝜷 ) 𝑝( 𝜷 ) (17)
𝑝( 𝜷 | 𝒁 𝑬 ) =
𝑝(𝒁𝐸 )

onde 𝑝(𝒁𝑬 |𝜷) é a função de verossimilhança (Schwaab e Pinto, 2007), 𝑝(𝜷) é a densidade de
probabilidade a priori de 𝜷 e 𝑝(𝒁𝐸 ) é a densidade marginal, que funciona como uma constante
de normalização.
Amostras da distribuição a posteriori dos parâmetros de interesse, cuja simulação direta é
inviável, podem ser obtidas através dos métodos de Monte Carlo via Cadeias de Markov
(MCMC), cuja ideia é simular amostras aleatórias no domínio do parâmetro 𝜷, de tal forma,
que convirjam para a distribuição a posteriori 𝑝(𝜷|𝒁𝑬 ), utilizando técnicas de simulação
iterativa, baseadas em cadeias de Markov.

3.1 Método de Monte Carlo com Cadeias de Markov Convencional

Algoritmos específicos são utilizados para a obtenção das cadeias de Markov, onde
neste trabalho será utilizado o algoritmo de Metropolis-Hastings, que faz uso de uma função
densidade de probabilidade auxiliar q, para obter amostras da distribuição de probabilidade a
posteriori 𝑝(𝜷|𝒁𝑬 ). O algoritmo pode ser especificado pelos seguintes passos (Kaipio e
Sommersalo, 2004).
Passo 1: Determinar um estado inicial para a cadeia 𝜷0 e atribuir 𝑗 = 1.
Passo 2: Gerar um candidato 𝜷∗ a partir da distribuição auxiliar 𝑞(𝜷∗ |𝜷𝑗−1 )
Passo 3: Calcular o fator de aceitação 𝛾 (Razão de Hastings)

𝑝(𝜷∗ |𝒁𝑬 )𝑞(𝜷∗ |𝜷𝑗−1 ) (18)


𝛾 = 𝑚𝑖𝑛 {1, }
𝑝(𝜷𝑗−1 |𝒁𝑬 )𝑞(𝜷𝑗−1 |𝜷∗ )

Passo 4: Gerar um número aleatório 𝑈 a partir de uma distribuição uniforme entre 0 e 1. Se


𝑈 ≤ 𝛾, 𝜷𝑗 = 𝜷∗ , caso contrário 𝜷𝑗 = 𝜷𝑗−1 .
Passo 5: Incrementar o contador 𝑗 para 𝑗 + 1 e voltar ao Passo 2, a fim de gerar a cadeia de
Markov (𝜷1 , 𝜷2 , … , 𝜷𝑁𝑚𝑐𝑚𝑐 ), onde 𝑁𝑚𝑐𝑚𝑐 é o tamanho da cadeia.
Os estados gerados até que a cadeia alcance o equilíbrio são denominados de amostras de
aquecimento, seu tamanho será denotado por 𝑁𝑏 . Tais amostras devem ser descartadas para que
se possa realizar inferência estatística dos parâmetros de interesse.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1270
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. RESULTADOS NUMÉRICOS

A solução do problema direto via Método das Diferenças Finitas Explícito é obtida
considerando uma placa com comprimento 𝐿𝑥 = 0,08m e uma malha computacional com 𝛥𝑥
= 1/ 4000 m e 𝛥𝑡 = 0,2 s. A Figura 3 apresenta a superfície solução obtida considerando o tempo
final 𝑡𝑓 = 7000 s.

Figura 3 – Superfície Solução para a Formulação MDF Explícito

Na Figura 4(a) estão as curvas de temperatura calculadas na placa para alguns instantes de
tempo. Percebe-se que as magnitudes de temperatura, entre as metades com e sem aquecimento,
são significativamente distintas. Na Figura 4(b) estão as curvas da solução numérica, calculadas
nos pontos 𝑥 = 0,02, 𝑥 = 0,04 e 𝑥 = 0,06 𝑚, em função do tempo. Mais uma vez é possível
observar que as maiores temperaturas são atingidas na posição 𝑥 = 0,02 𝑚. Nota-se também
que, em 𝑥 = 0,06 𝑚, ponto médio da metade não aquecida da placa, praticamente não há
variação de temperatura com o avanço do tempo.

(a) (b)
Figura 4 – (a): Distribuição da temperatura ao longo da superfície da placa (b): Variação da temperatura em
algumas posições ao longo do tempo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1271
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os resultados obtidos pelo Método das Diferenças Finitas Explícito foram consistentes
com os resultados apresentados na literatura especializada (Torres, 2018).
Considerando um regime estacionário, com base no problema direto, foi possível calcular
as temperaturas nas distintas posições da placa, que foram utilizados para calcular os dados
experimentais sintéticos, no qual considerou-se a presença de um ruído aditivo, com
distribuição gaussiana de média zero e desvio 𝝈 = 0,5𝑰𝑁𝑑 , onde 𝑁𝑑 o número de dados
experimentais e 𝑰𝑁𝑑 é a matriz identidade de ordem 𝑁𝑑 . Foram utilizadas cadeias de Markov
com 𝑁𝑚𝑐𝑚𝑐 = 5000 estados e um burn-in de 𝑁𝑏 = 2500 estados foi considerado para
inferência das propriedades estatísticas. As Figuras 5 e 6 e a Tabela 1 apresentam os
resultados obtidos considerando como estado inicial 𝜷0 = [𝑤 = 1,0 x 106 ; 𝑘 = 0,1].

Tabela 1 – Resultados da Estimação de parâmetros

Figura 5 – Evolução das Cadeias de Markov para w e k.

Figura 6 – Histogramas e PDFs a posteriori para w e k

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1272
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para o resultado obtido nesse trabalho, a taxa de aceitação foi de 50,44%. Analisando a
Figura 6 e a Tabela 1, pode-se observar que as cadeias de Markov obtidas apresentaram uma
rápida convergência, em torno de 500 estados, aproximadamente. Observa-se também erros
relativos pequenos, da ordem de 10−2 para a condutividade térmica 𝑘 e 10−3 para a capacidade
térmica volumétrica 𝑤, o que implica que os valores estimados estão próximos dos valores
exatos. As funções densidade de probabilidade a posteriori (PDFs) estimadas, Figura 7,
apresentaram um comportamento aproximadamente normal, mostrando que valores próximos
às médias estimadas apresentam alta probabilidade de ocorrência. Ressalta-se também que o
MCMC apresentou uma boa amostragem das PDFs a posteriori, consequência de uma
exploração adequada do domínio de busca dos parâmetros estimados. Além disso, os valores
exatos estão contidos nos intervalos obtidos com 95% de credibilidade. Os resultados obtidos
nesse trabalho empregando o MCMC demonstraram a eficácia dessa metodologia para a
estimação de propriedades termofísicas de uma placa termicamente fina.

5. CONCLUSÕES

O presente trabalho teve como objetivo principal a aplicação da abordagem Bayesiana na


estimação de propriedades termofísicas de uma placa termicamente fina. Apresentou-se uma
formulação do problema direto, cuja solução foi obtida empregando-se o Método das
Diferenças Finitas explícito. A solução do problema inverso foi obtida pelo método de Monte
Carlo com cadeias de Markov convencional implementado via Algoritmo de Metropolis-
Hastings. Observou-se que o método MCMC convencional, nas condições adotadas neste
trabalho, obteve resultados adequados, conseguindo estimar acuradamente a condutividade
térmica 𝑘 e a capacidade térmica volumétrica 𝑤.

Agradecimentos

Os autores agradecem o apoio financeiro fornecido pela Fundação Carlos Chagas Filho
de Amparo à Pesquisa do Estado do Rio de Janeiro (FAPERJ), pela Coordenação de
Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) – Código de Financiamento
001 e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

REFERÊNCIAS

ABREU, L. A. S.; ORLANDE, H. R. B.; KAIPIO, J.; KOLEHMAINEN, V.; COTTA, R. M.; QUARESMA, J. N.
N. "Identification of Contact Failures in Multilayered Composites with the Markov Chain Monte Carlo
Method". Journal of Heat Transfer, v. 136, 2014.
COSTA, W. U. “Técnicas bayesianas para engenharia elétrica”. Informe de pesquisa, p. 1–18, 2004.
CUEVAS, D. C. S. “Estimativa de parâmetros de materiais heterogêneos com o método de Monte Carlo com
cadeia de Markov”. Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia Mecânica,
COOPE, UFRJ, 2015.
DANES, F.; GARNIER, B.; DUPUIS, T. “Predicting, measuring, and tailoring the transverse thermal conductivity
of composites from polymer matrix and metal filler. International journal of thermophysics,” v. 24, n. 3, p.
771-784, 2003.
INCROPERA, F. P.; DEWITT, D. P.; LAVINE, A. S.; BERGMAN; T. L. “Fundamentos da Transferência de
Calor e de Massa”. Rio de janeiro: LTC, 2008. 6 a ed. p. 163-167; 589.
KAIPIO, J.; SOMMERSALO, E. “Statistical and Computational Inverse Problems”. 2004.
KNUPP, D. C.; NAVEIRA-COTTA, C. P.; AYRES, J. V. C.; COTTA, R. M.; ORLANDE, H. R.B. “Theoretical-
experimental analysis of heat transfer in nonhomogeneous solids via improved lumped formulation, integral
transforms and infrared thermography”. Journal of Thermal Sciences. v. 62, p. 71-84, 2012.
KNUPP, D.C.; NAVEIRA-COTTA, C. P.; ORLANDE, H. R. B.; COTTA, R. M. “Experimental identification of

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1273
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

thermophysical properties in heterogeneous materials with integral transformation of temperature


measurements from infrared thermography”. Experimental Heat Transfer, v. 26, n. 1, p. 1-25, 2013.
KUMLUTAS, D.; TAVMAN, I. H. “A numerical and experimental study on thermal conductivity of particle filled
polymer composites”. Journal of thermoplastic composite materials, v. 19, n. 4, p. 441-455, 2006.
MALAKOFF, D. M. “Bayes offers “new” way to make sense of numbers”. Science, v. 268, p. 1460–1464, 1999.
MOTA, C. A. A.; ORLANDE, H. R. B.; DE CARVALHO, M. O. M.; KOLEHMAINEN, V.; KAIPIO, J. P.
"Bayesian Estimation of Temperature-Dependent Thermophysical Properties and Transient Boundary Heat
Flux". Heat Transfer Engineering, v. 31, n. 7, p. 570-580, 2009.
NAVEIRA-COTTA, C. P.; ORLANDE, H. R. B.; COTTA, R. M. “Integral transforms and Bayesian
inference in the identification of variable thermal conductivity in two-phase dispersed systems”. Numerical
Heat Transfer, Part B: Fundamentals, v. 57, n. 3, p. 173-202, 2010.
NAVEIRA-COTTA, C. P.; COTTA, R. M.; ORLANDE, H. R. B. “Inverse analysis with integral transformed
temperature fields: Identification of thermophysical properties in heterogeneous media”. International
Journal of Heat and Mass Transfer, v. 54, n. 7-8, p. 1506-1519, 2011.
ORLANDE, H. R. B.; COLAÇO, M. J.; DULIKRAVICH, G. S. "Application of Bayesian Filters to Heat
Conduction Problems". In: EngOpt 2008 - International Conference on Engineering Optimization. Rio de
Janeiro, Brazil. 2008.
OZISIK, M. N. “Heat Conduction”. New York: John Willey, 1993.
SCHWAAB, M.; PINTO, J. C. “Análise de Dados Experimentais: I. Fundamentos de Estatística e Estimação de
Parâmetros”. Editora E-papers, 2007. ISBN 8576501368.
TEIXEIRA, J. S., STUTZ, L. T., KNUPP, D. C.; SILVA NETO, A. J. “A new adaptive approach of the Metropolis-
Hastings algorithm applied to structural damage identification using time domain data”, Applied
Mathematical Modelling, 82:587-606, 2020.
TORRES, M. P.; “Determinação de propriedades térmicas em problemas de condução de calor por inferência
Bayesiana com o Método de Monte Carlo Hamiltoniano”. Dissertação de Mestrado, Programa de Pós-
Graduação em Modelagem Computacional, Instituto Politécnico, UERJ, 2018.

ESTIMATION OF THERMAL PROPERTIES EMPLOYING MARKOV CHAIN


MONTE CARLO METHOD

Abstract. This work aims to formulate and solve the inverse problem of estimating
thermophysical properties employing a Bayesian approach. The potential for applying this
approach covers several areas of engineering and industry. A thermally thin plate is considered
in the formulation of the direct problem of heat conduction, whose solution is obtained via
Finite Difference Method (FDM). The parameter estimation problem is then formulated as an
inverse problem, whose objective is to estimate thermophysical properties of the plate
employing the Markov Chain Monte Carlo Method (MCMC), implemented via Metropolis-
Hastings Algorithm.

Palavras-chave: Heat Conduction, Finite Difference Method, Bayesian Inference, Markov


Chain Monte Carlo Method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1274
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MÉTODOS DE MONTE CARLO COM CADEIAS DE MARKOV ADAPTATIVO E


POPULACIONAL ACELERADOS PELO MÉTODO DE ACEITAÇÃO ATRASADA
APLICADOS A IDENTIFICAÇÃO DE DANOS ESTRUTURAIS

Josiele da Silva Teixeira1 - josyelly1@gmail.com


Leonardo Tavares Stutz1 - ltstutz@iprj.uerj.br
Diego Campos Knupp1 - diegoknupp@iprj.uerj.br
Antônio José da Silva Neto1 - ajsneto@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Resumo. O presente trabalho tem por objetivo a formulação e solução do problema inverso
de identificação de danos estruturais empregando Inferência Bayesiana. Para a solução do
problema direto, serão considerados o Método de Elementos Finitos (MEF) e o Modelo de
Superfı́cie de Resposta (MSR), parametrizados por um parâmetro denominado parâmetro de
coesão, o qual descreve continuamente a integridade da estrutura. O problema de identificação
de danos é então formulado como um problema inverso, cujo objetivo é estimar o parâmetro
de coesão da estrutura empregando os métodos de Monte Carlo com Cadeias de Markov con-
vencional, adaptativo e populacional. No entanto, devido ao alto custo computacional inerente
aos MEFs, será implementado uma combinação desses métodos com o método de aceitação
atrasada, onde o Modelo de Superfı́cie de Resposta será utilizado em substituição ao Método
de Elementos Finitos, com o objetivo de reduzir o custo computacional.

Keywords: Inferência Bayesiana, Métodos de Monte Carlo com Cadeias de Markov, Modelo
de Superfı́cie de Resposta, Método de Aceitação Atrasada

1. Introdução

A identificação de danos estruturais tem recebido grande atenção da comunidade cientı́fica


devido a grande importância em assegurar a integridade de diversas estruturas existentes na
sociedade, tais como pontes, navios, aviões, barragens, dentre outras. Acidentes envolvendo
a perda da integridade de estruturas importantes como essas traz à sociedade grande impacto
social e econômico. Por isso, estruturas importantes devem ter sua integridade avaliada perio-
dicamente para evitar deteriorações que as levem a sua total interdição ou, ainda pior, ao seu
colapso. Sendo assim, torna-se imprescindı́vel o desenvolvimento de técnicas apropriadas que
visam monitorar continuamente a integridade da estrutura, assim como detectar possı́veis danos
existentes na mesma, permitindo a implementação preventiva de ações eficientes de manutenção
e reparo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1275
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Sabendo da importância do monitoramento estrutural, o presente trabalho propõe a aplicação


da abordagem Bayesiana para a identificação de danos estruturais (Tanner, 1993). Nesta abor-
dagem, as grandezas do problema são modeladas como variáveis aleatórias e são utilizadas
Funções de Distribuição de Probabilidade (PDF) para incorporar, ao processo de identificação
de danos, informações prévias sobre os parâmetros a serem estimados (Costa, 2004; Malakoff,
1999). Ao final do processo, obtém-se uma estimativa da função de distribuição de probabili-
dade do parâmetro de de interesse. Neste trabalho, o Método dos Elementos Finitos (MEF) e o
Modelo de Superfı́cie de Resposta (MSR) serão utilizados para solução do problema direto que,
por sua vez, serão parametrizados pelo parâmetro de coesão da estrutura. O MSR será utilizado
no método de aceitação atrasada (DA, Delayed Acceptance) com o objetivo de otimizar o custo
computacional, visto que seu custo computacional é consideravelmente menor que o custo do
MEF, pois essa metodologia gera polinômios.
O problema inverso de identificação de danos é formulado de forma a atualizar os parâmetros
de coesão do modelo e a sua solução será obtida por meio de Inferência Bayesiana, onde será
empregado o método de Monte Carlo com Cadeias de Markov convencional (MCMC). No
entanto, apesar dos métodos MCMC convencionais serem robustos e eficazes na solução de
problemas inversos, eles podem apresentar algumas dificuldades em explorar adequadamente o
espaço de busca dos parâmetros. Sabe-se que a eficiência dos métodos MCMC pode ser me-
lhorada via ajuste cuidadoso da distribuição de probabilidade auxiliar utilizada (técnicas adap-
tativas) e utilização de técnicas mais sofisticadas de busca no domı́nio dos parâmetros (técnicas
populacionais). Dessa forma, também serão empregados o método MCMC adaptativo combi-
nado com o método de aceitação atrasada (AdpDA-MCMC) e o método MCMC populacional
adaptativo combinado com o método de aceitação atrasada (popAdpDA-MCMC). Os resultados
obtidos, assim como o custo computacional das metodologias empregadas serão comparados
entre si, afim de verificar a eficácia dessas mesmas na solução do problema de identificação de
danos estruturais. Um conjunto de resultados numéricos é apresentado, onde considera-se um
cenário de dano e um nı́vel de ruı́do para as metodologias de solução adotadas.

2. Formulação do Problema Direto

Neste trabalho, a integridade estrutural é considerada como sendo continuamente descrita,


no domı́nio do corpo, por um parâmetro estrutural denominado parâmetros de coesão β(x)
(Stutz et al., 2005). Este parâmetro está relacionado com a ligação entre os pontos materiais e
pode ser interpretado como uma medida do estado de coesão local do material, onde 0 ≤ β ≤ 1.
Se β = 1, considera-se que todas as ligações entre os pontos materiais foram preservadas. Se
β = 0, considera-se uma ruptura local. Considerou-se que o dano afeta apenas as propriedades
elásticas da estrutura. Deste modo, a matriz de rigidez do MEF da estrutura pode ser escrita
como
Z
K(βh ) = β(x)E0 I0 HT (x)H(x)dΩ (1)

onde H é o operador diferencial discretizado, E0 e I0 são, respectivamente, os valores nominais


do módulo de elasticidade e do momento de inércia de área e β representa o campo de coesão no
domı́nio elástico Ω da estrutura. Portanto, o parâmetro de coesão representa qualquer alteração,
provocada pela presença de danos estruturais, na rigidez à flexão da estrutura. Por simplici-
dade, considerando-se uma viga de seção transversal retangular e com módulo de elasticidade
uniforme, o campo de coesão pode ser escrito como

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1276
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

 3
h(x)
β(x) = (2)
h0

onde h0 e h(x), indicam, respectivamente, a espessura nominal e a espessura da viga na posição


x. O vetor de parâmetros nodais de coesão é definido como β = [β1 , β2 , . . . , βnp ]T , onde np
é o número total de parâmetros de coesão do modelo. Considerando um sistema com np graus
de liberdade, a equação de movimento obtida pelo método de elementos finitos (Reddy, 1984)
é dada

Mü + Du̇ + K(β)u = f (3)

em que u é o vetor de coordenadas generalizadas, M é a matriz de massa, D é a matriz de


amortecimento, K(β) é a matriz de rigidez e f é o vetor de carregamento.

2.1 Modelo de Superfı́cie de Resposta

No presente trabalho, a aplicação do Modelo de Superfı́cie de Resposta (MSR) tem o ob-


jetivo de relacionar explicitamente os parâmetros nodais de coesão estrutural (β1 , β2 , ..., βnp ),
que definem a integridade estrutural, e os elementos da matriz de flexibilidade G. Sendo assim,
para uma dada resposta escalar Gi,j , tem-se

Gi,j = f (β1 , β2 , ..., βnp ) + ε (4)

sendo f uma superfı́cie de resposta, βi é o valor do parâmetro de coesão no i-ésimo nó da


discretização espacial do campo de coesão, e ε representa o erro na predição do modelo. Em
geral, os parâmetros do modelo são codificados da seguinte maneira: xk = βk − 0.5(βl +
βh )/0.5(βh − βl ), k = 1, 2, ..., np , tal que xi ∈ [−1, 1], βl e βh são, respectivamente, os
valores mı́nimo e máximo dos parâmetros de coesão considerados na determinação do modelo
de superfı́cie de resposta. Dessa forma, a Eq. (4) pode ser reescrita como

Gi,j = f (x1 , x2 , ..., xn ) + ε (5)

Em muitos casos a relação explı́cita entre a resposta da estrutura e os parâmetros de interesse não
é conhecida. Nesse trabalho, será considerada uma função de resposta polinomial quadrática,
muito utilizada em problemas envolvendo dinâmica estrutural (Montgomery, 2006). Sendo
assim,
n
X n
X n X
X n
Gi,j = α0 + αk xk + αkk x2k + αkl xk xl (6)
k=1 k=1 k<l l=2

onde αk , αkk e αkl são os coeficientes da superfı́cie de resposta, que são determinados a partir
do método dos mı́nimos quadrados. Os parâmetros de entrada e saı́da do MSR são, respectiva-
mente, os parâmetros de coesão e a matriz de flexibilidade da estrutura, e sua determinação será
realizada considerando-se simulações numéricas a partir do MEF da estrutura. Para cada res-
posta escalar Gi,j determina-se uma superfı́cie de resposta, por simplicidade, será denominado
MSR o conjunto das superfı́cies de resposta.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1277
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. Formulação do Problema Inverso

A abordagem inversa é uma ferramenta muito eficaz para o ajuste de modelos computaci-
onais e permite a estimação dos parâmetros de interesse, onde leva-se em consideração dados
experimentais para ajuste de grandezas desconhecidas (Ozisik, 2000). Do ponto de vista Baye-
siano, a solução do problema inverso, dadas as observações experimentais a posteriori ZE , é
uma função de densidade de probabilidade de β, que pode ser escrita, de acordo com a fórmula
de Bayes, como (Tanner, 1993)

p(ZE |β)p(β)
p(β|ZE ) = (7)
p(ZE )
onde p(β) é a distribuição de probabilidade a priori do parâmetro de coesão, p(ZE ) é a den-
sidade marginal e p(ZE |β) é a verossimilhança. Amostras da distribuição a posteriori de in-
teresse, cuja simulação direta é inviável, podem ser obtidas a através dos métodos de Monte
Carlo com Cadeias de Markov (MCMC). Com base em cadeias de Markov, os valores são
gerados iterativamente. A ideia geral dos métodos MCMC é simular amostras aleatórias no
domı́nio do parâmetro β, de tal forma, que a distribuição estacionária das amostras convirja
para a distribuição a posteriori p(β|ZE ). Para isso, são utilizados algoritmos especı́ficos. Neste
trabalho, foi utilizado o algoritmo de Metropolis-Hastings que faz uso de uma função densidade
de probabilidade auxiliar q, da qual seja fácil se obter valores amostrais. Supondo que a cadeia
de um dado parâmetro de coesão esteja em um estado β i−1 , um novo valor candidato β ∗ será
gerado da distribuição auxiliar q(β ∗ |β i−1 ), dado o estado atual da cadeia β i−1 . O novo valor
β ∗ pode ser aceito com probabilidade dada pela Razão de Hastings (Hastings, 1970)

p(β ∗ |ZE )q(β i−1 |β ∗ )


 
γ = min 1, (8)
p(β i−1 |ZE )q(β ∗ |β i−1 )

3.1 Método de Monte Carlo com Cadeias de Markov Adaptativo

A eficiência do algoritmo de Metropolis-Hastings pode ser melhorada através de um ajuste


cuidadoso da distribuição auxiliar q. Este fato levou ao desenvolvimento de diferentes algorit-
mos MCMC adaptativos (adp-MCMC). Neste trabalho, considerou-se para cada parâmetro de
coesão, uma distribuição auxiliar uniforme com o suporte adaptativo, dado por (Teixeira et al.,
2020)
D0 se i < t0

i
D = (9)
i
γsd (β i−1 − B)2 se t0 ≤ i ≤ Nburn−in
i
em que i − 1 é o estado atual da cadeia e γsd é uma constante real, B é o valor nominal
do parâmetro de coesão. Com o objetivo de manter a taxa de aceitação (τ ) no intervalo τ̄ ∈
[15%, 50%], foi incorporada uma adaptação na constante γsd , que se inicia em 1 e é adaptada a
partir de t0 = 5000 estados como segue
 i−1
j γsd (1 − λi ) se τ̄ < 0.15
γsd = i−1 (10)
γsd (1 + λi ) se τ̄ > 0.5
Considerou-se ainda λj = Llow + (Lup − Llow )rj , Llow = 0.05, Lup = 0.15 e rj é um
número aleatório entre 0 e 1. Após o burn-in ambas as adaptações não são mais realizadas e
então o suporte segue constante e igual ao suporte obtido até o burn-in (Nburn−in ).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1278
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3.2 Método de Monte Carlo com Cadeias de Markov Populacional

Os Métodos de Monte Carlo com Cadeias de Markov populacionais (pop-MCMC) consis-


tem em uma população de cadeias de Markov que exploram uma distribuição alvo por meio
de uma série de distribuições intermediárias com temperaturas variadas. A ideia é que cadeias
em regiões de baixa densidade se movam em direção a cadeias em regiões de alta densidade,
para que a população convirja mais rapidamente na distribuição alvo. Analogamente ao MCMC
convencional, o pop-MCMC tem como objetivo amostrar de forma mais eficiente a distribuição
a posteriori de interesse p(β|ZE ), onde uma nova densidade composta a posteriori é obtida em
função do vetor de parâmetros composto β 1:Npop = (β 1 , β 2 , ..., β Npop ), como segue (Nichols
et al., 2011)

Npop
Y
1:Npop
pc (β |ZE ) = [p(ZE |β m )ζm p(β m )] (11)
m=1

onde ζm ∈ (0, 1], ζ1 = 1, ζm+1 = ζm − (1/Npop ), m = 1, . . . , Npop − 1, com ζ1 representando a


verdadeira distribuição a posteriori de interesse. Neste trabalho, o pop-MCMC foi implemen-
tado considerando a adaptação dada na Equação (9) e o Método de Aceitação, sendo nomeado
aqui de popAdpDA-MCMC e seu algoritmo é dado como segue:
Passo 0. Inicialize a população de cadeias β 0,1 , · · · , β 0,Npop ;
Para i = 1 : Nmcmc ;
Passo 1. Atualize β i,n , com n = 1, ..., Npop via algoritmo de Metropolis-Hastings adaptativo
combinado com o método de aceitação atrasada, com probabilidade de aceitação do movimento
γ;
Passo 2. Escolha aleatoriamente dois membros da população, β i,u e β i,v , com u, v ∈ {1, ..., Npop }.
A cada iteração da cadeia, faça uma escolha aleatória entre executar os passos 3 ou 4.
Passo 3. Execute o movimento de Evolução Diferencial (DE) para β i,u e β i,v com probabili-
dade de aceitação do movimento γ1,pop = min(1, γ1 ) e volte ao Passo 1.
Passo 4. Execute o movimento de Troca (Swap) entre β i,u e β i,v com probabilidade de aceitação
do movimento γ2,pop = min(1, γ2 ) e volte ao Passo 1.
As probabilidade de aceitação γ1 e γ2 podem ser encontradas em Teixeira (2018) e Nichols
et al. (2011).

3.3 Método de Aceitação Atrasada

Com o objetivo de reduzir o custo computacional, será utilizado o método de aceitação atra-
sada implementado em dois estágios. Seja π a densidade alvo com probabilidade de transição
0
p. O método da aceitação atrasada utiliza aproximações π com probabilidade de transição p0
(menos custosas computacionalmente) de π em dois estágios. No primeiro estágio, π é subs-
0
tituı́da por π na razão de Hastings, dessa forma o candidato é aceito ou não com probabilidade
0
α1 (β i−1 , β ∗ ). O segundo estágio é aplicado a todos os candidatos que passaram no primeiro
estágio e um candidato só é definitivamente aceito se passar em ambos os estágios. No estágio
0
dois a probabilidade de aceitação é dada por α2 (β i−1 , β ∗ ). A probabilidade de aceitação glo-
0 0
bal dada por γ = α1 (β i−1 , β ∗ )α2 (β i−1 , β ∗ ), assegura que a condição de reversibilidade seja
satisfeita com respeito a p, com (Sherlock et al., 2015)
" 0
#
∗ i−1 ∗
0 p (β |ZE )q(β |β )
α1 (β i−1 , β ∗ ) = min 1, 0 i−1 (12)
p (β |ZE )q(β ∗ |β i−1 )

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1279
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

" 0
#
0 p(β ∗ |ZE )p (β i−1 |ZE )
α2 (β i−1 , β ∗ ) = min 1, (13)
p(β i−1 |ZE )p0 (β ∗ |ZE )

4. Resultados Numéricos

Neste trabalho, considerou-se uma viga bidimensional de Euler-Bernoulli de aço e simples-


mente apoiada. Para solução do problema inverso de identificação de danos foram empregados
os métodos MCMC convencional, MCMC adaptativo com aceitação atrasada (AdpDA-MCMC)
e populacional adaptativo com aceitação atrasada (popAdpDA-MCMC). A viga foi espacial-
mente discretizada em 24 elementos. Os dados experimentais são obtidos a partir da resposta
impulsiva do sistema, dada pelo MEF, para um valor prescrito de β. O ruı́do foi simulado
indiretamente pela Razão Sinal Ruı́do, dada por
 
Ps
SNR = 10 log (14)
Pn

em que Ps e Pn correspondem à potência do sinal s e à potência do ruı́do n, respectivamente.


Neste trabalho utilizou-se apenas um nı́vel de ruı́do de 30dB para as simulações.
Para a obtenção dos dados utilizados no processo de identificação de danos estruturais,
considera-se um impulso de Dirac em x = 0, 2433m e a resposta impulsiva, dada em termos da
aceleração, foi medida na mesma posição. Foi considerado apenas o cenário com dois danos
nas posições x = 0, 5475m e 1, 2775m e ambos com uma altura relativa h(x)/h0 = 0, 8.
Um suporte constante D, com Dj = 0.0001, j = 2, ..., np − 1, onde β j ∈ [β j−1 −
D; min(β j−1 + D, 1.1)], é considerado para para o MCMC convencional. Já para os métodos
adpDA-MCMC e popAdpDA-MCMC, o processo de adaptativo do suporte se inicia após t0 =
5.000 estados utilizando a Eq (9). Utilizou-se uma cadeia de Markov com 100.000 estados e
um burn-in de 50.000 para todas as metodologias abordadas.
Como informação a priori, Ppr (β), foi utilizado, para as duas metodologias, uma distribuição
de probabilidade Normal com média 1, 0 e desvio padrão σpr = 0, 3.
A Tabela 1 apresenta as propriedades estatı́sticas da distribuição a posteriori dos parâmetros
de coesão β10 e β22 . A média a posteriori estimada (µest ), o desvio padrão (σest ), o erro relativo
entre o valor médio estimado e o valor exato, a taxa de aceitação (τ ) e também o erro ERM S
(Root Mean Squared) também são apresentados. A Tabela 2 apresenta os intervalos estimados
com 95% de credibilidade. A Figura 1 apresenta os campos de dano exatos e estimados, jun-
tamente com os intervalos com 95% de credibilidade correspondentes e as cadeias de Markov
para os parâmetros estimados.
Observa-se pela Figura 1 e Tabela 1 que os métodos AdpDA-MCMC e popAdpDA-MCMC
obtiveram resultados mais acurados em relação ao MCMC convencional, apresentando os me-
nores valores de ERM S e erros relativos, o que implica que os valores estimados estão próximos
dos valores exatos. Observa-se também boas taxas de aceitação para essas metodologias. Pela
Tabela 2 é possı́vel verificar que os valores exatos estão contidos nos intervalos obtidos com
95% de credibilidade, indicando com alto grau de credibilidade, que eles pertencem ao su-
porte das PDFs estimadas. Além disso, as cadeias de Markov obtidas apresentaram rápida
convergência.
Para o MCMC convencional observa-se que apesar da metodologia localizar os danos reais
da estrutura ele também identificou falsos danos com intensidades significativas e os intervalos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1280
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de credibilidade obtidos não contêm os valores exatos. Também é observado que o MCMC con-
vencional apresentou uma taxa de aceitação baixa, indicando assim um processo de estagnação
de suas cadeias de Markov.

1.05 1.1
µ est βexato Int. Credibilidade
1
1
0.9
0.95
0.8

β 2-24
h/h0

0.9 0.7

0.6
0.85
0.5
0.8
0.4
0 0.2 0.4 0.6 0.8 1 1.2 1.46 0 2 4 6 8 10
x(m) Nmcmc ×10 4
(a) MCMC (b) Cadeias de Markov - MCMC

1.05 1.1
µ est βexato Int. Credibilidade
1
1
0.9
0.95
0.8
β 2-24
h/h0

0.9 0.7

0.6
0.85
0.5
0.8
0.4
0 0.2 0.4 0.6 0.8 1 1.2 1.46 0 2 4 6 8 10
x(m) Nmcmc ×10 4
(c) AdpDA-MCMC (d) Cadeias de Markov - adpDA-MCMC

1.05 1.1
µ est βexato Int. Credibilidade
1
1
0.9
0.95
0.8
β 2-24
h/h0

0.9 0.7

0.6
0.85
0.5
0.8
0.4
0 0.2 0.4 0.6 0.8 1 1.2 1.46 0 2 4 6 8 10
x(m) Nmcmc ×10 4
(e) popAdpDA-MCMC (f) Cadeias de Markov - popAdpDA-MCMC

Figura 1- Identificação de danos e Cadeias de Markov

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1281
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Propriedades estatı́sticas para β10 e β22 (βexato = 0, 512).

Método MCMC AdpDA-MCMC popAdpDA-MCMC


0,648158 0,519493 0,504113
µest
0,684698 0,516679 0,514837
0,000500 0,004857 0,003074
σest
0,000935 0,004453 0,002994
0,265933 0,014634 0,015404
Er
0,337300 0,009138 0,005541
τ 3% 19% 35%
RMS 0,051257 0,005313 0,012717

Tabela 2- Intervalos de Credibilidade

Metodologia β10 β22


MCMC [0,646980; 0,648632] [0,682651; 0,685693]
AdpDA-MCMC [0,510411; 0,529281] [0,507982; 0,525351]
popAdpDA-MCMC [0,502603; 0,525167] [0,505977; 0,529486]

Com relação ao custo computacional, Tabela 3, o tempo de execução do MCMC foi de


aproximadamente 32 min enquanto que o tempo do AdpDA-MCMC combinado com o método
de aceitação atrasada foi de aproximadamente 16 min, ou seja, houve uma redução de 50% do
tempo, aproximadamente. Portanto, o método de aceitação atrasada logrou êxito em reduzir
significativamente o custo computacional do MCMC. É sabido na literatura que os métodos
populacionais (pop-MCMC), apesar de eficientes apresentam um custo computacional signifi-
cativamente alto, no problema abordado nesse trabalho o tempo foi de aproximadamente 3h e
15min (Vide trabalho de Teixeira (2018) para visualização desse resultado). No entanto, quando
combinado com o método de aceitação atrasada (popAdpDA-MCMC) esse custo é significati-
vamente reduzido, em torno de 1h 50 min, i.e. uma redução em torno de 56% do tempo com-
putacional em relação ao pop-MCMC, mostrando assim que o método de aceitação atrasada é
bastante eficiente na redução do custo computacional.

Tabela 3- Tempo computacional

Metodologia MCMC AdpDA-MCMC pop-MCMC popAdpDA-MCMC


Tempo 32 min 16 min 3h 15 min 1h 50 min

Com tudo que foi apresentado nesse trabalho, é possı́vel concluir que as técnicas adaptati-
vas e populacionais aqui abordadas lograram êxito em contornar as dificuldades apresentadas
pelo MCMC convencional, demostrando assim a eficácia desses métodos em identificar danos
estruturais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1282
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. Conclusões

O presente trabalho teve como objetivo principal a aplicação da abordagem Bayesiana na


identificação de danos estruturais. Apresentou-se uma formulação do problema direto, cuja
solução foi obtida através do MEF e do MSR. O campo dano estrutural foi modelado pelo
parâmetro de coesão estrutural (β). A solução do problema inverso foi obtida pelos métodos
de Monte Carlo com cadeias de Markov convencional e Adaptativo com aceitação atrasada e
populacional com aceitação atrasada, onde os métodos adaptativo e populacional combinados
com o método de aceitação atrasada obtiveram resultados mais acurados em relação ao método
MCMC convencional, conseguindo identificar acuradamente os danos existentes na estrutura.
Observou-se também que o método de aceitação atrasada logrou êxito em reduzir significativa-
mente o custo computacional do MCMC e do pop-MCMC.

Agradecimentos

Os autores agradecem o apoio financeiro fornecido pela Fundação Carlos Chagas Filho de
Amparo à Pesquisa do Estado do Rio de Janeiro (FAPERJ), pela Coordenação de Aperfeiçoamento
de Pessoal de Nı́vel Superior - Brasil (CAPES) – Código de Financiamento 001 e pelo Conselho
Nacional de Desenvolvimento Cientı́fico e Tecnológico (CNPq).

REFERÊNCIAS

Costa, W. U. (2004), “Técnicas Bayesianas para engenharia elétrica”. Informe de pesquisa, p. 1–18.
Hastings, W. K. (1970), “Monte Carlo sampling methods using Markov Chain and their applications”,
Biometrika, vol. 57 pp. 97–109 .
Kaipio, J.; Sommersalo, E. (2004) “Statistical and Computational Inverse Problems”, New York:
Springer-Verlag.
Malakoff, D. M. (1999), “Bayes offers “new” way to make sense of numbers”. Science, v. 268, p.
1460–1464.
Montgomery, D. C. (2006), Design and analysis of experiments, John Wiley and Sons.
Nichols, J., Moore, E. and Murphy, K. (2011), “Bayesian identification of a cracked plate using
a population-based Markov Chain Monte Carlo method, Computers and Structures, vol. 89 pp.
1323–1332.
Ozisik, M. N. and Orlande, H. R. B. (2000), “Inverse Heat Transfer: Fundamentals and Applications”,
1o ed., Taylor & Francis, New York.
Reddy, J. N. (1984), “An Introduction to the Finite Element Method”, McGraw-Hill, New York.
Schwaab, M., Pinto, J.C. (2007), “Análise de Dados Experimentais I: Fundamentos de Estatı́stica e
Estimação de Parâmetros”, E-papers, Rio de Janeiro.
Sherlock, C., Golightly, A. and Henderson, D. A. (2015), Adaptive, delayed-acceptance MCMC for
targets with expensive likelihoods. Journal eprint arXiv:1509.00172, 1, 1-50.
Stutz, L. T., Castello, D. A. and Rochinha, F. A. (2005), A flexibility-based continuum damage identifi-
cation approach. Journal of Sound and Vibration, 279, 641–667.
Tanner, M. A. (1993), “Tools for Statistical Inference: Methods for the exploration of posterior distri-
butions and likelihood functions”. New York: Springer Verlag.
Tanner, M. A. (1993), “Tools for Statistical Inference: Methods for the exploration of posterior distri-
butions and likelihood functions”. New York: Springer Verlag.
Teixeira, J. S., Stutz, L. T., Knupp, D. C.; Silva Neto, A. J. (2020), “A new adaptive approach of the
Metropolis-Hastings algorithm applied to structural damage identification using time domain data”,
Applied Mathematical Modelling, vol. 82, pp. 587-606
Teixeira, J. S. (2018), “Estratégias populacionais, adaptativas e de aceitação atrasada em métodos de
Monte Carlo com cadeias de Markov para a identificação de danos estruturais em vigas”. Tese de
Doutorado, IPRJ/UERJ, Nova Friburgo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1283
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

MARKOV CHAIN MONTE CARLO CONVENTIONAL, ADAPTIVE AND


POPULATION METHODS ACCELERATED BY THE DELAYED ACCEPTANCE
METHOD APPLIED TO STRUCTURAL DAMAGE IDENTIFICATION

Abstract. This work aims to formulate and solve the inverse problem of structural damage
identification employing Bayesian Inference. For the solution of the direct problem, the Finite
Element Method (FEM) and the Response Surface Model (RSM) will be considered, parame-
terized by a parameter called cohesion parameter, which continuously describes the integrity
of the structure. The damage identification problem is then formulated as an inverse problem,
whose objective is to estimate the cohesion parameter of the structure using the Markov Chain
Monte Carlo Method conventional, adaptive and population methods. However, due to the high
computational cost inherent to MEFs, a combination of these methods will be implemented
with the Delayed Acceptance Method (DA), where the Response Surface Model will be used to
replace the Finite Element Method, in order to reduce the computational cost.

Keywords: Bayesian Inference, Markov Chain Monte Carlo Method, Response Surface Model,
Delayed Acceptance Method

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1284
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MÉTODO DE MONTE CARLO COM CADEIAS DE MARKOV APLICADO À


ESTIMAÇÃO DE PARÂMETROS VISCOELÁSTICOS

Douglas Ferraz Corrêa1 - dferrazc@gmail.com


Josiele da Silva Teixeira1 - josyelly1@gmail.com
Antônio José da Silva Neto1 - ajsneto@iprj.uerj.br
Leonardo Tavares Stutz1 - ltstutz@iprj.uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brazil

Resumo. O presente trabalho visa a formulação e solução do problema inverso de estimação


de propriedades mecânicas de um sistema mecânico discreto, empregando uma abordagem
Bayesiana. Na formulação do problema direto será considerado um sistema mecânico dis-
creto com amortecimento viscoso e viscoelástico. Nesse trabalho, o problema de estimação de
parâmetros é formulado como um problema inverso, cujo objetivo é estimar as variáveis in-
ternas de dissipação dos amortecedores viscoelásticos empregando o Método de Monte Carlo
com Cadeias de Markov convencional (MCMC), implementado via Algoritmo de Metropolis-
Hastings.

Keywords: Problemas Inversos, Amortecimento viscoelástico, Inferência Bayesiana, Método


de Monte Carlo com Cadeias de Markov

1. INTRODUÇÃO

Nos últimos anos tem ocorrido um crescimento significativo na utilização de materiais vis-
coelásticos em diferentes áreas, como a aeroespacial, automotiva e estrutural (Rao, 2003). Tais
áreas lidam com sistemas mecânicos que estão sujeitos a carregamentos dinâmicos, os quais, em
determinadas condições podem causar nı́veis excessivos de vibração podendo, inclusive, causar
falhas estruturais, ocasionando assim grandes prejuı́zos à sociedade. Sendo assim, torna-se im-
prescindı́vel o desenvolvimento de técnicas de construção de sistemas mecânicos com controle
e isolamento de vibração adequado, permitindo assim aplicações das mesmas nas mais diversas
áreas da engenharia, como por exemplo, no desenvolvimento de amortecedores viscoelásticos
utilizados para o controle de vibrações em máquinas, estruturas aeronáuticas e em mecanismos
de dissipação de energia em edifı́cios, como proteção contra abalos sı́smicos. Essas medidas
geram impactos diretos na redução dos custos operacionais e manutenção adequada do funcio-
namento estrutural.
Nesse contexto, o presente projeto propõe a aplicação da abordagem Bayesiana para a
formulação e solução do problema inverso de estimação de propriedades mecânicas de um

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1285
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sistema mecânico discreto. Devido a sua grande aplicabilidade e eficiência, os métodos Bayesi-
anos estão, cada vez mais, sendo utilizados pela comunidade cientı́fica para resolução de proble-
mas em diversas áreas de interesse (Malakoff, 1999). Além de permitir que informações a priori
sejam incorporadas ao modelo, a facilidade de incorporá-las em um contexto formal de decisão,
o tratamento explı́cito das incertezas do problema e a habilidade de assimilar novas informações
em contextos adaptativos são algumas de suas vantagens (Costa, 2004). Nesta abordagem, as
grandezas do problema são modeladas como variáveis aleatórias e são utilizadas Funções de
Distribuição de Probabilidade (PDF) para incorporar ao processo de estimação de parâmetros
informações prévias sobre os próprios parâmetros a serem estimados. Uma aproximação da
função densidade de probabilidade a posteriori dos parâmetros de interesse é obtida ao final do
processo (Teixeira et al., 2020).
A formulação do problema direto é baseada no modelo de variáveis internas de dissipação
de um amortecedor viscoelástico (Vasques et al., 2010). O problema inverso de estimação
de propriedades mecânicas é baseado em alterações na resposta impulsiva do sistema e a sua
solução será obtida empregando o Método de Monte Carlo com Cadeias de Markov convencio-
nal (MCMC).

2. FORMULAÇÃO DO PROBLEMA DIRETO

A relação constitutiva de um material viscoelástico adotada nesse trabalho segue a teoria


da viscoelasticidade linear descrita por Christensen (1982), onde considera-se as hipóteses de
viscoelasticidade linear, isotropia e temperatura constante, essa relação é dada por

Z t
∂ε(t)
σ(t) = Erel (t)ε(0) + Erel (t − τ ) dτ (1)
0 ∂t
onde σ(t) e ε(t) são, respectivamente, a tensão e a deformação normal do material e Erel
representa o módulo de relaxação.
Diferentes módulos de relaxação são propostos na literatura especializada (Vasques et al.,
2010). No presente trabalho, o módulo de relaxação adotado é dado por

ni
!
X
Erel,i (t) = E∞i 1+ ∆i,k e−Ωi,k t (2)
k=1

onde ni é o número de variáveis internas de dissipação consideradas na descrição do i-


ésimo amortecedor viscoelástico, onde i = 1, ..., NGDL , E∞i é o módulo de relaxação estático
do material, Ωi,k é a inversa do tempo de relaxação do material sob deformação constante e ∆i,k
representa a resistência à relaxação correspondente. Por simplicidade, será aqui adotado um
modelo viscoelástico com uma única variável interna de dissipação. Sendo assim, desse ponto
em diante, o subscrito k será omitido.
A partir da transformada de Laplace é possı́vel obter a equação que define a tensão no
amortecedor e, de forma análoga à obtenção da Eq. (1), obter a equação que descreve a força
de reação de um amortecedor viscoelástico, definida como

fvi = E∞i (1 + ∆i )δi (t) − Ωi ξi


(3)
ξ˙i = E∞ ∆i δi (t) − Ωi ξi
i

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1286
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

onde δi (t) é o deslocamento relativo entre as extremidades do i-ésimo amortecedor viscoelástico


e ξi representa a respectiva variável interna de dissipação.
Para a análise numérica da metodologia apresentada será considerado um problema de
estimação de parâmetros viscoelásticos de um sistema discreto simples com 2 graus de liber-
dade, i.e. NGDL = 2, ilustrado na Fig. (1). Esse sistema possui massas pontuais mi , molas
elásticas com constantes de rigidez ki , amortecedores viscosos com constantes di e amortece-
dores viscoelásticos caracterizados pelas constantes E∞i , ∆i e Ωi . O comportamento o sistema
é descrito pelas coordenadas yi (t) e o mesmo está sujeito ao carregamento externo fi (t).

y2 (t) f2 (t) y1 (t) f1 (t)


k2 k1

E∞2 , ∆2 , Ω2 E∞1 , ∆1 , Ω1
m2 m1
d2 d1

Figura 1- Sistema com dois graus de liberdade e amortecimento viscoelástico.

As equações de movimento do sistema apresentado na Fig. (1) derivam da segunda lei de


Newton e podem ser escritas como

Mÿ + Dẏ + (K + Kv) y + Bζ ξ = F


(4)
ξ̇ = H1 ξ + H2 y

onde M, D e K são, respectivamente, a matriz de massa, amortecimento e rigidez do sistema,


Kv é a matriz de rigidez associada ao amortecimento viscoelástico, ξ representa o vetor de
variáveis internas de dissipação, Bζ é a matriz de entrada das variáveis internas, H1 e H2 são,
nessa ordem, a matriz de estado e de entrada na equação de evolução das variáveis internas, y
é o vetor de coordenadas generalizadas, ẏ e ÿ são, respectivamente, as derivadas de primeira
e segunda ordem no tempo de y e F é a matriz de carregamento externo do sistema, definidas
como
     
m1 0 d1 −d1 k1 −k1
M= ,D = ,K =
0 m2 −d1 d1 + d2 −k1 k1 + k2
 
E∞1 (1 + ∆1 ) −E∞1 (1 + ∆1 )
Kv = (5)
−E∞1 (1 + ∆1 ) E∞1 (1 + ∆1 ) + E∞2 (1 + ∆2 )
     
−Ω1 0 −Ω1 0 E∞1 ∆1 −E∞1 ∆1
Bζ = , H1 = , H2 =
Ω1 −Ω2 0 −Ω2 0 E∞2 ∆2

A equação diferencial de movimento do sistema pode, então, ser integrada utilizando um


método adequado de integração numérica. O presente trabalho utiliza o modelo de espaço-
estado para obter a solução do problema direto, onde rotinas computacionais de solução de
sistemas, já implementadas e disponı́veis na plataforma do Matlab, foram utilizadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1287
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. FORMULAÇÃO DO PROBLEMA INVERSO

A informação que se tem sobre uma quantidade de interesse é de fundamental importância.


Se o valor verdadeiro do parâmetro de interesse não é conhecido, busca-se então métodos para
reduzir este grau de desconhecimento a partir dos dados observados. Na Inferência Bayesiana,
a probabilidade é definida de uma forma subjetiva, como uma medida da plausibilidade de uma
proposição condicionada ao conhecimento que se tem acerca dos parâmetros de interesse. O
grau de incerteza a respeito deste parâmetro é representado através de um modelo probabilı́stico
para o mesmo, onde as quantidades observáveis e os parâmetros do modelo são considerados
variáveis aleatórias.
Nessa abordagem a informação sobre β é atualizada de acordo com os dados observados
ZE e, portanto, a solução do problema inverso é uma função densidade de probabilidade a
posteriori de β. O teorema de Bayes, base da inferência Bayesiana, é dado por (Tanner, 1993)

p(ZE |β)p(β)
p(β|ZE ) = (6)
p(ZE )
onde p(β|ZE ) é a distribuição a posteriori de β e representa o conhecimento atualizado sobre
o parâmetro β, p(ZE |β) é, com as hipóteses do modelo perfeito e de experimento bem feito
(Schwaab & Pinto, 2007), é a função de verossimilhança, p(β) é a informação a priori de β e
p(ZE ) é a distribuição marginal de ZE , dada por

Z
p(ZE ) = p(ZE |β)p(β)dβ (7)

A solução do problema segue diretamente do Teorema de Bayes quando a distribuição a


posteriori pode ser obtida através de expressão analı́tica. Caso contrário, sua obtenção torna-
se inviável. Nestes casos, as técnicas de amostragem são muito utilizadas, onde busca-se a
simulação de amostras da distribuição de interesse p(β|ZE ), para então serem feitas inferências
dessa distribuição de probabilidade, como a obtenção de momentos estatı́sticos como média,
desvio padrão e intervalos de credibilidade. Técnicas de amostragem baseadas nos métodos
Monte Carlo com Cadeias de Markov são usualmente empregadas para estimar a densidade de
probabilidade a posteriori dos parâmetros de interesse.

3.1 Algoritmo de Metropolis-Hastings

Algoritmos especı́ficos são utilizados para a obtenção das cadeias de Markov, onde neste
trabalho será utilizado o algoritmo de Metropolis-Hastings, que faz uso de uma função den-
sidade de probabilidade auxiliar q(β ∗ |β j−1 ), com a finalidade de amostras da distribuição de
probabilidade a posteriori p(β|ZE ), passando por um crivo estocástico, baseado em p(·)q(·),
para avaliar se serão aceitos ou não (Paulino, 2018), essa avaliação ocorre por meio do fator de
aceitação γ, conhecido como Razão de Hastings, dado por Hastings (1970); Tanner (1993)

p(β ∗ |ZE )q(β ∗ |β j−1 )


 
γ = min 1, (8)
p(β j−1 |ZE )q(β j−1 |β ∗ )
O processo de aceitação ou não, com probabilidade γ, é definido recorrendo às seguintes
etapas:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1288
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

i) Gerar um número aleatório U a partir de uma distribuição uniforme entre 0 e 1;

ii) Se U ≤ γ, então o candidato β ∗ é aceito. Caso contrário o candidato é rejeitado.

Quando um candidato β ∗ é aceito ele é atribuı́do a β j , quando isso não ocorre então β j−1
é atribuı́do a β j , em ambas as situações um novo candidato é gerado seguindo os mesmos
critérios, esse processo é repetido até que o tamanho da cadeia de Markov Nmcmc , definido
previamente, seja atingido. Os estados gerados até que a cadeia alcance o equilı́brio são de-
nominados de amostras de aquecimento, com tamanho denotado por Nb . Tais amostras são
descartadas para que a inferência estatı́stica dos parâmetros de interesse seja realizada.

4. RESULTADOS NUMÉRICOS

Neste trabalho, considerou-se um sistema mecânico discreto com 2 graus de liberdade,


amortecimento viscoso e amortecimento viscoelástico. Para solução do problema inverso de
estimação de parâmetros viscoelásticos do sistema abordado foi empregado o método de Monte
Carlo com Cadeias de Markov convencional (MCMC). O ruı́do foi simulado indiretamente pela
Razão Sinal Ruı́do, dada por

 
Ps
SNR = 10 log (9)
Pn

em que Ps e Pn correspondem à potência do sinal s e à potência do ruı́do n, respectivamente.


Neste trabalho utilizou-se apenas um nı́vel de ruı́do de 35dB para as simulações. Para a
obtenção dos dados experimentais utilizados no processo de estimação de parâmetros, foi con-
siderado a resposta impulsiva da estrutura, medida em termos da aceleração, Figura 2, devido a
uma excitação do tipo impulso unitário agindo no sistema, sendo uma em m1 e a outra em m2 .
Um sensor de aceleração foi posicionado em m2 .

Figura 2- Resposta Impulsiva.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1289
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Uma análise de sensibilidade do sistema aos parâmetros viscoelásticos foi realizada e de-
monstrou que os parâmetros E∞i e ∆i não podem ser facilmente estimados simultaneamente,
pois apresentam um alto grau de correlação entre eles, por esse motivo o parâmetro E∞ para
ambos os amortecedores foi previamente definido e não será incluı́do no vetor β a ser estimado.
Sendo assim, no presente trabalho, o vetor de interesse β é composto pelas seguintes variáveis
internas de dissipação dos amortecedores viscoelásticos:

β = [∆1 , Ω1 , ∆2 , Ω2 ] (10)

A Tabela 1 apresenta os parâmetros que foram utilizados na solução do problema direto.

Tabela 1- Parâmetros utilizados para solução do problema direto

Parâmetro Valor
m1 1(kg)
m2 1(kg)
k1 100(N/m)
k2 100(N/m)
d1 1,1(N.s/m)
d2 0,8(N.s/m)
E∞1 10(N/m)
∆1 5
Ω1 20(s−1 )
E∞2 10(N/m)
∆2 5
Ω2 20(s−1 )

Foram utilizadas Cadeias de Markov com Nmcmc = 30.000 estados e um burn-in de Nb =


15.000 estados foi considerado para a inferência das propriedades estatı́sticas.
A Tabela 2 apresenta os valores exatos e estimados dos parâmetros de interesse, assim como
os erros relativos e os intervalos com 95% de credibilidade. As Figuras 3 e 4 apresentam a
evolução das cadeias de Markov obtidas, as Funções Densidades de Probabilidade estimadas
(PDFs) e os histogramas dos parâmetros estimados, considerando como estado inicial β 0 =
[∆1 = 0.1; Ω1 = 0.1; ∆2 = 0.1; Ω2 = 0.1].

Tabela 2- Propriedades estatı́sticas estimadas

Parâmetros Exato Estimado Erro Relativo (%) Int. Credibilidade


∆1 5 4,9805 0,38 [4,800; 5,176]
∆2 5 4,9665 0,66 [4,876; 5,059]
Ω1 (s−1 ) 20 20,0059 0,02 [19,303; 20,919]
Ω2 (s−1 ) 20 19,8119 0,90 [19,366; 20,294 ]

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1290
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Evolução das Cadeias de Markov (b) Histogramas e PDFs de ∆


Figura 3- Cadeias de Markov, Histogramas e PDFs de ∆.

(a) Evolução das Cadeias de Markov (b) Histogramas e PDFs de Ω


Figura 4- Cadeias de Markov, Histogramas e PDFs de Ω.

Para o resultado apresentado nesse trabalho, a taxa de aceitação foi de 27,04%. Analisando
as Figuras 3 e 4 e a Tabela 2, observa-se que as cadeias de Markov obtidas convergiram rapida-
mente, em torno de 5000 estados, aproximadamente. É observado também que os erros relati-
vos obtidos foram pequenos, da ordem de 10−3 , o que implica que os valores estimados estão
próximos dos valores exatos. Observa-se ainda que as Funções Densidade de Probabilidade
a posteriori (PDFs) estimadas, Figuras 3b e 4b, apresentam comportamento aproximadamente
normal, mostrando que as médias estimadas no problema inverso apresentam alta probabilidade
de ocorrência. Ressalta-se também que o MCMC apresentou uma boa amostragem das PDFs
a posteriori, consequência de uma exploração adequada do domı́nio de busca dos parâmetros
estimados. Além disso, os valores exatos estão contidos nos intervalos obtidos com 95% de cre-
dibilidade, indicando com alto grau de credibilidade, que eles pertencem ao suporte das PDFs
estimadas. O resultado obtido nesse trabalho empregando o MCMC convencional demonstrou
a eficácia dessa metodologia para a estimação das variáveis internas de dissipação dos amorte-
cedores viscoelásticos do sistema mecânico adotado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1291
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. CONCLUSÃO

Este trabalho apresentou a aplicação do método de Monte Carlo com Cadeias de Markov,
implementado via algoritmo de Metropolis-Hastings, na estimação de parâmetros viscoelásticos
de um sistema com dois graus de liberdade. Foi adotado na formulação do problema direto o
modelo de variáveis internas para os amortecedores viscoelásticos. Observou-se que o método
MCMC convencional, nas condições adotadas neste trabalho, apresentou resultados adequados,
conseguindo estimar acuradamente os parâmetros viscoelásticos do sistema adotado. As cadeias
de Markov obtidas apresentaram rápida convergência e as Funções Densidade de Probabilidade
a posteriori, que é a solução do problema inverso, apresentaram boa amostragem.

Agradecimentos

Os autores agradecem o apoio financeiro fornecido pela FAPERJ, Fundação Carlos Chagas
de Amparo à Pesquisa do Estado do Rio de Janeiro, ao CNPq, Conselho Nacional de Desenvol-
vimento Cientı́fico e Tecnológico e à CAPES, Coordenação de Aperfeiçoamento de Pessoal de
Nı́vel Superior - Código de Financiamento 001.

Referências

Christensen, R. M. (1982), “Theory of Viscoelasticity”. Academic Press (2a ed.), New York.
Costa, W. U. (2004), “Técnicas Bayesianas para engenharia elétrica”. Informe de pesquisa, p. 1–18.
Hastings, W. K. (1970), “Monte Carlo sampling methods using Markov Chain and their applications”,
Biometrika, vol. 57 pp. 97–109 .
Kaipio, J.; Sommersalo, E. (2004) “Statistical and Computational Inverse Problems”, New York:
Springer-Verlag.
Malakoff, D. M. (1999), “Bayes offers “new” way to make sense of numbers”. Science, v. 268, p.
1460–1464.
Paulino, C.D.; Turkman, M.A.A.; Murteira, B.; Silva, G.L. (2018),“Estatı́stica Bayesiana”, 2o ed.,
Fundação Calouste Gulbenkian, Lisboa.
Rao, D.K. (2003), “Recent Applications of Viscoelastic Damping for Noise Control in Automobiles and
Commercial Airplanes”, Journal of Sound and Vibration, Vol. 262, No. 3, pp. 457-474.
Schwaab, M., Pinto, J.C. (2007), “Análise de Dados Experimentais I: Fundamentos de Estatı́stica e
Estimação de Parâmetros”, E-papers, Rio de Janeiro.
Tanner, M. A. (1993), “Tools for Statistical Inference: Methods for the exploration of posterior distri-
butions and likelihood functions”. New York: Springer Verlag.
Teixeira, J. S., Stutz, L. T., Knupp, D. C.; Silva Neto, A. J. (2020), “A new adaptive approach of the
Metropolis-Hastings algorithm applied to structural damage identification using time domain data”,
Applied Mathematical Modelling, vol. 82, pp. 587-606.
Vasques, C., Moreira, R., Rodrigues, J. (2010), “Viscoelastic damping technologies - Part I: Modeling
and finite element implementation”, Journal of Advanced Research in Mechanical Engineering, vol.
1, pp. 76-95.

MARKOV CHAIN MONTE CARLO METHOD APPLIED TO VISCOELASTIC


PARAMETERS ESTIMATION

Abstract. The present work aims to formulate and solve the inverse problem of estimating
mechanical properties of a discrete mechanical system, employing a Bayesian approach. In the
formulation of the direct problem, a discrete mechanical system with viscous and viscoelastic
damping will be considered. In this work, the parameter estimation problem is formulated
as an inverse problem, whose objective is to estimate the internal dissipation variables of the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1292
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

viscoelastic dampers using the Markov Chain Monte Carlo Method (MCMC), implemented via
Metropolis-Hastings Algorithm.

Keywords: Inverse Problems, Viscoelastic Damping, Bayesian Inference, Markov Chain Monte
Carlo Method

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1293
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Aplicação de controle em um circuito elétrico equivalente para sinais elétricos em plantas

Gesiéle Santos da Rosa1 - gesyelest@gmail.com


Alexandre Molter1 - alexandre.molter@ufpel.edu.br
Arlan da Silva Ferreira1 - arlansil@yahoo.com.br
Gustavo Maia Souza1 - gumaia.gms@gmail.com
1 Universidade Federal de Pelotas - Pelotas, RS, Brasil

Resumo. Este trabalho propõe uma aplicação de controle ótimo em um modelo de circuito
elétrico equivalente para simular os sinais elétricos em plantas. Estes sinais são ocasionados
por fluxos iônicos através da membrana celular. A aplicação de controle neste sistema tem
como objetivo representar a ação das bombas eletrogênicas. Um modelo fı́sico foi proposto
e gerou um conjunto de equações diferenciais lineares que foram resolvidas numericamente.
Resultados mostram que o sistema controlado volta ao seu estado de equilı́brio em perı́odo de
tempo menor do que o sistema sem a aplicação do controle. Isso sugere uma maior capacidade
de ciclos no que diz respeito a emissão de sinais.

Palavras-chave: Controle ótimo, Modelagem Matemática, Circuitos elétricos equivalentes,


Sinais elétricos em plantas.

1. INTRODUÇÃO

Em algumas células especı́ficas de vegetais e animais, normalmente possuem um desbalanço


de ı́ons entre o meio externo e interno. Esse desbalanço de cargas cria os que chamamos de
potencias da membrana, que podem ser potencial de repouso, ação e variação. O potencial de
repouso, como o nome já diz, é um potencial constante no tempo. Já os potenciais de ação
e variação são dinâmicos e são os responsáveis por transmitir informações a longas distâncias
TOLEDO et al. (2019). A principal caracterı́stica que torna esses potenciais dinâmicos é a
capacidade de permitir fluxo de ı́ons através da membrana celular pelo que chamamos de
canais iônicos. Esse fluxo ou transporte de ı́ons pode ser passivo (difusão normal ou a favor
do gradiente elétrico) ou ativo, contra o gradiente elétrico intermediado pelo que se chama de
‘bombas’. Em célula animal, a mais conhecida é a bomba de sódio-potássio. Essas bombas têm
a finalidade de fornecer energia, de forma análoga a uma pilha.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1294
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Modelos de circuitos elétricos equivalentes para sinalização elétrica em plantas são


utilizados para estudar como estes respondem a um estı́mulo, no qual iremos chamar de
eletroestimulação. A maioria destes modelos consistem dos componentes elétricos básicos:
capacitores, resistores e indutores VOLKOV et al. (2014). A eletroestimulação destes circuitos
pode ser modelada por diversas funções matemáticas, que normalmente podem ser um pulso,
sendo ela a nossa ferramenta para avaliação dos mecanismos de estı́mulo e resposta entre
diferentes partes de uma planta.
A aplicação da teoria de controle nestes sistemas pode representar diversas situações reais,
dentre elas o controle pode representar a alteração da resistência elétrica para passagem de
alguns ı́ons especı́ficos nos canais, também pode ser ocasionado por adição de produtos
quı́micos na planta, ou o controle pode representar a ação das bombas eletrogênicas que são
complexos proteicos que regulam a passagem de prótons H + através da membrana que é o
transporte ativo, com consumo de energia em forma de ATPases, quando elas estão ativas a
repolarização ocorre de forma mais rápida, caracterizando um potencial de ação, e quando estão
desativadas a repolarização é mais lenta, caracterizando um potencial de variação. Os trabalhos
HEDRICH et al. (2016), VOLKOV et al. (2010), VOLKOV; SHTESSEL (2016) apresentam
alguns modelos matemáticos de circuitos elétricos equivalentes. Já a formulação do modelo
utilizado neste trabalho foi proposto pelos próprios autores. Ressalta-se que no que se refere
à circuitos elétricos equivalentes em células especificamente de plantas, não são encontrados
modelos matemáticos na literatura especializada tanto quanto existem para células animais. O
objetivo deste trabalho é formular e resolver o problema de controle ótimo linear aplicado a
um circuito elétrico equivalente, considerando que o controle irá representar a ação regulatória
das bombas eletrogênicas. Vamos mostrar, através dos resultados numéricos, que a mudança
na resposta elétrica da planta pela ação destas bombas causam uma eficácia na estratégia de
controle proposta neste trabalho.

2. Modelo elétrico proposto

O modelo elétrico que aqui propomos é composto basicamente por capacitores C 0 s,


resistores R0 s e potenciais ε0 s os quais chamamos de eletroestimulação. Do contrário do que
ocorre em metais, onde a corrente elétrica é gerada por fluxos de elétrons livres, na membrana
celular essa corrente é gerada por fluxos iônicos. Em nosso modelo, consideramos um canal
iônico composto por três subcanais formados pelos ı́ons de Ca2+ (Cálcio), K + (Potássio) e
Cl− (Cloro), como ilustrado na Figura 1 (A) e (B). Esse canal iônico, na média, irá representar
um valor amostral da membrana celular. Por simplificação, usamos toda a teoria elétrica
desenvolvida para os metais em nossa célula vegetal. Por a membrana celular ser seletiva à
passagem de alguns ı́ons especı́ficos, essa resistência é modelada por uma resistência elétrica
Rn , onde n = Ca2+ , K + e Cl− . Devido ao fato da membrana ser composta por um material
dielétrico (isolante), esses subcanais iônicos se comportam também como um capacitor de
placas paralelas no qual será representado propriamente por um capacitor Cn composto por
um dielétrico. Assumindo que no interior de cada subcanal pode haver o que é chamado de
transporte ativo de alguns tipos de ı́ons n, intermediado pela bomba de potássio, por exemplo,
essa energia elétrica é fornecida pelos potencias de eletroestimulação εn . Portanto, estes
potenciais εn são as funções estı́mulos (entrada) e os potencias Vn , criados nos capacitores
Cn , são as funções respostas (saı́da).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1295
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Representação pictórica da seção transversal da membrana celular. Na figura à esquerda (A)
ilustra as cargas dos ı́ons que podem atravessar essa membrana e na figura à direita (B) os componentes
em termos de circuito elétrico. O fluxo de ı́ons irá ocasionar a corrente iônica. A membrana plasmática
irá fazer o papel de um dielétrico, fazendo com que essa se comporte como um capacitor de placas
paralelas. Os εn são os chamados potenciais de eletroestimulação, que podem ser os responsáveis pelo
transporte ativo de ı́ons através da membrana celular ou um estı́mulo que é desencadeado por um agente
externo.

Traduzindo a representação pictórica, mostrada na Figura 1, para um modelo fı́sico, o


circuito elétrico equivalente a essa figura é apresentado na Figura 2. Consideramos esse circuito
isolado, de tal forma que toda energia fornecida pelos potencias de eletroestimulação εn irá
carregar parcialmente os capacitores Cn e essa energia será dissipada apenas pelos resistores
Rn .

Figura 2- Circuito elétrico proposto para a eletroestimulação da membrana celular. Através dos
potenciais de eletroestimulação εn , medimos como o sistema responde por meio dos potenciais Vn
criados nos capacitores Cn .

Na Figura 2, as correntes que passam por cada subcanal são representadas por ı́on para
n = Ca2+ , K + e Cl− ou n = 1, 2 e 3. Rn são as resistências dos subcanais e Cn são as
capacitâncias. Os Vn são as tensões nos capacitores, que são as nossas funções resposta aos
estı́mulos provocados pelos potenciais de eletroestimulação ε = εa , εk e εl . A partir da Figura
2, notamos que o circuito é composto por duas malhas fechadas (I) e (II). Da relação para
capacitores ideais, onde a capacidade de separação de cargas que entre duas placas condutoras

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1296
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

é proporcional a diferença de potencial aplicada ∆V e a constante de proporcionalidade é


chamada de capacitância C, ou seja, q = C∆V . Derivando esta última equação pelo tempo,
mantendo C constante e identificando que i = dq dt
, chegamos na relação in = Cn dVdtn . Assim,
para o circuito da Figura 2, tem-se para as correntes
dV1 dV2 dV3
i 1 = Ca , i 2 = Ck , i 3 = Cl . (1)
dt dt dt
Pela lei de corrente de Kirchhoff, que declara que a soma das correntes que entra em um nó
é igual a soma das correntes que sai desse mesmo nó, HALLIDAY (2009), chegamos na relação

i2 = i1 + i3 . (2)

Substituindo os valores i1 , i2 e i3 da Eq. (1) na Eq. (2), tem-se


dV3 dV2 dV1
Cl = Ck − Ca , (3)
dt dt dt
Ck Ca
V3 = V2 − V1 . (4)
Cl Cl
Aplicando a lei de tensão de Kirchhoff, a soma da queda de potencial em uma malha fechada
é igual a zero, para a malha (I) obtemos a equação

εa − V1 − i1 Ra − i2 Rk − V2 + εk = 0, (5)

e para a malha (II)

εl − V3 − i3 Rl − i2 Rk − V2 + εk = 0. (6)

Fazendo algumas manipulações algébricas para isolar dV dt


1
e dV
dt
2
, chega-se no seguinte
sistema de equações diferenciais ordinárias de primeira ordem:
     
dV1 1 Rl Rl Ca Rl Rl Ck

 = εa + εa − εl + ε k − V1 1 + + − V2 − ,
 dt
 Ca R A Rk Rk Cl Rk Rk Cl
     (7)

 dV2 1 Rl Rl Rl Ca Rl Ck

 = ε +ε +εa +ε −V
l k − k −V 1+1 + , 2
dt Ck RB Ra Ra Ra Cl Ra Cl

Rl Rl
onde RA = Rl + Ra + Ra e RB = Rk + Rl + Rk . Observe que a partir desse sistema,
Rk Ra
calculados os potenciais V1 e V2 , o potencial V3 é diretamente obtido usando a Eq. (4). Esta
equação só é verdade se usarmos as condições iniciais V1 (0) = V2 (0) = 0 para t = 0. Soluções
analı́ticas para Vn podem ser obtidas para os potenciais de eletroestimulação εn constantes
(resultado não mostrado aqui). Neste trabalho, nosso maior interesse é usar esses potenciais
variando com o tempo, principalmente na forma de pulso. Portanto, vamos apresentar apenas
resultados obtidos numericamente para o sistema (7). Para obtenção das soluções, foi usado
o software Matlab, que emprega o método de Runge-Kutta de quarta ordem. As principais
funções (pulsos) de eletroestimulação εn (t) que foram empregadas são descritas a seguir.
Pulso quadrado, definido como

 0, t < a,
εn (t) = h, a < t < b, (8)
0, t > b,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1297
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

com duração b, amplitude h e a < b.


Pulso triangular, definido como

 t 2h ,

0≤t< ,
b
 b

2
εn (t) = 2h b (9)
−t + 2h, ≤ t < b,
b 2



 0, outros valores de t,

com duração b e amplitude h.


As condições iniciais empregadas foram: Vn (0) = 0 para n ∈ [1, 3]. Os valores das
resistências e capacitâncias foram: Ra = 86KΩ, Rl = 150KΩ, Rk = 92KΩ, Ca = 0.2·10−3 F ,
Cl = 20 · 10−3 F e Ck = 20 · 10−3 F . Estes valores têm como base os que foram usados
no trabalho de VOLKOV; SHTESSEL (2016). Podemos assumir que essas resistências e
capacitâncias são por unidade de área. Por simplificação, vamos chamar os potencias de
eletroestimulação εn (t) de V0 . Também vamos impor que todos esses potencias disparam o
pulso (quadrado ou triangular) no mesmo instante de tempo, com mesma duração e mesma
intensidade. Isso facilita interpretar como os potencias Vn respondem.

Figura 3- Trajetórias temporais Vn (em mV) do sistema sem controle mediante a eletroestimulação εn
(representada por V0 ) dada por um pulso quadrado, de duração 0.01 e amplitude 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1298
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Trajetórias temporais Vn (em mV) do sistema sem controle mediante a eletroestimulação εn
dada por dois pulsos triangulares, de duração 1 cada um e amplitude 0.5.

As Figura 3 e 4, apresentam a função de eletroestimulação V0 que representa o


comportamento das funções εa , εk e εl , e a trajetórias dos potenciais V1 , V2 e V3 , mostrando
que os potenciais V2 e V3 decaem próximo a zero no tempo dez, quando estimulado por pulso
quadrado e próximo a quinze, quando estimulado por pulso triangular.

3. Estratégia de controle baseada na ação das bombas eletrogênicas

A estratégia de controle adotada é o controle ótimo realimentado OGATA (2010) e


NAIDU (2003), onde a realimentação consiste na ação das bombas eletrogênicas contidas nas
membranas celulares. O modelo matemático, incluindo a ação do controle é dado por:
     
dV1 1 Rl Rl Ca Rl Rl Ck

 = εa + εa − εl + εk − V1 1 + + − V2 − ,
 dt
 Ca RA Rk Rk Cl Rk Rk Cl
     (10)

 dV 2 1 R l Rl R l C a R l C k

 = ε +ε +ε a +ε −V l k − k−V 1+ 1 + + u, 2
dt Ck RB Ra Ra Ra Cl Ra Cl
onde u é uma função de controle que leva o sistema de um estado inicial
V1 (0) = v10 ,
(11)
V2 (0) = v20 ,
ao estado final:
V1 (∞) = 0,
(12)
V2 (∞) = 0,
e que minimizam o seguinte funcional
Z ∞
J= (V T QV + uT Ru)dt, (13)
0

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1299
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

onde Q é uma matriz de pesos semi definida positiva, R é uma matriz definida positiva e u é a
função de controle ótimo obtida pela equação,

u(t) = −KV (t) = −R−1 B T P, (14)

onde B é a matriz de controle e P é uma matriz positiva definida, que é obtida da solução da
equação matricial de Riccati:

AT P + P A − P BR−1 B T P + Q = 0, (15)

sendo A a matriz de estado.


De acordo com o que foi apresentado na Figura 3, a função de controle é acrescentada apenas
na segunda equação, já que o potencial V2 apresenta uma despolarização lenta. O potencial V3
também tem uma despolarização lenta, uma vez que é dado pela diferença entre V1 e V2 , e
devido a dependência de V2 , também sofre a ação do controle.
O sistema de Eq. (8), escrito na forma de espaço de estado, é da seguinte forma:

V̇ = AV + Bu + C, (16)

onde
     
−1 Ca Rl −1 Rl Ck
1+ + −
 Ca RA  Cl Rk Ca RA
 Rk Cl  
A= , (17)
 −1 Rl Ca −1 Rl Ck 
− 1+ −
Ck RB Ra Cl Ck RB Ra Cl
     
0 V̇1 V1
B= , V̇ = ,V = , (18)
1 V̇2 V2
e
   
1 Rl Rl
 Ca RA εa + εa Ra − εl + εk Rk 
C=   . (19)
 1 Rl Rl 
εa + εl + εk + εk
Ck RB Ra Ra

Sendo
 
100 0
Q= , R = 1, (20)
0 100

obtemos
 
1.4254 −0.3098
P = . (21)
−0.3098 9.8017

Substituindo os valores das constantes já apresentadas na seção anterior, obtém-se a matriz
de estado
 
−35.0919 −8.3786
A= . (22)
−0.2154 −0.4652

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1300
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Portanto, a função de controle tem a seguinte forma:

u(t) = 0, 3098V1 (t) − 9, 8017V2 (t). (23)

A função de controle u(t), representa a alteração nas capacitâncias (que pode ser no meio
dielétrico) e resistências dos canais de ı́ons, causadas pela ação das bombas de H + .
A condição de controlabilidade completa de estado do sistema é obtida da matriz de
controlabilidade

M = [B|AB], (24)

que tem posto(M ) = 2 e satisfaz a condição de controlabilidade.


Simulações numéricas da Eq. (14) foram realizadas no software Matlab com os
mesmos valores de constantes utilizadas para o modelo sem controle, mesma função de
eletroestimulação. As trajetórias temporais do sistema controlado Eq. (10) são apresentadas
na Figura 5.

Figura 5- Trajetórias temporais Vn (em mV) do sistema com aplicação de controle.

A Figura 5, mostra que a aplicação de controle fez os potenciais V2 e V3 decaı́rem para


próximo a zero em torno de dez vezes mais rápido que o modelo sem controle. Esta mudança
de comportamento causada pela aplicação de controle está representando ação das bombas
eletrogênicas no processo de repolarização da membrana.

4. CONCLUSÕES

A aplicação de controle no modelo matemático de circuito elétrico equivalente para sinais


elétricos em uma célula vegetal, mostrou-se uma boa estratégia para representar a ação
regulatória das bombas eletrogênicas. Essa estratégia de controle se mostrou eficaz no controle
dos sinais elétricos, uma vez que reduziu significativamente o tempo gasto para o equilı́brio

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1301
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

elétrico da célula ser atingido. Uma vez o sistema estando em equilı́brio o libera novamente
para ser estimulado, aumentando o número de ciclos. Essa alteração no comportamento fez com
que as trajetórias temporais similares a potenciais de variação passassem a ter comportamentos
similares a potenciais de ação, caracterizando assim a ação das bombas eletrogênicas presentes
nas células.

Agradecimentos

A autora Gesiéle S. da Rosa agradece à Stoller do Brasil pelo apoio financeiro recebido.

REFERÊNCIAS

HALLIDAY, D.; RESNICK, R.; WALKER, J. (2009), “Fundamentos de Fı́sica, volume 3:


eletromagnetismo”, 8o ed., LTC, Rio de Janeiro.
HEDRICH, R.; RECATALÀ, V. S.; DREYER, I. (2016), “Electrical Wiring and Long-Distance Plant
Communication”, AIMS Biophysics, 376-387.
NAIDU, S.; NAIDU, D. S. (2003), “Optimal Control Systems”, CRC Press LCC, New York.
NOVIKOVA, E. M.; VODENEEV, E. A.; SUKHOV, V. (2017), “Mathematical Model of Action
Potential in Higher Plants with Account for the Involvement of Vacuole in the Electrical Signal
Generation”, Biologicheskie Membrany, vol 34, No. 2, 109–125.
OGATA, K. (2010), “Engenharia de controle moderno”, 5o ed., Pearson Prentice Hall, São Paulo.
TOLEDO, G. R. A., PARISE, A. G., SIMMI, F. Z., COSTA, A. V. L., SENKO, L. G. S., DEBONO, M.
W., SOUZA, G. M. (2019), “Plant electrome the electrical dimension of plant life”, Theoretical and
Experimental Plant Physiology, vol 31, 21-46p.
VOLKOV, A. G.; FOSTER, J. C.; MARKIN, V. S. (2010), “Signal transduction in Mimosa pudica
biologically closed electrical circuits”, Plant, Cell and Environment, 816–827.
VOLKOV, A. G.; TUCKET C.; REEDUS J., VOLKOVA M. I.; MARKIN V. S.; CHUA L. (2014),
“Memristors in plants”, Plant Signaling Behavior, vol 9, e28152-1-e28152-8.
VOLKOV, A. G.; SHTESSEL, Y. B. (2016), “Propagation of electrotonic potentials in plants:
Experimental study and mathematical modeling”, AIMS Biophysics, 358-379.

Control application in an equivalent electrical circuit for electrical signals in plants

Abstract. This study proposes an application of optimal control in an equivalent electrical


circuit model to simulate electrical signals in plants. These signals are caused by ionic
flows through the cell membrane. The control application in this system has the objective
of representing the action of the electrogenic pumps that regulate the flow of H + protons,
restoring the electrochemical balance in the membrane after an induced voltage variation. A
physical model was proposed and generated a set of linear differential equations that were
solved numerically. Results show that the controlled system returns to its equilibrium state in
a period of time shorter than the system without the application of the control. This suggests a
greater capacity for recurrent cycles with respect to signal emission.

Keywords: Optimal control, Mathematical Modeling, Equivalent electrical circuits, Electrical


signals in plants.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1302
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

PLANEJAMENTO ESTRATÉGICO NO RAMO DA ARQUITETURA: UM


ESTUDO DE CASO COM APLICAÇÃO DA MATRIZ SWOT

Juliana Manhães Barros1 – julianamanhaesb@gmail.com


Henrique Rego Monteiro da Hora2 – dahora@gmail.com
Romeu e Silva Neto3 – romeuesilvaneto@gmail.com
1
Instituto Federal de Educação, Ciência e Tecnologia Fluminense (IFF) – Campos dos Goytacazes, RJ,
Brazil
2
Instituto Federal de Educação, Ciência e Tecnologia Fluminense (IFF) – Campos dos Goytacazes, RJ,
Brazil
3
Instituto Federal de Educação, Ciência e Tecnologia Fluminense (IFF) – Campos dos Goytacazes,
RJ, Brazil

Resumo. O planejamento estratégico é realizado nas empresas como diferencial competitivo,


viabilizando a sua sobrevivência e respondendo às exigências cada vez maiores que o ambiente
externo exige do mercado no século XX1. O objetivo deste estudo é a realização de um
planejamento estratégico em um escritório de arquitetura localizado no estado do rio de
janeiro. Como metodologia foi utilizado a ferramenta matriz swot para análise do ambiente
interno e externo e o mapa estratégico a partir das informações obtidas por meio do
brainstorming realizada junto aos colaboradores da organização. A partir da aplicação dessas
ferramentas e constatação dos seus pontos fortes, foi sugerido a empresa a estratégia de
diferenciação para obtenção da vantagem competitiva em relação aos seus concorrentes e a
elaboração de indicadores e metas a partir dos objetivos estratégico. O presente estudo
contribui para identificação do ambiente organizacional para o ramo de escritórios de
arquiteturas.

Palavras-chave: Matriz TOWS; Balanced scorecard; Arquitetura.

1. INTRODUÇÃO

A partir dos avanços tecnológicos existentes, a sociedade e as organizações cobram


mudanças constantes nos seus processos para acompanhar cada vez mais a competitividade do
ambiente em que estão inseridas. A partir desse anseio por otimização, as organizações
demandam ainda mais o desenvolvimento de um planejamento estratégico como diferencial

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1303
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

competitivo, viabilizando a sobrevivência e respondendo às exigências do ambiente externo


que está fora do seu controle.
As empresas de arquitetura, considerando as mudanças ocorridas na economia, sentem o
impacto por melhorar a qualidade dos serviços ofertados, reduzir seus custos operacionais e
encurtar ainda mais o tempo de produção como forma de aumentar a sua competitividade
(CAPPELLO et al , 2007).
Segundo Oliveira (2014) para a minimização dos problemas empresariais e a maximização
do uso das oportunidades identificadas no ambiente da empresa, é fundamental a utilização da
estratégia de forma adequada em relação aos recursos tecnológicos, físicos, financeiros e
humanos. O planejamento estratégico considera a análise do ambiente organizacional e para
facilitar este processo, existem algumas ferramentas que podem ser aplicadas (PRÖLLOCHS;
FEUERRIEGEL, 2020) . A matriz SWOT, por exemplo, permite à organização ter uma visão
geral e profunda da sua situação organizacional de acordo com o estudo dos fatores internos e
externos da empresa (PEREIRA, 2010). Além do Balanced Scorecard, sistema que considera
indicadores não somente financeiros, mas também não-financeiros e possui como diferencial a
capacidade de comunicar a visão e a estratégia a partir de indicadores de desempenho oriundos
dos objetivos estratégicos e metas que interagem entre si (KAPLAN e NORTON, 1997).
Este trabalho busca a oportunidade de um estudo sobre planejamento estratégico utilizando
a Matriz SWOT cruzada e a linha do Balanced Scorecard ao utilizar o mapa estratégico,
indicadores e metas como ferramenta para alcance dos objetivos estratégicos de um escritório
de arquitetura.

2 REVISÃO DA LITERATURA

2.1 Planejamento estratégico

Segundo Andrade (2016), a missão trata de definir as expectativas e interesses específicos


que a empresa se propõe a satisfazer. Lobato (2009, p. 68) afirma que “a missão é a expressão
da razão de existência da organização, é a função que ela desempenha no mercado, de modo a
tornar útil sua ação, justificar seus lucros do ponto de vista dos acionistas e da sociedade em
que atua”.
Se a missão se refere ao que a empresa faz e a sua razão de existência, a visão evoca o lugar
onde a organização pretende alcançar, assemelhando-se a uma meta nesse sentido. Metas são
para ser cumpridas em determinados prazos, mas as visões são para ser perseguidas com afinco
por todas as pessoas dentro da organização. A definição da visão estratégica é sobre uma
situação futura desejada a longo prazo e que serve como guia para definição do objetivo e
realização da missão institucional (SCORSOLINI-COMIN, 2012).

2.2 Análise do ambiente

Em uma análise do ambiente externo pretende-se identificar as ameaças (A) e as


oportunidades (O) incidentes no relacionamento organização/condições ambientais. Esse
ambiente é fora de controle; contudo, deve ser monitorado continuamente pois constitui um
pilar indispensável para a elaboração do planejamento estratégico. As oportunidades se referem
aos acontecimentos externos ou possíveis ocorrências que podem auxiliar na realização dos
objetivos estratégicos. Enquanto as ameaças, são aqueles que podem atrapalhar o andamento
dos objetivos estratégicos (GUAZZELLI; XARÃO, 2018)
Esta análise ambiental também é sugerida por Porter (1979) e consiste em cinco forças
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1304
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

relacionadas à competitividade que são: a. Poder de negociação dos fornecedores determinar os


custos da matéria-prima e de outros insumos; b. Ameaça de produtos substitutos determinam a
inclinação do comprador ao custo da mudança e a preços relativos a essa substituição; c.
Ameaça de entrada de novos concorrentes determina um limite nos preços e propõe o
investimento para inibir entrantes; d. Poder de negociação dos clientes influencia preços, dados
pelas empresas, custo e investimentos, exigindo serviços excepcionais; e e. Rivalidade entre os
concorrentes determina preços e custos da concorrência relativos ao desenvolvimento de
produto, publicidade e força de venda.
A análise interna é realizada por meio da identificação dos pontos fortes (F) e fracos (FR)
da organização. Os pontos fortes se referem aos fatores que atuam como facilitadores de sua
capacidade para atender às suas finalidades, promovendo diferenciação e vantagem competitiva
quando comparada com a concorrência. Os pontos fracos se referem aos fatores negativos que
atuam como inibidores da capacidade para atender as finalidades da empresa, colocando a
mesma em uma situação desfavorável quando comparada com a concorrência (ANDRADE,
2016).
O autor complementa que a cadeia de valor proposta por Porter (1992), permite um exame
sistemático de todas as atividades que a empresa desempenha e como elas interagem entre si,
identificando quais criam valor e aquelas que não criam (Figura 1). Uma empresa obtém
vantagem competitiva desempenhando estas atividades estrategicamente relevantes, de forma
mais barata e melhor do que seus concorrentes.

Figura 1 - A Cadeia de Valor

De acordo com Porter (1992), as atividades que geram valor podem ser divididas entre
atividades principais e atividades de apoio. As atividades principais têm relação com a criação
física de um produto, sua venda e distribuição a compradores e seu serviço pós-venda. Enquanto
as atividades de apoio proporcionam o apoio necessário para a implementação das atividades
principais
A matriz SWOT é realizada com o objetivo de definir as estratégias empresariais, focando
em manter os pontos fortes, reduzir a intensidade dos pontos fracos, aproveitar as oportunidades
e proteger-se das ameaças (Figura 2).

Figura 2 - Matriz SWOT cruzada

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1305
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O mapa estratégico traduz a missão, a visão e a estratégia em objetivos, de acordo com


diferentes perspectivas referentes ao negócio e representam um pilar importante para uma visão
ampliada da organização. Cada perspectiva representa um conjunto de objetivos estratégicos
que retrata o que a instituição pretende alcançar mediante as necessidades de cada público de
interesse como: Sociedade, Processos Internos, Pessoas e Infraestrutura, assim como os
principais desafios a serem enfrentados para o alcance da visão e o cumprimento da missão
institucional. As perspectivas, quando vistas em conjunto, permitem uma visão completa da
estratégia da instituição e contam a história da estratégia de uma forma clara e de fácil
compreensão (ZIMMERMAN, 2015).
Os indicadores buscam traduzir a evolução no alcance de cada objetivo estratégico, as
metas estabelecem o nível desejado de cada indicador quando do alcance dos resultados finais.
Para todo indicador deverá ser estipulado um nível desejado (meta) para o horizonte de tempo
da vigência do planejamento proposto (ZIMMERMAN, 2015).

3. METODOLOGIA

A natureza desta pesquisa é aplicada e com base em seus objetivos pode ser considerada
descritivo-exploratório. Em relação aos seus procedimentos técnicos é utilizado o estudo de
caso, em que possui como objeto de estudo um escritório de arquitetura na cidade de Campos
dos Goytacazes, RJ e busca elucidar a realidade da empresa com a metodologia de um
planejamento estratégico. Neste estudo, foi realizado a técnica de brainstorm junto aos
colaboradores com o objetivo de definir o verdadeiro perfil do escritório de arquitetura em
relação a visão e missão, ambiente externo e interno que consideravam inferir no escritório,
além da definição dos objetivos estratégicos, indicadores e metas. A análise dos dados
aconteceu simultaneamente à sua coleta e ao fim os resultados foram analisado junto ao
responsável pelo escritório atestando a sua veracidade.

3.1 Procedimentos metodológicos

Para o desenvolvimento da Matriz SWOT e Balanced Scorecard, diversos autores trazem


uma metodologia para a sua elaboração (HAMEL; PRAHALAD, 1995; OLIVEIRA, 2014;
ANDRADE, 2016, KAPLAN e NORTON, 1997). Para este estudo, foi utilizado o modelo
adotado por Zimmerman (2015) com algumas adaptações a partir de 5 etapas.
Etapa 1: definição da missão e visão organizacional a partir das perguntas: a. Por que a
instituição existe? b. Para quem a instituição existe? c. O que faz? d. Sua Missão?; e e. Em
longo prazo, onde, de que forma, gostaríamos de estar no futuro? Qual é o nosso futuro
desejado?
Etapa 2: definição das oportunidades e ameaças que incidiam no escritório de arquitetura
considerando as cincos forças de Porter e das forças e fraquezas considerando as atividade da
cadeia de valor e em quais circunstâncias elas ocorriam.
Etapa 3: ao obter todas essas informações, foi confrontado a partir da Matriz SWOT
cruzada considerando quatro perguntas: a. como as forças podem maximizar as oportunidades?
b. como as forças minimizam as ameaças? c. quais ações minimizam as fraquezas e aproveitam
as oportunidades? d. quais ações minimizam as fraquezas e as ameaças?
Etapa 4: para elaboração do mapa estratégico considerou-se os objetivos estratégico
específicos para alcance da missão e visão do escritório nas perspectivas da sociedade, dos
processos internos, das pessoas e da tecnologia e infraestrutura.
Etapa 5: estes objetivos estratégicos foram então desmembrados para criação de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1306
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

indicadores e metas a partir de três ingredientes: a. quantificar: definir metas e validar as


relações de causa e efeito no mapa estratégico; b. definir o horizonte de tempo: determinar como
os temas estratégicos criarão valor a curto, médio e longo prazo; c. selecionar iniciativas:
selecionar os investimentos estratégicos e os programas de ação que capacitarão a alcançar os
prazos programados (KAPLAN e NORTON 2004).

4 DISCUSSÃO E ANÁLISE DOS DADOS

4.1 Definição do objeto de estudo

O estudo de caso foi realizado em uma micro empresa projetista de arquitetura que atua há
sete anos no ramo na cidade do interior do Rio de Janeiro. O escritório é referência na cidade
em que atua e está em grande ascensão nas cidades ao redor como Macaé e Itaperuna, além de
possuir visibilidade em todo o sudeste. Os principais serviços que os clientes buscam são
projetos executivos, interiores e reformas. A empresa recentemente possui equipes terceirizadas
de execução de obra, contudo ainda não é o forte da empresa, apesar de ser o responsável por
maior parte do seu faturamento.

4.2 Proposta de planejamento estratégico

4.2.1 Missão e visão organizacional

Para garantir que o planejamento estratégico seja realizado de acordo com o que a empresa
pretende alcançar, iniciou-se nesta etapa a descrição da razão do escritório existir e o que ele
pretende alcançar. Como ainda não possuía esses elementos formalmente delimitados, foi
proposto junto ao escritório as seguintes definições elaboradas e que podem ser modificadas ou
ampliadas de acordo com Figura 3.

Figura 3 - Missão e Visão da Organização

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1307
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme exposto, é notório algumas palavras-chave que devem ser consideradas no


planejamento para garantir o seu alcance, como: reconhecimento nacional, qualidade, sonhos e
expectativas e mercado imobiliário.

4.2.2 Análise do ambiente

Ao realizar o brainstorming junto aos colaboradores da organização foi identificado as


principais ameaças e oportunidades do ambiente externo que incidem no escritório de
arquitetura alinhado as cinco forças de Porter (Figura 4).

Figura 4 - Ambiente Externo da Organização

Em relação às oportunidades e ameaças identificadas, os elementos corroboram com o


Carneiro et al (2016) em seu trabalho. Apenas o elemento A2. Crescimento de profissionais da
área não foi considerado pelo autor por se tratar da especificidade de cada local, visto que na
cidade deste estudo possuem cursos de qualidade na área da arquitetura. Além do O5. Novos
software de gestão, que não foram considerados pelo autor na época, mas hoje é uma
oportunidade que produz um grande diferencial competitivo.
Ao analisar as principais forças e fraquezas e por quais consequências elas ocorriam
obteve-se como resultado o Figura 5.

Figura 5 - Fraquezas da Organização


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1308
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A atividade sistema de gestão e estrutura organizacional é uma fraqueza notória e raiz de


outros pontos identificados em que não há qualquer controle dos processos no escritório, o que
gera o atraso na entrega dos projetos e em sua elaboração. Enquanto seus pontos fortes,
destacam-se o marketing das redes sociais que geram um retorno significativo na prospecção
de novos clientes e na disseminação do escritório, além da qualidade do trabalho que apesar das
reclamações de atrasos constante, os clientes no fim demonstram muita satisfação com o
resultado.

4.2.4 SWOT cruzada

A etapa seguinte consiste em cruzar o ambiente externo com o interno do escritório de


arquitetura, por meio da Matriz SWOT cruzada, focando nas ações necessárias que minimizem
as fraquezas e ameaças e maximizem as forças e oportunidades que irão surgir a partir da
combinação desses dois ambientes, conforme Figura 6.

Figura 6 - Matriz SWOT cruzada

A partir da matriz foi indicado que se adote a abordagem de agressividade e diferenciação


nas ações de marketing e venda, visto seu potencial para demonstrar o forte da organização.
Enquanto, no setor de sistema de gestão e estrutura organizacional agir em busca de recuperação
e sobrevivência, visto suas debilidades que podem atrapalhar o alcance da vantagem
competitiva.

4.2.5 Mapa e objetivos estratégicos

A partir da linha abordada pelo Balanced Scorecard foi desenvolvido um mapa que integra
os diferentes objetivos estratégicos e como interagem entre si na perspectiva da Sociedade, dos
Processos Internos, das Pessoas e da Tecnologia e Infraestrutura, conforme Figura 7.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1309
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 - Mapa e Objetivos Estratégicos da Organização

A missão e a visão do escritório é o ponto principal para que seja definido os objetivos
estratégico a partir das quatros expectativas. Para a sociedade, o escritório busca a qualidade de
seus serviços percebida pelos clientes em seus projetos, a partir disso possui visibilidade para
atuar em novos mercados como a construção civil, garantindo a mesma qualidade. Em relação
aos processos internos, a busca por inova-los garantindo um planejamento adequado dos
clientes e redução no tempo de entrega dos projetos no intuito de obter uma excelência em
gestão operacional e estratégica por meio do desenho e alinhamento de todo o desenvolvimento
de trabalho. Enquanto pessoas, almeja fortalecer, capacitar e reter talentos o que tem impacto
direto na produtividade do escritório e garantir um capital humano. Por fim, a tecnologia e
infraestrutura para alcance de novas tecnologias voltada a elaboração de projetos e otimização
e controle dos processos internos.
Após definir os objetivos estratégicos, foram estabelecidos indicadores que meçam o seu
alcance e as metas que devem ser alcançadas permitindo ao escritório o acompanhamento dos
resultados almejados (Figura 7).

Figura 7 - Objetivos Estratégicos, indicadores e metas da Organização


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1310
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Objetivamente no intuito de reduzir possíveis falhas e dificuldades na implantação do


plano, ações de controle deverão ser realizadas para acompanhar a evolução dos resultados,
avaliando se estão indo ao encontro ao mapa estratégico. Deverá ser cumprimento às metas e
tomar atitudes corretivas caso sejam necessárias para alcançar o sucesso em relação aos
objetivos propostos para a empresa.

5 CONCLUSÃO

A pesquisa realizada proporcionou a obtenção de conhecimento sobre os conceitos de


processos da gestão estratégica que norteiam um escritório de arquitetura. O objetivo deste
estudo foi utilizar a matriz SWOT cruzada como ferramenta para elaboração de um
planejamento estratégico de um escritório de arquitetura, levantando as principais debilidades
que podem enfrentar e como potencializar a inserção da empresa no mercado em que atua. Além
disso, foi elaborado um mapa estratégico com os objetivos nas perspectivas da sociedade, dos
processos internos, das pessoas e da tecnologia e infraestrutura. Com o resultado do mapa,
elaborou-se indicadores e metas para que seja possível analisar e acompanhar o alcance dos
objetivos levantados.
A partir dos resultados obtidos foi possível definir a missão e visão do escritório
identificado a expectativa de alcançar reconhecimento nacional, referência em qualidade e
inserção no mercado de construção civil. Ao analisar o ambiente interno e externo é importante
que as seguintes atividades sejam priorizadas: marketing e vendas e sistema de gestão e
estrutura organizacional.
A partir dos resultados obtidos e das técnicas utilizadas, o resultado mostrou-se aderente
ao que foi observado e a opinião dos próprios colaboradores do escritório. O marketing e vendas
é o ponto forte da organização e deve ser melhor aproveitado evidenciando ainda mais o seu
diferencial. Enquanto o ponto fraco da organização é o setor de gestão organizacional, que deve
ser acompanhado a partir dos indicadores e metas para garantir sua vantagem competitiva.
Como sugestão para estudos futuros, recomenda-se a elaboração de um plano de ação para os
pontos considerados fracos, um mapeamento de processos para que identifique o que pode ser
otimizado e melhor distribuído em sua produção e a implantação de uma metodologia que busca
a padronização e melhoria dos seus processos.

REFERENCIAS

ANDRADE, A. R. Planejamento Estratégico: formulação, implementação e controle. 2. ed. São Paulo: Atlas,
2016.
CARNEIRO, L. et al. Plano de Marketing e Análise de Satisfação dos Clientes do Ramo de Construção Civil e
Arquitetura. p. 16, 2016.
CAPPELLO, N.; LEITE, T. M.; FABRICIO, M. M. Escritórios internos de projetos em orgãos públicos. CASO:
EDF (UFSCar, SÃO CARLOS/SP). p. 7, 2007..
GUAZZELLI, A. M, XARÃO, J. C. Planejamento estratégico. Porto Alegre: SAGAH, 2018.
HAMEL, G.; PRAHALAD, C. K. Competindo pelo Futuro. p. 41, 1995.
KAPLAN, S R. NORTON P. D. A estratégia em ação: balanced scorecard. 4 ed. Rio de Janeiro: Campus, 1997,
p.344.
KAPLAN, R. S.; NORTON, D. P. Mapas Estratégicos: Convertendo Ativos Intangíveis em resultados tangíveis
(Strategy Maps). Trad. Afonso Celso de Cunha Serra. Rio de Janeiro: Elsevier, 2004.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1311
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

LOBATO, D. M. (2009). Estratégia de empresas. 9. ed. Rio de Janeiro: FGV.


OLIVEIRA, D. de P. R.; Estratégia Empresarial e Vantagem competitiva: como estabelecer, implementar e
avaliar. 9.ed. São Paulo: Atlas, 2014.
PEREIRA, M. F. Planejamento Estratégico: teorias, modelos e processos. São Paulo: Atlas, 2010.
PORTER, M. E. Vantagem competitiva. [s.l.] Editora Campus, 1992.
PORTER, M. E. "How Competitive Forces Shape Strategy." Harvard Business Review 57, no. 2 (March–April
1979): 137–145.
PRÖLLOCHS, N.; FEUERRIEGEL, S. Business analytics for strategic management: Identifying and assessing
corporate challenges via topic modeling. Information & Management, v. 57, n. 1, p. 103070, jan. 2020.
SCORSOLINI-COMIN, F. PSICO, Porto Alegre, PUCRS, v. 43, n. 3, pp. 325-333, jul./set. 2012.
ZIMMERMAN, F. Gestão da Estratégia com o uso do Bsc. p. 78, 2015.

APENDICE A

STRATEGIC PLANNING FOR AN ARCHITECTURE OFFICE: A CASE STUDY


WITH THE USE OF THE SWOT ANALYSIS METHOD

Abstract. Strategic planning is applied by companies as a differential advantage, enabling their


survival and responding to the increasing demands from the external environment for the
market in the 21st century. The purpose of this study is to develop a strategic plan for an
architecture office located in the state of rio de janeiro. using the methodology the swot analysis
method for evaluating the internal and the external environment and the strategic map from
balanced scorecard, by engaging the office’s employees in a brainstorming. As a result, the
company has been suggested to adopt the differentiation strategy for creating competitive
advantage, inasmuch as it is allowed by their strengths, beyond indicators and goals from
strategic objectives. This study contributes to identifying the organization environment for
architecture offices.

Keywords. TOWS matriz; Balanced scorecard; Architecture

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1312
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

UMA FORMULAÇÃO DO MÉTODO DAS DIFERENÇAS FINITAS ENERGÉTICAS


PARA ANÁLISE NÃO LINEAR GEOMÉTRICA DE BARRAS

Itamara dos Santos Rocha1 - itta.rocha@yahoo.com.br


José Mário Feitosa Lima2 - lima.jmf@gmail.com
Geraldo José Belmonte dos Santos2 - belmonte@uefs.br
1 Programa de Pós-Graduação em Engenharia Civil e Ambiental, UEFS - Feira de Santana, BA, Brazil
2 Departamento de Tecnologia, UEFS - Feira de Santana, BA, Brazil

Abstract. O método das diferenças finitas energéticas (MDFE) gera as equações discretas de
equilı́brio a partir da forma fraca das equações governantes, ao contrário do método clássico
das diferenças finitas (MDF) que utiliza a forma forte das equações. Tal formulação fraca tem a
vantagem de redução da ordem das derivadas, diminuindo, assim, o tamanho do stencil gerado
e o consequente esforço computacional, além de construir um novo framework para a análise
de erro, considerando o atendimento das equações em média como no método dos elementos
finitos (MEF). No presente trabalho, apresenta-se um estudo numérico-computacional de
barras submetidas a flexão composta plana com forte não linearidade geométrica (grandes
rotações de flexão) baseado no MDFE com representações convencionais para as derivadas dos
deslocamentos, usando formulação Lagrangeana total. A formulação proposta foi verificada
utilizando-se dois casos de barras sob carregamento estático, os quais foram estudados
anteriormente por outros autores com o mesmo modelo matemático, porém com outros
tratamentos numérico-computacionais - MDF e MEF -, obtendo-se grande concordância com
os resultados, o que demonstra a potencialidade do método.

Keywords: Não-linearidade geométrica, Diferenças finitas energéticas, Grandes rotações,


Barras

1. INTRODUÇÃO

Uma abordagem de diferenças finitas com enfoque energético (a partir da forma fraca das
equações) foi apresentada inicialmente nos trabalhos de Griffin & Varga (1963) e Bushnell
(1973). Tal abordagem reduz a ordem das derivadas, gera maior exatidão das respostas
para o mesmo esforço computacional e introduz um novo framework para análise de erro
semelhante ao do MEF. No Brasil, o método das diferenças finitas energéticas (MDFE) vem

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1313
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sendo utilizado em diversos trabalhos, tais como: Villaça et al. (1993), Lima & Garcia
(2003) e Lima et al. (2014), nos quais utilizou-se um princı́pio variacional (energia potencial
total ou trabalhos virtuais) para gerar as equações discretas de equilı́brio do problema,
substituindo as derivadas dentro das integrais pelas expressões em diferenças finitas. No
presente trabalho, pretende-se verificar se uma discretização mais simples do que a utilizada
por Lima & Garcia (2003), baseada em representações centradas e reduzidas para as derivadas
dos deslocamentos, produzirá uma convergência satisfatória e mais rápida para os problemas
investigados inicialmente por Garcia (1987).

2. PROBLEMA MODELO - FORMULAÇÃO FRACA OU ENERGÉTICA

O problema aqui tratado refere-se à flexão composta de vigas planas, considerando a


não-linearidade geométrica no âmbito de grandes rotações. Para tal, as hipóteses básicas
adotadas são: (i) Consideram-se grandes rotações de flexão e, simultaneamente, pequenas
deformações, quando comparadas à unidade; (ii) As seções transversais da barra permanecem
planas, indeformadas e normais ao eixo centroidal (hipótese de Navier-Bernoulli) durante a
deformação; (iii) A barra é reta, prismática e apresenta um plano vertical de simetria XZ, no
qual atuam as cargas, sendo X o eixo centroidal e Z o eixo transversal dirigido para baixo; (iv)
As componentes normais σy e σz do tensor tensão são pequenas em relação à componente
σx , sendo, portanto, desprezadas; (v) O material da barra, durante a flexão, mantém um
comportamento elástico.
Conforme esquematizado na Figura 1, usando-se a hipótese (ii), as componentes de
deslocamentos u, v e w de um ponto B qualquer no plano XZ, nas direções X, Y e Z,
respectivamente, são dadas pelas seguintes relações cinemáticas:
u(X, Y, Z) = uo (X) − Z sin θ, (1)
v(X, Y, Z) = vo (X) = 0 e (2)
w(X, Y, Z) = wo (X) − Z(1 − cos θ), (3)
onde θ é considerada positiva quando no sentido horário.
ds − dx
A deformação especı́fica da fibra elementar Bo Co do eixo da barra, Exo = ,
dx
perante à unidade, é considerada desprezı́vel, de acordo com a hipótese 1. Nesse sentido
pode-se estabelecer as relações trigonométricas nas equações (1) e (3) acima como a seguir:
0 0 0
wo 0 1 + uo 0 sen θ wo
sen θ = ' wo , cos θ = ' 1 + uo e tan θ = = , sendo
1 + Exo 1 + Exo cos θ 1 + u0o
∂( )
que ( )0 = , representando a derivada em relação a X.
∂X
Substituindo o campo dos deslocamentos dado pelas equações (1), (2) e (3) no
tensor deformação de Green, e usando as relações trigonométricas dadas em função dos
deslocamentos, bem como a hipótese 1, obtêm-se:

0 0
0u2 w2
xx = uo + o + o − Zθ0 , (4)
2 2
(Zθ0 )2
considerando o termo desprezı́vel em comparação ao Zθ0 . Sendo as demais
2
componentes do tensor deformação nulas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1314
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 1- Relações cinemáticas dos deslocamentos na configuração deformada.

De acordo com a hipótese 5, a equação constitutiva é dada pela lei de Hooke generalizada,
na configuração indeformada, como a seguir.

σij = λkk δij + 2µij , i,j=x, y e z, (5)

sendo kk = xx + yy + zz a deformação volumétrica e δij o tensor delta de Dirac, igual a 1 se
i = j e 0 se i 6= j. Além disso, λ e µ são parâmetros do material (coeficientes de Lamè) que
νE E
são dados por: λ = eµ= , onde E e ν são o módulo de elasticidade
(1 + ν)(1 − 2ν) 2(1 + ν)
longitudinal (módulo de Young) e o coeficiente de Poisson, respectivamente. Substituindo as
expressões das deformações, obtêm-se:
0 0
 0 u2 w2 0

σxx = (λ + µ)xx ' E uo + o + − Zθ e (6)
2 2
σyy = σzz = σxy = σxz = σyz = 0, (7)

considerando também a hipótese 4, a qual é equivalente a assumir ν = 0. Os esforços


solicitantes numa seção transversal da barra – esforço normal N e momento fletor My – são
dados por:
0 0
uo2 wo2 
Z  0
N = σxx dA = EA uo + + , (8)
A 2 2
Z
My = Zσxx dA = −EIy θ0 (9)
A

sendo Iy o momento de segunda ordem em relação ao eixo Y da área A da seção transversal da


barra.
Do princı́pio dos trabalhos virtuais tem-se a forma fraca (ou energética) do problema, tal
que:

δWint = δWext em Ω, (10)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1315
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

onde
Z Z L Z 
δWint = σxx δxx dΩ = σxx δxx dA dx e (11)
Ω 0 A
Z L   h iL
δWext = qx δuo + qz δwo dx + F̄x δuo + F̄z δwo − M̄y δθ , (12)
0 0

sendo que qx e qy são as componentes das forças por unidade de comprimento aplicadas nas
direções X e Z, respectivamente; e F̄x , F̄z e M̄y são as forças nas direções de X e Z e o momento
em torno de Y, respectivamente, prescritos nas seções extremas, x=0 e x=L.
Substituindo as equações 4, 8 e 9 em 11, integrando por partes para reduzir a ordem das
derivadas e usando as expressões trigonométricas em função dos deslocamentos, obtêm-se:
Z L nh 0 0 0 0 0
 0 3uo2 wo2 uo3 uo wo2 
δWint = EA uo + + + + +
0 2 2 2 2
 0 0 00 2 00 0 00
i 0 h  0 0 w 0 u0 2 w 0 3 
+ EI wo + uo wo − uo wo wo δuo + EA uo wo + o o + o +
2

 i 0  2 2  00
00 00 0 00 00 00 2 0 0 00 0 0 00 00 02
+ EI − uo wo − uo uo wo + uo wo δwo + EI − wo wo − uo wo wo + uo wo δuo +
 00 0 00 00 0 0 00 0 00 0
 00 o
+ EI wo + 2uo wo − uo wo + uo2 wo − uo uo wo δwo dx, (13)
0 0 ∂θ 0 ∂θ 0 0 0 0 0
onde foi usada a relação δθ(uo , wo ) = ∂u0o
δuo + ∂wo0
δwo = −wo δuo + (1 + uo ) δwo .

3. FORMULAÇÃO DE DIFERENÇAS FINITAS ENERGÉTICAS

Para o desenvolvimento da formulação em diferenças finitas energéticas utiliza-se uma


malha uniforme com N N pontos nodais, N D número de divisões da barra e N R número de
pontos nodais reais, sendo que os nós das extremidades são virtuais, conforme pode ser visto
na Figura 2, pois não fazem parte do domı́nio da barra. Em cada nó x = xi , i = 1, .., N N ,
há dois graus de liberdade, U2i−1 ' uo (xi ) e U2i ' wo (xi ), sendo 2 × N N o número de graus
de liberdade armazenado no vetor U de incógnitas nodais. O número de trechos de integração
N T I é N D + 1 = N R. A expressão do trabalho virtual interno, δWint , pode ser decomposta
em termos lineares, quadráticos e cúbicos, em relação às variáveis uo e wo ,
LIN QU A CU B
δWint = δWint + δWint + δWint , (14)

onde

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1316
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- Malha de pontos nodais, numeração dos graus de liberdade e trechos de integração.

N TI N TI Z  
0 0 00 00
X X
LIN LIN
δWint = δWint (k) = EAuo δuo + EIwo δwo dx, (15)
k=1 k=1 Lk
N TI N TI Z
nh  3u0 2 w0 2  i 0 h  0 0
00
QU A
X QU A
X
o
δWint = δWint (k) = EA + o − EIwo 2 δuo + EA uo wo
k=1 Lk 2 2
 00 00 i 0 k=1  0 00  00  0 00 00 0
 00 o
+ EI uo wo δwo − EI wo wo δuo + EI 2uo wo − uo wo δwo dx e (16)
N TI N TI Z nh  u0 3 u0 w0 2   0 00 i 0
00 0 00
X X
CU B CU B o o o 2
δWint = δWint (k) = EA + − EI uo wo − uo wo wo δuo
k=1 k=1 Lk
2 2
 w 0 3 w 0 u0 2  0  00 0 0 0 00 00 0
 00
+ EA o + o o δwo + EI uo wo2 − uo wo wo + uo 2 wo δuo
 02 00 2
0 00 0
 00 o
2
+ EI uo wo − uo uo wo δwo dx. (17)
As aproximações das 1a e 2a derivadas dos deslocamentos nos pontos nodais pivotais são:
−U2i−3
, uo (xi ) = U2i+1 −2UL2i−1 −U2i−2
0 00 0 00
uo (xi ) = U2i+12Lk
2
+U2i−3
, wo (xi ) = U2i+22Lk
, e wo (xi ) =
k
U2i+2 −2U2i +U2i−2
L2k
sendo Lk = λ = NLD .
,
Já a expressão do trabalho virtual externo é dado por:
N
X TI h i
δWext = qx δU2i+1 + qz δU2i+2 Li + F¯xl U2N N −3 − F¯x0 U2N N −9 + F¯zl U2N N −2
(i) (i)

i=1
 
M̄0 δU2N N +6 − δU2N N −10
− F¯z0 U4 + M̄l U2N N +4 δU2N N +3 +
2Li
    
M̄0 U2N N −6 − U2N N −10 δU2N N −7 − δU2N N −9 M̄l δU2N N − δU2N N −40
− −
2L3i 2Li
  
M̄0 U2N N −7 − U2N N −9 δU2N N −6 − δU2N N −10
+
2L3i
  
M̄l U2N N −3 − U2N N −5 δU2N N − δU2N N −4

2L
  i 
M̄l U2N N − U2N N −4 δU2N N −3 − δU2N N −5
+ , (18)
2L3i
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1317
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

com qxi e qzi sendo as cargas uniformemente distribuı́das nos trechos de integração i nas direções
x e z, respectivamente. F¯x0 e F¯xl são forças axiais prescritas nos extremos da barra, enquanto
que F¯z0 e F¯zl são as respectivas forças transversais prescritas. Além disso, M̄0 e M̄l são os
momentos concentrados prescritos nas extremidades da barra.
As condições de contorno essenciais (cinemáticas) prescritas são:

(i) Deslocamento axial impedido (uo = 0):U3 = 0 e δU3 = 0, em x =


0; U2N N −3 = 0 e δU2N N −3 = 0, em x = L.

(ii) Deslocamento transversal impedido (wo = 0): U4 = 0 e δU4 = 0, em x =


0; U2N N −2 = 0 e δU2N N −2 = 0, em x = L.

(iii) Rotação em torno do eixo Y impedida (θ = 0): U6 − U2 = 0 e δU6 − δU2 =


0, em x = 0; U2N N − δU2N N −4 = 0 e δU2N N − δU2N N −4 = 0, em x = L.

Aplicando o princı́pio dos trabalhos virtuais, usando um deslocamento unitário para cada
variação de grau de liberdade, obtêm-se as equações algébricas simultâneas não lineares para o
problema:
 
φi U1 , U2 , ..., Un = 0, com i = 1, 2, ..., n, (19)

sendo φi cada uma das n equações algébricas. Para resolver o sistema de equações em termos
dos deslocamentos nodais Ui utilizou-se um método incremental interativo, baseado no método
de Newton-Raphson.

4. APLICAÇÕES

Nesta seção são apresentados os resultados de dois problemas não lineares, os quais
demonstram a potencialidade da formulação. Nos dois exemplos considera-se uma barra
com comprimento L = 100 cm, seção transversal quadrada (1, 0 cm × 1, 0 cm) e módulo de
elasticidade E = 240 GP a. Para comparação com os resultados obtidos por Garcia (1987)
admitiu-se uma malha com 28 divisões uniformes na barra e uma tolerância de 10−5 para o
processo de solução incremental-iterativo de Newton-Raphson.

4.1 Exemplo 1 (Caso E1-a de Garcia (1987))

Neste exemplo a barra é engastada e livre com uma carga transversal F na extremidade livre
(ver Figura 3). O incremento constante da carga é de 200 N .
Da Figura 4 percebe-se que a formulação do MDFE deste trabalho apresenta uma excelente
concordância com a solução exata em um problema em que há aumento rápido da rigidez com
o deslocamento.

4.2 Exemplo 2 (Caso E1-b de Garcia (1987))

Neste exemplo tem-se um problema de resposta pós-crı́tica de flambagem, conforme exibido


na Figura 5. Na extremidade livre da barra foi introduzida uma pequena força perturbadora
transversal de intensidade 1,0 N (constante), enquanto uma carga axial compressiva varia de
400 N a 4000N.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1318
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3- Viga engastada e livre em flexão simples

(a) wo (b) uo

Figure 4- Comparação dos deslocamentos transversal (a) e axial (b) na extremidade livre da barra, x = L,
entre o MDFE e a solução exata, para o exemplo de flexão simples.

Figure 5- Viga engastada e livre em flexão composta

A Figura 6 apresenta os resultados de deslocamento transversal e axial pós-crı́tico de uma


barra sob flambagem, demonstrando a capacidade do método MDFE em lidar com problemas
altamente não lineares.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1319
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) wo (b) uo

Figure 6- Comparação dos deslocamentos transversal (a) e axial (b) na extremidade livre da barra, x = L,
entre o MDFE e a solução do MFE de Garcia (1987), para o exemplo de flexão composta.

5. CONCLUSÕES

Uma formulação baseada no método das diferenças finitas energéticas foi apresentada para
a modelagem de flexão composta de barras, considerando grandes deslocamentos e grandes
rotações. A formulação possui a restrição de pequenas deformações e flexão no plano. Dois
exemplos foram apresentados, demonstrando grande concordância com resultados exatos e
numéricos (baseados em elementos finitos). Análise de erro e uma formulação para malhas
não regulares serão publicados em artigos futuros. Cabe registrar ainda que de forma geral o
programa apresentou maior número de iterações nos casos que tratam de flambagem, o que é
natural. Todavia, solução como a diminuição do passo de carga se mostrou eficiente na busca
de melhoria na convergência da solução.

Agradecimentos

Os autores agradecem o apoio da Universidade Estadual de Feira de Santana para o


desenvolvimento do presente trabalho.

REFERÊNCIAS

Bushnell, D. Finite Difference Energy Models versus Finite Element Models - Two Variational
Approaches in one Computer Program. Numerical and Computer Methods in Structural Mechanics.
New York, Aca demic Press, Inc., p. 291-336, 1973.
Garcia, L. F. T. Uma contrib-ição ao estudo da flexão de barras com forte não-linearidade geométrica.
Tese de Doutorado em Engenharia Civil, COPPE/UFRJ, Rio de Janeiro(RJ), 1987.
Griffin, D. S. e Varga, R.S. Numerical Solution of Plane Elasticity Problems. Journal of Society of
Industrial Applied Mathematic, 11(4), 1963.
Lima, J. M. F. e Garcia, L. F. T. Método Das Diferenças Finitas Energéticas Na Flexão De Barras Com
Forte Não Linearidade Geométrica. Sitientibus, Feira de Santana, 1(28):121-144, Jan./Jul. 2003.
Lima, M. V., Lima, J. M. F. e Lima, P. R. L. Finite Difference Energy Method for Nonlinear Numerical
Analysis of Reinforced Concrete Slab using Simplified Isotropic Damage Model. Revista IBRACON
de Estruturas e Materiais, 7(6):940-964, Nov./Dec, 2014. DOI:10.1590/S1983-41952014000600004.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1320
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Villaça, S. F., Garcia, L. F. T. e Polilo, V. R. Uma Solução Numérica para Análise Não Linear
Geométrica de Flexo-Torção em Hastes de Paredes Delgadas com Seção Aberta. Revista Brasileira
de Engenharia, Caderno de Engenharia Estrutural, 10(2), 1993.

A FORMULATION OF THE ENERGETIC FINITE DIFFERENCES METHOD FOR


GEOMETRICAL NONLINEAR ANALYSIS OF BARS

Abstract. The energetic finite difference method (EFDM) generates the discrete equilibrium
equations from the weak form of the governing equations, unlike the classic finite difference
method (MDF) which uses the strong form of the equations. Such a weak formulation has
the advantage of reducing the order of the derivatives, thus reducing the size of the stencil
generated and the consequent computational effort, in addition to building a new framework
for error analysis as in the finite element method (FEM). In the present work, is presented a
numerical-computational study of bars subjected the combined axial load and plane bending
with strong geometrical nonlinearity (large rotations) based on EFDM with conventional
representations for the derivatives of displacements, using total Lagrangian formulation.
The formulation obtained was verified using two cases of bars under static loading, which
were previously studied by other authors with the same mathematical model, but with other
numerical-computational treatments: MDF and MEF, demonstrating the great potential of the
formulation.

Keywords: Geometrical nonlinearity, Energetic finite difference, Large rotations, Bars

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1321
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELO COMPUTACIONAL NEUTRÓNICO BASADO EN CÓDIGO SERPENT


PARA LA SIMULACIÓN DEL NÚCLEO DE UN REATOR NUCLEAR DEL
TIPO iPWR.

M. Cecilia Betancourt1 – mariana.cbetancourt@gmail.com


L. Rojas Mazaira 2 – leored1984@gmail.com
C. R. García Hernández1 – carlosrgh2012@gmail.com
D. Sanchez Dominguez3–dsdominguez@gmail.com
C. A. Brayner de Oliveira Lira2 –cabol@ufpe.br

1
Instituto Superior de Tecnologías y Ciencias Aplicadas (InSTEC), Universidad de La Habana, Ave.
Salvador Allende No. 1110, Quinta de los Molinos, La Habana 10400, Cuba.
2
Centro Regional de Ciências Nucleares do Nordeste – CRCN-NE, Avenida Professor Luiz Freire,
1000, 50740-535 Recife, PE, Brazil.
3
Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil.

Resumen. Los reactores nucleares modulares pequeños tienen grandes posibilidades de


desarrollo en el futuro. Y entre ellos por sus características de seguridad y similitud con los
reactores actuales se destacan los reactores de agua a presión integrales (iPWR). En el
trabajo se presenta un modelo computacional neutrónico basado en el código de Monte
Carlo Serpent para el diseño de un ciclo combustible extendido de cuatro años. Se ofrecen los
resultados principales del comportamiento neutrónico del núcleo para el ciclo extendido.

Palabras claves: neutrónica computacional, ciclo combustible extendido, código Serpent.

1. INTRODUCCION.

El desarrollo de reactores nucleares pequeños comenzó a principios de la década de


1950 para la propulsión naval como fuentes de energía para submarinos nucleares y barcos
rompe-hielo. Hoy en día han ganado gran popularidad los llamados Reactores Modulares
Pequeños, (SMR por sus siglas en inglés). Pequeño significa que están en un cierto rango de
potencia, generalmente se acepta entre 10 y 300 Mwe. El valor mínimo asegura que el reactor
sea adecuado para aplicaciones industriales. El valor máximo asegura que conserve las
ventajas esperadas de este tipo de reactores como son: producción en serie, correspondencia
con la red eléctrica, etc (IAEA, 2018).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1322
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Modular se refiere a que el sistema en su conjunto suministra la cantidad de vapor de


origen nuclear deseada, sin embargo, el conjunto de la unidad se puede ensamblar a partir de
uno o varios submódulos. La implementación de módulos puede secuenciarse a lo largo del
tiempo, tanto para adecuarse al crecimiento de la carga regional como para cumplir requisitos
económicos La construcción de la planta mediante ensamblaje de elementos o módulos
construidos en fábrica no es privativa de estos reactores, aunque por ser más pequeños esta se
facilita.
Hay tres grupos principales de diseños de SMR que están siendo desarrollados
aceleradamente en países como USA, Japón, China, Corea, Rusia, Francia y otros. El primer
grupo se basa en los conceptos previos de los diseños de reactores de agua ligera ya probados
y ampliamente utilizados. El segundo grupo consiste en SMR refrigerados por gas y están
relacionados con los reactores de alta temperatura que utilizan el ya bien probado combustible
encapsulado tipo TRISO. El tercer grupo son los llamados SMR avanzados refrigerados con
metal líquido o sal fundida. Se espera que los conceptos de SMR que pertenecen al tercer
grupo sean los más difíciles de licenciar, ya que no hay mucha experiencia en la operación de
dichos reactores o en las instalaciones de prueba disponibles para verificar los nuevos diseños.
Actualmente hay más de 50 nuevos proyectos de SMR en desarrollo con el objetivo de
cumplir diferentes expectativas (IAEA, 2020 a). Tres de ellos están en un avanzado estado de
construcción o listos para ser concluidos. El CAREM en Argentina del tipo de agua a presión,
el HTR-PM en la República Popular China, del tipo de lecho de bolas refrigerado por gas de
alta temperatura y el KLT40s en la Federación Rusa, del tipo de planta flotante. Este último
fue conectado a la red eléctrica en diciembre del 2019, el resto continúa en construcción.
Entre los SMR de agua a presión se destaca el concepto de reactor de agua a presión
integral (iPWR, por sus siglas en inglés), el cual es muy promisorio dadas sus muy avanzadas
características de seguridad, su viabilidad y economía (IAEA, 2020 b).
En el diseño de vasija integral, tanto el generador de vapor como el presurizador se
encuentran dentro de la vasija, lo que elimina la probabilidad de rotura de la tubería principal
de circulación y minimiza los accidentes de rotura del generador de vapor. El diseño integral
también disminuye las exigencias sobre la contención y los costos debido a la disminución del
número de equipos. La llamada huella de planta se disminuye y algunos proyectos tienen un
diseño sísmico muy robusto. Poseen varias características de seguridad pasiva como son los
sistemas de refrigeración de emergencia con circulación natural y los sistemas de inyección de
agua alimentados por gravedad, que garantizan la eliminación pasiva de calor residual con el
inventario de agua in situ, solo empleando las fuerzas naturales como la evaporación, la
condensación y la gravedad.
Entre los proyectos más importantes de iPWR están el IRIS (Carelis, 2003), del Consorcio
IRIS, mPower (Erighin, 2012) de Tecnologías BWX, SMR-160 de Holtec International,
Westinghouse SMR de Westinghouse Electric Company LLC, USA y NuScale de NuScale
Power (IAEA, 2018). En la Tabla 1 se resumen las características más importantes de estos
proyectos, muchas de ellas comunes, como es el uso de una red cuadrada de 17 por 17
elementos combustibles de UO2 de bajo enriquecimiento.
Aunque el proyecto del reactor mPower fue inicialmente concebido para ciclos
combustibles de dos años y recargas parciales, más recientemente han sido propuestas
modificaciones de la configuración del núcleo para alcanzar los llamados ciclos combustibles
extendidos de cuatro años de duración y en los cuales la carga completa del núcleo es retirada
de una vez y no se realizan recargas parciales (Kitcher y Chirayath, 2016).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1323
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabla 1. Principales parámetros técnicos de los más importantes proyectos de iPWR.

Parámetros mPower NuScale SMR-160 Westinghouse


Capacidad Térmica
575/195 160/50 525 / 160 800/>225
/eléctrica MW(t)/MWe
Tipo de combustible/tipo UO2 /17x17/ UO2 /17x17/ UO2 UO2 /17x17/
de red cuadrada cuadrada cuadrada cuadrada
Número de Conjuntos
69 37 112 89
Combustibles
Ciclo combustible 18–24
24 24 24
(meses) (flexible)
Barras de Barras de
Barras de Barras de
Mecanismo principal de control y control y
control. control.
control de la reactividad absorbente absorbente
disuelto disuelto

Es conocido que para ciclos combustibles de un paso desde el punto de vista


económico las recargas parciales son más ventajosas, la propuesta de los ciclos de larga
duración está relacionada con la posibilidad de los SMR de trabajar en áreas remotas. En
esas condiciones un ciclo combustible alargado con recarga total mejoraría la protección
contra la proliferación de armas nucleares.
El proyecto del mPower no propone el uso del control de reactividad con absorbente
disuelto en el refrigerante (Erighin, 2012), lo cual unido al hecho de la necesidad de una
reserva grande de reactividad inicial significa un reto para el control de reactividad en los
diferentes estados del reactor.
La mayoría de los estudios realizados sobre el quemado de combustible en los iPWR
se han hecho usando modelos computacionales simplificados que simulan el conjunto
combustible típico o promedio con condiciones de frontera de no fuga de neutrones en la
dirección radial. La simulación de los procesos neutrónicos del núcleo completo del
reactor usando modelos de Monte Carlo constituye un reto para el diseño de la
configuración del núcleo que alcance un ciclo extendido de cuatro años.
En el presente trabajo se presenta un modelo computacional basado en el código de
Monte Carlo Serpent que permite estudiar el comportamiento de los parámetros
neutrónicos de una configuración del núcleo del reactor para ciclo de cuatro años de
duración en un reactor iPWR de mediana potencia. La estructura del trabajo se explica a
continuación. La sección 2 del artículo describe los parámetros y características generales
del núcleo del reactor analizado, así como los principales datos del combustible y los
materiales absorbentes utilizados, en la sección tres se describen las características del
modelo computacional basado en el código Serpent y en la cuatro se discuten los
resultados obtenidos para la configuración del núcleo propuesta. En las conclusiones se
resumen los aspectos fundamentales del estudio y se dan las ideas de los trabajos futuros.

2. PARÁMETROS PRINCIPALES DEL NÚCLEO DEL REACTOR.

El núcleo del reactor analizado está compuesto por 69 conjuntos combustibles, en una
red cuadrada con paso de la red de conjuntos de 21.5 cm. El núcleo tiene una
configuración geométrica con simetría de un cuarto (Rosales y otros, 2018). La Fig. 1
describe la distribución radial de los conjuntos combustibles en el núcleo y su
enriquecimiento en U-235. Un enriquecimiento en peso de U-235 de 4 % para los
conjuntos combustibles interiores y 4.95 % para los exteriores. El ciclo combustible debe
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1324
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

alcanzar una duración de 48 meses sin realizarse ninguna permutación de la posición de


los conjuntos combustibles. La potencia térmica del núcleo es de 530 MWt, con una altura
y un diámetro equivalente de 240 y 200 cms respectivamente.

Figura 1. Diagrama del núcleo y del conjunto combustible.

Cada conjunto combustible está formado por una red cuadrada de elementos
combustibles, compuestos de varillas de dióxido de uranio de composición uniforme
axialmente, y recubiertos con una envoltura de Zircaloy-4, una holgura ocupada por gas helio
que separa a la varilla de su envoltura. En cada conjunto combustible un arreglo de 24 tubos
guías sirve para insertar las barras de control, que en nuestra propuesta pueden estar formadas
por dos tipos de material absorbente. Aunque en el diseño original del mPower se propuso
como composición de las barras de control una aleación de plata, indio y cadmio (Ag-In-Cd),
en este estudio se consideró también un material muy usado en los reactores de agua ligera, el
carburo de boro (B4C). En el centro del conjunto combustible hay un tubo guía para el
instrumento de control del flujo neutrónico. En la Tabla 2 se dan los datos principales del
conjunto combustible.
En operación normal el estado crítico del reactor se alcanza insertando barras de
control en el núcleo para compensar el exceso de reactividad necesario, que disminuye con el
aumento del quemado. El núcleo analizado no usa absorbente disuelto en el refrigerante, por
lo que todo el exceso de reactividad caliente debe ser compensado con absorbentes quemables
y barras de control insertadas. Por esta razón este diseño tiene un numero mayor de barras de
control que otros PWR de la misma potencia y similar a los reactores de agua hirviente (BWR
por sus siglas en inglés).
Los conjuntos combustibles con grupos de barras de control (CRA por sus siglas en
inglés) son agrupados en bancos de barras de forma similar a un BWR, en la Fig. 2 se muestra
la distribución de los CRA en los grupos A y B. Adicionalmente, consideramos una
modificación en el grupo A, insertando un tercer grupo denominado A1 para los conjuntos de
las posiciones (C,3), (C,5), (C7), (E,3), (E,5), (E,7), (G,3), (G,5) y (G7). .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1325
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabla 2: Datos principales del conjunto combustible.

Radio de la pastilla 0.4096 cm


Radio interior de la envoltura. 0.418 cm
Radio interior de la envoltura 0.475 cm
Paso de la red de elementos 1.26 cm
Material UO2
Material de envoltura Zircaloy-4
Radio interior del tubo guía 0.561 cm
Radio exterior del tubo guía 0.602 cm
Radio interior del tubo de
0.559 cm
instrumentación
Radio exterior del tubo de
0.605 cm
instrumentación
Material del tubo Zircaloy-4
Espacio entre conjuntos
0.04 cm
(mitad)
Material del gas de llenado Helio

Figura 2. Distribución de los conjuntos combustibles con barras de control.

3. MODELO COMPUTACIONAL BASADO EN SERPENT.

El código Sepent es un código de transporte de partículas de energía continua de


Monte Carlo desarrollado en el VTT Technical Research Center de Finlandia (Leppanen J. et
al., 2015). En su desarrollo se ha convertido en una herramienta muy completa y versátil para
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1326
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

el análisis neutrónico de reactores nucleares. Usa una descripción geométrica combinatoria


basada en universos que facilita la simulación del núcleo completo en geometrías de dos y
tres dimensiones. Puede resolver una variada cantidad de problemas, desde la generación de
constantes de grupos hasta el cálculo de quemado de los ciclos combustible.
El cálculo de quemado durante el ciclo combustible se hace con subrutinas propias, sin
acoplamientos externos, el número de zonas de quemado no está limitado, solo depende de los
recursos de memoria disponibles. Las salidas de los datos del quemado durante el ciclo
combustible son de muy fácil manipulación. Son considerados una gran cantidad de isótopos
productos de fisión, isótopos hijos en cadenas de desintegración y productos de activación. La
historia de irradiación se da en unidades de tiempo y de quemado.
Las velocidades de reacción pueden ser normalizadas a la potencia total, a la densidad
de potencia o al flujo de neutrones. En este trabajo los factores de pico del núcleo y del
conjunto combustible más cargado fueron calculados normalizados a la potencia total.
El código usa bibliotecas de secciones transversales de interacción en formato ACE
basadas en las bibliotecas de datos nucleares evaluados JEF-2.2, JEFF-3.1, JEFF-3.1.1,
ENDF/B-VI.8 y ENDFB/B-VII. Los datos de interacción están disponibles para 432 núcleos y
para 6 valores de temperatura entre 300 y 1800 K. La biblioteca usada en este estudio fue la
JEFF-3.1. Mas detalles sobre las posibilidades del código pueden ser encontrados en
(Leppanen J., 2019).
En este trabajo se presenta el modelo computacional neutrónico construido basado en
el código Serpent, para la simulación del núcleo completo del reactor iPWR analizado. El
modelo permitió calcular los diferentes estados de trabajo del núcleo propuesto para alcanzar
el ciclo extendido de cuatro años. Se determinaron las principales características neutrónicas
del ciclo combustible como son: duración del ciclo, variación de la composición isotópica
durante el quemado, distribuciones de la energía liberada para el conjunto combustible más
cargado y efectividad de los grupos de barras de control para los materiales propuestos, entre
otras.
Para la simulación del núcleo del reactor se definieron distintos tipos de celdas que
forman parte del conjunto combustible y universos para cada tipo de conjunto combustible y
para el núcleo completo. El reflector fue considerado a través de zonas de agua exteriores
axial y radialmente. 50 mil historias y 500 ciclos fueron considerados para el cálculo de todos
los estados, lo que garantizó valores de incertidumbres por debajo de 50 pcm. La duración del
ciclo fue dividida en 82 intervalos de quemado. El método predictor corrector implementado
para la interpolación temporal de los cálculos de quemado fue simulado con 10 sub pasos para
cada uno y usando extrapolación lineal en el predictor e interpolación lineal para el corrector.
El modelo computacional fue construido en la versión 2.1.29 del código Serpent
(Leppanen J., 2019), se corrió en paralelo con 24 procesadores (apenas OpenMP), en una
computadora con procesador Intel(R) Xeon(R) CPU E5-2683 v4, a 2.10 GHz y 128 GB de
memoria RAM, con el sistema operacional Linux Ubuntu 18.04.5 LTS.

4. DISCUSIÓN DE LOS RESULTADOS.


El modelo computacional neutrónico construido permitió simular el comportamiento
del ciclo combustible para la configuración del núcleo propuesta para el reactor analizado. Se
obtuvo una duración del ciclo combustible de más de 1400 días para un quemado promedio
del combustible descargado de 37 MWd/KgU, lo cual se corresponde con los parámetros
previstos. En la Fig. 3 se grafica el comportamiento del coeficiente de multiplicación de los
neutrones en medio finito Keff contra el tiempo de trabajo del reactor a potencia nominal.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1327
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Se puede observar que para el estado a potencia nominal y con el núcleo envenenado
al comienzo del ciclo (BOC, por sus siglas en inglés), se necesita compensar un exceso de
reactividad grande, mayor a 33500 pcm, para lo cual es necesario introducir en el núcleo
materiales absorbentes quemables y/o barras de control.
Uno de los desafíos del diseño del núcleo es la obtención de una distribución de
energía liberada lo más uniforme posible, durante todos los estados de trabajo del reactor a
potencia nominal. Ya que el caso ciclo estudiado no considera la recarga total del
combustible, el aplanamiento del flujo se convierte en una necesidad adicional a los requisitos
de seguridad, porque garantiza un quemado más uniforme del combustible descargado.

Figura 3. Dependencia del factor de multiplicación efectivo de los neutrones del tiempo de
quemado a potencia nominal.

En la Fig. 4 se muestran las distribuciones de los factores de pico del núcleo 4(a) y del
conjunto combustible más cargado 4(b) para tres momentos del ciclo combustible del núcleo
del reactor BOC, MOC y EOC (inicio, mitad y final del ciclo combustible por sus siglas en
inglés) en simetría de un cuarto. Los factores de pico del núcleo se calculan como la potencia
producida en el conjunto combustible entre la potencia promedio del núcleo y los factores de
pico del conjunto combustible más cargado se calculan como la potencia generada en cada
elemento combustible entre la potencia promedio del núcleo.
Las Figs. 4a e 4b muestran que las distribuciones de liberación de energía en el núcleo
y en el conjunto combustible más cargado son lo suficientemente planas para garantizar el
trabajo seguro del reactor, y ellas se vuelven cada vez más uniformes con el aumento del
quemado.
Una de las tareas del cálculo del ciclo combustible es describir el comportamiento de los
principales isótopos que componen el combustible y que se generan en el proceso de
irradiación. En la Fig. 5 se describe la variación en el tiempo de los isótopos físiles del
combustible. Se observa que la cantidad final de U-235 en el combustible es más de dos veces
la cantidad final de los nuevos isótopos físiles generados, Pu-239 y Pu-241.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1328
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Fig. 4 a). Distribución de los factores de pico del núcleo del reactor en simetría de un cuarto
para tres estados del ciclo combustible, BOC, MOC y EOC.

Fig. 4 b). Distribución de los factores de pico del conjunto combustible más cargado en
simetría de un cuarto para tres estados del ciclo combustible, BOC, MOC y EOC.

Fig. 5 Variación de la masa de los isotopos fisiles con el quemado del combustible
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1329
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

En la Fig. 6 se muestra el comportamiento de los isotopos del plutonio durante el ciclo, el


vector de los isótopos del plutonio del combustible descargado es muy similar al obtenido en
otros estudios de reatores nucleares para los mismos valores de quemado. En la Tabla 3 se
dan las efectividades de los grupos de barras de control considerados en el diseño para ambos
materiales Ag-In-Cd y B4C.

Fig. 6 Variación de la masa de los isotopos del plutonio con el quemado.

Table 3 Valores de efectividad de los grupos de barras de control considerados para ambos
tipos de materiales absorbentes.

Numero de conjuntos Keff Efectividad (pcm)


con barras de control Ag-In-Cd B4C Ag-In-Cd B4C
0 1.33804 1.33804 ---- ----
9 (A1) 1.27417 1.26610 6 391 7 194
29 (A) 1.17430 1.14939 16 374 18 865
61 (A+B) 0.99668 0.95096 34 136 38 708
De la tabla anterior se observa que para el núcleo del reactor sin incluir absorbentes
quemables solo con los 61 conjuntos combustibles con todas las barras de control totalmente
insertadas se alcanza una profunda subcriticidad. Con B4C se alcanzan valores superiores de
efectividad, lo cual es un aspecto que debe ser considerado para el diseño final del núcleo.

4. CONCLUSIONES.
El modelo computacional neutrónico desarrollado basado en el código Serpent permite
describir satisfactoriamente el comportamiento del nucleó del reactor iPWR considerado. El
diseño de carga combustible propuesto garantiza un ciclo extendido de 4 años con recarga
total, manteniendo los índices de seguridad necesarios. Un análisis termo hidráulico del
núcleo propuesto está entre las tareas futuras y comprobaría los criterios para la operación
segura del ciclo combustible propuesto.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1330
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

AGRADECIMIENTOS

Los autores agradecen a la CNEN de Brasil (Comissão Nacional de Energia Nuclear)


y a la FACEPE (Fundação do Amparo a Ciência e Tecnologia do Estado de Pernambuco) por
el apoyo a este proyecto.

REFERENCIAS

1. Carelli, Mario D. (2003). IRIS: A global approach to nuclear power renaissance”. Nuclear
News. September 2003.
2. Erighin, Madalina Aimee. (2012). A 48-month extended fuel cycle for the B&W
mPower™ small modular nuclear reactor. PHYSOR 2012. Advances in Reactor Physics.
Linking Research, Industry, and Education. Knoxville, Tennessee, USA, on CD-ROM,
American Nuclear Society.
3. IAEA. (2020 a). https://pris.iaea.org, access in June – 2020
4. IAEA. (2020 b). https://aris.iaea.org, access in June – 2020
5. IAEA. (2018). Advances in small modular reactor technology developments. Supplement
to Advanced Reactors Information System (ARIS). 2018 Edition. IAEA.
6. Kitcher E. D and Chirayath S. S. (2016). Neutronics and thermal hydraulics analysis of a
small modular reactor. Annals of Nuclear Energy. 97. (2016). 232-245.
7. Leppänen, J. et all. (2015). The Serpent Monte Carlo code: Status, development and
applications in 2013. Annals of Nuclear Energy, 82 (2015) 142-150.
8. Leppänen. J. (2019). Serpent – a Continuous-energy Monte Carlo Reactor Physics Burnup
Calculation Code. VTT Technical Research. Centre of Finland. Available online at
http://serpent.vtt.fi/mediawiki/index.php/Main
9. Rosales García, J.A., Cecilia Betancourt, M., García Hernández, C.R., Rojas, L., Lira,
C.A.B.O. and Bezerra, J.L. (2018) ‘New stage on the neutronics and thermal hydraulics
analysis of a small modular reactor core’, Int. J. Nuclear Energy Science and Technology,
Vol. 12, No. 4, pp.400–417

COMPUTATIONAL NEUTRONIC MODEL BASED ON SERPENT CODE FOR THE


CORE SIMULATION ON THE iPWR NUCLEAR REACTOR

Abstract. Small modular nuclear reactors have great potential for future development. And
among them, due to their safety characteristics and similarity to current reactors, the integral
pressurized water reactors (iPWR) stand out. In the work, a neutronic computational model
based on the Monte Carlo Serpent code is presented for the design of a four-year extended
fuel cycle. The main results of the core neutronic behavior for the extended fuel cycle are
presented.

Keywords: computational neutronic, extended fuel cycle, Serpent code.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1331
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SOLUÇÃO DAS EQUAÇÕES DA CINÉTICA PONTUAL DE NÊUTRONS COM


FEEDBACK DE TEMPERATURA VIA MÉTODO DE ROSENBROCK

Natália Barros Schaun1 - natalia.schaun@ufpel.edu.br


Fernanda Tumelero2 - fernanda.tumelero@ufpel.edu.br
Claudio Zen Petersen3 - claudio.petersen@ufpel.edu.br
1 Universidade Federal de Pelotas, Instituto de Fı́sica e Matemática - Capão do Leão, RS, Brazil
2 Universidade Federal de Pelotas, Instituto de Fı́sica e Matemática - Capão do Leão, RS, Brazil
3 Universidade Federal de Pelotas, Instituto de Fı́sica e Matemática - Capão do Leão, RS, Brazil

Resumo. Neste trabalho, resolvem-se as equações da Cinética Pontual de Nêutrons com efeitos
de temperatura pelo método de Rosenbrock de quarta ordem e quatro estágios, considerando
reatividade constante, seis grupos de precursores de nêutrons atrasados e passo de tempo fixo.
O objetivo é validar esta metodologia para futuramente aplicá-la a uma extensão do modelo
com a inserção dos efeitos dos principais venenos absorvedores de nêutrons, além de inserir
reatividades dependentes do tempo. Os resultados obtidos foram satisfatórios ao aproximarem-
se com os dados considerados benchmark em fı́sica de reatores. Com isso, verificou-se que o
método proposto superou a rigidez do sistema de equações do modelo da cinética pontual de
nêutrons, além de resolver um problema não-linear pela inclusão da temperatura ao sistema.

Palavras-chave: Equações da cinética pontual de nêutrons, Efeitos de temperatura, Método de


Rosenbrock

1. INTRODUÇÃO

A energia nuclear tem um papel importante no que se refere a sua utilização como fonte
de energia limpa. Algumas vantagens são: não libera gases de efeito estufa, obedecendo aos
objetivos do protocolo de Kyoto (1997) e, mais recentemente, ao acordo de Paris (2015); é
uma das fontes com maior eficácia para geração de energia; exige-se pouco espaço para sua
construção; disponibilidade do combustı́vel e independe de fatores climáticos, além de outros.
No entanto, sua manipulação inadequada pode gerar graves acidentes, como o que ocorreu
em Three Mile Island, nos Estados Unidos, na cidade de Pensilvânia em 1979, onde falhas
humanas terminaram desestabilizando o bom funcionamento padrão do sistema de resfriamento
do reator. Outro acidente notável na história foi o de Chernobyl (Ucrânia) na antiga União

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1332
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Soviética em 1986, em que ocorreu uma explosão no reator quatro da usina, durante a realização
de um teste de segurança, fazendo da região até hoje inabitável para viver devido a contaminação
excessiva por radiação.
Em razão disso, é importante que se invistam em estudos que garantam a operação segura
de um reator nuclear. Modelos matemáticos são grandes aliados para a ciência nuclear, visto
que podem simular de forma precisa, rápida e confiável a situação fı́sica do problema. Um dos
modelos na Cinética de reatores são as equações da Cinética Pontual de Nêutrons (ECPN), que
descreve tanto a variação da densidade de nêutrons com o tempo, quanto a concentração de
precursores de nêutrons atrasados. Além disso, é importante levar em conta nas equações da
Cinética Pontual de Nêutrons os efeitos de temperatura no modelo, podendo a reatividade sofrer
ao longo do tempo alterações que podem ficar fora do controle do operador. Essas equações
são importantes na medida em que podem representar caracterı́sticas do controle operacional
de uma usina, como por exemplo, no ajuste das barras de controle. Esses efeitos podem ser
modelados através de diversas inserções de reatividade para simular tais mudanças na densidade
de nêutrons. Inúmeros trabalhos vem sendo produzidos com diferentes abordagens metodológicas
para solucionar este modelo, entre alguns, podemos citar os de Nahla (2011) que apresenta
o método New Analytic Method (NAM) baseado nas raı́zes da Equação de Inhour usando o
método Eliminação Gaussiana para resolver as ECPN com reatividades de tipo constante, rampa
e feedback de temperatura; Mohideen Abdul Razak e Rathinasamy (2018) apresentam uma
nova maneira de resolver as equações da cinéticas pontual inversas, usando a transformada
wavelet de Haar, transformando as equações da cinética pontual inversas em um conjunto de
equações lineares; em Picca, Furfaro, Ganapol (2013) desenvolvem a abordagem de Aproximaçao
Constante por Partes Melhorado (EPCA) de Kinard e Allen (2004); em Aboanber, Nahla, Al-
Malki (2012) utilizam o método Analytical Pertubation para um grupo de precursores de nêutrons
atrasados com feedback de temperatura com base em aproximações com pequenos parâmetros
para densidade de nêutrons; Ganapol (2013) executa um procedimento numérico que usa o
método de Euler implı́cito e o esquema de diferenças finitas (BEFD) para resolver as ECPN;
Tashakor, Jahanfarnia, Hashemi-Tilehnoee (2010) que desenvolvem uma solução numérica,
considerando, além da realimentação de temperatura, a queima de combustı́vel, usando apenas
um grupo de precursores de nêutrons atrasados em seu trabalho; Em Silva (2011) usa o método
da decomposição presente em Petersen (2011) para obter uma solução analı́tica do problema,
onde a não-linearidade é tratada utilizando os polinômios de Adomian; Em Tumelero (2015)
apresenta-se uma solução das equações da Cinética Pontual aplicando o método da aproximação
polinomial, considerando os efeitos de temperatura no reator. Recentemente, Ahmad et al. (2020)
utilizam um algoritmo explı́cito baseado no Método da Função Geradora (GFM) para resolver as
equações da Cinética Pontual com os efeitos de temperatura.
As ECPN são equações diferenciais rı́gidas devido a grande diferença de vida dos nêutrons
prontos e atrasados. Desta forma, precisa-se de métodos numéricos que contornem tal
caracterı́stica. O método de Rosenbrock (ROS) tem sido, diante da literatura, satisfatório
na solução de problemas não-lineares e com alto grau de rigidez. Em Galina (2016) apresenta-se
soluções numéricas para problemas rı́gidos de cadeias de decaimento radioativo envolvendo
cadeias naturais e artificiais por meio do método Rosembrock, produzindo resultados consistentes.
Recentemente, na cinética quı́mica, Sehnem (2018) utiliza o método para resolver um sistema
rı́gido de equações diferenciais ordinárias com o objetivo de moderar o grau de rigidez e diminuir
o número de espécies envolvidas na combustão do elemento metano. No trabalho de Yang
e Jevremovic (2009), utiliza-se o método de Rosembrock para resolver as próprias equações
da Cinética Pontual de Nêutrons com diferentes tipos de inserções de reatividade, na qual se

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1333
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

comparam os resultados com dados de referência na literatura, considerados benchmark em


fı́sica de reatores.
Neste sentido, neste trabalho resolvem-se as ECPN considerando seis grupos de precursores
de nêutrons atrasados com feedback de temperatura via método de Rosenbrock. Utiliza-se
Rosenbrock de quarta ordem e quatro estágios com reatividade constante, em que os resultados
são comparados aos encontrados na literatura.

2. METODOLOGIA

2.1 Modelo com efeitos de temperatura

Os efeitos da temperatura têm uma influência importante na operação de um reator e na


segurança do sistema. Em geral, simulações mais realı́sticas de reatores nucleares são modeladas
por equações não-lineares da termodinâmica, como os efeitos da temperatura, pressão e outros
efeitos decorrentes.
A variação da reatividade com a temperatura é dada pela inclusão de uma perturbação de
primeira ordem em forma de realimentação de temperatura no modelo da Cinética Pontual de
Nêutrons,
ρ(t, T ) = ρ0 − α[T (t) − T (0)], (1)
onde ρ0 é a reatividade inicial e α = ∂ρ(t,T
∂T
)
representa o coeficiente de temperatura. Incluindo
esta perturbação, as equações da Cinética Pontual de Nêutrons com efeitos de temperatura são
dadas por:

6
d ρ0 − α[T (t) − T (0)] − β X
n(t) = n(t) + λi Ci (t),
dt Λ i=1
d βi (2)
Ci (t) = n(t) − λi Ci (t),
dt Λ
d
T (t) = Hn(t),
dt
para i = 1 : 6, onde n(t) é a densidade de nêutrons, ρ0 é a reatividade inicial, T (t) é a
temperatura, T (0) é a temperatura inicial, β é a fração total de nêutrons atrasados, λi é a
constante de decaimento para cada grupo i de precursor, Ci (t) é a concentração de precursores
de nêutrons atrasados e βi é a fração de nêutrons atrasados para cada grupo i de precursor. O
termo H representa um parâmetro ligado à influência da mudança de fluxo de calor na taxa de
variação de temperatura.
Portanto, assume-se que a taxa de variação de temperatura está relacionada de forma linear
com a densidade de nêutrons.
Com as seguintes condições iniciais:
n(0) = n0 ,
βi
Ci (0) = n0 , (3)
λi Λ
T (0) = T0 ,
para i = 1 : 6. Portanto, na Eq. (2), tem-se o modelo da Cinética Pontual de Nêutrons com
retroalimentação de temperatura.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1334
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Método de Rosenbrock

Os métodos de Rosenbrock pertencem a uma das classes dos métodos Runge-Kutta.


Consistem em linearizar os métodos de Runge-Kutta implı́citos, facilitando assim a
implementação do código, uma vez que ao invés de resolver sistemas não lineares, resolve-se
uma sequência de sistemas lineares. A estrutura do método Rosenbrock utilizada neste trabalho,
encontrada em Yang e Jevremovic (2009) é definida da seguinte forma:
∂f
k1 = Bf (y0 , t0 ) + Bhc1 ,
∂t  
∂f c21 k1
k2 = Bf (y0 + a21 k1 , t0 + h) + B hc2 + ,
∂t h
 
∂f c31 k1 + c32 k2
k3 = Bf (y0 + a31 k1 + a32 k2 , t0 + h) + B hc3 + , (4)
∂t h
 
∂f c41 k1 + c42 k2 + c43 k3
k4 = Bf (y0 + a31 k1 + a32 k2 , t0 + h) + B hc4 + ,
∂t h
y(t0 + h) = y(t0 ) + b1 k1 + b2 k2 + b3 k3 + b4 k4 .

em que B = [ γh 1
I − ∂f
∂y
]−1 , onde I é a matriz identidade m × m, h é o tamanho do passo de
integração, γ é uma das raı́zes do polinômio de Laguerre, ∂f
∂y
é a matriz jacobiana em relação a y
∂f
e ∂t é a matriz jacobiana em relação a t.
Os parâmetros para o método Rosenbrock de quarta ordem com quatro estágios, definidos
em Yang, Jevremovic (2009), utilizados neste trabalhos são: α21 = 2; α31 = 1, 92, α32 = 0, 24;
c21 = −8; c31 = 14, 88; c32 = 2, 4; c41 = −0, 896; c42 = −0, 432; c43 = −0, 4; b1 = 19/9;
b2 = 0, 5; b3 = 25/108; b4 = 125/108; c1 = 0, 5; c2 = −1, 5; c3 = 2, 42; c4 = 0, 116;
e1 = 17/54; e2 = 7/36; e3 = 0 e e4 = 125/108.

3. RESULTADOS

Os resultados são obtidos para seis grupos de precursores de nêutrons atrasados, considerando
reatividade constante e tamanho do passo de tempo fixo. Considera-se a densidade inicial
de nêutrons 1cm−3 , a temperatura inicial T0 = 300K, constante de proporcionalidade entre
temperatura e densidade de nêutrons H = 2, 5 · 10−6 K/M W s e coeficiente de temperatura da
reatividade α = 1K −1 . Os parâmetros cinéticos utilizados são: β1 = 0, 00021, β2 = 0, 00141,
β3 = 0, 00127, β4 = 0, 00255, β5 = 0, 00074, β6 = 0, 00027, β = 0, 00645, λ1 = 0, 0124,
λ2 = 0, 0305, λ3 = 0, 111, λ4 = 0, 301, λ5 = 1, 13 e λ6 = 3.
Utilizam-se três valores constantes para a reatividade: ρ = 1β, ρ = 1, 5β e ρ = 2β.
Comparam-se os resultados com o método da Aproximação Polinomial (PAM) presente em
Tumelero (2015) e com o método Backward Euler Finite Diference (BEFD) presente em Ganapol
(2013), considerado um benchmark em fı́sica de reatores.
O software utilizado foi o SciLab 6.0.2 (http://www.scilab.org/) em um computador com
as seguintes configurações: Intel R CoreTM i74930k CPU 3.40GHz, 16 GB RAM, sistema
operacional de 64-bit, processador com base em x64.
Na Tabela 1, Tabela 2 e Tabela 3, apresentam-se os resultados para a densidade de nêutrons
considerando inserção de reatividade constante e passo de integração fixo. Ao analisar as Tabelas,
percebe-se que o método de Rosenbrock produz resultados satisfatórios ao comparar com os

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1335
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dados de referência da literatura. Percebe-se que para as reatividades ρ = 1, 5β e ρ = 2β o


método ROS aproximou-se mais do método BEFD do que o método PAM. Para reatividade
ρ = 1β, o maior erro relativo está na ordem de 10−5 e para as reatividades ρ = 1, 5β e ρ = 2β o
maior erro relativo está na ordem de 10−4 .

Tabela 1- Densidade de nêutrons em cm−3 para inserção de reatividade constante ρ = 1β com efeitos de
temperatura
Reatividade t(s) ROS PAM BEFD Erro Relativo
∆t = 0, 0001 ∆t = 0, 0001 ROS e BEFD
10 132,0482667 132,0360488 132,0385964 7,323307031×10−5
20 51,70203485 51,69886781 51,69986095 4,204670099×10−5
30 28,17547296 28,17421067 28,17468536 2,795339056×10− 5
40 18,14678449 18,14605626 18,14633000 2,504520843×10−5
ρ = 1β 50 12,77984170 12,77939848 12,77957703 2,070995918×10−5
60 9,475104779 9,474806263 9,474932501 1,818217360×10−5
70 7,244597473 7,244383322 7,244477494 1,656116857×10−5
80 5,646376541 5,646216922 5,646289700 1,537995196×10−5
90 4,456898476 4,456776689 4,456834255 1,440934774×10−5
100 3,550150858 3,550056532 3,550102766 1,354646659×10−5

Tabela 2- Densidade de nêutrons em cm−3 para inserção de reatividade constante ρ = 1, 5β com efeitos
de temperatura
Reatividade t(s) ROS PAM BEFD Erro Relativo
∆t = 0, 0001 ∆t = 0, 0001 ROS e BEFD
10 107,9259503 107,8782873 107,9116832 1,321934155×10−4
20 41,60719062 41,59240359 41,60428128 6,992397123×10−5
30 23,29002807 23,29295293 23,29893150 4,263073721×10−4
40 15,30404341 15,29976806 15,30342749 4,024557324×10−5
ρ = 1, 5β 50 10,89051396 10,88764407 10,89014315 3,404889809×10−5
60 8,101278959 8,099208379 8,101031859 3,050135679×10−5
70 6,182865064 6,181303562 6,182690459 2,824014404×10−5
80 4,793435259 4,792224927 4,793307820 2,658615233×10−5
90 3,755709348 3,754754694 3,755614629 2,522000272×10−5
100 2,966146135 2,965384313 2,966074952 2,399848043×10−5

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1336
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3- Densidade de nêutrons em cm−3 para inserção de reatividade constante ρ = 2β com efeitos de
temperatura
Reatividade t(s) ROS PAM BEFD Erro Relativo
∆t = 0, 0001 ∆t = 0, 0001 ROS e BEFD
10 103,3974836 103,2824514 103,3808535 1,608366027×10−4
20 39,14209709 39,10307186 39,13886903 8,247028749×10−5
30 22,00499921 21,98505236 22,00377721 5,553283544×10−5
40 14,49435423 14,4818771 14,49367193 4,707350111×10−5
ρ = 2β 50 10,31902505 10,31040763 10,31861108 4,011716203×10−5
60 7,663596532 7,657272581 7,663319203 3,618783933×10−5
70 5,829591829 5,824777758 5,829395378 3,369892880×10−5
80 4,499570470 4,495821922 4,499427073 3,186904193×10−5
90 3,507529084 3,504567484 3,507422663 3,034073202×10−5
100 2,755206673 2,752843461 2,755126886 2,895862614×10−5

Na Fig. 1, apresenta-se o comportamento da densidade de nêutrons para reatividade constante


ρ = 1β. O gráfico comportou-se de forma satisfatória ao coincidir com o pontos de referência
da literatura, no caso, com o método BEFD. O gráfico do comportamento da densidade para as
outras reatividades (ρ = 1, 5β e ρ = 2β) é análogo a este, porém com um rápido decrescimento
que dificulta a visualização gráfica. Na Fig. 2, mostra-se os gráficos da temperatura para as
reatividades contantes ρ = 1β, ρ = 1, 5β e ρ = 2β. Os gráficos da temperatura para inserção de
reatividade constante comportaram-se de forma esperada.

figura 1- Densidade de nêutrons para reatividade constante ρ = 1β com retroalimentação de temperatura.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1337
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) ρ = 1β (b) ρ = 1, 5β

(c) ρ = 2β

figura 2- Temperatura para inserção de reatividade constante, para (a) ρ = 1β, (b) ρ = 1, 5β, (c) ρ = 2β .

4. CONCLUSÃO

Neste trabalho, foram resolvidas as equações da Cinética Pontual de Nêutrons com


retroalimentação de temperatura pelo método de Rosenbrock de quarta ordem e quatro estágios,
considerando reatividade constante. Obtidos os resultados, verificou-se que o método ROS
superou a rigidez do sistema, além de resolver um problema não-linear pela inclusão da
temperatura ao modelo. Os resultados numéricos foram satisfatórios quando comparados com
resultados considerados “benchmark” em fı́sica de reatores. Neste sentido, para trabalhos futuros,
pretende-se inserir reatividades dependentes do tempo ao modelo com temperatura, além de
introduzir os efeitos dos principais venenos absorvedores de nêutrons para análise final do
comportamento da densidade de nêutrons.

Agradecimentos

O primeiro autor agradece a CAPES pelo incentivo financeiro a esta pesquisa. Os demais
autores agradecem a UFPel pelo apoio a esta pesquisa.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1338
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS

Ahmad, I.; Zahur, A.; Shaukat, N.; Ahmed, R.; Samee, A.; Ahmad, S. (2020), “Generating Function
Method for the solution of point reactor kinetic equations, Progress in Nuclear Energy, vol 123, 103-
286.
Aboanber, Ahmed E.; Nahla, Abdallah A.; Al-Malki, Faisal, A. (2012), “Stability of the analytical
perturbation for nonlinear coupled kinetics equations, International Conference on Mathematics,
Trends and Development ICMTD12, 27-29.
Duderstadt, J. e Hamilton, L. (1986), “Nuclear Reactor Analysis, John Wiley & Sons, New York.
Ganapol, B. D. (2020), “A highly accurate algorithm for the solution of the point kinetics equations,
Annals of Nuclear Energy, vol 62.
Galina, G. (2016), “Sistemas Rı́gidos Associados a Cadeias de Decaimento Radioativo, Dissertação de
Mestrado, IME/USP, São Paulo.
Kinard, M. e Allen, K. E. J. (2004), “Efficient numerical solution of the point kinetics equations in
nuclear reactor dynamics, Annals of Nuclear Energy, vol 31, 1039-1051.
Mohideen Abdul Razak, M. e Rathinasamy, N. (2018), “Haar wavelet for solving the inverse point
kinetics equations and estimation of feedback reactivity coefficient under background noise, Nuclear
Engineering and Design, vol 335, 202-209.
Nahla, A. A. (2011), “An efficient technique for the point reactor kinetics equations with Newtonian
temperature feedback effects, Annals of Nuclear Energy, vol 38, 2810-2817.
Petersen, C.Z. (2011), “Solução analı́tica das equações da cinética pontual e espacial da teoria de
difusão de nêutrons pelas técnicas da GITT e decomposição , Dissertação de Mestrado, UFRGS,
Porto Alegre/RS.
Picca, P.; Furfaro, R.; Ganapol, B.D. (2013), “A highly accurate technique for the solution of the non-
linear point kinetics equations, Annals of Nuclear Energy , vol 58, 43-53.
Silva, J.A. (2011), “Cinética Pontual com Realimentação de Temperatura considerando um grupo de
precursores de nêutrons atrasados, Dissertação de Mestrado, UFRGS, Porto Alegre.
Sehnem, R. (2018), “Modelagem numérica para a obtenção de mecanismos reduzidos via método de
Rosenbrock: a combustão do metano, Dissertação de Mestrado, PPGMM/UFPel, Pelotas/RS.
Tashakor, S.; Jahanfarnia, G.; Hashemi-Tilehnoee, M. (2010), “Numerical solution of the point reactor
kinetics equations with fuel burn-up and temperature feedback, Annals of Nuclear Energy, vol 37,
265-269.
Tumelero, F. (2015), “Solução das Equações da Cinética Pontual de Nêutrons com e sem
Retroalimentação de Temperatura pelo Método da Aproximação Polinomial, Dissertação de
Mestrado, PPGMM/UFPel, Pelotas/RS.
Yang, X. e Jevremovic, T. (2009), Revisiting the Rosenbrock numerical solutions of the reactor point
kinetics equation with numerous examples. Journal Nuclear Technology and Radiation Protection, 24.

APÊNDICE

SOLUTION OF NEUTRON POINT KINETICS EQUATIONS WITH TEMPERATURE


FEEDBACK VIA ROSENBROCK METHOD

Abstract. In this work, we solve the Point Neutron Point Kinetics equations with temperature
effects by the fourth-order and four-stage Rosenbrock method, considering constant reactivity, six
groups of delayed neutron precursors, and fixed time step. The aim is to validate this methodology
for future application to an extension of the model with the insertion of the effects of the most
powerful known main neutron-absorbing nuclear poisons, besides inserting time-dependent
reactivity. The results obtained so far were satisfactory when approaching the data considered
a benchmark in reactor physics. With this, it was verified that the proposed method overcame
the stiffness of the system of equations of the Neutron Point Kinetics models, besides solving a
non-linear problem by including the temperature in the system.

Keywords: Neutron point kinetics equations, Temperature effects, Rosenbrock’s method

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1339
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

INCOMPLETE OBSERVATIONS AND INCIPIENT FAULT MONITORING IN


INDUSTRIAL PLANTS

J. M. Bernal-de Lázaro1 - jbernal@automatica.cujae.edu.cu


C. Cruz-Corona2 - carloscruz@decsai.ugr.es
M. Lisboa-Rocha3 -mlisboa@mail.uft.edu.br
A. J. Silva-Neto4 - ajsneto@iprj.uerj.br
O. Llanes-Santiago1 - orestes@tesla.cujae.edu.cu
1 Dept. of Automation and Computing, Universidad Tecnológica de La Habana, CUJAE, Cuba.
2 Dept. of Computer Science and Artificial Intelligence, University of Granada, Spain.
3 Dept. de Ciência da Computação, Universidade Federal do Tocantins, Palmas, Brazil
4 Dept. of Mechanical Engineering, Universidade do Estado do Rio de Janeiro, IPRJ-UERJ, Brazil.

Abstract. An early fault detection can help to ensure optimal operation status, reducing
maintenance costs, and downtime in monitored industrial systems. However, incipient and
small-magnitude faults are easily masked by the effect of interferences, missing data, and noisy
measurements which are common in the industrial environments. Therefore, fault diagnosis
schemes are needed for effectively minimizing the false and missing alarm rates resulting from
noise, uncertainty, and unknown disturbances, by achieving high detection performances, even
in presence of missing data in the observations. This paper proposes a novel methodology
considering on-line imputation of missing data to detect small-magnitude faults based on data-
driven tools. For the imputation process, three techniques are evaluated: Fuzzy C-means
(FCM), Singular Value Decomposition (SVD), and Partial Least Squares regression (PLSr).
Afterward, a data preprocessing stage using the kernel PCA and Exponentially Weighted
Moving Average (EWMA-ED) is developed. The effectiveness of the proposal was validated
by using the Tennessee Eastman (TE) process benchmark.
Keywords: Incipient faults, Missing data, Online imputation, EWMA-ED, KPCA

1. INTRODUCTION
Data-based techniques and specifically Multivariate Statistical Process Monitoring (MSPM)
have received great attention in the develop of fault diagnosis schemes in the last two decades
(Ge, 2017; Yan et al., 2017; Lei et al., 2020). Its increasing popularity is due to that these
approaches not require an exact model since they only need historical data to characterize the
processes and identify their operational status (Bernal-de Lázaro et al., 2015). However, the
performance of these techniques can be severely affected by outliers, noisy measurements,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1340
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

and missing data, which are very common in industrial environments (Garces and Barbaro,
2011). Sources of electromagnetic and electrostatic noise such as AC power lines, electrical
motors, generators, transformers, fluorescent lights, and radio transmitters can bring additional
uncertainty on the measurements (Bernal-de Lázaro et al., 2018). The observations with
incomplete values can also result from the occasional disrupt of data acquisition systems, sensor
failure, merging data from different systems and inconsistent sampling rates, possible errors
in transmission networks and communication protocols among other reasons (Severson et al.,
2017). All challenges cited before, need to be considered for the successful design and on-line
implementation of the fault diagnosis systems.
Several data-driven approaches based on the Principal Component Analysis (PCA), Partial
Least Square (PLS), Independent Component Analysis (ICA), and their kernel versions have
been successfully applied to deal with the outliers and noisy measurements during the fault
detection tasks. However, the effectiveness of these fault detection procedures is usually
limited by the conventional Square Prediction Error (SPE) and Hotelling’s T2 statistics, which
do not work suitably against small-magnitude faults. This problem is further complicated if
critical information is dismissed by an improper handling of process observations with missing
data (Llanes-Santiago et al., 2019). In fault diagnosis, the missing data could hide relevant
information about possible relations between variables and abnormal operating conditions. For
these reasons, the imputation procedures should be part of the fault diagnosis systems for
handling the missing data.
In scientific literature, there are many computational tools proposed to deal with missing
data problems in the fields of computer science and information technology. Some advanced
procedures for handling the missing data problem include the use of the Moving-average
models, PLSr (Folch-Fortuny et al., 2017), statistical methods such as the mean substitution
(Ardakani et al., 2016), and Expectation-maximization algorithms (Zhang et al., 2015).
Likewise, imputation procedures based on the Artificial Neural Network (Silva-Ramı́rez et al.,
2018), Bayesian networks (Askarian et al., 2016), and Fuzzy Inference System (Luengo et al.,
2012b) have also been successfully utilized. However, these approaches have been mainly
evaluated in areas where the computational complexity and the real time concept are not strictly
relevant such as: the biological research (Celton et al., 2010; Schmitt et al., 2015), social
sciences (Silva-Ramı́rez et al., 2018; Cheema, 2014), and clinical studies (Molenberghs and
Kenward, 2007; Davis and Rahman, 2016). For complex industrial processes, such as chemical
and pharmaceutical industries, where the demands of efficiency, quality, and safety are very
high, the typical procedures to deal with the missing data imply a hard limitation (Llanes-
Santiago et al., 2019). Moreover, the risk of bias added by the imputation procedures must be
minimal to not fake the behavior of the variables. These are also extremely important issues
for the monitoring of incipient faults, where slowly developing changes can be masked by the
effect of control procedures, disturbances, noise, and outliers.
The present paper proposes a fault diagnosis methodology wherein the on-line imputation of
the missing data patterns in presence of small-magnitude faults is considered. Three imputation
methods to deal with the missing values are evaluated in the proposal: Fuzzy C-means (FCM),
Singular Value Decomposition (SVD), and Partial Least Squares Regression (PLSr). These
algorithms are powerful computational tools for imputation tasks, but other approaches could
also be utilized. This paper is not mainly focused on the performance comparison between the
imputation algorithms. In this regard, several studies have been developed by Garcı́a-Laencina
et al. (2010), Schmitt et al. (2015), Luengo et al. (2012a), Sikora and Simiński (2014), Dray and
Josse (2015), and Armina et al. (2017).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1341
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

This paper is organized as follows. Section 2 reviews the theoretical concepts and missing
mechanisms used to emulate the lost information at the process. In this section are also
described the TE benchmark and the methods used by the proposed methodology. The results
are discussed in Section 3. Finally, the conclusions and some future works are given.

2. Description of the methodology proposed


Figure 1 illustrates the procedure proposed. Note that this procedure requires an off-line
phase where all algorithms used in the fault detection system should be adjusted. In the proposal
X = {x1 , x2 , · · · , xi } ⊂ Ri×j denote the historical data set from an industrial process, where
i = 1, 2, ...., c ∗ m, j = 1, 2, .., p, and c represents the number of operation states (classes). In
this case, m identifies the number of observations without missing values that belong to each
operation state and p represents the number of variables in each observation.
Diff erent OFF-LINE ON-LINE
operation X Statistic information
classes C Statistical
3 .. C3 Truncated mean
. information
F3
NOC .. vectors
F1
NOC Delete all
Mean
positions
1xp 1 x (p-N)
mxp with NaN Comparison with
Mean
Vectorvector
mean of each the diff erent

elements in
(c  m) x p operation condition + operation classes
considered Identify the the
^X all position of incomplete -
Missing data NAN Incomplete N elements observation Truncated
NAN Observation with NaN observation
mechanics
NAN NAN
simulated. values 1 x (p-N)
NAN
1xp
, NAN
Unified statistic Completed Observation
NAN

(c  m) x p
Parameter
adjustment of EWMA-ED KPCA
Imputation
the algorithms
algorithms
1xp

Fault detection

Figure 1- Procedure proposed for handling incomplete observations and fault detection.

STEP 1: (Finding the missing data positions). Missing data patterns are successive
observations where one or more variables are temporarily unavailable, which results in
inconsistent values that not reflect the actual state of the measured physical quantity (Little
and Rubin, 2014). The procedure proposed uses different missing data mechanisms to emulate
the location and quantity missing variables in the historical data sets with aims to evaluate the
effectiveness of the imputation procedures. Three typical missing data mechanisms are utilized.
Missing at Random (MAR) that occurs when the probability that the variable xij is missing
depends on the other observed variables, but not on the value of the missing data itself. Missing
Completely at Random (MCAR) that occurs when the probability that missing variable xij is
unrelated to the value of xij itself or any other variable in the data set X. Finally, non-ignorable
case, also known as Missing not at Random (MNAR) that occurs when the probability of
variable xij missing is related to the value of xij itself even if the other variables are controlled in
the analysis. As is shown in Fig. 1, the procedure begins with the location of missing variables in
the observation acquired. If there are k missing variables, they are removed to leave a modified
vector x̃1×(p−k) , where only the available variables are considered.

STEP 2: (Classification of the partial information). In the second step the modified
observation x̃1×(p−k) and the mean vector x̄1×(p−k) are compared. Note that x̄1×(p−k) should be

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1342
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

previously obtained from each operation class. For determining to which class belong x̃1×(p−k) ,
a majority vote decision and three similitude metrics are considered:
− 1
d1 (x̃0 , x̄0 ) = hx̃0 , x̄0 iF hx̃0 , x̃0 iF hx̄0 , x̄0 iF 2

(1)
#− 21
p−k
"
1 X 2
d2 (x̃0 , x̄0 ) = (x̄0 − x̃0i ) (2)
(p − k) i=1 i
Z ∞
0 0 2 2
d3 (x̃ , x̄ ) = √ e−t dt (3)
π ψ
The metric in Eq. (1) so-called Alignment measure is defined as the normalized Frobenius
inner product between the imputed data and the covariance matrix of the mean vector. It can
also be interpreted as the cosine distance between these two bi-dimensional vectors (Nguyen
and Ho, 2008). The second metric used to generate the majority vote decision is the inverse
of the Root Mean Square Error (RMSE) in Eq. (2). The third metric is a similarity factor
represented by Eq. (3), and proposed by Singhal and Seborg (2001), which can be understood
as the probability that the center clusters are not closer than its Mahalanobis distance ψ =
h i 12
T
(x̄ − x̃) Λ (x̄ − x̃) ; where Λ is the pseudo-inverse of the covariance matrix calculated
by using the singularnvalue decomposition  P algorithm.
o The majority vote rule was defined as
1
P3 c
Vote(x̃ | x̄) = max 3 l=1 dl x̃, f =1 x̄f . The majority vote rule as a combination of
max rule and vote, is less sensible to estimation errors.

STEP 3: (Imputation of missing data patterns). Three imputation methods were selected to
deal with the missing values in this stage of the procedure. To evaluate the performance of these
imputation methods, the RMSE is always used. Fuzzy C-Means (FCM) is utilized as the first
imputation algorithm due to its robustness against overlapped data clusters. The FCM assigns
each data point to belong to different clusters so that the total intra-cluster distance is minimized.
The second imputation algorithm is the Singular Value Decomposition (SVD) proposed by
Troyanskaya et al. (2001). The last imputation method is the NIPALS-PLSr algorithm, which
replaces the missing values with predicted scores Ŷ using the regression equation Ŷ = XB+E.
In this case, B is the vector of PLS regression coefficients and E are the residual errors that
cannot be explained by the model (Rosipal and Trejo, 2001).

STEP 4: (Dimensionality reduction of the imputed observations). After the imputation of


missing values, the Kernel PCA (KPCA) and EWMA with enhanced dynamic (EWMA-ED) are
used to remove the irrelevant information (i.e., outliers, noise, and correlate variable process)
that may hide the faults in development or overload the system’s management. KPCA is a
nonlinear extension of the traditional principal component analysis used to reduce the high-
dimensionality of imputed observations with minimum information loss. This algorithm solve
the eigenvalue problem Σν = λν, where the covariance matrix Σ is computed in the high-
dimensional space H by using a kernel function K(xi , xj ) = hΦ̃(xi ) · Φ̃(xj )i. In this case, the
RBF kernel was selected by its good results in similar applications.

STEP 5: (Dynamic smoothing of the detection statistics). In order to detect the changes
resulting from the abnormal operation of the process, the Squared Prediction Error (SPE) and
Hotelling’s T2 are integrated by using the unified index (ϕ) as it is showed in Eq. (4) (Yue and
Qin, 2001).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1343
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SPE T2
ϕ(xi , xT
i ) = + (4)
UCLspe UCLτ 2
However, these two indexes do not achieve high detection performances when dealing with
incipient and small-magnitude faults. The EWMA-ED is an alternative solution for this
problem. The underlying idea in the EWMA-ED is to use an enhanced factor (δ) to emphasize
the current value of the statistics, without ignoring the previous observations (Bernal-de Lázaro
et al., 2016). The smoothing through an EWMA scheme with reinforcing dynamic of the unified
index is given in Eq. (5).

ϕδ (t) = δλϕδ (t) + (1 − λ)ϕδ (t − 1) (5)

Note that λ is a constant (0 < λ ≤ 1) that determines the depth of memory used on the statistics
and δ is an enhanced parameter, such that 0 < δ · λ ≤ 1. In each case, the confidence limits of
statistics are also determined using their conventional version. The confidence limit of UCLτ 2
can be calculated by the probability distribution:

(n2 − 1)α
UCLτ 2 = Fα (α, n − α) (6)
n(n − α)
where n is the number of samples, α is the number of components, Fα is the upper 100% critical
point of F-distribution with α and n − α degree of freedom. The confidence limit for UCLspe is
approximated by
 h √ i1/h0
0 −1)
UCLspe = θ1 h0 cαθ1 2θ2 + θ2 h0 (h + 1

2
θ1 (7)
θi = n ζi h0 = 1 − 2θ1 θ23
 P
j=α+1 j 3θ2

For both statistics, the 95% confidence limit is adopted. The upper control threshold for
the ϕδ statistic is obtained through Kernel Density Estimation (KDE). The Fault Detection Rate
(FDR) is also calculated in order to evaluate the fault detection process tasks.

No. of samples (ϕ > ϕlim |f ault 6= 0)


FDR = × 100% (8)
total samples (f ault 6= 0)

2.1 Case of study: Tennessee Eastman process.


The Tennessee Eastman is a chemical benchmark process that has been commonly used
in process monitoring research. This benchmark consists of five major units: a reactor, a
vapor-liquid separator, a product condenser, a recycle compressor, and a product stripper; all
interconnected as shown the flow diagram in Fig 2. The process has several operation modes
and faults conditions that can be simulated (Downs and Vogel, 1993; Chiang et al., 2001). In
this paper, the normal operating condition (NOC) and three faults F1, F3, and F15 are used
to validate the effectiveness of the proposal. The historical data sets used contain 33 variables
with a sampling rate of 3 min, and Gaussian noise in the measurements. The fault F1 results
from an abrupt increase in the A/C feed ratio with a constant composition for the B reactant.
According to the specialized literature, F3 and F15 are small-magnitude faults for which high
detection performances are not usually achieved. The fault F3 results from unexpected changes

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1344
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

in the D feed temperature of the process. The variables affected by the fault F3 have very
similar behaviors in terms of the mean and variance with their normal operating conditions.
The fault F15 results from an unexpected increase in the inlet temperature of the condenser
cooling water of the process. Such variation causes a mean shift on the condenser cooling
flow, which produces an out-of-control for other variables of operation. However, as a result
of the control loops, the affected variables can be returned to their set-point excepting by the
temperature of the condenser cooling water.

Figure 2- Process flow diagram of Tennessee Eastman process.

It is important to highlight that the benchmark has no natural incomplete measurements.


Therefore, missing values were artificially induced into the historical data sets of the process to
generate the different missing data patterns. Based on the study by Severson et al. (2017),
four missing data patterns were considered: Random missingness, Drop-out missingness,
Patterned missingness, and Censor missingness. The Drop-out and Patterned missingness are
MCAR mechanism wherein the missing variables are correlated spatially. Meanwhile, the
Censor missingness is an example of NMAR mechanism, where random positions for the
missing values are selected and iteratively updated. Moreover, different percentages of missing
measurements varying from 1% to 20% were considered in this study.

3. Experimental results
The parameters values of the above algorithms should be adjusted before use the procedure
proposed. In this case, the number of eigenvalues for KPCA are selected by using the criterion
λi /sum(λi ) > 0.0001. Consequently, the dimension of the feature space for the TE data sets
is reduced to R33 → R19 , according to the cutoff value selected. Meanwhile, the parameter
values of the kernel function and EWMA-ED are chosen according the suggested in Bernal-de
Lázaro et al. (2016), such that: σ = 1276.22911, λ = 0.00666, and δ = 3.04656.

3.1 Classification of incomplete observations


Figure 3 shows the classification rates for the second step of the procedure proposed. Note
that most of the observations corresponding to the behavior of fault F1 are correctly recognized.
However, the faults F3 and F15 show high confusion levels. Furthermore, there are more

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1345
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

evaluated observations with only one value missing in the fault F1 than regarding the rest of
simulated operating conditions. These results are quantified by the individual length of the bar
graphs.

Random missingness Sensor•Drop•out missigness


NOC F1 NOC F1
1 1 1 1
classification rates

classification rates

classification rates

classification rates
0.5 0.5 0.5 0.5

0 0 0 0
1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%
F3 F3 F15
1 1 1 1
classification rates

classification rates

classification rates

classification rates
0.5 0.5 0.5 0.5

0 0 0 0
1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%

&HQVRU
missigness Patterned missigness
NOC F1 NOC F1
1 1 1 1
classification rates

classification rates

classification rates

classification rates
0.5 0.5 0.5 0.5

0 0 0 0
1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%
F3 F15 F3 F15
1 1 1 1
classification rates

classification rates

classification rates

classification rates
0.5 0.5 0.5 0.5

0 0 0 0
1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%

NOC F1 F3 F15

Figure 3- Classification rates for partial observations with 1%, 5%, 10%, 15% and 20% of missed values.

3.2 Results of the imputation and detection stages


Figure 4 provides the results for the third step of the procedure proposed. In this case, no
significant differences between the imputation results for the NOC, F3, and F15 were found.
For the first two cases, the RMSE values are always less than 5% regardless of the missing data
mechanisms evaluated. Further analysis showed that the worst results during the imputation
procedure are obtained for the fault F1. As shown in Fig. 4, a performance greater than 90%
for the three imputation algorithms was achieved. The results obtained show an expected
decrease in the performance of algorithms due to the increased percentages of missing data
in the simulations. The impact of the imputation stage was further analyzed considering the
non-parametric Wilcoxon test, where no imputation algorithm was the winner for a level of
significance α = 0.05. Based on these results, Fig. 5 depicts a comparison between the fault
detection performances obtained for the different missing data mechanisms when the PLSr
algorithm is utilized for the missing data treatments. Figure 5 reveals that higher fault detection
performances are obtained for the Drop-out and Patterned missingness. Note that for the fault
F1, a detection performance greater than 98% is always achieved. For the fault F3, the detection
performance overcomes the 80% only in the simulations with 1% and 5% of missing values.
Besides, the detection of the fault F15 is seriously affected by the imputation of the incomplete
observations of the process.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1346
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

NOC-Random NOC-Drop-out NOC-Censor NOC-Patterned


RMSE 10 10 10 10

RMSE

RMSE

RMSE
5 5 5 5

0 0 0 0

1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%
Missingness percents Missingness percents Missingness percents Missingness percents
F1-Random F1-Drop-out F1-Censor F1-Patterned
10 10 10 10
RMSE

RMSE

RMSE

RMSE
5 5 5 5

0 0 0 0

1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%
Missingness percents Missingness percents Missingness percents Missingness percents
F3-Random F3-Drop-out F3-Censor F3-Patterned
10 10 10 10
RMSE

RMSE

RMSE

RMSE
5 5 5 5

0 0 0 0

1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%
Missingness percents Missingness percents Missingness percents Missingness percents
F15-Random F15-Drop-out F15-Censor F15-Patterned
10 10 10 10
RMSE

RMSE

RMSE

RMSE
5 5 5 5

0 0 0 0

1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20% 1% 5% 10% 15% 20%
Missingness percents Missingness percents Missingness percents Missingness percents

FCM SVD PLSr

Figure 4- Imputation performances obtained from the FCM, SVD, and PLSr algorithms.
Random Missingness Drop−out Missingness Censor Missingness Patterned Missingness
100 100 100 100

80 80 80 80
Performance(%)

Performance(%)

Performance(%)

Performance(%)

60 60 60 60

40 40 40 40

20 20 20 20

0 0 0 0
0% 1% 5% 10% 15% 20% 0% 1% 5% 10% 15% 20% 0% 1% 5% 10% 15% 20% 0% 1% 5% 10% 15% 20%
Missingness level Missingness level Missingness level Missingness level

F1 F3 F15

Figure 5- Fault detection rate obtained in the fault detection process

4. CONCLUSIONS
In this paper, a new methodology to detect incipient faults with the on-line imputation of
incomplete observations was proposed. The proposal was evaluated by using the TE process
with imputation performances higher than 90%. The results obtained indicate that to improve
the imputation performances should be used criteria less dependent on the historical data
average. Moreover, the study shows that high performances can be achieved in the detection of
abrupt faults after the on-line imputation of incomplete observations. However, the detection
of incipient faults is heavily affected by the bias added in the imputation procedures, and
acceptable performances are not achieved for high percentages of missing measurements. As

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1347
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

future work, it should be noted the advisability of introducing the optimization techniques to
choose simultaneously all parameters of the algorithms used.

Acknowledgements
The authors acknowledge the financial support provided by the Coordenação de Aperfeiçoa-
mento de Pessoal de Nı́vel Superior (Finance Code 001 and CAPES-PRINT Process No.
88881.311758/2018-01), from Brazil. Furthermore, the authors appreciate the support provided
by the Asociación Universitaria Iberoamericana de Postgrado (AUIP) in Spain, the Conselho
Nacional de Desenvolvimento Cientı́fico e Tecnológico (CNPq) and Fundação Carlos Chagas
Filho de Amparo à Pesquı́sa do Estado do Rio de Janeiro (FAPERJ), both in Brasil, as well as the
collaboration given by the Universidad Tecnológica de La Habana ”José Antonio. Echeverrı́a”
(CUJAE) in Cuba.

REFERENCES

Ardakani, M., Shokry, A., Saki, G., Escudero, G., Graells, M., and Espuña, A. (2016).
Imputation of missing data with ordinary kriging for enhancing fault detection and diagnosis.
In Computer Aided Chemical Engineering, volume 38, pages 1377–1382. Elsevier.
Armina, R., Zain, A. M., Ali, N. A., and Sallehuddin, R. (2017). A review on missing value
estimation using imputation algorithm. In Conf. Series: Journal of Physics, 892.
Askarian, M., Escudero, G., Graells, M., Zarghami, R., Jalali-Farahani, F., and Mostoufi, N.
(2016). Fault diagnosis of chemical processes with incomplete observations: A comparative
study. Computers & Chemical Engineering, 84:104–116.
Bernal-de Lázaro, J., Llanes-Santiago, O., Prieto-Moreno, A., del Castillo-Serpa, A., and Silva-
Neto, A. (2018). A novel index for the robustness comparison of classifiers in fault diagnosis.
Neurocomputing, 275:636–648.
Bernal-de Lázaro, J., Llanes-Santiago, O., Prieto-Moreno, A., Knupp, D., and Silva-Neto, A.
(2016). Enhanced dynamic approach to improve the detection of small-magnitude faults.
Chemical Engineering Science, 146:166–179.
Bernal-de Lázaro, J., Prieto-Moreno, A., Llanes-Santiago, O., and Silva-Neto, A. (2015).
Optimizing kernel methods to reduce dimensionality in fault diagnosis of industrial systems.
Computers and Industrial Engineering, 87:140–149.
Celton, M., Malpertuy, A., Lelandais, G., and de Brevern, A. G. (2010). Comparative analysis
of missing value imputation methods to improve clustering and interpretation of microarray
experiments. BMC Genomic, 11(15):1–16.
Cheema, J. R. (2014). Some general guidelines for choosing missing data handling methods in
educational research. Journal of Modern Applied Statistical Methods, 13(2):53–75.
Chiang, L. H., Braatz, R. D., and Russell, E. L. (2001). Fault detection and diagnosis in
industrial systems. Springer.
Davis, D. and Rahman, M. (2016). Missing value imputation using stratified supervised learning
for cardiovascular data. Journal of Informatics and Data Mining, 1(2):1–11.
Downs, J. J. and Vogel, E. F. (1993). A plant-wide industrial process control problem.
Computers & Chemical Eng., 17(3):245–255.
Dray, S. and Josse, J. (2015). Principal component analysis with missing values: A comparative
survey of methods. Plant Ecol, 216:657–667.
Folch-Fortuny, A., Arteaga, F., and Ferrer, A. (2017). PLS model building with missing data:
New algorithms and a comparative study. Journal of Chemometrics, 31(7):1–12.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1348
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Garces, H. and Barbaro, D. S. (2011). Outliers detection in environmental monitoring databases.


Engineering Applications of Artificial Intelligence, 24(2):341–349.
Garcı́a-Laencina, P., Sancho-Gómez, J., and Figueiras-Vidal, A. (2010). Pattern classification
with missing data: A review. Neural Computing and Applications, 19(2):263–282.
Ge, Z. (2017). Review on data-driven modeling and monitoring for plant-wide industrial
processes. Chemometrics and Intelligent Laboratory Systems, 171:16–25.
Lei, Y., Yang, B., Jiang, X., Jia, F., Li, N., and Nandi, A. K. (2020). Applications of machine
learning to machine fault diagnosis: A review and roadmap. Mechanical Systems and Signal
Processing, 138:106587.
Little, R. and Rubin, D. (2014). Statistical Analysis with Missing Data. John Wiley & Sons.
Llanes-Santiago, O., Rivero-Benedico, B., Gálvez-Viera, S., Rodrı́guez-Morant, E., Torres-
Cabeza, R., and Silva-Neto, A. (2019). A fault diagnosis proposal with online imputation
to incomplete observations in industrial plant. Revista Mexicana de Ingenierı́a Quı́mica,
18(1):83–98.
Luengo, J., Garcı́a, S., and Herrera, F. (2012a). On the choice of the best imputation methods
for missing values considering three groups of classification methods. Knowledge and
Information Systems, 32(1):77–108.
Luengo, J., Saéz, J. A., and Herrera, F. (2012b). Missing data imputation for fuzzy rule-based
classification systems. Soft Comput, 16:863–881.
Molenberghs, G. and Kenward, M. G. (2007). Missing Data in Clinical Studies. Wiley & Son.
Nguyen, C. H. and Ho, T. B. (2008). An efficient kernel matrix evaluation measure. Pattern
Recognition, 41(11):3366–3372.
Rosipal, R. and Trejo, L. J. (2001). Kernel partial least squares regression in reproducing kernel
hilbert space. Journal of Machine Learning Research, pages 97–123.
Schmitt, P., Mandel, J., and Guedj, M. (2015). A comparison of six methods for missing data
imputation. Journal of Biometrics & Biostatistics, 6(1):1–6.
Severson, K. A., Molaro, M. C., and Braatz, R. D. (2017). Principal component analysis of
process datasets with missing values. Processes, 5:1–18.
Sikora, M. and Simiński, K. (2014). Comparison of incomplete data handling techniques for
neuro-fuzzy systems. Computer Science, 15(4):441–458.
Silva-Ramı́rez, E., López-Coello, M., and Pino-Mejı́as, R. (2018). An application sample of
machine learning tools, such as SVM and ANN, for data editing and imputation. In Soft
Computing for Sustainability Science, pages 259–298. Springer.
Singhal, A. and Seborg, D. E. (2001). Matching patterns from historical data using pca and
distance similarity factors. In Proceedings of the American Control Conference, volume 2,
pages 1759–1764 vol.2.
Troyanskaya, O., Canto, M., Sherlock, G., Brown, P., Hastie, T., Tibshirani, R., Botstein,
D., and Altman, R. B. (2001). Missing value estimation methods for DNA microarrays.
Bioinformatics, 17:520–525.
Yan, X., Yanming, S., Jiafu, W., Xiaolong, L., and Zhiting, S. (2017). Industrial big data for
fault diagnosis: Taxonomy, review, and applications. IEEE Access, 5:17368–17380.
Yue, H. H. and Qin, S. J. (2001). Reconstruction-based fault identification using a combined
index. Industrial & Engineering Chemistry Research, 40(20):4403–4414.
Zhang, K., Gonzalez, R., Huang, B., and Ji, G. (2015). Expectation-maximization approach to
fault diagnosis with missing data. IEEE Transactions on Industrial Electronics, 62(2):1231–
1240.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1349
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

OTIMIZAÇÃO POR INTELIGÊNCIA DE ENXAME APLICADO NA REDE DE


SENSORES SEM FIO: UM ESTUDO BIBLIOMÉTRICO

Anna Julia de Santana Sobrinho1 – ajs_sobrinho@hotmail.com


Henrique Rego Monteiro da Hora1 – dahora@gmail.com
Frederico Galaxe Paes2 – fpaes@iff.edu.br
1
Instituto Federal Fluminense campus Campos Centro– Campos dos Goytazaces, RJ, Brasil
2
Instituto Federal Fluminense campus Campos Guarus – Campos dos Goytacazes, RJ, Brasil

Resumo. A Rede de Sensores Sem Fio possui características que geram uma ampla
possibilidade de aplicações, mas devido a sua limitada fonte de energia é necessário
encontrar o melhor gerenciamento para minimizar o consumo de carga sem comprometer seu
desempenho. Essa otimização pode ser realizada utilizando metaheurísticas bioinspiradas
com comportamentos que combinam com as características dessa rede. O objetivo deste
trabalho é realizar uma bibliometria do uso da Inteligência de Enxame para solucionar
problemas de otimização em Rede de Sensores Sem Fio. Para isso, foi realizada uma busca
no Scopus com conceitos chave para obter trabalhos sobre esse tema e analisa-los em
relação a sua produção, autores, veículos e palavras-chaves utilizando a ferramenta
Bibliometrix. Através da pesquisa foram encontrados 412 trabalhos e 945 autores, onde foi
observado um grande crescimento a partir de 2014 na cronologia. Foram identificados
também os países mais produtivos e a colaboração entre eles, os autores mais relevantes no
impulso na série histórica, os periódicos em ascensão, e as aplicações e algoritmos mais
encontrados nas palavras-chaves. O tema, apesar de recente, demonstra um grande
crescimento de produção, colaboração entre os países, autores promissores e publicações em
ascensão nos periódicos, sendo uma área com espaço para futuras pesquisas.

Palavras-chave: Cientometria, Computação Bioinspirada, RSSF

1. INTRODUÇÃO

A flexibilidade, confiabilidade de detecção, baixo custo e rapidez de implantação da Rede


de Sensores Sem Fio (RSSF) cria diversas aplicações para o sensoriamento remoto em muitas
áreas. Essa rede possui característica auto-organizada e trabalha em grande cooperação, mas
seu maior problema é o requerimento de baixo consumo de energia devido sua fonte limitada

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1350
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

e geralmente de difícil substituição. Com isso, seus algoritmos e protocolos de roteamento


devem focar na conservação de energia (Akyildiz et al., 2002).
Inteligência de Enxame são algoritmos baseados no comportamento coletivo de sistemas
que possuem uma população de agentes simples com capacidade de comunicação e de
detectar mudanças no ambiente. Além disso, são auto-organizados, distribuídos, autônomos,
flexíveis e dinâmicos. Esses algoritmos bioinspirados estão sendo utilizados para tratar
diversos problemas de busca e otimização em muitos domínios onde soluções robustas são
difíceis ou impossíveis de encontrar com abordagens tradicionais (Serapião, 2009).
Tuba et al. (2016) mostram que a área de cobertura é um dos grandes problemas de
otimização das redes de sensores e para esse problema as metaheurísticas baseadas em
populações estocásticas são utilizadas com sucesso. Com isso, os autores propõem a
utilização de um algoritmo baseado em Inteligência de Enxame ajustado para problemas de
área de cobertura de RSSF que exibiu um comportamento robusto, encontrando soluções
excelentes com poucas variações, podendo ser facilmente expandido para outros modelos
complexos de cobertura.
Outra aplicação muito utilizada é retratada em Saleem et al. (2011) que aborda o
desenvolvimento de protocolos de roteamento. Nesse caso, a colônia de formigas é utilizada
há mais tempo e a de abelhas é o mais recente e que ainda está sendo expandido para a
otimização.
O objetivo dessa pesquisa é realizar uma análise bibliométrica de problemas de
otimização na Rede de Sensores Sem Fio que são solucionadas com algoritmos baseados em
Inteligência de Enxame de forma a mapear o andamento da produção cientifica e oferecer
informações relevantes para o estudo desse tema.

2. METODOLOGIA

Para realizar esse estudo foi seguido um modelo baseado no proposto por Costa (2010),
com os seguintes procedimentos:
− Definição da amostra da pesquisa;
− Pesquisa na amostra com as palavras-chaves e seus tesauros;
− Coleta e análise dos dados;
− Levantamento da produção científica da área;
− Identificação dos autores mais relevantes;
− Levantamento dos periódicos mais produtivos na área;
− Analise de palavras-chave.
Para levantamento de dados da amostra foi utilizado a base de conhecimento Scopus,
devido a este ser o maior banco de dados de resumos e citações de literatura revisada. Com
registro de cerca de 77 milhões de documentos e 16 milhões de autores, a plataforma
consegue oferecer uma visão muito mais abrangente da produção científica mundial em
diversas áreas (Elsevier, 2020).
As palavras-chaves escolhidas na segunda etapa foram: Otimização (Optimization),
Inteligência de Enxame (Swarm Intelligence) e Rede de Sensores Sem Fio (Wireless Sensor
Network). Em seguida foram definidos seus tesauros, conforme o Quadro 1.

Quadro 1 – Termos utilizados na busca

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1351
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A princípio foram utilizados para a palavra-chave "Inteligência de Enxame" os


tesauros "PSO" (Particle Swarm Optimization), "ACO" (Ant Colony Optimization) e "Swarm
Optimization", porém, para que a busca não tendece a encontrar somente trabalhos que
utilizam esses dois algoritmos, optou-se por retirar esses tesauros para que fossem analisados
quais algoritmos de inteligência de enxame são mais utilizados para resolver problemas na
rede de sensores sem fio.
A partir da definição das palavras-chaves e seus tesauros foi realizado a busca na base
de dados Scopus (Quadro 2). A pesquisa contém um corte temporal excluindo os trabalhos
realizados no ano de 2020, pois foi realizada antes do fim desse ano e também exclui os
documentos de revisão de conferência, devido à falta de informação sobre os autores.

Quadro 2 - Pesquisa realizada no Scopus

( TITLE-ABS-KEY
( optim* OR maximization OR minimization ) #Tesauros de A
AND TITLE-ABS-KEY
( "swarm intelligence" OR "swarm algorithm" ) #Tesauros de B
AND TITLE-ABS-KEY
("Wireless Sensor Network" OR "WSN" OR "Sensor Nodes") #Tesauros de C
AND ( EXCLUDE
( PUBYEAR , 2020 ) )
AND ( EXCLUDE
( DOCTYPE , "cr" ) ) )

Os resultados da busca foram coletados e serviram de entrada para a análise de metadado


que será detalhada posteriormente. Para isso, foi utilizado o pacote Bibliometrix do software
estatístico R (R Core Team, 2020) proposto por Aria e Cuccurullo (2017) que importa dados e
realiza análises bibliométricas.

3. RESULTADOS E DISCUSSÃO

A busca pelos tesauros dos conceitos definidos na metodologia resultou em 412 trabalhos
e 945 autores. Esta seção apresenta os resultados organizados em quatro partes: Produção
científica; Autores; Veículos; Palavras-chaves.

3.1 Produção científica


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1352
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A primeira análise realizada foi em relação a produção científica sobre esse tema. Pela
Figura 1 foi observado o levantamento cronológico das publicações.

Figura 1 - Série histórica

A série histórica tem início em 2005 com baixo avanço até 2010 quando houve um
crescimento que foi impulsionado a partir de 2014 com uma leve queda em 2019. Devido ao
seu recente início e crescimento, o número de publicações ainda é relativamente baixo e com
isso, qualquer pequena alteração é notada no gráfico, o que poderia justificar a leve queda no
último ano.
Outros fatores analisados em relação a produção científica, na Figura 2, foram os países
que mais publicaram, representados pelos tons mais escuros de azul, e a colaboração entre
eles, representada pelas linhas claras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1353
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Mapa de colaboração dos países

Os países que mais produzem trabalhos são a China com 261 documentos, a Índia com
176 documentos e os Estados Unidos com 43 documentos, sendo que os que mais colaboram
entre si são a China com os Estados Unidos, a Sérvia com Portugal e a Argélia com a França.
A China é o país que mais se relaciona externamente, enquanto a Índia parece interagir
mais internamente, pois apesar de ambos terem uma grande produção, a primeira tem mais
colaboração com outros países e a segunda nenhuma interação considerável.
Outro fator interessante é que a Sérvia, Argélia, França e Camarões, apesar de não
desenvolverem individualmente tantos trabalhos quanto os países maiores, conseguem
realizar tanta colaboração entre si quanto esses.

3.2 Autores

Nessa seção foram identificados os autores que mais contribuíram para o tema. Na
Figura 3 consta o modelo da Lei de Lotka que representa a produtividade relacionando a
quantidade de publicações e autores.

Figura 3 - Lei de Lotka

Analisando o modelo foi possível notar que poucos autores realizaram um número maior
de documentos, pois somente 16 dos 945 fizeram cinco ou mais publicações, o que
corresponde a quase 26% dos trabalhos encontrados. Na Figura 4 foi observado a produção
desses 16 autores ao longo dos anos tanto em quantidade quanto em frequência de citações.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1354
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - Produção dos autores ao longo dos anos

Apesar de ter começado a pouco tempo, Milan Tuba é o autor que mais produziu. O autor
é responsável por 12 documentos bem distribuídos ao longo dos anos e que foram muito
citados, realizando grande contribuição desde o seu início na área. Outros autores mais
recentes, como Ying Zhang, Eva Tuba, Marko Beko, Abdelhak Gueroui e Nabila Labraoui
também seguem esse ritmo de publicação a partir de 2015, o que poderia justificar o impulso
do crescimento de produção apresentado na Figura 1 da seção anterior. Outro ponto
observado foi a consistência de alguns autores, como Yanlong Wang, Ruchuan Wang e
FuQiang Wang, que apresentam trabalhos periodicamente desde o surgimento desse tema.

3.3 Periódicos

Nessa seção, foram levantados os periódicos mais relevantes para esse tema. Analisando
a quantidade de publicações dos periódicos ao longo dos anos (Figura 5) foi possível observar
que o periódico LNCS (Lecture Notes In Computer Science) realiza um número constante de
publicações por ano sobre o tema desde 2005, mas nos últimos anos está em queda. Com
relação aos periódicos AISC (Advances In Intelligent Systems And Computing) e IEEE
Access, apesar de terem começado a publicar sobre o tema somente a partir de 2015, possuem
um número crescente de documentos por ano, sendo o IEEE Access o periódico de maior
ascensão.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1355
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 - Crescimento nos periódicos

A LNCS se compromete de relatar os mais recentes resultados de todas as áreas de


pesquisa, desenvolvimento e educação em ciência da computação e tecnologia da informação
(Lecture Notes in Computer Science, 2020). Por esse motivo foi a primeira revista a falar
sobre o tema e acumula o maior número de publicações ao longo dos anos, mesmo que
atualmente esteja em queda.
No periódico AISC as publicações são de conferências, simpósios e congressos
importantes, cobrindo recentes desenvolvimentos significativos no campo (Advances in
Intelligent Systems and Computing, 2020). Com isso, somente após o amadurecimento do
tema que o periódico passou a retrata-lo e com constante crescimento desde então.
A IEEE Access é uma revista multidisciplinar que apresenta continuamente os resultados
de pesquisas originais em todos os seus campos de interesse e tem como característica uma
rápida revisão por pares e um processo de publicação com acesso aberto (IEEE Access, 2020).
Porém, apesar de estar em maior ascensão no gráfico e seguir uma política editorial parecida
com a do LNCS, o periódico é mais recente e teve início somente em 2014. Por isso, seu total
de publicações ainda é menor, mas tem chances de ultrapassa-lo.

2.4 Palavras-chave

A pesquisa realizada neste trabalho retornou 880 palavras-chaves utilizadas pelos autores
e as 50 mais frequentes são apresentadas no mapa da Figura 6.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1356
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 - Mapa de Palavras

Em relação a aplicação foi observado que os problemas da RSSF mais relatados no mapa
que são solucionados com a Inteligência de Enxame são os de cobertura, roteamento,
localização e eficiência energética. Sendo os dois primeiros abordados por Tuba et al. (2016)
e Saleem et al. (2011), respectivamente.
Pelo mapa foi analisado também quais algoritmos são mais utilizados para essas
aplicações, sendo esses o Particle Swarm Optimization (PSO), Ant Colony Optimization
(ACO), Artificial Fish Swarm Algorithm (AFSA), Artificial Bee Colony (ABC) e Firefly
Algorithm (FA).
Saleem et al. (2011) informam que para aplicação em desenvolvimento de protocolos de
roteamento para a RSSF, o ACO é utilizado há mais tempo, enquanto o ABC é mais recente.
E isso pode ser observado pela frequência que o primeiro aparece ser bem maior que o
segundo.
O PSO é ainda mais utilizado que o ACO em outros problemas de otimização da rede de
sensores e também deve ser observado para pesquisas nesse campo. O AFSA e o FA, assim
como o ABC, são algoritmos mais novos que estão começando a expandir, mas que tem sido
empregados frequentemente na literatura.

4. CONSIDERAÇÕES FINAIS

O objetivo principal deste trabalho foi realizar a análise bibliométrica sobre a otimização
por Inteligência de Enxame aplicado a Rede de Sensores Sem Fio a fim de mapear a produção
científica e oferecer informações relevantes para o estudo desse tema. Os resultados deste
estudo relacionados a produção científica mostram que este campo é bem recente e vem
crescendo significativamente com grande potencial a ser explorado.
Outro fator observado foi que apesar de três países grandes obterem uma maior produção,
alguns com colaboração mais externa e outros mais interna, países menores conseguem
realizar tanta colaboração entre si quanto esses, mesmo que a produção total de cada um seja
menor.
Em outra análise foi notado que dos 945 autores somente 16 possuem cinco ou mais
trabalhos, representando 26% do total de publicações. Com 12 documentos, Milan Tuba é o
autor com mais publicações e assim como outros autores mais recentes se destaca por uma
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1357
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

grande produção anual desde sua entrada nesse campo, sendo parte do impulso de
crescimento visto na série histórica.
Em relação aos periódicos, se destacam o IEEE Access e o Advances In Intelligente
Systems And Computing que estão em ascensão nessa área, sendo que o primeiro deve ser
monitorado para a busca de trabalhos mais recentes e o segundo para a busca de trabalhos
mais significativos. Também se destaca o periódico Lecture Notes In Computer Science que
contém a maior quantidade de produções por ser um dos pioneiros a relatar esse tema.
Por fim, analisando o mapa que contém as palavras-chaves mais utilizadas pelos autores
foi possível notar as aplicações mais realizadas e quais algoritmos de Inteligência de Enxame
são mais consistentes podendo servir de orientação para pesquisas nessa área.
Para trabalhos futuros, sugere-se a ampliação dessa busca em outras bases de dados além
do Scopus. Nos tesauros podem ser incluídos outros conceitos para reduzir a busca a trabalhos
focados na resolução de um determinado problema da rede de sensores sem fio que é
resolvido com a inteligência de enxame, como protocolo de redes ou problemas de área de
cobertura, ou realizar a comparação entre a busca por esses problemas separadamente.

REFERÊNCIAS

Advances in Intelligent Systems and Computing. (2020). Springer-Verlag.


http://www.springer.com/series/11156
Akyildiz, I. F., Su, W., Sankarasubramaniam, Y., & Cayirci, E. (2002). Wireless sensor networks: A survey.
Computer Networks, 38(4), 393–422. https://doi.org/10.1016/S1389-1286(01)00302-4
Aria, M., & Cuccurullo, C. (2017). bibliometrix: An R-tool for comprehensive science mapping analysis. Journal
of Informetrics, 11(4), 959–975. https://doi.org/10.1016/j.joi.2017.08.007
Costa, H. G. (2010). Modelo para webibliomining: Proposta e caso de aplicação. Revista da FAE, 13(1), 115–
126.
Elsevier. (2020). Scopus—Content Coverage Guide. https://www.elsevier.com/?a=69451
IEEE Access. (2020). Institute of Electrical and Electronics Engineers.
https://ieeexplore.ieee.org/document/9141171/
Lecture Notes in Computer Science. (2020). Springer-Verlag. http://www.springer.com/series/558
R Core Team. (2020). R: A Language and Environment for Statistical Computing. R Foundation for Statistical
Computing. https://www.R-project.org/
Saleem, M., Di Caro, G. A., & Farooq, M. (2011). Swarm intelligence based routing protocol for wireless sensor
networks: Survey and future directions. Information Sciences, 181(20), 4597–4624.
https://doi.org/10.1016/j.ins.2010.07.005
Serapião, A. B. de S. (2009). Fundamentos de otimização por inteligência de enxames: Uma visão geral. Sba:
Controle & Automação Sociedade Brasileira de Automatica, 20(3), 271–304.
https://doi.org/10.1590/S0103-17592009000300002
Tuba, E., Tuba, M., & Simian, D. (2016). "Wireless sensor network coverage problem using modified fireworks
algorithm". 2016 International Wireless Communications and Mobile Computing Conference (IWCMC),
696–701. https://doi.org/10.1109/IWCMC.2016.7577141

SWARM INTELLIGENCE OPTIMIZATION APPLIED TO THE WIRELESS


SENSOR NETWORK: A BIBLIOMETRIC STUDY

Abstract. The Wireless Sensor Network has characteristics that create a wide range of
applications, but due to its limited power source, it is necessary to find the best management
to minimize energy consumption without compromising its performance. This optimization
can be performed using bioinspired metaheuristics with behaviors that match the
characteristics of this network. The objective of this work is to do a bibliometry of the
Wireless Sensor Networks optimization problems solved with Swarm Intelligence. For this, a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1358
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

search was carried out in Scopus with key concepts to obtain works on this theme and analyze
them about their production, authors, sources and keywords using the Bibliometrix tool.
Through the research, 412 papers and 945 authors were found, where a great growth was
observed in 2014 in the chronology. The most productive countries and the collaboration
among them, the most relevant authors in the boost of the historical series, the rising
journals, and the applications and algorithms most found in the keywords were also
identified. The theme, although recent, shows a great growth in production, collaboration
between countries, promising authors and rising publications in journals, being an area with
place for future research.

Keywords: Scientometric, Bioinspired Computing, WSN

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1359
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

Relationships between leaks and the materials and diameters of water distribution pipes
at Prolagos concessionaire in the Lake Region, RJ, Brazil

Lilian Lopes Lemos1 – lilianllemos20@gmail.com


Natalie Olifiers1 – natalie.olifiers@uva.br
Anderson Amendoeira Namen1,2 – aanamen@iprj.uerj.br
1
Universidade Veiga de Almeida – Rio de Janeiro, RJ, Brazil
2
Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brazil

Abstract. The objective of this work is to identify the relationships between actual water
losses and the types of materials and pipe diameters in the water distribution network of 5
municipalities located in the Lake Region, Rio de Janeiro State, Brazil. We analyzed 273
episodes of pipe bursting between June and July 2019, identifying the types of materials and
pipe diameters where the leaks occurred and comparing them to the total length of each type
of material and diameter. The PVC 50 mm and DeFoFo 100 mm ducts showed the highest
percentage of ruptures above expectations (18.94% and 2.68%, respectively). The
methodology proposed and used herein can be replicated to other water distribution
networks.

Keywords: Real Water Loss. Water Distribution Network. Pipeline Breakage. Material and
Diameter of Piping. Water Leakage.

1. INTRODUCTION

The current global picture of water resources is not very encouraging. In 2018, the
World Bank and the United Nations stated that 36% of the global population lived in areas
with water scarcity; in addition, the 2030 Water Resources Group projects a 40% water deficit
in the world scenario for 2030 (Biswas & Tortajada, 2019). This will be caused by accelerated
population growth coupled with the maintenance of current consumption patterns and the lack
of adequate water resources management.
The high level of water losses in distribution networks is one of the biggest challenges
faced by sanitation companies around the world (Aschilean & Giurca, 2018). The main factor
related to losses in water distribution systems are the leaks in the pipes (Fontana & Morais,
2016). In Brazil, 5146 municipalities guaranteed water supply to 173.2 million inhabitants in
2018, corresponding to 16 billion m3 of water volume. It should be noted, however, that the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1360
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

actual loss of this resource in the water distribution systems was approximately 38.5%
(BRASIL, 2019). Tabesh et al. (2018) state that investigating the causes of leaks in water
distribution networks is critical to reducing the problem. The authors raise flaws in the
collection and analysis of rupture events and cite that the main causes of leaks are due to poor
qualification of water distribution companies' employees and inadequate selection of pipes
that make up the distribution network.
Within this scenario, the present work aims to analyse the occurrences of real water
losses in the distribution network operated by Prolagos Sanitation Concessionaire. The main
objective is to identify relationships between leaks and the materials and diameters of the
pipes in the network. Prolagos company serves five municipalities in the Lakes Region, Rio
de Janeiro State. This is a tourist region that demands a seasonal service, mainly from
December to March, when the population increases five times more in relation to the local
population, estimated at around 422 thousand inhabitants (IBGE, 2017). During the high
season, which includes school holidays, festive dates, and long holidays, the mentioned
municipalities have water supply problems.

2. MATERIALS AND METHODS

The study area corresponded to five municipalities (Armação dos Búzios, Arraial do
Cabo, Cabo Frio, Iguaba Grande and São Pedro da Aldeia) located in the region of coastal
lows, microregion of Lakes, in the State of Rio de Janeiro. The basic sanitation concessionaire
Prolagos has been supplying these municipalities with water and sewage collection and
treatment since 1998, with concession term extended until 2041. Its water supply network is
2,719.75 kilometers long (Prolagos, 2020).
To acquire the data regarding the distribution network and actual water losses,
technical visits were made to the Operational Control Center of the Basic Sanitation
Concessionaire Prolagos, with the monitoring of the sector coordinator. Three visits were
made during the months of July and August 2019, during which data related to the
distribution network and rupture events were requested.
Regarding the concessionaire's distribution network, Prolagos provided information on
the type of material and the diameter of the pipes. This information, along with network
location was made available in digital format in a vector file type KMZ which provided a
spatial visualization of the networks and its features in Google Earth (Gorelick et al., 2017).
The concessionaire also provided the coordinate records of leak positions in the network for
June−July 2019 as a .xls digital spreadsheet.

2.1 Data processing

First, we identified pipe material and diameter for each leakage event by importing
both the information from the networks and the leakage events into the Geographic
Information System QGIS 3.8 8 (QGIS Development Team, 2019). Then, we converted the
KMZ file into a shapefile (.shp) vector file of the type rows, and the information of the
networks became available in the attributes table of the file. The coordinates of the leak
occurrences were also converted to a shapefile format file of the type points. In addition to
this information, the ".shp" files referring to the limit of each municipality were inserted in the
Geographic Information System (GIS). These data were obtained from the geographic
database of the Brazilian Institute of Geography and Statistics (IBGE), year 2015 (IBGE,
2019).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1361
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

In GIS environment, two tasks were performed: 1- the calculation of the total length of
each type of material and pipe diameter of the network; 2- the identification of the types and
diameters of the pipes where the leaks occurred. From these data, it was possible to identify
rupture tendencies in pipe material or diameter in relation to the total availability on these
pipe features in the network.
The "Geometry" tool was used to calculate the total length of each type of material and
pipe diameter of the net. The cartographic projection used to calculate the length of the nets
was the Universal Transverse of Mercator Zone 32S, which has the meter as unit of
measurement (QGIS Development Team, 2019). In the sequence, the total extension values
were identified according to the type of net (material + pipe diameter) from the "Intersect"
tool and converted to a Microsoft Excel table, containing columns identifying the materials,
diameters and their lengths.
To relate the type of material and pipe diameter to each leakage event, it would only
be necessary to intersect the location of the leakage events with the lines for each network.
However, the geographical location of some of the leak sites and the networks did not match
because the sites were not located exactly on top of the lines representing the networks. This
pattern, identified in the majority of the points, made it impossible to use simple tools such as
the intersection between lines and points in the GIS. From this type of tool it would be
possible, for example, to quickly characterize in which type of material and diameter the leaks
occurred. In an attempt to overcome this problem and to relate the characteristics of the
network to the occurrences of leakage as well as to minimize the faults concerning the
geographical location of the points and lines, a matrix of distance between this data set was
calculated. The distance matrix was automatically calculated in the QGIS 3.8 software from
the "Distance Matrix" tool (QGIS Development Team, 2019). In this step, the data set
referring to the lines and the data set referring to the points had a unique identification. For
each point, all possible distances between the lines were calculated, so if a point was located
between two or more lines, all distances would be calculated.
When a line and a point intersected, the calculated distance consisted of the value zero.
However, when the point did not intersect with any line, the value of the shortest distance
between the point and all nearby lines was identified. Thus, it was assumed that the
occurrence of leakage in relation to the type and diameter of the network corresponded to the
nearest network. This procedure had to be performed for 84 percent of the data points.

2.2 Data analysis

The analysis of the rupture patterns was produced from the elaboration of
quantitative charts, based on the information described in the previous section. The analyses
considered the lengths of each type of pipe in the distribution network, since the predominant
materials tend, by simple probability, to present a higher incidence of ruptures than little used
materials. The percentage of breaks above or below the expected was calculated - Eq. (1).

PB = (MB/TB – ML/TL) x 100 (1)

where:
PB is the percentage of breaks above (if positive) or below (if negative) the expected; MB is
the amount of breaks in a given material; TB is the total amount of breaks; ML is the total
length of the material in the distribution network; and TL is the total length of the distribution
network.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1362
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

We also tested/considered the effect of pipeline extension on the number of


breakages by applying Spearman Rank Correlation analyses, nonparametric partial
correlations, and Chi-square tests. The Spearman Rank Correlation is a nonparametric
statistical analysis to investigate the strength (0 to 1, or 100%) and direction (negative or
positive) of an association between two variables measured on at least an ordinal scale. The
partial nonparametric correlation is an extension of a simple correlation in which we perform
a correlation between two variables while controlling for a third one (in this case, pipe
extension) that might interfere with the analysis simply by being correlated itself with both
other variables. The Chi-square test, in turn, allows us to test for deviations of observed
frequencies from expected frequencies. For all analyses, we used α (“significance level”) =
0.05 (that is, 5%) as the probability of rejecting the null hypothesis when the null hypothesis
is true. For (partial) correlations, the null hypothesis is that there is not a relationship between
the (main) variables analysed. The null hypothesis for the Chi-square test is that the observed
number frequency of pipe ruptures does not differ from the expected frequency of ruptures,
herein assumed to be a consequence of pipe extension. In this case, the expected number of
breakages was estimated by multiplying the total number of pipe breakages by the percentage
of each pipeline type (material)/diameter in the network. For Chi-square tests, we clumped
data into categories to have expected values greater than 5, which is an assumption of this
statistic test. Therefore, for pipeline diameter, we clumped data into 6 diameter categories (up
to 50 mm; 60−100mm; 110−150mm; 160−200mm; 225−250 and ≥300 mm), trying to keep
equal intervals of 50mm diameter between pipeline classes. For pipe type, we considered only
those that had expected number of breakages higher or equal than 5 (that is, DeFoFo, cast
iron, HDPE, and PVC). For additional information on basic statistics, see Zar (2010). We
used SPSS 21 Program (IBM CORP, 2012) for correlation and partial correlation analyses
and Graph Pad (https://www.graphpad.com/quickcalcs/chisquared1/) for Chi-square tests.
Graphs were generated containing comparative information grouped by different
parameters, considering the percentage of ruptures per material/diameter of the pipes and their
respective lengths in relation to the total length of the network and in relation to the network
of the respective pipe material. The graph generation was produced through the dynamic
graph generation resource available in Microsoft Excel.

3. RESULTS AND DISCUSSION

In June, 134 pipeline ruptures were reported while in July there were 139 ruptures. Of
the 273 rupture episodes, 15 had no record of pipeline material because there was no
information of the pipeline in the network record provided by the concessionaire. These 15
records were disregarded, leaving a total of 258 records for analysis.
The types of piping materials in the analysed water supply network were: PVC,
HDPE, FRP, DeFoFo, asbestos, cast iron, forged steel, and smaller diameter hook. Details
about the characteristics of these materials are discussed by Gama et al. (2019). There was no
break in the FRP and forged steel materials in this period.

3.1 Types of pipes and rupture patterns

PVC and HDPE showed the highest number of ruptures; breakage of PVC 50mm and
HDPE 63mm were particularly high, but were also the two most common types/diameters of
pipes composing the network. Indeed, the number of ruptures in each pipe type correlated
with its total availability in the network (rs = 0.82; n = 7; p = 0.023), with PVC and HDPE

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1363
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

materials comprising more than 70% of the total extension (Fig. 1) and also the highest
number of ruptures.

Figure 1 - Prolagos piping amounts (%).

Despite the fact that the PVC and HDPE pipes stand out in number of breaks but also
in total extension, when making the comparison with the total extent of each material in the
network, we found a significant deviation from expected frequencies of ruptures (χ2 = 66.38;
d.f. = 3; p < 0.0001); the materials that stood out the most in occurrences of breaks were PVC
and DeFoFo. The percentage of PVC pipe breaks over the total breaks was 21.19% higher
than the percentage of its length in relation to the total length of the distribution network. In
the case of DeFoFo material, the percentage of breaks over the total presented a value 4.70%
higher (Fig. 2 and 3). In turn, HDPE – particularly 63mm – and forged steel had fewer
breakages than expected by chance, considering their total extension. It is important to
emphasize that the concessionaire did not provide data on the time of installation of the
materials, which may imply in a higher number of ruptures, when their useful life is exceeded
due to loss of resistance of the material.

Figure 2 - Comparison between the percentage of breaks in relation to the predominance of


each type of pipe in the distribution network.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1364
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3 - Difference betweeen the percentage of breakdowns and the percentage of extension
of the material in relation to the total extent of the network.

The number of ruptures in each pipe diameter was also proportional to their respective
availability in the network (rs = 0.69; n = 53; p < 0.0001), but the comparison between
observed and expected leakages in distinct pipe diameters was significant (χ2 = 44.07; d.f = 5;
p < 0.0001), showing that there were significant deviations on the number of ruptures
expected by chance. Indeed, the partial correlation between pipe diameter and number of
breaks showed a significant negative relationship (r = - 0.423; d.f = 50; p = 0.002), meaning
that pipeline with lower diameters showed higher number of breakages, after controlling for
their availability in the total network. These results confirm the research carried out by
Adedeji et al. (2017) that smaller diameter tubes are more susceptible to the risk of rupture as
the service pressure increases.
By analysing the pipe breaks and examining both their diameters and the type of
material, 12 different types of pipes showed number of leakages above expected. Equation (1)
was also used to verify this trend, considering the types of materials and their different
diameters for each algebraic term. Important prominence is given to PVC pipes 50 mm and
DeFoFo 100 mm with this latter one showing a tendency to break more than 7 times lower
when compared to the former (Fig. 4). Moreover, the tendency of rupture of DeFoFo 100 mm
is greater than the sum of all the tendencies of other DeFoFo diameters (Fig. 4).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1365
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 4 - Pipes that present above expected ruptures.

Focusing only on nets of a specific material, such as PVC and DeFoFo, which had a
greater tendency to break, it is important to consider which diameters had more breakages
than others. In the case of the PVC-type piping network, this deserves due attention because
the quantity of breaks is expressive for its extension (Fig. 2 and 3). Within PVC, there is a
marginally significant difference between pipes with 50, 75 and 100mm (χ2 = 4.667; d.f.=2; p
< 0.097; diameter categories with expected ruptures equal or greater than 5), showing a
tendency of more ruptures in 50mm pipes and relatively less on 75mm pipes (Fig. 5 and 6). It
is important to notice that considering the total extension of the network, indeed PVC 50mm
pipes showed a discrepant number of ruptures above expected (Fig. 4). Moreover, it should be
noted that the PVC pipes with diameters 32 mm, 85 mm, 150 mm and 400 mm did not present
ruptures and that for the PVC data only, there was no significant relationship between
diameter and number of breakages after controlling for extension (partial correlation r = -
0,57; d.f. = 6; p = 0.451).

Figure 5 - Tendency of ruptures per PVC diameter (PVC distribution network).


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1366
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 6 - Difference of rupture percentage and PVC extension percentage.

For the pipe network of DeFoFo material, there was a negative correlation between
pipe diameter and number of ruptures (parcial correlation r = - 0.96; d.f = 3; p = 0.009). The
large difference related to the diameter of 100 mm, the smallest of all, contributes to this
negative correlation (Fig. 7 and 8).

Figure 7 - Tendency of ruptures per DeFoFo diameter (DeFoFo distribution network).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1367
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 8 - Difference of rupture percentage and DeFoFo extension percentage.

Analysis of the characteristics of the different pipe materials can help to identify
possible causes of rupture as well as to define the most suitable material options for
replacement. Considering that the PVC pipes in Prolagos distribution network are PVC-O
type and that DeFoFo and PVC-O present more breaks, we can observe some weaknesses in
both, such as risk of displacement, average water tightness, and greater ground movement,
floor decomposition, and loss of material (for more details see ABPE (2017) and Lemos
(2020)). An important factor that interferes in the resistance of materials are the pressure
oscillations associated with demand variations, which confers reduced resistance limit for
PVC and DeFoFo (Almeida et al., 2011). These two characteristics are widely observed in the
Lake Region, which has fluctuating demand on weekends, holidays, and school holidays.

4. CONCLUSIONS

Losses in water supply systems are a problem to be faced by sanitation utilities to


ensure sustainability for the population and the environment. Within this perspective, the
contribution of the work was made by the analysis of the events of ruptures in the distribution
network, focusing on the relationships with the materials and diameters of the pipes.
Considering the amount of ruptures according to the types of pipes and their respective
extensions in relation to the total length of the network, only PVC and DeFoFo materials
presented rupture trends above the expected. By including the analysis of the diameters, along
with the different pipe materials, 12 different types of pipes showed higher than expected
leakage trends. The largest number of ruptures above the expected by chance were on PVC 50
mm, with rupture percentages of 18.94% above expected. Focusing on the PVC type piping
network, the diameter 50 mm presented a difference of 3.47%. For the DeFoFo pipe network,
the highlights of breaks were in diameters 100 mm, with differences of 23.51%. We believe
that these information can help the company to make decisions and to prioritize actions to
replace pipes in the network in order to avoid future disruptions.
This survey was limited to data provided by the concessionaire Prolagos,
corresponding to only two months of operation. Access to a broader set of data would enable
a more meaningful analysis. The methodology proposed and used, another contribution of this
work, could be replicated for any volume of data. In addition, other variables should be
evaluated in future works, such as the operating pressure at the moment before the rupture,
the piping quota, the installation time of each material, the type of paving and the types of
vehicles and traffic intensity at the rupture site. Therefore, it is suggested to the
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1368
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

concessionaire to collect these data in the future, which may comprise more in-depth studies
of the causes of water losses and, consequently, improve the performance in combating and
controlling these losses.

Acknowledgements

This work was supported by FUNADESP - National Foundation for the Development of
Private Higher Education.

REFERENCES
ADEDEJI, K. B.; HAMAM, Y.; ABE, BOLANLE. T.; ABU-MAHFOUZ, A. M. (2017), Burst leakage pressure
dependency in water piping networks: Its impact on leak openings. 2017 IEE AFRICON, Cape Town, South
Africa, p. 1502-1507. http://doi.org/10.1109/AFRCON.2017.8095704
ALMEIDA, R. M.; RÔDAS, R. D.; IDE, C. N; REIS, L. F. R.; SILVA, J. B. (2011), Perdas reais de água em
tubulações de PVC (Actual water losses in PVC pipes). In: XIX Simpósio Brasileiro de Recursos Hídricos
(XIX Brazilian Symposium on Water Resources), 2011, Maceió-AL. Anais [...]. Maceió-AL: [s.n], 2011. p.
1-20.
ASCHILEAN, I.; GIURCA, I. (2018), Choosing a water distribution pipe rehabilitation solution using the
analytical network process method. Water, 10(4), p. 1-23. https://doi.org/10.3390/w10040484
ASSOCIAÇÃO BRASILEIRA DE TUBOS POLIOLEFÍNICOS E SISTEMAS – ABPE (Brazilian Association
of Polyolefinic Pipes and Systems). (2017), Consultoria para Comparativos de Implantação de Linhas sobre
Pressão para Sistemas de Infraestrutura Hidráulica. Comparativos de Implantação de Linhas sob Pressão
(Consulting for Comparative Implementation of Pressure Lines for Hydraulic Infrastructure Systems.
Comparison of Implementation of Pressure Lines). São Paulo. 1, 1-23.
BISWAS, A. K.; TORTAJADA, C. (2019), Water crisis and water wars: myths and realities. International
Journal of Water Resources Development, 35(5), p. 727-731. http://doi.org/10.1080/07900627.2019.1636502
BRASIL. Ministério do Desenvolvimento Regional. Secretaria Nacional de Saneamento – SNS (Ministry of
Regional Development. National Secretariat of Sanitation). (2019), Sistema Nacional de Informações sobre
Saneamento: 24º Diagnóstico dos Serviços de Água e Esgotos – 2018 (National Sanitation Information
System: 24th Diagnosis of Water and Sewage Services – 2018). Brasília, 180 p.
FONTANA, M. E.; MORAIS, D. C. (2016), Decision model to control water losses in distribution networks.
Production, 26(4), p. 688–697. doi:10.1590/0103-6513.201815.
GAMA, C. H. A.; SOUZA, V. C. B.; CALLADO, N. H. (2019), Analysis of methodologies for determination of
the economic pipe diameter. RBRH, 24. https://doi.org/10.1590/2318-0331.241920180148
GORELICK, N.; HANCHER, M.; DIXON, M.; ILYUSHCHENKO, S.; THAU, D.; MOORE, R. (2017), Google
Earth Engine: Planetary-scale geospatial analysis for everyone. Remote sensing of Environment, 202, p. 18-
27. https://doi.org/10.1016/j.rse.2017.06.031
IBM CORP. (2012), Released. IBM SPSS Statistics for Windows, Version 21.0. Armonk, NY: IBM Corp.
INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA – IBGE (Brazilian Institute of Geography and
Statistics). (2019), Bases e Referências, bases cartográficas, malhas digitais (Bases and references,
cartographic bases, digital meshes). Retrieved in 2020, January 22, from https://mapas.ibge.gov.br/bases-e-
referenciais/bases-cartograficas/malhas-digitais
INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA - IBGE (Brazilian Institute of Geography and
Statistics). (2017), Panorama dos municípios brasileiros (Panorama of brazilian municipalities). Retrieved in
2019, September 24, from https://cidades.ibge.gov.br/brasil/panorama
LEMOS, L. L. (2020), Análise de rompimentos das tubulações de distribuição de água para consumo humano na
Concessionária Prolagos na Região dos Lagos, Rio de Janeiro. Dissertação (Mestrado) – Universidade Veiga
de Almeida. Mestrado em Ciências do Meio Ambiente, Rio de Janeiro, 139p.
PROLAGOS. (2020), Quem somos (Who we are). Retrieved in 2020, April 15, from
https://www.prolagos.com.br/quem-somos/
QGIS DEVELOPMENT TEAM. (2019), QGIS Geographic Information System. Open Source Geospatial
Foundation Project. Retrieved in 2020, January 22, from http://qgis.osgeo.org
TABESH, M.; ROOZBAHANI, A.; ROGHANI, B.; FAGHIHI, N. R.; HEYDARZADEH, R. (2018), Risk
assessment of factors influencing now-revenue water using Bayesian networks and fuzzy logic. Water
Resources Management, 32, p. 3647-3670. https://doi.org/10.1007/s11269-018-2011-8
ZAR, J. H. (2010), Biostatistical analysis. Pearson Prentice-Hall. Upper Saddle River, NJ.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1369
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO DE IMPLANTES DE TI-6AL-4V PRODUZIDOS POR


MANUFATURA ADITIVA

Francielly Moura de Souza Soares1 – mourafrancielly@outlook.com


Dyanni Manhães Barbosa1 - dyannibarbosa@id.uff.br
Carlos Nelson Elias1 – elias@ime.eb.br
1
Instituto Militar de Engenharia, Rio de Janeiro, RJ - Brazil

Resumo. A liga Ti-6Al-4V ELI é usada em aplicações na área médico-odontológica devido as


suas propriedades mecânicas, boa biocompatibilidade e alta resistência à corrosão. Esta liga
apresenta microestrutura α + β em que o alumínio é elemento de liga estabilizador da fase α e
o vanádio da fase β. Os métodos de fabricação convencional dos implantes e próteses é por
forjamento, usinagem e fresagem, os quais apresentam limitações na produção de peças com
formas complexas. Para atender estes requisitos foram desenvolvidos os métodos de
fabricação por manufatura aditiva. O objetivo do presente trabalho é caracterizar amostras de
Ti-6Al-4V produzidas por manufatura aditiva com laser. As amostras foram caracterizadas
por microscopia eletrônica de varredura antes e após tratamento da superfícies. Os resultados
obtidos mostraram que as amostras no estado como fabricadas apresentam grande número de
partículas fracamente aderidas na superfície, as quais pode se soltar durante a inserção no
osso. Após o tratamento da superfície com ácidos as amostras apresentaram morfologia da
superfície com características adequadas para se obter a osseointegração.

Palavras-chave: Ti-6Al-4V, manufatura aditiva, implantes

1. INTRODUÇÃO

A liga Ti-6Al-4V ELI (ASTM F136: Standard Specification for Wrought Titanium-6
Aluminum-4 Vanadium ELI) é usada em aplicações na área médico-odontológica devido as
suas propriedades mecânicas, boa biocompatibilidade e alta resistência à corrosão. Ela
apresenta microestrutura α + β em que o Al é elemento de liga estabilizador da fase α e o V da
fase β (Dai, N. et al., 2016; Murr, L. E., et al 2009).
Os métodos de fabricação convencional dos implantes e próteses usados na medicina é
por forjamento, usinagem e fresagem. Estas metodologias apresentam limitações na produção
de peças com formas complexas. Para atender estes requisitos foram desenvolvidos os
métodos de fabricação por manufatura aditiva (Yang, J., et al, 2016). Um destes métodos é a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1370
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

fusão seletiva a laser (FSL), o qual consiste em uma técnica de fabricação utilizando um feixe
de laser sobre um leito de pó. Esta técnica permite que sejam fabricadas peças com
geometrias complexas (Liu, S., & Shin, Y. C., 2019).
A fabricação de peças pela técnica de FSL apresenta desvantagens, como altas taxas de
resfriamento que geram tensões residuais nos produtos e a presença de partículas não fundidas
em sua superfície e acabamento superficial deficiente. As tensões residuais são oriundas da
formação de uma microestrutura martensítica α’ metaestável e elevada taxa de resfriamento.
O acabamento superficial deficiente pode acarretar em maior liberação de íons e até rejeição
do material quanto este utilizado na área biomédica (Cao, F., e Chandran, K. R., 2017).
Alguns fatores são importantes para a ocorrer a osseointegração dos implantes como a
rugosidade, morfologia e composição química da superfície do material. Estes parâmetros
estão diretamente relacionadas ao sucesso do implante, pois as interações entre a superfície do
implante e as proteínas dependem diretamente desses fatores. As superficies rugosas
estimulam a diferenciação das células e a formação de estruturas da matriz extracelular (Chen,
L. Y., et al, 2017 e Manivasagam, G., et al, 2010).
Ao longo dos anos diferentes tratamentos de superficies foram desenvolvidos para os
implantes dentários para melhorar a bioatividade, aumentar a biocompatibilidade, melhorar a
condutividade óssea, diminuir a liberação de íons metálicos e aumentar a resistência à
corrosão. Os principais tratamentos de superfície desenvolvidos são jateamento, tratamento
sol-gel, oxidação anódica e tratamento com ácido.
Superfícies tratadas com ácido apresentam melhores resultados clínicos. Os implantes que
são submetidos ao ataque ácido induzem maior diferenciação celular, com grande contato
entre osso e implante nos estágios iniciais da osseointegração em relação aos implantes com
superfícies usinadas (Feng, B., et al, 2003; Feng, B., et al, 2002).
O objetivo do presente trabalho é caracterizar a superfície da liga Ti-6Al-4V fabricada por
fusão seletiva a laser antes e após tratamento com ácido. Para isto, foram realizadas medidas
de rugosidade e análise por microscopia eletrônica de varredura antes e após o tratamento da
superfície das amostras.

2. MATERIAIS E MÉTODOS

No presente trabalho foram caracterizadas amostras da liga Ti-6Al-4V produzidas por fusão
seletiva a laser (FSL). As amostras foram produzidas nas formas de discos e implantes. Para a
fabricação foram usados pós conforme as especificações da Norma ASTM F2924-14:
Standard Specification for Additive Manufacturing Ti-6Al-4V Powder Bed Fusion.
As amostras foram submetidas ao tratamento químico de superfície com uma solução de
ácido fluorídrico.
Para a análise da morfologia superficial foi usado o microscópio eletrônico de varredura Field
Emission Gun FEI QUANTA FEG 250® e a análise de rugosidade foi realizada com
perfilometro 3D New View 7100 Profilometer (Zygo Co, Middlefield, CT, USA).

3. RESULTADOS
Mostra-se na figura 1 as morfologias das superfícies da liga Ti-6Al-4V no estado como
produzidas por fusão seletiva a laser (FSL). Na microscopia apresentada é possível observar a
presença de partículas não fundidas e parcialmente fundidas. Estas partículas aumentam a
rugosidade. Resultado semelhante foi obtido por (Liu, S., & Shin, Y. C., 2019). Como o
acabamento da superfície após a fabricação por FSL não é adequado, é importante que o
material seja submetido a um tratamento para remover as partículas não fundidas e fracamente
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1371
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

aderidas. A não remoção destas partículas pode acarretar em sua soltura durante a inserção no
corpo, ocasionando processos de rejeição do material implantado e aumento da quantidade de
íons liberados no organismo.

Figura 1 – Superfície das amostras produzidas por FSL como recebidas. Aumentos (a) 250x e
(b)500x.

Na figura 2 são apresentadas micrografias das amostras após o ataque com ácido fluorídrico
durante 10 min, 20 min e 30 min. Observa-se que os diferentes tempos de ataque interferem
na quantidade de partículas removidas. No ataque com 10 min, nota-se que a remoção foi
parcial, visto que ainda é possível observar a presença destas partículas. Para os tempos de 20
e 30 minutos ocorreu uma maior remoção de partículas. Entretanto, observa-se que para o
tempo de 30 minutos ocorreu um ataque ao substrato da amostra.

Figura 2 –Superfície Ti-6Al-4V obtida por fusão seletiva a laser após o tratamento químico
com HF em diferentestempos: (a) e (b) 10 min, ( c) e (d) 20 min e, (e) e (f) 30 min.

A rugosidade é um fator muito importante no desempenho dos implantes, principalmente nas


ligas de titânio que apresentam osseointegração. A rugosidade influencia na interação entre as
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1372
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

proteínas e a superfície do implante. Mostra-se na figura 3 que a rugosidade da liga Ti-6Al-


4V obtida por fusão seletiva a laser (FSL) antes e após diferentes tempos de ataque químico.
Pode-se observar que a liga como recebida (CR) apresenta grande rugosidade média (Ra).
Esta rugosidade está associada ao processo de FSL. Após o tratamento da superfície com HF
durante 10 e 20 min não houve diferença significativa na morfologia. Porém é possível
observar na figura 3 que tempo de 30 minutos apresenta um maior ataque da superfície. Na
tabela 1 pode-se observar que há uma diminuição do valor de rugosidade para as amostras
após os diferentes tempos de ataque ácido. Os resultados da Tabela 1 corroboram com o
resultado mostrados nas imagens obtidas por microscopia.

Figura 3 – Morfologia da rugosidade da liga Ti-6Al-4V obtida por fusão seletiva a laser como
recebida e após tratamento químico durante 20 e 30 minutos

Tabela 1- Rugosidade média da liga em diferentes condições.

Material Ra
Ti-6Al-4V CR 15,02 ±1,14
Ti-6Al-4V 20 min 9,15 ± 0,62

Ti-6Al-4V 30min 9,78 ± 0,92

2. CONCLUSÕES

O tratamento com ácido das amostras produzidas por fusão seletiva a laser foi efetivo para a
remoção das partículas não aderidas na superfície.
O tratamento com ácido foi efetivo para diminuir a rugosidade e remover as partículas.
O tempo de ataque que apresentou uma melhor resposta na superfície foi o de 20 minutos,
pois apresentou uma remoção das partículas sem atacar o substrato da amostra.

Agradecimentos

Os autores agradecem aos órgãos de fomento FAPERJ, CAPES e CNPq pelo suporte
financeiro para executar o presente trabalho e a empresa PLENUM Bioengenharia pela
colaboração no fornecimento das amostras.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1373
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

Cao, F., & Chandran, K. R. (2017), The role of crack origin size and early stage crack growth on high cycle
fatigue of powder metallurgy Ti-6Al-4V alloy. International Journal of Fatigue, vol. 102, 48-58.

Chen, L. Y., Huang, J. C., Lin, C. H., Pan, C. T., Chen, S. Y., Yang, T. L., ... & Jang, J. S. C. (2017),
Anisotropic response of Ti-6Al-4V alloy fabricated by 3D printing selective laser melting. Materials Science and
Engineering: A, vol. 682, 389-395.
Dai, N., Zhang, L. C., Zhang, J., Zhang, X., Ni, Q., Chen, Y., ... & Yang, C. (2016), Distinction in corrosion
resistance of selective laser melted Ti-6Al-4V alloy on different planes. Corrosion Science, vol. 111, 703-710.

Feng, B., Chen, J. Y., Qi, S. K., He, L., Zhao, J. Z., & Zhang, X. D. (2002), Characterization of surface oxide
films on titanium and bioactivity. Journal of Materials Science: Materials in Medicine, vol.13, 457-464.

Feng, B., Weng, J., Yang, B. C., Qu, S. X., & Zhang, X. D. (2003), Characterization of surface oxide films
on titanium and adhesion of osteoblast. Biomaterials, vol. 24, 4663-4670.

Liu, S., & Shin, Y. C. (2019), Additive manufacturing of Ti6Al4V alloy: A review. Materials & Design, vol.
164, 107552.

Manivasagam, G., Dhinasekaran, D., & Rajamanickam, A. (2010), Biomedical implants: corrosion and its
prevention-a review. Recent patents on corrosion science.

Murr, L. E., Quinones, S. A., Gaytan, S. M., Lopez, M. I., Rodela, A., Martinez, E. Y., ... & Wicker, R. B.
(2009), Microstructure and mechanical behavior of Ti–6Al–4V produced by rapid-layer manufacturing, for
biomedical applications. Journal of the mechanical behavior of biomedical materials, vol. 2, 20-32.

Yang, J., Yu, H., Yin, J., Gao, M., Wang, Z., & Zeng, X. (2016), Formation and control of martensite in Ti-
6Al-4V alloy produced by selective laser melting. Materials & Design, vol. 108, 308-318.

MANUFACTURE OF TI-6AL-4V IMPLANTS BY ADDITIVE MANUFACTURE

Abstract. The Ti-6Al-4V ELI alloy is used in medical and odontological applications due to
its mechanical properties, good biocompatibility and high resistance corrosion. This alloy
presents α + β microstructure where Al is the α-stabilizer element and V is the β-stabilizer
element. The conventional manufacturing methods of implants and prostheses are by forging,
machining and milling, which have restriction in the production of complex geometries parts.
In order to meet these requirements, additive manufacturing methods were developed. The
objective of this work is to characterize Ti-6Al-4V samples produced by laser additive
manufacturing. The samples were characterized by scanning electronic microscopy before
and after surface treatments. The results showed that samples “as received” presented high
number of particles weakly bonding on the surface, which may loose during insertion on the
bone. After acid-etching surface treatments samples presented surface morphology with
proper characteristics to obtain osseointegration.

Keywords: Ti-6Al-4V, Additive Manufacture, Implants

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1374
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

DESENVOLVIMETNO DE UM CÓDIGO EM C++ PARA CÁLCULO DE VIGAS


HIPERESTÁTICAS

Fernando Eduardo Costa da Silva 1 – fernando7edu@hotmail.com


Matheus Borges Seidel1 – matheus.seidel@unifacs.br
1
UNIFACS – Universidade Salvador, Escola de Engenharia – Feira de Santana-BA, Brasil

Resumo. A informática é um ramo sempre aliado às evoluções tecnológicas e, no campo da


engenharia, tornou-se uma ferramenta importante para que os processos se tornassem mais
rápidos e eficazes, realizando mais procedimentos em um curto período. Na área de estruturas,
o uso de softwares é imprescindível, tanto na realização de projetos, como na formação
acadêmica do profissional de Engenharia Civil. Nesse contexto, o presente trabalho apresenta
o desenvolvimento e validação de um aplicativo em linguagem de programação C++ que
realiza o cálculo de reações de apoio e esforços internos de vigas hiperestáticas através do
método dos deslocamentos. Os resultados obtidos são validados comparando-os com o
software FTOOL e ratificam a acurácia do código desenvolvido. Além disso, é apresentada a
importância do uso de softwares de cálculo estrutural na formação profissional de engenheiros
civil.

Palavras-chave: Vigas hiperestáticas, desenvolvimento de código, FTOOL, software


acadêmico

1. INTRODUÇÃO

A busca por aprimoramento técnico-científico sempre foi uma característica inerente aos
processos da Engenharia, desde seus primórdios, quando os conhecimentos eram desenvolvidos
de forma empírica, até o atual uso de novas tecnologias para resolução de problemas complexos.
Nesse desenvolvimento moderno, áreas como a informática tornam-se pilares neste processo,
onde a rapidez de solução dos problemas substitui o trabalho humanizado que seria realizado
por longos período de tempo.
De acordo com Nascimento, Bono e Bono (2017), o uso de modelos computacionais já é
rotineiro nas áreas automobilística, aeronáutica, em indústrias diversas e, também, na
Engenharia Estrutural. Carvalho, Filho e Junior (1999) também afirmam universalidade do uso
de recursos computacionais no desenvolvimento de projetos e evidenciam a importância de sua
aplicação na formação acadêmica de profissionais da Engenharia.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1375
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Assim, este texto apresenta o desenvolvimento de um código em linguagem C++ para o


cálculo de reações de apoio e esforços internos de vigas hiperestáticas através do método dos
deslocamentos. O trabalho valida os resultados obtidos com o FTOOL, programa desenvolvido
pelo professor Luiz Fernando Martha da PUC-Rio, e também evidencia a importância do uso
destes softwares computacionais no desenvolvimento acadêmico em Engenharia Civil,
especialmente na área de estruturas.

2. APLICAÇÃO DE SOFTWARES NA FORMAÇÃO ACADÊMICA EM


ENGENHARIA

Tendo em vista a vasta aplicação de softwares na atuação de engenheiros no mercado, é


evidente a necessidade de introdução destas tecnologias ainda na etapa de formação acadêmica
em Engenharia.
Carvalho, Filho e Junior (1999) mencionam vantagens importantes do uso de softwares
especialmente nas disciplinas de estruturas como: melhora da compreensão do comportamento
estrutural, viabilizando alternativas inovadoras em projetos; visualização mais clara das
hipóteses e simplificações assumidas nos modelos matemáticos; modelagem e simulação de
estruturas que permitem o desenvolvimento de análise crítica e estimativa de dimensões usuais;
e motivação para o estudo das ferramentas digitais e dos conceitos da mecânica estrutural.
Duarte e Costa (2004) também evidenciam a validade do desenvolvimento e
implementação de códigos computacionais aplicados a contrução civil. Semelhantemente,
Rodrigues, Neto e Neto (2001) apontam a possibilidade do desenvolvimento da
interdisciplinaridade na Engenharia ao introduzir ferramentas computacionais resultando,
inclusive, em aumento nos índices de aprovação dos estudantes.
Assim, verifica-se a validade e justifica-se a relevância da implementação de códigos
computacionais na área de estruturas como ferramenta de otimização da formação acadêmica
em Engenharia.

3. MÉTODO DOS DESLOCAMENTOS

O método dos deslocamentos, segundo Soriano e Lima (2006), por ser um método utilizado
em programações automáticas, é o mais importante método de análise estrutural. Os autores
afirmam também que as incógnitas primárias, neste método, são deslocamentos em pontos
adequadamente escolhidos na estrutura, que são obtidos por meio de um sistema de equações
algébricas lineares de equilíbrio.
O método dos deslocamentos diferencia-se do método das forças, segundo Martha (2010),
por ser feito na ordem inversa:
1º Condições de compatibilidade;
2º Leis constitutivas dos materiais;
3º Condições de equilíbrio.
Conforme a Figura 1, o sistema principal do método (Estado E) é o modelo com os
deslocamentos restritos. Soriano e Lima (2006) definem o símbolo ⊡ como a restrição nodal,
que é aplicado ao apoio/vínculo que está em excesso, tornado o pórtico hiperestático. Definido
o sistema principal, verifica-se que os demais sistemas serão as combinações lineares dos
demais estados.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1376
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 – Combinação linear dos deslocamentos. Fonte: Soriano e Lima (2006)

A partir da combinação linear dos estados, pode-se definir:

𝑓 + 𝑘11 . 𝑑1 + 𝑘12 . 𝑑2 = 𝒻1
{ 1 (1)
𝑓2 + 𝑘21 . 𝑑1 + 𝑘22 . 𝑑2 = 𝒻2

ou de forma matricial:

𝑘 𝑘12 𝑑1 𝒻 𝑓
[ 11 ] { } = { 1} − { 1} (2)
𝑘21 𝑘22 𝑑2 𝒻2 𝑓2

[𝐾]{𝑑} = {𝒻} − {𝑓} = {𝑓𝑐 } (3)


onde [𝐾] é a matriz de rigidez e seus coeficientes 𝑘𝑖𝑗 são os coeficientes de rigidez; {𝑑} é o
vetor dos deslocamentos a ser determinado; e {𝑓𝑐 } é o vetor das forças nodais combinadas
(SORIANO e LIMA, 2006). Os coeficientes de rigidez são dados tabelados e podem ser
verificados em Martha (2010).

4. METODOLOGIA

Com o método dos deslocamentos, foi desenvolvido o software utilizando a linguagem de


programação C++ e realizou-se a validação dos resultados para as vigas 1, 2 e 3, apresentadas
na Figura 2 com os respectivos graus de hiperestaticidade (GH). A vigas verificadas possuem
uma seção retangular de 15𝑥50 𝑐𝑚, módulo de elasticidade 𝐸 = 24 𝐺𝑃𝑎 e momento de inércia
𝐼 = 1,56x10−3 𝑚4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1377
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – Vigas verificadas

Uma vez calculados os deslocamentos 𝑑𝑖 pela equação (3), os esforços na estrutura real
foram determinados por (SUSSEKIND, 1981):

𝐸 = 𝐸0 + ∑𝑖𝑛=1 𝑑𝑖 . 𝐸𝑖 (4)

Assim, para cada viga foi formulado o respectivo sistema de equações que resolve o
problema. Visto que a viga 3 apresenta 3 incógnitas hiperestáticas, a eliminação gaussiana foi
implementada para resolução do sistema (ATKINSON, 1989).

5. RESULTADOS

5.1 Reações de apoio

As reações de apoio obtidas para a viga 1 pelo aplicativo em C++ e pelo FTOOL estão
apresentadas nas Figuras 3 e 4, respectivamente.

Figura 3 - Reações encontradas no aplicativo em C++ para viga 1


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1378
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - Reações encontradas no FTOOL para viga 1

Para as vigas 2 e 3, as reações de apoio também são apresentadas nas Figuras de 5 a 8 a


partir das duas ferramentas.

Figura 5 - Reações encontradas no aplicativo em C++ para viga 2

Figura 6 - Reações encontradas no FTOOL para viga 2

Figura 7 - Reações encontradas no aplicativo em C++ para viga 3

Figura 8 - Reações encontradas no FTOOL para viga 3

Os valores obtidos mostram uma boa correlação dos resultados, apresentando erros
numéricos pequenos que não comprometem a validação do código.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1379
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5.2 Esforços internos

Assim como as reações de apoio, os esforços internos obtidos pelo aplicativo em C++
foram comparados com o FTOOL e mostraram bons resultados, como pode-se verificar a
seguir.
Visto que o aplicativo desenvolvido não possui uma interface gráfica, como o FTOOL,
capaz de construir os diagramas de momento fletor e força cortante, foi necessário criar uma
nomenclatura para identificação dos resultados, conforme a Tabela 1 abaixo.
Tabela 1 – Nomenclatura usada pelo aplicativo

Código Significado
va_e Força cortante à esquerda do apoio A
va_d Força cortante à direita do apoio A
ma_e Momento fletor à esquerda do apoio A
ma_d Momento fletor à direita do apoio A
m_max1pos Momento máximo positivo na seção 1

Nas Figuras 9 e 10, são mostrados os resultados da viga 1 no aplicativo em C++ para o
momento fletor e força cortante, respectivamente; nas Figuras 11 e 12 são apresentados o
momento fletor e a força cortante obtidos pelo FTOOL.

Figura 9 - Momento fletor na viga 1 pelo aplicativo em C++

Figura 10 – Força cortante na viga 1 pelo aplicativo em C++

Figura 11 - Momento fletor na viga 1 pelo FTOOL

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1380
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 12 – Força cortante na viga 1 pelo FTOOL

Nas Figuras 13 e 14, são mostrados os resultados da viga 2 no aplicativo em C++ para o
momento fletor e força cortante, respectivamente; nas Figuras 15 e 16 são apresentados o
momento fletor e a força cortante obtidos pelo FTOOL.

Figura 13 - Momento fletor na viga 2 pelo aplicativo em C++

Figura 14 – Força cortante na viga 2 pelo aplicativo em C++

Figura 15 - Momento fletor na viga 2 pelo FTOOL

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1381
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 16 – Força cortante na viga 2 pelo FTOOL

Nas Figuras 17 e 18, são mostrados os resultados da viga 3 no aplicativo em C++ para o
momento fletor e força cortante, respectivamente; nas Figuras 19 e 20 são apresentados o
momento fletor e a força cortante obtidos pelo FTOOL.

Figura 17 - Momento fletor na viga 3 pelo aplicativo em C++

Figura 18 – Força cortante na viga 3 pelo aplicativo em C++

Figura 19 - Momento fletor na viga 3 pelo FTOOL

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1382
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 20 – Força cortante na viga 3 pelo FTOOL

6. CONCLUSÃO

Como pode ser verificado por meio dos resultados obtidos no aplicativo em C++, os valores
foram muito próximos aos que foram encontrados no FTOOL, software que serviu como
instrumento de comparação e validação, o que ratifica a acurácia do aplicativo desenvolvido.
O aplicativo em C++ pode ser usado para cálculos de reações de apoio e de esforços
internos para vigas hiperestática, com carga distribuída, rigidez continua para todas as seções e
GH até 3.
Além disso, o desenvolvimento de ferramentas computacionais para resolução de
problemas de estruturas mostra-se bastante útil nos estudos da engenharia de estruturas e na
formação dos profissionais da área. Tendo em vista os resultados positivos, ratifica-se a
acurácia do código desenvolvido e o atendimento aos objetivos do trabalho.

REFERÊNCIAS

Atkinson, K. E. An introduction to numerical analysis. 2ª ed. Iowa: Wiley, 1989.


Carvalho, R. C.; Figueiredo Filho, J. R.; Furlan Junior, S. Utilização de Programas Computacionais da Área de
Estruturas no Ensino de Engenharia. In: XXVII Congresso Brasileiro de Ensino de Engenharia - COBENGE
99. Natal, 12 a 15 de setembro de 1999. pp. 109-116., 1999, Natal. XXVII Congresso Brasileiro de Ensino
de Engenharia - COBENGE 99, 1999.
Duarte, G. D.; Costa, A. C. R. Proposta de uma Metodologia para Modelagem de Sistemas Especialistas em
Construção Civil. In: . III Workshop de Tecnología Informática Aplicada en Educación. 3. 2004. La Plata.
Anais.
Lima, S. S.; Soriano, H. L. Análise de Estruturas – Método das forças e método dos deslocamentos. 2ª ed. Rio de
Janeiro: Ciência Moderna, 2006.
Rodrigues, J. A.; Neto, B. G. A.; Neto, M. L. C. Multidisciplinaridade e interdisciplinaridade no ensino de
informática em engenharia. In: Congresso Brasileiro de Educação em Engenharia. 29. 2001. Porto Alegre.
Anais.
Sussekind, J. C. Curso de análise estrutural. vol. III. 6ª ed. Rio de Janeiro: Globo, 1981.

DEVELOPMENTE OF C++ CODE FOR THE ASSESSMENT OF HYPERSTATIC


BEAMS

Abstract. Computer science is a branch always associated with technological developments


and, in the field of engineering, it has become an important tool for processes to become faster
and more efficient, performing more procedures in a short period of time. In the area of study
of structures, the use of softwares is essential, both in the elaboration of projects, as well as in
the academic training of civil engineering professionals. In this context, the present paper
shows the development and validation of an application in C ++ programming language that
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1383
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

performs the calculation of reactions and internal stresses of hyperstatic beams using the
displacements method. The results obtained are validated by comparing them with the FTOOL
software and they confirm the accuracy of the code developed. In addition, the importance of
using structural calculation software in the professional training of civil engineers is presented.

Keywords: Hyperstatic beams, code development, FTOOL, academic software.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1384
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ADVANCES IN THE RESPONSE MATRIX SPECTRAL NODAL METHOD FOR


X, Y –GEOMETRY SN PROBLEMS WITH ANISOTROPIC SCATTERING

Jesús P. Curbelo1 - jcurbelo86@gmail.com


Ricardo C. Barros1 - ricardo.barros@uerj.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico – Nova Friburgo, RJ, Brazil

Abstract.
In this work, we have developed the extended Response Matrix constant–nodal (RM–CN)
method to solve multigroup X, Y –geometry problems in the discrete ordinates formulation with
anisotropic scattering including the upscattering events. Described here is the methodology
to obtain the discretized RM–CN equations and the partial one–node block inversion scheme
used to iteratively solve these equations. To illustrate the accuracy of the method, we offer and
discuss numerical results to two typical model problems.

Keywords: Response Matrix, discrete ordinates, multigroup transport problem, anisotropic


scattering

1. INTRODUCTION

The Response Matrix (RM) methodology is a widely used approach to solving the neutral
particle transport problem. It has a firm theoretical basis (Lindahl & Weiss, 2010) and is focused
on a proper representation of the angular distribution of the interface currents. In general, the
RM method provides a solution to the transport problem based on the preservation of particle
balance and the continuity of interface currents, which couple each sub–zone to its closest
neighbours (Leppänen, 2019). The nodal RM methods consist in solving the problem in the
whole domain by considering each node as a local boundary value problem by itself. The
response matrix is used to relate the outgoing particles from one node to precomputed solutions
of the incident particles (Anghel & Gheorhiu, 1987).
In the work by da Silva et al (2020) was proposed an spectral nodal method for coarse–mesh
numerical solution of steady–state multigroup X, Y –geometry discrete ordinates (SN ) transport
problems in non-multiplying media. The method uses the RM technique to solve analytically
the multigroup one–dimensional transverse–integrated SN nodal equations with approximations
only for the node–edge angular fluxes in the transverse leakage terms.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1385
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

In this work, we extended the spectral Response Matrix constant–nodal (RM–CN) method to
solve fixed–source multigroup SN problems considering strong anisotropic scattering, including
any energy group transfer due to collision, which, in our viewpoint, is an important component
in order to improve the computational modeling of more realistic problems.

2. THE SN TRANSPORT MODEL



Let us consider a two–dimensional domain D = (x, y) ∈ R2 |0 ≤ x ≤ Hx ; 0 ≤ y ≤ Hy
discretized by using a rectangular grid composed by I × J nodes di, j . The steady-state
neutron transport equation in the multigroup and the discrete ordinates (SN ) formulation with
anisotropic scattering in non–multiplying media for an arbitrary discretization node di, j appears
as
G X M
∂ψmg (x, y) ∂ψmg (x, y) i,j
X i,j i,j
µm + ηm + ΣT g ψmg (x, y) = Smg, ng 0 ψng 0 (x, y) + Qg
∂x ∂y g 0 =1 n=1

g = 1 : G , m = 1 : M , i = 1 : I , j = 1 : J , (x, y) ∈ di,j , (1)


where we have defined the multigroup scattering coefficient
L
i,j ωn X (`) i,j
n
Smg, ng 0 = (2` + 1) ΣS g0 →g P` (µm ) P` (µn )
4 `=0
`
X (` − k)! k o
+2 P` (µm ) P`k (µn ) cos(kϕm ) cos(kϕn ) .
k=1
(` + k)!

The notation in Equation (1) is standard (Lewis & Miller, 1993; Prinja & Larsen, 2010; Larsen
& Morel, 2010; Morató et al, 2020):
• θ, ϕ: polar and azimuthal angle, respectively,
p
• µ = cos θ, η = 1 − µ2 cos ϕ,
• (µm , ηm ), ωm : discrete directions and weights of the angular quadrature of order N ,
respectively. The sum of weights is normalized to be equal to 1 in each quadrant,
• M = N (N + 2)/2: total number of directions,
• ψmg (x, y): angular flux for the energy group g in direction (µm , ηm ),
• Σi,j
T g : group macroscopic total cross section,

(`) i,j
• ΣS g0 →g : Legendre moments of the macroscopic differential scattering cross section,
• P` (µ): Legendre polynomial of degree `,
• P`k (µ): associated Legendre polynomial of degree ` and order k,
• Qgi,j : isotropic source emitting radiation with energy within group g.
In this work, the subscript mg indicates the row in a column matrix by fixing g and varying
m = 1 : M . In other words, mg represents the component of position (g − 1)M + m.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1386
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. ANALYTICAL SOLUTION OF THE TRANSVERSE–INTEGRATED EQUATIONS


Z us+1/2
1
Let us apply the operator Lu ≡ (·) du (u = x, y and s = i, j) to Equation (1)
hus us−1/2
within an arbitrary discretization node di,j to obtain the standard multigroup one–dimensional
transverse–integrated SN nodal equations
G X M
d Fmg, s (u) i,j
X i,j i,j i,j
Λm + ΣT g Fmg, s (u) = Smg, ng 0 Fng 0 , s (u) + Qg − Lmg . (2)
du g 0 =1 n=1

where we have defined:


• Λm ≡ µm or ηm ,
Z yj+1/2 Z xi+1/2
1 1
• Fmg, s (u) ≡ ψmg (x, y) dy or ψmg (x, y) dx ,
hyj yj−1/2 hxi xi−1/2

i,j ηm h i µm h i
• Lmg ≡ ψmg (x, yj+1/2 ) − ψmg (x, yj−1/2 ) or ψmg (xi+1/2 , y) − ψmg (xi−1/2 , y) .
hyj hxi
We note that the transverse leakage terms are approximated by constants along the edges in
each node di,j (Barros & Larsen, 1992; Curbelo et al, 2018; da Silva et al, 2020), which is the
only approximation involved in this method.
Equation (2) represents a system of M G ordinary differential equations within each
individual node di,j , whose analytical general solution can be written as
P H
Fmg, s (u) = Fmg, s + Fmg, s (u) .
P
Here, Fmg, s is a particular solution and can be obtained by solving the linear system of order
MG
X G XM  
i, j i,j P i,j i,j
δm, n δg,g0 ΣT g − Smg, ng0 Fmg, s = Qg − Lmg , g = 1 : G, m = 1 : M .
g 0 =1 n=1

On the other hand, the homogeneous component of the general solution is assumed to be of
the form

−(x − λs )  us+1/2 , ν < 0
H ν
Fmg, s (u) = amg (ν) e , λs = . (3)
us−1/2 , ν > 0

Now we substitute Equation (3) into Equation (2), setting the group transverse leakage term and
the prescribed group interior source equal to zero, to obtain the eigenvalue problem
i,j
G X M 
Σi,T gj Smg,

X ng 0 1
δm, n δg, g0 − ang0 (ν) = amg (ν) , g = 1 : G , m = 1 : M ,
g 0 =1 n=1
Λm Λm ν

where the quantities amg (νk ) are the components of the eigenvector corresponding to the
eigenvalue νk−1 . Thus, we write each component of the general solution for Equation (2) as
MG
X −(u − λs )
Fmg, s (u) = νk P
+ Fmg,
αk amg (νk ) e s , g = 1 : G , m = 1 : M , x ∈ di,j ,
k=1

where αk are constants which depend on the node boundary conditions.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1387
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. THE RM–CN METHOD AND THE PARTIAL NBI ITERATION SCHEME

At this point, we use the expression of the general solution for Equation (2) obtained in
the previous section and follow the procedures described by da Silva et al (2020) to obtain the
sweeping equation for each node di, j

Ψout in
i,j = Ri,j Ψi,j + Fi,j .

Here, the response matrix Ri,j is a 2M G–order square matrix and Fi,j is a 2M G–dimensional
vector. Moreover, the entries of the 2M G–dimensional vectors Ψout in
i,j and Ψi,j are the multigroup
angular fluxes in the outgoing and incoming directions, respectively. Due to these response
matrix equations and the constant approximations for the transverse leakage terms, the present
method is termed the spectral nodal Response Matrix–Constant Nodal (RM–CN) method.
Further details on the procedures to calculate the response matrix and the additional matrices
can be found in the work by da Silva et al (2020).
According to the preliminary version of this method (da Silva et al, 2020), we generate
numerical solutions of the SN problem by implementing the partial one–node block inversion
(PNBI) iterative scheme. This iterative scheme is based on iterating on the multigroup node–
edge average angular fluxes in four sweeping directions departing from the corners of the
rectangular domain. The PNBI scheme solves the response matrix equations in each node
di,j for all the multigroup angular fluxes in the outgoing directions by using the most recent
available estimates for the node–edge average angular fluxes in the incoming directions. Figure
1 illustrates the quantities involved in the transport sweeps considering the SW−→NE direction
and two–energy groups, wherein each arrow represents N (N + 2)/8 directions.

g1 g1
g2 g2
NW ψQ2,g,j+1/2 ψQ1,g,j+1/2 NE

ψQ3,g,j+1/2 g2 g2 ψQ4,g,j+1/2
g1 g1
g1 g1 g1
g2 ψQ1,g,i−1/2 ψQ2,g,i+1/2 g2 g2 ψQ1,g,i+1/2

g2 ψQ4,g,i−1/2 ψQ3,g,i+1/2 g2 g2 ψQ4,g,i+1/2


g1 g1
g1
g1 g1
g2 g2
ψQ2,g,j−1/2 ψQ1,g,j−1/2

SW SE
di,j
Figure 1- PNBI algorithm for the SW−→NE sweep. (G = 2).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1388
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. NUMERICAL RESULTS

In this section we consider two model problems. The first test was adapted from the one–
dimensional homogeneous problem proposed by Siewert (1993) with strong upscattering and
here we recreated an equivalent X, Y –geometry version in order to compare the results. In
the second model problem we consider a two–layer shielding material with distinct nuclear
properties surrounding an isotropic source of neutral particles, as proposed by da Silva et al
(2020). We extend this problem to a model with 10–groups and L = 5 scattering.
We used the level symmetric angular quadrature sets (Lewis & Miller, 1993) and the
stopping criterion for each run required that the discrete maximum norm of the relative deviation
between two consecutive estimates for the group node–average scalar fluxes be less than 10−6 .
The methods were programmed in C++ (Code::Blocks 17.12 IDE), we used the ALGLIB library
(ALGLIB Project, 2020) for the matrix operations and we implemented parallelized versions of
the codes by using OpenMP API.

5.1 MODEL PROBLEM NO 1

Let us first consider a six–group problem with triplet (L = 3) scattering. The problem
consists of a 30 cm–thick water slab which is bombarded on the left boundary (x = 0) by a
uniform isotropic source with energies in the first group. The material cross sections present a
strong upscattering and are taken from the work by Siewert (1993). A 2D mock–up was then
constructed using a [0, 30] × [0, 30] rectangle domain. The material distribution is analogous to
the one–dimensional problem (Siewert, 1993) and the isotropic source is considered constant
along the left boundary. In order to compare the results with the ones from the one–dimensional
problem, we have considered reflective boundary conditions on sides y = 0 and y = 10 cm.
We solved the 2D–problem by using the RM–CN+PNBI method on a set of uniform
spatial grids and several quadrature orders. The results were compared to the solution for the
one–dimensional problem obtained by Garcia & Siewert (1998) with the facile (FN ) method
considering N = 149. The reference solution for the group scalar fluxes is only available
at x = 0.0, 7.5, 15.0, 22.5 and 30.0 cm. Thus, we compare the group node–edge scalar
fluxes over the y coordinate direction computed by the RM–CN+PNBI method to the point
value of the reference scalar flux. Figure 2 shows the results obtained on a discretization
grid composed of 300×300 nodes and the S8 angular quadrature set. Under these conditions,
maximum percentage relative deviations (δ) were less than 1% except for the sixth energy group
at x = 0.0 cm.

5.2 MODEL PROBLEM NO 2

In the second model problem we consider a shielding structure with distinct nuclear
properties surrounding an isotropic source of neutral particles. This problem was adapted from
the work by da Silva et al (2020) and we consider 10 energy groups and L = 5 scattering. Figure
3 represents one–fourth of the whole shielding structure, and we consider reflective boundary
conditions for both left and bottom boundaries and vacuum boundary conditions for both right
and top boundaries. The macroscopic cross sections (cm−1 ) of each material zone (z = 1 : 3)
is generated by
 5  
z + 20 g
ΣT g,z = − 0.15 δ5,g − 0.15 δ10,g , g = 1 : 10
21 10

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1389
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0
10
RM−CN (g=1)
RM−CN (g=2)
RM−CN (g=3)
10−3 RM−CN (g=4)
RM−CN (g=5)
RM−CN (g=6)
Group Scalar Flux

10−6 RM−1D (g=1)


RM−1D (g=2)
RM−1D (g=3)
δ = 1.07% RM−1D (g=4)
10−9
RM−1D (g=5)
RM−1D (g=6)

10−12

10−15
0 7.5 15 22.5 30
x (cm)

Figure 2- Group flux for the Model Problem No 1. δ is the maximum percentage relative deviation with
respect to the reference code F149 (Garcia & Siewert, 1998).

and
l
g0 g + g0
  
(l) z + 20
ΣS g0 →g ,z = 0.7 − ,
21 100 (g − g 0 + 1) 200
g = 1 : 10 , g 0 = 1 : g , l = 0 : 1 ,

respectively.

Vacuum
25 cm
23
Zone 3

15
Reflective Zone 2 Vacuum

6
Zone 1
Qg
0
0 6 15 23 25 cm
Reflective

Figure 3- Geometry and material distribution for Model Problem No 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1390
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

We calculate the group absorption rate densities in the 2 × 2 cm region at the upper right
corner of the structure, due to the centered radiation source

Qg = (1.1 − 0.1 g) cm−3 s−1 , g = 1 : 10 .

The numerical results obtained with the RM–CN+PNBI method are compared with the ones
from the conventional fine–mesh Diamond Difference (DD) method using the source iteration
(SI) scheme (Lewis & Miller, 1993). We considered as reference the results by using the
DD+SI method on a discretization grid composed of 500 × 500 nodes, i.e., 20 nodes/cm in
the x direction × 20 nodes/cm in the y direction, since it is considered fine for this type of
problem (Curbelo & Barros, 2020).
To analyze the numerical results of the group absorption rate densities, we solved the SN
problem by using the RM–CN+PNBI method on a coarse spatial grid composed of 25 × 25
nodes. The refinement of the mesh was performed until the result deviates from the reference
value less than 1%. With the S4 model, the higher percentage relative deviation (δ) is about
0.27% at the tenth energy group on a spatial grid composed of 75 × 75 nodes. On the other
hand, with the S8 angular quadrature set, δ is about to 0.51% at the second group considering
50 × 50 nodes. Therefore, the results for this model–problem are less sensitive to the spatial
discretization grid for higher orders of the angular quadrature.
Table 1 displays the results considering only the absorption rate densities for the energy
groups 1, 5 and 10, respectively, on several spatial grids and quadrature orders. The sixth
column shows the total response considering all energy groups.

Table 1- Group absorption rate density for Model Problem No 2 (cm−1 s−1 ).
S4 g=1 g=5 g = 10 Total response
DD+SI (∆20 ) a 4.77773e–04 1.04694e–05 5.90536e–06 5.92892e–04
RM–CN+PNBI (∆1 ) 5.02163e–04 1.11002e–05 6.32822e–06 6.23373e–04
RM–CN+PNBI (∆2 ) 4.90525e–04 1.06488e–05 6.03584e–06 6.07604e–04
RM–CN+PNBI (∆3 ) 4.78524e–04 1.04826e–05 5.92103e–06 5.93802e–04
S8 g=1 g=5 g = 10 Total response
DD+SI (∆20 ) 3.33405e–03 7.00512e–05 4.14198e–05 4.10944e–03
RM–CN+PNBI (∆1 ) 3.34811e–03 7.07249e–05 4.16970e–05 4.13122e–03
RM–CN+PNBI (∆2 ) 3.34649e–03 7.03311e–05 4.15826e–05 4.12526e–03
a ∆N : spatial grid composed of N nodes/cm in the x direction × N nodes/cm in the y direction.

6. CONCLUSIONS

We have extended the RM–CN method to fixed–source multigroup SN problems in X, Y –


geometry with anisotropic scattering. Only the transverse leakage terms in transverse–
integrated SN nodal equations are approximated and, in this work, they are approximated
by constant. The RM–CM method generated accurate results for the highly anisotropic
model–problems that we solved compared to conventional methods such as FN and DD+SI
methods. The present method is less sensitive to the spatial discretization grid for coarse–mesh
calculations when compared with the fine–mesh DD method.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1391
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As future work, we intend to extend these procedures to forward and adjoint SN transport
models along with Monte Carlo models for radiation therapy applications such as boron neutron
capture therapy (BNCT). We also aim to apply this method to solve problems in three–
dimensional cartesian geometry.

ACKNOWLEDGMENTS

This study was financed in part by the Coordenação de Aperfeiçoamento de Pessoal de Nı́vel
Superior – Brasil (CAPES) – Finance Code 001.

REFERENCES

ALGLIB Project (1999–2020), ALGLIB® –numerical analysis library, Last accessed on 2020–08–01,
http://www.alglib.net/download.php.
Anghel, V. N. P. & Gheorhiu, H.,An Iteration Strategy for Response Matrix Theory Codes, Annals of
Nuclear Energy, 14, 219–226.
Barros, R. C. & Larsen, E. W. (1992), A spectral nodal method for one–group X, Y –geometry discrete
ordinates problems. Nuclear Science and Engineering, 11, 34–45.
Curbelo, J. P. & Barros, R. C. (2020), A spectral nodal method for the adjoint SN neutral particle
transport equations in X, Y –geometry: application to direct and inverse multigroup source–detector
problems. Annals of Nuclear Energy, 150C, 107822 (in press).
Curbelo, J. P.; da Silva, O. P. & Barros, R. C. (2018), Application of an adjoint technique to one–
speed X, Y –geometry source–detector transport problems in the discrete ordinates formulation using
a spectral nodal method. Progress in Nuclear Energy, 108, 445–453.
da Silva, O. P.; Guida, M. R.; Alves Filho, H. & Barros, R. C. (2020), A response matrix spectral nodal
method for energy multigroup X, Y –geometry discrete ordinates problems in non–multiplying media.
Progress in Nuclear Energy, 125, 103288.
Garcia, R. D. M. & Siewert, C. E. (1998), The FN method for multigroup transport theory with
upscattering. Nuclear Science and Engineering, 130:2, 194–212.
Larsen, E. W. & Morel, J. E. (2010), “Advances in Discrete–Ordinates Methodology”, in Nuclear
Computational Science: A Century in Review, Azmy, Y. & Sartori, E. (ed.), Springer, Dordrecht.
Leppänen, J., Acceleration of fission source convergence in the Serpent 2 Monte Carlo code using a
response matrix based solution for the initial source distribution, Annals of Nuclear Energy, 128,
63–68.
Lewis, E. E. & Miller, W. F. (1993), “Computational methods of neutron transport”, American Nuclear
Society, Illinois, USA.
Lindahl, S. O. & Weiss, Z. (1981), “The Response Matrix Method”, in Advances in Nuclear Science and
Technology, Lewins, J. & Becker, M. (ed.), Springer, Boston, MA.
Morató, S.; Bernal, Á.; Miró, R.; Roman, J. E. & Verdú, G. (2020), Calculation of λ modes of the multi–
group neutron transport equation using the discrete ordinates and Finite Difference Method. Annals
of Nuclear Energy, 137, 107077.
Prinja, A. K. & Larsen, E. W. (2010), “General Principles of Neutron Transport”, in Handbook of
Nuclear Engineering, Cacuci, D. G. (ed.), Springer Science+Business Media, New York, USA.
Siewert, C. E. (1993), A spherical–harmonics method for multigroup or non–gray radiation transport.
Journal of Quantitative Spectroscopy and Radiative Transfer, 49:2, 95–106.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1392
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

RECOMENDAÇÕES PARA CONSTRUÇÃO DE MALHA EM ANÁLISES DE


ELEMENTOS FINITOS PARA PROBLEMAS DE FILETES COM ALTOS
GRADIENTES DE TENSÃO

Igor Barreto Cabral de Oliveira1 - igor_bco@hotmail.com


Dany Sanchez Dominguez1 - dsdominguez@uesc.br
Gesil Sampaio Amarante Segundo1 - gsamarante@uesc.br
1 Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil

Resumo. Filetes são elementos muito comuns em componentes mecânicos. Em análises


estruturais, quando há necessidade de se obter a tensão máxima eles não podem ser ignorados
no modelo. Para conseguir calcular os altos gradientes de tensão em filetes, é necessário um
refinamento local da malha na região. Neste trabalho, modelos de barras planas submetidas
a tensão axial são avaliadas através simulações estruturais pelo método dos elementos finitos.
O objetivo é definir as dimensões da malha no filete para garantir resultados precisos. Os
resultados das simulações são validados com dados obtidos de ensaios fotoelásticos em estudos
anteriores.

Palavras-chave: Concentração de tensão, Barras planas, Filete, Elementos finitos, Malha

1. INTRODUÇÃO

Filetes estão sempre presentes na prática em regiões de transição em componentes


mecânicos. Por conta da dificuldade em ajustar a malha à curvatura, os filetes são muitas vezes
ignorados em simulações numéricas por simplificação. Mas, se for de interesse da simulação
obter a tensão máxima na região, eles devem ser incluídos no modelo, pois ignorá-los gera uma
singularidade de tensão (Kurowski, 2017).
A região do filete requer uma malha mais fina não só pela necessidade de representar a
complexidade da geometria, mas também para que os cálculos sejam precisos o suficiente para
captar a alta variação de tensão na região (Koutronamos, 2018). A concentração de tensão
em filetes e outras descontinuidades foi alvo de diversos estudos, com ensaios fotoelásticos e
formulações analíticas para gerar curvas de fator de concentração de tensão (Pilkey & Pilkey,
2008). Com o aumento da disponibilidade de ferramentas de simulação numérica e poder
computacional, os ensaios e cálculos análiticos foram substituídos por análises pelo método

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1393
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dos elementos finitos. Há exemplos recentes de estudos determinando através de simulação


numérica o fator de concentração de tensão em materiais compósitos (Ahmed et al., 2018;
Kumar et al., 2016; Tadepalli et al., 2017) e em juntas soldadas (Cerit et al., 2010; Terán et al.,
2013; Méndez et al., 2017).
O objetivo deste trabalho é fornecer uma referência das dimensões da malha na região do
filete para obter resultados precisos da tensão máxima pelo método dos elementos finitos. A
análise deste trabalho foi feita através de simulações em barras planas submetidas a tração
uniaxial. As barras analisadas são compostas por duas porções com larguras diferentes e a
mudança de largura é atenuada pelo filete de raio r, como mostra a Fig.1. Os dados obtidos em
estudos experimentais e compilados em (Pilkey & Pilkey, 2008) foram usados como referência
para validar os resultados das simulações.
Na seção 2 deste trabalho é explicada a metodologia. Ela engloba a descrição da geometria
dos modelos, condições de contorno e detalhes da malha. Na seção 3 são apresentados os
resultados das simulações, e, a partir dos resultados são feitas as recomendações de dimensões
da malha.

Figura 1- Modelo da simulação (Fonte: Beer et al., 2015).

2. METODOLOGIA

Foram realizadas simulações de análise estrutural estática em barras planas submetidas a


tração uniaxial, como na Fig.1. A partir da tensão máxima obtida na simulação, foi calculado o
fator de concentração de tensão, K, que é dado pela Eq.(1),
σmax
K= (1)
σmed
onde σmax é a tensão normal máxima obtida na simulação e σmed é a tensão normal média em
uma seção transversal da porção da barra de largura d (a parte menos larga). O σmed é obtido
diretamente dividindo a carga aplicada pela área, ambas conhecidas de antemão (Beer et al.,
2015).
O K é calculado para poder comparar os resultados das simulações com os valores
tabelados, mostrados no gráfico da Fig.2. Os dados do gráfico foram compilados de ensaios
fotoelásticos (Pilkey & Pilkey, 2008). Os pontos marcados na curva são as geometrias usadas
nas simulações deste trabalho.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1394
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Valores do fator de concentração de tensão para barras planas obtidos em ensaios fotoelásticos.
Os pontos marcados na curva azul são os valores usados nas simulações deste trabalho. (Fonte: Pilkey
& Pilkey, 2008).

A partir dos resultados das simulações, são definidas as recomendações de dimensionamento


da malha para obter resultados precisos. As subseções seguintes detalham os aspectos das
simulações. A ferramenta usada foi o software ANSYS Mechanical versão 18.1.

2.1 Geometria

O modelo de barra plana usado nas simulações tem as larguras D = 120mm e d = 100mm.
Os comprimentos de cada porção da barra plana é de 1,5 vezes a sua largura. Essa medida é
tomada para garantir a condição de barra longa, como é mostrado por Troyani et al.(2003). Ou
seja, a porção com largura D tem 180mm de comprimento e a porção com largura d tem 150mm
de comprimento.
Foram usados três valores de raio do filete, que são indicados no gráfico da Fig.2. As razões
r/d usadas foram: 0, 02, 0, 05 e 0, 1. Os valores de K obtidos estão na faixa de 1,8 a 3. O
domínio das simulações é bidimensional e representa metade da barra plana, aproveitando a
sua simetria. A Fig.3 mostra a geometria de menor raio do filete usada na simulação. A única
alteração feita nos outros modelos usados foi o raio do filete.

2.2 Condições de contorno

A carga aplicada foi escolhida de forma que σmed = 10MPa, para simplificar o cálculo de
K. Em simulações em 2D, o ANSYS assume a espessura da geometria bidimensional constante
e igual a 1m. Logo, a carga aplicada para obter a tensão média de 10MPa foi de 500kN. A Fig.3
mostra a aplicação da carga.
A outra extremidade foi fixada, com a condição de contorno de suporte sem fricção. Essa
condição foi escolhida, ao invés do suporte fixo, para permitir o encolhimento transversal que
ocorre na barra submetida a tração, e evitar a introdução de tensões na direção transversal. Na

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1395
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Modelo utilizado na simulação com indicação da carga aplicada.

fronteira de simetria, também foi definida a condição de suporte sem fricção, que é equivalente
a definir uma condição de simetria.

2.3 Malha

Foram construídos quatro tipos de malha, cada uma composta por um dos quatro tipos de
elemento abaixo:

1) Tria3: elementos triangulares com 3 nós, um em cada vértice, e interpolação linear.

2) Quad4: elementos quadriláteros com 4 nós, um em cada vértice, e interpolação linear.

3) Tria6: elementos triangulares com 6 nós, um em cada vértice e mais um em cada aresta,
e interpolação quadrática.

4) Quad8: elementos quadriláteros com 8 nós, um em cada vértice e mais um em cada


aresta, e interpolação quadrática.

As malhas foram construídas no ANSYS, com o método Multizone, escolhendo apenas


triângulos ou apenas quadriláteros. A dimensão dos elementos foi definida para 10mm. Na
região da descontinuidade, a malha é mais fina. Esse refinamento local foi feito definindo o
número de elementos, n, na aresta curva do filete. Para cada tipo de elemento, foram feitas 6
simulações, começando com n = 2 e dobrando o valor de n até chegar em 64. As Fig.4 e 5
mostram a malha usada com elementos do tipo tria3 e quad4, respectivamente, com 4 elementos
no filete e r/d = 0, 02.
É possível perceber a limitação em representar a geometria do filete com as arestas retilíneas
dos elementos lineares (tria3 e quad4). Essa é mais uma fonte de erro, que se soma ao erro
numérico. Com o refinamento da malha, esse problema é reduzido. Os elementos quadráticos
(tria6 e quad8) apresentam um melhor desempenho em relação às curvas. O uso de um
polinômio de segundo grau no mapeamento isoparamétrico permite que os elementos no espaço
físico tenham arestas curvas (Kurowski, 2017). A Fig.6 mostra uma comparação entre os
elementos tria3 (esquerda) e tria6 (direita) com as mesmas dimensões (n = 2 e r/d = 0, 05).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1396
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As arestas dos elementos tria6 se ajustam muito melhor à linha verde que representa a curva do
filete.
Na Tabela 1 são apresentados os piores valores encontrados de Assimetria (skewness),
Qualidade Ortogonal (Orthogonal Quality) e Relação de Aspecto (Aspect Ratio), para os
elementos triangulares (tria3 e tria6) e quadrilaterais (quad4 e quad8). Tratam-se de parâmetros
de qualidade que medem a distorção dos elementos. Pelos manuais do ANSYS, são
considerados aceitáveis um valor máximo de Assimetria de até 0,94 e um valor mínimo de
Qualidade Ortogonal (QO) de pelo menos 0,15. A Relação de Aspecto (RA) deve ser o mais
próximo possível de 1. Quase todos os valores da Tabela 1 foram encontrados nas malhas com
n = 64 ou n = 32, onde surgiram elementos de qualidade mais baixa na região de transição
para se adequarem à imposição abrupta de refinamento local. Os elementos triangulares se
ajustam mais facilmente a geometrias complexas e isso se reflete nos números da Tabela 1, que
são quase sempre piores para os elementos quadrilaterais.

Figura 4- Malha com elementos do tipo tria3 com n = 4 e r/d = 0, 02.

Figura 5- Malha com elementos do tipo quad4 com n = 4 e r/d = 0, 02.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1397
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6- Comparação entre elementos do tipo tria3 (esquerda) e tria6 (direita) com r/d = 0, 05 e n = 2.
A linha verde representa a curva do filete.

Tabela 1- Piores valores dos parâmetros de qualidade dos elementos


r/d = 0,02 r/d = 0,05 r/d = 0,1
Tria Quad Tria Quad Tria Quad
Máx. RA 2,00 2,76 2,22 2,38 2,85 2,58
Mín. QO 0,75 0,54 0,71 0,56 0,59 0,50
Máx. Assimetria 0,44 0,79 0,51 0,84 0,60 0,82

3. RESULTADOS E DISCUSSÃO

A seguir são apresentados os resultados para cada raio de filete. Os resultados são
apresentados nos gráficos das Fig.7, 8 e 9. Eles mostram os valores de K obtidos para cada
n usado na simulação. Os gráficos apresentam resultados para os 4 tipos de elementos usados e
a linha tracejada preta marca o valor obtido experimentalmente.

Figura 7- Resultado para r/d = 0, 02.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1398
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 8- Resultado para r/d = 0, 05.

Figura 9- Resultado para r/d = 0, 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1399
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nos três casos os resultados sempre convergem para um valor muito próximo aos valores
obtidos em experimentos. Como esperado, os elementos quadráticos tem uma convergência
nitidamente mais rápida que os lineares. Para os elementos lineares, há uma diferença sensível
entre os elementos triangulares e quadrilaterais. A malha de elementos quad4 apresenta
melhores resultados que a do tipo tria3 nos três casos. Para os elementos quadráticos,
praticamente não há diferença de resultado entre os elementos triangulares e quadrilaterais com
o mesmo valor de n. Apenas para n = 2 ocorre uma diferença perceptível, e nos três casos a
malha com elementos quad8 leva uma ligeira vantagem em relação a do tipo tria6.
É importante lembrar que, com o mesmo valor de n, as malhas com elementos quadrilaterais
tem menos nós que as malhas com elementos triangulares, e portanto um sistema de equações
lineares menor. As malhas de elementos triangulares tem sistemas de equação cerca de 25%
maiores para elementos lineares, e mais de 60% maiores para elementos quadráticos. A
vantagem das malhas triangulares é a facilidade de se ajustar à geometria, o que geralmente
resulta em elementos de qualidade superior, como mostra a Tabela 1. Ainda assim, as malhas
com elementos quadrilaterais, no geral, obtiveram resultados melhores que as triangulares.
A partir dos resultados, pode ser definido o valor de n para obter um resultado satisfatório
para cada tipo de malha e valor de r/d. O critério estabelecido pra definir o valor satisfatório é
que, ao dobrar o valor de n, o resultado de K varie menos de 2,5%. Por exemplo, na Fig.9,
a diferença do valor de K obtido com n = 16 em relação ao valor obtido com n = 8 é
menor que 2,5% para a malha do tipo quad8. Portanto, para r/d = 0, 1, a malha do tipo
quad8 obtém um valor considerado satisfatório com n = 8. Os valores de n definidos por
esse critério são mostrados nas Tabelas 2, 3 e 4, para r/d = 0, 02, r/d = 0, 05 e r/d = 0, 1,
respectivamente. Também são mostrados o número de equações do sistema linear e o erro em
relação aos resultados experimentais de cada tipo de malha. Os valores de erro confirmam
que as simulações convergem para valores muito próximos dos resultados obtidos nos ensaios
fotoelásticos. Os sistemas lineares foram resolvidos através de métodos diretos para matrizes
esparsas.

Tabela 2- Valores definidos de n, tamanho do sistema linear e erros em relação aos resultados
experimentais para r/d = 0, 02.
tria3 quad4 tria6 quad8
n 32 32 8 8
Nº de Eq. 1679 1365 4150 2440
Erro (%) 2,45 1,41 0,4 0,47

Tabela 3- Valores definidos de n, tamanho do sistema linear e erros em relação aos resultados
experimentais para r/d = 0, 05.
tria3 quad4 tria6 quad8
n 32 16 16 16
Nº de Eq. 1429 849 4110 2472
Erro (%) 2,22 0,09 1,33 1,25

Para obter valores precisos de K, a dimensão dos elementos no filete deve ser igual ao
comprimento do filete dividido pelo n estabelecido. Logo, a razão em porcentagem, ζ, da
dimensão dos elementos no filete em relação à largura d é dada pela Eq.(2).
πr
ζ = 100 × (2)
2nd
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1400
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4- Valores definidos de n, tamanho do sistema linear e erros em relação aos resultados
experimentais para r/d = 0, 1.
tria3 quad4 tria6 quad8
n 32 16 8 8
Nº de Eq. 1193 715 2564 1632
Erro (%) 0,42 1,64 1,85 2,22

A Fig.10 mostra os resultados de ζ para cada tipo de malha e valor de r/d. Os valores são
idênticos para as malhas do tipo tria6 e quad8, pois eles atingiram o critério de qualidade com
os mesmos valores de n.

Figura 10- Valor de ζ para obter resultados precisos.

4. CONCLUSÕES

Os resultados obtidos em simulações pelo método dos elementos finitos alcançaram valores
compatíveis com os obtidos experimentalmente através de ensaios fotoelásticos. Dessa forma,
foi possível estabelecer dimensões para os elementos na região do filete para obter resultados
confiáveis. Os elementos quadráticos, como esperado, mostraram uma convergência muito
mais rápida. Além disso, os elementos quadrilaterais mostraram resultados superiores com
dimensões semelhantes aos triangulares.
Este trabalho pode ser estendido usando mais amostras, com diferentes razões r/d e também
diferentes razões D/d. Além disso, podem ser feitos estudos em três dimensões, usando outras
geometrias, além de filetes, que também produzem concentração de tensões.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal


de Nível Superior – Brasil (CAPES). Agradecemos o suporte do Programa de Pós-graduação
em Modelagem Computacional da Universidade Estadual de Santa Cruz (UESC).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1401
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Referências

Ahmed, T., Choudhry, R., Shah, A., Saeed, H. (2018), A study on finite element of pre damaged stress
concentration factor for a composite laminate member with central circular, Journal of Mechanical
Science and Technology , Vol. 32, 3653-3658.
Beer, F., Johnston, E., DeWolf, J., Mazurek, D. (2015), Mechanics of Materials, 7º ed., McGraw-Hill
Education, New York.
Cerit, M., Kokumer, O., Genel, K. (2010), Stress concentration effects of undercut defect and
reinforcement metal in butt welded joint, Engineering Failure Analysis, Vol. 17, 571-578.
Koutromanos, I. (2018), Fundamentals of Finite Element Analysis, 1º ed., John Wiley & Sons.
Kumar, A., Agrawal, A., Ghadai, R., Kalita, K. (2016), Analysis of Stress Concentration in Orthotropic
Laminates, Procedia Technology, Vol. 23, 156-162.
Kurowski, P. (2017), Finite Element Analysis for Design Engineers, 2º ed. SAE International.
Méndez, G., Cuamatzi-Meléndez, R., Hernández, A., Capula-Colindres, S., Angeles-Herrera, D.,
Velázquez, J., Vazquez-Hernández, O. (2017), Correlation of Stress Concentration Factors for T-
Welded Connections – Finite Element Simulations and Fatigue Behavior, Soldagem & Inspeção, Vol.
22, 194-206.
Pilkey, D., Pilkey, W. (2008), Peterson’s Stress Concentration Factors, 3º ed., John Wiley & Sons, New
York.
Tadepalli, G., Vineela, G., Reddy, T. (2017), Analysis of stress concentration in isotropic and orthotropic
plates with hole under uniformly distributed loading conditions, Materials Today: Proceedings, Vol.
4, 740-745.
Terán, G., Albiter, A., Cuamatzi-Meléndez, R. (2013), Parametric evaluation of the stress concentration
factors in T-butt welded connections, Engineering Structures, Vol. 56, 1484-1495.
Troyani, N., Marín, A., García, H., Rodríguez, F., Rodríguez, S., Gomes, C. (2003), Theoretical stress
concentration factors for short shouldered plates subjected to uniform tension, J. Strain Anal. Eng.
Des., Vol. 38, 103-113.

MESHING RECOMMENDATIONS IN A FINITE ELEMENT ANALYSIS FOR


SHOULDER FILLETS WITH HIGH STRESS GRADIENTS

Abstract. A shoulder fillet is a very common feature in mechanical components. When the
maximum stress is important, fillets can not be neglected in a structural analysis. Because of
the high stress gradient in those regions, a local mesh refinement is needed. In this work flat
bars under axial tension were evaluated by static finite element analysis. The goal is to define
proper mesh dimensions in order to get accurate results of maximum stress. The simulations
were validated by data from photoelastic tests available in previous studies.

Keywords: Stress concentration, Shoulder fillets, Finite element, Mesh, SCF

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1402
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DINÂMICA DE UM AÇO BALÍSTICO DE ALTA DUREZA

Suzane de Sant’ ana Oliveira1 – susan.oliver@hotmail.com


Ricardo Pondé Weber2 – rpweber@ime.eb.br
Andersan Santos de Paula2 – andersan@ime.eb.br
Karollyne Gomes de Castro Monsores2 - karollyne_sadalla@hotmail.com
Anderson Oliveira da Silva2 - anderson.q.ao@gmail.com
1
Laboratório de Catálise e Química Ambiental (LACQUA), Instituto de Química, Universidade
Federal do Rio de Janeiro (UFRJ) – Rio de Janeiro, RJ, Brazil
2
Programa de Pós graduação em Ciência dos Materiais (PPGCM), Seção de Engenharia de Materiais
(SE-8), Instituto Militar de Engenharia (IME) – Rio de Janeiro, RJ, Brazil

Resumo. Quando um material é sujeito a altas tensões e/ou altas taxas de deformação, o
comportamento gerado em seu interior é completamente diferente daqueles denominados
quase-estáticos, pois os átomos não têm tempo o suficiente de sentir o impacto. Este
comportamento é conhecido como dinâmico e, tal qual o estático, possui características
próprias e relevantes para o desempenho de uma blindagem. Sendo assim, esse trabalho
buscou conhecer um pouco sobre o comportamento dinâmico de uma blindagem metálica de
alta dureza, produzida nacionalmente, por meio do ensaio de compressão dinâmica com a
barra de pressão Hopkinson sob altas taxas de deformação, seguido de caracterização por
meio de microscopia eletrônica de varredura, onde foi possível identificar a falha dinâmica
conhecida como banda de cisalhamento adiabático.

Palavras-chave: Blindagem metálica, Aço Balístico, Barra de pressão Hopkinson, Banda de


cisalhamento adiabático.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1403
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Materiais estão em constante evolução em diversas áreas e uma delas é a balística, onde
há a utilização dos grandes grupos, a saber, metais, cerâmicos e polímeros. Selecionar o
material adequado para desempenhar seu papel com excelência requer conhecimento do que
se vai proteger e a que tipo de munição este ser, equipamento ou construção está sujeito
(Stewart e Netherton, 2020).
Quando se trata de proteção pessoal, seja para especialistas das forças armadas ou não, é
necessário conhecer a que tipo de ameaça (munição) a mesma estará sujeito. Dessa forma,
selecionar o material adequado para o colete, como por exemplo, a aramida ou o poliestireno,
é uma etapa fundamental neste processo (Cline e Love, 2020; Da Silva et al., 2020). Na
condição de soldado, por exemplo, a mobilidade é um critério importante, pois permitirá com
que o indivíduo caminhe e/ou corra e ainda seja protegido (Crouch, 2019).
Para a produção de carros de combate o material ainda mais utilizado é o metal. Sua
seleção é decorrente da relação custo-benefício, quando comparada aos outros materiais, e às
excelentes propriedades que se podem alcançar após os tratamentos térmicos de têmpera e
revenido, modificando a microestrutura do material (Saxena et al., 2018).
No estudo do comportamento mecânico de uma blindagem tem-se que as propriedades
mais importantes são dureza e tenacidade (MIL-DTL-46100E). A dureza para quebrar a ponta
do projétil e a tenacidade para a absorção da energia de impacto e retenção dos estilhaços
(Cabrilo and Geric, 2018; Oliveira et al., 2019). Todavia, essas características são obtidas a
baixa velocidade, quando o comportamento é considerado isotérmico, ou seja, a energia
gerada é dissipada para todo o corpo (Meyers, 1994).
Quando o material é submetido a um comportamento dinâmico, tem-se altas taxas de
deformação e/ou tensão. Fisicamente, no interior no material, tem-se a propagação de ondas
de tensão e a resposta do material pode se tornar adiabática, a saber, quando o calor gerado
não se propaga de forma homogênea na amostra, podendo causar falhas por bandas de
cisalhamento adiabático (Crouch, 2017; Meyers, 1994).
As bandas de cisalhamento são consideradas uma instabilidade termomecânica,
resultando em uma zona estreita com intensa deformação plástica, a qual pode levar a
blindagem a uma falha prematura (Bassim, 2000; Odeshi et al., 2009; Boakye-Yiadom et al.,
2014; Dorothy and Longère, 2019).
As propriedades mecânicas de uma blindagem metálica já foram estudadas por Oliveira
et al. (2019), contudo, o obetivo deste trabalho é avaliar o comportamento dinâmico de uma
blindagem produzida nacionalmente, por Siderúrgicas brasileiras, por meio do ensaio de
compressão dinâmica com uma Barra de pressão Hopkinson, seguida de uma análise via
Microscopia Eletrônica de Varredura (MEV).

2. MATERIAL E MÉTODOS

O material de estudo é um aço de alta dureza, HHA (High Hardness Armor steel),
produzido de acordo com a norma MIL-DTL-46100E (2008). Esse aço foi fornecido na forma
de chapa laminada com dimensões 500 x 500 x 8 mm (Direção de Laminação – DL x Direção
Transversal – DT x Direção Normal, espessura – DN), que foi tratada termicamente por
têmpera a aproximadamente 910 °C e revenida a 310 °C, sem informações dos demais
detalhes do ciclo térmico nestes respectivos tratamentos – em função de sigilo industrial. Na
Tabela 1 tem-se a faixa de composição química do aço estudado.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1404
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 – Faixa de composição química do aço HHA (% em massa).

Elemento C Mn Si Cr Ni Al Ti Cu P S
0,80 0,80 0,325 0,25
% (massa) 0,32 1,10 1,10 0,475 0,75 0,100 0,100 0,25 0,020 0,005

Em função da ausência de detalhes, tais como tempo de encharque e meios de


resfriamento, para além da temperatura de encharque dos tratamentos térmicos realizados na
empresa fornecedora do aço, foram conduzidos novos tratamentos térmicos de têmpera e
revenido em escala laboratorial. Dessa forma, foram extraídas da chapa fornecida, no
laboratório de Instrumentação e Tecnologia Mecânica do Centro Brasileiro de Pesquisas
Físicas (CBPF), por meio de corte a plasma, duas amostras com as seguintes dimensões: 150
mm de altura x 100 mm de largura e 8 mm de espessura (DL x DT x DN).
Posteriormente, as duas amostras foram tratadas termicamente pela empresa Temperaço,
por meio de Têmpera a 910 °C por 10 min, seguida de um resfriamento em salmoura agitada.
Subsequentemente, apenas uma dessas amostras temperadas foi submetida ao processo
térmico de revevido a 310 °C por 1 h, com resfriamento ao ar. A fim de verificar a
microestrutura resultante dos tratamentos térmicos na empresa Temperaço, foi realizada uma
análise por meio de microscopia óptica e eletrônica de varredura.

2.1 Ensaio dinâmico com a Barra Hopkinson

O ensaio dinâmico foi realizado com uma barra de compressão Hopkinson bipartida
(Figura 1), que foi projeta e construída pelo Departamento de Engenharia Aeroespacial da
Universidade da Califórnia (San Diego – USA). Não foi utilizado nenhum aparato para
monitorar o incremento da temperatura, após o impacto.

Figura 1 - Fotografia da barra Hopkinson da Universidade da Califórnia.

A chapa revenida a 310 °C, na empresa Temperaço, foi submetida a um corte por
eletroerosão a fio, permitindo obter 3 amostras cilíndricas com 5 mm de diâmetro e 6 mm de
altura na direção normal (DN) da chapa, conforme a representação esquemática apresentada
na Figura 2.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1405
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Representação esquemática da retirada da amostra. Em (a) vista superior, (b) vista
lateral da espessura e (c) CP de Barra Hopkinson.

Este ensaio permitiu determinar a tensão e a deformação dinâmica, bem como a tensão de
escoamento e taxa de deformação.

2.2 Caracterização por meio de Microscopia

Após o ensaio dinâmico de compressão em diferentes taxas de deformação, desbastou-se,


por lixamento controlado com lixas d’água após embutimento, a lateral da amostra cilíndrica
de modo a formar uma superfície com área que tivesse a dimensão da altura do cilindro (6
mm) pelas larguras de 1, 2 e 3 mm, conforme Figura 3, dos corpos de prova ensaiados na
Barra Hopkinson. Geralmente as análises das amostras impactas são realizadas nas
extremidades (seção transversal), porém, de acordo com Boakye-Yiadom et al. (2014),
quando há a intersecção entre as regiões internas a 45 °, conhecidas como de máximo
cisalhamento, com uma fonte ativa de discordância, tem-se um local propício para o
surgimento de bandas de cisalhamento adiabático. Dessa forma, escolheu-se analisar regiões
abaixo da superfície das laterais indo em direção ao centro da peça. Para a análise
metalográfica, as superfícies foram polidas e atacadas com Nital 3%, após cada desbaste, e
analisadas por microscopia óptica e eletrônica de varredura.

Figura 3 - Representação esquemática do desbaste longitudinal dos CP’s, após impacto na


Barra Hopkinson, em regiões associadas às áreas de análise de (a) 1 x 6 mm2, (b) 2 x 6 mm2 e
(b) 3 x 6 mm2 abaixo da superfície lateral.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1406
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÃO

Na Figura 4 são apresentadas as micrografias da amostra após o processamento térmico


por meio de têmpera a 910 °C por 10 min, seguida de resfriamento em salmoura agitada, e o
tratamento subsequente de revenido a 310 °C por 1 h, ambos conduzidos na empresa
Temperaço.
Na Figura 4 é possível identificar regiões escuras, relacionadas à presença de martensita,
juntamente com outro(s) constituinte(s) nas regiões mais claras, com aspecto aparentemente
acicular, que podem ser associadas à austenita retida, bainita e/ou ferrita acicular (Colpaert,
2008, Da Costa, 2010). Ao se comparar a condição temperada (Figura 4a) com a revenida
(Figura 4b), nota-se uma redução na morfologia e uma aparência homogênea, em relação à
distribuição das regiões formadas. Contudo, ainda não se pode afirmar a natureza da(s) fase(s)
associada(s) a esta região clara, como também o aspecto morfológico das martensitas
temperada e revenida. Dessa forma, realizou-se uma análise por meio de MEV, conforme
apresentado na Figura 5.

(a) (b)
Figura 4 - Aspectos morfológicos do aço HHA, via MO, após o ataque com o reagente Nital
3%. Em (a) tem-se à amostra temperada a 910 °C por 10 minutos e em (b) amostra revenida a
310 °C por 1 h, obtidas na empresa Temperaço.

B
B

M
M
FA
FA

(a) (b)
Figura 5 – Aspectos morfológicos do aço HHA, via MEV, após o ataque com o reagente Nital
3% em 10.000x. Em (a) tem-se à amostra temperada a 910 °C por 10 minutos e em (b)
amostra revenida a 310 °C por 1 h, obtida na empresa Temperaço. M: Martensita; FA: Ferrita
Acicular; B: Bainita

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1407
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Figura 5a é apresentada a micrografia via MEV (SE) da amostra temperada a 910 °C


por 10 minutos e resfriada em salmoura agitada, obtida na empresa Temperaço. Essa amostra
é composta de martensita, juntamente com algumas regiões de baixo relevo. Geralmente este
tratamento produz unicamente martensita, porém as regiões de baixo relevo indicam a
existência da ferrita e dos feixes de bainita (ripas paralelas) (Colpaert, 2008; Da Costa, 2010;
Bhadeshia e Honeycombe, 2017). Já na Figura 5(b) é apresentada a micrografia da amostra
revenida a 310 °C por 1 h, obtida na empresa Temperaço. Nessa micrografia é possível
indicar a presença da martensita revenida, da ferrita acicular e alguns possíveis feixes de
bainita (paralelos à morfologia da martensita de forma organizada). As regiões de baixo
relevo com formato acicular, referentes à ferrita, aparecem de forma reduzida.
Com a finalidade de detalhar a morfologia da amostra revenida, realizaram-se também
análises por meio de MEV com maiores aumentos, conforme apresentado na Figura 6.
Com as micrografias apresentadas na Figura 6 permite-se indicar que essa microestrutura
é composta por Bainita e martensita revenidas, além de ferrita acicular. Após essa análise, as
amostras foram submetidas ao ensaio dinâmico e os gráficos tensão x deformação, em função
de determinada taxa de deformação, gerados podem ser observados na Figura 7.
De acordo com Lee et al. (2019) algumas propriedades podem ser dependentes ou não da
taxa de deformação. No caso do aço HHA as amostras apresentaram aumento da tensão de
escoamento em função do aumento da taxa de deformação. Este comportamento é conhecido
como sensibilidade à taxa de deformação. O gráfico tensão de escoamento (TE) versus taxa de
deformação média (TDM) está apresentado na Figura 8 (Meyers, 1994; Ren et al., 2018).

FA Br

Mr

(a) (b)
Figura 6 - Micrografia, observada via MEV (SE), da amostra a 310 °C por 1 h, obtida na
empresa Temperaço, após o ataque com Picral 4% em (a) 20.000x e da área em destaque em
(b) 40.000x. Mr: Martensita revenida; FA: Ferrita Acicular; Br: Bainita revenida.

Embora apresentem taxas de deformação muito próximas (4120 s-1, 4336 s-1 e 4679 s-1),
as amostras impactadas demonstraram um aumento expressivo da tensão de escoamento. Este
comportamento pode estar relacionado à sua microestrutura formada majoritariamente por
bainita e martensita revenidas, conforme apresentado na Figura 5 - análise detalhada por
MEV.
Logo após o ensaio dinâmico nas distintas taxas de deformação, as amostras revenidas e
impactadas foram submetidas a análises microscópicas via MO, conforme representado pelas
micrografias de uma destas amostras (impactada a 4679 s-1) mostradas na Figura 9.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1408
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 - Gráficos tensão x deformação dinâmicos em três taxas de deformação diferentes


em função da condição revenida a 310 ºC por 1 h, obtida na empresa Temperaço.

Figura 8 - Curva TE x TDM das amostras revenidas a 310 °C por 1 h, obtida na empresa
Temperaço.

(a) (b) (c)


Figura 9 - Aspecto microestrutural via MO da amostra impactada a 4679 s-1 após o desbaste
longidutinal de (a) 1, (b) 2 e (c) 3 mm no eixo do seu diâmetro (Figura 2).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1409
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Figura 9 são apresentados os aspectos microestruturais das superfícies de análise


resultantes dos desbastes realizados, conforme Figura 2, após os impactos nas distintas taxas
de deformação apresentadas na Figura 7. A amostra apresentou “linhas” ao longo de sua seção
transversal bem acentuadas e, aparentemente, parece que elas se tornam mais dispersas e
largas com o aumento da taxa de deformação (conforme destacado na Figura 9). O surgimento
dessas “linhas” pode estar relacionado às mudanças microestruturais durante a deformação
dinâmica, pois como analisado via MO e MEV, a amostra antes do impacto não apresentou
essas “linhas” características.
Já quanto ao comportamento dinâmico do material, sabe-se que o resultado da tensão,
deformação ou taxa de deformação, dependem da passagem das ondas de tensão no interior
do material (Meyers, 1994). Sendo assim, o maior percentual de bainita e martensita
revenidas podem ter contribuído para a diminuição da velocidade da onda plástica gerada
durante o impacto.
Na Figura 10 é apresentada uma possível heterogeneidade na profundidade da superfície
de análise associada à área de desbaste de 2 x 6 mm2, conforme Figura 2 (c), quanto da
análise microestrutural no microscópio óptico (MO).

Figura 10 - Aspecto microestrutural via MO da amostra revenida a 310 °C por 1 h após a


deformação, na profundidade de 2 mm com uma possível heterogeneidade indicada pela seta
branca.

Na Figura 11 é apresentada a mesma heterogeneidade analisada por meio de microscopia


eletrônica de varredura (MEV). Essa análise permitiu classificar a heterogeneidade como uma
banda de cisalhamento adiabático deformada (BCAD), pois ainda é possível observar uma
interface bem definida entre as microestruturas internas e externas, mas com grande
deformação (Odeshi et al., 2006; Boakye-Yiadom et al., 2014).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1410
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

BCAD
BCAD

(a) (b)
Figura 11 - Micrografia via MEV (SE) da amostra revenida a 310 °C por 1 h e impactada,
com taxa de deformação de 4679 s-1, com uma possível heterogeneidade em (a) 3.250x e (b)
10.000x. BCAD: Banda de cisalhamento adiabático deformada

4. CONCLUSÕES

Após essa pesquisa, pode-se chegar a seguintes conclusões:

- A microestrutura após os tratamentos térmicos de têmpera e revenido mostrou a presença


majoritária de bainita em conjunto com martensita, e regiões de ferrita acicular;
- O ensaio dinâmico apresentou o fenômeno de sensibilidade à taxa de deformação, onde o
aumento da taxa levou ao aumento da tensão de escoamento. Além disso, surgiram “linhas”
de deformação que se tornaram dispersas com o aumento mínimo da taxa de deformação;
- A microestrutura após o impacto com a barra de pressão Hopkinson mostrou a presença da
banda de cisalhamento adiabático.

Acknowledgements

The authors thank the support to this investigation by the Brazilian agencies: CNPq,
CAPES and FAPERJ.

REFERÊNCIAS

Bassim, M. N. (2001). Study of the formation of adiabatic shear bands in steels. Journal of Materials Processing
Technology, 119(1-3), 234-236.
Bhadeshia, H., & Honeycombe, R. (2017). Steels: microstructure and properties. Butterworth-Heinemann.
Boakye-Yiadom, S., Khan, A. K., & Bassim, N. (2014). A systematic study of grain refinement during impact of
4340 steel. Materials Science and Engineering: A, 605, 270-285.
Cabrilo, A., & Geric, K. (2018). Fracture mechanic and charpy impact properties of a crack in weld metal, HAZ
and base metal of welded armor steel. Procedia Structural Integrity, 13, 2059-2064.
Cline, J., & Love, B. (2020). The effect of in-plane shear properties on the ballistic performance of polyethylene
composites. International Journal of Impact Engineering, 103592.
Crouch, I. (Ed.). (2016). The science of armour materials. Woodhead Publishing.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1411
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Crouch, I. G. (2019). Body armour–New materials, new systems. Defence Technology, 15(3), 241-253.
Colpaert, H., & da Costa, A. L. V. (2008). Metalografia dos produtos siderúrgicos comuns. Editora Blucher.
Da Costa, A. L. V., & Mei, P. R. (2010). Aços e ligas especiais. Editora Blucher.
Da Silva, A. O., Weber, R. P., Monteiro, S. N., Lima, A. M., Faria, G. S., da Silva, W. O., ... & Pinheiro, W. A.
(2020). Effect of graphene oxide coating on the ballistic performance of aramid fabric. Journal of Materials
Research and Technology.
Dorothy, H. L., & Longère, P. (2017). Modelling of high strain rate adiabatic shear banding induced failure: A
comparison of two approaches. International Journal of Impact Engineering, 110, 219-227.
Lee, A., & Komvopoulos, K. (2019). Dynamic spherical indentation of strain hardening materials with and
without strain rate dependent deformation behavior. Mechanics of Materials, 133, 128-137.
Meyers, M. A. (1994). Dynamic behavior of materials. John wiley & sons.
Odeshi, A. G., Al-Ameeri, S., Mirfakhraei, S., Yazdani, F., & Bassim, M. N. (2006). Deformation and failure
mechanism in AISI 4340 steel under ballistic impact. Theoretical and Applied Fracture Mechanics, 45(1),
18-24.
Odeshi, A. G., Bassim, M. N., & Bolduc, M. (2009). Damage mechanism in high hardness armor (HHA) steel
subjected to V50 ballistic impact. In DYMAT-International Conference on the Mechanical and Physical
Behaviour of Materials under Dynamic Loading (Vol. 1, pp. 563-567). EDP Sciences.
Oliveira, S. D. S. A., Weber, R. P., Suarez, J. C. M., & Souza, E. R. S. (2019). Aço de alta dureza para aplicação
balística: propriedades mecânicas. Matéria (Rio de Janeiro), 24(3).
Ren, J., Xu, Y., Zhao, X., & Zhao, P. (2018). Dynamic mechanical behaviors and failure thresholds of ultra-high
strength low-alloy steel under strain rate 0.001/s to 106/s. Materials Science and Engineering: A, 719, 178-
191.
Saxena, A., Kumaraswamy, A., Reddy, G. M., & Madhu, V. (2018). Influence of welding consumables on
tensile and impact properties of multi-pass SMAW Armox 500T steel joints vis-a-vis base metal. Defence
technology, 14(3), 188-195.
Specification, U. M. (2008). MIL-DTL-46100E (MR),“Armor Plate, Steel, Wrought, High-Hardness”. US Army
Research Laboratory, APG, MD, 9.
Stewart, M. G., & Netherton, M. D. (2020). Statistical variability and fragility assessment of ballistic perforation
of steel plates for 7.62 mm AP ammunition. Defence Technology, 16(3), 503-513.

DYNAMIC ASSESSMENT OF A HIGH HARDNESS BALLISTIC STEEL

Abstract. When a material is subjected to high stresses and / or high rates of deformation, the
behavior generated inside it is completely different from those called quasi-static, because
atoms do not have enough time to feel the impact. This behavior is known as dynamic and,
like the static, has its own characteristics relevant to the performance of an armor. Therefore,
this work sought to know a little about the dynamic behavior of a high hardness armor steel,
produced nationally, through the dynamic compression test with the Hopkinson pressure Bar
under high deformation rates, followed by characterization through scanning electron
microscopy, where it was possible to identify the dynamic failure known as the adiabatic
shear band.

Keywords: Metallic armor, Ballistic Steel, Hopkinson pressure Bar, Adiabatic shear band.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1412
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO TERMOQUÍMICA DA FIBRA DA FOLHA DE CARNAÚBA


(COPERNÍCIA PRUNÍFERA)

Pricilla Sousa Melo1 – priscillamello611@ime.eb.br


Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com
Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Texeira Souza1 – andressa.t.souza@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
1
Instituto Militar de Engenharia, Seção de Ciências dos Materiais – Rio de Janeiro, RJ, Brasil.

Resumo. É notória a crescente empregabilidade das fibras naturais lignocelulósicas (FNLs)


em setores industriais. Tal fato pode estar aliado diretamente ao apelo ambiental e custo
benefício, alavancando cada vez mais a produção de fibras naturais. As FNLs apresentam
elevada complexibilidade em sua constituição, sendo composta majoritariamente de celulose,
hemicelulose e lignina. Dessa forma se faz de grande importância científica coletar
informações sobre as propriedades desses materiais. Assim, o presente estudo se propõe a
estudar as propriedades térmicas e composição química das fibras de carnaúba (Copernicia
prunifera) com o emprego de espectometria no infravermelho por transformada de Fourier
(FTIR), análise termogravimétrica (TG) e calorimetria diferêncial de varredura (DSC). A
análise por FTIR retornou bandas de absorção características para os constiuintes das
FNLs. A análise por TG apresentou perda de umidade em 64,4°C, as fibras apresentam início
de degradação em 207°C. Os picos exotermicos (287 e 359 °C) e endotérmico (108°C)
observados em DSC condizem com a faixa de degradação dos constiuintes das FNLs,
condizendo com a perda de massa observada pela análide de TG. As fibras de carnaúba
apresentam propriedades vibracionais e térmicas similares a outras FNLs, dessa forma,
apresentam indicativos de aplicabilidade em reforço de matrizes poliméricas na produção de
materiais compósitos.

Palavras-chave: Fibras naturais; Caracterização; Propriedades térmicas.

1. INTRODUÇÃO

Segundo Canevarolo Jr. (2002) as fibras são materiais que apresentam cadeias orientadas
em uma direção preferencial (sentido longitudinal), satisfazendo a razão de aspecto maior ou

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1413
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

igual a 100 vezes. É crescente a empregabilidade de fibras naturais lignocelulósicas em


diversos setores tecnológicos, conforme apresenta John e Thomas (2008) ao se referir às
fibras de bananas aplicadas pela Mercedes Benz no modelo Classe A. A elevada utilização de
FNLs na indústria pode estar aliado as propriedades apresentadas por esses materiais,
podendo citar o baixo custo, baixa massa específica e serem provenientes de fontes
ecológicas.
As fibras quando em uso, podem ser submetidas a uma grande variação de deformações
mecânicas (estiramento, torção, cisalhamento e abrasão), as quais devem apresentar limite de
resistência e módulo de elasticidade elevados (CALLISTER e RETHWINCH, 2016). As
FNLs são materiais que apresentam elevada complexidade em sua constituição celular
(BLEDZKI e GASSAN, 1999; MONTEIRO et al. 2011). Segundo John e Thomas (2008) as
FNLs são compostas basicamente por uma matriz de hemicelulose e lignina, a qual envolve
fibrilas de celulose semicristalina.
A celulose está inclusa na classe dos polímeros naturais, os quais são sintetizados pela
natureza, sendo considerada um carboidrato presente em quase todos os vegetais. A celulose
apresenta uma estrutura química constituída por unidades de glicose ligadas por átomos de
oxigênio, formando longas cadeias poliméricas (CANEVAROLO JR, 2002). A celobiose
representada na Figura 1 é a unidade repetitiva da celulose, composta por moléculas de
glicose eterificadas por ligações β-1-4-glicosídicas (BLEDZKI e GASSAN, 1999).

Figura 1 – Estrutura de repetição da celobiose, compondo a estrutura química da celulose.


Fonte: Adaptado de Bledzki e Gassan (1999).

A lignina é o segundo componente mais abundante da parede celular, caracterizada como


ligante amorfo, hidrofóbico, de alto grau de polimerização e com caráter aromático
(BLEDZKI e GASSAN, 1999). É responsável por conferir rigidez às plantas, através da
transferência de tensões entre as fibrilas, aparecendo geralmente nos tecidos vasculares
(D’ALMEIDA e QUINAYA, 2013). A estrutura química da lignina pode ser observada na
Figura 2.

Figura 2 – Estrutura química da lignina. Fonte: Adaptado de D’Almeida e Quinaya (2013).

Outro componente importante presente nas FNLs é a hemicelulose, designada como


polissacarídeo de cadeias ramificadas, o qual apresenta baixa massa molecular, sendo
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1414
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

responsável por promover flexibilidades às plantas e atuar como agente de ligação entre a
celulose e a lignina (FENGEL e WEGENER, 1989).
A carnaubeira é uma palmeira da família Palmae do tipo xerófito, cuja o nome científico
da espécie originária no Brasil é Copernícia prunífera (Miller) H. E. Moore (CONAB, 2017;
LORENZINE, 1996). A palavra carnaúba é derivada diretamente da língua indígena,
significando “a árvore que arranha”, recebendo tal nomenclatura por apresentar espinhos ao
longo de seu caule, se destaca outras designações para essa planta, tais como: carnaúva,
carnaba, carandaúba e carnaíba.
A carnaúba foi apelidada de “árvore da vida” por Alexandre Von Humblodt, conforme
apresenta Cascudo (1964). Tal definição está atrelada ao fato das variadas formas de se
explorar os benefícios que a planta é capaz de ceder. Da carnaúba tudo pode ser aproveit ado,
as raízes possuem uso medicinal, os frutos são largamente empregados para alimentação
animal; seu tronco serve como madeira para construção civil; a cera é intensamente aplicada
na produção de lubrificantes, anticorrosivos e velas; e as folhas são empregadas para
cobertura de casas, produção de artesanatos e fibras (MOTTA, 2012).
As fibras da carnaúba são originadas das folhas da planta se apresentando em forma de
fibrilas coladas entre si pela lignina, assim constituem a morfologia característica da folha.
Geralmente as fibras são duras, onde se necessita de esforços mecânicos para desagrega-las da
composição da planta.
No presente estudo é proposto o estudo das propriedades térmicas apresentadas pelas
fibras de Carnaúba (Copernícia prunífera). Tal fibra é retirada da folha da carnaubeira como
popularmente é conhecida, esta planta tem maior ocorrência na região nordeste do país, mais
precisamente dos estados do Ceará, Piauí e Rio Grande do Norte.
Devido à escassez de informações literárias sobre as propriedades apresentadas por essas
fibras, se faz de suma importância e elevado valor científico a realização da caracterização
destes materiais, buscando predizer o seu comportamento diante de aplicações de
responsabilidade. Logo, este estudo busca levantar informações que possam ser utilizadas
como base de dados de pesquisas sobre as fibras de carnaúba, dessa forma, destacar as
propriedades termoquímicas por elas apresentadas.

2. MATERIAIS E MÉTODOS

2.1 Fibras de carnaúba

As fibras de carnaúba utilizadas no presente estudo foram adquiridas através da produção


rural, as quais vieram da cidade de Barro, Ceará. O material foi disponibilizado em forma de
folhas, portanto ainda verdes, dessa forma foram submetidas a imersão em água durante 24 h,
seguidas de secagem ao sol por 10 h e posterior desfio. As folhas de carnaúba como recebidas
estão ilustradas na Figura 3.

Figura 3 – Folhas de carnaúba como recebidas.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1415
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Espectrometria de Infravermelho por Transformada de Fourier (FTIR)

Foi utilizado o espectrômetro Perkin Elmer modelo Spectrum Two. As fibras utilizadas
foram secas em estufa a 80°C por 24 h e trituradas na condição mais próxima de pó para a
produção das pastilhas. Cerca de 1,5 mg do material de interesse foi misturado à 300 mg d e
brometo de potássio (KBr), o conjunto foi macerado em almofariz e pistilo de ágata, a mistura
foi levada ao pastilhador e submetidas a uma pressão de 10 kgf.cm-2 em vácuo por 5 min.
As amostras foram submetidas a uma varredura de 4000 a 450 cm -1 , os dados gerados
foram tratados com software de análise de dados, gerando os respectivos espectros de
transmitância (%) em função do número de onda (cm-1 ).

2.3 Análise termogravimétrica (TG)

As fibras foram trituradas e alocadas em cadinho de platina para a realização da análise


termogravimétrica. Foi utilizado o equipamento Shimadzu modelo TG-50 pertencente ao
Laboratório de Caracterização dos Materiais da UFCA. Foi operad o em atmosfera de
nitrogênio com taxa de aquecimento de 10°C/min no intervalo de 25 a 600°C. Os dados
gerados foram tratados com software de análise de dados, seguido da plotagem dos
termogramas.

2.4 Calorimetria diferencial de varredura (DSC)

Para as análises de DSC as fibras de carnaúba foram trituradas e alocadas em cadinho de


alumínio e destinadas à análise no equipamento Shimadzu modelo DSC – 60A Plus,
pertencente ao Laboratório de Caracterização dos Materiais da UFCA.

3. RESULTADOS

3.1 Espectrometria de Infravermelho por Transformada de Fourier (FTIR)

Através da análise por FTIR foi possível observar que as fibras de carnaúba apresentam
características semelhante a outras FNLs (ABRAHAN, 2011; MONTEIRO et al. 2014;
BELOUDAH, 2015). As FNLs apresentam em sua constituição a celulose, hemicelulose e
lignina, dessa forma, os três materiais apresentam em sua constituição alcanos, ésteres,
aromáticos, cetonas e álcoois, onde nestas moléculas é comumente observado oxigênio
presente (ABRAHAN, 2011). Através dos dados gerados pela análise foi possível a plotagem
do espectro representado pela Figura 4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1416
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 – Espectro de FTIR, representando porcentagem de transmitância em função do


número de onda.

O espectro de FTIR é capaz de retornar informações importantes a respeito à estrutura


química apresentada pelas FNLs, ao se analisar a Figura 4 pode-se destacar algumas bandas
características dos constituintes das fibras. Uma banda de maior transmitância é observada
para 3390 cm-1 , a qual pode ser atribuída ao alongamento da ligação (OH) (BELOUDAH,
2015).
As bandas 2890 e 2850 cm-1 podem ser atribuídas aos grupos CH 2 , comumente
observados na celulose e hemicelulose (hidrocarbonetos saturados) (SPINACÉ, 2009). Pode
ser observada uma banda de pequena absorção em 2130 cm-1 , característica observada para
ligações insaturadas de alcinos (C≡C), essas ligações são de bandas fracas, possivelmente
atribuídas à compostos complexos presentes na fibra.
As bandas observadas em 1653 e 1737 cm-1 são correspondentes às ligações C=O,
provavelmente a grupos funcionais (ácidos carboxílicos, alifáticos e cetonas) presentes na
lignina e hemicelulose (ABRAHAN, 2011; REIS et al. 2019). As bandas localizadas entre
1605 a 1505 cm-1 e por volta de 1250 cm-1 podem ser atribuídas às vibrações em anéis
aromáticos, em que facilmente pode ser identificada a ocorrência de anéis aromáticos ao se
examinar a molécula da lignina (REIS et al. 2019). Os álcoois presentes na constituição da
celulose apresentam vibrações de deformação da ligação OH e geralmente aparecem por volta
de 1360 cm-1 (SPINACÉ, 2009).
As bandas observadas em número de onda relativamente baixo são características da
parte reconhecida como impressão digital do composto, região d e comportamento de
complexo entendimento através do espectro representativo de cada material. A análise por
FTIR apresenta indicativo da presença dos principais constituintes das FNLs, retornando
assim bandas de absorção referente a esses materiais, contud o, se faz necessário o emprego de
técnicas complementares para a quantificação de tais compostos.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1417
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3.2. Análise termogravimétrica (TG)

Quando se trabalha com a aplicação de fibras naturais em diversos setores, estudar as


propriedades térmicas apresentadas por cada constituinte se faz de extrema importância, desde
que as temperaturas de processamento podem influenciar na degradação direta das FNLs.
Estudos envolvendo as propriedades térmicas das fibras naturais são importantes para se
avaliar o comportamento apresentado através da variação d e temperatura, como também se
predizer quais as melhores condições de processamento destes materiais.
Estudos realizados por Seky (2013) apresentam a decomposição térmica dos constituintes
das FNLs: celulose (240 – 350°C), hemicelulose (200 – 260 °C) e lignina (280 – 500°C). A
curva termogravimétrica (TG) e a sua derivada (DTG) obtidas para as fibras de carnaúba
estão representadas na Figura 5 (a) e 5 (b) respectivamente.

Figura 5 – Dados das análises termogravimétricas. (a)Curva de TG e (b) DTG.

Os dados de perda de massa observados nos eventos térmicos ocorridos, juntamente às


temperaturas de degradação estão representados na Tabela 1.

Tabela 1 – Parâmetros termogravimétricos observados para as fibras de carnaúba.


Perda de massa Temp. de Perda de massa Perda de
Temp. de início de
após 200°C Máxima taxa de após segundo massa até
degradação (°C)
(%) degradação(°C) estágio (°C) 600°C (°C)
9,6 267,3 353 63,1 74,7
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1418
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As curvas de TG e DTG das fibras de carnaúba destacam os eventos térmicos ocorridos


durante o ensaio, onde primeira redução de massa significativa foi observada em 64,4°C com
redução de 9,6% da massa da amostra, essa degradação é destacada por ocorrer d e forma mais
lenta, tal informação é obtida através da leitura da curva de DTG. Essa perda de massa pode
estar relacionada à evaporação da água presente na fibra (SARAVANAKUMAR et al. 2013).
No segundo evento térmico foi observada a maior perda de massa, apresentando cerca de
53,5%, sendo registrado na faixa de 207 a 414°C. Através da análise da curva de DTG pode-
se observar que o evento ocorreu de forma rápida, isso se comparado ao primeiro evento, esse
patamar de perda de massa é responsável pela degradação dos principais constituintes das
FNLs (SEKY et al. 2013). Nessa etapa são registrados dois picos principais na curva de DTG.
O primeiro pico ocorreu entre 207 e 320°C, com redução d e 25,3% de massa da amostra, que
pode estar associado a degradação da hemicelulose e as ligações glicosídicas da celulose
(INDRAN, RAJ e SREENIVASAN, 2014). O segundo pico observado se localiza entre 320 a
414°C com 28,2% de redução da massa, com taxa máxima de degradação a 353°C,
correspondendo a perda da celulose I e α-celulose (LAVOR, 2008; VRINCEANU et al.,
2014; BHATNAGAR, 2016; LIMA et al. 2019). Após esses eventos, a perda de massa foi
mantida constante até 600°C, com uma perda total de 74,7%. Os resultados
termogravimétricos obtidos são comparáveis a outros estudos realizados para as fibras de
carnaúba (LAVOR, 2008; MELO, 2012; LIMA et al. 2019).

3.3. Calorimetria diferencial de varredura (DSC)

A calorimetria diferencial de varredura (DSC) é uma análise térmica que se baseia no


registro do fluxo de calor associado a transformações térmicas nos materiais em função da
variação da temperatura. Análises por DSC retornam dados qualitativos e quantitativos
relacionados à processos de absorção de energia (endotérmicos) ou liberação de energia
(exotérmicos), expondo importantes características térmicas dos materiais como: temperaturas
características, estabilidade térmica, cinética de reações, grau de pureza, dentre outras. As
fibras em estudo foram submetidas à análise por DSC e os dados obtidos no procedimento
estão representados na Figura 6.

Figura 6 – Dados de DSC para as fibras de carnaúba. (a) Curva DSC e (b) Curva DDSC.

As fibras naturais lignocelulósicas apresentam vários passos de degradação, onde cada


constituinte é responsável por uma reação em determinada temperatura, a celulose geralmente
apresenta degradação entre 310 a 360°C, a hemicelulose se degrada entre 240 a 310 °C
enquanto que a lignina se degrada entre 200 a 500°C (VRINCEANU et al. 2014). As

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1419
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

temperaturas observadas na curva DDSC dão indícios relacionados às temperaturas de início


de degradação da fibra, conforme apresentado na curva termogravimétrica (Figura 4).
A curva presenta um pico endotérmico em 108°C, provavelmente associado a perda de
água presente na fibra (SPINACÉ, 2009), tal informação interage com o que foi apresentado
na curva de TG, indicando o início da perda de água antes de 100°C.
São observados dois picos de carácter exotérmico, provavelmente associados à
degradação dos constituintes das FNLs. O primeiro pico exotérmico é observado em 287°C,
segundo Vrinceanu (2014) essa reação pode ser relacionada à degradação da hemicelulose e
decomposição da α-celulose. O segundo pico exotérmico por volta de 359°C pode ser
relacionado a degradação da lignina e parte da celulose I (BHATNAGAR, 2016). É
importante salientar que as reações exotérmicas podem ser correlacionadas às perdas de
massa observadas na curva termogravimétrica (Figura 5 (a)), relacionando-as diretamente à
degradação dos constituintes das fibras de carnaúba.

4. CONCLUSÃO

A análise por FTIR apresentou resultados esperados, com bandas referentes a vibrações
moleculares de grupos funcionais pertencente aos constituintes básicos das FNLs, como
celulose, hemicelulose e lignina. Porém, se necessita do emprego de técnicas complementares
para ser possível levantamento quantitativo destes compostos.
Os dados referentes a análise termogravimétrica retornaram dois patamares referente a
perda de massa significativa, onde o primeiro localiza-se em 64,4 ° referente à perda de
umidade, o segundo em torno de 207°C a 414°C que está relacionado a degradação dos
constituintes da fibra. É importante salientar que as fibras naturais não devem ser utilizadas
em aplicações que envolvam temperaturas elevadas e que sejam próximas a temperatura de
degradação desses materiais.
Pela análise de DSC foi observado um pico endotérmico localizado em 208°C e dois
picos exotérmicos localizados em 287°C e 359°C, onde os eventos térmicos observados
ocorrem em temperaturas equivalente às perdas de massa apresentadas nas curvas de TG,
fortalecendo os valores obtidos pelas duas técnicas.
É importante salientar que as fibras de carnaúba apresentam baixo custo de obtenção, são
relativamente fáceis de serem produzidas e apresentam propriedades térmicas similares à
outras fibras naturais. De acordo com as propriedades térmicas apresentadas pelas fibras de
carnaúba, destaca-se a possibilidade de utilização das fibras em algumas aplicações de
responsabilidade, em especial para a produção de materiais compósitos de matriz polimérica.
Pois, apresentam propriedades similares a outras FNLs já aplicadas na produção de
compósitos.

Agradecimentos

Os autores deste trabalho agradecem a FAPERJ e à CAPES por meio do PDS pelo
financiamento da pesquisa e a UFCA por possibilitar a realização das análises.

REFERÊNCIAS

Abraham, E. E. A. (2011), Extraction of nanocellulose fibrils from lignoce llulosic fibers: A novel approach.
Carbohydrate Polymers, Vol. 86, 1468– 1475.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1420
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Belouadah, Z.; Ati, A.; Rokbi, M. (2015), Characterization of new natural cellulosic fiber from Lygeumspartum
L. Carbohydrate Polymers, Vol. 134, 429–437.
Bhatnagar, A. (2016), Lightweight ballistic composites: military and law-enforcement applications. Woodhead
Publishing.
Bledzki, A. K.; Gassan, J. (1999), Composites reinforced with cellulose based fibers. progress in polymer
science, Vol. 4, p. 221-274.
Callister Jr, W. D.; Rethwisch, D. G. (2016), Ciência e engenharia de materiais – uma introdução. 9ª. ed. Rio de
Janeiro: LTC.
Canevarolo Jr, S. V. (2002), Ciência dos polímeros: um texto básico para tecnólogos e engenheiros. 2ª. ed. São
Paulo: Artliber.
Cascudo, L. C. A. (1964). Carnaúba. Revista Brasileira de Geografia – Número de Abril-Junho. Disponivel em:
<http://biblioteca.ibge.gov.br/>. Acesso em: 26 mar. 2020.
CONAB. (2017), Conjuntura Mensal - Carnaúba. Conab - Companhia Nacional de Abastecimento, por: Enio
Calos Moura de Souza. Brasilia, p. p. 5.
D’almeida, J. R. M.; Nunes, L. M.; Paciornik, S. (2004), Evaluation of the damaged area o f glass-fiber-
reinforced epoxy-matrix composite materials submitted to ballistic impacts. Composites Science and
Technology, Vol. 64, p. 945-954.
Fengel, D.; Wegener, G. (1989), Wood: Chemistry, Ultrastructure, Reactions. Valter de Gruyter. [S.l.].
Indran, S.; Raj, R. E.; Sreenivasan, V. (2014), Characteriza tion of new naturalcellulosic fiber from Cissus
quadrangularis root. Carbohydrate Polymers, 110, 423-429.
John, M. J.; Thomas, S. (2008), Biofibers and Biocomposites. Carbohydrate Polymers, Vol. 71, p. 3 43-364.
Lavor, C. T. B. (2008), Efeito de materiais isolantes térmicos em aviários no desempenho de frango de corte.
Revista Ciências Agronômas, Fortaleza, Vol. 39, p. 309-316.
Lorenzine, H. et al. (1996), Palmeiras no Brasil. São Paulo, Plantarum. Nova Odessa, p. p. 70.
Melo, J. D. D. (2012), A biodegradable composite material based on polyhydrosybutyrate (PHB) and carn auba
fibers. Composites: Part B, Vol. 43, p. 2827-2835.
Monteiro, S. N. et al. (2014), Characterization of banana fibers functional groups by infrared spectroscopy.
In:TRANS TECH PUBL. Materia ls Science Forum. [S.l.], p. 250–254.
Monteiro, S. N. et al. (2011), Natural Lignocellulosic Fibers as Engineering Materials - An Overview.
Metallurgical and Materials Transactions A, Vol. 42 A, p. 2963 -2974.
Motta, R. (2012), Carnaúba, a Árvore da Vida. Paisagismo digital. Disponivel em:
<http://www.paisagismodigital.com/noticias/default.aspx?CodNot=268>. Acesso em: 26 mar. 2020.
Reis, R. H. M. et al. (2019), Chemical and morphological characterization o f guaruman fiber. In: Green
Materials Engineering. Springer, p. p. 107–113.
Saravanakumar, S. et al. (2013), Characterization of a novel na tural cellulosic fiber from Prosopisjuliflora bark.
Carbohydrate Polymers, Vol. 92 (2), 1928-1933.
Seky, Y. et al. (2013), Extraction a ndproperties of Ferula communis (chakshir) fibers as novel reinforcement
forcomposites materials. Composites, B: Engineering, Vol. 44 (1), 517-523.
Vrinceanu, N. et al. (2014), Zinc Oxide - Linem Fibrous Composites: Mofphological, Structural, Chemical,
Humidity Adsoptive and Thermal Barrier Attributes. Modern Surface Engenering Treatments.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1421
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

THERMOCHEMICAL CHARACTERIZATION OF THE CARNAUBA LEAF’S


FIBER (COPERNICIA PRUNIFERA)

Raí Felipe Pereira Junio1 – raivsjfelipe@hotmail.com


Daysianne Kessy Mendes Isidorio1 – daysiannekessy@ime.eb.br
Lucas de Mendonça Neuba1 – lucasmneuba@gmail.com
Andressa Texeira Souza1 – andressa.t.souza@gmail.com
Sergio Neves Monteiro1 – snevesmonteiro@gmail.com
Lucio Fabio Cassiano Nascimento1 – lucio@ime.eb.br
1
Military Engineering Institute, Materials Science Section – Rio de Janeiro, RJ, Brasil.

Resumo. The increasing employability of natural lignocellulosic fibers (NFLs) in industrial


sectors is notorious. This fact can be directly related to the environmental appeal and cost
benefit, increasingly leveraging the production of natural fibers. The NFLs have a high
complexity in their constitution, being composed mainly of cellulose, hemicellulose and
lignin. Thus, it is of great scientific importance to collect information about the properties of
these materials. Thus, the present study proposes to study the thermal properties and
chemical composition of carnauba fibers (Copernicia prunifera) with the use of Fourier
transform infrared spectrometry (FTIR), thermogravimetric analysis (TG) and differential
scanning calorimetry (DSC ). FTIR analysis shown characteristic absorption bands for the
NFLs constituents. The TG analysis showed a moisture loss of 64.4 ° C, the fibers present a
temperature of onset degradation at 207 ° C. The exothermic (287 and 359 ° C) and
endothermic (108 ° C) peaks observed in DSC are consistent with the degradation range of
the NFLs constituents, matching the loss of mass observed by the TG analysis. Carnauba
fibers have similar vibrational and thermal properties to other NFLs, thus showing
indications of applicability in reinforcing polymeric matrices in the production of composite
materials.

Keywords: Natural fibers; Characterization; Thermal properties.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1422
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

DETERMINAÇÃO DE PARÂMETROS FÍSICOS PARA O MÉTODO DOS


ELEMENTOS DISCRETOS POR MEIO DE INTELIGÊNCIA ARTIFICIAL

Maurı́cio dos Santos Dessuy1 - mauricio.dessuy@sou.unijui.edu.br


Manuel Osório Binelo1 - manuel.binelo@unijui.edu.br
Daniel Petravicius2 - daniel.petravicius@iffar.edu.br
Vanessa Faoro3 – vanessa.faoro@ufsm.br
Edson Luiz Padoin1 - padoin@unijui.edu.br
1 Universidade Regional do Noroeste do Estado do Rio Grande do Sul - Ijuı́, RS, Brasil
2 Instituto
Federal Farroupilha - Palmeira das Missões, RS, Brasil
3 Universidade Federal de Santa Maria - Palmeira das Missões, RS, Brazil

Resumo. No processo de pós-colheita, o fluxo de grãos no interior do secador possui grande


impacto na qualidade da secagem e na segurança da operação, e obtenção de dados sobre
o fluxo de grãos de soja por meio de experimentos possui o alto custo e a necessidade
de equipamentos complexos. Para tratar esse problema é possı́vel desenvolver simulações
computacionais para replicar os problemas reais em um ambiente digital. No entanto, para
a simulação é necessária a obtenção de propriedades fı́sicas dos grãos, que também é um
processo complexo. Este trabalho propõem a aplicação de inteligência artificial para a
obtenção destes parâmetros, por meio da aplicação de algoritmos genéticos. Um experimento
simples foi replicado usando o método dos elementos discretos, e com algoritmo genético
desenvolvido foi possı́vel de encontrar os valores otimizados para o coeficiente de Poisson e
o fator de amortecimento, dois parâmetros fundamentais para a simulação computacional do
fluxo de grãos.

Keywords: Modelagem de Biossistemas; Algoritmos Genéticos; Secagem de Grãos;


Computação Cientı́fica; Inteligência Artificial

1. INTRODUÇÃO

Os processos de pós-colheita são fundamentais para a segurança alimentar no mundo.


Uma forma de otimizar esse processo é por meio da modelagem matemática e computacional
(Brooker et al.,1996; Mellmann et al.,2011). Para realizar essas simulações é importante que

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1423
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

sejam obtidos os valores de diferentes propriedades dos grãos, para assim obter simulações
realistas e confiáveis (Binelo et al.,2019; Boac et al.,2010).
Ao analisar os grãos de soja é possı́vel verificar que seus espécimes podem variar conforme
o tipo da semente, o nı́vel de umidade do grão, o tamanho, densidade, coeficiente de
atrito, coeficiente de Poisson, entre outros aspectos (Kibar & Ozturk,2008) . Dado que estes
casos apresentam uma grande variedade, obter suas medidas e caracterı́sticas torna-se um
processo muito custoso e complexo, pois é necessário que seja utilizado equipamentos de
laboratório de alta qualidade, assim como é demandado muito tempo para se obter os resultados
(Lorenzoni,2018). Por conta disto, realizar uma busca exaustiva destas propriedades por meio
da realização de experimentos fı́sicos não é uma opção viável, pois a solução pode levar anos
para ser descoberta. Então ao deparar-se com um problema deste é necessário que seja aplicado
uma técnica inteligente para que seja possı́vel obter uma resposta para o problema. Uma forma
de abordar esse problema é a aplicação de algoritmos genéticos (AG). Este tipo de técnica se
adéqua muito bem a problemas de otimização onde é necessário explorar um espaço de busca,
mas onde não é possı́vel aplicar um método de enumeração exaustiva para gerar e avaliar todas
as soluções, considerando que é possı́vel definir uma função objetivo de otimização por meio de
simulação computacional. A determinação das propriedades dos grãos por meio de inteligência
artificial pode ser utilizada para viabilizar a simulação do escoamento desses grãos, e assim
permitir a criação de projetos otimizados de secadores, tornando sua operação mais eficiente e
segura (Silva,2005).
Este trabalho tem como objetivo obter as propriedades fı́sicas de grãos de soja de forma
indireta por meio de um AG. Estas propriedades poderão ser então utilizadas em simulações
computacionais aplicada na área de Engenharia de Biossistemas, como simulações de secagem,
armazenamento, movimentação e processamento de grãos. Neste processo de simulação
computacional do experimento será aplicada uma técnica que permite simular um experimento
de forma semelhante ao experimento real, já que nessas simulações são consideradas as leis
fı́sicas e o efeito dessas propriedades no comportamento do grão (Devillers,1996).

2. METODOLOGIA

Nesta seção é abordada a metodologia que foi aplicada para solucionar o problema, nela
serão explicados os passos para a realização do experimento fı́sico, o desenvolvimento da
simulação computacional e por fim a implementação e paralelização do AG que obtém a solução
para o problema.
O método utilizado para simular o escoamento de grãos é o Método dos Elementos
Discretos, que é amplamente utilizado em áreas de engenharias, sendo utilizado para
simular comportamentos fı́sicos de elementos em estruturas, onde estes elementos podem
ser grãos, rochas, componentes da construção civil, entre diversos outros tipo de elementos
(Haustein et al.,2017; Cundall & Strack,1979; Luding,2008).
Visto que para solucionar o problema é necessário realizar testes em diversos valores
para as propriedades da soja, é aplicado um AG, onde é gerado um conjunto inicial de
parâmetros, estes parâmetros são codificados por cromossomos que formam a população, que
são avaliados por meio da função aptidão. Ao longo das gerações, o AG utiliza os processos
de reprodução e seleção na busca de valores eque façam com que a simulação utilizada como
função aptidão se aproxime do experimento realizado. Mesmo a técnica de AG possuindo um
custo computacional menor que outras técnicas de exploração de espaço de buscas, em muitos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1424
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

casos, como o apresentado neste trabalho, esse custo é relevante, e técnicas de paralelização
podem ser empregadas a fim de que o AG apresente um melhor desempenho, viabilizando sua
aplicação em problemas maiores e mais complexos. Após o término das execuções do algoritmo
genético, os parâmetros obtidos são validados para verificar se os resultados foram satisfatórios.

2.1 EXPERIMENTO FÍSICO

A principal chave para o sucesso de um algoritmo genético é a definição de uma função de


aptidão para qual o algoritmo deve convergir, então para obter esta função foi realizada uma
série de experimentos fı́sicos em um aparato, que consiste em uma estrutura formada por tábuas
de madeira e um tubo de acrı́lico, onde ele é posicionado no aparato de acordo com a angulação
desejada, como pode ser visto na Figura 1.

Figura 1- Aparato Fı́sico

O tubo de acrı́lico possui um comprimento de 43,7 cm e possui um raio de 1 cm, é neste


tubo que é inserido o grão de soja para que este desça até colidir com a parede do aparato. Então
a fim de medir a distância de recuo do grão de soja foi posicionado uma câmera para gravar o
experimento, esta câmera foi posicionada de forma com que fosse possı́vel gravar a distância
percorrida pelo grão a partir da primeira batida na parede do aparato.
Após a montagem do aparato e a preparação do ambiente de testes foi iniciado a fase de
experimentação e coleta de dados, neste processo foi executado o experimento 100 vezes para
obter a média de recuos dos diferentes grãos de soja. O experimento consiste em posicionar um
grão de soja na extremidade exposta do tubo de acrı́lico e então soltar o grão para que este possa
descer e colidir com a parede do aparato até entrar no estado de repouso. Após a execução e
gravação dos cem experimentos foram extraı́dos os frames do vı́deo para que se pudesse obter
a distância de retorno do grão após a primeira colisão com a parede. Então com as imagens dos
vı́deos foi medido o deslocamento com auxilio de uma régua que estava posicionada na base do
aparato.
Após este processo com os dados já coletados e estruturados foi possı́vel obter a função
modelo para que o algoritmo genético pudesse operar e encontrar os parâmetros desejados,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1425
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

visto que os grãos de soja apresentam uma certa variação as distâncias de recuo tiveram uma
certa variação. Por conta desta variação foi aplicado um cálculo de média entre as distâncias
obtidas, com o intuito de obter apenas um valor para servir de função de aptidão para o algoritmo
genético.

2.2 SIMULAÇÃO COMPUTACIONAL

Após o desenvolvimento dos experimentos fı́sicos foi necessário desenvolver uma simulação
computacional para que os diversos parâmetros possı́veis pudessem ser aplicados pelo AG,
verificando assim quais conjuntos melhor se adaptam ao resultado previsto.
Para realizar o desenvolvimento da simulação computacional foi desenvolvido um código
em Python que fazia a criação do grão de soja e das estruturas necessárias para recriar a o
experimento fı́sico, como pode ser visto na figura 2. Para a simulação foi utilizado o Yade, um
programa de software livre que implementa o método dos elementos discretos. O método dos
elementos discretos é um modelo computacional em que cada partı́cula é representada por uma
esfera, e as propriedades fı́sicas do grãos são utilizadas no modelo de contato para a simulação
fı́sica do movimento das partı́culas (Kozicki & Donze,2009).
Por fim foi desenvolvido um motor de execução que possui o intuito de monitorar o grão
para que pudesse ser obtido o recuo do grão após a primeira colisão do mesmo com a parede do
aparato. Esse valor obtido da simulação foi utilizado na função de aptidão do AG.

Figura 2- Simulação em um angulo 3D.

2.3 ALGORITMO GENÉTICO

Após o experimento fı́sico e a simulação computacional estarem completos iniciou-se a


fase de desenvolvimento do algoritmo genético, para a seleção dos indivı́duos optou-se pela
seleção por torneios, visto que ela possui várias vantagens se comparada a outras. Dado que o
DNA do indivı́duo representará duas variáveis que serão utilizadas na execução das simulações,
foi optado por implementar a técnica de ponto único de cruzamento, para que na criação de
novos indivı́duos eles sejam gerados pela mistura de um parâmetro do pai e outro da mãe
(Devillers,1996).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1426
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Devido ao fato de que o DNA do indivı́duo é definido por um vetor de dez posições,
foi divido para que o coeficiente de amortecimento seja representado pelos cinco primeiros
dı́gitos, e o coeficiente de Poisson pelos cinco últimos dı́gitos. Esta sequência de números de
números é o genótipo do problema (Devillers,1996) (Janikow & Michalewicz,1991). O valor a
ser utilizado pela simulação é o fenótipo, que é obtido pela equação:
gene
f enotipo = ( ) ∗ (max − min) + min (1)
99999
onde min e max são os valores mı́nimo e máximo de cada parâmetro. Para o AG desenvolvido
foi utilizada uma população de 240 indivı́duos, com 60 torneios em cada geração, com 2
indivı́duos por torneio. A taxa de mutação adotada foi 5 % e foram realizadas 100 gerações.

2.4 PARALELIZAÇÃO DO ALGORITMO GENÉTICO

Visto que cada indivı́duo do algoritmo genético necessita executar uma simulação
computacional independente na fase do cálculo de aptidão, e que estas simulações possuem
o maior custo computacional do algoritmo genético, a paralelização foi implementada nesta
fase para reduzir o tempo de processamento que ela demanda.
Depois da fase de reprodução do AG, fase do cálculo de aptidão, a população de N
indivı́duos é dividida em K grupos, sendo K o número de núcleos disponı́veis no sistema
computacional utilizado. É necessária a realização de N simulações par a avaliação da função
de aptidão, onde cada simulação é um processo independente do Yade. Para paralelização, N/K
processos são enviados para núcleo de processamento, e o resultado obtido de cada processo é
compilado pelo programa do AG, que então executa a fase de seleção. Para tornar isto possı́vel
foi utilizado a biblioteca do Python chamada de subprocess. Nesta biblioteca é possı́vel criar
pools de execução de processos, onde são iniciados todos os processos de forma paralela. O
pool de processos faz o gerenciamento dos mesmos para que o AG só consiga prosseguir assim
que todos os processos tenham terminado.

3. RESULTADOS E DISCUSSÕES

A Figura 3 mostra os resultados obtidos pelo AG ao longo das gerações. Como é possı́vel
observar, na primeira geração os dados estão dispersos, já que a população inicial é gerada
de forma aleatória. Porém ao passar das gerações foi possı́vel notar que os indivı́duos foram
se agrupando, convergindo para os valores de 0, 1384043 para o coeficiente de Poisson e
0, 2476494 para o coeficiente de amortecimento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1427
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Gráfico da evolução dos indivı́duos pelas gerações.

Figura 4- Erro ao longo das gerações.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1428
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Gráfico de tempo de execução por número de núcleos.

A Figura 4 mostra o erro obtido pelo AG ao longo das gerações. O erro é calculado como
o módulo da diferença da distância de recuo do grão obtido no experimento e na simulação. O
resultado de recuo obtido nos experimentos foi de 5, 974 cm, e o resultado obtido pela simulação
resultante do AG foi 5, 9700026 cm, ou seja, abaixo da precisão de medição.
Nos resultados também é possı́vel verificar que a paralelização no algoritmo genético
apresentou um bom resultado, pois o tempo de execução do algoritmo reduziu de 2004, 6 s
para 204, 8 s, o que representa um speedup de 9, 8 quando executado com 12 núcleos, como
pode ser visto na Figura 5. O ganho mais expressivo ocorreu com 10 núcleos, havendo pouco
ganho a partir desse número.

4. CONSIDERAÇÕES FINAIS

Neste trabalho foi proposta a utilização de um AG para obtenção de duas propriedades


fı́sicas de grãos de soja utilizadas na simulação do escoamento de grãos pelo método dos
elementos discretos, o coeficiente de amortecimento e o coeficiente de Poisson. Os resultados
apresentados mostram que o AG é uma alternativa viável para a obtenção destes parâmetros, já
que sua obtenção em laboratório é complexa e custosa. A paralelização do método também
obteve bons resultados, possibilitando assim sua aplicação em problemas mais complexos.
Como trabalhos futuros seria interessante a ampliação do método para a estimação de mais
parâmetros fı́sicos, como o coeficiente de atrito, além de sua aplicação em outros grãos e
materiais. Em trabalhos futuros também pode ser incorporado ao AG um método de busca
local baseado em gradiente para melhorar os resultados obtidos.

Agradecimentos

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal


de Nı́vel Superior – Brasil (CAPES), e Fundação de Amparo à Pesquisa do Estado do Rio
Grande do Sul (FAPERGS).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1429
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Referências

[Binelo et al.,2019] Binelo, M. O., de Lima, R. F., Khatchatourian, O. A., Stránský, J. (2019).
Modelling of the drag force of agricultural seeds applied to the discrete element method.
Biosystems Engineering, 178, 168-175.
[Boac et al.,2010] Boac, J. M., Casada, M. E., Maghirang, R. G., Harner III, J. P. (2010). 3-D and quasi-
2-D discrete element modeling of grain commingling in a bucket elevator boot system. American
Society of Agricultural and Biological Engineers.
[Brooker et al.,1996] Brooker, D. B., Bakker-Arkema, F. W., Hall, C. W. (1992). Drying and storage of
grains and oilseeds. Springer Science Business Media.
[Cundall & Strack,1979] Cundall, P. A., Strack, O. D. (1979). A discrete numerical model for granular
assemblies. geotechnique, 29(1), 47-65
[Devillers,1996] Devillers, J. Genetic algorithms in computer-aided molecular design. In:Genetic
Algorithms in Molecular Modeling. [S.l.]: Elsevier, 1996. p. 1–34.
[Haustein et al.,2017] Haustein, M.; Gladkyy, A.; Schwarze, R. Discrete element modeling of
deformable particles in Yade. SoftwareX, Elsevier, v. 6, p. 118–123, 2017
[Janikow & Michalewicz,1991] Janikow, C. Z.; Michalewicz, Z. An experimental comparison of binary
and floating point representations in genetic algorithms. In:ICGA. [S.l.: s.n.], 1991. p. 31–36.
[Kibar & Ozturk,2008] Kibar, H., Ozturk, T. (2008). Physical and mechanical properties of soybean.
International Agrophysics, 22(3), 239-244.
[Kozicki & Donze,2009] Kozicki, J.; Donze, F. V. Yade-open dem: an open-source software using a
discrete element method to simulate granular material. Engineering Computations, EmeraldGroup
Publishing Limited, v. 26, n. 7, p. 786–805, 2009.
[Lorenzoni,2018] Lorenzoni, R. K. Modelagem matemática e simulação computacional do escoamento
de grãos em secadores de fluxo misto utilizando o método dos elementos discretos. 2018.
[Luding,2008] Luding, S. (2008). Introduction to discrete element methods: basic of contact force
models and how to perform the micro-macro transition to continuum theory. European journal
of environmental and civil engineering, 12(7-8), 785-826.
[Mellmann et al.,2011] Mellmann, J., Iroba, K. L., Metzger, T., Tsotsas, E., Mészáros, C., Farkas, I.
(2011). Moisture content and residence time distributions in mixed-flow grain dryers. Biosystems
Engineering, 109(4), 297-307.
[Silva,2005] Silva, L. C. da. Secagem de grãos. Boletim Técnico: AG, v. 4, n. 05, 2005.

PARAMETER ESTIMATION FOR DISCRETE ELEMENT METHOD BY ARTIFICIAL


INTELLIGENCE

Abstract. In the post-harvest process, the flow of grains inside the dryer has a great impact on
the quality of drying and the safety of the operation. Obtaining data on the flow of soybeans
through experiments has a high cost and the need for complex equipment. To address this
problem, it is possible to develop computer simulations to replicate real problems in a digital
environment. However, for the simulation it is necessary to obtain physical properties of the
grains, which is also a complex process. This work proposes the application of artificial
intelligence to obtain these parameters, through the application of genetic algorithms. A simple
experiment was replicated using the discrete element method, and with the developed genetic
algorithm it was possible to find the optimized values for the Poisson coefficient and the damping
factor, two fundamental parameters for the computational simulation of the grain flow.

Keywords: Modeling of Biosystems; Genetic Algorithms; Grain drying; Scientific Computing;


Artificial Intelligence

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1430
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

SEGMENTAÇÃO DE CONCRETOS LEVES USANDO PROCESSAMENTO


TRIDIMENSIONAL DE IMAGENS DE MICROTOMOGRAFIA
COMPUTADORIZADA

Thiago Santos de Oliveira1 – thsoliveira@uesc.br


Susana Marrero Iglesias1 – smiglesias@uesc.br
Paulo Eduardo Ambrósio1 – peambrosio@uesc.br
1
Universidade Estadual de Santa Cruz, Campus Soane Nazaré de Andrade - Ilhéus, BA, Brazil

Resumo. A indústria da construção implanta processos sustentáveis e a adição de agregados


leves apresenta-se como uma boa solução para obter misturas de concretos, absorvendo
rejeitos de outros processos. É o caso do Etileno-Acetato de Vinila (EVA), material da
indústria calçadista. Apesar do apelo sustentável na reciclagem do EVA e outros agregados
leves em misturas de concreto, comumente ocorre uma perda de resistência mecânica que
pode ser prevenida através da adição de fibras na composição, a exemplo da piaçava, fibra
natural nativa do Sul da Bahia. Visando a ampla utilização destes novos materiais, é preciso
conhecer suas características. Na ciência dos materiais, técnicas de ensaios não destrutivos
destacam-se por manter a integridade do material examinado, gerando economia e
sustentabilidade. Neste trabalho, foram analisadas imagens de amostras de diferentes
composições de concretos leves com EVA e fibras de piaçava, obtidas através de
microtomografia computadorizada de raios-X, empregando técnicas de processamento de
imagens, como Otsu e k-means, visando segmentar a microestrutura da matriz cimentícia. A
análise tridimensional das imagens foi realizada através de um algoritmo de duas passagens
do tipo Union-Find e retorna descritores para caracterizar estas amostras. Os resultados
encontrados foram comparados com os obtidos na execução dos corpos de prova.

Palavras-chave: Concretos leves, segmentação, microtomografia, imagens tridimensionais.

1. INTRODUÇÃO

O descarte de resíduos sólidos, principalmente de origem industrial, é uma das


consequências do intenso processo de urbanização e do progresso tecnológico das últimas
décadas, tornando-se um problema ambiental carente de solução adequada (Iglesias et al.,
2018). A indústria da construção planteia a reutilização de diferentes dejetos industriais como

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1431
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

uma alternativa para reduzir o impacto ambiental tanto na construção civil quanto na
produção industrial (Lopes & Rudnick & Martins, 2018).
Substituir agregados pode ajudar a obter concretos leves, cuja massa específica não
ultrapassa 2000 kg/m³ (ABNT, 2015a), ajudando a reduzir o peso próprio das estruturas. Um
dos resíduos que podem ser utilizados nestes concretos é o EVA, material proveniente da
indústria calçadista, que traz características de resiliência ao concreto (Kunzler et al., 2017).
Entretanto, agregados leves podem reduzir a resistência do concreto a tensões de
compressão (Dias, 2017). A recuperação da resistência é possível com a inclusão de fibras
que agem como pontes de tensão para evitar a propagação de fissuras, além de melhorar a
resistência ao impacto e à fadiga, e tenacidade (Oliveira & Gouveia & Teixeira, 2014). Entre
estas fibras temos as de piaçava, uma espécie de palmeira, nativa da região sul da Bahia.
Para estudar a estrutura interna desses materiais são priorizados os ensaios não-
destrutivos, que mantém a estrutura do material ensaiado, evitando perdas de materiais e
descartes desnecessários. Entre estes, destaca-se a microtomografia computadorizada de raios-
X (micro-CT ou μCT), através da qual é possível analisar a microestrutura e obter
informações quantitativas e qualitativas da amostra.
Segundo Du Plessis & Boshoff (2019), uma das principais aplicações da micro-CT
envolve a capacidade de identificar diferentes componentes na imagem, porém esse processo
requer uma segmentação para separar os materiais e identificá-los. Segmentar consiste em
dividir a imagem em diferentes regiões, que serão analisadas posteriormente por algoritmos
especializados em busca de informações (Albuquerque & Albuquerque, 2000). Desta forma, é
necessária a pesquisa métodos de segmentação acurados e eficientes para a automatização do
processo.
A limiarização é uma técnica de segmentação que utiliza um ou mais valores de limiares
de níveis cinza para separar a imagem em dois ou mais grupos, separando os pixels que
representam os objetos da frente e do fundo da imagem. Entre as técnicas de limiarização
automatizadas, destacam-se, por exemplo, os métodos K-means (Jain, 2010), de Otsu (Otsu,
1979) e o Fuzzy C-means (Bezdek, 1981).
Ainda, Xu et al. (2011) obtiveram sucesso com uma modificação no método de Otsu,
combatendo a tendência do limiar à classe que possui maior variância intraclasse através de
um novo limiar, necessariamente menor do que aquele estabelecido pelo método de Otsu
original. Para essa técnica, foi dada o nome de “range-constrained Otsu method” (Método de
Otsu com restrição de alcance).
Neste trabalho, os métodos citados foram utilizados para limiarizar as imagens de μCT, a
fim de obter a melhor separação entre a pasta de cimento, que fora considerada como fundo, e
os poros, agregados leves de EVA, fibras piaçava e o agregado graúdo (brita), os quais foram
considerados como objetos de estudo.
Assim, o presente trabalho utiliza técnicas de processamento de imagens tridimensionais,
para segmentar imagens de micro-CT de concretos leves reforçados com fibras, calculando o
volume total de objetos dentro das amostras para então serem extraídos os valores de
porosidade aparente.

2. MATERIAIS E MÉTODOS

Foram confeccionados por Dias (2017) corpos de prova cilíndricos com 100 mm de
diâmetro por 200 mm de onde utilizou cimento Portland CP II e 40 RS, água, areia fina como
agregado miúdo, britas 0 e 1 como agregados graúdos, superplastificante, EVA moído e fibras
de piaçava. Os grãos de EVA utilizados foram divididos em duas categorias em relação ao seu
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1432
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

diâmetro: EVA grosso (EG) e EVA fino (EF). A medida escolhida para as fibras de piaçava
foi de 2 cm.
O concreto comum, sem adição de fibra e/ou grãos de EVA, foi denominado concreto de
referência (CR). No traço desta amostra, para cada quilo de cimento, foram adicionados 1,7
kg de areia, 0,98 kg de brita 0, 2,4 kg de brita 1 e 0,62 litro de água. O EVA e as fibras de
piaçava foram incorporados ao traço do concreto por substituição do volume de agregado
graúdo.
As amostras com EVA receberam sua denominação de acordo com a granulometria do
EVA adicionado, seja ele fino (EF) ou grosso (EG), seguidas do percentual do volume de
agregado graúdo que fora substituído. Os corpos de prova que ainda sofreram adição de 1%
de Fibras receberam este valor à frente do nome. Por exemplo, a amostra com 25% de EVA
fino e 1% de fibras foi chamada de “1EF25”, enquanto a amostra com 15% de EVA grosso
foi chamada de “EG15”.
As imagens microtomográficas foram obtidas usando um microtomógrafo SkyScan®
1173, versão 1.6, do Laboratório de Instrumentação Nuclear da COPPE – RJ. Para que fosse
possível ajustar os espécimes ao tomógrafo, foi necessário extrair dos corpos de prova um
testemunho com 25 mm de diâmetro e 40 mm de altura. As projeções obtidas foram
reconstituídas através do software NRecons® versão 1.7.7.0.
Os ensaios geraram, para cada testemunho, em torno de 2100 imagens da sua seção
transversal, todas em escala de cinza (8 bits) com 2240x2240 pixels cada uma.

2.1 Segmentação das imagens microtomográficas

Uma vez obtidas e classificadas as imagens em função da sua composição, deu-se início
ao processo de segmentação, no qual a região de interesse (ROI) da imagem deve ser definida,
a fim de separar a pasta de cimento dos elementos contidos no seu interior, sejam eles poros,
EVA fino ou grosso, fibras de piaçava e agregados graúdos. A técnica escolhida para a
segmentação das imagens foi a limiarização, através da qual as imagens foram binarizadas.
Para definição do limiar de binarização é comum que se utilize o histograma da imagem e
escolha, através de sua análise, o valor que melhor se adeque à sua necessidade. Porém, este
método de definição do limiar está sujeito a uma decisão humana e, portanto, a uma margem
de erro maior (Du Plessis & Boshoff, 2019).
De forma que os objetos das imagens sejam definidos com mais precisão e evitando que
um mesmo limiar seja utilizado para toda uma amostra, foram desenvolvidas rotinas de
algoritmos conhecidos como K-means, C-means, Otsu e range-constrained Otsu,
automatizando a seleção do limiar ótimo de binarização.

Segmentação com destaque para poros, EVA e fibras. No primeiro momento buscou-se
o melhor limiar para separar os poros, EVA e fibra de piaçava, de modo que a segmentação
apresentasse os valores mais coerentes e pudessem se aproximar da realidade das amostras.
As técnicas K-means e Fuzzy C-means apresentaram valores muito próximos de limiar,
mas falharam ao separar os objetos com dimensões próximas a 1 pixel. Neste contexto, o
método de Otsu se mostrou mais preciso, mas apesar de satisfatório, o limiar definido por este
método pode ser tendencioso para a classe com maior variância intraclasse, neste caso, as
regiões mais claras da imagem. Dessa forma, o método acaba por classificar de forma errônea
alguns objetos, colocando-os na mesma classe da pasta de cimento.
Assim, dado que Xu et al. (2011) tiveram sucesso em eliminar essa tendência do método
de Otsu, aplicamos esta variação para nossas amostras de concreto. O método mostrou
resultados satisfatórios, separando bem os objetos ao mesmo passo que soluciona o problema
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1433
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ocorrido com o Otsu original. Todo o processo seguinte, no que diz respeito as imagens com
destaque para poros, EVA e fibras, foi realizado com as imagens binarizadas através do
range-constrained Otsu.
As diferenças entre os métodos ficam evidentes na Fig. 1 que exibe exemplos de (a) uma
imagem original e suas binarizações através dos métodos (b) K-means, (c) Fuzzy C-means,
(d) Otsu e (e) Range-constrained Otsu.

Figura 1- (a) Imagem original de microtomografia da amostra EF25 e imagens da


mesma amostra binarizada pelos métodos: K-means (b), Fuzzy C-means (c), de OTSU (d)
e de range-constrained Otsu (e).

Segmentação com destaque para agregados graúdos. Embora o método de Otsu tenha
funcionado bem para separar os demais elementos, se fez necessária a utilização de um outro
método de segmentação que conseguisse segmentar as pedras.
O método K-means possibilita ajustes de forma a reposicionar os centroides iniciais,
então realizar uma operação morfológica de abertura utilizando um elemento estruturante de
raio 10, eliminando pequenos buracos e preenchendo lacunas, ao ponto de se obter uma
binarização satisfatória com destaque para os agregados graúdos. O resultado dessa
segmentação pode ser visto na Fig. 2 que apresenta uma fatia da amostra de concreto com
15% de EVA fino (EF15).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1434
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Imagem da amostra com 15% de EVA fino (EF15) binarizada com destaque
para o agregado graúdo.

2.2 Processamento das imagens

Após realizada a segmentação das imagens, para cada fatia de cada amostra foi criada
uma máscara que define o limite entre a amostra de concreto e as bordas da imagem, que não
devem ser contabilizadas no cálculo do volume. Com essa separação, foi possível então
alimentar o algoritmo de processamento tridimensional para calcular o volume percentual de
objetos presentes nas amostras.

Processamento tridimensional. Hounsfield (1973) esclareceu que, ao tentar analisar um


corpo de três dimensões através de imagens bidimensionais, pode ocorrer uma grande perda
de informações. Por este motivo, uma análise tridimensional possui um grande potencial para
definir características não disponíveis em imagens bidimensionais. Informações importantes
como volume e esfericidade podem ser essenciais para caracterização do objeto em análise.
Neste trabalho foi desenvolvido um algoritmo serial de duas passagens do tipo Union-
Find. O método, inicialmente elaborado em Mendonça (2016), foi baseado na implementação
de Fricke (2004) e trata-se de um algoritmo de duas passagens para imagens bidimensionais
que foi adaptado para tratar imagens tridimensionais e retornar os elementos encontrados com
suas respectivas características. A função union(x,y) informa que os segmentos x e y são o
mesmo, como as equivalências são transitivas, todos os itens equivalentes a x são também
equivalentes a y. A função find(y) retorna o rótulo que atualmente representa o segmento e
dará a mesma resposta da função find(x), já que ocorreu um union(x,y).
O algoritmo percorre todos os elementos da matriz tridimensional em uma determinada
ordem que não é alterada pela complexidade da imagem, da esquerda para a direita, linha a
linha, utilizando as posições anteriores na própria imagem bidimensional e posições apenas da
imagem imediatamente anterior à analisada. Assim, esse algoritmo mantém apenas duas
imagens binarizadas por vez carregadas na memória e uma imagem parcial em tons de cinza,
tornando o consumo de memória mais eficiente, possibilitando a análise de imagens
tridimensionais com tamanho superior à sua memória física.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1435
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

É importante ressaltar que o algoritmo foi definido em função da sua eficiência


computacional e gerenciamento de memória, pois, mesmo trabalhando com vizinhança-6,
essa técnica testa apenas 3 vizinhos. Essa leitura gera um ganho de desempenho na análise em
relação a outras técnicas, como crescimento de regiões, porém com os mesmos resultados.
Ao percorrer a imagem, para cada voxel ocupado com o valor 1 é atribuído um rótulo
temporário e sua vizinhança é analisada. Se o voxel não tem vizinhos com valor diferente de
0, ele recebe um rótulo novo. Se tem um vizinho, é atribuído a ele o rótulo que atualmente
representa o segmento vizinho, pois são parte do mesmo objeto.
Se o voxel tiver mais de um vizinho é usado o rótulo de um dos vizinhos, descoberto com
a função find() (Fig. 3 (b)) e, caso os vizinhos possuam rótulos diferentes, é necessário
garantir a unicidade dos rótulos através da função union(), pois correspondem a um mesmo
objeto. Este processo se repete até o último voxel da imagem (Fig. 3 (c)).

Figura 3- Ilustração bidimensional da rotina tridimensional: (a) imagem binarizada


não rotulada, (b) vizinhos com rótulos diferentes são encontrados, (c) fim da primeira
passagem e (d) rotulação definitiva realizada na segunda passagem.
Fonte: Mendonça (2016).

Por fim, é realizada uma segunda passagem, na qual os rótulos provisórios são
substituídos pelos rótulos definitivos (Figura 3 (d)) e são extraídas as características dos
objetos encontrados, incluindo o volume total de objetos em relação ao total da amostra.
Este procedimento foi realizado para cada uma das nove amostras, tanto para as imagens
segmentadas destacando poros, EVA e fibras, quanto para aquelas com destaque para o
agregado graúdo. Assim, foi possível obter os valores percentuais do volume de objetos em
cada amostra e observar o seu comportamento.

3. RESULTADOS E DISCUSSÕES

Ao longo deste trabalho foi destacada a importância da utilização de um método


automatizado para limiarizar as imagens, de modo que o valor do limiar utilizado seja o mais
apropriado para cada imagem, buscando os melhores resultados possíveis no processo.
O algoritmo de duas passagens, criado para análise tridimensional, foi alimentado com os
pacotes de imagens de cada amostra e a Tab. 1 e a Fig. 4 descrevem os resultados da leitura
tridimensional feita pelo algoritmo em termos de volume percentual de objetos encontrados,
utilizando as imagens segmentadas com destaque para poros, EVA e fibras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1436
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Percentual médio de objetos encontrados nas amostras de concreto, segmentadas


com destaque para agregados graúdos.

Amostra CR EF5 EF15 EF25 EG15 1EF05 1EF15 1EF25 1EG15

Objetos 1.28 3.88 9.19 13.15 9.12 1.87 8.09 13.18 8.53
(%)

Figura 4- Percentual de objetos encontrados para cada amostra com segmentação de


destaque para poros, EVA e fibras.

À medida que o agregado em EVA é adicionado, o percentual de objetos dentro da


amostra tende a crescer, além disso, a adição de fibras vegetais pode ocasionar uma alteração
na porosidade na zona de transição e, possivelmente, no percentual de objetos encontrados,
conforme observaram Savastano Jr, Warden & Coutts (2005).
Para o concreto puro, foi obtido um valor de 1,28% de volume de objetos, neste caso,
correspondente a porosidade aparente. Os concretos leves com EVA apresentaram valores
entre 3,88% e 13,15% e os concretos com EVA e piaçava apresentaram valores entre 1,87% e
13,18% do volume de objetos encontrados dentro da amostra.
Foi possível observar que a amostra 1EF05 apresenta um valor mais baixo que a sem
adição de fibra, EF05. Avaliando as fatias binarizadas, notou-se que os elementos
encontrados, de fato, representam um percentual menor da amostra, excluindo-se a
possibilidade de erro na leitura do algoritmo ou na binarização das imagens.
Bernardes et al. (2017) indicam que, conforme a posição de onde os testemunhos são
retirados, o resultado poderá ser influenciado, reiterando a dificuldade de se trabalhar com
amostras de pequeno tamanho, pois o volume utilizado pode não representar o conjunto de
maneira satisfatória, principalmente quando levado em conta o caráter heterogêneo do
concreto.
Por outro lado, por se tratar de uma amostra de concreto puro, os valores encontrados
para o CR representam apenas o seu índice de porosidade, sendo este de 1,28% na análise
tridimensional. Em comparação, o ensaio de intrusão de mercúrio, realizado por Dias (2017),
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1437
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

apresentou um valor de 1,51%. Não obstante, uma diferença de 0,23% pode ser observada
entre os resultados dos ensaios, onde a porosimetria de mercúrio é um pouco maior.
Campos et al. (2017) explicam a dificuldade de detectar poros fechados à medida em que
o mercúrio penetra na amostra, podendo romper a parede dos poros. Este caráter destrutivo do
ensaio de intrusão de mercúrio pode explicar a divergência encontrada nesta amostra.
A leitura das imagens também foi realizada no algoritmo para aquelas com destaque dos
agregados graúdos. A Tabela 2 e a Fig. 5 apresentam os valores percentuais encontrados no
programa.

Tabela 2- Percentual de objetos encontrados nas amostras de concreto, segmentadas com


destaque para agregado graúdo no algoritmo tridimensional

Amostra CR EF5 EF15 EF25 EG15 1EF05 1EF15 1EF25 1EG15

Objetos 45.18 52.95 44.19 42.49 54.79 55.51 49.31 38.69 54.74
(%)

Figura 5- Percentual de objetos encontrados para cada amostra com segmentação de


destaque para o agregado graúdo

Embora diferente do esperado, os resultados variam entre 38,69% e 54,79% e encontram-


se em uma faixa de valores compatível com a estimativa da composição dos corpos de prova,
cuja adição do agregado graúdo variou entre 32,80% e 44,16% do volume total do traço. A
análise tridimensional, portanto, retornou resultados que foram considerados satisfatórios e
nos permitem avançar no processo de classificação dos elementos contidos no interior das
amostras com adições de agregados reciclados.

4. CONCLUSÕES

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1438
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Neste trabalho foram analisadas as propriedades de porosidade aparente de imagens


microtomográficas geradas a partir de amostras de concretos leves com agregados de EVA e
reforçados com fibras naturais de piaçava.
Criou-se uma metodologia em que as imagens passaram por uma etapa de pré-
processamento para que pudessem ser segmentadas e foram avaliados diversos métodos de
limiarização automatizada das imagens, entre os quais, o range-constrained Otsu foi
considerado o que melhor segmentava os vazios nas amostras.
Finalmente, utilizando-se de um algoritmo do tipo union-find, foi possível extrair os
valores de percentual de volume de objetos de cada amostra. Concretos com três tipos de
composições foram estudados: concreto puro, concreto com EVA e concreto com EVA e fibra
de piaçava.
Para o concreto puro, foi obtido um valor de 1,28% de volume de objetos, neste caso,
correspondente a porosidade aparente, onde foi possível confirmar a proximidade com o valor
encontrado na porosimetria de mercúrio. A heterogeneidade do concreto foi fator influente
nos ensaios, além de ter explicitado a dificuldade de se trabalhar com amostras de tamanho
reduzido, principalmente quando levamos em consideração as dimensões dos agregados.
Por fim, os resultados encontrados mostram que ensaios de microtomografia
computadorizada de raios-X, como ferramenta para caracterizar amostras de concretos leves
reforçados com fibras, podem ser uma opção viável, utilizando os algoritmos de segmentação
adequados e levando em consideração as limitações do método.
Como desdobramento desta pesquisa, podem-se comparar os valores obtidos com
resultados encontrados por outros métodos, ajustando os parâmetros usados nesse trabalho.
Pode-se ainda, com poucas modificações na metodologia e nos algoritmos, estudar outros
tipos de compósitos.

Acknowledgements

Agradecemos o suporte do Programa de Pós-graduação em Modelagem Computacional


da Universidade Estadual de Santa Cruz (UESC) e o fomento da Fundação de amparo à
pesquisa do estado da Bahia (FAPESB).

REFERÊNCIAS

Associação Brasileira De Normas Técnicas (Abnt). (2015b) “NBR 5738: Concreto — Procedimento para
moldagem e cura de corpos de prova.” Rio de Janeiro.
______., (2015a) “NBR 8953: Concreto para fins estruturais - Classificação pela massa específica, por grupos
de resistência e consistência.” Rio de Janeiro.
Albuquerque, M.P; Albuquerque, M.P. (2000), Processamento de imagens: métodos e análises, Centro
Brasileiro de Pesquisas Fısicas, Rio de Janeiro.
Bernardes, E.E., Magalhães, A.G., Vasconcelos, W. L., Carrasco, E. V. M., Nunes, E.H.M. e Lima, L. B. (2017),
“Caracterização de corpos de prova de tamanho reduzido desenvolvidos para ensaios de microtomografia de
raios x (micro-ct)”, RIEM-IBRACON Structures and Materials Journal, vol 10.
Bezdek, J.C. (1981), “Objective Function Clustering”, Pattern Recognition With Fuzzy Objective Function
Algorithms, vol 1, 43-93.
Campos, J.V., Lavagnini, I.R., Ferreira, J.A., Montrazi, E.T., Bonagamba, T.J e Pallone E.M.J.A. (2017),
“Comparative analysis between different porosimetric tests on macroporous alumina.”, Materia, vol 22.
Dias, L.A. (2017), “Concreto Incorporado Com Eva E Fibras De Piaçava: Uma Alternativa Sustentável Na
Construção Civil.”, Dissertação de Mestrado, PPGCIMM/UESC, Ilhéus.
Du Plessis, A. e Boshoff, W.P. (2019), “A review of X-ray computed tomography of concrete and asphalt
construction materials.” Construction And Building Materials, vol 199, 637-651.
Fricke, T. (2004), “The Hoshen-Kopelman Algorithm.” Disponível em:
<www.ocf.berkeley.edu/~fricke/projects/hoshenkopelman/hoshenkopelman.html>. Acesso em: 14 de agosto
2020.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1439
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Hounsfield, G. N. (1973), “Computerized transverse axial scanning (tomography): Part 1. Description of


system.”, The British Journal Of Radiology, vol 46, 1016-1022.
Iglesias, S.M., Mendonça, R.S, Orellana, E.T.V e Dominguez, D.S. (2018), “New approaches of three-
dimensional image processing applied to the study of lightweight mortars with EVA aggregates and piassava
fibres.” International Journal Of Applied Pattern Recognition, vol 5, 305-329.
Jain, A. K. (1979), “Data clustering: 50 years beyond K-means.”, Pattern recognition letters, vol 31, 651-666.
Kim, K.Y., Yun, T.S., Choo, J.; Kang, D.H. e Shin, H.S. (2012). “Determination of air-void parameters of
hardened cement-based materials using X-ray computed tomography.” Construction And Building Materials,
vol 37, 93-101.
Kunzler, L., Vier, L.C., Bueno, B., Huppes, F.A. e Silva, J.M. (2017), “Utilização De Eva Na Fabricação De
Concreto”. Gedecon, vol 5, 62-65.
Lopes, J.P., Rudnick, T. e Martins, C.H. (2018), “Utilização De Resíduos Industriais Para Produção De Concreto
Sustentável [Use of industrial waste for the production of sustainable concrete].” Reec - Revista Eletrônica de
Engenharia Civil, vol 14, 216-228.
Lu, H., Alymov, E.; Shah, S. e Peterson, K. (2017), “Measurement of air void system in lightweight concrete by
X-ray computed tomography.”, Construction And Building Materials, vol 152, 467-483.
Mendonça, R.S. (2016), “Caraterização De Argamassas Leves Usando Processamento Tridimensional De
Imagens E Processamento Paralelo.”, Dissertação de Mestrado, PPGMC/UESC, Ilhéus.
Oliveira, C.A.S., Gouveia, L.L.A. e Teixeira, R.L.P. (2014), “Concreto Estrutural com adição de fibras
vegetais.” Construindo, Belo Horizonte, vol 2, 14-19.
Otsu, N. (1979), “A threshold selection method from graylevel histograms.”, Transactions on systrems, man, and
cybernetics IEEE, vol 9, 2327.
Pimentel, E., França, V. e Omar, N. (2003), “A identificação de grupos de aprendizes no ensino presencial
utilizando técnicas de clusterização.” XIV Simpósio Brasileiro de Informática na Educação, Rio de Janeiro,
vol 1, 1-10.
Savastano Jr, H.; Warden, P. G.; Coutts, R. S. P. (2005), “Microstructure and mechanical properties of waste
fibre–cement composites.”, Cement and Concrete Composites, vol 27, 583-592.
Xu, X., Xu, S., Jin, L. e Song, E. (2011), “Characteristic analysis of Otsu threshold and its applications”, Pattern
Recognition Letters, vol 32, 956-961.
Zhang, L., Rusinkiewicz, S. (2018), “Learning to detect features in texture images.”, Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition, vol 1, 6325-6333.

LIGHTWEIGHT CONCRETE SEGMENTATION USING TRIDIMENSIONAL


IMAGE PROCESSING OF COMPUTERIZED MICROTOMOGRAPHY

Abstract. Construction industry demands sustainable processes and the addition of


lightweight aggregates presents as an effective solution to obtain different concrete mixtures
by recycling production outputs from other industries, as the Ethylene-Vinyl Acetate (EVA),
raw material mostly utilized at footwear industry. Despite all the sustainable appeal in the
recycle of EVA or other lightweight aggregates into the concrete mixtures, the loss of
resistance is a frequent issue that can be prevented by adding natural fibers, such as piaçava,
to the composition. Aiming the usage of these new materials, it is necessary to know their
characteristics. In materials science the techniques of non-destructive tests stand out for
maintaining the integrity of the material in question promoting savings and sustainability. In
this work, X-ray computerized microtomographic images from samples of different
lightweight concrete compositions containing EVA and piaçava fiber were analyzed using
image processing techniques, such as the Otsu and k-means, aiming to characterize the
microstructure of the cementitious matrix. The three-dimensional analysis was carried out
using a Union-Find two passage algorithm and offers descriptors that make it possible to
characterize these samples. The results were compared to those obtained in the specimens’
execution.

Keywords: Lightweight concretes, segmentation, microtomography, tridimensional images.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1440
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DA DISTRIBUIÇÃO DE TEMPERATURAS EM RACKS DE CENTROS


DE DADOS DE PEQUENO PORTE COM UTILIZAÇÃO DE FLUIDODINÂMICA
COMPUTACIONAL

Antonio Oliveira Simão Junior1 – antoniosimao.eng@gmail.com


Dany S. Dominguez1 – dsdominguez@uesc.br
Leorlen Yunier Rojas Mazaira2 – leored1984@gmail.com
C. A. Brayner de Oliveira Lira2 – cabol@ufpe.br
C. R. García Hernández3 – carlosrgh2012@gmail.com
1
Pósgraduação em Modelagem Computacional, Universidade Estadual de Santa Cruz, Campus Soane
Nazaré de Andrade - Ilhéus, BA, Brazil
2
Centro Regional de Ciências Nucleares do Nordeste, Universidade Federal de Pernambuco – Recife,
PE, Brazil
3
Instituto Superior de Tecnologías y Ciencias Aplicadas (InSTEC), Universidad de La Habana, Ave.
Salvador Allende No. 1110, Quinta de los Molinos, La Habana 10400, Cuba.

Resumo. Nas últimas décadas, o estabelecimento e consolidação da sociedade da informação


aumentaram drasticamente o número de centros de dados (CD) em operação. Atualmente
eles representam aproximadamente 2% do consumo energético mundial. Um componente
importante do consumo energético dos CD é o sistema de refrigeração. Paralelamente,
problemas ambientais obrigam as empresas e governos a procurarem soluções para diminuir
a pegada de carbono das mais diversas atividades, pelo que existem diversas iniciativas para
diminuir o consumo energético em praticamente todos os setores. A fluidodinâmica
computacional(CFD) tem sido cada vez mais utilizada na análise de problemas de
transferência de calor. O presente trabalho estuda o comportamento térmico do CD do
Núcleo de Biologia Computacional da Universidade Estadual de Santa Cruz, composto por
dois ar condicionado tipo split e um rack com 18kW de potência. Foi construído um modelo
computacional contendo os principais equipamentos, uma malha de discretização do sistema,
definiu-se os principais componentes do sistema, e com a utilização do software Ansys-CFX,
foram obtidas as temperaturas dos equipamentos para quatro diferentes configurações do
sistema de refrigeração do CD. Após apresentação e análise dos contornos de temperaturas
para as simulações realizadas, fez-se um comparativo dos resultados para diferentes
configurações do sistema de refrigeração.

Palavras-chave: Centro de dados pequenos, Simulação CFD, Climatização, Ansys CFX.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1441
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

A informatização da sociedade, os novos paradigmas das tecnologias da informação e


as comunicações aumentaram a necessidade por gestão de serviços de rede, armazenamento
de dados e computação de alto desempenho, levando ao aumento do número de centros de
dados e aumentando a complexidade de suas atividades. Atualmente, o consumo energético
de Centros de Dados (CD) é um componente importante do consumo elétrico mundial. As
atividades dos CDs são suportadas por um elevado número de computadores, geralmente
colocados em rack, e equipamentos para interconexão entre eles.
Para o correto funcionamento dos equipamentos computacionais estas instalações
devem contar com sistemas de refrigeração que garantam estritas condições de temperatura
ambiente e umidade do ar. Diversas técnicas de modelagem computacional têm sido
utilizadas para otimizar o consumo energético dos CDs, seja na fase de projetos ou durante
sua operação.
As técnicas de fluidodinâmica computacional (CFD) têm sido utilizadas
satisfatoriamente em diversos problemas de engenharia, envolvendo diversos campos de
aplicação, dentre deles: simulações biológicas e médicas, indústria automotriz, geração de
energia e indústria petroquímica. A principal limitação destas técnicas está associada ao
consumo intensivo de recursos computacionais (memória e tempo de processamento).
Entretanto, com o aumento do poder computacional, estas técnicas têm sido estendidas a
outras aplicações, como a gestão térmica de ambientes e instalações.
O CFD tem se mostrado eficaz para modelar todos os aspectos do sistema de
refrigeração de CDs convencionais. Huang et al. (2017) utilizou CFD para obter dados de
fluxo de ar no piso elevado e níveis de resfriamento do racks, conseguindo êxito na
determinação dos parâmetros de avaliação do sistema de refrigeração de CD, enquanto Zhang,
K et al. (2018) avalia diferentes técnicas de resfriamento.
A abordagem CFD oferece informação detalhada sobre as variáveis térmicas e do
fluxo de ar. Entretanto, seu custo pode ser proibitivo quando um elevado número de
simulações é necessário. Uma revisão detalhada dos modelos CFD envolvendo transferência
de calor em simulação de CDs é apresentada nos estudos de Rambo et al. (2007), Fulpagare e
Bhargav (2015), Alkharabsheh et al. (2015). Em geral, os CDs se beneficiam com a
modelagem com CFD já que a equipe responsável pelo gerenciamento de TI pode
reconfigurar o ambiente existente para melhorar os níveis de eficiência do sistema de
refrigeração.
No presente artigo é avaliada a distribuição de temperatura em um rack, localizado em
um CD de pequeno porte, para 4 diferentes configurações do sistema de refrigeração
composto por dois ar condicionados do tipo split. Na seguinte seção descrevemos as etapas da
modelagem computacional realizada neste trabalho. Os resultados de simulação e sua
discussão são oferecidos na seção 3. Por último na seção 4 oferecemos as conclusões do
trabalho.

2. MODELAGEM DO CENTRO DE DADOS NBCGIB-UESC

Embora seja focado nos fenômenos de dinâmica de fluidos, o CFD também é muito
eficaz para a modelagem de transferência de calor e massa, reações químicas, fluxo
multifásico, solidificação e outros fenômenos complexos. Em virtude disso, CFD têm sido
utilizados em diversos trabalhos que analisam climatização de centro de dados, desde o
projeto à operação.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1442
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Modelos CFD para problemas de transferência de calor envolvem: discretização


temporal para cálculos transientes, não-linearidade (termos convectivos), geometria
tridimensional, um sistema de equações diferenciais parciais de segunda ordem (equações do
momento x, y, z e a equação da energia) e a equação de continuidade tridimensional. Estas
equações devem ser resolvidas de forma iterativa em uma malha espacial e temporal, pelo que
requer um elevado custo em recursos computacionais (memória e poder de cálculo).
O processo de aplicação de uma simulação utilizando CFD, de forma geral é baseado
em quatro etapas:
(i). Criação da geometria e malha
(ii). Definição do modelo físico
(iii). Resolução do problema de CFD
(iv). Visualização dos resultados em uma etapa de pós-processamento.
O fluxo de trabalho pode ser melhor visualizado na figura 1:

Figura 1 – Estrutura e etapas da análise CFD.

A geometria é o domínio computacional da simulação. Na etapa de criação da geometria,


busca-se representar de forma fidedigna os principais elementos, mas também são feita
simplificações com objetivo de diminuir o custo computacional, sem perder qualidade das
simulações, diversos estudos sugerem que os detalhes da geometria podem ser simplificados
sem perdas na precissão dos resultados.
O centro de dados estudado no trabalho é localizado no Núcleo de Biologia
Computacional da Universidade Estadual de Santa Cruz (NBCGIB-UESC), e consiste em
uma sala de 4,28m(largura) x 3,98(comprimento) x 2,20m(altura) que abriga o cluster e um
sistema de refrigeração composto por duas evaporadoras de ar do tipo split , representadas a
partir de recortes na sala, como mostra na figura 2.
O rack localizado quase que ao centro da sala foi representado como um paralelepípedo
com as dimensões de 1,20m(largura) x 1,00(comprimento) x 1,92m(altura), conforme
mostrado na figura 3.(a) e 3.(b).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1443
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Geometria do Centro de Dados NBCGIB – UESC

Figura 3 - (a) Geometria do rack (b) Localização do rack na geometria do CD.

Na etapa de criação da malha é feita a discretização do domínio computacional, o


domínio será dividido em elementos de tamanho menor, em cada um destes elementos serão
resolvidas as equações de governança. É importante que os elementos atendam a parâmetros
de qualidade de malha mínimos, mas além disso, é altamente recomendável que apresentem
boa qualidade nas regiões onde os resultados são mais relevantes para a pesquisa.
Dessa forma, elaborou-se uma malha estrurada (com maior qualidade) na região onde fica
o rack e refinamento nas áreas de transição entre o rack e o ar, já na região superior ao rack
utilizou-se um método automático de geração de malha, pois as informações não tem a
mesma relevância. A figura 4.(a) mostra visão geral da malha, e a figura 4.(b) mostra o
interior da malha e as diferentes regiões de refinamento.
A solução é obtida através de um processo de cálculo iterativo até que os resíduos das
grandezas de interesse entre duas iterações sucessivas seja inferior a uma tolerância
predeterminada. O cálculo do processo foi feito com o software ANSYS-CFX usando solver
baseado em pressão no estado estacionário. O modelo de turbulência utilizado foi o modelo
“k-epsilon realizable”(Bardina et al., 1997) com a função padrão de parede. Por se tratar de
um problema de transferência de calor também deve ser utilizada a equação da energia.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1444
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4 - (a) Visão geral da malha, (b) Diferentes regiões do interior da malha.

A resolução de problemas CFD exigem a definição de condições de contorno nos


limites do domínio computacional. As condições de contorno são um conjunto de
propriedades ou condições em superfícies de domínios e são necessárias para definir a
simulação de fluxo CFX (2010).
Os principais tipos de condições de contorno utilizadas são:
• Inlet: O fluido escoa para dentro do domínio computacional
• Outlet: O fluido escoa para fora do domínio computacional
• Opening: Região onde o fluido pode escoar em ambos sentidos.
• Wall: Região impenetrável pelo fluido
No problema, a fonte de calor (interior do rack) foi definida como um fluido com
densidade témica de 18kW, e as evaporadoras de ar condicionado com vazão de insuflamento
de ar de 1kg/s e 18°C de temperatura. Destaca-se que apenas as paredes laterais do rack foram
definidas do tipo “wall”, dessa forma a região frontal e a região traseira trabalham como uma
condição “opening” em que o fluido escoa livremente.
A avaliação dos resultados foi feita com a utilização de dois planos, um na parte
frontal e outro na parte traseira do rack, onde foram avaliados contornos de temperatura. A
Figura 5 mostra a locação desses planos em nosso domínio computacional.

Figura 5 - Locação dos planos para análise dos contornos de temperatura do rack.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1445
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. DISCUSSÃO DOS RESULTADOS

Foram realizadas simulações para 4 (quatro) diferentes configurações do sistema de ar


condicionado. As escolhas das configurações objetivaram avaliar o sistema com os
equipamentos funcionando simultaneamente e isoladamente, além disso a quarta configuração
tem como objetivo avaliar o impacto da mudança na direção do fluxo de ar insuflado, visto
que esse sistema não apresenta um fluxo de ar bem distribuído como deve ocorrer os CDs
convencionais.
As configurações consideradas neste trabalho foram:
• Configuração 1: Evaporadoras de ar condicionado frontal e lateral funcionando
com fluxo de ar ortogonal a superfície de saída,
• Configuração 2: Apenas evaporadora de ar condicionado frontal funcionando
com insuflamento de ar ortogonal superfície da saída de ar,
• Configuração 3: Apenas evaporadora de ar condicionado lateral funcionando
com insuflamento de ar ortogonal superfície da saída de ar,
• Configuração 4: Evaporadora de ar condicionado frontal funcionando com
insuflamento de ar ortogonal superfície da saída de ar, e evaporadora lateral
com insuflamento de ar na horizontal.

A figura 6 apresenta os contornos de temperaturas na região frontal e traseira do rack para


a configuração 1. Nota-se que os valores de temperatura máxima aparecem na região superior
do rack, e os valores mínimos na região inferior, a distribuição de temperaturas apresenta
maior homogeneidade na região traseira do rack.

(a) (b)
Figura 6 – Contornos de temperatura na configuração 1 do sistema de refrigeração, (a) região frontal do
rack, (b) região traseira do rack.

A figura 7 apresenta os contornos de temperaturas na região frontal e traseira do rack para


a configuração 2. Podemos observar os valores de temperatura máxima aparecem na região
superior do rack no plano frontal, e na região intermediaria no plano traseiro, novamente
temos maior uniformidade na região traseira do rack.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1446
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)
Figura 7 – Contornos de temperatura na configuração 2 do sistema de refrigeração, (a) região frontal do
rack, (b) região traseira do rack.

A figura 8 apresenta os contornos de temperaturas na região frontal e traseira do rack para


a configuração 3. Podemos observar os valores de temperatura máxima aparecem na região
inferior do rack, e as temperaturas mínimas na região superior, em relação a não-
uniformidade de temperaturas tanto a região frontal como a traseira oferecem resultados
semelhantes.
A figura 9 apresenta os contornos de temperaturas na região frontal e traseira do rack para
a configuração 4. Podemos observar os valores de temperatura máxima aparecem na região
inferior do rack no plano frontal, e na região superior no plano traseiro, uma maior
uniformidade na distribuição de temperatura observa-se na região traseira do rack.

(a) (b)
Figura 8 – Contornos de temperatura na configuração 3 do sistema de refrigeração, (a) região frontal do
rack, (b) região traseira do rack.

As diferentes configurações do sistema de climatização apresentaram resultados


distintos. Na tabela 1 são apresentados os resumos dos limites de temperatura obtidos em cada
uma das configurações e a respectiva amplitude térmica. Destaca-se em vermelho a
configuração de maior amplitude (configuração 3), e em verde a configuração que gera a
menor amplitude (configuração 4) tendo uma diferença de 61,08°C entre as duas na região
frontal.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1447
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)
Figura 9 – Contornos de temperatura na configuração 4 do sistema de refrigeração, (a) região frontal do
rack, (b) região traseira do rack.

Outro resultado de destaque é o fato da configuração 2, com apenas 1 equipamento


funcionando, ter temperaturas menores do que a configuração 1, que tem os dois
equipamentos funcionando. Entretanto, o mesmo não acontece com a configuração 3 e 4.
Diante disso, é notório que o posicionamento das evaporadoras influi diretamente nas
temperaturas obtidas no rack, bem como a mudança da direção do fluxo de ar insuflado, visto
que essa é a única diferença entre as configurações 1 e 4, mas os resultados são
significativamente distintos.

Tabela 1 - Dados da temperatura nas regiões frontal e traseira do rack


DADOS DE TEMPERATURA REGIÃO FRONTAL DO RACK
CONFIGURAÇÃO DO SISTEMA DE
1 2 3 4
CLIMATIZAÇÃO
TEMPERATURA MÁXIMA REGIÃO
48,72 51,72 77,48 32,71
FRONTAL (°C)
TEMPERATURA MÍNIMA REGIÃO
15,99 16,4 16,4 16,31
FRONTAL (°C)
AMPLITUDE TÉRMICA REGIÃO
32,73 35,32 61,08 16,4
FRONTAL (°C)

DADOS DE TEMPERATURA REGIÃO TRASEIRA DO RACK


CONFIGURAÇÃO DO SISTEMA DE 1 2 3 4
CLIMATIZAÇÃO
TEMPERATURA MÁXIMA REGIÃO 61,36 48,66 66,58 44,65
TRASEIRA (°C)
TEMPERATURA MÍNIMA REGIÃO 16,38 16,79 15,96 19,18
TRASEIRA (°C)
AMPLITUDE TÉRMICA REGIÃO TRASEIRA 44,98 31,87 50,62 25,47
(°C)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1448
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os extremos de temperatura da região traseira do rack foram encontradas nas mesmas


configurações da região frontal, a configuração 3 com maiores temperaturas e amplitude, e
configuração 4 com menores temperaturas e amplitude. É possível observar que as
configurações 1 e 2 apresentam menores temperaturas na parte traseira do que na região
frontal, enquanto as configurações 3 e 4 apresentam as maiores temperaturas na região
traseira.

4. CONCLUSÕES

Os resultados obtidos permitem observar que simples mudanças na configuração do


sistema de refrigeração podem trazer resultados significantes na gestão de um centro de
dados. Dessa forma a análise CFD é uma ferramenta muito poderosa, que pode ser utilizada
por gestores e projetistas na busca por maior eficiência energética e para manutenção da saúde
dos equipamentos.
Foram avaliadas quatro diferentes configurações, dessa forma constatou-se que a
configuração 04, que conta com uma mudança na direção do fluxo de ar da evaporadora
lateral apresentou os menores valores de temperaturas e amplitude térmica nas condições
simuladas, demonstrando a importância de se avaliar a direção do fluxo de ar insuflado para
sistemas de refrigeração com essas características.
Os desenvolvimentos futuros dessa pesquisa envolvem a utilização de dados
experimentais para validação dos resultados de simulação computacional, a avaliação do
fluxo de ar, o cálculo das principais métricas de desempenho para a refrigeração de centro de
dados, além de elaborar propostas para melhorias na gestão do sistema de refrigeração do
ambiente estudado.

Agradecimentos

Os autores do trabalho agradecem o suporte financeiro parcial oferecido pela Fundação


de Ámparo a Pesquisa do Estado da Bahia (FAPESB) pelo apoio fornecido a presente
pesquisa.

REFÊRENCIAS

Alkharabsheh, S. et al. A brief overview of recent developments in thermal management in data centers. Journal
of Electronic Packaging, Transactions of the ASME, 2015. v. 137, n. 4, p. 1–19.
Bardina, JE, Huang, PG, Coakley, TJ (1997), "Turbulence Modeling Validation, Testing, and Development",
NASA Technical Memorandum 110446.
Canonsburg, T. D. CFX solver modeling guide, ver. 13.
Fulpagare, Y.; Bhargav, A. Advances in data center thermal management. Renewable and Sustainable Energy
Reviews, mar. 2015. v. 43, p. 981–996.
Huang, Z. et al. Numerical Simulation and Comparative Analysis of Different Airflow Distributions in Data
Centers. Procedia Engineering, jan. 2017. v. 205, p. 2378–2385.
Rambo, J.; Joshi, Y. Modeling of data center airflow and heat transfer: State of the art and future trends. 2007.
v. 21, p. 193–225. Disponível em: <https://link.springer.com/content/pdf/10.1007%2Fs10619-006-7007-
3.pdf>. Acesso em: 5 mar. 2019.
Zhang, K. et al. Recent advancements on thermal management and evaluation for data centers. Applied Thermal
Engineering, 1 set. 2018. v. 142, p. 215–231. Disponível em:
<https://www.sciencedirect.com/science/article/pii/S1359431118324402#s0085>. Acesso em: 6 mar. 2019.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1449
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ANALYSIS OF THE RACKS TEMPERATURES DISTRIBUTION ON SMALL


DATA CENTERS WITH THE USE OF COMPUTATIONAL FLUID DYNAMICS

Abstract. In the last few decades, the establishment and consolidation of the information
society has dramatically increased the number of data centers (DC) in operation. They
currently represent approximately 2% of the world's energy consumption. An important
component of the energy consumption of CDs is the cooling system. At the same time,
environmental problems oblige companies and governments to look for solutions to reduce
the carbon footprint of the most diverse activities, so there are several initiatives to reduce
energy consumption in virtually all sectors. Computational fluid dynamics (CFD) has been
increasingly used in the analysis of heat transfer problems. The present work studies the
thermal behavior of the CD of the Computational Biology Nucleus of the State University of
Santa Cruz, composed of two split air conditioners and a rack with 18kW of power. A
computational model was built containing the main equipment, a system discretization mesh,
the main system components were defined, and using the Ansys-CFX software, the equipment
temperatures were obtained for four different refrigeration system configurations. the CD.
After presenting and analyzing the temperature contours for the simulations performed, a
comparison of the results was made for different configurations of the refrigeration system.

Keywords: Small data centers, CFD modeling, Climatization, Ansys CFX.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1450
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Implementação de um programa computacional para gerar o diagrama de bifurcações


de sistemas caóticos

João Inácio Moreira Bezerra1 - jimbezerra@inf.ufpel.edu.br


Alexandre Molter2 - alexandre.molter@ufpel.edu.br
Leslie Darien Pérez Fernández2 - leslie.fernandez@ufpel.edu.br
1 Universidade Federal de Pelotas, Instituto de Fı́sica e Matemática - Pelotas, RS, Brazil
2 Universidade Federal de Pelotas, Instituto de Fı́sica e Matemática - Pelotas, RS, Brazil

Abstract. O estudo de sistemas dinâmicos que apresentam comportamento caótico vem


atraindo a atenção de pesquisadores de diferentes áreas. Nas últimas décadas, o
desenvolvimento computacional proporcionou estudos mais detalhados do comportamento
destes sistemas. No entanto, os programas mediante os quais são simuladas as caracterı́sticas
destes sistemas normalmente não são disponibilizados. O objetivo deste trabalho é apresentar
detalhadamente um programa computacional para gerar o diagrama de bifurcações de sistemas
contı́nuos com comportamento caótico.

Keywords: Comportamento Caótico, Diagrama de Bifurcações, Programa Computacional,


Sistemas Dinâmicos

1. INTRODUÇÃO

A análise de sistemas dinâmicos que apresentam comportamento caótico tem sido


amplamente divulgada nos meios cientı́ficos. Dentre as caracterı́sticas analisadas nestes
sistemas estão o diagrama de bifurcações, as seções de Poincaré e os expoentes de Lyapunov,
todas elas usadas para analisar se o sistema apresenta, ou não, comportamento caótico. Há
diversos trabalhos que apresentam simulações computacionais destas caracterı́sticas, tais como
Barrio et al. (2015); Haskins (1991); Sahoo (2015); Wilczak (2016).
Normalmente, as implementações destas ferramentas, que aparecem nestes trabalhos, são
feitas por intermédio de programas fechados, os quais não dão ao usuário acesso aos códigos.
No trabalho de Sahoo (2015), por exemplo, utilizou-se o pacote MATCONT 2.5.1, do software
MATLAB. O uso destes programas, embora forneça soluções precisas, pode dificultar aos
acadêmicos a compreensão destas análises feitas nos sistemas, em especial para os iniciantes
nesta área.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1451
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tendo em vista a dificuldade de acesso a códigos computacionais abertos e explicativos, este


trabalho tem como objetivo disponibilizar um programa aberto para a construção do diagrama
de bifurcações de sistemas de tempo contı́nuo que apresentam comportamento caótico. O
trabalho disponibiliza o passo a passo de como este diagrama é construı́do e sua implementação
no MATLAB.
Dentre as áreas em que o diagrama de bifurcações é aplicado pode-se destacar a criptografia
(Alvarez (2003)), na qual é necessário conhecer valores dos parâmetros que tornam o sistema
caótico para ajudar a garantir a aleatoriedade dos caracteres do texto cifrado. Na dinâmica
populacional (Haskins (1991); Sahoo (2015)), o conhecimento do diagrama de bifurcações
permite ajustar o alimento fornecido às espécies, evitando comportamento caótico. Além
disso, o diagrama é usado no estudo de dinâmica de fluidos (Lorenz (1963)), na eletrônica
(Broucke (1987)), fenômenos de transporte (Gao et al. (2012)), e quı́mica (Rubinger et al.
(2006)). Neste trabalho, o algoritmo será aplicado para a construção do diagrama de
bifurcações dos sistemas de Rössler (1976) e Lorenz (1963). Além disso, será aplicado em dois
modelos hipercaóticos(um de Lorenz e um epidêmico) e serão discutidas as particularidades da
implementação para cada um destes sistemas.
O trabalho está da seguinte forma: na segunda seção será feito o estudo da estabilidade de
sistemas de equações diferenciais, que é um conceito fundamental para a compreensão do que
se entende por bifurcação. Na terceira seção, será apresentado e explicado o algoritmo para a
construção do diagrama de bifurcações. Na quarta seção, são são apresentados aplicações do
algoritmo em sistemas caóticos e hipercaóticos. Na seção 5 são discutidos os resultados obtidos
e apresentadas algumas conclusões.

2. ANÁLISE DE SISTEMAS DE EQUAÇÕES DIFERENCIAIS E BIFURCAÇÕES

Nesta seção, serão apresentados conceitos importantes para a compreensão do que se


entende por bifurcação. Primeiramente, será explicada a estabilidade de sistemas de equações
diferenciais lineares e não lineares. Após, será mostrado o critério de Routh-Hurwitz (Hurwitz
(1964); Routh (1877)), e posteriormente, serão caracterizados os vários tipos de bifurcações.

2.1 Estabilidade de sistemas de equações diferenciais lineares

Sistemas de equações diferenciais ordinárias, de primeira ordem, lineares, são dados da


seguinte forma:
dx
= Ax. (1)
dt
em que A é uma matriz N xN e x é um vetor N x1.
O comportamento das trajetórias do sistema será determinado de acordo com seus
autovalores, que são as soluções da equação caracterı́stica:

det (A − sI) = 0. (2)

A relação das soluções desta equação com a estabilidade do sistema se dá da seguinte forma:

• Caso todos os autovalores sejam negativos, o sistema será assintoticamente estável.

• No caso de possuir pelo menos um autovalor positivo, o sistema será instável.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1452
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• No caso de ter um par de autovalores complexos conjugados, a estabilidade do sistema


irá depender da parte real. Se for negativa, o sistema será assintoticamente estável. Caso
contrário, o sistema será instável.

• No caso dos autovalores do sistema serem puramente imaginários, o sistema será estável.

2.2 Estabilidade de sistemas de equações diferenciais não lineares

A grande maioria dos sistemas dinâmicos estudados na bibliografia apresentam não


linearidades. O estudo da teoria destes sistemas irá começar com um sistema tridimensional
genérico

ẋ = F (x, y, z) ẏ = G(x, y, z) ż = H(x, y, z),

cuja resolução analı́tica pode não ser possı́vel. Contudo, existem formas de analisar
qualitativamente o comportamento destes sistemas, e para este trabalho, será estudado este
comportamento em torno dos pontos fixos (ou pontos de equilı́brio) do sistema, que são todos
aqueles pontos (x0 , y0 , z0 ) que respeitam a condição abaixo são denominados pontos fixos:

F (x0 , y0 , z0 ) = 0, G(x0 , y0 , z0 ) = 0, H(x0 , y0 , z0 ) = 0.

O processo denominado aproximação linear de um sistema não linear, explicado


detalhadamente por Boyce (1985), o qual permite, na vizinhança de um ponto fixos (x0 , y0 , z0 ),
estudar o comportamento das trajetórias do sistema de maneira linear, por intermédio da matriz
Jacobiana definida abaixo.
∂F ∂F ∂F
 
(x , y , z ) (x0 , y0 , z0 ) (x0 , y0 , z0 )
 ∂x 0 0 0 ∂y ∂z 
 ∂G ∂G ∂G 
J(x0 , y0 , z0 ) =  (x0 , y0 , z0 ) (x0 , y0 , z0 ) (x0 , y0 , z0 ) 
 
 ∂x ∂y ∂z 
 ∂H ∂H ∂H 
(x0 , y0 , z0 ) (x0 , y0 , z0 ) (x0 , y0 , z0 )
∂x ∂y ∂z
A equação caracterı́stica do sistema no ponto fixos será dado por:

det(J(x0 , y0 , z0 ) − λI) = 0. (3)

As soluções da Eq. (3) representaram os autovalores da matriz Jacobiana, e o estudo


da estabilidade é feito da mesma forma que em um sistema linear. Apenas deve-se tomar
cuidado no caso de as raı́zes do polinômio serem puramente imaginárias. Neste caso, não há
como chegar a uma conclusão quanto a estabilidade do sistema (Boyce, 1985). Outra questão
relacionada às raı́zes do polinômio caracterı́stico é a dificuldade de encontrá-las, especialmente
em sistema de terceira ordem, ou superior. Contudo, para o estudo da estabilidade destes
sistemas, conhecer o sinal das raı́zes é mais importante que seu valor exato, e é neste cenário
que o critério de Routh-Hurwitz (Hurwitz, 1964; Routh, 1877) se torna uma ferramenta muito
útil para análise destes sistemas.

2.3 Critério de Routh-Hurwitz

O critério de Routh-Hurwitz serve para verificar o sinal das raı́zes de um polinômio. Para
que um ponto fixos de um sistema seja estável, é necessário que seu polinômio caracterı́stico

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1453
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

tenha apenas raı́zes com parte real negativa, o que ocorrerá quando todos os coeficientes da
primeira coluna da tabela, que será apresentada na próxima subseção, tiverem o mesmo sinal.
A seguir, serão mostrados exemplos genéricos do critério para polinômios de terceiro e quarto
graus, os quais serão abordados neste trabalho. Os exemplos do método generalizado se
encontra em Ogata (2011) e a prova se encontra em Anagnost (1991).

O critério para polinômios de terceiro grau: Seja a fórmula geral de um polinômio de


terceiro grau: aλ3 + bλ2 + cλ + d, a 6= 0. Este sistema terá a seguinte tabela:


λ3 a c


2
λ b d

λ a1 0


λ0 d

em que
ad − bc
a1 = .
b
A condição de estabilidade será respeitada se a, b, a1 e d tiverem o mesmo sinal.

O critério para polinômios de quarto grau: Seja a fórmula geral de um polinômio de quarto
grau: aλ4 + bλ3 + cλ2 + dλ + e, a 6= 0. Este sistema terá a seguinte tabela:


λ4 a c e


λ3 b d 0


2
λ a1 e

λ a2


0
λ e

Em que
bc − ad a1 d − be
a1 = , a2 = .
b a1
A condição de estabilidade será respeitada se a, b, a1 , a2 e e tiverem o mesmo sinal.

2.4 Bifurcações

O fenômeno chamado de bifurcação está relacionado com a mudança qualitativa das


soluções do sistema no plano de fase, à medida que o parâmetro analisado do sistema passa
por um valor crı́tico. Entre as formas em que ocorrem bifurcações, estão o aparecimento ou
desaparecimento de pontos fixos e mudanças na estabilidade do sistema. Além disso, existem
bifurcações para as quais a simulação numérica do sistema é de grande importância para atingi-
las (Kounadis, 1993). As bifurcações se dividem em locais e globais. As bifurcações locais

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1454
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

estão relacionadas com a estabilidade de um sistema na vizinhança de um ponto fixo, ou de


uma órbita periódica. As bifurcações globais, por sua vez, estão relacionadas com mudanças
de estabilidade em uma solução periódica, como por exemplo, um ciclo limite. O uso de
ferramentas computacionais é de grande ajuda para obter estas bifurcações, sendo esta análise
importante para detectar caos em um sistema. A forma mais conhecida de fazê-la é resolvendo
o sistema para vários valores de um parâmetro e marcar os resultados em um gráfico, que é
denominado Diagrama de Bifurcações.

3. A CONSTRUÇÃO DO DIAGRAMA DE BIFURCAÇÕES

O diagrama de bifurcações é um gráfico, o qual é construı́do a partir da variação de um


parâmetro de um sistema, e valores de interesse do resultado do sistema são plotados em função
do valor do parâmetro. Para a construção do diagrama em sistemas de tempo discreto, como é
o caso do Mapa Logı́stico, basta apenas marcar os valores do sistema após um tempo inicial,
denominado de transiente, e se terá um resultado preciso. Contudo, em sistemas de tempo
contı́nuo, no caso de instabilidade, o comportamento das variáveis em função do tempo é
oscilatório. Estas oscilações podem ser periódicas, ou não. No caso de ocorrer a periodicidade,
significa que o sistema terá comportamento previsı́vel, não sendo sensı́vel às condições iniciais.
Por outro lado, quando as oscilações forem aperiódicas, o sistema será imprevisı́vel e sensı́vel às
condições iniciais. A Figura 3. mostra a diferença entre oscilações: uma oscilação periódica, na
qual há sempre o mesmo ponto de máximo, e uma oscilação não periódica, em que estes pontos
variam. A periodicidade, ou não, destas oscilações, é ser observada nos pontos de máximo ou
de mı́nimo ao longo da trajetória.

Oscilação periódica Oscilação não-periódica

6 40

30
4
20
2
10
x(t)

x(t)

0 0

-10
-2

-20
-4
-30

-6 -40
250 255 260 265 270 275 280 285 290 295 250 255 260 265 270 275 280 285 290 295
t t

Figure 1- Oscilação periódica Figure 2- Oscilação não periódica

4. ESTUDO DE SISTEMAS

Nessa seção, será construı́do o diagrama de bifurcações, a partir do algoritmo apresentado,


em sistemas caóticos (Lorenz e Rössler) e hipercaóticos (Lorenz e Epidêmico), além de
discussões acerca do diagrama e das caracterı́sticas de cada um dos sistemas analisados.

4.1 Sistemas Caóticos

Os sistemas caóticos a serem analisados nesta seção são os de Lorenz e Rössler, ambos
tri-dimensionais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1455
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Sistema de Lorenz O sistema de Lorenz (1963), que representa um modelo simples de


convecção térmica de um fluido em uma caixa, é descrito pelas seguintes equações:
ẋ = σ(y − x),
ẏ = rx − y − xz, (4)
ż = xy − βz.
A variável x na Eq. (4) está relacionada à intensidade do movimento do fluido, enquanto as
variáveis y e z estão relacionadas às variações de temperatura nas direções horizontal e vertical
do movimento. As equações de Lorenz envolvem, também, três parâmetros, σ, r, β, todos reais
e positivos. σ e β dependem do material da caixa e das propriedades geométricas do fluido.
8
Para a análise do sistema, usa-se σ = 10 e β = . O parâmetro r é proporcional a diferença de
3
temperatura ∆T entre as extremidades da caixa, e aqui será investigado o comportamento das
soluções para diferentes valores, à medida que variam osp valores de r.p
pO sistema possuip três pontos fixos: (0, 0, 0), ( β(r − 1), β(r − 1), r − 1) e
(− β(r − 1), − β(r − 1), r − 1). Após a obtenção do polinômio caracterı́stico do sistema,
para comparar com as referências, no segundo destes pontos, e análise de sua estabilidade pelo
método de Routh-Hurwitz, tem-se que o sistema será instável para r ≥ 24, 74. A seguir, o
diagrama de bifurcações para o sistema.

Figure 3- Diagrama de bifurcações para o sistema de Lorenz

Na Figura 3, é possı́vel observar que o sistema é estável até r = 24, 74. Depois, o sistema
apresenta oscilações não periódicas até r ≈ 240, com excessão de uma pequena janela, quando
160 ≤ r ≤ 180. Para r ≥ 240, as oscilações são periódicas. XM AX são os valores de
máximo da variável x(t), YM AX os valores de máximo de y(t) e ZM AX os valores de máximo de
z(t). Com a aplicação do algoritmo, chegou-se em um resultado comparável com os diagramas
encontrados nas bibliografias (Danca et al., 2012; Wang et al., 2011). O diagrama foi construı́do
usando apenas valores de máximo, o tempo de integração foi de [0 150], com transiente igual a
100 e o passo de integração definido pelo MATLAB.

Sistema de Rössler O sistema de (Rössler, 1976) é um sistema não linear, autônomo,


tridimensional, descrito pelas seguintes equações:
ẋ = −y − z,
ẏ = x + ay, (5)
ż = b + (x − c)z.
Os parâmetros do sistema são a, b e c, todos reais e positivos. Para a análise do sistema,
a = b = 0, 1, e o parâmetro c será variado, com o objetivo de se estudar como o sistema irá

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1456
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

se comportar para diferentes valores deste parâmetro. Pela análise feita pelo critério de Routh-
Hurwitz, para 1 ≤ c ≤ 45, o sistema será instável, e o intuito é analisar para quais valores
neste intervalo o sistema apresenta comportamento periódico. Isto é analisado de acordo com o
diagrama de bifurcações na Figura 4.

Figure 4- Diagrama de bifurcações para o sistema de Rössler.

Deste diagrama, pode-se inferir que para valores de 1 ≤ c ≤ 8.6, o sistema apresenta
comportamento periódico. Após, embora venham a existir algumas janelas periódicas, para a
maior parte destes valores o sistema será imprevisı́vel. O resultado decorrente da aplicação do
algoritmo é consistente com o diagrama encontrado no trabalho Alvarez (2003). O diagrama
foi feito com as mesmas configurações que para o sistema de Lorenz.

4.2 Sistema Hipercaóticos

Os sistemas de dimensão igual, ou superior a quatro, que apresentam comportamento


caótico, são denominados de sistemas hipercaóticos. Um modelo que apresenta ao menos
dois Expoentes de Lyapunov positivos é classificado como hipercaótico (Wilczak, 2016).
Estes sistemas apresentam dinâmicas mais complexas do que sistemas caóticos, em virtude
da existência de uma direção a mais, que possibilita aos sistemas possuir um espectro maior de
bifurcações.

Lorenz Hipercaótico O modelo de Lorenz em quatro dimensões foi apresentado por Wang
(2008). O sistema modifica o sistema original de Lorenz (1963) ao adicionar uma nova variável
w, que funciona como um controlador não linear. O sistema é:

ẋ = a(y − x) + w,
ẏ = cx − y − xz, (6)
ż = xy − bz,
ẇ = −yz + rw.

Para a construção do diagrama (Figura 5), os valores usados foram os mesmos de Wang
(2008), para fins de comparação. Tem-se que a = 10, b = 83 e c = 28. A variação se dá
no parâmetro r, com −6, 43 ≤ r ≤ 0, 17. A aplicação do algoritmo para gerar o diagrama
no sistema mostra um resultado semelhante ao encontrado em Wang (2008). O sistema é
caótico para a maioria dos valores nesse intervalo, possuindo uma janela periódica no intervalo
aproximado −3, 25 ≤ r ≤ −1, 25.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1457
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 5- Diagrama de bifurcações para o modelo hipercaótico de Lorenz.

Modelo Epidêmico Modelo descrito por Zhang (2012), no qual n(t) representa a densidade
populacional da espécie suscetı́vel a epidemia, e(t) a espécie exposta, i(t) a espécie infectada e
r(t) a espécie recuperada. O parâmetro b > 0 é a taxa de natalidade, α > 0 é a taxa na qual os
indivı́duos expostos se infeccionam, γ > 0 é a taxa de recuperação e β1 a taxa de sazonalidade
da epidemia. O modelo é descrito pelo seguinte sistema de equações diferenciais:

ṡ = b − bs − βsy,
ė = βsy − (α + b)e, (7)
i̇ = αe − (γ + b)i,
ṙ = γi − br.

O parâmetro β representa a taxa de transmissão com forçagem sazonal, sendo calculado por:

β = β0 (1 + β1 cos 2πt).

O sistema foi estudado com b = 0, 02, α = 35, 84, γ = 100 e β0 = 1800, e o diagrama foi
construı́do de acordo com a variação da taxa de sazonalidade(β1 ∈ [0, 1]).

Figure 6- Diagrama de bifurcações para as variáveis do modelo epidêmico

O diagrama foi feito para todas as variáveis do sistema, sendo mostrado na Figura 6. A
densidade da população de indivı́duos recuperados é alta, enquanto a dos demais indivı́duos
é baixo. Para valores de β1 em três intervalos (0 ≤ β1 ≤ 0, 25, 0, 55 ≤ β1 ≤ 0, 70
e 0, 90 ≤ β1 ≤ 1), o sistema apresenta oscilações periódicas, enquanto para os demais
valores do parâmetro as oscilações são aperiódicas. Destaca-se neste sistema, as dificuldades na
integração para certas condições iniciais, e a necessidade de um transiente longo (os primeiros
20000 pontos, em uma integração de 40000 pontos). Neste trabalho, para todos os valores
do parâmetro, tem-se que a condição inicial foi (0, 6; 0, 25; 0, 1; 0, 05). Com a aplicação do

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1458
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

algoritmo, o diagrama é consistente com o encontrado em Zhang (2012), sendo que no presente
trabalho foram marcados os pontos de máximo e de mı́nimo. O trabalho também apresenta
maior detalhe quanto às bifurcações, em virtude do maior número de valores do parâmetro para
qual o sistema foi resolvido.

5. CONCLUSÕES

Neste trabalho foi apresentado um programa computacional, com detalhamento do código,


para implementação do algoritmo de construção do diagrama de bifurcações de sistemas
contı́nuos que apresentam comportamento caótico. Foram mostradas aplicações para os
sistemas de Rössler e Lorenz, além de dois modelos hipercaóticos. O principal objetivo deste
trabalho foi facilitar a compreensão do fenômeno de bifurcação em sistemas caóticos de tempo
contı́nuo.
Os resultados obtidos foram comparados (visualmente) com resultados apresentados na
bibliografia e houve uma similaridade dos mesmos. Foi mostrado como o diagrama pode ser
mais detalhado (resolvendo o sistema para muitos valores) e mais preciso (perı́odo transiente
mais longo).

REFERENCES

Alvarez, G., e Li, S. (2003). Cryptographic requirements for chaotic secure communications. arXiv
preprint nlin/0311039.
Anagnost, J. J., e Desoer, C. A. (1991). An elementary proof of the Routh-Hurwitz stability criterion.
Circuits, systems and signal processing, 10(1), 101-114.
Barrio, R., Martı́nez, M. A., Serrano, S., e Wilczak, D. (2015). When chaos meets hyperchaos: 4D
Rössler model. Physics Letters A, 379(38), 2300-2305.
Broucke, M. (1987). One parameter bifurcation diagram for Chua’s circuit. IEEE transactions on circuits
and systems, 34(2), 208-209.
Boyce, W. E., e DiPrima, R. C. (1985). Equações diferenciais elementares e problemas de valores de
contorno. Guanabara Dois.
Danca, M. F., Romera, M., Pastor, G., e Montoya, F. (2012). Finding attractors of continuous-time
systems by parameter switching. Nonlinear Dynamics, 67(4), 2317-2342.
Xue-jun, G., Ying-hui, L., Yuan, Y., e True, H. (2013). Symmetric/asymmetric bifurcation behaviours
of a bogie system. Journal of Sound and Vibration, 332(4), 936-951.
Hastings A. e Powell T. (1991), Chaos in a Three-Species Food Chain. Ecology, 72.
Hurwitz, A. (1964). On the conditions under which an equation has only roots with negative real parts.
Selected papers on mathematical trends in control theory, 65, 273-284.
Kounadis, A. N. (1993). Static and dynamic, local and global, bifurcations in nonlinear autonomous
structural systems. AIAA journal, 31(8), 1468-1477.
Lorenz, E. N. (1963). Deterministic nonperiodic flow. Journal of the atmospheric sciences, 20(2), 130-
141.
Katsuhiko, O. G. A. T. A. (2011). Engenharia de controle moderno. KATSUHIKO Ogata, 5th Ed. 801p.
Rössler, O. E. (1976). An equation for continuous chaos. Physics Letters A, 57(5), 397-398.
Routh, E. J. (1877). A Treatise on the Stability of Motion. Macmillima, London.
Sahoo, B., e Poria, S. (2015). Chaos to order: Role of additional food to predator in a food chain model.
Differential equations and dynamical systems, 23(2), 129-146.
Rubinger, R. M., Albuquerque, H. A., da Silva, R. L., de Oliveira, A. G., Ribeiro, G. M., Rodrigues, W.
N., ... e Moreira, M. V. B. (2006). Variable range hopping conduction in low-temperature molecular
beam epitaxy GaAs. Brazilian journal of physics, 36(2A), 252-254.
Strogatz, S. H. (1996). Nonlinear dynamics and chaos.
Wang, W. X., Yang, R., Lai, Y. C., Kovanis, V., e Grebogi, C. (2011). Predicting catastrophes in nonlinear
dynamical systems by compressive sensing. Physical review letters, 106(15), 154101.
Wang, X., e Wang, M. (2008). A hyperchaos generated from Lorenz system. Physica A: Statistical
Mechanics and its Applications, 387(14), 3751-3758.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1459
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Wilczak, D., Serrano, S., e Barrio, R. (2016). Coexistence and dynamical connections between
hyperchaos and chaos in the 4D Rossler system: a computer-assisted proof. SIAM Journal on Applied
Dynamical Systems, 15(1), 356-390.
Zhang, Q., Liu, C., e Zhang, X. (2012). Complexity, analysis and control of singular biological systems
(Vol. 421). Springer Science and Business Media.

FUNÇÃO USADA PARA GERAR O DIAGRAMA - MATLAB

function b i f u r c ( sistema , t i n i c i o , t fim , t t r a n s i e n t e ,


p a r a m e t r o , v a r i a v e l , y0 )

global taxa

for i = 1: length ( parametro )


taxa = parametro ( i ) ;
[ t , y ] = ode45 ( s i s t e m a , [ t i n i c i o t f i m ] , y0 ) ;
contador = find ( t > t t r a n s i e n t e ) ;
y = y ( contador , v a r i a v e l ) ;
f o r j = 2 : ( l e n g t h ( y ) −1)
i f ( ( y ( j −1 ,1)+ e p s ) < y ( j , 1 )
&& y ( j , 1 ) > ( y ( j + 1 , 1 ) + e p s ) )
p l o t ( taxa , y ( j , 1 ) , ’k . ’ , ’ MarkerSize ’ , 1 ) ;
h o l d on ;
end
end
end
Código no MATLAB para gerar o diagrama de bifurcações

Implementation of a computational program to generate the bifurcations diagram of


chaotic systems

Abstract. The study of dynamical systems that show chaotic behavior has been a topic of interest
among researchers of different areas. In the last few decades, computational development
has provided more detailed studies about these systems’ behavior. However, the programs by
means of which the characteristics of these systems are simulated are often unavailable. This
work provides a detailed presentation of a computational program to generate the bifurcation
diagram of continuous systems that show chaotic behavior.

Keywords: Chaotic Behavior, Bifurcation Diagram, Computational Program, Dynamical


Systems

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1460
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DA ENTROPIA DE SISTEMA OSCILATÓRIO EM REDES COMPLEXAS.

Moisés Filgueira de Oliveira1 - moisesfmat@gmail.com


José Luiz Acebal1 - acebal@dppg.cefetmg.br
Rodrigo Tomás N. Cardoso1 - rodrigocardoso@cefetmg.br
1 Centro Federal de Educação Tecnológica, Belo Horizonte - MG, Brasil

Resumo. A dinâmica de osciladores acoplados desperta o interesse em várias áreas do co-


nhecimento, devido às inúmeras aplicações. Um problema caracterı́stico em sua análise é
encontrar caracterı́sticas dinâmicas, tais como sincronização, transição para o caos, as pro-
priedades dos osciladores e do acoplamento. Recentemente vários trabalhos tiveram como
objetivo os estudos das propriedades de sincronização de fase, a partir da hipótese de que estes
desempenhariam importante papel na transferência de informações dentro de uma rede. Tendo
em vista a complexidade gerada a partir da definição da dinâmica de fase, neste trabalho bus-
camos uma abordagem mais simples para inferir causalidade entre processos conectados em
redes complexas ao medir o fluxo de informação entre vértices das redes, em termo de entropia
da informação. Os processos usados consistem de sistemas dinâmicos do tipo ciclos limites
periódico estáveis. O fluxo de informação é medido em diferentes topologias de redes comple-
xas. As redes exibiram diferentes distribuições de entropia de informação.

Palavras-chave: Entropia de Shannon, Sistemas Dinâmicos, Osciladores, Rede Complexas.

1. INTRODUÇÃO

As oscilações são onipresentes na natureza e na ciência. Diversos modelos de osciladores


de ciclo limite com dinâmica periódica estável têm sido usados para descrevê-las. Por exemplo,
as estações, as marés, a frequência cárdica do ser humano, a variação de ciclos populacionais,
oscilações quı́micas, surtos epidêmicos periódicos e fenômenos fı́sicos. Devido à grande va-
riedade de aplicações, investigar a dinâmica de uma rede de sistemas oscilatórios é um tema
oportuno e relevante, pois as redes de osciladores destacam-se por sua rica dinâmica que, nor-
malmente, manifesta-se em dinâmicas macroscópicas complexas ou não triviais. Em redes com
uma determinada estrutura de conectividade, a complexidade macroscópica emerge por meio
de uma interação da atividade de nós individuais (Pietras, 2019).
Modelos matemáticos oscilatórios propostos que exibem oscilações intrinsecamente emer-
gentes estão tipicamente sujeitos a perturbações externas a exemplo da mudança aleatória de
um parâmetro ambiental, bem como, estão suscetı́veis a estocasticidade interna, por exemplo,
devido ao tamanho finito de população (Louca, 2015). Partindo dessa perspectiva, algumas

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1461
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

questões surgem: como as flutuações farão com que um oscilador de ciclo limite afasta-se da
periodicidade perfeita? E ainda, quanta informação o oscilador de ciclo limite revela sobre as
variações no sinal externo, tanto em escalas de tempo longas quanto curtas? Essas questões são
centrais para o diagnóstico de doenças cardı́acas a partir da identificação de padrões de arritmia
cardı́aca ou para a compreensão dos padrões de pico nas células nervosas (Schleimer et al.,
2009).
Tendo em vista as inúmeras aplicações mencionadas este trabalho tem como objetivo o es-
tudo do efeito coletivo de um sistema oscilatório conectado por modelos de redes complexas.
Desta forma, realizamos um estudo em diferentes dinâmicas de redes complexas de oscilado-
res, onde supomos que a dinâmica de cada nó é oscilatória. Para simplificar assumimos ainda
que a estrutura de rede que será fornecida é estática ao longo do tempo. De modo que, para
compreender os efeitos da topologia das redes complexas, utilizamos a teoria da informação,
em particular a entropia de Shannon.

2. MODELO

Os osciladores de ciclo limite são usados para modelar uma variedade de processos rı́tmicos
na natureza, quando um ciclo limite está sujeito a ruı́do, a frequência das oscilações muda
e a fase de oscilação tende a se difundir. Esses efeitos são quantificados por coeficientes de
derivação e difusão, e são importantes para entender o comportamento de longo prazo de os-
ciladores ruidosos (Nakao et al, 2010). Em nosso trabalho, consideramos diferentes tipos de
rede complexa, onde cada rede possui N osciladores de ciclo limite estável, acoplados difusi-
vamente, de modo que o sistema dinâmico oscilatório é dado pela seguinte equação geral:

N
X ξkn S(uk , uk )
u̇k = F(uk ) + , k, = 1 . . . N, (1)
n6=k
Rn

em que u é o conjunto de variáveis dinâmicas do sistema, F é uma função vetorial das mesmas
variáveis dinâmicas e que se comporta como ciclo limite estável, S é uma função vetorial das
variáveis dinâmicas dos demais nós da rede complexa e que tem o caráter de função perturbador,
R é uma função que gera escala (norma, raio, número total) para os demais nós, k é nó em
questão da rede e n é o nó vizinho a k. O parâmetro ξ é uma constante de intensidade do
acoplamento.
Vamos considerar a função vetorial F análoga ao ciclo limite proposto em Zhao et al (2009):
(
x˙k = φxk + ωyk − αxk (x2k + yk2 ) = F1k (xk , yk )
(2)
y˙k = φyk − ωxk − αyk (x2k + yk2 ) = F2k (xk , yk ),

1462
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Onde uk = (xk , yk ) são as variáveis dinâmicas do vértice k, Fk corresponde ao lado direito


da equação e φ, α e ω são parâmetros constantes sintonizados de modo a se estabelecer um ciclo
limite em cada vértice k.
Quanto ao campo perturbador S, consideramos uma equação não-linear expressa por:

 
xk xn + xk y n
S= (3)
y k xn + y k y n

A função escala R é proposta pela seguinte expressão:

p
Rn = x2n + yn2 (4)

Dessa forma, o modelo geral proposto é expresso pelo seguinte sistema:


 N
 2 2
X ξkn xk (xn + yn )
x˙ = φx + ωy − αx (x + y ) +

k k k k

 k k 1


n6=k (xn + yn ) 2
N
(5)

 2 2
X ξkn yk (xn + yn )
 y˙k = φyk − ωxk − αyk (xk + yk ) + .


 1
n6=k (x n + y n ) 2

O modelo (5) será resolvido computacionalmente utilizando o método de Monte Carlo. Para
isso, incorporamos uma dinâmica estocástica, considerando um processo discreto que ilustra
como ocorrerá a evolução do sistema a partir das taxas de transições, como podemos ver na
tabela abaixo:

Tabela 1- Probabilidades de transições.

Transições Probabilidades 0 ≤ p < 1



xk −→ x 1 P p < R1k F1k (xk , yk )
P p < R1k F2k (xk , yk )

yk −→ y 1
P p < Rk1Rn S(xk , yk , xn , yn )

xk −→ x 1
P p < Rk1Rn S(xk , yk , xn , yn )

yk −→ y 1

As taxas acima tornam-se as taxas de transição condicional do processo estocástico. De


modo que, representa o sinal da função associada no processo, xk , yk nas duas primeiras
taxas de transição dependem do sinal de F1k e F2k , respectivamente, ou seja, se o valor da
função F1k for positivo xk , será adicionado 1, se for negativo xk é retirado 1. As duas últimas
taxas de transições correspondem à perturbação S, de modo, que x e y tornam-se agentes livres,
podendo ir de um nó à outro, e suas funções associadas estão descritas em (3). 1463
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. ENTROPIA SHANNON

Entropia é um conceito importante na Termodinâmica Estatı́stica, na Teoria dos Sistemas


Dinâmicos e na Teoria da Informação (Vosgerau, 2016). Na Teoria da Informação, o conceito
de entropia desempenha um papel central, pois a entropia quantifica a quantidade de informação
envolvida no valor do resultado de um processo aleatório (Mishra, 2019).
A teoria matemática do conceito de entropia como medida de incerteza foi estabelecida em
1948 por Claude Shannon no artigo intitulado ”A Mathematical Theory of Communication”. A
entropia como medida de incerteza pode ser definida da seguinte maneira: Para uma distribuição
de probabilidade de uma variável aleatória com valores discretos definidos sobre ω ∈ Ω, onde
Ω é uma variável aleatória com m resultados possı́veis e probabilidade P i para os i resultados,
com 1 ≤ i ≤ m. A expressão o usual que representa a entropia de Shannon é dada por:
m
X
H(P ) = − Pi log Pi , (6)
i=1

onde H(P ) é a entropia. Uma propriedade de H(P ) é que é não negativa e assume seu valor
máximo quando P i é igualmente provável, ou seja, P i = m1 e seu valor será zero quando
P i = 1 para um i ∈ {1, 2, . . . , m}.

4. REDE COMPLEXAS

A complexa relação de interação entre indivı́duos no mundo real pode ser descrita abstrata-
mente por uma rede. Na rede, cada nó representa um indivı́duo no sistema, e as interações entre
os indivı́duos podem ser expressas por arestas na rede (Li et al, 2008). Sistemas biológicos
e quı́micos acoplados, redes neurais, espécies em interação social, a Internet e a World Wide
Web são apenas alguns exemplos de sistemas compostos por um grande número de unidades
dinâmicas altamente interconectadas. Na busca de obtenção das propriedades globais de tais
sistemas, pesquisadores têm feito uso ostensivo de rede para nos ajudar a compreender ou pre-
ver o comportamento desses sistemas.

1464
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Devido às inúmeras aplicações surgiu a necessidade de caracterização da topologia da rede


complexa. Neste trabalho selecionamos 4 tipos de modelos de redes complexas para realizamos
nosso estudo: Rede Quadrada (QD), Barabási–Albert (BA), Erdös-Rényi (ER), Watts-Strogatz
(WS). Esse três últimos modelos são muito estudados na literatura, tendo sido detalhados ante-
riormente em (Boccaletti et al, 2006).

5. SIMULAÇÃO

No domı́nio das redes complexas a entropia tem sido constantemente utilizada como uma
medida para caracterizar as propriedades da topologia, bem como a distribuição de grau de
nós, caminhos mais curtos entre pares de nós, objetivando quantificar a informação associada à
localização de endereços especı́fico ou enviar sinais na rede. Vale ressaltar que em nosso estudo
a entropia calculada será do sistema (5) e que estamos interessados em saber o efeito causado
pelo tipo de rede complexa utilizada, de modo que cada nó das redes simuladas corresponde
ao sistema (5). Assim, simulamos o modelo apresentado no sistema (5) nas seguintes redes
complexas e com as configurações descritas pela tabela abaixo:

Tabela 2- Descrição das Redes complexas utilizadas.

Tipo de Rede Ordem da Rede Tamanho da Rede Comprimento Grau médio


Quadrada 100 180 6.67 3.60
Barabási–Albert 100 196 2.97 3.92
Erdõs-Rényi 100 209 3.43 4.00
Watts–Strogatz 100 200 4.02 4.00

De modo que comprimento informado na tabela acima é comprimento médio dos caminhos
mı́nimos, uma medida também usada para caracterizar a topologia de uma rede complexa. Para
as redes apresentadas na tabela acima e para todos os nós das redes utilizamos o sistema (5)
com as seguintes condições iniciais e com valores de constantes:

Tabela 3- Descrição dos condições iniciais e das constantes.

x y ω α φ ξ tempo final
30 0 0.35 0.001 0.75 0.001 45000

1465
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Rede Quadrada (b) Rede Barabási–Albert

(c) Rede Erdös-Rényi (d) Rede Watts-Strogatz

Figura 1- Plano de fase do modelo (5) nos seguintes modelos de redes (a) , (b), (c) e (d).

A Figura 1 apresenta o comportamento das variáveis dinâmicas x e y em um plano de


fase xy, de modo que estão presentes todos os nós das redes complexas descritas na Tabela 2.
Note-se que, apesar do processo estocástico localmente do nó, e da perturbação externa dos
nós vizinhos as redes Quadrada, Erdos-Rényi e Watts-Srogatz apresentaram um ciclos limites
assintoticamente estáveis. Por outro lado, a rede Barabási-Albert, apresentou um nó que fez
com que o comportamento do ciclo limite estável na rede fosse completamente desconfigurado,
saindo da estabilidade.
Após analisamos o comportamento no plano xy, calculamos a entropia do sistema 5 utili-
zando a equação expressa em 6. Como o sistema possui dois estados as variáveis x e y. Para
melhor visualização dos valores da entropia encontrada, apresentamos o histograma abaixo:

1466
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Rede Sem Perturbação. (b) Rede Quadrada. (c) Rede Barabási–Albert.

(d) Rede Erdös-Rényi. (e) Rede Watts-Strogatz.

Figura 2- Valores da entropia das redes descrita na Tabela 2.

À Figura 2, além das redes descritas na Tabela 2, acrescentamos as redes sem perturbação.
Nesse caso as redes não consideram as arestas, ou seja, o efeito do nó vizinho é nulo (ξ = 0).
Observando ainda a Figura 2 percebe-se a existência de uma diferença significativa dos valores
da entropia das redes sem perturbação em relação às redes perturbadas: esse comportamento
está dentro do esperado já que à medida em que o sistema é perturbado gera maior incerteza,
o que acarretará num aumento no valor da entropia. Entretanto não podemos ver se existe
uma diferença significativa dos valores da entropia das redes descrita na Tabela 2 apenas pelo
que mostra a Figura 2. Buscando responder ao questionamento sobre se a topologia da rede
influenciará significativamente nos valores da entropia encontrada, realizamos alguns testes, o
primeiro deles é apresentado pelo boxplot abaixo:

1467
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Boxplot dos valores de entropia calculado das redes: Rede Sem Perturbação, Rede Quadrada,
Rede Barabási-Albert, Rede Erdös-Rényi, Rede Watts-Strogatz.

O boxplot apresentado na Figura 3 sugere que não há diferença significativa entre os va-
lores de entropia encontrados entre as redes com perturbação, já que os boxplots apresentam
uma grande interseção, sendo difı́cil de avaliar se existe uma diferença real entre as topologias
das redes utilizadas no trabalho, embora pareça que exista uma diferença real ainda que pro-
vavelmente seja pequena. Outro ponto importante é um outlier que apareceu na rede BA, foi
o maior valor de entropia encontrado entre todas as redes estudas, foi justamente no hub da
rede BA. Desse modo, a fim de obtermos uma resposta estatı́stica concisa quanto a existência
de diferença da entropia a partir da topologia das redes utilizadas, realizamos o teste de análise
de variância, ANOVA. Para isso, utilizamos como referência (Montgomery, 1997), de maneira
que todas as premissas para a realização do teste ANOVA foram atendidas. De modo que, para
a utilização do ANOVA utilizamos um nı́vel de significância de 5%, o resultado obtido no teste
foi um P-valor de 0,23, ou seja, um valor maior que o nı́vel de significância, assim, estatisti-
camente não podemos rejeitar a hipótese nula de igualdade das médias da entropia encontrada
para a topologia de redes que foram propostas no trabalho.

6. CONCLUSÃO

O conceito entropia está sendo aplicado em diversas áreas do conhecimento, principalmente


para caracterizar o comportamento de processos estocásticos, processos Aleatório, para mensu-
rar o grau de organização ou complexidade de uma rede, uma vez que a entropia representa a
incerteza, ambiguidade e desordem dos processos.

1468
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Neste trabalho, utilizando a entropia de Shannon quantificamos a quantidade de informação


de um sistema dinâmico do tipo ciclo limite estável conectado por diferentes redes complexas.
A contribuição desse trabalho está em mostrar que topologia das redes complexas estudas não
alterou significativamente o valor da entropia média dos nós da rede. Além disso, constatamos
que a existência de hub na rede Barabási-Albert fez com que os valores da entropia calculada
nos nós uma tivessem uma considerável variação que pode ser ilustrada na tabela abaixo:

Tabela 4- Medidas descritiva dos valores da entropia calculada nas redes apresentada em Tabela 2.

Rede Complexa Média Desvio Padrão variância Skewness Kurtosis


Sem Perturbação 6.02 0.01 0.00 0.39 -0.29
Quadrada 6.86 0.10 0.01 -0.85 -0.21
Watts-Strogatz 6.92 0.16 0.03 0.04 0.05
Erdös-Rényi 6.93 0.30 0.09 0.12 0.48
Barabási-Albert 6.80 0.94 0.88 7.80 69.67

Essa variação do valores de entropia na rede Barabási-Albert devido os hubs, nos faz acreditar-
mos que a retirada do hub presente na rede Barabási-Albert faça com que os valores de entropia
dos nós da rede variem menos. Esse fato é importante pois, várias redes do mundo real, como
por exemplo as Rede Sociais possuem como caraterı́stica a existência hubs, logo esse fato pode
ser utilizado para compreender a disseminação de Fake News.

Agradecimentos

O primeiro autor agradece a Deus, CAPES, CEFET-MG, aos demais autores, familiares e
amigos.

1469
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERÊNCIAS

Boccaletti, Stefano et al. Complex networks: Structure and dynamics. Physics reports, v. 424, n. 4-5, p.
175-308, 2006.
Gómez-Gardenes, Jesús; Latora, Vito. Entropy rate of diffusion processes on complex networks. Physi-
cal Review E, v. 78, n. 6, p. 065102, 2008.
JI, Li et al. Network entropy based on topology configuration and its computation to random networks.
Chinese Physics Letters, v. 25, n. 11, p. 4177, 2008.
Louca, Stilianos. Stable limit cycles perturbed by noise. arXiv preprint arXiv:1506.00756, 2015.
MISHRA, Saurabh; AYYUB, Bilal M. Shannon entropy for quantifying uncertainty and risk in econo-
mic disparity. Risk Analysis, v. 39, n. 10, p. 2160-2181, 2019.
Montgomery, Douglas. Montgomery Design and Analysis of Experiments. 1997.
Nakao, Hiroya et al. Effective long-time phase dynamics of limit-cycle oscillators driven by weak colo-
red noise. Chaos: An Interdisciplinary Journal of Nonlinear Science, v. 20, n. 3, p. 033126, 2010.
Pietras, Bastian; Daffertshofer, Andreas. Network dynamics of coupled oscillators and phase reduction
techniques. Physics Reports, v. 819, p. 1-105, 2019.
Schleimer, Jan-Hendrik; Stemmler, Martin. Coding of information in limit cycle oscillators. Physical
review letters, v. 103, n. 24, p. 248105, 2009.
Vosgerau, Roberto Antonio et al. Análise da Entropia em Redes Complexas. 2016.
Zhao, Huaizhong; Zheng, Zuo-Huan. Random periodic solutions of random dynamical systems. Journal
of Differential equations, v. 246, n. 5, p. 2020-2038, 2009.

ANALYSIS OF THE OSCILLATORS SYSTEM ENTROPY IN COMPLEX NETWORKS.

Abstract. The dynamics of coupled oscillators arouses interest in several areas of knowledge,
due to their numerous applications. A characteristic problem in its analysis is to find dyna-
mic characteristics, such as synchronization, transition to chaos, the properties of oscillators,
and coupling. Recently, several studies aimed to study the properties of phase synchronization,
based on the hypothesis that they would play an important role in the transfer of information
within a network. Because of the complexity generated from the definition of phase dynamics, in
this work we seek a simpler approach to infer causality between processes connected in complex
networks when measuring the flow of information between network vertices, in terms of infor-
mation entropy. The processes used consist of dynamic systems of the type stable periodic limit
cycles system. The information flow is measured in different topologies of complex networks.
The networks exhibited different distributions of information entropy.

keywords :Shannon’s Entropy, Dynamic Systems, Oscillators, Complex Networks.

1470
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

EVALUATION OF THE USE OF LIGNOCELLULOSIC FIBERS IN


REPLACEMENT OF SYNTHETIC FIBER IN POLYMER HYBRID COMPOSITES

Luciano Monteiro Almeida1 – luciano.almeida@itec.ufpa.br


Roberto Tetsuo Fujiyama1 – fujiyama.ufpa@gmail.com
Sérgio Neves Monteiro2 – snevesmonteiro@gmail.com
Lucas de Mendonça Neuba2 – lucasmneuba@gmail.com
Alisson Clay Rios da Silva3 – alissonrios@ufpa.br
Verônica Scarpini Candido3 – scarpini@ufpa.br

1
Universidade Federal do Pará, Instituto de Tecnologia – Belém, PA, Brazil
2
Instituto Militar de Engenharia, Departamento de Ciência e Tecnologia - Rio de Janeiro, RJ, Brazil
3
Universidade Federal do Pará, Faculdade de Engenharia de Materiais - Ananindeua, PA, Brazil

Abstract. The possibility of replacement of the synthetic fibers by lignocellulosic fibers in


composites is very advantageous, because it has low cost for manufacturing and it allows to
design sustainable materials. That way, this work targets to evaluate the tensile behavior of
polymer hybrid composites reinforced with fiberglass, raffia and jute. The composites with
woven fabric orientation 0º/0º/0º of glass/glass/glass (G/G/G), glass/jute/glass (G/J/G) and
glass/raffia/glass (G/R/G) were produced and then tested according to standards ASTM
D3039. The results displayed that partial replacement of the lignocellulosic fibers reduced
tensile strength however, even though with a decrease of this property, the results are
resemble to those found in the literature.

Keywords: Composites, Lignocellulosic fibers, Replacement

1. INTRODUCTION

The Research and applications of new materials in society, especially those that demand
the call for technological innovation and ecological balance, have been increased in recent
decades. In relation to the basic constitution of these materials, known as composite
materials, its formation occurs from the conjugation or union of one or more elements with
desired characteristics not obtained with the use of a single constituent element isolated from
this material (Hill, 2010; Leão, 2008; Nirma, 2015).
In this scenario, the polymeric composites reinforced with natural lignocellulosic fibers
gain attention due to specific characteristics such as low density, attractive cost and
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1471
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

profitability, adding to these peculiarities, there are also the reinforcements of renewable and
biodegradable sources (Baykus, 2015; Dittember, 2012; Joshi, 2004).
The hybridization method of natural lignocellulosic fibers with glass fibers is a strategy
to improve the mechanical properties of laminated polymeric composites with
reinforcements lignocellulosic fibers (John; Thomas, 2008), being that the degree at
reaching the resistance depends of the design and building of the composite material
(Idicula, 2009; Nayaki, 2010).
The jute and raffia fibers investigated in this research they are used by local communities
in the Brazilian amazon region for various textile applications such as yarn, fabric and
nonwoven production and other artifacts and have become one of the main economic
activities of riverside communities in the region (Oliveira, 2010). The Jute yarns were
purchased from the trade of City of Belém (Pará), in the flat woven fabric form,
manufactured by the textile company of Castanhal, as well as loose yarns of raffia and glass
unidirectional filaments in the form of bidirectional fabric. Thus, this work aims to evaluate
the tension mechanical behavior and main fractographic aspects of polyester matrix
composites reinforced by non-hybrid and hybrid laminates with fabric orientation 0º/0º/0º of
glass/glass/glass (G/G/G), glass/jute/glass (G/J/G) and glass/raffia/glass (G/R/G).

2. MATERIALS AND METHODS

2.1 Material preparation

The jute, raffia and glass yarms were fabricated in on the loom. The weaving process for
the manufacture of the laminated, was made the unidirectional alignment of the jute yarns,
raffia and glass. Then, were cut to the size of the wooden mold of dimensions of 280 x 140
x 28 mm and subsequently, the masses of these and the polyester matrix were measured on
a semi-analytical balance with an accuracy of 0.01 g, in order to have control of their
respective mass fractions in the composite.
The unidirectional fabrics of jute and raffia were placed straight in the electric oven at
temperature 75ºC, for 7 minutes to remove moisture. The distribution occurred from of
homogenization of a thin layer 8g of unsaturated terephthalic polyester resin with the curing
agent methyl ethyl ketone peroxide (MEKP) (PERMEC D-45) in the ratio de 0,7 % (v/v)
around the surface of the transparent polyester films demarcated on the wooden mold,
providing a high-quality surface finish to laminated.
Afterwards, were deposited the quantities 61, 24 and 20 g of resin on the jute laminated,
glass and raffia, respectively. These quantities were sufficient for the polymeric matrix to
involve the constituents satisfactorily, providing to improve and control surface wettability
of the fibers
The fabrics were placed on top of each other, constituting a 03 (three) layers for each
manufactured laminated composite with fabric orientation 0º/0º/0º of glass/glass/glass
(G/G/G), glass/jute/glass (G/J/G) and glass/raffia/glass (G/R/G). Posteriorly, the
manufactured laminated, were conducted to the hydraulic press for the compression molding
at room temperature de 25±3ºC, under pressure of 500 kg for 120 minutes.
After such a procedure, the manufactured laminated composites were stored between the
molds under a level surface, because to avoid warping. After curing, the composites were
removed from the wooden mold.

.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1472
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Tensile test

In accordance with ASTM D3039 Standard, 07 (seven) specimens were tested for each
type of manufactured laminate, in an universal testing machine (AROTEC ®), model WDW-
100E, with capacity of 10 tonnes, 5kN Load Cell and with a load rate of 2 mm/min.

2.3 Fractographic aspects

The fracture surfaces of each sample were analyzed to verify the main failure
mechanisms. The analyzes were made using a high resolution photographic camera on the
surface of the fractured sections.

3. RESULTS AND DISCUSSIONS

3.1 Tensile test

The Stress-strain curves of different laminated composites are shown in Figure 1. It’s
observed that the blue curve of the composite (G/G/G) has a tendency to linear behavior,
typical of most composites with thermoset polymer matrices and glass synthetic fibers
(Barros, 2006).
The rosea curve of the composite (G/R/G) reveals the slope at a certain point. Probably,
this characteristic occurred from the first failure of the raffia laminate having the least strain
in relation to the unidirectional laminated glass fiber yarns. Finally for (G/J/G), the
characteristic of the curve occurred from the first failure of the jute fiber yarns laminated,
having the least strain in relation to the unidirectional laminated glass fiber yarns (Barros,
2006).

350
GGG
GRG
300
GJG

250
Stress (MPa)

200

150

100

50

0
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0
Strain (%)

Figure 1 - Stress–strain curve.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1473
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 1 Tensile strengths of samples

Samples Tensile strength (MPa)


GGG 346,0539,67
GRG 249,7154,66
GJG 180,9319,67

The tensile strengths of the composites are observed in Table 1. The greater tension
property of 346.05 MPa is seen for the (G/G/G) composite in relation to (G/R/G) and (G/J/G),
because they are synthetic fibers and they have good properties and affinity with the polyester
matrix (Gibson, 2012).
Moreover, it appears that the presence of jute in the laminate (G/J/G) leads to a reduction
in tension, which is 180.93 MPa, 47.72% lower, compared with the laminate (G/G/G).
Whereas the presence of raffia to the laminate (G/R/G) showed a stress of 249.71 MPa,
38.58% less than the laminate (G/G/G). It is interesting to note that the results of partial
substitutions of synthetic fibers by natural lignocellulosic fibers in hybrid laminates were
considered satisfactory, compared to the glass/glass/glass laminate (G/G/G) (Gibson, 2012).

3.2 Fractographic aspects

The Fig. 2a shows the characteristic of XGM damage normalized, explosive, gauge
length and in the middle, with tearing and total rupture of the glass fibers, with preferential
cracks propagation in the direction of the inner layers towards the outer layers of the
manufactured laminate (G/G/G). The Fig. 2b of the composite (G/R/G) describes the fracture
mechanism evidenced by the normalized XGM damage characteristic, that is, explosive,
gauge length and in the middle, with tearing and total rupture of the raffia fibers, with
preferential cracks propagation in the direction of the inner layers of raffia towards the glass
fibers outer layers of the manufactured laminate. Finally, The Fig. 2c of the composite (G/J
/G) is evidenced by the XGM normalized damage characteristic, that is, explosive, gauge
length and in the middle, with tearing and total rupture of the glass fibers, rupture of the jute
fibers with preferential cracks propagation in the direction of the jute inner layers towards the
glass fibers outer layers of the manufactured laminate (ASTM, 2014).

Figure 2 - Fracture aspect of composites


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1474
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. CONCLUSIONS

The effects of replacing synthetic glass fibers by natural lignocellulosic jute and raffia
fibers were studied. The laminated glass/glass/glass (G/G/G), show better results of tensile
strength, due to their best affinity with the polyester matrix, as was verified by several
authors. It was verified that the presence of raffia and jute in the (G/R/G) and (G/J/G)
laminated influenced the decrease in the tensile property of 38.58% and 47.72%,
respectively, in relation to the laminate (G/G/G). It is interesting to note that the results of
partial substitutions of synthetic fibers by natural lignocellulosic fibers in hybrid laminates
were considered satisfactory in relation to the researched literature, in comparison to the
glass/glass/glass laminate (G/G/G).

Acknowledgements

The authors are grateful for the support of the Federal University of Pará (UFPA),
Federal Institute of Education, Science and Technology of Pará (IFPA) by availability of
using its laboratories and equipments to perform tests and the Capes in the development of the
research.

REFERENCES

Leão, MA (2008), “Fibras de licuri: um reforço vegetal alternativo de compósitos poliméricos”, Tese de M.Sc.,
UFRN.
Hill, C., Hughes, M (2010), “Natural fiber reinforced composites: opportunities and challenges”, Journal of
Biobased Materials and Bioenergy 4(2):148-1586.
Nirma, U, Jamil, MMH., Ahmad, M (2015), “A review on tribological performance of natural fibre polymeric
composites”, Tribol Inter 83: 77-104
Joshi, SV, Drzal, LT, Mohanty, AK (2004) Arora, S, “Are natural fiber composites environmentally superior to
glass fibre reinforced composites”. Composites Pat A: Applied Science Manufacturing 35(3): 371-376
Dittenber, D.B, Gangarao, HVS (2012) “Critical Review of Recent Publications on Use of Natural Composites
in Infrastructure”. Composites: Part A, Applied Science Manufacturing, 43(8): 1419-1429
Baykus, O, Aysenur, M, Mehmet, D (2015) “The effect of pre-impregnation with maleated coupling agents on
mechanical and water absorption properties of jute fabric reinforced polypropylene and polyethylene
biocomposites”. Journal of Composite Materials 50 (2): 257-267
John, M J, Thomas, S (2008), “Biofibres and biocomposites”, Carbohydrate polymers 71(3): 343-364
Idicula, M, Joseph, K, Thomas, K (2009), “Mechanical Performance of Short Banana/Sisal Hybrid Fiber
Reinforced Polyester”. Journal of Reinforced Plastics and Composites 29 (1):12-29.
Nayak, SK., Mohanty, S, Samal, SK (2010), “Influence of interfacial adhesion on the structural and mechanical
behavior of PP-banana/glass hybrid composites”. Polym Compos 31 (7): 1247-1257.
Oliveira, IRC (2013), “Propriedades mecânicas, físicas e químicas de compósitos cimentícios reforçados com
fibras longas de juta e de malva”. Dissertação de Mestrado. Manaus, Universidade Federal do Amazonas
Barros, ARF (2006), “Compósitos híbridos: desenvolvimento de configuração e efeitos de umidificação”.
Dissertação (Mestrado em Engenharia Mecânica). Natal, Universidade Federal do Rio Grande do Norte
Gibson, RF (2012), “Principles of composite material mechanics”. CRC Press ed.3
American Society for Testing and Materials (2014). “ASTM D3039/D3039M − 14: standard test method for
tensile properties of polymer matrix composite materials”. USA

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1475
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ANÁLISE DE ERRO RELATIVO MÉDIO A PARTIR DO MÉTODO DE RUNGE


KUTTA COM AUXILIO DA LINGUAGEM PYTHON

Thiago Ferro de Oliveira1 - thiago.oliveira@ceca.ufal.br


Rinaldo Vieira da Silva Júnior2 - rinaldo.junior@arapiraca.ufal.br
1 Universidade Federal de Alagoas, Câmpus de Engenharias e Ciências Agrárias - Rio Largo, AL, Brasil
2 Universidade Federal de Alagoas, Câmpus Arapiraca Sede - Arapiraca, AL, Brasil

Abstract. A utilização de ferramentas computacionais vem crescendo ao longo dos anos


abrangendo diferentes áreas, tendo a capacidade de facilitar e agilizar desde cálculos
matemáticos até a resultados médicos, viabilizando uma solução mais rápida com menor risco
de erros com supervisão de profissionais capacitados. O presente estudo aponta o uso da
linguagem de programação Python para resolução de equações diferencias ordinárias a partir
do método de Runge Kutta de quarta ordem.

Keywords: Runge Kutta, Quarta Ordem, Métodos Computacionais, Python.

1. INTRODUÇÃO

Segundo (Chapra,2008), os métodos de Runge Kutta(RK) são os métodos para a resolução


de equações diferencias ordinaris onde conseguem resolver com maior exatidão de junção de
equações diferenciais ordinárias (EDO) sem a nescessidade de derivadas de ordem superior, a
partir de estudos recentes ( Oliveira e Júnior, 2019), é visto facilitação do ensino e apredizagem,
e ainda atenuação da complexidade dos problemas com a resolução de cálculos matemáticos e
gráficos de maior nı́vel e precisão a partir de ferramentas computacionais. No presente estudo
utilizamos o algoritimo para a verificação do erro médio relativo através da linguagem python
no método de RK de quarta ordem.

2. METODOLOGIA

Para o presente estudo, foi utilizado o método de RK de quarta ordem para resolução das
equações (1) e (2), com condições iniciais de x = 0.0 e y(0) = 1, com o passo (h) de 0.1
através da linguagem de programação pyhton.
y1 = 2 ∗ cosh(x[i]) + 4 ∗ (x[i]) (1)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1476
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

y2 = 2 ∗ sinh(x[i]) + 4 (2)

3. RESULTADOS E CONCLUSÕES

Como resultado do algortimo observa-se na Figura 1 os erros relativos médios (1) e (2), que
são respectivamente: 0.601488 e 0.583596.

Figure 1- Resultado dos erros relativos médio das equações (1) e (2).

A partir o êxito observado nesta pesquisa, a mesma terá continuidade para resolução e
analise de diferentes equações parciais.

REFERENCES

Chapra, Steven C. Métodos numéricos para engenharia. 5. ed. São Paulo, SP: McGraw-Hill, 2008. xxi,
809 p. ISBN 9788586804878.
Oliveira, T. F. de.;Júnior, R. V. da S. FERRAMENTA JUPYTER NOTEBOOK
NO ENSINO DO CÁLCULO INTEGRAL. In: Anais do I ERMAC/NE. Juazeiro(BA) UNIVASF,
2019. Disponı́vel em: ¡www.even3.com.br/anais/IERMACNE/212987-FERRAMENTA-JUPYTER-
NOTEBOOK-NO-ENSINO-DO-CALCULO-INTEGRAL¿. Acesso em: 16/08/2020 14:32

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1477
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

STUDY OF THE PHYSICAL-MECHANICAL PROPERTIES OF CERAMIC MASSES


INCORPORATED WITH GROG

Sergio Neves Monteiro1 – snevesmonteiro@gmail.com


Artur Camposo Pereira1 – camposo.artur@gmail.com
Luis Sérgio Peixoto Pessanha2 – lsppessanha@yahoo.com.br
Israel Nelo Nunes2 – nunes-israel12@gmail.com
Jonas Alexandre2 – jonasuenf@gmail.com
Afonso Rangel Garcez de Azevedo2 – afonso.garcez91@gmail.com
1
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brasil.
2
Universidade Estadual do Norte Fluminense - UENF; Civil Engineering Laboratory; Alberto Lamego
Avenue, 2000 - Parque California, Campos dos Goytacazes - RJ, 28013-602, Brazil

ABSTRACT: Residues from the ceramic industries require appropriate disposal sites,
generating waste, waste of raw materials and, where the disposal site is improper,
environmental problems. Therefore, it is necessary to study the reuse of these wastes, both for
economic and environmental purposes. Thus, the reuse of grog, residue from the disposal of
ceramic materials, is possible through its incorporation in ceramic masses to produce new
materials (blocks, bricks, tiles, etc.). The objective of the present work was to analyze the
influence of grog on ceramic masses, comparing dosages with substitution of 10, 20 and 30% by
mass with a reference trace. For this, tests were carried out, with which properties related to
retraction by drying and firing, water absorption, fire loss, apparent porosity and bending
rupture stress can be obtained. In short, it can be concluded that the use of grog allows the
obtaining of materials with good mechanical resistance, moderate water absorption and good
dimensional properties, proving to be an environmentally friendly and economically viable
alternative.
Keywords: Residue; Ceramic mass; Grog.

1. INTRODUCTION
In a ceramic industry, it is noted that large quantity of ceramic blocks is lost due to
manufacturing defects. On the other hand, more studies and research are being carried out to
make industrial productions as sustainable as possible and to reach increasingly close to zero
waste. When it comes to ceramic products, its constituents are not toxic, but the great generation
of disposal causes economic and especially environmental damage.
The sector of services and industry related to construction, correspond to a large part of the
economy, so investing in ways that optimize and improve the productions will always be valid.
The ceramics industry itself is responsible for large numbers of jobs and resources for the
locations close to its poles. The region of Campos dos Goytacazes - RJ is a leading ceramic
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1478
region of Brazil, with dozens of ceramic industries, so the study on use of their disposal is
extremely valuable to the region through the financial aspects and especially the environmental.
With the optimization of production processes and the technical training of employees, the
production lines tend to reduce their losses. When the ceramic industry is analyzed, because it is
a fragile product, the waste will always exist, both in conformation and in transportation.
Therefore, studying the ways of using the disposal material is a very interesting alternative.
There is a many different of research related to the incorporation of industrial solid waste,
of the most varied types, formats and origins, in civil construction materials. Construction
products, which are tested as replacements for soils, cement and aggregates in mortars, concrete
and even ceramic blocks. The incorporation of the ceramic block residue, called grog, in the
composition of other new blocks, is a feasible solution both in the economic as in the
environmental aspect. Consequently, there is a reduction of the necessary raw material, reducing
extractions and minimizing environmental problems caused by the dumping of the residue in
places not appropriate.
The influence of the grog on the new ceramic part, once it has already been burned, will be
the response of the new firing temperature, which may only act to improve the degree of
packaging and remain inert or, if exposed to higher temperatures than it has been be sintered
with the rest of the material.
In this work an experimental study was carried out observing the effect of the incorporation of
the grog made available by a local ceramics industry in ceramic masses, for the manufacture of
sealing blocks, observing and comparing the values obtained with a trace without the
incorporation of the residue.
The objective of this study was to evaluate the effect of the incorporation of grog in ceramic
masses dosed in different proportions and to analyze the effect of temperature, burning at 850
and 950°C, analyzing the drying and burning retraction properties, water absorption, fire loss,
bulk density and apparent porosity and bending rupture stress.

2. MATERIALS METHODS
For this work, clay and grog were used from the Sardinha ceramics industry, located in
Campos dos Goytacazes - RJ, which is one of the main ceramic poles in Brazil. The grog was
obtained from the disposal of ceramic blocks with a final firing temperature of approximately
850°C.
The grog sample was collected, manually crushed and ground in a ball mill. The clay was
mechanically crushed, after which it was discharged in a porcelain mortar and passed on the
ABNT200 sieve. A small portion of each was separated for analysis, namely X-ray diffraction
and efflorescence (XRD, EDX), differential thermal analysis (DTA) and derivative
thermogravimetry (DTG). For the granulometric characterization, the grog sample, were passed
in the sieve with 0.4 mm opening mesh (ABNT40).

Table 1. Composition of samples.


Composition C0 C1 C2 C3
Clay (%) 100 90 80 70
Grog (%) 0 10 20 30

After measuring the length and mass of the prepared bodies, they were placed for 24 hours
to rest at ambient conditions. After that, they were placed in oven MA033 / 1 at 100°C for 24 h,
and then the length and mass were measured, observing their retraction by drying. From the 30
specimens of each trace, 15 were burnt in a Mufla furnace, model ML 1300, at 850°C and 15 at
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1479
950°C. After burning, the length and mass of the samples were measured, obtaining the values
of retraction by burning and loss to fire.
After burning, 7 specimens of 15 of each trace and firing temperature were separated to be
flexed and the remaining 8 were measured to measure water absorption.
The linear retraction was determined through the initial and final lengths of the specimens
after drying and firing, at temperatures of 850 and 950°C. The apparent porosity and the water
absorption were obtained from the procedures established in NBR 15270-13. The fire loss was
determined from the masses of the test specimens before and after the burning process. The
rupture stress was found through the 3-point bending procedure using a universal press EMIC
model 23-30.

3. RESULTS AND DISCUSSION

3.1 Chemical Composition


According to Table 2, silica (SiO2) in both clay and grog is the main constituent with
percentages of 55.69% and 58.42%, respectively. The alumina (Al2O3) presented in the clay the
percentage 34.59% and 31.47% in the grog. The hematite (Fe2O3) values were close for both
samples. Low levels of alkaline oxides (K2O) and alkaline earths (CaO) were identified. The
grog was obtained from the disposal of ceramic blocks made with the same clay of the study,
this may explain the similarity of the elements and percentages.

Table 2. Chemical composition of clay and grog.


Sample SiO2 Al2O3 Fe2O3 K2O SO3 TiO2 CaO
Clay 55.69 34.59 4.15 1.81 1.64 1.23 0.75
Grog 58.42 31.47 3.17 2.86 1.61 1.23 1.16

3.2 Granulometric Analysis


The fractions of the materials found for the different compositions are shown in Table 3.

Table 3. Fractions of materials.

Boulder Sand
Medium
Thick
Thin

Thin

Clay Silt Clay UCSC* Classification


C3 70 - 0.7 5.5 26.4 37.3 30.2 MH - Silt of high plasticity, elastic silt
C2 80 - 0.3 5.5 16.9 33.3 44.1 MH - Silt of high plasticity, elastic silt
C1 90 - 0.3 4.5 17.7 31.7 45.7 CH – Clay of high plasticity, fat clay
C0 100 1 7.2 16.7 11.8 13.8 49.6 CL – Clay of low plasticity, lean clay
CH 0 - - 0.2 22.1 68.8 9 SM – Silty sand
* Unified Soil Classification System

The granulometric distributions of the different compositions are shown in Figure 1, where it
can be observed that as the percentages of Grog (CH) were added, the percentage of clays
decreased and consequently the silt increased. With the result obtained, it is noticed that the
clay, silt and sand percentages of the compositions have a lower than recommended proportion,
which is 60% of clay, 40% of silt and sand1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1480
Figure 1. Granulometric distribution of compositions.

3.3 Atterberg limit


According to Table 4, it is observed that the material (clay) has high plasticity, however, it
falls within the limit of 10 to 35%2. It is also observed that grog did not present plasticity,
therefore fits as a non-plastic material. For the compositions C1, C2 and C3, the LP results are
respectively 29.3, 30.6 and 26.6, where the lowest LP was obtained for C3.

Table 4. Atterberg limit.

Liquidity Plasticity Plasticity


Series % Clay
Limit Limit Index
C3 70 40.8 26.6 14.2
C2 80 44.8 30.6 14.1
C1 90 43.9 29.3 14.6
C0 100 52.2 27.0 25.2

3.4 Physical-mechanical properties

3.4.1 Water Absorption


NBR 15270-13 has the physical and mechanical requirements in blocks ceramic, the water
absorption index (AA), should be less than 22%. According with Figure 2, which relates the
water absorption, only samples C0, C1 and C2 at 950°C, meet the standard requirements. Note
the tendency of increase of AA with the incorporation of grog and the reduction in AA with the
increase of temperature, a fact already observed4-5. Analyzing the influence of the burning
temperature, 850 and 950°C, on the behavior of the samples, a similarity can be observed in the
results, being the temperature of 950°C which leads to lower AA indices.
The increase of the temperature increases the melting of fusing oxides present in the masses,
with consequent filling of pores, causing a reduction of the AA through the reduction of
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1481
porosity6. With the incorporation of the grog, the AA remains practically constant between C0
and C1, from there to a growth of AA, being the highest value for C3. The incorporation of the
grog leads to an increase of pores, since it has already been sintered, eliminating its interstitial
water and damaging a better agglomeration of the particles.

Figure 2. Water absorption of different compositions.

3.4.2 Linear retraction by drying, by burning and loss to fire


The results of Figure 3 indicate a downward trend in drying retractions (RLS) and burning
(RLQ) according to the incorporation of grog, with the lowest percentage for C3. In relation to
RLS, the addition of non-plastic material (grog) to the ceramic mass reduces its demand for
water and consequent humidity, there is also a lower interaction between grog and water,
causing points of discontinuity in the cohesion forces between the particles, both horizontally
and vertically. The points of discontinuity produce the pores that facilitate the passage of water
from the interior to the surface of the piece, facilitating drying, reducing contractions5-7.
The effect of the incorporation of the grog is not so visible in the RLQ, but it is observed
that for all the compositions, there was an increase of the retraction with the increase of the
burning temperature. This behavior may be related to the higher degree of sintering, generated
by the increase in temperature, causing physical changes and reduction of the volume of the test
specimens, a fact already observed by6. The reduction in retraction is of extreme importance to
control the final dimension of the ceramic part and to combat cracks.

Figure 3. Linear retreatment by drying and burning of the compositions.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1482
The results of Figure 4 demonstrate a reduction of fire loss with increased grog
incorporation. This fact can be due to the grog having been sintered, being this with threshold
temperature at 850°C. The burning temperatures studied are close to that of grog sintering,
reducing the volatility of its components. Its incorporation into the ceramic mass reduces its loss
to the fire. For the different compositions, the increase in temperature did not significantly
influence the fire loss because the decomposition transformations that occur during the heating
and burning stages are possibly outside the temperature ranges studied.

Figure 4. Loss on fire of analyzed samples.

3.4.3 The Flexural Strength


The average values of the bending tensile stress, according to Figure 5, show a downward
tendency of the resistance with the increase of the incorporation of the grog and an increase of
resistance with the increase of the temperature5. The results of the rupture stress analysis are
intrinsically linked to the number of pores in the ceramic body. The increase in the burning
temperature leads to an improvement in the degree of sintering of the particles that make up the
ceramic masses and reduces the porosity by the formation of liquid phase. During this sintering
process, it penetrates the existing pores, densifying the material, improving the resistance by
reducing the porosity6. The incorporation of grog causes a lower availability of material (clay)
that can be glazed, except at temperatures higher than those studied. Thus, there is a decrease in
resistance with increasing incorporation of grog5-8. All the compositions had values higher than
5.5 MPa, recommended value for the tensile stress after sintering in the ceramic blocks9.

Figure 5. Flexural mechanical strength and apparent porosity in specimens the different
compositions.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1483
4. CONCLUSIONS
• The compositions C0 (100% clay and 0% grog), C1 (90% clay and 10% grog), C2 (80%
clay and 20% grog) at 950°C were the only ones to meet the requirements of standard,
regarding the absorption of water, the improvement of this parameter passes through the
increase of the sintering temperature.
• The incorporation of grog, in all cases, led to a reduction of the linear retraction by
drying and the linear retraction by burning, the reduction of these parameters is of
paramount importance in the ceramic industry, since it potentiates the control of defects
(cracks, fissures, warps, deformations, etc.) and the final dimension of the part.
• The increase of the apparent porosity, with the incorporation of the grog, led to a
decrease in the flexural rupture stress, but still, all compositions presented higher values
than those recommended in the literature.
• The use of grog for incorporation in ceramic masses, allows to obtain materials with
good mechanical resistance, moderate water absorption and good dimensional properties
(linear retraction and low burning). It also proves to be an economically viable
alternative, since it reuses a waste, and is efficient for reducing environmental problems
caused by its disposal.

5. ACKNOWLEDGEMENTS
The authors thank UENF and FAPERJ for the structure and financial support, and the
ceramics industry Sardinha, for the supply of clay and grog.

6. REFERENCES
1. Petrucci EGR. Materiais de construção. 10ª Ed. São Paulo: Globo; 1998.
2. Caputo HP. Mecânica dos solos e suas aplicações. Vol 1. 6ª Ed. Rio de Janeiro: Livros
Técnicos e Científicos; 1988.
3. Associação Brasileira de Normas Técnicas – ABNT. NBR 15270-1. Componentes
cerâmicos parte 1: Blocos cerâmicos para alvenaria de vedação - Terminologia e
requisitos”. Rio de Janeiro, RJ; 2005.
4. Demir I., Orhan M. Reuse of waste bricks in the production line. Building Environment.
2003; 38 (12): 1451-1455.
5. Candido VS. Utilização de argilito e chamote de blocos de vedação na composição de
massa de pavimento intertravado cerâmico – adoquim [dissertação de mestrado].
Campos dos Goytacazes: Universidade estadual do norte fluminense – UENF; 2012.
6. Porto VS, Silva MF, Cruz TB, Cavalcanti MSL, Silva CR. Obtenção e avaliação das
propriedades físico-mecânica de massas cerâmicas para grés sanitários utilizando resíduo
de vidro plano em sua composição. Revista Eletrônica de Materiais e Processos. 2012;
7(1): 13-19.
7. Pracidelli S, Melchiades FG. Importância da composição granulométrica de massas para
a cerâmica vermelha. Cerâmica Industrial. 1997; 2(1): 31-35.
8. Gouveia FP, Sposto RM. Incorporação de chamote em massa cerâmica para a produção
de blocos. Um estudo das propriedades físico-mecânicas. Cerâmica. 2009; 55(336): 415-
419.
9. Santos PS. Ciência e Tecnologia de argilas 2ª Ed. São Paulo: Edgard Blücher; 1989.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1484
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

RESPOSTA AO IMPACTO BALÍSTICO DE COMPÓSITOS DE ALUMINA-


UHMWPE IRRADIADOS COM RAIOS GAMA

André Ben-Hur da Silva Figueiredo 1 – abenhur@ime.eb.br


Hélio de Carvalho Vital2 – vital@ctex.eb.br
Ricardo Pondé Weber1 – rpweber@ime.eb.br
Édio Pereira Lima Júnior1 – edio@ime.eb.br
João Gabriel Passos Rodrigues1 – jgabrielp.rodrigues@hotmail.com
Letícia dos Santos Aguilera1 – le_aguilera13@hotmail.com
Priscilla Sousa Melo1 – priscillamello611@ime.eb.br
Vanessa Ermes Santos1 – vanessa_ermess@hotmail.com
Camila Oliveira Baptista1 – camila.oliv.baptista@gmail.com
Danúbia Bordim de Carvalho1 – dan.bordim@gmail.com
Ronaldo Sergio de Biasi1 – rsbiasi@ime.eb.br
1
Instituto Militar de Engenharia, Seção de Engenharia de Materiais, Praça General Tibúrcio, 80,
22290-270, Rio de Janeiro, RJ, Brazil
2
Centro Tecnológico do Exército – Rio de Janeiro, Brazil

Resumo. A absorção de energia em ensaio balístico de compósitos de alumina-polietileno de


ultra alto peso molecular (UHMWPE) com 60, 80 e 90% wt% de alumina submetidos a doses
de radiação gama de 25, 50 e 75 kGy foi investigada. Os testes balísticos foram realizados
em velocidade subsônica em sistema de ar comprimido. Os resultados mostraram que o
compósito com 80% de alumina irradiado com 50 kGy apresenta os melhores resultados
balísticos. Os resultados do teor de gel, calorimetria exploratória diferencial (DSC) e
difração de raios X (DRX) mostraram que este compósito é o que apresenta a maior
concentração de reticulações e a menor fração volumétrica de UHMWPE amorfo. Imagens
de microscopia eletrônica de varredura (MEV) do mesmo compósito mostraram um alto
pullout, sugerindo que a irradiação gama aumenta a adesão entre a alumina e o UHMWPE.

Palavras-chave: blindagem balística, impacto balístico, compósito alumina-UHMWPE,


irradiação gama

1. INTRODUÇÃO

No início do século 21, apesar da ausência de conflitos internacionais na escala das duas
guerras mundiais, conflitos locais e regionais envolvendo diferentes tribos, grupos étnicos,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1485
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

milícias, gangues e traficantes fortemente armados tornaram-se uma séria ameaça em várias
partes do mundo.
Os coletes de proteção balística usam tecido de aramida como uma única camada de
proteção. Esta proteção é limitada a impactos relativamente baixos, munição de até 9 mm. A
proteção contra projéteis de alto impacto requer um sistema blindagem multicamada (SBM)
[1]. Um SBM convencional possui, além do tecido de aramida, uma camada frontal de
cerâmica que absorve a maior parte da energia do impacto, erodindo a ponta do projétil.
Porém, tal proteção aumenta o custo e compromete a mobilidade do soldado devido ao
aumento significativo do peso do colete. Além disso, a camada frontal pode ser fragmentada
ao primeiro impacto, comprometendo sua resistência aos disparos subsequentes.
Os principais materiais cerâmicos usados para proteção balística são alumina (Al2O3),
carbeto de silício (SiC) e carbeto de boro (B4C). A alumina tem sido sugerida para proteção
balística devido às boas propriedades físicas e químicas. No entanto, a baixa resistência à
flexão e baixa tenacidade à fratura significam que o uso de alumina pura para proteção
balística pode levar a uma falha catastrófica. Além disso, a alta densidade, em torno de
4g/cm2, limita seu uso em aplicações onde o peso é fundamental, como coletes balísticos
[2,3].
De acordo com Figueiredo et al. [4], compósitos de alumina-UHMWPE podem render
um bom compromisso entre alta absorção de energia e baixa densidade, sendo o único
problema a baixa adesão entre as partículas de alumina e a matriz polimérica [5]. A adesão
pode ser aumentada pela exposição dos compósitos à radiação gama [6,7], que tem outros
efeitos favoráveis, como aumento da rigidez e estabilidade, conforme relatado por Shafiq. et
al. [8]. Por outro lado, de acordo com Hobbs et al. [9], altas doses de radiação geram
microfissuras que enfraquecem o componente alumina.
O objetivo deste trabalho foi investigar as propriedades da alumina irradiada com
radiação gama-UHMWPE, a fim de determinar a melhor combinação de concentração de
alumina e dose de radiação para aplicações de proteção balística. O UHMWPE é utilizado
para diminuir a densidade e aumentar a resistência à flexão, tornando o escudo mais adequado
para proteção pessoal e evitando fratura após o primeiro tiro [10,11]. Há também um fator
econômico envolvido, visto que o compósito é preparado a uma temperatura relativamente
baixa, 230 oC, enquanto a alumina pura deve ser preparada sinterizando pó de alumina em
altas temperaturas, da ordem de 1400 oC, procedimento de alto custo [12-15].

2. MATERIAIS E MÉTODOS

Os materiais usados foram 60 Mesh Alundum em pó com dureza de 9,25 Mohs (Fisher
Scientific) e UHMWPE Mipelon PM-200 em pó de 10 µm a 30 µm de diâmetro (Mitsui
Chemicals).
Compósitos com diferentes proporções de massa de alumina-UHMWPE foram
preparados por mistura mecânica por 10 min e rotulados A00/00, A00/25, A00/50, A00/75,
A60/00, A60/25, A60/50, A60/75, A80/00, A80/25, A80/50, A80/75, A90/00, A90/25,
A90/50 e A90/75, onde o primeiro número é a concentração de massa de alumina em
porcentagem (00 é uma amostra UHMWPE puro usado para comparação). O segundo número
é a dose de radiação em kGy (00 é a amostra não irradiada). As amostras foram produzidas
em forma de discos de 5 mm de espessura e 51 mm de diâmetro. Os discos foram prensados a
230 oC por 10 min sob uma força de 90 kN e mantidos em formas de alumínio fundido.
A irradiação gama dos compósitos foi realizada usando um irradiador Gammacell 220
Excel com uma fonte Co-60.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1486
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para os testes de balística foi utilizado um rifle Gunpower SSS com supressor de ruído
Padrão Armas. O projétil é de chumbo de calibre 22 com uma massa estimada de 3,3 g. Um
cronógrafo balístico Air Chrony modelo MK3, com precisão de 0,15 m/s, foi utilizado para
medir a velocidade de impacto, e um cronógrafo balístico ProChrono modelo Pal, com
precisão de 0,31 m/s, para medir a velocidade residual.
O rifle de ar foi posicionado a 5 m do alvo, consistindo no disco composto fixado em
uma moldura de alumínio, preso por uma morsa e alinhado perpendicularmente ao rifle. Um
cronógrafo balístico foi posicionado a 10 cm do bico do supressor de ruído e outro foi
colocado a 10 cm atrás do alvo.
A energia absorvida pelo alvo foi calculada usando a equação

Eabs = mp(vi2-vr2)/2 (1)

onde mp é a massa do projétil, vi é a velocidade de impacto e vr é a velocidade residual [16].


Tendo em conta que no caso da proteção individual o peso pode ser um fator importante,
pode-se definir uma figura de mérito dada pela seguinte equação:

FM = Eabs/mc (2)

onde mc é a massa do compósito.

O teor de gel mostra a quantidade de reticulação nas amostras. Foi determinado de acordo
com ASTM D2765 usando um dispositivo Soxhlet [15]. As amostras foram extraídas com
xileno aquecido por 6 h e, posteriormente, lavadas com acetona e secas a 140 oC. O teor de
gel percentual foi determinado usando a seguinte expressão:

Conteúdo de gel = (Wl/Wo) x 100% (3)

onde Wo e Wl são, respectivamente, o peso da amostra antes e depois da extração.

A análise de calorimetria de varredura diferencial (DSC) foi realizada com um


calorímetro Netzch DSC 404 F1 Pegasus. As medidas foram realizadas com aquecimento e
resfriamento de 10 oC min-1 sob nitrogênio (50 mL min-1). As amostras foram aquecidas da
temperatura ambiente a 180 oC e resfriadas a 50 oC e reaquecidas a 180 oC. A temperatura de
fusão e a porcentagem de cristalinidade foram determinadas apenas para a primeira fusão e
cristalização. A porcentagem de cristalinidade Xc foi calculada usando a seguinte expressão:

Xc = ΔHo / ΔHm x 100% (4)

onde ΔHo e ΔHm são, respectivamente, a entalpia de fusão do polietileno cristalino (290 Jg-1)
e a entalpia de fusão da amostra.

As amostras sinterizadas foram caracterizadas por Difração de Raios-X (DRX) em um


difratômetro X'PERT PRO PANalítico, com radiação monocromática (Cu Kα, λ = 1,5406˚A),
passo de 0,05o s-1, tempo por passo 150 s e 2’ entre 10o e 90º. Os padrões de XRD foram
refinados usando o método Rietveld, com a ajuda do software TOPAS Academic versão 4.1.
Após os testes balísticos, as imagens dos compósitos com 80% de alumina foram obtidas
em um FEI Quanta FEG 250 SEM.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1487
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADO E DISCUSSÃO

Todos os tiros penetraram completamente nos discos. Dois disparos foram feitos em cada
experimento e oito experimentos foram realizados para cada composição. Amostras
representativas são mostradas na Figura 1 após o primeiro tiro.
Nenhuma diminuição significativa na absorção de energia foi observada após o primeiro
tiro.
Como o teste foi realizado com as amostras nos suportes de alumínio fundido, o
movimento lateral foi suprimido, reduzindo o dano ao compósito [17,18].

Figura 1 – Amostras A60/00, A60/25, A60/50, A60/75, A80/00, A80/25, A80/50, A80/75,
A90/00, A90/25, A90/50 e A90/75 após o primeiro tiro, organizadas em linhas de cima para
baixo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1488
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Tabela 1 mostra os valores médios da massa do compósito (mc). massa do projétil (mp),
velocidade média de impacto (vi), velocidade média residual (vr), energia de absorção (Eabs) e
fator de mérito (FM) para cada composição. Como esperado, o mc aumenta com o aumento da
concentração de alumina.

Tabela 1 - Resultados médios dos testes balísticos.

COMPÓSITOS mc (g) mp (g) Vi m/s) Vr (m/s) Eabs (J) FM (103 J/kg)


A60/00 16,50 ± 0,10 3,29 ± 0,23 251,51 ± 2,59 219,15 ± 2,91 25,01 ± 0,86 1,52 ± 0,04
A60/25 15,50 ± 0,09 3,27 ± 0,24 250,91 ± 2,68 211,53 ± 1,45 29,73 ± 1,30 1,92 ±0,07
A60/50 17,50 ± 0,12 3,25 ± 0,12 250,98 ± 2,31 216,79 ± 2,74 25,89 ± 0,86 1,48 ± 0,04
A60/75 16,00 ± 0,08 3,27 ± 0,14 251,24 ± 2,57 226,24 ± 2,66 19,44 ± 0,83 1,22 ± 0,05
A80/00 23,18 ± 0,11 3,25 ± 0,13 250,13 ± 2,22 211,91 ± 2,26 28,67 ± 1,04 1,24 ± 0,04
A80/25 25,07 ± 0,13 3,30 ± 0,25 247,66 ± 2,59 212,52 ± 2,63 26,60 ± 0,68 1,06 ± 0,02
A80/50 26,02 ± 0,08 3,27 ± 0,20 248,87 ± 2,66 112,93 ± 8,12 64,96 ± 2,51 2,50 ± 0,09
A80/75 27,50 ± 0,11 3,24 ± 0,21 253,71 ± 2,57 212,52 ± 2,93 31,01 ± 0,70 1,13 ± 0,02
A90/00 31,20 ± 0,08 3,29 ± 0,18 248,39 ± 2,44 202,01 ± 2,75 34,28 ± 0,72 1,10 ± 0,02
A90/25 30,47 ± 0,15 3,29 ± 0,28 248,03 ± 2,93 209,70 ± 2,29 28,92 ± 0,95 0,95 ± 0,03
A90/50 30,57 ± 0,13 3,27 ± 0,18 251,44 ± 2,58 216,71 ± 3,08 26,47 ± 0,89 0,87 ± 0,03
A90/75 29,33 ± 0,09 3,31 ± 0,24 246,53 ± 2,06 208,71 ± 2,74 28,44 ± 0,83 0,97 ± 0,03

A Figura 2 mostra o FM dos compósitos com diferentes concentrações de alumina e


doses de radiação. Percebe-se que o melhor compromisso entre alta absorção de energia e
baixo peso foi apresentado pelo compósito com 80% de alumina irradiado com 50 kGy.

Figura 2 - Fator de mérito de compósitos com concentração de 60%, 80% e 90% de alumina,
não irradiados e irradiados com 25 kGy, 50 kGy e 75 kGy
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1489
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Tabela 2 mostra o teor de gel de UHMWPE, não irradiado e irradiado com gama nas
doses de 25 kGy, 50 kGy e 75 kGy. O maior teor de gel foi para as amostras irradiadas com
uma dose de 50 kGy, sugerindo que a concentração de reticulações é máxima para esta dose
de radiação. A diminuição do conteúdo do gel para uma dose maior de radiação é atribuída à
degradação do UHMWPE, formando radicais livres.

Tabela 2 - Conteúdo de gel de UHMWPE, não irradiado e irradiado com doses de 25 kGy,
50 kGy e 75 kGy.

Amostra Conteúdo de gel (%)


A00/00 91,20

A00/25 97,37

A00/50 100,00

A00/75 99,69

As análises DSC foram realizadas durante a primeira fusão e cristalização. As amostras


irradiadas com 50 kGy apresentaram os maiores valores de cristalinidade, sendo que entre
elas o maior valor foi o da amostra 80/50.

Tabela 3 - Resultados médios de DSC.

Amostras Tonset Tmáx Tend ΔHfusion Crystalinidade


(oC) (oC) (oC) (J/g) (%)
A60/00 128,8 139,4 145,7 53,02 45
A60/25 127,9 139,7 146,3 68,97 59
A60/50 128,6 142,9 152,0 103,10 88
A60/75 128,7 141,4 148,7 77,91 66
A80/00 128,5 140,4 147,5 37,97 65
A80/25 130,3 141,7 148,6 44,36 76
A80/50 129,2 142,1 148,1 56,21 96
A80/75 129,6 140,9 147,4 45,54 78
A90/00 126,8 136,4 143,2 15,17 52
A90/25 130,0 138,5 144,5 21,30 73
A90/50 129,4 139,1 145,6 24,86 85
A90/75 130,9 140,7 147,2 23,38 80

As amostras com 80% de alumina foram investigadas posteriormente devido ao bom


desempenho balístico apresentado pela amostra com 80% de alumina irradiada com 50 kGy.
O objetivo era determinar por que o desempenho balístico aumentou com a dose de radiação
de até 50 kGy, mas diminuiu quando a dose de radiação foi aumentada para 75 kGy.
A Figura 3 mostra os padrões de XRD das amostras A80/00, A80/25, A80/50 e A80/75.
Exceto por um pico largo em pequenos ângulos atribuídos ao UHMWPE amorfo, apenas os
picos de difração de α-alumina e UHMWPE são vistos, mostrando que não houve
transformação de fase devido à irradiação gama.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1490
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Figura 4, pode-se observar que a amplitude de uma banda larga passa por um mínimo
para uma dose de radiação de 50 kGy. Isso sugere que a cristalinidade do UHMWPE aumenta
com o aumento da dose de radiação até 50 kGy, mas diminui para doses de radiação maiores.

Figura 3 - Padrões de XRD de amostras A80/00, A80/25, A80/50, A80/75.

Figura 4 - Padrões de XRD sobrepostos de XRD de amostras A80/00, A80/25, A80/50,


A80/75.

A Figura 5 mostra vistas ampliadas de partes dos padrões de difração apresentados na


Figura 4. No caso do pico de UHMWPE, há um deslocamento significativo para a esquerda
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1491
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

para a amostra submetida a uma dose de radiação de 50 kGy. Isso é atribuído a um


relaxamento devido ao aumento da cristalinidade e é consistente com a diminuição da
amplitude da banda larga na Figura 4. No caso dos picos de alumina, há um deslocamento
para a direita nas amostras irradiadas com 25 e 75 kGy. No primeiro caso, a compressão pode
ser devida à perda de água e no segundo a microtrincas induzidas por radiação.

Figura 5 - Linhas de XRD selecionadas de UHMWPE e α-alumina.

A Figura 6 é uma imagem SEM do pó de alumina, mostrando a forma irregular dos grãos,
o que melhora a rigidez dos compósitos.

Figura 6 - Imagem SEM do pó de alumina.

Quando ocorre o impacto, ondas de choque compressivas se propagam ao longo da


espessura da amostra e são responsáveis por diversas fissuras cuja interação cria
posteriormente uma zona de dano cônica com ruptura dúctil e frágil, semelhante à observada
em revestimentos cerâmicos [19]. A Figura 7 mostra a zona de dano cônico na face distal de
uma amostra A80/50.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1492
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7 - Imagem ótica mostrando a zona de dano cônico na face distal de uma amostra
A80/50.

A Figura 8 mostra as microtrincas nas faces distais das amostras A80 e A80/50 após o
primeiro impacto. A principal diferença entre as Figuras 7a e 7b é que há evidências de
pullout nas amostras irradiadas como consequência do aumento da adesão entre alumina e
UHMWPE, como também mostrado na Figura 9.

Figura 8 - Imagens de MEV, após o primeiro impacto, da face distal (a) de uma amostra
A80/00 mostrando as microtrincas sem pullout e (b) de uma amostra A80/50 mostrando
microtrincas com pullout.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1493
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 9 - Imagens de MEV, após o primeiro impacto, (a) da face distal de uma amostra
A80/50, mostrando a região de contato entre alumina e UHMWPE, e (b) o aumento da mesma
região, mostrando o pullout de UHMWPE.

4. CONCLUSÃO

Os testes balísticos foram realizados em compósitos de alumina-UHMWPE com radiação


gama. O compósito com 80% de alumina submetido a uma dose de radiação de 50 kGy foi o
que apresentou as melhores propriedades balísticas. Os resultados de conteúdo de gel, DSC,
XRD e SEM sugerem que isso se deve a três efeitos da radiação gama: um aumento da
extensão da reticulação, uma diminuição da fração de volume do UHMWPE amorfo e um
aumento da adesão entre alumina e UHMWPE. Os resultados também mostraram que o
aumento da dose de radiação acima de 50 kGy tem efeitos adversos, provavelmente devido à
produção de um grande número de microfissuras que levam a amorfização das partículas de
alumina e à degradação do UHMWPE, gerando radicais livres.

REFERÊNCIAS

[1] LUZ, F.S., JUNIOR, E.P.L., LOURO, L.H.L., MONTEIRO, S.N., Ballistic test of multilayered armor with
intermediate epoxy composite reinforced with jute fabric, Materials Research, v. 18, p. 170-177, 2015.

[2] CAVALLARO, P.V., Soft body armor: an overview of materials, manufacturing, testing, and ballistic impact
dynamics, 1 August 2011, NUWC-NPT Technical Report 12,057

[3] CARLUCCI, D.E.; JACOBSON, S.S. Ballistics: theory and design of guns and ammunition. Boca Raton
[Florida]: CRC, 2008. 496p. ISBN 1420066180.

[4] FIGUEIREDO, A.B.S, LIMA JR, E.P., GOMES, A.V., MELO, G.B.M., MONTEIRO, S.N., de BIASI, R.S.,
Response to ballistic impact of alumina-UHMWPE composites, Mat. Res., v. 21(5): e20170959, 2018.

[5] MADHU, V., RAMANJANEYULU, K., BHAT, T. B., GUPTA, N. K., Na experimental study of penetration
resistance of ceramic armour subjected to projectile impact, Int. J. Imp. Eng., v. 32, p. 337-350, 2005.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1494
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

[6] NEVES J. C., SILVA, G. G., MENDES, M. W. D., BRESSIANI, A. H., BRESSIANI, J. C., GARCIA, F. G.,
Efeito da irradiação gama nas propriedades mecânicas e térmicas de redes DGEBA/amina cicloalifática com
potencial para aplicações médicas, Polímeros, v. 23, n. 6, p. 814-822, 2013.

[7] LIMA, I. S., ARAÚJO, E. S., Efeitos da radiação gama na estrutura e nas propriedades do poliestireno. In:
4'th Meeting on Nuclear Appplications, 1997, Poços de Caldas. Associação Brasileira de Polímeros-ABPol.
Rio de Janeiro: Divisão gráfica SG-6 / UFRJ, v. 2. p. 137-139, 1997.

[8] SHAFIQ, M., MEHMOOD, M.S., YASIN, T., On the structural and physicochemical properties of gamma
irradiated UHMWPE/silane hybrid, Mat. Chem. Phys, v. 143, p. 425-433, 2013.

[9] HOBBS, L. W., CLINARD JR., F. W., ZINKLE, S. J., EWING, R. C., Radiation effects in ceramics, J. N.
Mat., v. 216, p. 291-321, 1994.

[10] COUTINHO, F.M.B., MELLO, I.L., SANTA MARIA, L.C., Polietileno: Principais Tipos, Propriedades e
Aplicações, Polímeros: Ciência e Tecnologia, v. 13, p. 1-13, 2003.

[11] SENATOV, F.S., GORSHENKOV, M.V., TCHERDYNTSEV, V.V., KALOSHKIN, S.D.,


SUDARCHIKOV, V.A., Fractographic analysis of composites based on ultra high molecular weight
polyethylene, Composites: Part B, v. 56, p. 869-875, 2014.
[12] MEDVEDOVSKI, E., Ballistic performance of armor ceramics: Influence of design and structure – part I,
Ceramics International, v. 36, p. 2103-2115, 2010.

[13] MEDVEDOVSKI, E., Ballistic performance of armor ceramics: Influence of design and structure – part II,
Ceramics International, v. 36, p. 2117-2127, 2010.

[14] MEDVEDOVSKI, E., Lightweight ceramic composite armor system, Advances in Applied Ceramics, v.
105, p. 241-245, 2006.

[15] SPIEGELBERG, S. H., Chapter 24: Characterization of Physical, Chemical, and Mechanical Properties of
UHMWPE, UHMWPE Biomaterials Handbook (Second Edition), p. 355-368, 2009.

[16] AZEVEDO, G., ARAGÃO, J.C.T., Apontamentos sobre balística, Rio de Janeiro, 2010.

[17] SHERMAN, D., Impact failure mechanism in alumina tiles on finite thickness support and the effect of
confinement, Int. J. Impact Eng., v.24, p. 313-328, 2000.

[18] BITTENCOURT, B.A., ELLWANGER M. V., NASCIMENTO, W. A., BELCHIOR, L. F., ARAÚJO, E.
M., MELO, T. J. A., Moldagem por compressão a frio do polietileno de ultra alto peso molecular. Parte 1:
Influência do tamanho, distribuição e morfologia da partícula na densidade a verde, Polímeros: Ciência e
Tecnologia, v. 19, n. 3, p. 224-230, 2009.

[19] BRESCIANI, L.M., MANES, A., GIGLIO, M., Na analytical model for ballistic impacts against ceramic
tiles, Ceram. Int., v. 44, p. 21249, 2018.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1495
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

RESPOSTA AO IMPACTO BALÍSTICO DE TECIDO DE ARAMIDA


IMPREGNADO COM FLUIDO NÃO-NEWTONIANO CONTENDO
NANOPARTÍCULAS DE Pb0,1Cu0,9Fe2O4

Danúbia Bordim de Carvalho – dan.bordim@gmail.com


Vanessa Ermes Santos – vanessa_ermess@hotmail.com
Camila Oliveira Baptista – camila.oliv.baptista@gmail.com.br
Ronaldo Sérgio de Biasi – rsbiasi@ime.eb.br
André Ben-Hur da Silva Figueiredo – abenhur@ime.eb.br

Instituto Militar de Engenharia – Rio de Janeiro, RJ, Brasil

Resumo. A aplicação do fluido espessante por cisalhamento (FEC) em tecidos de aramida


melhora a resposta ao impacto balístico da blindagem, uma vez que a viscosidade do FEC
aumenta drasticamente durante o impacto. O tecido de aramida é comumente usado na
aplicação em blindagens balísticas, por apresentar baixa densidade, elevada resistência e
alta absorção de energia. Neste trabalho foi avaliada a resposta ao impacto balístico de uma
camada de tecido de aramida impregnada para cada FEC produzido por nanopartículas de
Pb0,1Cu0,9Fe2O4 em polietilenoglicol (PEG-200) nas concentrações em massa de 40%, 45%,
50%, 55%, 60% em triplicata. As nanopartículas foram produzidas pelo método de
combustão com razão glicina/nitrato de 1,0. Os ensaios balísticos foram realizados em
velocidade subsônica utilizando um sistema de ar comprimido para o lançamento dos
projéteis. Os resultados indicaram que o compósito com concentração em massa de 55% foi
o que apresentou maior energia de absorção entre todas as amostras. As curvas de
viscosidade dos fluidos mostram um aumento da viscosidade com a redução da velocidade de
rotação nas amostras com as concentrações mais altas.

Palavras-Chave: Ferrita de cobre e chumbo, Fluido não-newtoniano, Viscosidade, Efeito


Jahn-Teller

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1496
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

As nanopartículas tem atraído atenção consideravelmente nos últimos anos, em termos


de aplicações tecnológicas devido as suas propriedades físicas e químicas excepcionais
(HEUSER et al., 2007; XUPING; YONGLAN, 2005).
A descoberta de materiais têxteis avançados, como o nylon, a fibra de vidro e o kevlar
durante o século XX, permitiu o desenvolvimento de armaduras corporais a nível de
blindagem balística com um peso consideravelmente reduzido (CAVALLARO, 2011).
As fibras de reforço mais comuns usadas em materiais compósitos para proteção
balística são: de aramida, de polietileno de alto peso molecular, de vidro e carbono. Estruturas
de proteção feitas de materiais compósitos de alta resistência são largamente utilizadas para
proteção balística de veículos pessoais e militares (SAPOZHNIKOV; KUDRYAVTSEV;
ZHIKHAREV, 2015).
Com o objetivo de aperfeiçoar a maleabilidade e reduzir o peso do material balístico,
muitos pesquisadores estão em busca do desenvolvimento das chamadas armaduras líquidas,
acarretando na mesma eficiência das armaduras contemporâneas. Estes materiais são
desenvolvidos a partir da impregnação de fibras poliméricas de elevada resistência com
fluidos não-newtonianos (YILDIZ, 2013; DECKER et al., 2007).
De acordo com Lee et al (2003), o desempenho da penetração balística de um material
compósito composto por tecido de aramida impregnado com fluido não-newtoniano, gerou
um aprimoramento significativo na resistência à penetração balística devido à adição do
fluido, sem a perda da flexibilidade do material.

3. MATERIAIS E MÉTODOS

Amostras com estequiometria PbxCu1-xFe2O4 (x=0,00; 0,10; 0,20) foram preparadas pelo
método de combustão utilizando Fe(NO3)3.9H2O com 98% de pureza, C2H5NO2
(combustível) com razão molar glicina/nitrato de 1,0 contendo 98,5% de pureza,
Cu(NO3)2.3H2O e Pb(NO3)2.
Os nitratos e a glicina foram pesados, misturados e diluídos em água deionizada,
posteriormente a solução foi colocada em uma placa de aquecimento, na qual a água foi
evaporada a 100ºC e após a total evaporação, ocorreu uma ignição instantânea, exotérmica e
autossustentável, ocasionando a queima no material por completo.
A combustão do material formou uma espuma e após a maceração manual com auxílio de
gral e pistilo, formou-se um pó, em que foi utilizado na preparação do compósito, que
posteriormente foi aplicado no tecido de aramida, utilizado nos ensaios balísticos.

3.1. Produção do fluido não-newtoniano e impregnação na aramida

Para a produção do fluido foram utilizados PEG 200 com 98% de pureza, álcool etílico
de 98% de pureza e o tecido de aramida com espessura de 0,28mm e massa específica de
210g/m2.
Foram produzidas cinco misturas de Pb0,1Cu0,9Fe2O4 com PEG 200, nas proporções em
massa de Pb0,1Cu0,9Fe2O4 de 40%, 45%, 50%, 55% e 60%. As misturas foram submetidas a
ultrassom de 50W e 40kHz por 30 minutos, para reduzir o tamanho das partículas. Cada
mistura foi diluída em etanol, para uma melhor homogeneização.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1497
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Das soluções resultantes, foram retirados 15ml e depositados sobre quadrados de 7cm2
de aramida, seguindo assim com a impregnação do tecido com o fluido produzido. Por fim, as
amostras foram prensadas por 15 minutos.
Foi determinada a energia de absorção de cada amostra, utilizando um cronógrafo
balístico da marca Air Chrony modelo MK3 que mediu a velocidade de impacto. O
cronógrafo utilizado na medição da velocidade residual, de modelo ProChrono, foi
posicionado após o anteparo contendo as amostras. As medições feitas se deram pelo
princípio fotoelétrico e a velocidade do projétil foi lida diretamente no painel digital, após
cada disparo.
Para a realização do ensaio balístico, foi utilizado um provete de ar comprimido da marca
Gunpower, que foi colocado a 5m de distância do alvo. Utilizou-se um supressor de ruídos,
para ampliar a estabilidade do projétil na saída do provete.
Na determinação da viscosidade, foi utilizado um viscosímetro DV-II Pro Viscometer,
com o objetivo de traçar as curvas de viscosidade dos fluidos produzidos.

4. RESULTADOS E DISCUSSÕES

A figura 1, mostra a amostra perfurada após o ensaio balístico. Todas as amostras foram
perfuradas.

Figura 1- Aramida perfurada após o disparo.

A figura 2, apresenta a energia de absorção em relação a concentração de ferritas nos


respectivos compostos. Pode ser observado que a amostra F55 apresentou uma maior
energia de absorção.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1498
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Energia absorvida na concentração de Pb0,1Cu0,9Fe2O4.

A seguir, na tabela 1 está representada as respectivas amostras.

Tabela 1- Amostras

WS Sem amostra F45 Ferrita 45 %


A Aramida pura F50 Ferrita 50%
PEG Polietilenoglicol F55 Ferrita 55%
F40 Ferrita 40% F60 Ferrita 60%

A figura 3, mostra o gráfico das curvas de viscosidade das amostras para cada
concentração em massa de Pb0,1Cu0,9Fe2O4.

Figura 3- Valores de viscosidade para diferentes concentrações Pb0,1Cu0,9Fe2O4.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1499
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Pode ser observado um aumento da viscosidade com a redução da velocidade de


rotação nas amostras com as concentrações mais altas. Portanto, a viscosidade aumenta
com o aumento da concentração do compósito, apresentando uma tendência não linear, de
comportamento de fluido não-newtoniano.
De acordo com o gráfico, é possível observar regiões em que ocorre diminuição da
viscosidade dos fluidos analisados. Isso ocorre devido à uma redução na tensão de
cisalhamento dos materiais, um comportamento reológico denominado shear thinning. Por
outro lado, nas regiões em que se observa aumento da viscosidade, ocorre o
comportamento inverso, ou seja, um aumento da tensão de cisalhamento. Este efeito por
sua vez, é conhecido como shear thickening e tende a ocorrer quando as concentrações de
partículas dispersas no meio são mais elevadas.

5. CONCLUSÕES

A amostra F55, foi a que apresentou melhor desempenho entre todas as amostras e,
portanto, essa composição é considerada a melhor para a proteção balística, pois esta
apresenta maior energia de absorção. A curva de viscosidade dessa amostra, apresentou um
comportamento de fluido não-newtoniano, pois sua viscosidade aumentou com a diminuição
da velocidade de rotação.

REFERÊNCIAS

ATA-ALLAH, S.s.. XRD and Mössbauer studies of crystallographic and magnetic transformations in
synthesized Zn-substituted Cu–Ga–Fe compound. Journal Of Solid State Chemistry, [S.L.], v. 177, n. 12, p.
4443-4450, dez. 2004. Elsevier BV. DOI: 10.1016/j.jssc.2004.09.021
CAVALLARO, P.V., Soft body armor: an overview of materials, manufacturing, testing, and ballistic impact
dynamics, 1 august 2011, NUWC-NPT Technical Report 12,057.
DECKER, M.J., HALBACH, C.J., NAM, C.H., WAGNER, N.J., WETZEL, E.D., Stab resistance of shear
thickening fluid (STF)-treated fabrics, Comp. Scs. Tech., v. 67, p. 565-578, 2007.
HEUSER, J. A.; SPENDEL, W. U.; PISARENKO, A. N.; YU, C.; PECHAN, M. J.; PACEY, G. E. Formation of
surface magnetite nanoparticles from Iron-exchanged zeolite using microwave radiation. Journal of Materials
Science v.42, p. 9057– 9062, 2007.
I. Nedkov, T. Merodiiska, L. Slavov, R.E. Vandenberghe, Y. Kusano, J. Takada. Surface oxidation, size and
shape of nano-sized magnetite obtained by co-precipitation. J. Magn. Magn. Mater., 300 (2006), pp. 358-367
LEE, Y.S., WETZEL, E.D., WAGNER, N.J., The ballistic impact characteristics of Kevlar woven fabrics
impregnated with a colloidal shear thickening fluid, J. Mat. Scs., v. 38, p. 2825-2833, 2003.
SAPOZHNIKOV, S.B.; KUDRYAVTSEV, O.A.; ZHIKHAREV, M.V. Fragment ballistic performance of
homogenous and hybrid thermoplastic composites. International Journal Of Impact Engineering, [S.L.], v.
81, p. 8-16, jul. 2015. Elsevier BV. DOI:10.1016/j.ijimpeng.2015.03.004
ULLAH, S. ATIQ S. NASEEM, "Influence of Pb doping on structural, electrical and magnetic properties of
Srhexaferrites", J. Alloy. Compoun. 555, 5 (2013) 263-267. DOI:10.1016/j.jallcom.2012.12.061
XUPING, S.; YONGLAN, L. Size-controlled synthesis of dendrimer-protected gold nanoparticles by microwave
radiation. Materials Letters v.59, p. 4048-4050, 2005.
YILDIZ, S. Synthesis and Rheological Behavior of Shear Thickening Fluids(STFs) For Liquid Armor
Applications. 2013. 2 p. A Thesis Submitted to the Graduate School of Engineering and Sciences of İzmir
Institute of Technology in Partial Fulfillment of the Requirements for the Degree of Master of Science in
Materials Science and Engineering.

Agradecimentos
Os autores agradecem a CAPES e Cnpq pelos apoios financeiros.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1500
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1501
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

RESISTÊNCIA BALÍSTICA E PROPRIEDADES DE ABSORÇÃO DE MICRO-


ONDAS DE UM COMPÓSITO DE TECIDO DE ARAMIDA IMPREGNADO COM
POLIETILENOGLICOL E NANOPARTÍCULAS DE HEMATITA

André Ben-Hur da Silva Figueiredo1 – abenhur@ime.eb.br


Danúbia Bordim de Carvalho1 – dan.bordim@gmail.com
Roberto da Costa Lima2 – costalima.roberto@marinha.mil.br
Letícia dos Santos Aguilera1 – le_aguilera13@hotmail.com
Priscilla Sousa Melo1 – priscillamello611@ime.eb.br
Vanessa Ermes Santos1 – vanessa_ermess@hotmail.com
Camila Oliveira Baptista1 – camila.oliv.baptista@gmail.com
Ronaldo Sergio de Biasi1 – rsbiasi@ime.eb.br
1
Instituto Militar de Engenharia, Seção de Engenharia de Materiais, Praça General Tibúrcio, 80,
22290-270, Rio de Janeiro, RJ, Brazil
2
Instituto de Pesquisas da Marinha - IPqM – Rio de Janeiro, Brazil

Resumo. A resistência balística e a absorção de microondas de um compósito de tecido de


aramida impregnado com polietilenoglicol e nanopartículas de hematita foram investigadas
para diferentes concentrações de hematita entre 0 e 17% em peso. Diferentes danos e
mecanismos de absorção de energia durante o impacto balístico foram identificados:
formação de cone na face posterior do alvo, ruptura por tração dos fios primários e
deformação dos fios secundários. Em termos de absorção de energia, os melhores resultados
foram obtidos com 7% em peso de hematita, enquanto a menor profundidade de penetração
(DOP) foi observada para um compósito com 9% em peso de hematita. Uma imagem de
microscópio eletrônico de varredura (MEV) do compósito com 7% de hematita após o teste
balístico mostrou que o principal mecanismo de absorção de energia foi a deformação dos
fios secundários. A absorção de microondas foi medida pela técnica de guia de ondas na
faixa de freqüência de 8 a 12 GHz. Os resultados mostraram que a perda dielétrica ɛ"/ɛ' é
máxima para uma concentração de 3% de hematita, enquanto a perda magnética µ"/µ' é
máxima para uma concentração de 11% em peso de hematita. Um compromisso razoável
entre a resistência balística e a absorção de microondas parece ser um composto com 7% em
peso de hematita.

Palavras-chave: absorção de radar; blindagem balística; impacto balístico; fluido de


espessamento de cisalhamento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1502
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Desde os tempos antigos, a humanidade busca o desenvolvimento de proteção corporal


contra perigos e lesões. Peles de animais, fibras naturais e materiais metálicos como bronze,
ferro e aço foram usados para esse fim ao longo da história. Durante o século 20, as fibras
naturais deram lugar às fibras sintéticas.
A armadura moderna é projetada para proteger contra projéteis, bem como contra
perfurações e cortes causadas por objetos pontiagudos. Eles geralmente consistem de uma
combinação de metal, cerâmica e tecidos. Os tecidos são compostos por fibras poliméricas de
alta resistência que fornecem proteção adicional sem comprometer a mobilidade dos soldados,
policiais e seguranças [1,2]. Para melhorar a flexibilidade e reduzir o peso desses tecidos
usando menos camadas e mantendo a mesma eficiência, reforços avançados foram
desenvolvidos. Esses reforços são criados impregnando os tecidos com fluidos não
newtonianos cuja viscosidade aparente varia com o aumento da tensão [3-11].
A escolha de nanopartículas magnéticas para produção de um fluido com comportamento
não newtoniano pode agregar ao tecido a propriedade de ser um Material de Absorção de
Radiação Eletromagnética (MARE). Esses materiais são atenuadores eficientes de radiação
eletromagnética em comprimentos de onda usados por radares, reduzindo a seção transversal
do radar de soldados, automóveis, navios de guerra e aeronaves militares. Teber et al. [12]
usaram materiais magnéticos de Ni-Co em compósitos poliméricos como absorvedores de
microondas de banda X (8-12 GHz).
O objetivo deste trabalho foi estudar o reforço de blindagem e o comportamento de
absorção de radar [12-17] de um fluido não newtoniano baseado em hematita. Para isso,
foram produzidas misturas de nanopartículas de hematita com PEG-200 com diferentes
concentrações de hematita. Essas misturas foram utilizadas para impregnar o tecido de
aramida e a resistência balística e as propriedades de absorção de microondas do compósito
foram avaliadas para diferentes concentrações de hematita. Além disso, danos e mecanismos
de absorção de energia durante o impacto balístico foram investigados.

2. MATERIAIS E MÉTODOS

Os materiais usados neste trabalho foram nitrato férrico (Sigma-Aldrich, 98%), glicina
(Sigma-Aldrich, 98,5%), 200 g/mol PEG (Honeywell Riedel-de Haën), etanol absoluto
(Quimex, 93%), tecido de aramida com 0,28 mm de espessura com densidade de 210 g/m²
[HY Networks (Shanhai)] e MDF de 1 polegada de espessura (Arauco do Brasil).

As nanopartículas de hematita foram sintetizadas pelo método de combustão com uma


relação glicina/nitrato de 0,5 [18,19]. Misturas de PEG-200 com 0%, 3%, 5%, 7%, 9%, 11%,
13%, 15% e 17% de hematita foram sonicadas por 30 min, diluídas em 40 mL de etanol,
sonicadas novamente por 30 minutos e usado para impregnar duas peças quadradas de tecido
de aramida com área de 49 cm2 em um vidro de relógio de 150 mm de diâmetro. Essas peças
foram prensadas por 10 min a 3 ton/cm2. Pressionar as amostras reduz a massa sem diminuir a
resistência balística, pois apenas o fluido não impregnado é removido. Em seguida, as
amostras foram secas em estufa a 79 °C por 24 h.

A hematita foi caracterizada por difração de raios X usando um difratômetro Panalitical


Expert Pro com radiação Cu Kα (1,5418 Ǻ) e software TOPAS baseado no método de
Rietveld.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1503
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Um rifle de ar comprimido Gunpower SSS com supressor de ruído Padrão Armas foi
usado para os testes balísticos. O projétil era de chumbo de calibre 22 com uma massa
estimada de 3,3 g. A velocidade de impacto foi medida em um cronógrafo balístico Air
Chrony MK3 com precisão de 0,15 m/s e a velocidade residual foi medida em um cronógrafo
balístico ProChrono Pal com precisão de 0,31 m/s.
Após os testes balísticos, imagens das amostras com 7% de hematita foram obtidas em
FEI Quanta FEG 250 SEM.
A caracterização eletromagnética dos compósitos foi realizada por medidas de
refletividade/absorção utilizando a técnica de guia de ondas na banda X do espectro
eletromagnético (8 a 12 GHz). Este dispositivo foi acoplado a um Analisador de Rede
KEYSIGHT PNA-L (modelo N5232A) com gerador de frequência (300 kHz-20 GHz). O
material de referência utilizado para avaliar a eficiência de absorção dos compósitos foi uma
placa de alumínio, que reflete 100% da radiação incidente.

A massa relativa Mc foi calculada usando a Eq. 1 para expressar a quantidade relativa de
impregnação de aramida pelo fluido [11]:

Mc = (Massa do composto - Massa da aramida)/Massa da aramida (1)

Nos testes de absorção de energia, o rifle de ar foi posicionado a 5 m do alvo, que


consistia em uma amostra quadrada fixada em uma moldura circular de MDF presa por uma
morsa e alinhada perpendicularmente ao rifle. Um cronógrafo balístico foi colocado a 10 cm a
frente e outro cronógrafo balístico foi colocado a 10 cm atrás do compósito para determinar a
velocidade residual do projétil. A energia de absorção foi estimada usando a equação

Eabs = Mp (vi2 – vr2)/2 (2)

onde Mp é a massa do projétil, vi é a velocidade de impacto e vr é a velocidade residual [20].

Pasquali et al. [21] mostraram que a energia absorvida por um alvo de tecido fino é
devido a seis mecanismos de absorção/dissipação: formação de cone na face posterior do
alvo; falha de tração de fios primários; deformação de fios secundários; obstrução por
cisalhamento; início de delaminação e crescimento; e craqueamento da matriz [22,23].

Nos testes DOP, o rifle de ar foi posicionado a 5 m do alvo, que consistia em uma
amostra quadrada fixada com fita adesiva a uma placa de MDF e alinhada perpendicularmente
ao rifle [24–29]. Um supressor de ruído foi utilizado para aumentar a estabilidade do projétil
na saída do rifle de ar. Placas de MDF foram utilizadas como anteparos porque o MDF é um
material homogêneo, plano e denso, sem o veio da madeira maciça. O cronógrafo balístico foi
colocado a 10 cm do alvo, sendo determinado a velocidade de impacto [30].

Visto que, no teste balístico, as amostras são finas e homogêneas, a desaceleração do


projétil a pode ser considerada constante. Aplicando a segunda lei de Newton

a = - F/Mp (3)

em que F é a força sobre o projétil, a equação de Torricelli pode ser escrita na forma

v2 – vr2 = 2 (F/Mp)d (4)


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1504
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

em que d é a distância percorrida pelo projétil. Substituindo a Eq. 2 na Eq. 4 e dividindo pela
massa relativa Mc, tem-se

Eabs/(Mc d) = F/Mc (5)

Um fator de mérito FM foi definido como a proporção mostrada na Eq. 5 com DOP = d:

MF = Eabs/Mc DOP (6)

RESULTADO E DISCUSSÃO

A Figura 1 mostra o padrão de difração de raios-X das nanopartículas. O difractograma


mostrou 100% de hematita, com tamanho de cristalito de 20 nm e GOF (Goodness of Fit) de
1,29.

Figura 1 - Difractograma de raios-X das nanopartículas.

Os testes balísticos consistiram em medir a energia absorvida pelo compósito e a


profundidade de penetração (DOP) de um projétil em um anteparo de placa de fibra de
densidade média (MDF).
Todos os tiros penetraram completamente na amostra. Um tiro foi feito em cada
experimento e cinco experimentos foram realizados para cada composição.
A Tabela 1 mostra a massa relativa do composto (Mc), a energia de absorção (Eabs), a
profundidade de penetração (DOP) e o fator de mérito (FM) para todas as composições. A
energia absorvida é máxima para as amostras com 7% de hematita, enquanto o DOP é mínimo
para as amostras com 9% de hematita. Isso é atribuído ao fato de que a utilização do anteparo
altera o comportamento mecânico do tecido de aramida, favorecendo a quebra das fibras
primárias, o que se torna um importante mecanismo de absorção de energia.

Tabela 1 - Resultados médios dos testes balísticos.


MF
COMPÓSITO Mc Eabs (J) DOP (mm)
(10-2) (J/mm)
A00 0,58 ± 0,07 5,70 ± 0,75 29,85 ± 0,35 32,72 ± 2,26
A03 0,62 ± 0,07 6,66 ± 0,91 27,75 ± 0,39 38,71 ± 3,00
A05 0,64 ± 0,06 6,69 ± 0,40 33,00 ± 0,43 31,68 ± 1,40
A07 0,57 ± 0,07 7,74 ± 0,58 28,58 ± 0,55 47,51 ± 2,78
A09 0,56 ± 0,06 6,01 ± 0,76 26,70 ± 0,40 40,20 ± 2,71
A11 0,53 ± 0,07 5,21 ± 0.37 29,92 ± 0,27 32,85 ± 1,67
A13 0,61 ± 0,06 6,51 ± 0,66 33,93 ± 0,55 31,45 ± 1,87
A15 0,58 ± 0,06 5,51 ± 0,54 27,97 ± 0,57 33,96 ± 2,12
A17 0,68 ± 0,09 6,14 ± 0,55 31,52 ± 0,50 28,65 ± 1,78

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1505
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 2 mostra a dependência do fator de mérito na concentração de hematita. Os


valores de FM foram calculados usando a Eq. 2 com os valores de Eabs, DOP e Mc dados na
Tabela 1. As amostras com maior valor de MF foram aquelas com 7% de hematita (A07).

Figura 2 - Dependência do fator de mérito na concentração de hematita.

A Figura 3 mostra uma amostra com 7% de hematita após o teste de absorção de energia.
Pode-se ver fios primários e secundários deformados devido à deformação estendida em toda
a amostra, sugerindo uma força de arrancamento moderada.

Figura 3 - Amostra com 7% de hematita após o teste de absorção de energia.

A Figura 4 mostra imagens MEV de uma amostra com 7% de hematita (A07) antes e
depois do teste balístico. Antes do teste balístico (a), existe um excesso de carga que não
impregna os fios de aramida e, portanto, não contribui significativamente para a resistência
balística; e após o teste balístico (b), quase não há excesso de carga, exceto no canto inferior
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1506
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

direito da imagem, onde pode-se ver os aglomerados provavelmente devido ao impacto [26].
As regiões de impacto, que não são mostradas, estão na direção do canto superior esquerdo
das imagens.

Figura 4 - Imagem SEM de amostras com 7% de hematita (a) antes e (b) após o impacto.

Conforme mostrado na Figura 5, a perda dielétrica ɛ”/ɛ' é máxima e a perda de


refletividade é mínima para uma concentração de 3% de hematita. De acordo com Huo et al.
[31], isso se deve ao fato de que para concentrações de hematita maiores que 3%, a
profundidade de penetração torna-se muito pequena devido ao aumento da condutividade e a
maior parte da onda eletromagnética é refletida. Conforme mostrado na Figura 6, a perda
magnética µ”/µ' é máxima para 11% em peso de hematita na faixa de frequência de 8,2 a 11,6
GHz, mas este efeito não é suficiente para compensar a perda de reflexão causada pelo
aumento da condutividade, mostrado na Figura 5 (a). Por isso, de acordo com a Figura 5 (b),
ele não apresenta o melhor desempenho em termos de refletividade.

Figura 5 - (a) Dielétrico e (b) perda de refletividade para aramida pura e aramida impregnada
com um STF com 3%, 7%, 11% e 17% de hematita.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1507
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 6 - Perda magnética para aramida pura e aramida impregnada com um SFT com 3%,
7%, 11% e 17% de hematita.

CONCLUSÕES

Os compósitos com 7% de hematita tiveram o melhor comportamento balístico, enquanto


os compósitos com 3% em peso e 11% de hematita apresentaram as melhores propriedades de
absorção de microondas em termos de perda dielétrica e magnética, respectivamente. Um
compromisso razoável entre a resistência balística e a absorção de microondas parece ser o
uso de tecido de aramida impregnado com 7% em peso de hematita.

Agradecimentos

Os autores agradecem à CAPES e ao CNPq pelo apoio financeiro.

REFERÊNCIAS

[1] CAVALLARO, P.V., Soft body armor: an overview of materials, manufacturing, testing, and ballistic impact
dynamics, 1 August 2011, NUWC-NPT Technical Report 12,057
[2] EGRES, R.G. Jr., LEE, Y.S., KIRKWOOD, J.E., KIRKWOO, K.M., WETZEL E.D., WAGNER N.J., Liquid
armor: Protective fabrics utilizing shear thickening fluids, IFAI 4th Int. Conf. on Safety and Protective
Fabrics, Pittsburgh, PA, 2004.
[3] EGRES, R.G. Jr., HALBACH, C.J., DECKER, M.J., WETZEL E.D., WAGNER N.J., Stab performance of
shear thickening fluid (STF)-fabric composites for body armor applications, Proceeding of SAMPE 2005:
New Horizons for Materials and Processing Technologies. Long Beach, CA., 2005.
[4] BARNES, H. A., HUTTON, J.F., WALTERS, K., An introduction to rheology, Rheology Series 3, Elsevier,
1989.
[5] MARANZANO, B.J., WAGNER, N.J., The effects of interparticle interactions and particle size on reversible
shear thickening: Hard-sphere colloidal dispersions, J. Chem. Phys., v. 114, p. 10514, 2001.
[6] BRADY, J.F., The rheological behavior of concentrated colloidal dispersions, J. Chem. Phys., v.99, p. 567,
1993.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1508
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

[7] KRISHNAMURTHY, L., WAGNER, N.J., Shear thickening in polymer stabilized colloidal dispersions, J.
Rheol., v. 49, p. 1347, 2005.
[8] MARANZANO, B.J., NORMAN, J.W., The effects of particles size on reversible shear thickening of
concentrated colloidal dispersions: Hard-sphere colloidal dispersions, J. Rheol., v. 45, p. 1205, 2001.
[9] GALINDO-ROSALES, F.J., RUBIO-HERNÁNDEZ, F.J., SEVILLA, A., An apparent viscosity function for
shear thickening fluids, J. Non-Newtonian Fluid Mech., v. 166, p. 321, 2011.
[10] SUN, L. -L., XIONG, D. -S., XU, C.-Y., Application of shear thickening fluid in ultra high molecular
weight polyethylene fabric, J. Appl. Polym. Sci, v. 129, p. 1922, 2013.
[11] MAJUMDAR, A., BUTOLA, B. S., SRIVASTAVA, A., Development of soft composite materials with
improved impact resistance using Kevlar fabric and nano silica based shear thickening, Mater. Des., v. 54, p.
295, 2014.
[12] TEBER, A., UNVER, I., KAVAS, H., AKTAS, B., BANSAL, R., Knitted radar absorbing materials (RAM)
based on nickel-cobalt magnetic materials, J. Mag. Mag. Mat, v. 406, p. 228, 2016.
[13] WU, Q.-M., RUAN, J.-M., HUANG, B.-Y., ZHOU, Z.C., ZOU J.-P., Rheological behavior of fumed silica
suspension in polyethylene glycol, J. Cent. South Univ. Technol., v. 13, p. 1, 2006.
[14] GÜRGEN, S., LI, W., KUSHAN, M.C., The rheology of shear thickening fluids with various ceramic
particle additives, Mater. Des., v. 104, p. 312,2016.
[15] DECKER, M.J., HALBACH, C.J., NAM, C.H., WAGNER, N.J., WETZEL, E.D., Stab resistance of shear
thickening fluid (STF)-treated fabrics, Comp. Sci. Tech., v. 67, p. 565, 2007.
[16] EGRES, R.G., DECKER, M.J., HALBACH, C.J., LEE, Y.S., KIRKWOOD, J.E., KIRKWOOD, K.M.,
WAGNER, N.J. Stab resistance of shear thickening fluid(STF) Kevlar composites for body armor
applications, Proceeding of the 24th Army Science Conference, Orlando, FL, 2004.
[17] DING, J., TRACEY, P.J., LI, W., PENG, G., WHITTEN, P.G. Review on shear thickening fluids and
applications, Textiles and Light Industrial Science and Technology, v. 2, p. 161, 2013.
[18] DE BIASI, R.S., FIGUEIREDO, A.B.S., FERNANDES, A.A.R., LARICA, C., Synthesis of cobalto ferrite
nanoparticles using combustion waves, Solid State Commun., v. 144, p. 15, 2007.
[19] CAO, Z., QIN, M., JIA, B., GU, Y., CHEN, P., VOLINSKY, A.A., QU, X., One pot solution combustion
synthesis of highly mesoporous hematite for photocatalysis, Ceram. Int., v. 41, p. 2806, 2015.
[20] LEE, Y.S., WETZEL, E.D., WAGNER, N.J., The ballistic impact characteristics of Kevlar woven fabrics
impregnated with a colloidal shear thickening fluid, J. Mater. Sci., v. 38, p. 2825, 2003.
[21] PASQUALI, M., TERRA, C., GAUDENZI, P., Analytical modelling of high-velocity impacts on thin
woven fabric composite targets, Compos. Struct., v. 131, p. 951, 2015.
[22] NAIK, N.K., SHRIRAO, P., Composite structures under ballistic impact, Compos. Struct., vol. 66, p. 579,
2004.
[23] NAIK, N.K., SHRIRAO, P., REDDY, B.C.K., Ballistic impact behaviour of woven fabric composites:
Formulation, Int. J. Impact Eng., vol. 32, p. 1521, 2006.
[24] ALMUSALLAM, T.H., SIDDIQUI, N.A., IQBAL, R.A., ABBAS, H., Response of hybrid-fiber reinforced
concrete slabs to hard projectile impact, Int. J. Impact Eng., v. 58, p. 17, 2013.
[25] WANG, J., CALLINAN, R., Residual strengths of composite structures subjected to ballistic impact,
Compos. Struct., v. 117, p. 423, 2014.
[26] JORDAN, J.B., NAITO, C.J., Calculating fragment impact velocity from penetration data, Int. J. Impact
Eng., v. 37, p. 530, 2010.
[27] BACKMAN, M.E., GOLDSMITH, W., The mechanics of penetration of projectiles into targets, Int. J. Eng.
Sci., v. 16, p. 1, 1978.
[28] CARLUCCI, D.E.; JACOBSON, S.S. Ballistics: theory and design of guns and ammunition. Boca Raton
[Florida]: CRC, 2008. 496 p. ISBN 1420066180.
[29] ANDERSON JR., C.E., Analytical models for penetration mechanics: A Review, Int. J. Impact Eng., v. 108,
p. 3, 2017.
[30] VILLANUEVA, G.R.; CANTWELL, W.J. The high velocity impact response of composite and FML-
reinforced sandwich structures, Comp. Sci. Tec., v. 64, p. 35-54, 2004.
[31] HUO J., WANG L., YU H., Polymeric nanocomposites for electromagnetic wave absorption, J. Mater. Sci.,
v. 44, p. 3917, 2009.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1509
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

AUTÔMATOS CELULARES APLICADOS À DINÂMICA DE DOAÇÃO


EMPARELHADA DE RINS: FATOR DE REDUÇÃO ASSOCIADO AO TEMPO

Mariana de Mendonça Melo1 - mamenmelo@gmail.com


Thiago G. Mattos2 - tgmattos@gmail.com
1 Programa de Pós-Graduação em Modelagem Matemática e Computacional, Centro Federal de Edu-
cação Tecnológica de Minas Gerais, Av. Amazonas 7675, Belo Horizonte, Minas Gerais, Brasil.
2 Departamento de Fı́sica, Centro Federal de Educação Tecnológica de Minas Gerais, Av. Amazonas

7675, Belo Horizonte, Minas Gerais, Brasil.

Resumo. As doenças renais crônicas constituem um grave problema de saúde pública que,
há décadas, vem desafiando as autoridades governamentais e sanitárias em todo o mundo.
Embora o transplante seja o melhor tratamento para um doente renal crônico, há um déficit
persistente entre a disponibilidade de rins para transplante e o número de doentes renais
na fase terminal. Para aumentar o número de transplantes, e consequentemente reduzir a
lista de espera por um rim, desenvolvemos um modelo dinâmico de doação emparelhada de
rins do tipo autômato celular probabilı́stico. Os dados gerados por simulação representam a
quantidade média de transplante sob influência do grau de altruı́smo. A dinâmica se baseia em
solucionar a incompatibilidade e/ou a baixa compatibilidade envolvida em um par doador-
receptor trocando-se o doador de pares distintos. A partir de regras probabilı́sticas que
dependem da compatibilidade entre doadores e receptores, do grau de altruı́smo do doador
e do fator de redução da compatibilidade, vimos que a doação interpar aumenta a quantidade
de transplantes. Adicionalmente, o sistema apresentou transição de fases. Por fim, fizemos
um paralelo com a realidade e encontramos um tempo limite Γ100 em que todos os pares
transplantam para um grau de altruı́smo pequeno.

Keywords: Dinâmica. Autômatos Celulares. Doação emparelhada de rins. Transplante Renal.


Diagrama de Fases.

1. INTRODUÇÃO

O aumento gradativo do número de pacientes em diálise no Brasil é um indicador do grave


problema que a insuficiência renal no estágio de falência traz para a polı́tica de saúde pública.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1510
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Para citar dados, em 2018, houve um aumento absoluto de 58% e 54,1% , respectivamente, da
prevalência e incidência estimadas de pacientes em diálise crônica em relação a 2009. (Neves
et al., 2020). Esse cenário é um dos motivos pelo qual as iniciativas públicas do sistema
brasileiro de saúde começaram a dar atenção e assumirem que a doença renal crônica (DRC) é
uma questão importante de saúde pública (Lugon, 2009).
No estágio 5, onde ocorre a falência renal, a sobrevivência do indivı́duo portador de DRC
está condicionada às terapias renais substitutivas tais como hemodiálise, diálise peritoneal ou
transplante renal (Foundation, 2017). Dentre as terapias, o transplante de rim é a terapia
escolhida para a maioria dos pacientes com falência renal. Os pacientes que se submetem a um
transplante bem sucedido têm uma maior taxa de sobrevida com qualidade de vida, segundo
United States Renal Data System (2016). Embora o transplante seja o melhor tratamento
para o paciente crônico, há um déficit constante entre a doação de rim para o transplante e
o número de doentes renais na fase terminal (Smith et al., 2014). Segundo o Registro Brasileiro
de Transplantes (2019), a necessidade anual estimada de transplante de rins é 12.510, em
contrapartida, apenas 6.283 transplantes foram realizados em 2019. No perı́odo de 2012 a
2018, 5.651 pacientes, em média, transplantaram por ano.
Ainda que nem todo paciente renal crônico esteja inscrito na lista de espera por um rim
em decorrência de sua condição de saúde, em dezembro de 2019, 25.163 pacientes crônicos
aguardavam o transplante na lista (Transplantes, 2019). No Brasil, qualquer pessoa pode doar
o rim, desde que concorde com a doação, que não prejudique a sua saúde e esteja de acordo
com a legislação. Para doadores vivos, a lei permite parentes até o quarto grau. Não parentes,
somente com autorização judicial (Nefrologia, 2017).
Para estender o acesso ao transplante e consequentemente reduzir a lista de espera por um
rim, o governo dos Estados Unidos lançou um programa chamado Kidney paired donation
(KPD). Este programa é uma estratégia para que o doente renal crônico consiga o transplante
quando o único doador vivo em potencial é incompatı́vel. O objetivo do programa é
encontrar uma solução ótima na prática (algoritmo NP-difı́cil) que maximize o número total
de transplantes a partir de um conjunto de doações por ciclos e cadeias. Em especial, a doação
por ciclo permite a troca de rins entre dois pares que são incompatı́veis entre si porém são
mutuamente compatı́veis, de modo que cada nó é composto por um doador e um receptor
(Anderson et al., 2015).
Incentivados pelo programa KPD, este trabalho apresenta um modelo dinâmico de doação
emparelhada de rins baseado em uma rede aleatória de autômatos celulares de natureza
probabilı́stica, cujo objetivo foi aumentar o número de transplantes sob a influência do grau
de altruı́smo do doador. Os sı́tios da rede correspondem aos pares doador-receptor e possuem
estados binários referentes ao doador (ou receptor) estar ativo ou inativo para a doação.
Todos os pares evoluem em etapas de tempo discreto segundo as mesmas regras de transição
probabilı́sticas: os pares são atualizados simultaneamente segundo a melhor probabilidade das
doações ocorrerem seguida da tentativa de doação. A probabilidade de doação ocorrer depende
da compatibilidade entre doadores e receptores, do grau de altruı́smo do doador, e do fator de
redução da compatibilidade do receptor. O fator de redução é uma taxa aplicada à condição
de saúde dos portadores de doença renal crônica em diálise associada ao tempo de espera pelo
transplante renal. Segundo Teixeira et al. (2015), quanto maior o tempo em que o doente renal
crônico em diálise espera por um rim, maior é o risco de morte e doenças mórbidas. Sob
estas perspectivas, foi analisada a influência destes fatores na quantidade de transplante e no
comportamento do sistema ao longo do tempo. Além disso, estendemos o tempo limite de
execução da dinâmica para aumentar a chance do sı́tio que obteve uma doação mal sucedida

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1511
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

reverter este cenário, porém atendendo o fator limitante de tempo relacionado à saúde do
receptor enquanto espera por um rim. Neste modelo, é permitido ao par doador-receptor
inicialmente formado ser incompatı́vel ou compatı́vel. O par compatı́vel dessa formação
original participa da dinâmica de doação para possibilitar ao receptor respectivo receber um
rim mais compatı́vel. A dinâmica consiste em conectar aleatoriamente dois sı́tios da rede e a
partir de regras de atualização probabilı́sticas obter doações bem (ou mal) sucedidas.

2. MODELO

Em linhas gerais, o modelo proposto neste trabalho consiste numa dinâmica do tipo
autômato celular probabilı́stico, ou seja, trata-se de um modelo discreto no tempo, no espaço e
no conjunto de estados acessı́veis. O sistema de interesse consiste num conjunto finito de sı́tios,
sendo que cada sı́tio corresponde a um par doador-receptor (DR). Em cada passo de tempo, os
sı́tios são ligados dois a dois de maneira aleatória, resultando numa configuração em que cada
sı́tio está conectado a apenas um outro sı́tio. Em seguida, são realizadas tentativas de doação
entre doadores e receptores de sı́tios conectados.

2.1 Definições

O estado Si (t) do i-ésimo sı́tio no instante t é dado por (σiD (t) σiR (t)), sendo σ uma variável
binária: σ = 0 corresponde a um doador (ou receptor) inativo, enquanto σ = 1 corresponde
a um doador (ou receptor) ativo. A cada passo de tempo, os pares podem assumir um único
estado dentre os quatro estados possı́veis. Dessa forma, os quatro estados possı́veis para um
sı́tio são:

• (11): doador e receptor ativos;

• (10): doador ativo, receptor inativo;

• (01): doador inativo, receptor ativo;

• (00): doador e receptor inativos.

Dizemos que as doações entre o sı́tio i (par (Di Ri )) e sı́tio j (par (Dj Rj )), com i 6= j
e i, j ∈ {1, 2, · · · , L}, são conexões direcionais (chamadas de interação) sendo determinadas
partindo do doador de um sı́tio e chegando ao receptor do outro sı́tio, Di → Rj e Dj → Ri , ou
entre o doador e o receptor de um mesmo sı́tio, Di → Ri e Dj → Rj .
Definem-se dois tipos de interação: doação intrapar e doação interpar. Uma doação é dita
intrapar se o doador doa o rim para o receptor de seu próprio par e interpar se o doador doa o rim
para o receptor de outro par. Observe que, dessa forma, há quatro possibilidades de interação
entre dois pares, como observado na Fig. 1: duas do tipo intrapar, Di → Ri e Dj → Rj , e duas
do tipo interpar, Di → Rj e Dj → Ri .
A probabilidade pij da doação intra ou interpar ocorrer é definida da seguinte forma,

pij = λDi Rj · gA · Ft+1 (gA , t), (1)


 
sendo λDi Rj elemento da matriz compatibilidade λDi Rj L×L fixa ao longo da dinâmica, gA
o grau de altruı́smo e Ft+1 o fator de redução. λDi Rj indica a compatibilidade entre o
doador Di e o receptor Rj . Aos elementos fora da diagonal principal são atribuı́dos valores

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1512
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- Ilustração da interação entre dois pares (Di Ri ) e (Dj Rj ). As setas indicam as possı́veis
doações intrapar e interpar. As doações intrapar ocorrem a partir das conexões Di → Ri no par (Di Ri )
e Dj → Rj no par (Dj Rj ). As doações interpar ocorrem a partir das conexões Di → Rj ou de
Dj → Ri . A probabilidade das doações interpar ocorrer é dado por pij , enquanto as doações intrapar
têm probabilidade pii .

aleatórios entre 0 e 1, com distribuição uniforme. Dessa forma, λDi Rj = 1 indica máxima
compatibilidade entre Di e Rj , enquanto λDi Rj = 0 indica total incompatibilidade entre esses
elementos. Aos elementos da diagonal principal dessa matriz, também foram atribuı́dos valores
aleatórios, porém no intervalo [0; 0, 1], indicando uma probabilidade pequena das doações
intrapar ocorrerem. O grau de altruı́smo gA é um parâmetro de controle que quantifica a
disposição de um doador para doar seu rim a um receptor: no caso de uma doação intrapar
gA = 1, enquanto no caso de ua doação interpar, 0 ≤ gA ≤ 1. O fator de redução Ft (gA , t) é
uma taxa que reduz a compatibilidade1 do receptor a cada doação mal sucedida. Além disso, a
cada passo de tempo, o fator de redução é reduzido proporcionalmente à redução da quantidade
de sı́tios na rede e, portanto, é definido pela equação de recorrência

Ft+1 (gA , t) = 1 − [(1 − Ft ) · (1 − M )], (2)

em que F0 (gA , 0) = 0, 8: inicialmente a compatibilidade do receptor é reduzida em 20%, pois


segundo Machado et al. (2012), a cada ano, o paciente dialı́tico reduz em 20% o risco de se
fazer o transplante intervivos. Seja A o número total de variações de gA e B o tempo limite de
execução da dinâmica, então M é uma matriz de tamanho A×B cujos elementos correspondem
à razão entre a quantidade de transplantes em t + 1 e a quantidade de pares remanescentes em
t, para t ≥ 1 e limitado. Os elementos de M são definidos considerando o modelo de doação
emparelhada de rins em que não há fator de redução (Melo, 2018).
A cada passo de tempo, o estado de todos os sı́tios da rede é atualizado simultaneamente
(atualização sı́ncrona) segundo as mesmas regras probabilı́sticas de transição - etapas 2 e 3 (4 e
5) do esquema da dinâmica a seguir. Essas regras de atualização do estado do par são baseadas
no estado desse par e no estado do par que compõe a vizinhança, isto é, o estado do par (Di Ri )
no instante t + 1 é atualizado probabilisticamente segundo o estado do próprio par (Di Ri ) e o
estado do par conectado a ele, (Dj Rj ), no instante t.

2.2 Dinâmica

Define-se como condição inicial Si (t = 0) = (11) ∀i, ou seja, todos os doadores e


receptores estão ativos no inı́cio da dinâmica. Em t = 1, sorteia-se as conexões não direcionais
entre dois pares (Di Ri ) e (Dj Rj ). Escolhe-se o maior valor resultante entre pij e pii para

1
Neste contexto, reduzir a compatibilidade corresponde reduzir a condição de saúde do paciente a cada doação
mal sucedida.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1513
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

caracterizar a melhor compatibilidade entre as doações intra e interpar. Em seguida, obtida a


maior probabilidade de doação, faz-se a tentativa de doar, isto é, sorteia-se um número aleatório
no intervalo [0, 1] e este é comparado com o valor de pij dado pela Eq. (1). Se o número sorteado
for menor ou igual a pij , para i = j ou i 6= j conforme a melhor escolha, a doação é feita e,
portanto, o transplante renal é realizado. De forma análoga, comparamos a maior probabilidade
entre pji e pjj e a tentativa de doação é feita. Para finalizar a dinâmica, os estados dos pares e
o fator de redução dos receptores remanescentes na rede são atualizados. No próximo passo de
tempo, as interações entre os pares conectados dependem do estado em que eles se encontram.
Esse processo de conexão e interação entre dois pares da rede se repete para os próximos passos
de tempo.
Esquematicamente, a dinâmica de doação emparelhada de rins compreende as seguintes
etapas:

1. Distribui-se aleatoriamente conexões entre dois a dois pares da rede. Cada par pode se
conectar a apenas um outro par;

2. Conectados dois pares (Di Ri ) e (Dj Rj ), i 6= j, verifica-se e escolhe a maior


probabilidade:

2.1. pij = λDi Rj · gA · σiD (t) · σjR (t) · Ft (gA , t);


2.2. pii = λDi Ri · σiD (t) · σiR (t) · Ft (gA , t).

3. Obtida a maior probabilidade de doação entre pij e pii , faz-se a tentativa de doar: caso o
número sorteado for menor ou igual a maior probabilidade obtida, a tentativa de doação
será bem sucedida;

4. Com os mesmos dois pares conectados (Di Ri ) e (Dj Rj ), i 6= j, verifica-se e escolhe a


maior probabilidade:

4.1. pji = λDj Ri · gA · σjD (t) · σiR (t) · Ft (gA , t);


4.2. pjj = λDj Rj · σjD (t) · σjR (t) · Ft (gA , t).

5. Obtida a maior probabilidade de doação entre pji e pjj , faz-se a tentativa de doar: caso
número sorteado for menor ou igual a maior probabilidade obtida, a tentativa de doação
será bem sucedida.

6. Atualiza-se o fator de redução dos receptores e os estados dos pares. Pares cujo estado é
Si (t) = (00) não poderão participar de novas interações.

3. RESULTADOS E DISCUSSÃO

Fixamos para todas as simulações a matriz compatibilidade e a quantidade inicial de pares


da rede. Considerou-se uma amostra de 400 pares para participar da dinâmica. As médias
estatı́sticas da quantidade de transplante foram obtidas repetindo-se a dinâmica 105 vezes para
cada grau de altruı́smo. Além disso, estabeleceu-se que se a quantidade média de pares na rede
for abaixo de 0,5 significa que todos os pares em questão obtiveram doações bem sucedidas.
Denotando o tempo limite de execução da dinâmica por Γm , sendo m o número de passos
correspondente, executamos simulações para m = 50, 150 e 300.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1514
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme esperado e visto na Fig. (2), ao estender a duração da dinâmica e aumentar


gA , obteve-se maior quantidade média de transplantes (T x). Observa-se também que a doação
interpar para todo Γm contribuiu para aumentar a quantidade média de transplante. De fato,
basta comparar a quantidade média de transplante quando se tem apenas doações intrapar, isto
é, quando gA = 0. Esta observação também pode ser vista na Fig. (3).

100
98
96
94
92
TX(%)

90
88
86
84 Γ50
Γ150
82 Γ300
80
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
gA

Figura 2- Percentual da quantidade média total de transplantes, T x, em função de gA para Γ50 , Γ150 e
Γ300 .

100

90

80

70

60
TX(%)

50

40

30

20

Interpar
10
Intrapar

0
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

gA

Figura 3- Quantidade média de transplantes T X do tipo doação interpar e intrapar para Γ300 .

Adicionalmente ao resultado esperado, vimos que o sistema atingiu o estado absorvente


(o qual todos transplantam - fase congelada) para todo Γm , conforme mostrado na Fig. (2).
Isto significa que a partir de um determinado gA , denominado grau de altruı́smo crı́tico gAC ,
o sistema apresentou uma mudança em seu comportamento em duas fases: fase ativa e fase
congelada - Fig. (4). Desse modo, a partir das Fig. (2) e (4), infere-se que quanto maior é a
duração da dinâmica, todos os receptores transplantam para um gAC cada vez menor. De modo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1515
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

geral, é razoável pensarmos que encontrar uma população de doadores com gA mais baixo é
mais provável do que encontrarmos uma população muito disposta a doar, isto é, com gA alto.
A menos, é claro, para o seu respectivo receptor.

300
275
250
225
200 Todos
transplantaram
175
150
Γm

125
100
75
50 Nem todos
transplantaram
25
0
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
gA

Figura 4- Diagrama de fases. Podemos notar a curva gerada por gAC que delimita a transição da fase
ativa para a fase congelada para diversos Γm tal que m = 25q e q ∈ {1, 2, · · · , 12}.

Ao definir o fator de redução da compatibilidade proporcional à redução da quantidade de


transplantes estamos dizendo que conforme os pares transplantam o tempo de execução de uma
dinâmica diminui. Consequentemente, o paciente passará menor tempo em diálise e, portanto,
menor será a redução de sua compatibilidade. Contudo, ainda não foi relacionado o tempo de
execução de cada passo de tempo com o tempo em que os transplantes de fato ocorreriam no
mundo real.
Fazendo um paralelo com o mundo real, vimos que em 2019 6.283 pacientes transplantaram.
Seguindo este raciocı́nio, 400 pares seriam transplantados em 0,06 ano, ou 24 dias. Então, 1
passo de tempo equivaleria a 24 dias e 300 passos, aproximadamente, 19 anos. As complicações
tendem a aparecer após 5 anos de diálise e, na maioria das vezes, estão relacionadas aos sistemas
cardiovascular e ósseo (Transplantes, 2018). Sendo assim, podemos dizer que Γ100 (≈ 6 anos)
é um tempo limite para se esperar por um transplante.

4. CONCLUSÕES

O modelo dinâmico do tipo autômato celular probabilı́stico proposto neste trabalho foi
desenvolvido computacionalmente com intuito de aumentar a quantidade de transplante através
da simulação da doação emparelhada de rins sob a influência do grau de altruı́smo do doador. A
partir de tentativas de doação entre doadores e receptores obtivemos resultados esperados que
confirmam o aumento do número de transplantes quando se tem doações interpar.
Adicionalmente, o sistema apresentou transição da fase ativa em que nem todos
transplantaram para a fase congelada em que todos transplantaram para valores de grau
de altruı́smo crı́tico gAC correspondentes a cada tempo limite de execução da dinâmica
Γm proposto. Empregando o aumento da duração da dinâmica, vimos que todos os pares

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1516
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

transplantaram para um gAC cada vez menor, o que é um resultado otimista por se tratar da
disposição do doador para doar seu rim.
Por fim, não associamos o tempo de execução de uma dinâmica ao tempo correspondente
no mundo real, para tanto, fizemos um paralelo com o mundo real e vimos que para Γ100 ,
aproximadamente 6 anos, é um tempo limite ideal para o receptor realizar o transplante.

Agradecimentos

A autora agradece o apoio financeiro da CAPES e ao CEFET-MG.

REFERENCES

Anderson, R., Ashlagi, I., Gamarnik, D., and Roth, A. E. Finding long chains in kidney
exchange using the traveling salesman problem, volume 112. National Acad Sciences, 2015.
Foundation, N. K. About chronic kidney disease, 2017. URL https://www.kidney.org/atoz/
content/about-chronic-kidney-disease.
Lugon, J. R. Doença renal crônica no brasil: um problema de saúde pública. J Bras Nefrol, 31
(1):2–5, 2009.
Machado, E. L., Gomes, I. C., Acurcio, F. d. A., César, C. C., Almeida, M. C. d. M., and
Cherchiglia, M. L. Fatores associados ao tempo de espera e ao acesso ao transplante renal
em belo horizonte, minas gerais, brasil. Cadernos de Saúde Pública, 28:2315–2326, 2012.
Melo, M. M. Autômatos celulares aplicados à dinâmica de doação emparelhada de rim.
Dissertação de Mestrado, Mestre em Modelagem Matemática e Computacional, Centro
Federal Tecnológico de Minas Gerais, 2018.
Nefrologia, S. B. Transplante renal: Quem pode ser doador de rim?, 2017. URL https:
//sbn.org.br/publico/tratatamentos/transplante-renal/.
Neves, P. D. M. d. M., Sesso, R. d. C. C., Thomé, F. S., Lugon, J. R., and Nasicmento, M. M.
Censo brasileiro de diálise: análise de dados da década 2009-2018. Brazilian Journal of
Nephrology, (AHEAD), 2020.
Smith, J., Skeans, M., Horslen, S., Edwards, E., Harper, A., Snyder, J., Israni, A., and Kasiske,
B. Organ procurement and transplantation network (optn) and scientific registry of transplant
recipients (srtr). optn/srtr 2012 annual data report. Am J Transplant, 14(suppl 1):97–111,
2014.
System, U. S. R. D. Chapter 7: Transplantation. American Journal of Kidney Diseases, 69(3):
S405–S434, 2016.
Teixeira, F. I. R., Lopes, M. L. H., Silva, G. A. d. S., and Santos, R. F. Survival of hemodialysis
patients at a university hospital. Brazilian Journal of Nephrology, 37(1):64–71, 2015.
Transplantes, R. B. Dados númericos da doação de órgãos e transplantes realizados por estado e
instituição no perı́odo: Janeiro / marÇo - 2018, 2018. URL http://www.abto.org.br/abtov03/
Upload/file/RBT/2018/rbt2018-leitura.pdf.
Transplantes, R. B. Dados númericos da doação de órgãos e transplantes realizados por estado
e instituição no perı́odo: Janeiro / setembro - 2018, 2019. URL http://www.abto.org.br/
abtov03/Upload/file/RBT/2019/RBT-2019-jan-set-leitura.pdf.

CELLULAR AUTOMATA APPLIED TO THE DYNAMICS OF PAIRED KIDNEY


DONATION: TIME ASSOCIATED REDUCTION FACTOR

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1517
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Abstract. Chronic kidney disease is a serious public health problem that has been challenging
government and health authorities around the world for decades. Although transplantation
is the best treatment for a chronic kidney patient, there is a persistent deficit between the
availability of kidneys for transplantation and the number of kidney patients in the terminal
phase. To increase the number of transplants, and consequently reduce the waiting list for a
kidney, we have developed a dynamic model of paired donation of kidneys of the probabilistic
cellular automaton type. The data generated by simulation represent the average amount of
transplant under the influence of the degree of altruism. The dynamics are based on solving the
incompatibility and / or the low compatibility involved in a donor-recipient pair by changing
the donor from different pairs. From probabilistic rules, which depend on the compatibility
between donors and recipients, the degree of altruism of the donor and the factor of reduction of
compatibility, we saw that interpar donation increases the amount of transplants. Additionally,
the system presented a phase transition. Finally, we made a parallel with reality and found a
time limit Γ100 in which all pairs transplant to a small degree of altruism.

Keywords: Dynamics. Automata Cellular. Paired donation of kidneys. Kidney Transplantation.


Phases diagram.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1518
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CARACTERIZAÇÃO DAS PROPRIEDADES MECÂNICAS E DA RESISTÊNCIA À


CORROSÃO DAS LIGAS TI-10MO-20NB, TI-6AL-4V E TI-CP PARA APLICAÇÕES
BIOMÉDICAS

Patrick de Lima Vieira¹ – patrickdelimavieira@hotmail.com


Lucas de Mendonça Neuba² – lucasmneuba@gmail.com
Raí Felipe Pereira Junio³ – raivsjfelipe@hotmail.com
Sergio Neves Monteiro⁴ – snevesmonteiro@gmail.com

¹ UniFOA, Volta Redonda, RJ, Brasil.


² Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil.
³ Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil.
⁴ Instituto Militar de Engenharia, Rio de Janeiro, RJ, Brasil.

Resumo. Uma das principais ligas de aplicação biomédica, a liga Ti-6Al-4V, gera ao longo
do tempo óxidos de V e Al que se acumulam no corpo e causam efeitos citotóxicos. Sendo
assim, pesquisadores estão desenvolvendo ligas Ti com a fase metaestável β, combinando
resistência à corrosão, biocompatibilidade e boas propriedades mecânicas. Tendo em vista
esse cenário, o presente trabalho visa caracterizar a liga Ti-10Mo-20Nb e comparar os
resultados obtidos com uma liga de Ti-cp, outra de Ti-6Al-4V e ossos humanos. As amostras
de Ti-10Mo-20Nb receberam um tratamento térmico a 1000°C, resfriado em água a
temperatura ambiente, posteriormente foi realizado um forjamento a 900°C reduzindo em
80% a área das amostras metálicas. As ligas foram caracterizadas por microscopia óptica,
microscopia eletrônica de varredura, microdureza Vickers e ensaio de polarização linear.
Para a liga Ti-10Mo-20Nb a razão entre a dureza e o módulo de elasticidade foi de (3,22), o
valor de dureza (238 HV) e o módulo de elasticidade (74 GPa). A liga Ti-10Mo-20Nb
apresentou resistência a corrosão menor que a liga Ti-6Al-4V, mas uma compatibilidade
mecânica e biológica superior se comparado as outras ligas. Sendo uma alternativa
promissora para aplicações biomédicas devido a melhor biocompatibilidade com o osso
humano.

Palavras-chave: Ti-10mo-20nb, Polarização linear, Mev, Microdureza Vickers, Biomaterial.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1519
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1. INTRODUÇÃO

Titânio (Ti) e suas ligas são amplamente utilizados como materiais para implantes
ortopédicos. Isso ocorre, devido a sua excelente propriedade mecânica, biocompatibilidade
satisfatória, baixa densidade e baixo módulo de elasticidade em comparação com ligas de aço
inoxidável ou baseadas em ligas Co-Cr, ambas utilizadas como biomateriais ortopédicos
(A.NOURI et al., 2015; CHEN Q et al., 2015; GEETHA et al., 2013). Contudo, muitas ligas
Ti, como a Ti-6Al-4V, apresentam risco de liberar íons tóxicos como o alumínio (Al) e
Vanádio (V). A liberação desses íons provoca ao longo do tempo uma série de efeitos
citotóxicos e propícia o surgimento de doenças como o Alzheimer e outras desordens mentais
(H. KRÖGER et al., 1998).
Portanto, uma demanda urgente pelo desenvolvimento de novas ligas de Ti que possuam
elementos não tóxicos como Mo, Zr, Sn, Ta e Nb (FERRANDINI et al., 2007; GUO et al.,
2014; JUNG et al., 2013). A adição de estabilizadores beta (β) podem reduzir o módulo de
elasticidade, contribuindo para o aumento da vida útil do implante por evitar o fenômeno de
stress shielding que causa uma redução na tensão do osso que irá remodelar-se, fragilizando a
estrutura óssea ao redor do implante (M.G. JOSHI et al., 2000; Y.T.SUL, 2003).
As ligas de titânio β fornecem uma excelente resistência a corrosão em fluidos do corpo
humano. Diversos autores investigaram diferentes ligas Ti-Mo-Nb como candidatos a
implantes ortopédicos baseados em suas boas propriedades mecânicas e excelente resistência
à corrosão em situações que simulam fluidos corporais (CHELARIU et al., 2014; XU et al.,
2008, 2013). Embora Ti e Nb possuam um módulo de elasticidade relativamente alto se
comparado com o tecido ósseo (B.R. LEVINE et al., 2006; H. MATSUNO et al., 2001; J.Y.
RHO et al., 1993), o nióbio como um elemento de liga do titânio possibilita a obtenção de
ligas com módulos de elasticidade menores (NNAMCHI et al., 2016; ZHOU et al., 2008).
Portanto o presente estudo busca investigar a microestrutura, a resistência à corrosão e
propriedades mecânicas da liga Ti-10Mo-20Nb e compará-las com as ligas Ti-cp e Ti-6Al-
4V. O lingote de Ti-10Mo-20Nb recebeu tratamento térmico à 1000°C durante 24h por meio
de um forno tubular e então foi resfriado em água à temperatura ambiente. Foi então forjado a
900°C com uma redução de área de aproximadamente 80%. Podendo vir a ser um possível
substituto para a liga Ti-6Al-4V, atualmente uma das mais utilizadas, mas que cujo os óxidos
são potencialmente citotóxicos, causando danos à saúde a longo prazo.

2. MATERIAIS E MÉTODOS

A partir do Ti-cp, Mo-cp e Nb-cp foi obtido uma liga através da fusão à arco com um
eletrodo de tungstênio e com atmosfera de argônio. Em seguida, o lingote obtido recebeu um
tratamento térmico à 1000°C durante 24h por meio de um forno tubular e então resfriado em
água à temperatura ambiente. Um processo de forjamento foi realizado a 900°C e gerou um
percentual de redução de 80% da seção transversal. Além disso, duas chapas de chapas de
baixa espessura de Ti-6Al-4V, com medidas dimensionais de 10x20 mm e espessura de 1mm
e duas chapas fina de Ti-cp, com dimensões de 10x20 mm e espessura de 1 mm.
O ensaio de polarização linear foi realizado, utilizando o equipamento
GALVANOSTATO AUTOLAB modelo PGSTAT302N. Em um recipiente suporte, foi
introduzida a amostra de forma a deixar apenas a área da superfície de contato da amostra em
contato com o fluido da solução ringer de NaCl a 0,9% em H2O destilada que será
posteriormente preencherá o recipiente. Os testes foram realizados em uma célula
eletroquímica com três eletrodos. Uma rede de fio de platina e um eletrodo de Ag / AgCl
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1520
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

saturado em solução de KCl (calomelano) foram usados como contra eletrodo e eletrodo de
referência, respectivamente. As curvas de polarização linear foram obtidas com uma taxa de
varredura potencial de 0,050 V/min na faixa de potencial de -2,0 a 2,0 V vs Ag / AgCl à
temperatura ambiente.
As duas amostras de Ti-6Al-4V e duas amostras de Ti-cp foram embutidas através da
embutidora metalográfica EM30D na baquelite (resina fenólica), tendo como medidas um
diâmetro de 30 mm e 20 mm de altura máxima. Todas as amostras foram embutidas à quente
em baquelite preta, o processo de aquecimento levou aproximadamente 15 minutos e o de
resfriamento 10 minutos com uma pressão de 120 kg/cm2. Posteriormente as amostras
embutidas foram lixadas em uma politriz metalográfica Aropol 2V-PU, utilizando lixas de
carbeto de silício (220 a 1500). Em seguida, o polimento foi realizado com o pano de
polimento OP-CHEM (Struers) banhado em suspensão de OP-S (sílica coloidal).
Depois, as amostras passaram por um ataque químico para revelar a microestrutura,
utilizando-se uma solução Kroll. As amostras foram atacadas por imersão, por tempos
variados de 30 a 120 s. Após esse procedimento foram obtidas micrografias utilizando um
Microscópio Eletrônico de Varredura (MEV) da Hitachi modelo TM3000. Além disso, foi
utilizado um microscópio Óptico trinocular da marca Opton modelo TNM-08T-PL. Após a
preparação e análises metalográficas, foram realizadas as medidas de microdureza Vickers.
Utilizou-se um equipamento da marca PANTEC, modelo HR150, que possui uma ponta
cônica com diamante, com angulação de 136°, sendo a carga adotada de 0,2 kgf por um
tempo de endentação de 30 s, tomando-se a média de 10 medidas para cada amostra.

3. RESULTADOS E DISCUSSÃO

O valor final da média de dureza da liga Ti-10Mo-20Nb foi de aproximadamente 238 ±


11,4 HV, o mesmo procedimento foi adotado nas amostras Ti-cp e Ti-6Al-4V e resultaram
respectivamente nos valores de 170 ± 19 HV e 340 ± 24 HV. Isso ocorre, pois o elemento Mo
adicionado a liga, o valor de resistência mecânica tem tendência a aumentar (LI et al., 2020),
além disso mesmo com um maior teor de Nb que atua diminuindo o valor da dureza, devido a
ser um estabilizador da fase β impedindo a formação de outras fases que aumentam a dureza,
como a α’( martensita hexagonal), α’’(martensita ortorrômbica) e ω (fase ômega) (BAHL et
al., 2020; COSSÚ et al., 2019). O que explica o comportamento de diminuição da dureza
quando comparado a liga Ti-6Al-4V.
Os valores médios de dureza encontrados nos ensaios dos materiais Ti-10Mo-20Nb, Ti-
cp e Ti-6Al-4V foram comparados com valores de dureza de diversas regiões do osso fêmur
de um doador homem de 75 anos, segundo estudo realizado por Zysset e colaboradores
(1999). As áreas foram divididas e denominadas conforme a seguir: Diáfise femoral osteonal
(DFO), Diáfise femoral intersticial lamelar (DFIL), Pescoço femoral osteonal (PFO), Pescoço
femoral intersticial lamelar (PFIL), Pescoço femoral trabecular lamelar (PFTL). Além dessas
regiões, foi realizada uma média geral contabilizando os valores de todas as áreas em cada
propriedade, sendo referido com Média Femoral (MF) e com valor correspondente a 57,10 ±
19,6 HV.
Conforme a Figura 1, é evidente que a liga Ti-6Al-4V é a que apresenta a maior dureza e
a liga ti-cp está mais próxima da dureza dos ossos. Sendo mais interessante que o valor de
dureza seja o mais próximo possível dos ossos para amenizar os efeitos do stress shielding. O
valor da dureza da liga de Ti-10Mo-20Nb (238 ± 11,4 HV) se mostrou intermediário entre as
duas ligas, sendo seu valor 30% menor que a liga Ti-6Al-4V (340 ± 24 HV) mas ainda 4,16
vezes maior que a média femoral dos ossos (57,10 ± 19,6 HV). Essa redução de dureza tende
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1521
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a implicar numa menor taxa de manutenção dos implantes comparado a liga atual mais
utilizada de Ti-6Al-4V ajudando a reduzir os efeitos do stress shielding (M.G. JOSHI et al.,
2000; Y.T.SUL, 2003).

Figura 1: Valores de dureza dos respectivos materiais (ZYSSET et al., 1999).

Também foi compilado os valores dos módulos de elasticidade de diversas regiões de um


fêmur humano de um doador masculino de 75 anos (ZYSSET et al., 1999). Foi levantado os
valores do módulo de elasticidade das amostras Ti-10Mo-20Nb, Ti-cp e Ti-6Al-4V, conforme
Figura 2, os valores correspondentes em média, respectivamente, de 74 ± 4 GPa, 113,5 ± 10,5
GPa e 112,5 ± 7,5 GPa. Tais valores foram comparados com os valores dos módulos de
elasticidade de algumas regiões de um osso femoral, cujo a média femoral é
aproximadamente 15,68 ± 4,4 GPa (ZYSSET et al., 1999).

Figura 2: Módulo de elasticidades dos materiais (ZYSSET et al., 1999).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1522
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As ligas Ti-cp e Ti-6Al-4V possuem o maior módulo de elasticidade, 112,5 ± 7,5 GPa e
113,5 ± 10,5 GPa respectivamente. Já a Ti-10Mo-20Nb se aproxima mais do módulo de
elasticidade dos ossos, tendo sido obtido 74 ± 4 GPa contra 15,68 ± 4,4 GPa dos ossos. O
decaimento do valor médio da liga Ti-10Mo-20Nb, é justificado pelos elementos de liga Nb e
Mo que tendem a diminuir o módulo de elasticidade a medida que o conteúdo percentual dos
dois elementos tendem a aumentar (COSSÚ et al., 2019; LI et al., 2020). Sendo mais
interessante que o valor requerido do módulo de elasticidade seja o mais próximo possível dos
ossos para, assim como a dureza, amenizar os efeitos do stress shielding (M.G. JOSHI et al.,
2000; Y.T.SUL, 2003). O valor do módulo de elasticidade presente na liga de Ti-10Mo-20Nb
se mostrou aproximadamente 4,4 vezes maior que a média dos valores do osso, mas ainda
35% menor que a média das outras duas ligas. Essa diminuição no módulo de elasticidade
conjunto também a uma dureza mais adequada, tendem a uma menor taxa de manutenção dos
implantes comparado a liga atualmente mais utilizada de Ti-6Al-4V ( RACK et al., 2006; XU
et al., 2020).
A relação de dureza por módulo de elasticidade é um parâmetro importante para
avaliarmos a aplicação para a biocompatibilidade, em geral quanto mais próximo do valor dos
ossos, melhores são as aplicações possíveis e mais próximo do comportamento mecânico dos
ossos o mesmo estará reduzindo o efeito do stress shielding (M.G. JOSHI et al., 2000;
Y.T.SUL, 2003). A relação de dureza por módulo de elasticidade dos ossos das diversas
regiões teve como valor da média femoral (3,64), conforme Zysset (1999). Conforme a
Figura 3, a liga com maior valor de relação dureza/módulo de elasticidade é a TI-10Mo-
20Nb com o valor de 3,22, embora a liga Ti-6Al-4V (3,02) esteja com valor muito
próximo, apenas 6,62% menor. Logo ambas as ligas são melhores para esse tipo de
aplicação do que o Ti-cp, cuja relação de dureza e módulo é muito inferior. A Liga Ti-
10Mo-20Nb (3,22) tem uma relação de dureza por módulo de elasticidade apenas 13%
menor que a média femoral (3,64). Logo sendo uma excelente alternativa para substituição
e com reduzido efeito de stress shielding. Além disso, a liga Ti 6Al-4V possui elementos
que são citotóxicos, causando danos à saúde do usuário do implante (H. KRÖGER et al.,
1998).

Figura 3: Relação de dureza por módulo de elasticidade dos materiais (unidade


adimensional) (ZYSSET et al., 1999).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1523
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Pelos valores encontrados na Tabela 1 ficou evidente que as ligas Ti-10Mo-20Nb


apresenta uma redução da resistência à corrosão. Ainda assim a diferença entre as três ligas
nesses aspectos é pequena, sendo todas as três bem resistentes à corrosão em meio biológico.
Inclusive o gráfico nos indica a formação de um filme óxido de uma camada passiva, sendo a
camada do Ti-cp a mais notável e resistente.

Tabela 1: Tabela de densidade de corrente e potencial dos materiais estudados.

Densidade de Corrente
Materiais Potencial (V)
(A/cm²)
Ti – 6Al – 4V - 0,32 2,89 x 10-8
Ti-cp - 0,65 7,87 x 10-7
Ti – 10Mo – 20Nb - 0,40 7,91 x 10-6

Na Figura 4, é visível que a camada de passivação, bem como as características de


potencial e densidade de corrente da liga Ti-10Mo-20Nb apresentam piores resultados do que
a liga Ti-6Al-4V, contudo ainda é resistente a corrosão em meio biológico. Além disso, é fato
que os elementos de liga Mo e Nb são elementos não citotóxicos (KURODA et al., 1998;
MORAES et al., 2014; QAZI et al., 2005). Sendo seus íons, liberados ao longo do tempo pelo
processo de corrosão em meio biológico, não provocando danos à saúde dos usuários de
implantes, sendo assim mais indicada para aplicações biológicas do que a liga Ti-6Al-4V.

Figura 4:Gráfico da curva de polarização linear sobrepondo os resultados das ligas Ti-
10Mo-20Nb, Ti-cp e Ti-6Al-4V.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1524
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A figura 5 mostra a microestrutura obtida em um microscópio óptico do Ti-cp e a figura 6


exibe as micrografias em MEV do mesmo material. A estrutura da liga aparenta ser
heterogênea, sendo formada apenas por duas fases, a microestrutura típica de Widmanstätten,
onde as placas aciculares brancas representam a fase α (HC) e as finas linhas pretas indicam a
fase β (CCC), assim como outros estudos também afirmam (GANJEH et al., 2013).

Figura 5: MO do Ti-cp com um aumento de (a) 200X e (b) 400X.

Figura 6: MEV da microestrutura do Ti-cp com um aumento de (a) 1500X e (b)2000X.

A figura 7 exibe a microestrutura obtida em um microscópio óptico da liga Ti-10Mo-


20Nb e a figura 8 demonstra as micrografias em MEV da mesma liga. É possível observar
que a microestrutura da liga é composta basicamente pela fase β, e que não apresenta a
microestrutura típica de Widmanstätten encontradas nas ligas de Ti-6Al-V e Ti-cp, isso ocorre
pois a adição de Mo inibe a transição da fase α e estabiliza a fase β em ligas de Ti-Mo-Nb. O
mesmo comportamento ocorre para ligas Ti-xMo-Nb de vários teores de Mo (LI et al., 2020).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1525
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 7: MO da liga Ti-10Mo-20Nb com um aumento de (a) 200X e (b) 400X.

Figura 8: MEV da microestrutura da liga Ti-10Mo-20Nb ampliação de (a) 1000X e


(b)2000X.

4. CONCLUSÃO

Comparando os resultados encontrados, ficou evidente que a liga Ti-10Mo-20Nb


apresenta melhores propriedades mecânicas e com uma redução da resistência à corrosão.
Apesar dessa redução, ela continua sendo a liga mais adequadas para aplicações biomédicas
dentre os materiais estudados, reduzindo os efeitos do stress shielding e sem gerar efeitos
citotóxicos ou distúrbios neurológicos por não ter como elementos de ligas, Al e V.

Agradecimentos

Os autores deste trabalho agradecem as agências de fomento CAPES, CNPq e Faperj.


Além delas ao Departamento de Ciência dos Materiais do IME, Departamento de Engenharia
Mecânica da UniFOA e ao Laboratório de ensaios mecânicos e metalurgia da UniFOA.

REFERÊNCIAS

A. Nouri, C. Wen, introduction to surface coating and modification for metallic biomaterials, Surface Coating
and Modification of Metallic Biomaterials, Woodhead Publishing, 2015, pp. 3–60.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1526
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

B.R. Levine, S. Sporer, R.A. Poggie, C.J. Della Valle, J.J. Jacobs, Experimental and Clinical Performance of
Porous Tantalum in Orthopedic Surgery, Biomaterials, 2006,
https://doi.org/10.1016/j.biomaterials.2006.04.041.
Bahl, Sumit, Suwas, Satyam, Chatterjee, Kaushik. Comprehensive review on alloy design, processing, and
performance of β Titanium alloys as biomedical materials. International Materials Reviews. 2020, 1-26.
Chelariu R, Bolat G, Izquierdo J, Mareci D, Gordin DM, Gloriant T, et al. Metastable beta Ti-Nb-Mo alloys with
improved corrosion resistance in saline solution. Electrochemica Acta. 2014;137:280-289.
Chen Q, Thouas GA. Metallic implant biomaterials. Materials Science and Engineering R. 2015;87:1-57.
Cossú, Caio Marcello Felbinger Azevedo, Vicente, Edson Dornas,Cardoso, Italo, Gomes Raulino, Schettini,
Yuri Salum, De Ataíde Garcia Precioso, João, Nunes, Carlos Angelo, De Almeida, Luiz Henrique,
Borborema, Sinara. Mechanical and microstructural characterization of AS-CAST Ti-12Mo-xNb alloys for
orthopedic application. Materials Research. 22, 1-5, 2019.
Ferrandini PL, Cardoso FF, Souza SA, Afonso CR, Caram R. Aging response of the Ni-35Nb-7Zr-5Ta and Ti-
35Nb-7Ta alloys. Journal of Alloys and Compounds. 2007;433(1-2):207-210.
Ganjeh, E., & Sarkhosh, H. (2013). Microstructural, mechanical and fractographical study of titanium-CP and
Ti–6Al–4V similar brazing with Ti-based filler. Materials Science and Engineering: A, 559, 119–129.
Geetha M, Singh AK, Asokamani R, Gogia AK. Ti based biomaterials, the ultimate choice for orthopaedic
implants - A review. Progress in Materials Science. 2009;54(3):397-425.
https://doi.org/10.1016/j.pmatsci.2008.06.004.
Guo S, Meng QK, Cheng XN, Zhao XQ. Deformation behavior of metastable β-type Ti-25Nb-2Mo-4Sn alloy for
biomedical applications. Journal of the Mechanical Behavior of Biomedical Materials. 2014;38:26-32.
H. Kröger, P. Venesmaa, J. Jurvelin, H. Miettinen, O. Suomalainen, E. Alhava, Bone density at the proximal
femur after total hip arthroplasty, Clin. Orthop. R. 352 (1998) 66–74.
H. Matsuno, A. Yokoyama, F. Watari, M. Uo, T. Kawasaki, Biocompatibility and Osteogenesis of Refractory
Metal Implants, Titanium, Hafnium, Niobium, Tantalum and Rhenium, Biomaterials, 2001,
https://doi.org/10.1016/S0142-9612(00)00275-1.
J.Y. Rho, R.B. Ashman, C.H. Turner, Young's modulus of trabecular and cortical bone material: ultrasonic and
microtensile measurements, J. Biomech. (1993), https://doi.org/10.1016/0021-9290(93)90042-D.
Jung TK, Semboshi S, Masahashi N, Hanada S. Mechanical properties and microstructures of β Ti-25Nb-11Sn
ternary alloy for biomedical applications. Materials Science and Engineering: C. 2013;33(3):1629-1635.
Kuroda D, Niinomi M, Morinaga M, Kato Y, Yashiro T. Design and mechanical properties of new β type
titanium alloys for implant materials. Materials Science and Engineering: A. 1998;243(1-2):244-249.
Li, Peiyou, Ma, Xindi, Tong, Ting, Wang, Yongshan. Microstructural and mechanical properties of β-type Ti–
Mo–Nb biomedical alloys with low elastic modulus. Journal of Alloys and Compounds. 815, 2020.
Moraes PEL, Contieri RJ, Lopes ESN, Robin A, Caram R. Effect of Sn addition on the microstructure,
mechanical properties and corrosion behavior of Ti-Nb-Sn alloys. Materials Characterization. 2014;96:273-
281.
Nnamchi PS, Obayi CS, Todd I, Rainforth MW. Mechanical and electrochemical characterisation of new Ti-
Mo-Nb-Zr alloys for biomedical applications. Journal of the Mechanical Behavior of Biomedical Materials.
2016;60:68-77.
Qazi JI, Rack HJ. Metastable Titanium Alloys for Orthopedic Applications. Advanced Engineering Materials.
2005;7(11):993-998.
Rack HJ, Qazi JI. Titanium alloys for biomedical applications. Materials Science and Engineering: C.
2006;26(8):1269-1277.
Xu LJ, Chen YY, Liu ZG, Kong FT. The microstructure and properties of Ti-Mo-Nb alloys for biomedical
application. Journal of Alloys and Compounds. 2008;453,320-324.
Xu LJ, Xiao SL, Tian J, Chen YY. Microstructure, mechanical properties and dry wear resistance of β-type Ti-
15Mo-xNb alloys for biomedical applications. Transactions of Nonferrous Metals Society of China.
2013;23(3):692-698.
Xu, W., Chen, M., Lu, X., Zhang, D., Singh, H., Jian-shu, Y., Liu, C. (2020). Effects of Mo content on corrosion
and tribocorrosion behaviours of Ti-Mo orthopaedic alloys fabricated by powder metallurgy. Corrosion
Science, 108557. doi:10.1016/j.corsci.2020.108557.
Y.T. Sul, The Significance of the Surface Properties of Oxidized Titanium to the Bone Response: Special
Emphasis on Potential Biochemical Bonding of Oxidized Titanium Implant, Biomaterials, 2003,
https://doi.org/10.1016/S0142-9612(03)00261-8.
Zhou YL, Niinomi M. Microstructures and mechanical properties of Ti-50mass% Ta alloy for biomedical
applications. Journal of Alloys and Compounds. 2008;466(1-2):535-542.
Zysset PK, Guo XE, Hoffler CE, Moore KE, Goldstein SA. Elastic modulus and hardness of cortical and
trabecular bone lamellae measured by nanoindentation in the human femur. J Biomech 1999.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1527
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CHARACTERIZATION OF MECHANICAL PROPERTIES AND RESISTANCE TO


CORROSION OF TI-10MO-20NB, TI-6AL-4V AND TI-CP ALLOYS FOR
BIOMEDICAL APPLICATIONS

Abstract. One of the main biomedical alloys, the Ti-6Al-4V alloy, over time generate oxides of
V and Al that accumulate in the body and cause cytotoxic effects. Researches have been
making an effort for developing β metaestable Ti alloys that combine corrosion resistance,
biocompatibility and good mechanical properties. In view of this scenario, the present work
aims to characterize a Ti-10Mo-20Nb alloy and compare the results obtained with a Ti-cp
alloy and Ti-6Al-4V alloy. The Ti-10Mo-20Nb samples have been subjected to termal
treatment at 1000°C, after that they have been water quenched and hot forged at 900°C have
been applied resulting on a cross section reduction of 80%. The alloys have been
characterized by optical microscopy, scanning electron microscopy, Vickers microhardness
and the linear polarization technique. For the Ti-10Mo-20Nb alloy the ratio between the
hardness and the modulus of elasticity was (3.22), the hardness value (238 HV) and the
modulus of elasticity (74 GPa). The Ti-10Mo-20Nb alloy showed less corrosion resistance
than the Ti-6Al-4V alloy, but a higher mechanical and biological compatibility when
compared to other alloys. Being a promising alternative for biomedical applications due to
better biocompatibility with human bone.

Keywords: Ti-10mo-20nb, Linear polarization, Sem, Vickers microhardness, Biomaterial.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1528
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

APLICAÇÃO EM CERÂMICA À BASE DE CIMENTO DE BIOPOLÍMERO


OBTIDO DE RESÍDUOS DE LEITE

Clarissa Dias de Souza1 – clarissajf@yahoo.com.br


Valdir Florencio da Veiga Junior1 - valdir.veiga@gmail.com
Maria Teresa gomes Barbosa2 – teresa.barbosa@engenharia.ufjf.br
Nelson Luis Gonçalves dias de Sousa3 – nelson.luis@uft.edu.br
Sergio Neves Monteiro1 – sergiomonteiro@ime.eb.br
1
Instituto Militar de Engenharia, Rio de Janeiro – RJ, Brazil
2
Universidade Federal de Juiz de Fora, Juiz de Fora – MG, Brazil
3
Universidade Federam do Tocantins, Campus Gurupi – Gurupi - TO, Brazil

Resumo. A redução de materiais na etapa de produção segue os novos preceitos, porém a


pressão sobre os recursos continua crescendo seguindo anexo o alto consumo. Inovações
voltadas para a sustentabilidade são criadas interagindo os sistemas econômicos e ambiental.
Pesquisas de novos materiais crescem produzindo diversos produtos e compostos, como os
biopolímeros em substituição aos aditivos químicos, indispensáveis para incrementar o
conceito de inovação orientada para eco-inovação. Nesse estudo objetivou-se avaliar o
biopolímero derivado do leite bovino em relação a cerâmicas de base cimentícia do tipo CPV-
ARI e CPII-E, relacionando a ação do polímero com cada grupo cimentício através da
resistência, absorção por imersão e capilaridade.O estudo apontou um aumento na resistência
a compreensão em media de 16% CPII-E e 6% nas matrizes CPV-ARI, ambos os traços
testados, não indicou interferência do traço e agregado em relação ao biopolímero, e a
porosidade das matrizes naõ sofreu alteração significativa.Por fim, consideramos que o
biopolímero obteve bom desempenho em matrizes CPV-ARI em relação a hidratação e suas
propriedades mecânicas e deve ser usado com ressalva em matrizes CPII-E.

Palavras-chave: Biopolímeros, cerâmicas, novos materiais.

1. INTRODUÇÃO

A engenharia de materiais cresce avançando nas ultimas décadas, principalmente para a


indústria de materiais para construção, onde diversas pesquisas se destacam como os materiais
multifuncionais e/ou de alto desempenho que podem ser, também, resultados de pesquisas que
visam reaproveitar rejeitos dos diversos setores (Souza et al.,2019).Essa tendência é marcada

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1529
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

pelas novas fronteiras no setor que se fundamenta no conceito de desenvolvimento sustentável


em prol da obtenção de materiais ecoeficientes atendendo não somente às exigências de
preservação do meio ambiente como, também, a viabilidade econômica (Barbosa et al., 2019).
Nos últimos anos estudos relataram que materiais de origem natural podem ser usados com
bom potencial em compósitos cerâmicas a base de cimento (Onuaguluchi et al., 2016; Miller,
2018). Essas adições naturais contribuem tanto para propriedades químicas e físicas dos
compósitos, como aumentam a durabilidade contribuindo para a redução do consumo de
recursos e também amortizando a geração resíduos aumentando a vida útil. (Gandini et al.,
2015).
Outra aplicação sustentável relacionada aos compósitos de matriz cimentícia são os
aditivos orgânicos, ou biopolímeros. São polímeros derivados de proteínas, ácidos graxos,
polissacarídeos e outros, frequentemente de simples extração e baixo custo já usadas no passado
para potencializar misturas cimentícias (Gonçalves et al., 2019). Os estudos desses
biopolímeros tem avançados objetivando em sua maioria o aproveitamento de um rejeito, que
ao retorna ao ciclo de vida como ativo ganha espaço e valor econômico agregado.
Hazarika (2015), aponta o extrato aquoso de quiabo como adição para compósitos de base
cimentícia, avaliando várias propriedades de estados frescos e endurecido. O autor relata
melhora na viscosidade da cerâmica, melhora na taxa de hidratação da reação, e aumento da
resistência mecânica em relação a amostra não aditivada.
Nesse contexto, cabe destacar biopolímeros derivados de Opuntia ficus (espécie de cacto)
usados em matrizes cerâmicas a base de cimento, a pesquisa aponta segundo Martinez et al.
(2015), que ocorreu uma redução dos poros e aumento da sua resistividade elétrica, velocidade
de pulso ultrassônico com o uso da adição. Os autores expõem a ação superabsorvente do
biopolímero, retendo a água e liberando lentamente dentro da matriz promovendo a hidratação
lenta das partículas, por consequência atuando na melhora resistência a compressão.
Em resumo, os biopolímeros atuam nos compósitos de matriz cerâmica combinando os
compostos no momento da mistura. Como os polímeros orgânicos estão dispersos ou
redispersos na água, no início da hidratação, ocorre coalescência do polímero, resultando em
uma co-matriz de filme hidratado de base cimentícia e biopolímero em todo composto. Esse
material resulta principalmente em melhorias na adesão, resistência à penetração de água,
durabilidade e algumas propriedades mecânicas (Torga et al., 2016).
Destacam-se, como uma opção sustentável de polímeros convencionais, os biodegradáveis
que são fontes de recursos renováveis, possuem menor impacto ambiental e melhor viabilidade
técnica e econômica, pois sua degradação decorre da ação de microrganismos naturais
(bactérias, fungos e algas) podendo ser decomposto em semanas ou meses.
Nesse sentido, o objetivo principal desse trabalho foi efetuar uma análise da influência da
utilização da caseína (biopolímero) extraída do rejeito do leite no na resistência a compressão
e capilaridade de matrizes cerâmica a base de cimento com e sem adições, e verificar a relação
do biopolímeros com as adições minerais. Sendo possível concluir que esse biopolímero pode
ser utilizado como um agente colaborador nas propriedades de matrizes cerâmicas a base de
cimento possibilitando a criação de um nicho de aplicação para o rejeito da indústria de
laticínio.

2. MATERIAIS E METODOS

A base cerâmica usada sem adições se trata do cimento conhecido comercialmente por
CPV-ARI com fabricação normalizada pela NBR 16697:2018 produzido com uma maior
dosagem de calcário/argila para produzir clinquer, e trituração mais fina (ABNT, 2018). Assim,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1530
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

o material segundo o fabricante promove altas resistências com maior velocidade. Sendo suas
características apresentadas na Tabela 1.

Tabela 1- Caracterização CPV-ARI usada com referência fornecido pelo fabricante

Compostos Teor (%) Ensaios Físicos


SiO2 19,21 Início de pega (min.) 125
Al2O3 4,98 Fim de pega (min.) 165
Fe2O3 2,95 Finura #325 (%) 2,8
CaO 64,00 A/C (%) 29,8
Superfície específica 4619
MgO 0,73
(cm2/g)
Expansão a quente 0,0
K2O 0,81
(mm)
C3A 8,00 RI (%) 0,38
CO2 1,14 PF (1000°C) 2,70
SO3 2,59 Resistência a compressão-fc (Mpa)
1 dia 28,4
7 dias 45,7
28 dias 55,6

A base cerâmica com adições empregada possui partículas granuladas de alto forno de
escoria, conhecido comercialmente por CPII-E, produzida com variação de 94% à 56% de
clínquer e gesso e 6% à 34% de escória, podendo ou não ter adição de material carbonático no
limite máximo de 10% em massa segundo a norma (ABNT, 2018).
O material segundo o fabricante com adições confere propriedade de baixo calor de
hidratação, e também apresenta melhor resistência ao ataque dos sulfatos contidos no solo.
Segue na sequencia Tabela 2 com caracterização do material.

Tabela 2- Caracterização CPII-E usada com referência fornecido pelo fabricante.

Compostos Teor (%) Ensaios Físicos


SiO2 24,65 Início de pega (min.) 186
Al2O3 8,20 Fim de pega (min.) 242
Fe2O3 2,37 Finura #325 (%) 17,1
CaO 56,70 A/C (%) 27
Superfície específica
MgO 3,74 4181
(cm2/g)
Expansão a quente
K2O 0,58 0,0
(mm)
C3A 5,24 RI (%) 2,04
CO2 3,08 PF (1000°C) 4,76
SO3 1,79 Resistência a compressão-fc (Mpa)
Sulfetos 0,26 1 dia 8,4
7 dias 31,9
28 dias 40,6

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1531
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A extração do biopolímero ocorreu de maneira artesanal, por meios de processos ácidos


apropriados, seguindo a mesma metodologia abordada em Souza et al. (2019), resultando num
complexo proteico (caseína e soro caseína) extraído do rejeito láctea com coloração branca e
textura viscosa. Na primeira etapa ocorre a separação por desnatação da gordura do resíduo,
sendo que, ainda permanece com 0,05% a 0,10% de gordura após o processo.
Em seguida efetua-se o ajuste do pH do coloide variando entre 6,6 e 6,8, empregando-se
uma solução básica e, logo após o sistema é aquecido sob agitação até a temperatura de
aproximadamente 90 ºC durante 30 minutos. Finalizado esse procedimento e, com o
resfriamento do mesmo, adiciona-se uma solução de ácido acético (1 mol/l) até o pH do sistema
atingir aproximadamente 4,6 onde ocorre a coagulação do complexo proteico. A solução é
filtrada e o complexo proteico é preparado em soluções aquosas com ajuste de pH 9,0 por adição
de uma solução de hidróxido de sódio 1 mol/l.
Para a determinação do teor de umidade da solução precipitada emprega-se o método da
estufa de acordo com a NBR 16097:2012 (ABNT,2012), obtendo a proporção de 88,41% de
umidade, por sua vez a parte solida composta pelo complexo de caseína, responsável direto
pelo desempenho da cerâmica corresponde a 11,5%. O material granular usado se trata de uma
areia natural lavada de rio como agregado miúdo com dimensão máxima de 6,30 mm, modulo
de finura 2,68 e peso especifico 2,55 g/cm³. A água utilizada deriva do abastecimento público
local da cidade de juiz de fora. As proporções dos materiais utilizados na composição das
misturas estão expressas na tabela 3 abaixo.

Tabela 3 - Composição dos traços dos experimentais estudados.

CPII-E CPV-ARI
Materiais CR- CR- CPII- CPII- CR- CR- CPV- CPV-
T1 T2 T1 T2 T1 T2 T1 T2
Traço Cimento (g) 1000 1000 1000 1000 1000 1000 1000 1000
em Areia (g) 6000 6000 6000 6000 6000 6000 6000 6000
massa Água (g) 590 1490 590 1490 590 1490 590 1490
das Biopolímero 0 0 100 100 0 0 100 100
amostras (g)

Os concretos foram preparados em dois grupos, variando o teor de biopolímero entre 0% e


10% em relação a massa de cimento, as amostras cilíndricas confeccionadas com dimensão 5
por 10 cm, moldados de acordo com a NBR 5738:2016 (ABNT, 2016)
A composição das amostras trabalhadas são: 1:2:0,59:0, 1:2:0,59:0,10, 1:6:1,49:0 e
1:6:1,49:0,10 onde as proporções representam a variação dos materiais em relação ao peso em
gramas do material cerâmico empregado (cimento) .As composições propostas permitem
avaliar a relação do biopolímero com as duas modalidades de material cerâmico e a ação para
composições mais ricas e pobres em agregados.
Para a desmoldagem, são usados desmoldante na forma, que facilitam o desprendimento
da superfície do material e sua retirada. A resistência á compressão do concreto foi determinada
pelo rompimento dos corpos de prova, segundo método expresso na NBR 7215:2019 com
auxílio de uma prensa hidráulica (ABNT, 2019).
Na sequência as amostras ensaiadas foram avaliadas pela relação expostas a seguir, retirada
da norma NBR 7215:2019, que considera a tensão de engenharia para análise da resistência a
compressão, conforme eq. (1).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1532
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

𝐹
=𝐴 (1)

onde F é Carga de ruptura (Mpa) A a área da seção transversal (m²).


A absorção de água por imersão e por capilaridade das amostras nesse estudo, foram
avaliadas segundo as normas NBR 9778:2009 e NBR 9779:2012 respectivamente. Os corpos
de prova submetidos a ambos os ensaios foram moldados empregando a mesma metodologia
para confecção de amostras do ensaio de resistência compressão.
No processo de absorção por imersão, após o período de cura 28 dias, as amostras foram
pesadas e registrado sua massa seca (g). Em seguida os corpos são saturados por 72 hs por
imersão em água, na sequência pesados novamente, com base nos resultados se estima a
absorção por imersão e índice de vazios para análise do material pelas conforme eq. (2) e eq.
(3)
Msat−Ms
Absorção = ∗ 100 (2)
Ms

Msat−Ms
Indice de vazios = ∗ 100 (3)
Msat−Mi

onde Msat é massa da amostra saturada (g), Ms é a massa da amostra seca em estufa (g), Mi a
massa da amostra saturado, imerso em água (g).

3. RESULTADOS E DISCUSSÕES

Avaliou-se as amostras com relação as propriedades mecânicas considerando sua


concentração de biopolímero e o tipo de base cerâmica aplicada, foram calculados os
coeficientes de variação (CV) dos resultados apresentados (média dos corpos de prova) para
cada propriedade avaliada, que apresentaram CV menor que 10%.
O CPV-ARI comportou-se conforme relatos da literatura, entre os períodos de 7,14 e 28
dias, onde obteve-se alta resistência a compressão em relação ao CPII-E, devido ao fato do
composto possuir um alto teor de silicatos de cálcio na composição e uma granulometria
composta por maior número de finos, com apresentado na tabela 1 (Neville, 2015).
Nas Fig. 1 e 2, tal fato fica evidente, contudo cabe ressaltar, a relação decorrida do
biopolímero na composição T1 em relação as bases cerâmicas usadas, ouve uma contribuição
no aumento da resistência do CPII-E em 15% frente um aumento de 4% para as amostras CPV-
ARI. Em relação as composições T2 o biopolímero ocasionou aumento de 20% (CPII-E) e 8%
(CPV-ARI).
Sabendo que a hidratação do cimento é um processo lento, onde as partículas dispersas em
água desencadeiam reações químicas exotérmicas resultando numa matriz rígida com
resistência significativa (Mehta et al., 2014). Temos que a reação exotérmica ao liberar calor
pode ocasionar perda de parte da água de hidratação, influenciando a resistência final, no caso
das amostras com biopolímero o processo de perda de água pode ter sido amenizado pelo
composto, ocasionando o aumento da resistência.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1533
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CPII R-T1 CPII-T1 CPV R-T1 CPVI-T1


34
Resistencia a compressão 31,38
CPV-ARI
30 27,84
30,12
26 23,71 27,54
(Mpa)

20,85
22 19,72
CPII_E
16,96
18
14,08 17,99
14 15,06

10 11,18
7dias 14 dias 28 dias

Figura 1 - Resistência a compressão das misturas com composição T1 (1:2:0,59).

CPII R-T2 CPII-T2 CPV R-T2 CPV-T2


12
Resistencia a compressão

CPV-ARI 9,32
10 8,78

8 8,58
(Mpa)

6 5,19 6,63
5,08 CPII_E
4 2,89 2,94
2 0,68
2,38
1,78
0 0,24
7dias 14 dias 28 dias

Figura 2 - Resistência a compressão das misturas com composição T2 (1:6:1,49).

Nesse caso o biopolímero, devido a pequena porção de lactose contida na mistura,


ocasionou retardo do calor de hidratação em todas as amostras, cooperando para decréscimo de
fissuras e futuras impermeabilidades na cerâmica, afetando positivamente a resistência e
durabilidade da peça (Souza et al., 2019). No caso do CPV-ARI ocorreu um atraso no início da
hidratação, que se distribuiu ao longo do tempo até início do endurecimento.
No estudo da resistência, o traço não interferiu em relação ao biopolímero, o mesmo age
independente do volume de agregado incorporado na mistura no desenvolvimento da resistência
à compressão do material. O emprego do mesmo não ocasionou dano as reações de ambas
composições de cimento, e visualmente, em ambas as misturas se verificou aumento no
potencial de viscosidade e tempo de trabalhabilidade, tal fato pode ser atribuído as
características plastificante do complexo de proteínas.
Para Helene et al. (2017), a permeabilidade corresponde a capacidade dos líquidos e gases
se movimentarem no material, assim a permeabilidade da cerâmica a base de cimento cresce
quanto maior forem os poros capilares na amostra. A dependência da reação de hidratação da
matriz e a relação água cimento da mistura com a permeabilidade, permite expor que, para uma
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1534
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dada relação água cimento fixa a permeabilidade diminui conforme hidratação do cimento
ocorre e parte do vazio ocupado pela água seja preenchido.Segue na sequencia dados dos
ensaios de absorção por capilaridade e imersão.
Com base nas Fig. 3 e 4, notou-se que a adição do biopolímero nas amostras CPII -T1 e
CPII -T2 influenciou a redução da absorção de 34%, contudo nas amostras CPV -T1 e CPV -
T2 ouve um acréscimo de 28%. Tal fato, pode estar relacionado a reação da adição de escória
de alto forno com o biopolímeros e a expansão dos poros capilares na amostra.

CPII R-T2 0 CPII-T2 0 CPV R-T2 0 CPV-T2 0


35
Absoção por capilaridade

30
CPV_ARI CPII-E
25
(g/cm²)

20

15

10

0
10 90 180 360 1440 2880 4320
Tempo (minutos)

Figura 3 – Ensaio de absorção por capilaridade em T2 (1:2:0,59).

CPII R-T1 0 CPII-T1 0 CPV R-T1 0 CPV-T1 0


5
Absoção por capilaridade

CPV_ARI
(g/cm²)

3
CPII-E
2

0
10 90 180 360 1440 2880 4320

Tempo (minutos)

Figura 4 – Ensaio de absorção por capilaridade em T1 (1:2:0,59).

A relação de diferença entre as composições T1 e T2, já eram esperadas, devido a


quantidade granulométrica inserida na composição influenciou o número vazios nas amostras.
Cabe ressaltar as amostras CPVI-T1 e CPV-T2 uma diminuição considerável na absorção, e a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1535
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

retardação do processo de hidratação pode ter proporcionado uma formação mais completa da
matriz diminuindo a formação de poro.

Tabela 1- Resultados do Ensaio de Absorção por imersão

Nomenclatura CPII – E/32 CPV


CPII CPII CPII- CPII- CPV CPV CPVI- CPV-
R-T1 R-T2 T1 T2 R-T1 R-T2 T1 T2
Absorção por 1,93 9,48 2,19 9,57 1,81 9,31 1,79 9,05
imersão (%)
CV (%) 3,18 4,54 1,78 0,98 1,16 0,62 3,67 2,74

As amostras CPV R-T1 e CPV R-T2 obtiveram índices de absorção maiores que as
amostras CPII R-T1 e CPII R-T2, o que corresponde o esperado pela literatura. Tal fato, decorre
devido a adição escória de alto forno, resíduo não metálica oriunda produção de ferro gusa, a
adição proporcionou diminuição porosidade quando se avaliada parâmetros de absorção e
índices de vazios, assim contribui para a durabilidade dos materiais cerâmicos.

4. CONCLUSÃO

Nesse contexto, cabe lembrar da busca incessante da geração atua pela redução resíduos e
a exploração exacerbada, onde esse estudo segue de encontro com a atualidade quando interage
setores multidisciplinares em busca de uma solução sustentável.
Materiais alternativos ecologicamente corretos, derivados subprodutos tendem a ocasionar
redução de gastos, extração de matéria prima e agregar valor a algo muita das vezes
desvalorizado. Desta forma, se torna notório a importância de estudos com produtos
alternativos e novas tecnologias.
No caso do resíduo, objeto deste estudo, constatou-se que os resultados foram favoráveis,
demonstrando os grandes benefícios à matéria aplicada. Contudo por se tratar de um resíduo
orgânico se faz necessário a expansão do estudo e um estudo com relação à microbiologia da
matéria e controle de qualidade a variação do rejeito devido região e raça de animal podem
variar.
Com isto, a aplicação passa ser uma alternativa para o desenvolvimento de materiais
cerâmicos a base de cimento melhorando a reação de hidratação, para evitar retração, sem
alterar, ou até mesmo melhorar as propriedades mecânicas das matrizes.This section should be
included and need to show the main contributions of the paper in a briefly form.

Acknowledgements

Os autores agradecem o Conselho Nacional de Desenvolvimento Científico e Tecnológico


(CNPq), Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES).

REFERENCES

ABNT, ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). NBR 16697:2018 Cimento Portland
- Determinação e Requisitos. Rio de Janeiro, 2018. 12 p.
ABNT, ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). NBR 16097:2012 Determinação do
teor de umidade — Métodos expeditos de ensaio. Rio de Janeiro, 2012. 5 p.
ABNT, ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). NBR 5738:2015 Concreto -
Procedimento para moldagem e cura de corpos de prova, Rio de janeiro. 2016. 9p.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1536
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ABNT, ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). NBR 7215:2019 Cimento Portland
- Determinação da resistência à compressão de corpos de prova cilíndricos. Rio de Janeiro, 2019 12 p.
ABNT, ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). NBR 9779:2012 Argamassa e
concreto endurecido - Determinação da absorção da água por capilaridade - Método de ensaio. Rio Janeiro,
1995. 3 p.
BARBOSA, Maria Teresa; ALMEIDA, Manuela Guedes de; CASTAÑON, José Alberto. Ambiente construído e
estratégias sustentáveis. 2019.
Gandini, A.; Lacerda, T.M. (2015), From monomers to polymers from renewable resources: Recent advances.
Progress in Polymer Science, 48, 1-39.
Gonçalves, Bianca Muriel et al. Associação genômica ampla para conteúdo de proteína, óleo e ácidos graxos em
soja. 2019.
Hazarika, A.; Hazarika, I.; Gogoi, M.; Bora, S.S.; Borah, R.R.. Goutam, P.J.; Saikia, N. (2015), Use of a plant
based polymeric material as a low cost chemical admixture in cement mortar and concrete preparations. Journal
of Building Engineering, 15, 194-202.
Helene, P.; T. Andrade. (2017) “Materiais de Construção Civil e Princípios de Ciência e Engenharia de
Materiais”. 3ª ed., Ibracon, São Paulo.
Jung, J.Y.; Lee, J.H.; Park, C.G. (2013), Effect of styrene–butadiene latex on the bond performance of macro
synthetic fiber in micro jute/macro synthetic hybrid fiber‐ reinforced latex‐ modified cement‐ based
composites. Journal of applied polymer science, 127, 3522-3529.
Martinez, M.W.; Torres, A.A.; Martínez, P.G.E.I.;, Guzmán, E.A.; Mendoza, P.I.N. (2015), Cement-Based
Materials Enhanced Durability from Opuntia Ficus Indica Mucilage Additions. ACI Materials Journal, 112,
165–172.
Mehta, P. K., Monteiro, P.J.M. (2014), “Concreto: Microestrutura, Propriedades e Materiais”. 3ª ed., Ibracon,
São Paulo.
Miller, S.A. (2018), Natural fiber textile reinforced bio-based composites: Mechanical properties, creep, and
environmental impacts. Journal of Cleaner Production, 198, 612-623.
Neville, A.M. (2015), “Propriedades do Concreto”. 5ª Ed., Bookman, Porto Alegre.
Onuaguluchi, O.; Banthia, N. (2016), Plant-based natural fibre reinforced cement composites: A review. Cement
and Concrete Composites, 68, 96-108.
Souza, C.D.; Souza, N.L.G.D.; Barbosa, M.T.G.; Stephani, R.; Oliveira, L.F.C. (2019), Investigation the
sustainable additive influence, obtained from milk protein, in the chemical and physical properties of Portland
cement. Composites Part B: Engineering, 175, 107148.
Torgal, F.P., Cabeza, L.F., Labrincha, J. and Magalhaes A. (2014), “Eco-efficient construction and building
materials: life cycle assessment (LCA), eco-labelling and case studies”. 3 ed., Elsevier, Amsterdam.
Torgal, F.P., Ivanov, V., Karak, N., Jonkers, H. (2016), “Biopolymers and biotech admixtures for eco-efficient
construction materials”. 1º ed., Elsevier, Amsterdam.

APPLICATION IN CEMENT-BASED CERAMICS OF BIOPOLYMER OBTAINED


FROM MILK WASTE

Abstract. The reduction of materials in the production stage follows the new precepts, but the
pressure on resources continues to grow following high consumption. Innovations focused on
sustainability are created by interacting economic and environmental systems. In this way
researches of new materials grow producing different products and compounds, we have as an
example the biopolymers in substitution to chemical additives. Thus, studies in the field of green
polymers are essential to increase the concept of innovation oriented towards eco-innovation.
This study aimed to evaluate the biopolymer derived from bovine milk in relation to cement-
based ceramics such as CPV-ARI and CPII-E, relating the action of the polymer with each
cement group through resistance, immersion absorption and capillarity tests. Finally, we
consider that the biopolymer performed well in CPV-ARI matrices in relation to hydration and
its mechanical properties and should be used with caution in CPII-E matrices.

Keywords: Biopolymers, ceramics, new materials.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1537
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DA POROSIDADE E ADESÃO EM COMPÓSITO DE COBRE COM


MICROESFERAS CERÂMICAS

Vanessa Ermes Santos – vanessa_ermess@hotmail.com


Camila Oliveira Baptista – camila.oliv.baptista@gmail.com
Danúbia Bordim de Carvalho – dan.bordim@gmail.com
Priscilla Sousa Melo – priscillamello611@gmail.com
Ronaldo Sérgio de Biasi – rsbiasi@ime.eb.br
André Ben-Hur da Silva Figueiredo – abenhur@ime.eb.br
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo. Embora a presença de poros em determinados materiais possa conferir efeitos


indesejáveis, como concentrar tensões e possibilitar a geração de trincas, a porosidade
controlada pode ampliar as aplicações de um material, uma vez que os poros podem
interferir em propriedades físicas, mecânicas e elétricas, dando ao material inicial novas
características. O cobre é um metal muito utilizado na indústria mundial, conhecido por suas
excelentes propriedades elétricas, térmicas, ductilidade elevada e resistência à corrosão.
Porém, a densidade deste metal é elevada, o que o limita em determinadas aplicações. Neste
sentido, as microesferas ocas de cerâmica são compostas essencialmente por sílica e
possuem baixa densidade. A adição das microesferas ocas no cobre gerou poros na matriz
metálica, como mostra as imagens de MEV, além da boa adesão entre as fases metálica e
cerâmica.

Palavras-chave: Poros, Cobre, Microesferas, Compósito

1. INTRODUÇÃO

A existência de poros em determinados materiais pode ser muito interessante, fornecendo


propriedades superiores e possibilitando aplicações diversas. Estudar a porosidade de um
material é importante devido ao fato de que os poros interferem em propriedades físicas como
densidade, condutividade térmica e resistência mecânica (FERREIRA, O. P. et al., 2007).
Exemplos de aplicações de materiais porosos são o carvão ativado e os biomateriais. O carvão
ativado é um material poroso bastante empregado, o qual por conta do nível de porosidade
elevado, exibe grande capacidade de adsorção. Nesta perspectiva, também os biomateriais
porosos são aplicados em próteses ou no preenchimento do tecido ósseo. Estes biomateriais

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1538
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

com a presença de poros atuam promovendo sustentação à parte fisiologicamente ativa dos
seres vivos, visto que o sistema ósseo possui naturalmente poros (SANTOS, A. M. et al.,
2015). Além disso, materiais porosos tendem a absorver as ondas de choque, presentes no
comportamento dinâmico, se tornando altamente eficientes no impacto balístico (MEYERS,
1994).
No campo dos materiais metálicos, tem-se o cobre, que corresponde à um metal muito
importante na história da humanidade, começando a ser utilizado pelo homem há mais de
7000 anos, tendo-se registros da existência de armas constituídas de cobre na época do
surgimento dos espanhóis no continente americano. O cobre tem como características ser um
metal dúctil, resistente à corrosão e excelente condutor de calor e eletricidade (RODRIGUES,
M. A.; SILVA P. P.; GUERRA, W., 2012).
Em polímeros, as microesferas promovem uma boa constante dielétrica e isolamento
térmico, pois conferem a matriz polimérica bolhas de ar permanentes (NERY BARBOZA, A.
C. R.; DE PAOLI, M. A., 2002). As microesferas cerâmicas são constituídas em maior parte
por sílica (SiO2) e a distribuição do tamanho de partícula situa-se na faixa entre 12–50 µm
(AL TENAIJI, M. A., 2014). Podem ser ocas ou porosas, no que diz respeito a sua estrutura
interna. No primeiro caso, a morfologia da microesfera é esférica, e no segundo, as
microesferas possuem uma forma arredondada com superfície rugosa (TAO, 2010 apud AL
TENAIJI, M. A., 2014).
Desse modo, este trabalho visa produzir um compósito poroso constituído por cobre e
microesferas ocas de cerâmica, de modo que as microesferas ocas distribuídas na matriz
metálica sejam eficazes em produzir espaços vazios, através da técnica de fundição,
envolvendo um processo acessível e de baixo custo.

2. DESENVOLVIMENTO

2.1 Materiais e Métodos

O compósito poroso foi produzido por meio da técnica de fundição, com o emprego de
um maçarico, cuja mistura oxicombustível de oxigênio e Gás Liquefeito de Petróleo (GLP)
foi empregada. Os materiais utilizados foram cobre ELUMA S/A e microesferas ocas da
marca Redelease. Com a chama em temperatura ideal para a fusão do cobre, que corresponde
à 1.085 °C, o metal fundiu e então as microesferas foram adicionadas ao cadinho por etapas,
com o intuito de fornecer uma maior interação entre os dois constituintes do compósito.
Após a mistura das fases metálica e cerâmica com a constante aplicação do aquecimento,
o conjunto foi vertido em uma lingoteira de aço. Com o posterior resfriamento ao ar, obteve-
se o material compósito de cobre e microesferas ocas de cerâmica.
O material produzido foi analisado pela Microscopia Eletrônica de Varredura (MEV),
utilizando tensão de aceleração de 30 kV. O objetivo da investigação por meio do MEV foi
verificar a adesão das microesferas com a fase matriz metálica de cobre, se houve a formação
de uma interface entre os dois materiais, e comprovar a presença de poros na microestrutura
da amostra, visto que, macroscopicamente, o compósito fabricado não apresentou regiões
porosas ou vazios em sua extensão. A execução desta técnica de caracterização foi realizada
no Instituto Militar de Engenharia (IME).

2.2 Resultados e Discussão

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1539
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 1 apresenta as imagens de MEV para as amostras de compósito de cobre com


microesferas ocas de cerâmica. Pode-se observar na Fig. 1(a) a morfologia esférica da
microesfera oca e a dimensão desta microesfera: 8,160 µm. Contudo, o tamanho das
microesferas na microestrutura da matriz variou, visto que as partículas empregadas eram,
apesar de todas micrométricas, com dimensões variadas. Na Fig. 1(b) pode-se notar a
coalescência de duas microesferas, indicada pela seta branca, provavelmente devido à alta
temperatura aplicada na fundição.

Figura 1 – Imagens de MEV do compósito de cobre com microesferas ocas de cerâmica: (a)
microesfera oca esférica posicionada ao longo da fase metálica; (b) coalescência de duas
microesferas; (c) adesão entre fases metálica e cerâmica, com as microesferas representadas
pelo tom mais claro; (d) formação dos poros na matriz metálica.

Avalia-se na Fig. 1(c) a adesão entre o cobre e as microesferas cerâmicas, de modo que
algumas microesferas fundiram com o aquecimento fornecido pela chama do maçarico,
perdendo sua morfologia esférica, mas formando uma interface com a matriz metálica,
regiões apontadas pelas setas brancas, gerando uma interação natural entre os dois
consituintes do compósito. Na Fig. 1(d) é possível verificar a presença de poros na matriz
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1540
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

metálica, confirmando que o emprego das microesferas foi eficiente em promover os espaços
vazios no cobre e produzir um material poroso. Vale ressaltar que todos os poros formados
foram todos micrométricos, uma vez que, a olho nu, as amostras não exibiam espaços vazios.

3. CONCLUSÃO

Foi possível comprovar que a fundição do cobre com a adição das microesferas ocas de
cerâmica, foram eficazes em originar espaços vazios no metal, produzindo um compósito
poroso. Além disso, observou-se que houve uma adesão natural entre o cobre e as
microesferas cerâmicas, eliminando a necessidade do uso de compatibilizante para promover
a interação entre os constituintes do compósito.

Agradecimentos

Os autores do presente trabalho agradecem a agência de fomento CAPES e ao


departamento de Ciência dos Materiais do IME.

REFERÊNCIAS

AL TENAIJI, M. A. (2014), Characterisation of Aluminium Matrix Syntactic Foams under Static and Dynamic
Loading. 2014. Tese (Doutorado em Philosophy) – Universidade de Liverpool.
FERREIRA, O. P. et al. (2007), ECOMATERIAIS: DESENVOLVIMENTO E APLICAÇÃO DE MATERIAIS
POROSOS FUNCIONAIS PARA PROTEÇÃO AMBIENTAL, Quim. Nova, v. 30, n. 2, p. 464-467.
MEYERS, M. A. (1994), Dynamic Behavior of Materials, San Diego.
NERY BARBOZA, A. C. R; DE PAOLI, M. A. (2002), Polipropileno Carregado com Microesferas Ocas de
Vidro (Glass Bubbles™): Obtenção de Espuma Sintática. Polímeros: Ciência e Tecnologia, vol. 12, n. 2, p.
130-137.
RODRIGUES, M. A.; SILVA, P. P.; GUERRA, W. (2012), Cobre, QUÍMICA NOVA NA ESCOLA,
Uberlândia, v. 34, p. 161-162.
SANTOS, A. M. et al. (2015), O Incrível Mundo dos Materiais Porosos – Características, Propriedades e
Aplicações, QUÍMICA NOVA NA ESCOLA, v. 38, n. 1, p. 4-11.

EVALUATION OF POROSITY AND ADHESION IN A COPPER COMPOSITE


WITH CERAMIC MICRO-SPHERES

Abstract. Although the presence of pores in certain materials can confer undesirable
effects, such as concentrating stresses and enabling the generation of cracks, controlled
porosity can expand the range of applications of a material, since the pores can interfere
with physical, mechanical and electrical properties , giving the initial material new
characteristics. Copper is an extremely important metal in the world industry, known for
its excellent electrical, thermal, high ductility and corrosion resistance properties.
However, the density of this metal is high, which limits it in certain applications. In this
sense, hollow ceramic microspheres are composed essentially of silica and have low
density. The addition of hollow microspheres in copper may generate empty spaces in this
metal, since they are hollow, promoting pores in the metallic matrix and, consequently,
reducing its specific mass. The SEM images show the success in generating pores in
copper and the good adhesion between the metallic and ceramic phases.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1541
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Keywords: Pores, Copper, Micro-spheres, Composite

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1542
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

LEVITAÇÃO ACÚSTICA: OTIMIZANDO O CAMPO DE PRESSÃO ACÚSTICA


ATRAVÉS DA POSIÇÃO DOS EMISSORES DE ONDAS ULTRASSÔNICAS

Leonardo Martins Freiria1 - freiria.leonardo@gmail.com


Regina Rodrigues dos Santos1 - reginarodrigues@ufg.br
Celso Vieira Abud1 - cabud@ufg.br
1 Universidade Federal de Catalão, Instituto de Matemática e Tecnologia - Catalão, GO, Brazil

Resumo. Neste trabalho investigou-se o fenômeno da levitação de objetos sem contato fı́sico
através da técnica de levitação acústica, utilizando ondas sonoras de alta frequência. Abordou-
se a relação entre a distância dos transdutores e a amplitude de pressão acústica resultante,
onde observou-se que para o agrupamento de vários transdutores, há uma distância ótima
entre o transdutor central e os demais, para que o campo de pressão acústico seja ampliado
utilizando menores quantidades de transdutores. Discute-se que apesar do modelo propor uma
relação inversamente proporcional entre intensidade do campo e distância dos emissores, o
valor ótimo para a distância não é circunvizinho ao emissor central.

Keywords: Levitação acústica, simulação numérica, otimização

1. INTRODUÇÃO

Se mostrássemos aos nossos ancestrais que somos capazes de levitar objetos sem contato
fı́sico, eles provavelmente relacionariam o fenômeno à magia ou algo do tipo. Entretanto,
com os adventos de novas tecnologias foram desenvolvidas diversas técnicas para levitação
de objetos sem contato (Koyama & Nakamura,2010), essas técnicas geram forças que se
contrapõem à força da gravidade que atua sobre o objeto, possibilitando o processo de levitação.
Dentre as diversas técnicas destacam-se a magnética, elétrica, óptica e a levitação acústica
(Silveira & Axt,2003).
A levitação acústica têm se destacado entre as demais, por não possuir restrições quanto
às propriedades intrı́nsecas do material (Andrade et.al, 2014) e, também pela possibilidade da
confecção de modelos de levitatores utilizando a tecnologia aditiva e componentes eletrônicos
de baixo custo. Por isso, essa técnica despertou o interesse do setor farmacológico, quı́mico e
mineiradoras.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1543
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O princı́pio fundamental da levitação acústica baseia-se nas forças de radiação acústicas


gerados a partir de um campo de pressão acústica. Tais forças de radiação acústica podem
ser geradas por ondas acústicas progressivas ou por ondas estacionárias, que em condições
especı́ficas podem contrapor a força gravitacional (Yarin & Pfaffenlehner, 1998),(Brandt, 2001).
As aplicações com as forças de radiação acústicas utilizam, predominantemente, ondas
acústicas, que são geradas pelas múltiplas reflexões de uma onda acústica entre o transmissor e
o refletor. O sistema mais simplificado de levitação acústica é composto por um transdutor,
emissor de ondas acústicas, em que toda a face emissora vibra harmonicamente em uma
frequência ultrassônica, e um refletor utilizado para gera múltiplas reflexões da onda emitida
pelo transdutor. Esse modelo de levitador é denominado levitador acústico de eixo-único
(single-axis acoustic levitator). Neste caso, um transdutor gera uma onda acústica estacionária
entre o transdutor ultrassônico e um refletor que devem estar separados por um múltiplo inteiro
de meio comprimento de onda (λ).
Apesar da evolução em pesquisas sobre levitação acústica, na prática a magnitude da
força acústica é bem inferior quando comparado com à força magnética. Isso praticamente
impossibilita a levitação de objetos mais densos (Andrade, Pérez & Adamowski, 2017).
Buscando otimizar o campo de radiação acústica, investigasse agrupar mais transdutores e
refletores em posições otimizadas para contribuir na intensidade do campo no eixo central do
equipamento. Além disso, com a formação das ondas estacionárias, resultantes da superposição
de duas ondas iguais, surgi outro parâmetro que deve ser estudado, a mudança de fase, devido a
necessidade de intensificar o campo em um ponto especı́fico, deve-se propor fases (atrasos)
nas ondas geradas pelos transdutores na vizinhança do eixo central, para que colaborem
positivamente com o aumento da intensidade do campo acústico resultante (Marzo, Barnes &
Adamowski, 2017).
O presente trabalho está dividido da seguinte maneira. A seção 2 abrange a definição do
modelo de levitação acústica, bem como suas limitações e alternativas para contorná-las. A
Seção 3 contempla uma discussão sobre os resultados alcançados. Por fim, na Seção 4, há as
conclusões obtidas e sugestões para trabalhos futuros.

2. LEVITAÇÃO ACÚSTICA

A amplitude de pressão acústica proporcionado por um levitador acústico cilı́ndrico, pode


ser modelado como (KINSLER et al.,2000),
Df (θ) i(φ+kd)
P (r) = P0 V e (1)
d
onde P0 é a amplitude constante que define os transdutores, V é a tensão aplicada, d é a distância
de propagação, k é o número de ondas, φ é a fase e Df é a função de direção do campo distante
que depende do ângulo θ entre a normal do transdutor e um ponto r no espaço. A função Df
é equivalente a 2J1 (ka sin (θ)), onde, J1 , é a função de Bessel de primeira ordem. Porém, é
possı́vel estabelecer a simplificação Df = sinc(ka sin (θ)).
A fase φ dos emissores pode ser ajustada para se levitar um objeto em determinado ponto
no espaço (xf , yf , zf ) por, (Andrade et.al, 2017),
π
q
φ = −k (xf − xt )2 + (yf − yt )2 + (zf − zt )2 + (2)
2
onde xt , yt e zt representam a posição do transdutor.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1544
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cabe ressaltar da Equação (1) que, uma vez escolhido o ponto de levitação de um objeto,
os transdutores equidistantes ao eixo no qual será realizado a levitação contribuirão igualmente
para a intensidade do campo e devem ser ajustados pela mesma fase φ a ser determinada pela
Equação (2).
Na levitação acústica uma das maiores barreiras é a levitação de partı́culas mais densas, uma
alternativa interessante dá-se pelo aumenta-se do número de transdutores com a finalidade de
aumentar a amplitude do campo de pressão. Contudo, é possı́vel ainda otimizar a disposição de
tais transdutores para encontrar o melhor resultado para o campo acústico.
Ao alterar a diferença de fase entre os emissores, o nó de pressão da onda é deslocado,
fazendo com que a partı́cula aprisionada no nó seja manipulada (Andrade, Pérez & Adamowski,
2017), ou seja, através das fases é possı́vel realizar uma otimização desta manipulação. Outro
arranjo que pode ser otimizado é a disposição dos transdutores para maximizar as forças de
captura e o número de nós (Marzo et.al, 2017).
Para exemplificar os ganhos que se pode alcançar com o posicionamento dos transdutores no
processo de levitação acústica, considera-se o caso de agrupar um conjunto de 6 transdutores e
refletores ao redor de um conjunto de transdutor-refletor central. Cabe ressaltar que neste caso,
tanto os transdutores quanto os refletores emitem sinais ultrassônicos com frequência de 40kHz.
Ao se estabelecer o conjunto de seis transdutores o mais próximo possı́vel do transdutor central
e, realizando a correção de fases dos transdutores conforme descrito na Equação (2), pode-se
observar na Figura (1) que o nó de levitação focalizado está em torno de 23.58mm (posição
central para o modelo com 11 nós), entretanto, a inclusão dos 6 transdutores e refletores no em
torno do central proporciona um acréscimo mı́nimo ao campo de pressão.
Diante da simulação apresentada na Figura (1), é proposto estudar uma combinação ótima
entre a distância dos transdutores para intensificar o campo no eixo central e conciliar o valor
de φ para ajustar da melhor maneira as ondas ultrassônicas para o nó focalizado. Para tais
condições, estabelece que o transdutor central permanecerá fixo em sua posição, enquanto que
os demais transdutores serão realocados para posições que proporcionem a melhor contribuição
ao campo central e ajustando o ponto focal através do valor de φ para as ondas.

Figure 1- (a) Curva de Amplitude de pressão em torno do eixo central, considerando 6 transdutores o
mais próximo possı́vel do transdutor central (forão considerados 11 nós de levitação e priorizando a
intensificação do campo em torno do nó central). (b) Disposição dos transdutores.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1545
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÕES

Almejando a otimização dos campo de pressão acústica em torno do nó central, busca-se
obter uma distância ótima conciliada com a defasagem da onda para se obter uma intensificação
do campo em torno do nó desejado, mais especificamente em uma distância de 1/4 do
comprimento de onda (λ/4). Os chamados nós de levitação são regiões em que a pressão
acústica é praticamente nula e, nos anti-nós são formadas as regiões mais intensas do campo,
direcionando as partı́culas ou objetos para o nó central. Os nós são gerados a uma distância
de meio comprimento de onda (λ/2) e a uma distância de ±λ/4 há os anti-nós, conforme
apresentado na Figura (2), na qual está representado os nós através de uma análise sobre o
campo acústico (linha azul).

Figure 2- Relação entre Nós e anti-nós de levitação.

Conforme exposto anteriormente, para que se possa determinar a posição com maior
contribuição ao campo de pressão, deve-se intensificar o campo entre ±λ/4 da distância para o
nó focalizado. Dessa forma, podemos fixar o valor para Z em 21.44mm (valor para o nó central
subtraı́do λ/4) com o intuito que nesse ponto o campo seja máximo. Através dessa atribuição, o
modelo multivariável é simplificado para um uni-variável. Sendo assim, o valor para θ (ângulo
entre a normal do transdutor e eixo central) pode ser expressa pela equação,
21.44
θmax = arccos p , (3)
(x ) + (21.442 )
2

Por outro lado, é necessário que a fase no nó central (23.58mm) seja mı́nima, almejando
um valor mı́nimo do campo acústico no nó central. Sendo assim, torna-se possı́vel equacionar
o valor da fase φ pela expressão,

p
φmin = −k (x2 ) + (23.582 ) − 23.58 + π, (4)

onde k representa o número de ondas geradas pelo transdutor (k = 2π/λ). Partindo das
Equações (3) e (4), a parte real da Equação (1) dependente, agora, apenas do deslocamento
em x, conforme,
p
P0 V sinc(ka sin θmax ) ∗ cos (k (x2 ) + (21.442 ) + φmin )
P (x) = p , (5)
(x2 ) + (21.442 )

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1546
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Por meio da Equação (5), torna-se possı́vel determinar uma posição ótima para que os
transdutores que sejam incorporados no sistema, contribuam de forma eficiente. Sendo assim,
diferenciando a Equação (5) e igualando a 0, obtemos a localização ótima de 21.6525mm
para os transdutores em torno do centro, de acordo com as configurações determinadas para
este modelo. A Figura (3) representa o campo acústico no nó central conforme se aumenta a
distância x ( Equação (5)), para os valores P0 = 274 e V = 20V .

Figure 3- Pressão acústica ao longo da distância x em relação ao nó focal (xf , yf , zf ) =


(0, 0, 23.58)mm.

Sendo assim, através do valor ótimo determinado pela Equação (5), pode-se afirmar todos
os transdutores no raio em torno de 21-22 mm de distância do eixo central proporcionarão um
aumento otimizado no campo de pressão acústica.
A Figura (4) mostra a amplitude acústica para um levitador com 7 transdutores e 7 refletores,
sendo um par no eixo central e os demais distanciados a 22mm do centro. Apesar da obtenção
do valor ótimo para a distância do transdutor, observa-se que são necessários 6 pares de
transdutores/refletores para que a contribuição desses, sejam equivalentes ao campo gerado pelo
transdutor central.
Comparando-se as Figuras (1-a) e (4-a), é possı́vel observar que o campo gerado pelos
transdutores a uma distância de 22mm é superior em aproximadamente 200P a em comparação
com a disposição com os transdutores mais próximos ao central. Na Figura (5) é apresentado o
modelo do levitador desenvolvido em impressão 3D e com componentes eletrônicos de baixo de
custo, considerando a distância otimizada para os transdutores em torno do centro. No modelo
da Figura (5), utilizando apenas o transdutor central pode-se contrapor a força gravitacional
de uma partı́cula de EPS com uma tensão nominal mı́nima de 18V . Porém, inserindo os
transdutores equidistantes em 22mm do centro foi possı́vel abaixar a tensão nominal para cerca
de 9V , logo conclui-se que a simulação proposta na Figura (4) está de acordo com os resultados
experimentais alcançados.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1547
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 4- (a) Curva de Amplitude de pressão em torno do eixo central, considerando 6 transdutores em
uma distância de 22mm do transdutor central. (b) Disposição dos transdutores.

Figure 5- Experimentos realizados em protótipo de baixo custo utilizando tecnologia de impressão 3D


e componentes eletrônicos como: Arduino, Ponte-H, módulo regulador de tensão, e transdutores de
40kHz.

4. CONCLUSÕES

O fenômeno de levitação de objetos sem contato, utilizando ondas sonoras de alta


frequência foi investigado. O modelo proposto para avaliação da amplitude de pressão acústica,
pressupõem que variáveis como distância entre os transdutores e, a fase dos emissores podem
proporcionar regiões ótimas para a intensificação do campo acústico. Por meio de simulações
numéricas apresentadas foi possı́vel constatar uma solução contraintuitiva, uma vez que, por
se tratar de emissores de ondas sonoras, espera-se que quanto mais próximos os emissores
maior será o campo resultante. Entretanto, pode-se concluir que a distância ótima não é
circunvizinha ao emissor central, mas sim em uma distância aproximada de 22mm. Presume-se
que a agregação dos transdutores para incrementação do campo de pressão acústica, pode ser
otimizado na distância de 22mm utilizando menores quantidades de transdutores. Um estudo
sobre a geometria ótima da disposição dos transdutores pode auxiliar na agregação de emissores
em diferentes posições de tal forma que possam contribuir para um aumento efetivo do campo
de pressão acústico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1548
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

Andrade, M. A. B., Pérez, N. and Adamowski, J. C. (2017), “Review of progress in acoustic levitation”,
Brazilian Journal of Physics.
Andrade, M. A. B., Pérez, N. and Adamowski, J. C. (2015), “Simulação de um Sistema de Levitação
Acústica para Manipulação de Partı́culas em Ar”, JCOMSOL Conference 2015, Curitiba, Brasil, 05
e 06 de novembro de 2015..
Marzo,A. , Barnes, A. and Drinkwater,B. W. (2017), “TinyLev: A multi-emitter single-axis acoustic
levitator”, Review of Scientific Instruments 88, 085105; doi: 10.1063/1.4989995.
Kinsler, L. E.,Frey, A. R., Coppens, A.B., Sanders, J.V. (1962), “Fundamentals of acoustics”, New York:
Wiley..
Brandt, E.H. , (2001) “Acoustic physics: Suspended by sound.”, Nature (London) p. 413–474.
Koyama, D., Nakamura, K. (2010) “Noncontact ultrasonic transportation of small objects over long
distances in air using a bending vibrator and a reflector”, IEEE Trans. Ultrason. Ferroelectr. Freq.
Control, p. 413–474.
Yarin, A. L.; Pfaffenlehner, M.; Tropea, C. (1998) “On the acoustic levitation of droplets. ”, J. Fluid
Mech.

ACOUSTIC LEVITATION: OPTIMIZING THE ACOUSTIC PRESSURE FIELD


THROUGH THE POSITION OF ULTRASONIC WAVES ISSUERS

Abstract. In this work we investigated the phenomenon of levitation of objects without physical
contact through the technique of acoustic levitation, using high frequency sound waves. The
relationship between the distance of the transducers and the amplitude of the resulting sound
pressure was approached, where it was observed that for the grouping of several transducers,
there is an optimal distance between the central transducer and the others, so that the acoustic
pressure field is enlarged using smaller quantities of transducers. It is argued that although the
model proposes an inversely proportional relationship between field strength and distance from
emitters, the optimal value for the distance is not surrounding the central emitter.

Keywords: Acoustic levitation, numerical simulation, optimization

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Búzios, RJ – 28 a 30 Outubro 2020

1549
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DA POROSIDADE EM COMPÓSITO DE COBRE COM PERLITA


EXPANDIDA

Vanessa Ermes Santos – vanessa_ermess@hotmail.com


Camila Oliveira Baptista – camila.oliv.baptista@gmail.com
Danúbia Bordim de Carvalho – dan.bordim@gmail.com
Priscilla Sousa Melo – priscillamello611@gmail.com
Ronaldo Sérgio de Biasi – rsbiasi@ime.eb.br
André Ben-Hur da Silva Figueiredo – abenhur@ime.eb.br
Instituto Militar de Engenharia, Departamento de Ciência dos Materiais – Rio de Janeiro, RJ, Brazil

Resumo. A formação de poros de maneira controlada em um material pode fornecer novas


propriedades à este e, consequentemente, comportamento superior em determinado campo de
aplicação. Os metais porosos apresentam espaços vazios dispersos no metal, com forma
esférica e separados uns dos outros. O cobre é um material metálico muito utilizado pela
indústria global, com excelentes propriedades mecânicas, elétricas e térmicas. Entretanto,
apresenta alta massa específica, se tornando um metal altamente denso. Neste sentido, a
perlita consiste em um mineral extremamente leve e com a peculiaridade de expansão do seu
volume com a aplicação do aquecimento em altas temperaturas. Logo, tem-se a possibilidade
de gerar um material compósito poroso através da junção do cobre com a perlita na sua
forma expandida. As imagens produzidas no microscópio eletrônico de varredura MEV
mostraram o êxito na formação da porosidade no material produzido e a interação natural
entre os dois constituintes do compósito. A técnica de difração de raios X DRX mostrou a
presença do cobre e ausência de picos relacionados a perlita, devido ao fato desta cerâmica
ser amorfa.

Palavras-chave: Cobre, Perlita Expandida, Porosidade, Compósito

1. INTRODUÇÃO

Apesar de a existência não controlada de poros em um material possa originar tensões


estruturais com consequente formação de trincas, a porosidade e a densidade interferem em
características importantes como propriedades mecânicas, ópticas e elétricas, de modo que,
essas propriedades são dependentes dos aspectos dos poros: forma, tamanho e localização
(externos ou internos) (SANTOS, A. M. et al., 2015). Conforme afirma MEYERS (1994),
materiais porosos agem como um meio de absorção de energia, isto é, quando submetidos à

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1550
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

esforços de impacto, atuam como absorvedores das ondas de choque. Sendo assim, é preciso
solicitar bem mais de um material com poros, e quanto maior o nível de porosidade, melhor
será a sua resposta no comportamento dinâmico. Os metais porosos compreendem materiais
que possuem poros dispersos no metal, geralmente esféricos e individuais. São um tipo
especial de metal celular, onde o grau de porosidade é, normalmente, menor que 70%
(BANHART, J., 2002).
O cobre refere-se à um metal utilizado pela humanidade há milhares de anos. Possui
como características principais elevada ductilidade, alta resistência à corrosão, não sofrendo
oxidação por íons hidrogênio sob condições padrão e possui coloração avermelhada
(RODRIGUES, M. A.; SILVA, P. P.; GUERRA, W., 2012). Após a prata, este material
metálico é o melhor condutor de calor e de eletricidade. Em contrapartida, possui densidade
elevada (CHIAVERINI, V., 1986).
A perlita é um material mineral com a característica de expansão quando submetida ao
aquecimento (KAYACI, K., 2020). Com relação à atividade industrial, a perlita na sua forma
expandida ganha destaque, sendo um material granular, com baixíssima densidade e alta área
superficial específica, obtida pelo aquecimento rápido em altas temperaturas (PÁLKOVÁ, H.
et al., 2020). Este aquecimento provoca um aumento de volume em até vinte vezes, fenômeno
relacionado com a água presente no mineral. Devido aos poros presentes, a perlita se
apresenta como um agregado leve, com massa específica aparente na faixa de 0,08-0,1 g/cm3.
O seu ponto de fusão encontra-se entre as temperaturas de 1085-1250 °C. Este material
cerâmico consiste essencialmetne em um aluminossilicato, com morfologia lamelar e amorfo
(DA SILVA FILHO, S. H.; VINACHES, P.; PERGHER, S.B.C., 2017).
Sendo assim, o presente trabalho visa produzir um material compósito de cobre com
partículas de perlita expandida, de modo que a perlita atue como material formador de poros
no cobre, analisar a morfologia dos poros formados e a interface entre os dois materiais
utilizados através da Microscopia Eletrônica de Varredura (MEV) e verificar a natureza
química do material com o emprego da Difração de Raios X (DRX).

2. DESENVOLVIMENTO

2.1 Materiais e Métodos

Os materiais empregados foram cobre ELUMA S/A e perlita expandida MULTIQUIM


S.R.L. Através da utilização de um maçarico com mistura oxicombustível de oxigênio e Gás
Liquefeito de Petróleo (GLP) produziu-se o compósito de cobre com perlita expandida
macroscopicamente poroso. Após a fusão do metal, em 1085 °C, as partículas de perlita, com
tamanho de aproximadamente 0,5 mm, foram colocadas sobre o cobre fundido, e sob
aquecimento foi realizada a mistura dos dois constituintes do material. Em seguida, o
conjunto foi vertido em uma placa plana de granito e imediatamente outra placa foi
posicionada em cima do fundido, a fim de promover uma redução máxima na espessura do
compósito, gerando uma fina camada porosa de compósito com o resfriamento.
O material produzido foi submetido à Microscopia Eletrônica de Varredura (MEV), com
tensão de aceleração de 30 kV. Esta análise permitiu avaliar a presença dos poros na matriz,
sua morfologia e a adesão entre a fase contínua de cobre e os grãos de perlita expandida. O
compósito poroso também foi submetido à técnica de Difração de Raios X (DRX), com o
intuito de comprovar a natureza química das amostras de compósito, através da estrutura
cristalina. Foram utilizados os parâmetros faixa angular de 10 a 120° e fonte de radiação
CoKα. As análises foram realizadas no Instituto Militar de Engenharia (IME).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1551
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 Resultados e Discussão

A análise microestrutural comprovou a presença dos poros nas amostras com perlita,
esféricos e isolados uns dos outros, apresentados pelas Figuras 1 (a) e (b). Os espaços vazios
ficaram distribuídos pelas amostras e alguns com tamanhos macroscópicos após o
processamento, enquanto outros atingiram dimensões micrométricas, como mostra as Figuras
1 (c) e (d).

Figura 1 – Imagens de MEV das amostras do compósito poroso: (a) poros esféricos e
individuais; (b) variação no tamanho dos poros; (c) e (d) tamanho micrométrico de dois poros
diferentes.

Adicionalmente, observa-se, nas Figuras 2 (a) e (b), a formação de uma interface entre a
matriz metálica de cobre e a segunda fase dispersa de cerâmica (região mais clara) formada
pela perlita expandida, mostrando a adesão entre os dois materiais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1552
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 – (a) e (b) Adesão entre o cobre e a perlita expandida.

Por meio da difração, confirmou-se a natureza química do cobre presente nas amostras,
com a correspondência dos picos obtidos em relação ao cobre puro, localizados nas posições
angulares 2θ: 50,755°; 59,324°; 88,834°; 110,305°. No entanto, apareceram outros picos, que
sugere-se que são referentes aos resquícios de material cerâmico que ficaram impregnados na
superfície das amostras após o contato do fundido com as placas de granito, mineral definido
pela associação variada de diversos materiais. Assim, aponta-se que os picos não referentes ao
cobre são relativos ao granito, uma vez que a perlita expandida é amorfa. A Figura 3 mostra o
difratograma obtido para as amostras compósitas de cobre com perlita.

Figura 3 – Difratograma do compósito de cobre com perlita expandida.

3. CONCLUSÃO

A caracterização microestrutural comprovou a interação natural entre os dois materiais


constituintes do compósito, formando uma interface, excluindo a necessidade de adicionar um
novo material ou processamento com o intuito de promover a adesão do metal com a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1553
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

cerâmica. Além disso, foi possível comprovar a geração de porosidade no cobre com o
emprego da perlita expandida como agente formador de poros.

Agradecimentos

Os autores deste trabalho agradecem a agência de fomento CAPES e ao departamento de


Ciência dos Materiais do IME.

REFERÊNCIAS

BANHART, J. (2002), Handbook of Cellular Metals: production, processing, application. Editores H-P
Degischer, B. Kriszt: Weinheim.
CHIAVERINI, V. (1986), Tecnologia Mecânica – Materiais de Construção Mecânica. 2. ed. Editora McGraw-
Hill: São Paulo.
DA SILVA FILHO, S. H.; VINACHES, P.; PERGHER, S. B. C. (2017), CARACTERIZAÇÃO ESTRUTURAL
DA PERLITA EXPANDIDA. PERSPECTIVA, Erechim, v. 41, n. 155, p. 81-87.
KAYACI, K. (2020), The use of perlite as flux in the production of porcelain stoneware tiles. BOLETÍN DE LA
SOCIEDAD ESPANÕLA DE CERÂMICA Y VIDRIO, p. 1-8.
MEYERS, M. A. (1994), Dynamic Behavior of Materials. San Diego: John Wiley & Sons.
PÁLKOVÁ, H. et al. (2020), Determination of water content in raw perlites: Combination of NIR spectroscopy
and thermoanalytical methods. Spectrochimica Acta Part A: Molecular and Biomolecular Spectroscopy.
RODRIGUES, M. A.; SILVA, P. P.; GUERRA, W. Cobre. (2012), QUÍMICA NOVA NA ESCOLA,
Uberlândia, v. 34, p. 161-162.
SANTOS, A. M. et al. (2015), O Incrível Mundo dos Materiais Porosos – Características, Propriedades e
Aplicações. QUÍMICA NOVA NA ESCOLA, v. 38, n. 1, p. 4-11.

EVALUATION OF POROSITY IN COPPER COMPOSITE WITH EXPANDED


PERLITE

Abstract. The formation of pores in a controlled manner in a material may provide new
properties to it and consequently superior behavior in a given application field. Porous
metals present empty spaces dispersed in the metal, with spherical shape and separated from
each other. Copper is a metallic material widely used by the global industry, with excellent
mechanical, electrical and thermal properties. However, it has a high specific mass,
becoming a highly dense metal. In this sense, perlite consists of an extremely light mineral
and has the peculiarity of expanding its volume with the application of heating at high
temperatures. Therefore, it is possible to generate a porous composite material by joining
copper with perlite in its expanded form. SEM images showed the successful formation of
porosity in the material produced and the natural interaction between the two constituents of
the composite. The XRD technique showed the presence of copper and the absence of peaks
related to pearlite, due to the fact that this ceramic is amorphous.

Keywords: Copper, Expanded Perlite, Porosity, Composite

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1554
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

PROBLEMA INVERSO DE ESTIMATIVA DOS PARÂMETROS ADVECTIVOS E


DISPERSIVOS DE UM CURSO FLUVIAL MODELADO COM UMA FORMULAÇÃO
BIDIMENSIONAL

Bruno Carlos Lugão1 - blugao@iprj.uerj.br


Diego Campos Knupp1 - diegoknupp@iprj.uerj.br
Pedro Paulo Gomes Watts Rodrigues1 - pwatts@iprj.urej.br
1 Universidade do Estado do Rio de Janeiro, Instituto Politécnico - Nova Friburgo, RJ, Brasil

Abstract. Neste trabalho será abordado o problema de estimativa dos parâmetros, dispersivos
e advectivos, da equação do transporte bidimensional a partir do lançamento instantâneo de
um traçador. Os dados considerados foram obtidos por meio de um experimento realizado por
Sousa (2009) em um trecho do rio São Pedro, localizado na cidade de Nova Friburgo/RJ. A
equação do transporte foi discretizada pelo método de diferenças finitas, sendo empregado o
algoritmo de evolução diferencial como minimizador da função objetivo de mı́nimos quadrados
a partir da abordagem de máxima verossimilhança. A metodologia utilizada conseguiu obter
boas estimativas e apresentou resultados de melhor aderência, com os dados experimentais, em
relação a modelagem unidimensional aplicada por Sousa (2009).

Keywords: Problema Inverso, Fonte Pontual, Evolução Diferencial, Diferenças Finitas

1. INTRODUÇÃO

Rios podem conter e transportar diversas substâncias capazes de afetar a pureza de suas
águas e limitar seus usos. O despejo de poluentes em corpos hı́dricos e o consequente
comprometimento da qualidade das águas é possivelmente um dos maiores problemas
ambientais da atualidade (Collischonn e Dornelles, 2013).
A previsão do comportamento da dispersão de poluentes em rios, conduzida através de
modelos matemáticos, é importante para a análise e redução de impactos ambientais, podendo
levar a estimativas do alcance e das concentrações a serem observadas por uma pluma de
contaminantes. Desse modo, torna-se relevante o conhecimento das variáveis que influenciam
o transporte de efluentes despejados em um determinado curso fluvial.
Nesse contexto, o uso de problemas inversos surge como uma importante ferramenta na
estimativa dos parâmetros de interesse. A partir do experimento realizado por Sousa (2009)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1555
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

vários estudos, com diferentes metodologias, foram utilizados visando obter um bom ajuste
entre a resposta calculada e estes dados experimentais (Rodrigues et al., 2012; Rodrigues el al.,
2013; Lugão et al., 2016). Embora os trabalhos mencionados sejam capazes de obter estimativas
satisfatórias para os parâmetros, todos eles fazem uso de modelos unidimensionais e portanto
não podem avaliar o comportamento da pluma antes da zona de mistura completa. Indo de
encontro a essa limitação, o presente estudo, considera um modelo bidimensional de transporte
e portanto amplia o escopo dos trabalhos anteriores.

2. FORMULAÇÃO E SOLUÇÃO DO PROBLEMA DIRETO

Suponha o aporte de um contaminante de modo instantâneo, em um curso fluvial


bidimensional, de comprimento Lx e largura Ly na posição (x0 , y0 ). Considere também vazão
constante e variação da velocidade apenas na direção transversal. O problema descrito pode ser
visualizado, esquematicamente, conforme a figura 1.

Figure 1- Representação esquemática

Matematicamente é possı́vel modelar o cenário de despejo idealizado, considerando


coeficientes de dispersão constantes com a equação diferencial parcial seguir:

∂C ∂C ∂ 2C ∂ 2C
+ ux (y) = Ex 2 + Ey 2 (1a)
∂t ∂x ∂x ∂y

∂C
C(0, y, t) = C0 e =0 (1b)
∂x

x=Lx

∂C ∂C
=0 e =0 (1c)
∂y y=0 ∂y y=Ly
M
C(x, y, 0) = f (x, y) = C0 + δ(x − x0 )δ(y − y0 ) (1d)
H
sendo C0 [g/m3 ] a concentração do contaminante presente no rio, ux (y) [m/s] a velocidade, δ(·)
[m−1 ] a função delta de dirac ,Ex [m2 /s] e Ey [m2 /s] os coeficientes de dispersão longitudinal e
transversal, M [g] a massa de poluente inserida na posição (x0 , y0 ) com profundidade H [m] no
ponto de lançamento. Neste trabalho, adotou-se um perfil parabólico para a velocidade segundo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1556
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a Eq. (2). Nessa expressão um indica o valor máximo da velocidade, que ocorre, na linha central
do escoamento.
 2 !
y − 0.5Ly
ux (y) = um 1 − (2)
0.5Ly

Para a solução do problema direto, utilizou-se o método de diferenças finitas, cuja ideia
central é substituir a equação diferencial parcial analisada por uma aproximação discreta. Isso
significa que a solução numérica é conhecida apenas em um número finito de pontos do domı́nio
estudado. A quantidade de pontos pode ser escolhida pelo usuário do método e, em geral, seu
aumento não melhora apenas a resolução (detalhes), como também torna mais precisa a solução
obtida.
Dentre as diversas estratégias de discretização existentes na literatura, neste trabalho,
considerou-se uma formulação explı́cita por meio o esquema FTCS (Forward Time Centered
Space). Substituindo as aproximações discretas, obtidas por meio de uma expansão em série de
Taylor nas derivas da Eq. (1) segundo Ozisik (1994), encontra-se a seguinte expressão para os
nós interiores da malha computacional após algumas manipulações algébricas:

n+1 n n n n n
Ci,j = sy Ci,j−1 + (sx + rxj )Ci−1,j + (1 − 2sx − 2sy )Ci,j + (sx − rxj )Ci+1,j + sy Ci,j+1 (3)

onde
ux (yj )∆t Ex ∆t Ey ∆t
rxj = , sx = , sy =
2∆x ∆x2 ∆y 2

3. FORMUMAÇÃO E SOLUÇÃO DO PROBLEMA INVERSO

O problema inverso proposto será formulado implicitamente, a partir da abordagem de


máxima verossimilhança, e resolvido como um problema de otimização. Para tanto, será
utilizada a função objetivo S que representada o resı́duo quadrático entre os dados calculados e
as medidas experimentais, a ser minimizada, de acordo com a Eq. (4):
Nd
X
S(P) = (Yi − Yi (P))2 = (Y − Y(P))> (Y − Y(P)) (4)
i=1

onde Y é o vetor contendo as medidas experimentais, Y(P) é o vetor com as saı́das do problema
direto, Nd indica a quantidade de dados e P representa o vetor de incógnitas com Np parâmetros,
que neste trabalho, será considerado como:

P = {um , Ex , Ey }

Uma vez definido os parâmetros a serem estimados, uma etapa preliminar importante,
compreende analisar o quão sensı́veis eles são. Os coeficientes de sensibilidade modificados
Jij , dados pela Eq. (5), representam uma medida da variação da concentração calculada com
respeito a mudanças nos valores de P. A multiplicação por Pj é importante para manter cada
componente na mesma unidade e facilitar as comparações a serem realizadas.
∂Ci
Jij = Pj , i = 1, · · · , Nd e j = 1, · · · , Np (5)
∂Pj
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1557
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Segundo Ozisik (2000) pequenos valores na magnitude de Jij , indicam que grandes
mudanças em Pj conduzem a pequenas variações em C, ou seja, baixa sensibilidade. Esse
comportamento leva a uma maior dificuldade na estimativa deste parâmetro, uma vez que, a
mesma concentração seria obtida por uma grande gama de valores de Pj . Assim, é desejável que
se tenha coeficientes de sensibilidade com elevadas magnitudes, visando tornar mais acurada a
estimativa dos parâmetros de interesse.
Com o intuito de minimizar a função objetivo definida na Eq. (4), considerou-se, o método
estocástico de evolução diferencial (differential evolution - DE) proposto por Storn e Price
(1995). De modo geral, a ideia central deste algoritmo recai sobre a atualização de cada
indivı́duo, realizada por meio de operações vetoriais. Basicamente, a diferença ponderada entre
um determinado número de membros é somada a um outro elemento da mesma população.
Assim, o indivı́duo gerado por esse esquema é avaliado de acordo com a função objetivo,
podendo este, substituir outros componentes da população mal avaliados nas gerações seguintes
(Lobato, 2011).
Inicialmente se especifica os parâmetros do algoritmo que, na sua versão clássica,
compreende o número máximo de gerações Gmax , o tamanho da população Npop , a
probabilidade de cruzamento CR, a taxa de mutação F e os intervalos de busca para cada
parâmetro. Após essas definições é gerada uma população inicial aleatória.

xij = PjM in + rand PjM ax − PjM in , i = 1. · · · , Npop e j = 1, · · · , Np



(6)

onde PjM in e PjM ax representam, respectivamente, os valores mı́nimo e máximo de cada


parâmetro Pj e rand é um número aleatório, gerado, a partir de uma distribuição uniforme
entre 0 e 1.
Após a inicialização da população, dá-se inı́cio ao processo evolutivo, sendo aplicado
o operador de mutação que adiciona a um vetor de referência, escolhido aleatoriamente, a
diferença entre dois outros vetores, também selecionados de modo randômico. Note que, os


ı́ndices, r0 , r1 e r2 devem ser diferentes entre si no processo de construção do vetor mutante vig .

−g − → −
→ − →
vi = xgr0 + F xgr1 − xgr2 (7)

Aplica-se agora o operador de cruzamento dado pela Eq. (8). Este passo do evolução
diferencial visa gerar novos indivı́duos onde, o vetor mutante, pode ser aceito na população
com uma probabilidade CR.
(→−g

−g vi se rand ≤ CR ou j = jrand
ui = → −g (8)
xi caso contrário

Podemos agora utilizar o operador de seleção, de forma a verificar quais indivı́duos estão
mais aptos a seguir para as próximas gerações baseado no valor da função objetivo.

→−g
 →−g  →
−g 
−− → ui se S ui ≤ S xi
xg+1
i = → − (9)
xg caso contrário
i

Uma vez completado o processo de seleção segue-se para a próxima geração, onde o
processo descrito anteriormente se repete até que o número máximo de gerações seja atingido.
Visando facilitar o entendimento do processo iterativo do algoritmo de evolução diferencial, a
figura 2 apresenta um fluxograma que resume todos os passos seguidos por esta metodologia.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1558
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

População
Inicial Mutação Cruzamento Seleção
(Aleatória)

Gmax Atingido? Parâmetros


Não Sim Estimados

Figure 2- Fluxograma Evolução Diferencial, adaptado de Silva Neto (2016)

4. RESULTADOS E DISCUSSÃO

Nesta seção serão apresentados os principais resultados para o problema inverso abordado.
Para tanto serão utilizados os dados experimentais obtidos por Sousa (2009) referente ao
lançamento instantâneo de 2000 g de NaCl, diluı́dos em aproximadamente 15 litros de água
em um balde, na linha central do escoamento do rio São Pedro, localizado na região rural do
municı́pio de Nova Friburgo/RJ. Na tabela 1 tem-se as caracterı́sticas da seção de injeção do
experimento juntamente com os parâmetros geométricos do problema modelado.

Table 1- Parâmetros do curso fluvial no local do lançamento (Sousa, 2009)


Lx [m] Ly [m] C0 [mg/L] M [g] H[m] umedia [m/s] x0 [m] y0 [m] Qrio [m3 /s]
200 2,4 15,5 2000 0,44 0,41 50 1,2 0,538

As simulações computacionais realizadas foram implementadas em linguagem python, com


exceção da solução do problema direto, formulado em fortran 90 e convertido em um módulo
python por meio da rotina f2py. Cabe ressaltar que toda a análise inversa foi realizada através
do pacote python ipsimpy (Inverse Problem Simple Modeling) que encontra-se, em uma versão
alpha, como um projeto privado no github criado pelo primeiro autor deste trabalho.
Na tabela 2 tem-se uma análise de convergência, para o método de diferenças finitas, com
passo de tempo ∆t = 0, 04 s em diferentes malhas. Foram considerados três pontos ao longo
da seção transversal nas posições x = 70 m, x = 100 m e x = 150 m. A medida que a
malha computacional é refinada, nota-se que os valores não se alteram, até a segunda casa
decimal, para a discretização mais fina. Visando manter um equilı́brio entre convergência e
custo computacional, empregou-se a malha 201 x 41 na solução do problema direto devido ao
processo iterativo intensivo referente a minimização da função objetivo dada pela Eq. (4).
É importante destacar que, os coeficientes de dispersão Ey e Ex considerados nos cálculos
da tabela 2, foram obtidos, respectivamente, por meio de fórmulas empı́ricas desenvolvidas por
Fischer (1967) e Fischer (1979). Já a velocidade no centro do curso fluvial, foi assumida, como
o valor médio encontrado por Sousa (2009) na seção de lançamento como indicado na tabela 1.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1559
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 2- Convergência diferenças finitas com ∆t = 0.04


x =70 m x =100 m x =150 m
Malha Espacial
y =0,6 y =1,2 y =1,8 y =0,6 y=1,2 y=1,8 y=0,6 y=1,2 y=1,8
(Nx x Ny )
t =100 s
201 x 21 20,144 16,635 20,144 73,224 94,371 73,224 15,525 15,596 15,525
201 x 41 20,136 16,626 20,136 73,254 94,267 73,254 15,525 15,595 15,525
201 x 61 20,134 16,624 20,134 73,259 94,248 73,259 15,525 15,595 15,525
201 x 81 20,134 16,623 20,134 73,260 94,241 73,260 15,525 15,594 15,525
201 x 101 20,133 16,623 20,133 73,261 94,238 73,261 15,525 15,594 15,525
t =200 s
201 x 21 15,906 15,556 15,906 22,168 17,549 22,168 48,144 54,705 48,144
201 x 41 15,886 15,552 15,886 22,150 17,529 22,150 48,140 54,723 48,140
201 x 61 15,883 15,552 15,883 22,146 17,525 22,146 48,139 54,726 48,139
201 x 81 15,882 15,551 15,882 22,145 17,524 22,145 48,139 54,727 48,139
201 x 101 15,881 15,551 15,881 22,145 17,523 22,145 48,139 54,728 48,139
t =400 s
201 x 21 15,506 15,501 15,506 15,654 15,536 15,654 19,387 17,294 19,387
201 x 41 15,505 15,501 15,505 15,641 15,533 15,641 19,323 17,252 19,323
201 x 61 15,505 15,501 15,505 15,639 15,532 15,639 19,311 17,244 19,311
201 x 81 15,505 15,501 15,505 15,638 15,532 15,638 19,306 17,241 19,306
201 x 101 15,505 15,501 15,505 15,638 15,532 15,638 19,304 17,240 19,304

Com o intuito de verificar à influência dos parâmetros na solução do problema inverso, na


figura 3, é possı́vel observar os coeficientes de sensibilidade modificados. Analisando as curvas
nota-se que elas apresentam comportamento distinto, evidenciando, a possibilidade de estimar
os 3 componentes de P simultaneamente. Percebe-se também que, a partir de t = 300 s, Ex e
Ey não apresentam variação significativa.

um
Coeficiente de Sensibilidade

100 Ex
Ey
50
0
50
100
0 100 200 300 400 500
t [s]
Figure 3- Análise de Sensibilidade Modificada

O problema inverso de estimativa em questão foi executado 10 vezes, sendo os resultados


obtidos compilados na tabela 3, juntamente com os intervalos de busca e algumas estatı́sticas
importantes. Tem-se, em todas as simulações realizadas, resultados muito próximos para os
três parâmetros. Este fato reflete uma homogeneidade das amostras para cada um, como pode

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1560
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

ser verificado, por meio dos baixos valores do coeficiente de variação. A velocidade no centro
do rio apresenta o menor CV , comportamento este já esperado, pelo fato deste parâmetro ser
aquele que possui a maior sensibilidade.

Table 3- Sı́ntese de 10 execuções do DE na solução do problema inverso


Execução um ∈ [0, 5; 0, 9] Ex ∈ [0, 5; 1, 5] Ey ∈ [10−4 ; 3, 5 × 10−2 ] S(P)
1 0,76358 0,54914 0,00610 132,1447
2 0,76229 0,55280 0,00606 132,4088
3 0,76231 0,55317 0,00606 132,4084
4 0,76218 0,55329 0,00604 132,6216
5 0,76240 0,55346 0,00606 132,6677
6 0,76237 0,55360 0,00606 132,6677
7 0,76241 0,55350 0,00606 132,6677
8 0,76239 0,55358 0,00606 132,6677
9 0,76184 0,55160 0,00603 132,6738
10 0,76199 0,55227 0,00604 132,6719
Média (µ) 0,76238 0,55264 0,00606 −
Desvio Padrão (σ) 0,00047 0,00139 0,00002 −
Coef. Variação (CV ) 0,06 % 0,25 % 0,32 % −
Sousa (2009) 0,59 1,75 − 250,75
Parâmetros Utilizados Sousa (2009) Fischer (1979) Fischer (1967)

Tabela 2 0,41 0,67 0.002

Ainda analisando a tabela 3 é possı́vel observar que a primeira execução obteve o menor
valor da função objetivo, sendo que o maior resultado ocorreu na nona execução. A diferença
entre o resı́duo quadrático desses extremos foi apenas 0,5291 e, na prática, não leva a variações
significativas no ajuste da solução do problema direto em relação aos dados experimentais como
pode ser visto na figura 4. Além disso, cabe ressaltar que a abordagem 2D apresentou melhores
resultados se comparados com os de Sousa (2009), que utilizou um modelo unidimensional,
sendo o valor da função objetivo aproximadamente 47, 3% menor.

Melhor
50 Pior
Sousa (2009)
40 Dados
C [mg/L]

30

20

0 100 200 300 400 500


t [s]
Figure 4- Ajuste em relação aos dados experimentais

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1561
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Por fim, na figura 5, tem-se o comportamento do contaminante ao longo do tempo para o


domı́nio bidimensional considerado. Percebe-se que o modelo prevê a ocorrência da completa
mistura na seção transversal ocorrendo, aproximadamente, a 100 m do local de lançamento.
Desse ponto em diante, é possı́vel empregar modelos unidimensionais na análise da dispersão
de traçadores ao longo do rio. Outro detalhe interessante, percebido claramente nesta figura, é a
influência do perfil de velocidade parabólico no transporte do traçador. Essa velocidade tem seu
valor mı́nimo nas margens mas aumenta, gradualmente, até atingir seu máximo na linha central
do escoamento.
750 150
2.0 600 2.0 125

1.5 1.5 100


450
y [m]

y [m]
75
1.0 300 1.0
50
0.5 150 0.5 25
0.0 0 0.0 0
0 50 100 150 200 0 50 100 150 200
x [m] x [m]
(a) t = 10 s (b) t = 50 s
80 56
2.0 70 2.0 48
60 40
1.5 1.5
50
y [m]

y [m]

32
1.0 40 1.0
30 24
0.5 0.5 16
20
0.0 10 0.0 8
0 50 100 150 200 0 50 100 150 200
x [m] x [m]
(c) t = 100 s (d) t = 150 s

Figure 5- Evolução da pluma de contaminante ao longo do tempo no domı́nio bidimensional

5. CONCLUSÕES

A metodologia proposta se mostrou eficiente ao estimar os coeficientes de dispersão e


a velocidade no centro do rio de modo, a obter um bom ajuste, em relação aos dados
experimentais considerados. A equação de transporte bidimensional empregada foi capaz de
analisar a dispersão da pluma de contaminantes, antes da zona de mistura completa, superando
assim uma severa limitação dos modelos unidimensionais.
Formulou-se o problema inverso estudado implicitamente, visando a minimização do
resı́duo quadrático entre os dados calculados e as medidas experimentais. Nesse processo de
minimização utilizou-se 10 execuções do algoritmo de evolução diferencial com populações

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1562
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

iniciais distintas. Os parâmetros recuperados apresentaram baixos valores para os coeficientes


de variação juntamente com bons ajustes, mesmo para as piores estimativas. Não é possı́vel
garantir que as soluções encontradas são ótimos globais, mas se apresentam como soluções
viáveis, para o problema em questão.
Também é importante frisar que a abordagem 2D alcançou uma melhor aderência ao
conjunto experimental, sendo esta melhora, verificada através de um resı́duo quadrático 47, 3%
menor que aquele alcançado por Sousa (2009). Desse modo, fazer uso de uma dimensão a mais
na análise do transporte de traçadores em um curso fluvial se torna vantajoso, principalmente,
pelos processos dispersivos não estarem agrupados num único parâmetro.
A partir dos resultados obtidos, como proposta de trabalho futuro, é plausı́vel simular
diferentes formas do aporte de contaminantes no rio São Pedro considerando um modelo
previamente calibrado. Além disso, a modelagem empregada, apresenta potencial de aplicação
na gestão de recursos hı́dricos seja no auxı́lio para a tomada de decisão ou na identificação de
prováveis despejos fora dos padrões definidos pela legislação ambiental.

AGRADECIMENTOS

O presente trabalho foi realizado com o apoio da Coordenação de Aperfeiçoamento de


Pessoal de Nı́vel Superior - Brasil (CAPES) - Código de Financiamento 001.

REFERENCES

Collischonn, W., and Dornelles, F. (2013). ”Hidrologia para engenharia e ciências ambientais”. Porto
Alegre: Associação Brasileira de Recursos Hı́dricos, 1.
Davis, M. L., and Masten, S. J. (2016). ”Princı́pios de engenharia ambiental”. McGraw Hill, Brasil.
Fischer, H. B., and Park, M. (1967). Transverse mixing in a sand-bed channel. US Geological Survey,
Professional Paper, 267-272.
Fischer, H. B., List, J. E., Koh, C. R., Imberger, J., and Brooks, N. H. (1979).Mixing in Inland and
Coastal Waters. Academic Press.
Lobato, F. S., Steffen Jr, V., and Silva Neto, A. J. (2011). ”Resoluçao de problemas inversos em processos
difusivos e transferência radiativa usando o algoritmo de evoluçao diferencial”, in Computação
Evolucionária em Problemas de Engenharia. Omnipax, 173-195, Curitiba.
Lugão, B. C., Knupp, D. C., Rodrigues, P. P. G. W. and Silva Neto, A. J. (2016). ”Formulação de um
Problema Inverso no Estudo da Dispersão de Poluentes no Rio São Pedro”, XIX Encontro Nacional
de Modelagem Computacional. João Pessoa - PB.
Ozisik, M. N. (2000). Inverse heat transfer: fundamentals and applications. CRC Press.
Ozisik, M. N. (1994). Finite difference methods in heat transfer. CRC Press.
Rodrigues, P. P. G. W., Gonzalez, Y. M., Sousa, E. P., and Moura Neto, F. D. (2012). Estimativa
dos parâmetros de dispersão em rios montanhosos através do algoritmo de Luus-Jaakola. Revista
Brasileira de Recursos Hı́dricos, 17(1), 87-95.
Rodrigues, P. P. G. W., González, Y. M., de Sousa, E. P., and Moura Neto, F. D. (2013). Evaluation
of dispersion parameters for River São Pedro, Brazil, by the simulated annealing method. Inverse
Problems in Science and Engineering, 21(1), 34-51.
Souza, E. P., (2009), “Avaliação de Mecanismos Dispersivos em Rios Através de Problemas Inversos”,
Dissertação de Mestrado, IPRJ/UERJ, Nova Friburgo.
Silva Neto, A. J. S., Becceneri, J., and Campos Velho, H. F. (2016). Inteligência Computacional
Aplicada a Problemas Inversos em Transferência Radiativa. EdUERJ, Rio de Janeiro.
Storn, R., and Price, K. (1995). Differential evolution–a simple and efficient adaptive scheme for global
optimization over continuous spaces: technical report TR-95-012. International Computer Science,
Berkeley, California.

INVERSE PROBLEM OF ESTIMATING THE ADVECTIVE AND DISPERSIVE


PARAMETERS OF A FLUVIAL COURSE MODELED WITH A BIDIMENSIONAL
FORMULATION

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1563
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Abstract. In this work, the problem of estimating the parameters, dispersive and advective,
of the two-dimensional transport equation from the instantaneous launch of a tracer will
be addressed. The data considered were obtained through an experiment carried out by
Sousa (2009) on a stretch of the São Pedro River, located in the city of Nova Friburgo / RJ.
The transport equation was discretized by the finite difference method, using the differential
evolution algorithm as a minimizer of the objective function of least squares from the maximum
likelihood approach. The methodology used was able to obtain good estimates and presented
better adherence results, with the experimental data, in relation to the one-dimensional
modeling applied by Sousa (2009).

Keywords: Inverse Problem, Point Source, Differential Evolution, Finite Difference

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1564
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

RESOLUÇÃO DO PROBLEMA DE ESTACIONAMENTO PARALELO EM TEMPO


MÍNIMO UTILIZANDO-SE O COP ILOT S

Arthur Henrique Iasbeck1 - arthuriasbeck@ufu.br


Fran Sérgio Lobato2 - fslobato@ufu.br
Pedro Augusto Queiroz de Assis3 - pedro.assis@ufu.br
1,2,3 Universidade Federal de Uberlândia, Faculdade de Engenharia Mecânica - Uberlândia, MG, Brasil

Resumo. O presente trabalho tem como objetivo a introdução do COP ILOT S, um pacote
proposto para resolução de Problemas de Controle Ótimo (PCOs) com base no emprego de
Métodos Diretos. Esse pacote de código aberto, escrito para o Maltabr , foi elaborado para ser
utilizado por usuários com pouca ou nenhuma experiência na implementação computacional
de PCOs. Empregou-se o COP ILOT S na determinação da trajetória a ser percorrida por um
veículo na execução de uma manobra de estacionamento paralelo efetuada em tempo mínimo.
A comparação entre os resultados obtidos e aqueles reportados na literatura indica o potencial
do pacote.

Palavras chave: COP ILOT S, Problema de Controle Ótimo, Estacionamento paralelo,


Colocação Direta, Otimização

1. INTRODUÇÃO

O problema do estacionamento paralelo consiste na determinação da trajetória a ser


percorrida por um veículo durante a realização de uma manobra de baliza, a partir do qual
objetiva-se o posicionamento do automóvel em uma vaga paralela à via (Paromtchik & Laugier,
1996). No processo de determinação das posições assumidas pelo veículo durante a realização
da manobra, é necessário que sejam impostas limitações à velocidade e à aceleração do
automóvel, de forma a garantir o conforto dos passageiros e evitar o choque com outros veículos
já estacionados ou com os limites da via (Li & Wang, 2016). Uma das formas de resolver o
problema do estacionamento paralelo é empregando o Controle Ótimo.
Segundo Becerra (2008), o Controle Ótimo pode ser brevemente descrito como um conjunto
de métodos empregados na determinação das trajetórias de estados e controles de um sistema
dinâmico que minimizam (ou maximizam) um índice de desempenho, garantindo o devido
respeito a restrições de estado e controle. Segundo Sussmann & Willems (1997), as origens

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1565
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

do Controle Ótimo remontam ao fim do século XVII, quando, em 1697, Johann Bernoulli
apresentou à comunidade científica a solução do problema da braquistócrona. Bryson (1996)
propõe que o Controle Ótimo possui também raízes na Teoria do Controle Clássico, com
destaque para a formulação do Filtro de Kalman e do Regulador Linear Quadrático (LQR).
Ainda segundo Becerra (2008), aplicações do Controle Ótimo podem ser verificadas nas áreas
da robótica, engenharia aeroespacial, bioengenharia, e engenharia química.
Uma das formas de se resolver um problema de Controle Ótimo (PCO) é através da
implementação dos Métodos Diretos (Betts, 2001), que são baseados na transformação do
PCO em um problema de programação não linear (PPNL) (Becerra, 2008). Este tipo de
metodologia é amplamente adotado nos pacotes desenvolvidos para solução de PCOs. Isto
se deve principalmente à ampla gama de algoritmos de otimização robustos que podem ser
aplicados na resolução de PPNLs extensos e com diferentes tipos de restrições (Biral et al.,
2016).
No presente trabalho apresenta-se um pacote proposto para resolução de PCOs a partir do
emprego de Métodos Diretos, o COP ILOT S (Basic Optimal Control Solver). Esse pacote de
código aberto, escrito para Maltabr , foi elaborado para ser utilizado por usuários com pouca
ou nenhuma experiência na resolução computacional de PCOs. Para isso, o COP ILOT S
possibilita que, por meio da execução de um único comando, sejam criados, e já parcialmente
preenchidos, scripts a serem utilizados na estruturação do PCO, guiando o usuário iniciante.
Além disso, o COP ILOT S apresenta uma sintaxe algébrica próxima à da formulação de Bolza,
o que simplifica a implementação do PCO (Febbo et al., 2020).
Fazendo uso de uma das métricas propostas por Febbo et al. (2020) - o número de linhas
de código - a implementação do problema do estacionamento paralelo, por exemplo, é mais
simples no COP ILOT S se comparado a outros pacotes similares, como indicam os dados
introduzidos na Tabela 1. Vale ressaltar que o FALCON.m (Rieck et al., 2020) e o ICLOCS
(Imperial College London Optimal Control Software) (Nie et al., 2018) são pacotes escritos
para o Matlabr , enquanto o PSOPT (Pseudospectral Optimal Control Solver) (Becerra, 2019)
é uma biblioteca baseada em C++.

Tabela 1- Número de linhas de código utilizadas na implementação do problema do estacionamento


paralelo.

COP ILOT S 149


FALCON.m 165
PSOPT 311
ICLOCS 362

Diferentemente de outros pacotes, como o GPOPS-II (Patterson & Rao, 2014) e o PROPT
(Patterson & Rao, 2014), também baseados no Matlabr , o COP ILOT S é gratuito e seu código
fonte pode ser encontrado em https://github.com/ArthurIasbeck/copilots.
O presente trabalho tem como objetivo apresentar o COP ILOT S e implementá-lo na
obtenção da trajetória a ser percorrida por um automóvel na realização de uma manobra de
estacionamento paralelo em tempo mínimo. Pretende-se, a partir da implementação desse
estudo de caso, avaliar o desempenho do COP ILOT S e a qualidade das soluções obtidas
por meio desse pacote. Além disso, a fim de reduzir o esforço computacional, é proposto um
novo método para inicialização do problema do estacionamento paralelo.
O texto se encontra estruturado da seguinte maneira: na Seção 2, a formulação matemática

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1566
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de um PCO é apresentada. O COP ILOT S é introduzido na Seção 3. O estudo de caso


em análise é apresentado na Seção 4 assim como os resultados obtidos. Por fim, na Seção
5, as discussões apresentadas ao longo do trabalho são sumarizadas e algumas sugestões para
trabalhos futuros são apresentadas.

2. O PROBLEMA DE CONTROLE ÓTIMO

Os Problemas de Controle Ótimo (PCOs) são normalmente representados na forma Bolza,


mostrada a seguir (Becerra, 2008),
Z tf
min J = φ(x(tf ), tf ) + L(x(t), u(t), t)dt
t0
sujeito a
ẋ(t) = f (x(t), u(t), t), x(t0 ) = x0
(1)
c(x(t), u(t), t) ≤ 0
ψ(x(tf ), tf ) ≤ 0
xL ≤ x(t) ≤ xU
uL ≤ u(t) ≤ uU

em que x é o vetor de estados, x0 a condição inicial, u o vetor de controles, e J o índice


de desempenho (ou função objetivo), formulado a partir das funções de custo de Mayer φ e
de Lagrange L. No vetor c estão representadas as restrições de caminho, enquanto o vetor ψ
contém as condições terminais. Os limitantes inferior e superior para estados e controles são
indicados pelos subscritos L e U .
Após a transformação do PCO (1) em um PPNL, determinam-se os valores ótimos de
estados e controles em pontos específicos da trajetória, que são chamados nós de colocação
(Kelly, 2017). Nessa metodologia, as equações diferenciais do modelo são transformadas em
restrições algébricas, que devem ser satisfeitas nos nós de colocação. Para isso, a evolução
dos estados e controles é tipicamente aproximada por um polinômio. Por exemplo, uma reta
(colocação trapezoidal), uma parábola (colocação de Hermite-Simpson), ou um polinômio
ortonormal de Legendre ou Chebyshev (colocação pseudo-espectral) (Kelly, 2017).

3. INTRODUÇÃO AO COP ILOT S

O COP ILOT S é uma biblioteca de código aberto desenvolvida para solução de PCOs
envolvendo sistemas dinâmicos descritos por equações diferenciais de primeira ordem, e é
baseado na implementação de Métodos de Colocação Direta. O PPNL advindo da transcrição do
PCO em análise é resolvido por meio do emprego do SQP (Sequential Quadratic Programming)
(Vanderplaats, 1984). O usuário pode optar ainda por adotar a colocação trapezoidal ou a
colocação Hermite-Simpson.
Por tratar-se de uma biblioteca aberta, é possível visualizar e alterar o código fonte caso
necessário. Além disso, o pacote encontra-se organizado em módulos e foi desenvolvido com
base no paradigma da Programação Orientada a Objetos, o que facilita a compreensão do código
fonte e a realização de atualizações (Parejo et al., 2012).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1567
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O processo de instalação do COP ILOT S é composto por duas etapas. Primeiramente, faz-
se o download do código fonte e adiciona-se a pasta em que esse foi salvo ao path do Matlabr
(Mathworks, 2020). Em seguida, executa-se no Matlabr o comando copilotsSetup.
A resolução de um PCO no COP ILOT S também é um processo constituído de duas
etapas. Primeiramente executa-se o comando copilotsNew para criação da pasta new, que
contém os scripts a serem preenchidos para implementação do PCO. Uma vez realizado este
preenchimento, executa-se o comando copilots dentro da pasta new para que se inicie
o processo de obtenção da solução. Ao fim da execução a pasta results será criada para
armazenamento dos resultados obtidos, como as trajetórias ótimas de estados e controles, e
os parâmetros associados à solução do PPNL originado na transcrição do PCO. A interpolação
e representação gráfica das trajetórias ótimas são geradas e armazenadas de forma automática,
e são, por padrão, apresentadas ao final da execução.
Por fim vale ressaltar que tanto o código fonte do COP ILOT S quanto os arquivos gerados
após a execução do comando copilotsNew estão repletos de comentários que orientam
a utilização do pacote. Mais ainda, acompanham o código fonte uma série de exemplos
envolvendo diferentes aplicações que podem ser utilizadas como base para implementação de
novos problemas.

4. ESTUDO DE CASO: EXECUÇÃO DE MANOBRA DE BALIZA EM TEMPO


MÍNIMO

4.1 Descrição do problema

Com o objetivo de verificar a qualidade das soluções geradas pelo COP ILOT S,
considerou-se o problema do estacionamento paralelo em tempo mínimo (Li & Wang, 2016).
As variáveis envolvidas no problema, bem como as posições inicial e final do automóvel, são
apresentadas respectivamente nas Figs. 1(a) e 1(c).
O modelo dinâmico do sistema é o seguinte:

ẋ(t) = v(t) · cos θ(t) (2)


ẏ(t) = v(t) · sen θ(t) (3)
v̇(t) = a(t) (4)
ȧ(t) = j(t) (5)
v(t) · tan φ(t)
θ̇(t) = (6)
l
φ̇(t) = ω(t) (7)

em que l é a distância entre os eixos do veículo, m e n os afastamentos entre as extremidades


e os eixos traseiro e dianteiro, respectivamente, enquanto b é metade da largura do automóvel.
A velocidade e aceleração do ponto médio P do eixo traseiro são representadas por v e a. Os
pontos A, B, C e D são as extremidades do retângulo que delimita o veículo. O ângulo entre
a velocidade do ponto médio do eixo dianteiro e a reta γ é dado por φ. A inclinação de γ
em relação ao eixo x é dada por θ. O jerk e a velocidade angular referente à φ são denotados
respectivamente por j e ω.
Visando garantir o conforto dos passageiros e a redução do estresse sobre os atuadores, são

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1568
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1- (a) Variáveis utilizadas na formulação do problema do estacionamento paralelo. (b) Choque do
automóvel com os limites da vaga. (c) Posições assumidas pelo veículo no início e no final da manobra.

impostas as seguintes restrições:

|a(t)| ≤ 0,75 m/s2 (8)


|v(t)| ≤ 2 m/s (9)
|φ(t)| ≤ 0,58 rad (10)
|j(t)| ≤ 0,5 m/s3 (11)
|κ0 (t)| ≤ 0,6 1/(m · s) (12)

em que κ0 (t) = ω(t)/(l · cos2 φ(t)) é a derivada da curvatura instantânea, associada a limitações
na velocidade angular ω(t) (Li & Wang, 2016).
Todas as posições assumidas pelo veículo na execução da manobra devem estar contidas na
região delimitada pelas curvas α(x) = (H(x − SL) − H(x)) · SW e β(x) = CL, sendo H(x)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1569
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a função degrau unitário. Considerando as relações entre a posição do veículo e os pontos A,


B, C e D, dadas por

A = (Ax , Ay ) = (x + (l + n) · cos θ − b · sen θ, y + (l + n) · sen θ + b · cos θ) (13)


B = (Bx , By ) = (x + (l + n) · cos θ + b · sen θ, y + (l + n) · sen θ − b · cos θ) (14)
C = (Cx , Cy ) = (x − m · cos θ + b · sen θ, y − m · sen θ − b · cos θ) (15)
D = (Dx , Dy ) = (x − m · cos θ − b · sen θ, y − m · sen θ + b · cos θ) (16)

podem-se introduzir restrições que garantem que o veículo não se choque com os limites da via
ou da vaga, isto é:

Ay (t) ≤ β(x) (17)


By (t) ≤ β(x) (18)
Cy (t) ≤ β(x) (19)
Dy (t) ≤ β(x) (20)
Ay ≥ α(Ax ) (21)
By ≥ α(Bx ) (22)
Cy ≥ α(Cx ) (23)
Dy ≥ α(Dx ) (24)

No entanto, como indicado na Fig. 1(b), é possível que haja colisões mesmo que
as restrições (17)-(24) sejam satisfeitas. Assim sendo, novas restrições são propostas.
Considerando um novo sistema de eixos x0 Gy 0 redefinem-se os pontos O e E da seguinte forma:
l+n−m
Ox0 Gy0 = (Ox0 , Oy0 ) = (−x · cos θ − y · sen θ − , x · sen θ − y · cos θ) (25)
2
l+n−m
Ex0 Gy0 = (Ex0 , Ey0 ) = (−x · cos θ − y · sen θ − + SL · cos θ,
2 (26)
x · sen θ − y · cos θ − SL · sen θ)

Então, para garantir que as laterais do automóvel não se choquem com os pontos O e E
durante a execução da manobra, deve-se admitir que

|Ox0 | ≥ (l + m + n)/2, quando |Oy0 | ≤ b (27)


|Ex0 | ≥ (l + m + n)/2, quando |Ey0 | ≤b (28)

Consideram-se como condições iniciais do problema x(0) = SL + m, y(0) = 1,5, e


v(0) = a(0) = θ(0) = φ(0) = 0. Como condições terminais têm-se m ≤ x(tf ) ≤ SL − (l + n),
−(SW − b) ≤ y(tf ) ≤ 0, e v(tf ) = a(tf ) = θ(tf ) = 0.
Por fim, uma vez que deseja-se minimizar o tempo de execução da manobra, adota-se
J = tf , em que tf é o tempo final que, assim como os estados x(t), y(t), v(t), a(t), θ(t) e
φ(t), e os controles j(t) e ω(t), deve ser obtido na solução do PCO. No mais, cabe ressaltar que
foram adotados l = 2,588 m, n = 0,839 m, m = 0,657 m, b = 0,8855 m, SL = 6 m, SW = 2
m, e CL = 3,5 m (Li & Wang, 2016).
Detalhes acerca da implementação do problema do estacionamento paralelo em
tempo mínimo no COP ILOT S podem ser verificados em https://github.com/
ArthurIasbeck/copilots/tree/master/examples/estacionamento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1570
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.2 Apresentação e avaliação dos resultados

A resolução de um PPNL está diretamente relacionada à inicialização do algoritmo


empregado (Kelly, 2017). Para obtenção de uma trajetória factível, propõe-se em Li & Wang
(2016) a introdução de uma região crítica, delimitada pelos pontos X, Y , Z e W apresentados
na Fig. 1, e a resolução de uma série de Nf e PCOs semelhantes ao original. Na formulação
do Nχ -ésimo PCO consideram-se restrições que garantem que veículo esteja contido na região
crítica para t ∈ [h · Nχ , tf ], sendo h = tf /Nf e e Nχ = 1, ..., Nf e . Então, a solução do primeiro
PCO é utilizada como palpite inicial para resolução do segundo, e assim sucessivamente, até
que o PCO original seja resolvido para Nχ = Nf e . Visando minimizar o esforço computacional
envolvido na inicialização do PPNL, uma abordagem distinta foi aqui proposta.
A obtenção de cada solução aqui apresentada foi realizada a partir de duas execuções. Na
primeira, desconsideram-se as restrições (27) e (28), uma vez que estas são não convexas
e dificultam a obtenção de trajetórias viáveis. Então, na segunda execução, as restrições
inicialmente desconsideradas são reinseridas no problema e a solução obtida anteriormente é
utilizada na inicialização do COP ILOT S.
A resolução do PCO em análise pode ainda ser dificultada pela representação matemática
dos limites da vaga, que possui descontinuidades em x = 0 e x = SL. Para evitar que a
otimização divirja, os limites da vaga são aqui representados pela soma de funções sigmoides
(Kelly, 2017). Uma vez que as restrições (27) e (28) também são descontínuas, a mesma
abordagem foi empregada em sua representação.
Um dos critérios a partir do qual o desempenho do COP ILOT S pode ser verificado é o
tempo de processamento (Li & Wang, 2016). Para o estudo de caso em análise, assumiu-se
como tempo total de processamento tp a soma dos tempos despendidos pelas duas execuções
necessárias para obtenção da solução. Para computação do tempo médio, considerou-se a média
dos tempos de cinco execuções distintas. O COP ILOT S foi executado, neste caso, em um
computador com 8 GB de memória RAM e um processador Intel(R) Core(TM) i7-7500U CPU
com 2.70 GHz. Além disso, adotaram-se os parâmetros padrões de execução do pacote.
Além do tempo de processamento médio tp , dado em segundos, e do desvio padrão
associado st , outros critérios foram também empregados na avaliação do desempenho do
COP ILOT S. Mais especificamente, o valor ótimo da função objetivo J ∗ , o número de
avaliações naval de J, e a máxima violação das restrições ∆rmax (Bongartz et al., 1997; Darby
et al., 2011; Dolan et al., 2004). Na Tabela 2 são mostrados os resultados obtidos por meio do
COP ILOT S na resolução do estudo de caso em análise.

Tabela 2- Comparação entre os resultados obtidos por meio do COP ILOT S, considerando-se tanto
a colocação trapezoidal (COP ILOT St ), quanto a colocação Hermite-Simpson (COP ILOT Sh ), e
aqueles reportados por Li & Wang (2016). Os dados não informados são representados por “−”. O
número de nós de colocação é denotado por N .

Método N J ∗ [s] tp [s] st naval ∆rmax


COP ILOT St 20 7,581 6,607 0,011 165 9,99E-16
COP ILOT Sh 10 7,522 6,717 0,067 8836 2,22E-15
Li & Wang (2016) 40 7,521 41,868 − − −

Na Fig. 2 são mostradas as posições assumidas pelo veículo durante a manobra de


estacionamento. A curva que conecta os pontos P0 e Pf representa a evolução da trajetória

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1571
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

do ponto P (x, y).


As trajetórias ótimas dos controles j(t) e ω(t), e dos estados v(t), a(t), θ(t) e φ(t),
são introduzidas na Fig. 3. A caracterização dessas trajetórias foi realizada a partir da
interpolação dos valores assumidos pelos estados e controles nos nós de colocação. Os
resultados apresentados nas Figs. 2 e 3 foram obtidos considerando-se o emprego da colocação
trapezoidal.

5
4
3
2
1
0
-1
-2
-3
0 2 4 6 8 10

Figura 2- Posições assumidas pelo veículo na execução da manobra de estacionamento. A trajetória do


ponto P (x, y) é representada pela curva que conecta os pontos P0 e Pf .

De modo geral, os resultados obtidos por meio do COP ILOT S, introduzidos nas Figs.
2 e 3, e na Tabela 2, são coerentes com aqueles reportados por Li & Wang (2016), tanto nos
perfis dos estados e controles quanto nos valores de função objetivo atribuídos a cada solução.
Observa-se ainda que a utilização da colocação trapezoidal requereu, em comparação com a
da colocação Hermite-Simpson, um número bem inferior de avaliações, apesar do tempo de
processamento ser, praticamente, o mesmo. Esta diferença pode ser explicada pela natureza
numérica de cada uma dessas estratégias.
Na avaliação da qualidade das soluções advindas da utilização do COP ILOT S é necessário
que se leve em conta que a abordagem aqui proposta para inicialização do problema é
consideravelmente mais simples que aquela empregada por Li & Wang (2016), já que envolve
apenas duas execuções. Por fim, ressalta-se que os perfis de controle obtidos por Li & Wang
(2016), introduzidos na Fig. 3, apresentam oscilações de alta frequência que não aparecem nos
perfis obtidos por meio do COP ILOT S.

5. CONCLUSÕES E TRABALHOS FUTUROS

O presente trabalho teve como objetivo apresentar um pacote de código aberto para solução
de PCOs, o COP ILOT S. As principais características do COP ILOT S são a simplicidade e
a geração automática dos scripts utilizados na implementação dos PCOs. Foi apresentada uma
visão geral sobre as funcionalidades do pacote e sua utilização, e o mesmo foi empregado

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1572
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0
0,50 0,60
-0,50
0,40
0
-1,0
0,20
-0,50
-1,5
0
0 2,0 4,0 6,0 0 2,0 4,0 6,0 0 2,0 4,0 6,0

0,50
0,50
1,0

0 0 0

-1,0
-0,50
-0,50
0 2,0 4,0 6,0 0 2,0 4,0 6,0 0 2,0 4,0 6,0

Li & Wang

Figura 3- Comparação entre os resultados obtidos por meio do COP ILOT S, considerando-se o
emprego da colocação trapezoidal, e aqueles reportados por Li & Wang (2016).

na determinação da trajetória a ser percorrida por um automóvel durante uma manobra de


estacionamento paralelo realizada em tempo mínimo. A comparação entre os resultados obtidos
e aqueles reportados na literatura evidencia a qualidade das soluções obtidas por meio do
COP ILOT S.
Vale ressaltar que apesar da qualidade dos resultados obtidos por meio do COP ILOT S,
há espaço para implementação de diversas melhorias. Pretende-se oferecer ao usuário a
possibilidade de utilizar outros otimizadores não nativos do Matlabr , como, por exemplo, o
IPOPT (Interior Point OPTimizer), um pacote aberto e gratuito para solução de PPNLs de larga
escala (Wächter & Biegler, 2006). Além disso, tem-se em vista o emprego de ferramentas
simbólicas do Matlabr na obtenção de derivadas analíticas, tanto para a função objetivo quanto
para as restrições, o que possivelmente acarretaria redução no tempo de processamento e no
número de avaliações da função objetivo (Rieck et al., 2020)

Agradecimentos

Os autores agradecem à CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível


Superior) por ter financiado o desenvolvimento deste trabalho.

Referências

Becerra, V. M. (2008). Optimal control. Scholarpedia.


Becerra, V. M. (2019). PSOPT Optimal Control Solver User Manual.
Betts, J. T. (2010). Practical Methods for Optimal Control and Estimation Using Nonlinear
Programming. Society for Industrial and Applied Mathematics.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1573
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Biral, F.; Bertolazzi, E.; e Bosetti, P. (2016). Notes on Numerical Methods for Solving Optimal Control
Problems. IEEJ Journal of Industry Applications.
Bongartz, I.; Conn, A. R.; Gould, N. I. M.; Saunders, M. A.; e Toint, Ph. L. (1997). A numerical
comparison between the LANCELOT and MINOS packages for large-scale constrained optimization.
Council for the Central Laboratory of The Research Councils.
Bryson, A. E. (1996). Optimal control-1950 to 1985. IEEE Control Systems, 16(3), 26–33.
https://doi.org/10.1109/37.506395
Change Folders on the Search Path - MATLAB & Simulink. Acessado: 1 out. 2020. Disponível em:
https://www.mathworks.com/help/matlab/matlab_env/
add-remove-or-reorder-folders-on-the-search-path.html
Darby, C. L.; Hager, W. W.; e Rao, A. V. (2011). An hp-adaptive pseudospectral method for solving
optimal control problems. Optimal Control Applications and Methods.
Dolan, E. D.; Moré, J. J.; e Munson, T. S. (2004). Benchmarking Optimization Software With COPS 3.0.
Argonne National Laboratory.
M. Rieck; M. Bittner; B. Grüter; J. Diepolder; e P. Piprek. (2020). FALCON.m: User Guide. Institute of
Flight System Dynamics, Technical University of Munich.
Febbo, H.; Jayakumar, P.; Stein, J. L.; e Ersal, T. (2020). NLOptControl: A modeling language for
solving optimal control problems.
Patterson, M. A.; e Rao, A. V. (2014). GPOPS-II: A MATLAB Software for Solving Multiple-Phase
Optimal Control Problems Using hp-Adaptive Gaussian Quadrature Collocation Methods and Sparse
Nonlinear Programming. ACM Transactions on Mathematical Software.
Y. Nie; O. Faqir; e E. Kerrigan. (2018). ICLOCS2 - Imperial College London Optimal Control Software.
Acessado: 19 set. 2020. Disponível em: http://www.ee.ic.ac.uk/ICLOCS/default.
htm.
Kelly, M. (2017). An Introduction to Trajectory Optimization: How to Do Your Own Direct Collocation.
SIAM Review.
Li, B.; Wang, K.; e Shao, Z. (2016). Time-Optimal Maneuver Planning in Automatic Parallel
Parking Using a Simultaneous Dynamic Optimization Approach. IEEE Transactions on Intelligent
Transportation Systems.
Parejo, J. A.; Ruiz-Cortés, A.; Lozano, S.; e Fernandez, P. (2012). Metaheuristic optimization
frameworks: A survey and benchmarking. Soft Computing.
Paromtchik, I. E.; e Laugier, C. (1996). Autonomous parallel parking of a nonholonomic vehicle.
Proceedings of Conference on Intelligent Vehicles.
Rutquist, P. E.; e Edvall, M. M. (2010). PROPT - Matlab Optimal Control Software.
Sussmann, H. J.; e Willems, J. C. (1997). 300 years of optimal control: From the brachystochrone to the
maximum principle. IEEE Control Systems Magazine.
Vanderplaats, G. N. (1984). Numerical Optimization Techniques for Engineering Design. McGraw Kill,
Inc.
Wächter, A.; e Biegler, L. T. (2006). On the implementation of an interior-point filter line-search
algorithm for large-scale nonlinear programming.

SOLVING THE PARALLEL PARKING PROBLEM IN MINIMUM TIME USING


COPILOTS

Abstract. This work aims to introduce COP ILOT S, a package that uses Direct Methods for
solving Optimal Control Problems (OCPs). This open source package, written in Maltabr , was
designed for users with little or none experience in the computational implementation of OCPs.
The COP ILOT S was used to determine the path to be taken by a vehicle when executing a
parallel parking maneuver performed in minimum time. The comparison between the results
obtained and those reported in the literature indicates the potential of the package.

Keywords: COP ILOT S, Optimal Control Problem, Parallel parking, Direct Collocation,
Optimization

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1574
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CÁLCULOS DOS COEFICIENTES DE CONVERSÃO PARA FEIXES DE RAIOS X


EM RADIODIAGNÓSTICOS UTILIZANDO MÉTODO DE MONTE CARLO.

M. A. Frota1 – marcofrotalima@yahoo.com.br
1
Universidade Federal Fluminense, Instituto de Biologia, Lab. de Radiobiologia e Radiometria –
Niterói, RJ, Brazil

Abstract. Neste trabalho foram calculados, utilizando o código de transporte de radiação MCNP, os
coeficientes de conversão de kerma no ar para o equivalente de dose pessoal (Hp) e os fatores de
retroespalhamento para feixes de raios X diagnóstico para os potenciais de 40, 50, 60, 70, 80, 90,
100, 120 e 150 kVp. A dose efetiva foi também calculada usando os simuladores antropomórficos em
voxels masculino e feminino recomendados pela publicação da ICRP110 e os fatores de peso para o
tecido recomendados pela publicação da ICRP 103, para irradiação simulada de corpo inteiro. Os
resultados mostram que a relação entre a grandeza operacional, Hp, e a de limitação de risco, dose
efetiva, apresentam uma variação de 0,14 a 0,71 para a qualidade RQR e de zero a 0,64 para a
qualidade RQA. Comparando os valores obtidos para os coeficientes de conversão de kerma no ar
para o equivalente de dose pessoal com o valor único adotado pela CNEN de 1,14Sv/Gy para a
determinação da dose individual, verifica-se que, para baixas energias os valores são superestimados
em até 44%, e para altas energias os valores são subestimados em até 110%.

Keywords: coeficientes de conversão, radiodiagnósticos, MCNP.

1. INTRODUÇÃO [Times New Roman 12pt, all capital letters, bold]

Em atividades que envolvem o uso da radiação ionizante é necessária a observação e a


manutenção dos níveis de radiação de maneira que a dose recebida pelo indivíduo esteja
dentro dos limites legalmente estabelecidos. Este tema é amplamente discutido na
comunidade científica. A Comissão Internacional de Proteção Radiológica (ICRP –
Internationa Commissionon Radiological Protection) estabelece que sejam implantados
métodos de otimização que garantam que trabalhadores e indivíduos do público estejam
submetidos aos menores níveis de radiação possíveis, obedecendo o Princípio ALARA. Para
isso é necessário o uso da dosimetria. As grandezas a serem limitadas são: a dose equivalente
em órgãos diversos do indivíduo e a dose efetiva, soma ponderada em alguns órgãos. Porém,
essas grandezas não são diretamente mensuráveis, sendo preciso estabelecer uma relação

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1575
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

entre essas grandezas e as grandezas físicas, de medição direta. Para isso são usados os
coeficientes de conversão. A Comissão Internacional de Unidades e Medidas da Radiação
(ICRU - International Commissionon Radiological Units e Measuraments) e ICRP
disponibilizaram esses coeficientes em suas publicações.
A ICRP e a ICRU, visando estabelecer um critério para salvaguardar a população e
indivíduos do público em geral, apresentam limites de dose em suas publicações de número
60 (ICRP 60, 1991), número 103 (ICRP 103, 2008), recomendações estas que são usadas em
proteção radiológica.
Para a determinação dos coeficientes de conversão é necessário definir uma região
específica do corpo humano. A ICRU 47 sugere um simulador de polimetilmetacrilato
(PMMA) tipo placa de 30cm x 30cm x 15 cm, como simulador de troco humano para
calibração de dosímetros pessoais.
No Brasil, os limites anuais de dose individual de trabalhadores e indivíduos do público
são estabelecidos pelas normas CNEN NN 3.01 (Comissão Nacional de Energia Nuclear,
2005), e seguem as recomendações da ICRP 60 (International Commission on Radiologica
lProtection, 1991). Entretanto, diferindo da ICRU, as normas da CNEN adotam, para
grandeza operacional de monitoração pessoal a dose individual H x. A dose individual é
definida como grandeza operacional para monitoração individual externa a feixes de fótons,
obtida multiplicando-se o valor determinado pelo dosímetro individual utilizado na superfície
do tronco do indivíduo (Comissão Nacional de Energia Nuclear, 2005), calibrado em kerma
no ar, pelo fator f = 1,14 Sv/Gy
A norma IEC 61267 (International Electrotechnical Commssion, 2005) define as
qualidades para os feixes de raios X diagnósticos que com boa aproximação, são livres de
radiação espalhada (RQR, RQA, RQC RQT, RQR-M e RQA-M).
As qualidades de radiação de um feixe de raios X podem ser caracterizadas por seus
espectros. É recomendado que as qualidades das radiações do feixe de raios X utilizados em
radiodiagnóstico sejam caracterizados por uma combinação de parâmetros que incluem a
primeira camada semi-redutora (CRS) ; a segunda camada semi-redutora ; o coeficiente de
homogeneidade (razão entre a primeira e segunda camada semi-redutora), a tensão do tubo e a
filtração total.
Para feixes de radiação nas qualidades RQR, Feixe de radiação emergido do sistema de
raios X, tem como suas principais características são a voltagem no tubo que variam entre 40
kV e 150 kV e um filtro de alumínio de 2,5 mm. Os feixes de qualidade RQA, Feixe de
Radiação Emergido do objeto irradiado, se diferenciam dos feixes de qualidade RQR por um
filtro adicional de alumínio que varia conforme a voltagem do tubo. Para essas qualidades da
IEC, os coeficientes de conversão e os fatores de retroespalhamento foram determinados
experimentalmente por Rosado em sua dissertação de mestrado que foi apresentado em 2008
ao CDTN (Centro de Desenvolvimento da Tecnologia Nuclear). Rosado determinou o kerma
no ar dentro e fora de um simulador tipo placa de 300mm x 300mm x150mm de
polimetilmetacrilato (PMMA) com o intuito de determinar a dose na profundidade. Outro
parâmetro importante determinado por Rosado foi a energia média dos espectros de raiosX.
O presente trabalho apresenta o cálculo das grandezas usadas em Proteção Radiológica,
para as qualidades de feixes de raios X diagnóstico da IEC, proporcionando assim, a
calibração dos dosímetros que serão utilizados para determinar a dose equivalente em órgãos
ou a dose efetiva em práticas de radiodiagnósticos ou ainda a dose na entrada da pele.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1576
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2. MÉTODO DE CÁLCULO

O código de transporte de radiação MCNPX (X-5 Monte Carlo Team, 2003), baseado no
método de Monte Carlo, desenvolvido em Los Alamos NationalLaboratory(EUA), é
atualmente um dos códigos computacionais mais utilizados mundialmente na área de
transporte de radiação envolvendo nêutrons, fótons, elétrons e partículas carregadas tais como
prótons, deutérios, partículas alfa, etc. A capacidade de tratamento de geometrias complexas
em 3 dimensões e a variedade de opções de dados de entrada faz desse código, uma
ferramenta muito conveniente e poderosa no campo da física médica, proteção radiológica,
modelagem de instalações nucleares, detectores e blindagem da radiação.
O arquivo de entrada do MCNP (INP) permite ao usuário especificar: tipo de fonte, de
detector, configuração geométrica e condições gerais do sistema desejado, como tamanho,
forma, espectro de energia, composição da fonte de radiação bem como do meio que a
radiação irá interagir e definição da geometria do detector desejado

2.1 O simulador

Para determinação dos coeficientes de conversão é necessário um simulador cúbico. Foi


utilizado um modelo do simulador cúbico de PMMA de 30 cm x 30 cm x 15 cm. O PMMA
tem densidade de 1,19 g/cm3 e fração de peso por massa é hidrogênio: 0,080; carbono:0,600;
oxigênio:0,320. Este simulador satisfaz as exigências da ICRU47 para simular o tronco
humano.

2.2 Os Modelos em voxel da ICRP 110

Neste trabalho foram utilizados os simuladores de voxels masculino (REX) e feminino


(REGINA) e o código MCNP para o cálculo de dose efetiva normalizada pela fluência de
fótons, para espectros de raios X, encontrados em ambientes onde estão instalados
equipamentos de raios X para diagnósticos.
A dose efetiva pode ser computada a partir da avaliação da dose equivalente para um
órgão ou tecido do homem padrão, e da mulher de referência, , conforme mostra a
equação 1.

(1)

No MCNP utilizou-se o comando *F8 , para os cálculos das energias depositadas nos
órgãos mais radiossensíveis expressa em MeV. Para obtenção da dose equivalente
normalizada pela fluência, os valores das energias depositadas foram multiplicadas pelo fator
que leva em consideração as seguintes transformações:

 Transformação de MeV para joule.


 Divisão da energia em (Joule) pela massa do órgão em (kg) para obter a unidade de
dose absorvida (Gy).
 Produto da dose absorvida pela área em (cm2) da fonte plana para que se obtenha a
fluência em (Gy/cm2).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1577
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A etapa seguinte foi multiplicar o valor de dose equivalente pelo fator de peso associado
ao órgão ou tecido radiossensível, considerando os fatores de peso (Wt) para os tecidos
recomendados pela ICRU 103. Este procedimento repetido a todos os órgãos e tecidos
relevantes, visando calcular a dose efetiva, E, conforme a equação1. Assim, para a obtenção
dos coeficientes de dose efetiva normalizados por kerma no ar (E/kar), dados em unidades de
Sv/Gy, os valores de E/Φ [Sv.cm²] calculados para a faixa de energia de fótons incidentes
serão divididos por valores de Kar/Φ [Gy.cm²].

2.3 Fator de Retroespalhameto

A determinação do fator de retroespalhamento (BSF) requer o valor de kerma no ar na


superfície do fantoma e o kerma no ar livre.

(2)

Onde Kar(0) é o kerma no ar na superfície do fantoma e Kar é o kerma no ar livre.

2.4 Coeficiente de conversão, Hp(d) / Kar

Segundo Will (1989) a equação que determina os coeficientes de conversão é:

(3)

Onde Hp(d) / Karé o coeficiente de conversão de kerma no ar para o equivalente de dose


pessoal; Karkerma no ar livre; Kar(d) o kerma nas profundidades, “d” e a razão
dos coeficientes de absorção de energia por massa do espectro de energia na profundidade de
referência.

3. RESULTADOS

A Figura 1 apresenta os gráficos dos espectros gerados de acordo com as qualidades


RQR e RQA,onde estão representados os espectros RQR ou RQA de 2 a 10.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1578
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0.10

0.08 RQA 2
RQA 3
RQR 2
Número de Fotons Normalizado

0.08

Número de Fótons Normalizado


0.07
RQR 3 RQA 4
RQR 4 RQA 5
0.06 RQA 6
RQR 5
RQR 6 0.06 RQA 7
0.05 RQR 7 RQA 8
RQR 8 RQA 9
0.04 RQR 9
0.04 RQA 10
RQR 10
0.03

0.02 0.02

0.01

0.00
0.00
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150
Voltagem (kV)
Voltagem (kV)

Figura 1 Espectros gerados através do software Xraygen(2004) normalizados pela fluência


para as qualidades RQR e RQA..

3.1 Coeficiente de conversão, Hp(d) / Kar

A partir da Equação 3 e as energias médias( ) dos espectros da Figura 1, foram


calculados os valores dos coeficientes de conversão do equivalente de dose pessoal, H p(10),
em relação ao kerma no ar.
Ainda com os resultados obtidos nesta seção foram calculados os coeficientes de
conversão utilizando os espectros gerados com o software Xraygen(2004) de acordo com as
condições impostas para as características de cada qualidade. Os valores para os coeficientes
de conversão para as qualidades RQR e RQA obtidos são representados na Tabela 1.

Tabela 1 Coeficientes de conversão para energia média ( ) e para espectros de raios


x(E’). (Figura 1 para as qualidades RQR e RQA.)

Voltagem Coef. Conv ( ) Coef. Conv (E’) Diferença Relativa


Qualidade
(KV) (Gy/Sv) (Gy/Sv)

RQR2 40 0,51 0,50 0.20

RQR3 50 0,53 0,58 0.29

RQR4 60 0,66 0,65 0.17

RQR5 70 0,68 0,73 0.22

RQR6 80 0,81 0,79 0.11

RQR7 90 0,88 0,86 0.07

RQR8 100 1,12 0,91 0.06


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1579
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

RQR9 120 1,22 1,06 0.01

RQR10 150 1,50 1,19 0.06

RQA2 40 0,62 0,58 0.23

RQA3 50 0,78 0,76 0.17

RQA4 60 0,93 0,95 0.15

RQA5 70 1,10 1,08 0.22

RQA6 80 1,34 1,18 0.11

RQA7 90 1,43 1,34 0.25

RQA8 100 1,58 1,43 0.12

RQA9 120 1,69 1,57 0.20

RQA10 150 1,90 1,77 0.21

Os resultados mostram uma variação dos coeficientes de conversão, para entre 0,51 e
1,50Sv/Gy para as qualidades RQR. Para as qualidades RQA a variação dos coeficientes de
conversão observadaé de 0,62a 1,90Sv/Gy. Quando foram utilizados os espectros os
coeficientes de conversão apresentaram uma variação entre 0,50 e 1,19 Sv/Gy para as
qualidades RQR. Para as qualidades RQA a variação dos coeficientes de conversão entre de
0,58 e 1,77 Sv/Gy.

3.2. Fator de retroespalhamento (BSF)

Utilizando a Equação 2 e os valores de kerma no ar na superfície do fantoma e os


valores de kerma no ar livre obtidos com a energia média, ( ), de cada espectro, calculou-se
os fatores de retroespalhamento para as qualidades RQR e RQA. Seguindo o mesmo
procedimento foram calculados os fatores de retro espalhamento para os espectros gerados
através do software Xraygen(2004).
Os valores dos fatores de retroespalhamento para as qualidades RQR e RQA estão
apresentados na Tabela 2.

Tabela 2 Valoresdos fatores de retroespalhamento obtidos para a energia média ( ) e para


espectros realísticos(E’), nas qualidades RQR e RQA.

Diferença Relativa
Qualidade Voltagem (KV) BSF ( ) BSF(E’)

RQR2 40 1,36 1,42 0.13

RQR3 50 1,47 1,50 0.08

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1580
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

RQR4 60 1,56 1,50 0.11

RQR5 70 1,61 1,54 0.05

RQR6 80 1,67 1,57 0.09

RQR7 90 1,73 1,60 0.12

RQR8 100 1,76 1,38 0.10

RQR9 120 1,77 1,66 0.04

RQR10 150 1,81 1,62 0.07

RQA2 40 1,52 1,44 0.08

RQA3 50 1,61 1,56 0.02

RQA4 60 1,74 1,63 0.09

RQA5 70 1,79 1,73 0.06

RQA6 80 1,82 1,77 0.04

RQA7 90 1,84 1,78 0.12

RQA8 100 1,89 1,73 0.00

RQA9 120 1,72 1,69 0.14

RQA10 150 1,64 1,65 0.09

Analisando a Tabela 2 observa-se que os valores dos fatores de retroespalhamento


variam, para ,de 1,36 a 1,81 para as qualidades RQR, e de 1,52 a 1,89 para as qualidades
RQA. Estes resultados são úteis para o cálculo da dose na entrada da pele. O valor do fator de
retroespalhamento em função da energia média para a qualidade RQA apresentou seu máximo
para a qualidade RQA8 e seguindo a tendência de queda. Isso ocorre devido ao processoda
interação da radiação com a matéria, que neste intervalo de energia, começa a predominar o
efeito Compton.

3.3. O Equivalente de Dose Pessoal Hp(10)

Utilizando os valores encontrados para os coeficientes de conversão Tabela 4.1 e os


valores de kerma no ar, foi possível calcular os valores do Equivalente de Dose Pessoal
Hp(10) para as qualidades RQR e RQA.Os resultados são apresentados na tabela 3.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1581
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3 Valores obtidos para Equivalente de Dose Pessoal para energia média ( ) e
para espectros de raios X(E’) para as qualidades RQR e RQA.

Hp(10) ( ) HHp(10) (E’) Diferença Relativa

Qualidade Voltagem (Kv) (pSV) (pSV)

RQR2 40 0,42 0,35 0,21

RQR3 50 0,36 0,32 0,13

RQR4 60 0,35 0,31 0,13

RQR5 70 0,30 0,32 0,06

RQR6 80 0,32 0,32 0,01

RQR7 90 0,31 0,33 0,05

RQR8 100 0,36 0,27 0,33

RQR9 120 0,35 0,38 0,08

RQR10 150 0,43 0,42 0,02

RQA2 40 0,37 0,35 0,06

RQA3 50 0,32 0,32 0,01

RQA4 60 0,32 0,33 0,02

RQA5 70 0,32 0,34 0,05

RQA6 80 0,37 0,36 0,04

RQA7 90 0,40 0,40 0,01

RQA8 100 0,44 0,43 0,03

RQA9 120 0,49 0,50 0,01

RQA10 150 0,62 0,61 0,02

3.4. Dose Efetiva

Com o código computacional MCNPX e o fantoma masculino e feminnino de voxel


recomendado pela ICRP 110 foram calculados a dose efetiva utilizando os feixes de raios X
espectrais (E’). Os resultados da Dose Efetiva (E) normalizados por kerma no ar (E/Kar) são
apresentados na Tabela 4. Os resultados apresentados na Tabela 3 e na Tabela 4 mostram que
tanto a dose efetiva quanto o equivalente de dose pessoal se encontram na faixa de décimos de
pSv. As duas grandezas apresentam diferenças significativas para as energias mais altas e
mais baixas. Na faixa intermediaria os resultados obtidos se apresentam bem próximos.
Mesmo apresentando diferenças em algumas faixas de energia a dose efetiva e o equivalente
de dose pessoal se mantiveram sempre na mesma ordem de grandeza.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1582
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 4 Diferença relativa entre Dose Efetiva e Equivalente de Dose Pessoal para os
Espectros E’ para as Qualidades RQR e RQA

Diferença Relativa
Voltagem
Qualidade
(KV) (pSv) (Sv/Gy)

RQR2 40 0,35 0,31 0,14

RQR3 50 0,32 048 0,33

RQR4 60 0,31 0,62 0,50

RQR5 70 0,32 0,72 0,56

RQR6 80 0,32 0,80 0,60

RQR7 90 0,33 0,85 0,61

RQR8 100 0,27 0,93 0,71

RQR9 120 0,38 0,89 0,57

RQR10 150 0,42 0,90 0,53

RQA2 40 0,35 0,35 0,00

RQA3 50 0,32 0,57 0,44

RQA4 60 0,33 0,77 0,57

RQA5 70 0,34 0,91 0,63

RQA6 80 0,36 0,99 0,64

RQA7 90 0,40 1,09 0,63

RQA8 100 0,43 1,09 0,61

RQA9 120 0,50 1,12 0,55

RQA10 150 0,61 1,12 0,45

4. CONCLUSÕES

Neste trabalho foram calculados os coeficientes de conversão de kerma no ar para o


equivalente de dose pessoal e os fatores de retroespalhamento para feixes de raios X
diagnóstico. Os resultados mostram que estes valores têm uma considerável variação dentro
da faixa de energia de feixes de raios X diagnóstico, o que sugere não ser apropriado o uso de
um único valor para o coeficiente para a faixa de energia estudada.
Comparando os valores obtidos para os coeficientes de conversão de kerma no ar para o
equivalente de dose pessoal com o valor único adotado pela CNEN de 1,14Sv/Gy para a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1583
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

determinação da dose individual, verifica-se que, para baixas energias os valores são
superestimados em até 44%, e para altas energias os valores são subestimados em até 110%.
Os resultados também mostram que a diferença relativa entre as grandezas equivalente de
dose pessoal (Hp(10) ) e dose efetiva (E), apresentam uma variação de 0,14 a 0,71 para a
qualidade RQR e de 0,00 a 0,64 para a qualidade RQA. Estes resultados sugerem ser
apropriado o uso do equivalente de dose pessoal para estimar a dose efetiva dentro da faixa de
energia de radiodiagnóstico.

REFERENCES

ICRP, 2009. Adult Reference Computational Phantoms. ICRP Publication 110. Ann. ICRP 39 (2).
ICRP 103, Recommendations of the ICRP,International Commission on Radiological Protection, Pergamon
Press, Oxford, 2008.
ICRP 60, Recommendations of the International Commission on Radiological Protection, International
Commission on Radiological Protection, Pergamon Press, Oxford, 1991.
ICRU 47, International Commission on Radiological Units and Measurements, 1992a, Measurements of dose
equivalents from external photon and electron radiations. 7910 Woodmont Ave., Bethesda, MD 20814,
USA.
Diretrizes Básicas de Proteção Radiológica, CNEN NN 3.01, Janeiro 2005.
IEC, International Electrotechnical Commission – Medical diagnostic x ray equipment – Radiation conditions
for use in the determination of characteristics – IEC 61267, Geneva, 2005.
X-5 Monte Carlo Team, 2003. MCNP – A General Monte Carlo N-Particle Transport Code, Version 5, Volume
I: Overview and Theory, LA-UR-03-1987. Los Alamos National Laboratory, USA.
Siewerdsen J.H. et al, Spektr: A computational tool for x-ray spectral analysis and imaging system optimization,
Med. Phys. 31 (11), 2004

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

1584
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

UDP COMMUNICATION BETWEEN MATLAB AND X-PLANE 11

Arthur Henrique Iasbeck1 - arthuriasbeck@gmail.com


Bruno Luiz Pereira1 - brunolp.meca@gmail.com
Leonardo Sanches1 - lsanches@ufu.br
1 Universidade Federal de Uberlândia, Faculdade de Engenharia Mecânica - Uberlândia, MG, Brasil

Abstract. This paper aims to develop an algorithm that establishes an UDP communication
between Matlab® and X-PLANE 11® . A brief analysis of the simulator is presented and the
architecture of the packages sent by it are studied in a deepened way. Finally, the most important
sections of the algorithm developed along this work are analyzed, and a software in the loop
simulation is performed in order to verify if the communication was properly established.

Keywords: X-Plane 11® , Matlab® , UDP communication, PID control, Software in the loop
simulation.

1. INTRODUCTION

The application of unmanned aircraft in a variety of areas (merchandise, transportation,


agriculture, military, cinematography, among others) has spread. Various techniques of control
have been proposed aiming to ensure, in autonomous ways, the control of stability and trajectory
of these crafts. However, it is not favorable that such techniques are initially tested in real
or model airplanes even, once any failure or malfunction can cause substantial materials
losses. Therefore, simulation is useful when new control techniques are implemented and
experimented.
In order to validate new control techniques before implementing them on aircraft models,
several works make use of Simulink and X-Plane® for software in the loop simulations (Bittar,
2011; Figueiredo & Saotome, 2012; Bittar et al., 2014). Other works purposes the development
of C++ algorithms, instead of using Matlab® (Lewis, 2009).
However, after extensive bibliographic review, the authors observe a lack of scientific works
that detail the development of algorithms for software in the loop simulation, all done in
Matlab® without using Simulink environment. Indeed, Simulink is a simulation environment
tool that limits application of mathematically complex controllers due to its structure and
computational resources required. Using Matlab® functions in software in the loop simulations
enables implementation and testing of more complex control techniques.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1585
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The present work aims to detail the development of Matlab® algorithms that enables the
communication with X-Plane 11® , for testing control techniques using software in the loop
simulations. The communication between Matlab and X-Plane 11® is established by the UDP
protocol, which allows to obtain flight data from virtual aircraft in the X-Plane® simulation
environment. The flight control surfaces deflections are computed based on the readed data and
on the control laws implemented in Matlab environment. The software in the loop simulation
can be also used to verify the robustness of the control law under failure condition of sensors
and/or actuators (Carneiro, 2012).
This paper is sectioned into five parts. In Section 2., the flight simulator is generally
introduced, while in Section 3., the exigences for establishing flight simulation with data
communication through UDP protocol are detailed. In Section 4., the algorithm developed
in Matlab® environment, that allows establishment of communication and treatment of the
data obtained from flight simulations, is presented. The post-treatment of the flight data and
conclusions about the research are presented in Sections 5. and 6., respectively.

2. X-PLANE 11®

X-Plane 11® is a flight simulator made by Laminar Research (Figueiredo & Saotome, 2012)
characterized by its versatility and efficiency. It counts with civil and military models of aircraft,
and a virtual set including airports and regions of the whole world. Moreover, X-Plane 11®
allows representation of critic flight operations. Throughout the simulation, it is possible, for
example, to put the aircraft under a series of breakdowns such as failure of motors, sensors,
navigation tools, controllers, landing gears, among others. Similarly, it is also possible to alter,
at any moment during the simulation, climate conditions in order to insert disturbances as wind
gusts, turbulence zones, heavy rains, among others.
Federal Aviation Administration of United States (FAA) and Brazilian National Agency of
Civil Aviation (ANAC) recognize X-Plane® as a standard simulation software for professional
pilots training, once it is capable of reproducing, with fidelity, the flight environment and the
responses of control actions applied by the pilot. Besides that, the simulator has tools that allow
the pilot performance to be evaluated after the simulations are over (Correa, 2017).
During the simulations performed in X-Plane 11® , data concerning behavior, position, and
commands applied to the aircraft, are generated in real time. Considering the simulator is
adequately configured, these data can be sent through UDP network to a specific IP and port,
allowing other softwares to access it during the simulations. Furthermore, command packages
can be addressed to X-Plane® through UDP network, so that the aircraft can be controlled
through the actions over control surface and over propulsion system.

3. X-PLANE 11® SETTINGS

In order to treat the simulation data, it is necessary that X-Plane® send it to another software
responsible for processing and storing it. In this work, data analysis is performed through
Matlab® , and communications between it and the simulator are made via UDP protocol, since
this is the only protocol through which it is possible to establish communication with the X-
Plane 11® . Lastly, it is important to highlight that the simulator and the algorithm developed in
Matlab® must be executed simultaneously and in the same computer.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1586
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

To establish a communication between Matlab® and X-Plane 11® in a properly way, it is


necessary to accomplish a study about the simulator and how it builds the data packages that
it sends throw the network. This is an essential study to develop the algorithm proposed here,
once it needs to consider the structure of packages recieved from X-Plane® . The algorithm is
responsable for the treatment of the data in these packages and must be able to extract from then
the information referring to the simulation.
Basically, messages sent by X-Plane® can include any information generated during
simulation. This information is generally related to the current state of the aircraft and concern
parameters such as linear speed, angular speed, acceleration, control surface deflection, Euler
angles, geographic coordinated of the aircraft, among others (Bittar, 2011; Bittar et al., 2014).
Thus, it is necessary to choose which parameters will be contained in the message sent by
X-Plane 11® . This setting is performed at Settings menu, Data Output tab, Fig. 1(a).

(a) (b)
Figure 1- (a) Parameters sent by X-Plane® - Source: X-Plane. (b) Selection boxes in Data Output tab -
Source: X-Plane 11® .

The simulation proposed in this paper has as main objective evaluate the performance of the
developed algorithm and verify the UDP communication between Matlab® and X-Plane 11® .
Complex controllers will not be suggested and simulation will be initialized with the aircraft
in cruise flight. During flight execution, Matlab® shall treat the data from simulators and send
commands to the aircraft in order to perform the control of its Euler angles and ensure a stable
flight.
Since the control is done during simulation, it is necessary that Matlab® receives packages
including airplane attitude data. Therefore the selected parameters group in Data Output tab
in X-Plane® has index 17 (Pitch, roll & heading). Once exclusively selected this parameters
group, messages sent by X-Plane® must include, in degrees, pitch angle, roll angle and the
difference between the direction to which the plane is pointing and the north (headings).
Messages sent by X-Plane 11® are composed by a series of bytes and has the following
structure (Lewis, 2009):

• Header: 5 bytes;

• Data group index: 4 bytes;

• Data: 32 bytes (8 numbers of float type with 4 bytes each).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1587
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The header message sent by X-Plane® has five bytes and each one represents a character.
Messages sent by the simulator have a header compounded by letters D, A, T, and A, indicating
these are data packages, and one null character. However, as the messages sent by X-Plane® are
a group of numerical values, being each byte a value between 0 and 255, his five first bytes will
be the numbers [68 65 84 65 0], corresponding in ASCII table to [D A T A null] (AsciiTable,
2010). At the moment Matlab® sends commands to the simulator, the same structure must be
considered in the construction of messages.
Right after the header, there is the index corresponding to the data group within the message.
It has four bytes long. In this work, only the parameter group with index 17 was chosen.
Therefore, it is possible to observe, after the header, the bytes group [0 0 0 17].
Lastly, pitch, roll, and yaw values (parameters related to index 17 group, previously
discussed) are located at the end of the message and must be processed by the algorithm
responsible for the aircraft control. Each package constructed by X-Plane 11® can include
up to eight parameters, each one of them being a real number of float type (single precision)
compounded of 4 bytes (32 bits). The first bit denotes the sign s of the represented real number,
the next eight the exponent e, and the others, the mantissa m. In order to covert the received
byte array into real numbers, the inversion of theses bytes is necessary, once, in this case, the
computer where the algorithm was implemented uses the little indian data representation.
Once bytes inversion is finished, these shall be converted into its respective binary chains,
and lastly concatenated. In this case, as conversion happens from 4 bytes arrays, the generated
binary must possess, in the end, 32 bits and from this the mantissa, exponent, and sign bit are
obtained (Stallings, 2003). In order to estimate the real number (or single) corresponding to the
received data, the bits array composing the exponent is converted into a integer number, e10 ,
and lastly, Eq. (1) is used (Lewis, 2009).
23
!
X
single = (−1)s 1 + m23−i 2−i 2e10 −127 (1)
i=1

Conversion of a four bytes array into a float number is implemented on functions presented
on Section 4.2, where the Matlab® algorithms that allow real data to be obtained from X-Plane
11® packages are presented.
In case many parameter groups are selected by the user, all of them must be included in the
message sent by X-Plane® . Therefore, the structure of a package with more than one type of
parameter is:

• Header: 5 bytes;

• 1st data group index: 4 bytes;

• 1st data set: 32 bytes (8 float type numbers with 4 bytes each);

• 2nd data group index : 4 bytes;

• 2nd data set: 32 bytes (8 float type numbers with 4 bytes each);

• And so on...

It is interesting that the data generated by the simulator is not only sent via UDP, but also
stored in a file and shown in screen throughout the execution, in a way it is possible to confirm,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1588
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)
Figure 2- (a) Flight parameters shown in X-Plane 11® at screen’s left upper corner during simulation -
Source: X-Plane11® . (b) Network and data update rate settings (Data Output tab) - Source: X-Plane
11® .

in real time and at the end of simulation, that the data received by Matlab® is actually corrected.
Therefore, it is only required to check selection boxes Show in Cockpit, Disk(data.txt File) and
Network via UDP in the Data Output tab (in the settings menu of X-Plane 11® ), Fig. 1(b). This
way, simulation data will not only be sent through the network, but also shown on the screen’s
left upper corner during simulation, Fig. 2(a), and saved in data.txt file, in X-Plane 11® main
folder.
In Data Output tab is also determined the data update rate in UDP network (number of
packages sent by X-Plane 11® per second), in UDP Rate, the writing rate in data.txt file
(amount of writing per second), in Disk Rate, and the device IP to which X-Plane® will send
the packages, in IP Address, Fig. 2(b). The data update rate through UDP network, used
in the simulation equivalently to the sampling rate, shall be defined based on the dynamic
characteristics of the used aircraft.
Local host was chosen as the destination IP for the packages sent by X-Plane® . This address
represents the device responsible for sending the messages, meaning that when a message is
directed to the local host, it returns to its sender. In this case, X-Plane® sends a message to
the local host and it returns to the computer running the simulation. Executing Matlab® and
X-Plane® on the same machine is one way to make sure the messages from the simulator arrive
at Matlab® . The port number the messages are directed to can be selected arbitrarily, but it is
important to observe if there isn’t any other software using the same port during simulation. In
this work, the chosen number for the port was 8888 and this parameter must be considered in
the development of the Matlab® code that shall receive and treat the messages.
In addition to receiving data packages from X-Plane 11® , it is also possible to send to
the simulator messages containing commands capable of altering the deflection of the airplane
control surfaces (ailerons, elevators, and rudder) or its motors acceleration. This way it is
possible to control the aircraft behavior sending commands through the network. As Matlab®
and X-Plane 11® are executed in the same computer simultaneously, the packages containing
commands are sent to local host (127.0.0.1) and to port 49000 (the default port used by the
simulator to receive messages). The packages sent to X-Plane® must present the same structure
as those sent by it: a header of 5 bytes filled with values [68 65 84 65 0], followed by a command

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1589
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

index, and lastly the eight float type values properly represented as byte arrays.
To send commands to the simulator that alter the position of control surfaces, the index used
in the construction of the package sent to X-Plane® must be 11. Therefore, the final message
has five bytes of header ([69 65 94 65 0]), four of index ([0 0 0 11]), and thirty-two of data (the
first four refering to the elevator control, the next four, to the ailerons, and the following four, to
the rudder). In this case, there is only three information to be sent, being necessary eight float
values in the package. Therefore, to satisfy the X-Plane’s® package structure, for the remaining
parameters it is attributed the value -999, or more precisely its representation in bytes [0 192
121 196].
The parameter values relative to the control surfaces deflections, present in the command
package sent to X-Plane 11® , are always between -1.0 and 1.0, as the simulator only receives
normalized commands. These extremes represent the limit positions of each control surface.
In case the simulator receives a message in which the elevator parameter is 1.0, for example, it
will make this control surface tilt as much as possible upwards, whereas, if the value received is
-1.0 it will do the opposite. Between -1.0 and 1.0 all real values can be used. It should be noted
that once a new position is reached by a control surface, it will be kept until a new command is
sent to X-Plane 11® or the communication is finished. Then, in the event of a failure in sending
or receiving a command package, the position of the control surfaces will be maintained.
During simulation time, the aircraft can controlled with a joystick or a mouse. However,
once the communication is established and Matlab® starts to send commands to X-Plane® ,
manual control is disabled. In order to return to the user the control of the aircraft, Matlab®
sends a package in which value -999 is assigned to all parameters, indicating to the simulator
that no further message will be sent.

4. IMPLEMENTATION OF CONTROL AND ACQUISITION OF DATA USING


MATLAB®

The aircraft used in simulations was Cessna 172 Skyhawk. For pitch and roll control two
PID (proportional integral derivative) controllers are used, one acting on the elevators, and thus
ensuring longitudinal stability, and the other on the ailerons, ensuring the lateral stability. The
code is based on a sequence of iterations and in each of them, the pitch and roll angle are
obtained from simulator, so that the control actions to be applied over elevators and ailerons are
calculated and sent to X-Plane® .
In order to establish communication with X-Plane 11® , obtaining data from it and sending it
commands to guarantee the aircraft stability, the algorithm presented in Fig. 3 was implemented.
Each stage of the flowchart shown in Fig. 3 will be detailed in the following sections and
all files related to the algorithm developed here can be accessed in https://github.com/
ArthurIasbeck/XPlaneComm.

4.1 Communication establishment

In order to establish a communication with X-Plane 11® , an UDP socket is created and
configured to direct messages to IP 127.0.0.1 and to port 49000, while receiving messages from
PORT 8888. After its creation, the socket must be initiated, as shown in Fig. 4(a).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1590
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Processing the Computing the PID


Establishing of
Receving a Receving a message recevied to controller output and the
communication
message message obtain from it the new deflections of the
with X-Plane
pitch and roll angles control surfaces

N
Constructing the message
Ending the
to be send to X-Plane Sending the Process Y Analyzing the
communication
with the new deflections message completed? obtained data
with X-Plane
of the control surfaces

Figure 3- Flow chart of the code that implements the stability control proposed in this paper.

(a) (b)
Figure 4- (a) Communication initialization. (b) Receiving messages from simulator.

4.2 Receiving an treatment of the message

In order for Matlab® to receive the message from X-Plane® , reading of UDP socket initiated
before is executed as shown in Fig. 4(b). Function getData(), Fig. 5(a), then extracts,
from the received message, the bytes related to the desired data (pitch, roll and headings) and
forwards it to function bytes2single(), Fig. 5(b). This function transforms the forwarded
bytes into a binary chain through function data2bits(), Fig. 6(a), and this chain is converted
into a real number of float type (single precision) through function bits2single(), Fig. 6(b),
that implements the algorithm shown in Section 3.. As soon as pitch and roll values are obtained
they are saved in a file for later analysis.

(a) (b)
Figure 5- (a) Function responsible for obtaining data related to the behaviour of the aircraft within
packages sent by simulator. (b) Function responsible for convertion of 4 bytes array into a float type
number (single precision).

4.3 Controller output computation

As previously stated, two PID controllers were implemented in order to ensure lateral
and longitudinal stability. The controller implementation will not be presented here since
the main objective of this work is the study of communication based on UDP protocol,

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1591
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) (b)
Figure 6- (a) Function responsible for convertion of 4 bytes arrays into a binary chain made up by the
concatenation of binary froms each byte. (b) Function responsible for conversion of a 32 bits binary into
a real number float type (single precision).

established between X-Plane® and Matlab® . A similar controller to the one used in this work is
implemented in CodeProject (2009).
The control action obtained through the PID controller is then sent to X-Plane® using the
function setElevator(), Fig. 7(a), which receives as parameters the new deflection of the
elevator, and the UDP socket through which the package containing this control action must be
sent. In this function, a data package is constructed using the function msgBuilder(), Fig.
7(b), which receives as input the eight parameters to be sent to X-Plane® and the respective
index, and converts each of the real values into a four bytes group, finally returning the 32
byte array that compose the final message. In this case, only the elevator deflection shall be
altered and to all other parameters in the message the value -999 is attributed. Lastly, the
constructed command package is sent to X-Plane® through UDP socket whose implementation
is shown in Section 4.1. The function responsible for sending to X-Plane® a normalized
value corresponding to the new ailerons deflection follows the same structure as function
setElevator().

(a) (b)
Figure 7- (a) Function responsible for sending to X-Plane®
a package with a command that alters elevator
deflection. (b) Function responsible for construction of command packages sent to X-Plane® during
simulation.

Lastly, to end the communication between Matlab® and X-Plane 11® , a command package
in which all parameters values are -999 is sent to the simulator through the function

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1592
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

leaveControl(), Fig. 8(b). To call this function and close the socket used to establish the
UDP communication, the commands shown in Fig. 8(a) are implemented.

(a) (b)
Figure 8- (a) Code section responsible for finishing communication between Matlab® and X-Plane 11® .
(b) Function responsible for sending to X-Plane 11® a command package informing the simulator that
no more messages will be sent by Matlab® .

5. SIMULATIONS RESULTS

A simulation is executed in order to verify the efficiency of the implemented controllers and
the establishment of communication between Matlab® and X-Plane 11® . The results obtained
must show that the communication between Matlab® and X-Plane 11® was properly established,
that commands sent to the simulator in fact act on the aircraft, and that the data from Matlab®
matches those of X-Plane® ’s. With the aircraft already on cruise flight, a disturbance is applied
on it (an abrupt turn), and the algorithm developed here is initiated and starts to acts on the
control surfaces.
The simulation can be extended for as long as required, although it is not recommended to
be close it before the pitch and roll values are close to zero and the aircraft has a stable flight. In
case of stability is not reached, it is necessary to readjust the controller parameters. Evolution
of the pitch and roll angles of the aircraft throughout the simulation can be observed in Fig. 9.

20
Reference Reference
25
Output value Output value
15
20
Pitch [degrees]

Roll [degrees]

15 10

10
5
5
0
0

-5 -5
0 5 10 15 20 0 5 10 15 20
Time [seconds] Time [seconds]
Figure 9- Evolutions of pitch and roll angle throughout simulation time.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1593
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

6. CONCLUSIONS AND FURTHER WORK

Using the algorithms proposed here, it was possible to not only establish a communication
with X-Plane 11® , by UDP protocol, but also acquire, through it, data concerning the aircraft
condition during simulation. Furthermore, sending commands to the simulator was also
possible, in a way that the efficiency of two PID controllers, for pitch and roll stabilization,
could be verified. It is worth mentioning that although PID controllers have been implemented,
the algorithm developed here could allow, after few modifications, that any type of controller
was evaluated.
The use of PID controllers ensured satisfactory lateral and longitudinal stability of the
aircraft during simulation with favorable climate conditions. However, a decline in the
efficiency of the control system was observed when considering adverse weather conditions.
To fix this issue, adaptative techniques can be implemented to ensure that the used PID
controllers are tuned at all sample times and present satisfactory results regardless of the weather
conditions. Therefore, the adaptative control will be a subject dealt in further works.

References

Almeida, L.; e Correa, C. (2017), Percepções sobre os jogos de simulação de voo na formação de pilotos
privados de avião. Renote.
AsciiTable (2010), ASCII Table and Description. Acessed: 7 mar 2018. Available: https://www.
asciitable.com.
Bittar, A. (2011) Piloto automático para VANT’s: Tutorial XPlane & Simulink. Instituto Tecnológico de
Aeronáutica, ITA.
Bittar, A.; Figuereido, H. V.; Guimaraes, P.; A. and Mendes, A. C. (2014), Guidance Software-in-
The-Loop Simulation Using X-Plane and Simulink for UAVs. International Conference on Unmanned
Aircraft Systems, ICUAS.
Carneiro, P. C. M. (2012), Desenvolvimento de protótipos virtuais para utilização em simulação
Software-In-the-Loop. Universidade do Minho, Escola de Engenharia.
CodeProject (2009), PID process control, a Cruise Control
example. Acessed: 8 mar 2018. Available: https://www.codeproject.com/Articles/
36459/PID-process-control-a-Cruise-Control-example.
Figueiredo, H. V.; and Saotome, O. (2012), Modelagem e simulação de veículos aéreos não tripulados
(VANT) do tipo quadricóptero usando o simulador X-Plane e Simulink. Anais do XIX Congresso
Brasileiro de Automática, CBA.
Kurose, F.; and Ross, K. W. (20

Você também pode gostar