Escolar Documentos
Profissional Documentos
Cultura Documentos
MARCELO CHAGAS
Vitória
2016
MARCELO CHAGAS
Vitória
2016
(Biblioteca Nilo Peçanha do Instituto Federal do Espírito Santo)
CDD: 669.14
MINISTÉRIO DA EDUCAÇÃO
INSTITUTO FEDERAL DO ESPÍRITO SANTO
MESTRADO EM ENGENHARIA METALÚRGICA E DE MATERIAIS
MARCELO CHAGAS
Ao Engenheiro Eduardo Frigini de Jesus e toda equipe da empresa Vale S/A pelas
informações prestadas e apoio técnico durante o desenvolvimento deste trabalho
Brazil occupies nowadays with Russia, United States and China the top positions in
the iron ore pellet production capacity, with a production capacity of around 55 million
tons per year, in a market that movements billions of dollars every year. To stay
competitive in an increasingly demanding and globalized market is a matter of
survival even for large companies consolidated in the worldwide market. All the
productivity gains and cost savings, even at small percentage represents a large
economic gain. The knowledge and control of all processes involving the production
of iron ore pellets constitute an important tool in the production management and
gains implementation in a pelletizing plant. On this basis of information was created
a mathematical model based on the artificial neural networks method, capable of
predicting the pressure inside the travelling grate furnace, as a permeability
parameter of pellets bed and indicate the most influential variables in the process.
The process was divided in two stages, one to the bed permeability and one for the
agglomeration performs ins a disk pelletizer. For the permeability stage the best
performance was achieved with 15 neurons in hidden layer and in the agglomeration
step 13 neurons. The networks have been implemented in integrated way in
electronic spreadsheet, and it is able to perform modulations in the process
parameters in order to check their influence in the overall result.
1 INTRODUÇÃO ............................................................................................. 15
2 OBJETIVOS ................................................................................................. 17
3.2 AGLOMERAÇÃO.......................................................................................... 22
6 CONCLUSÃO .............................................................................................. 79
6.2 AGLOMERAÇÃO.......................................................................................... 80
REFERÊNCIAS ............................................................................................ 82
1 INTRODUÇÃO
O minério de ferro para uso metalúrgico desde sua lavra, transporte e classificação,
provoca inexoravelmente uma quantidade elevada de finos cuja aplicação direta se
torna inacessível aos aparelhos siderúrgicos de larga escala. Com o proposito de
racionalizar o rendimento da mina, das usinas siderúrgicas e a economicidade global
do sistema, surgiram os processos de aglomeração (PENA, 1982).
O método de utilizado para criação do modelo matemático foi o das redes neurais
artificiais, (RNAs) que tem como características principais, a análise de sistemas
complexos com grande número de variáveis conectadas, com comportamento de
alto grau de não linearidade, oferecendo resultados robustos e imediatos sem a
necessidade de conhecimento profundo do sistema a ser analisado.
2 OBJETIVOS
Os objetivos deste trabalho são descritos nas seções seguintes, divididos entre
objetivos gerais e específicos.
3 REVISÃO BIBLIOGRÁFICA
Araújo (1997) menciona ainda que um bom aglomerado deve ter mais de 60% de
Ferro, o mínimo de Enxofre e Fosforo, porcentagem reduzida de finos abaixo de 6
mm e de pedaços maiores que 25mm, além de resistir ás temperaturas elevadas e
aos esforços no interior do forno sem amolecer ou decrepitar.
O processo de obtenção de pelotas para o aproveitamento das parcelas mais finas
de minério de ferro teve suas primeiras patentes em 1912 na Suécia e quase
simultaneamente em 1913 na Alemanha. Por volta de 1943 foi realizado um
desenvolvimento intensivo para obtenção de concentrados de taconita na
universidade de Minessota (EUA) e finalmente em 1955 foram iniciados os trabalhos
das duas primeiras plantas de pelotização nos Estados Unidos (MEYER, 1980)
19
O êxito obtido na melhoria dos índices operacionais dos altos fornos com
empregos dos aglomerados em substituição gradativa dos minérios naturais.
Formação das pelotas – Considerada pelos especialistas como uma das principais
ou principais etapas do processo. É conduzida em discos pelotizadores ou tambores
e será mais bem discutida no decorrer do trabalho.
Classificação das pelotas cruas - Etapa conduzida por esteiras de rolos com
abertura que seleciona a faixa de granulometria desejada retornando as pelotas de
granulometria irregular à etapa de formação da pelota.
R
ECUP
ERA
DOR
A
D
EFIN
OS
V
IR
ADO
RDEV
AGÕ
ES
P
IL
HAD
EMIN
ÉRIO
S
T
ANQ
U E
H
OMO
GEN
EIZ
ADO
R
E
SPE
SSA
DOR
M
OIN
HOD
EBO
LA
S
H
ID
ROC
IC
LON
ES
F
IL
TRO
S
AV
ÁCU
O
R
EIR
CUL
AÇÃ
O
S
IL
O D
E
DEÁG
UA
P
OLPA A
GLOME
RANT
E
R
ETID
A
P
REN
SA
S
IL
OSDO DE
P
ELOT
AME
NTO RO
LOS
D
IS
COSD
E M
IS
TUR
ADO
RES
P
ELO
TA
MEN
TO
F
ORN
ODEG
REL
HAM
ÓVE
L
P
ELO
TA
S
C
RUA
S
P
ELO
TA
SPA
RACA
MAD
A
DEF
ORRA
MEN
TO
P
ENE
IR
AME
NTO
E
MPIL
HADE
IR
A
D
EP E
LOT
AS
PE
L O
TA
S
Q
UEIM
AD
AS
E
MBA
RQU
E PÁ
T IOD
E FINOSD
E
PE
L OT
AS P
ENEIR
AMEN
TO
Q
UEIMA
DAS
3.2 AGLOMERAÇÃO
Taxa de alimentação
Velocidade de rotação
Ângulo da inclinação
Profundidade útil
Posição dos raspadores
Espessura da camada de fundo
Posição do ponto da alimentação
Transferência
Não Não Não Sim
por abrasão
Onde:
Pk Tensão de resistência capilar para uma pelota crua
Tensão superficial da água
S Superfície especifica do concentrado
Qw Densidade do concentrado
Volume dos poros
1−𝜀 𝑄𝐺 .𝑤 2
∆𝑃𝐶𝐻 = 𝐻. 𝜓. . (2)
𝜀3 𝑑.𝜑
Onde:
H Altura do leito
Se houver uma grande variação no diâmetro das pelotas deve ser considerada a
equação 3:
1−𝜀𝑚 𝑄𝐺 .𝑤 2 𝜀𝑘 0,75
∆𝑃𝑚𝐶𝐻 = 𝐻. 𝜓. . .( ) (3)
𝜀𝑚3 𝑑.𝜑 𝜀𝑚
Onde:
H Altura do leito
𝑄𝐺 .𝑤 2
∆𝑃𝐺𝑅 = 𝜁. (4)
2
ζ Coeficiente de resistência
Resultando assim na resistência total pela soma das resistências das barras e da
carga do forno.
∆𝑃 (1−𝜀)2 𝜇𝑈 1−𝜀 𝜌𝑈 2
= 150 + 1,75 (6)
𝐿 𝜀3 (𝐷𝑣 )2 𝜀 3 𝐷𝑣
Onde:
L Altura do leito
Esfericidade
Densidade do fluido
Pelotas com diâmetros distribuídos em uma faixa estreita, com formato esférico e
boa resistência mecânica, além de baixa geração de finos produzem um leito na
fase de secagem com alta permeabilidade, diminuindo assim custos de produção,
melhorando a produtividade e aumentando a qualidade do produto final (MATOS,
2007). É, portanto evidente que a resistência encontrada ao fluxo de ar pelo leito de
pelotas pode ser entendida como um fator de medição da qualidade das pelotas
cruas produzidas, uma oportunidade de economia de energia e insumos dentro do
processo global e ainda como um ponto que oferece melhoria a qualidade do
produto final.
O processo de queima da pelota foi objeto de estudo de autores como Borim (2000)
que realizou o modelamento matemático e elaborou um sistema de controle em
regiões do forno de endurecimento, utilizando dados industriais.
Não linearidade
Capacidade de mapear entradas e saídas
36
Adaptabilidade
Computacionalmente robustas, tolerante a erros
Análogas à neurobiologia
Um neurônio artificial pode ser linear ou não linear. Uma rede neural composta pela
conexão entre neurônios não lineares é uma rede neural não linear. A não
linearidade de uma RNA é de um tipo especial, uma vez que ela é distribuída por
toda a rede. A não linearidade é uma propriedade muito importante, uma vez que os
fenômenos físicos responsáveis pelos sinais de entrada de uma RNA são muitas
vezes não lineares.
Uma RNA implementada fisicamente tem o potencial para ser tolerante a falhas, ou
capaz de realizar o processamento de forma robusta. Neste sentido, se uma
conexão é rompida ou um conjunto de dados apresenta valores inconsistentes, a
RNA apresenta uma degradação suave em seu desempenho e não uma falha
catastrófica. Esta propriedade se deve à distribuição da informação na RNA, onde
somente um erro extensivo pode causar um dano mais sério ao desempenho geral
(HAYKIN, 2009).
𝑣𝑘 = ∑𝑚
𝑗=1 𝑤𝑘𝑗 . 𝑥𝑗 (7)
Onde:
𝑦𝑘 = 𝜑(𝑣𝑘 ) (8)
Onde:
𝑦𝑘 = 𝑓𝑘 (𝑠𝑘 ) (9)
Função limiar:
+1, 𝑝𝑎𝑟𝑎𝑠𝑘 ≥ 0
𝑓𝑘 = { (10)
−1, 𝑝𝑎𝑟𝑎𝑠𝑘 < 0
Função linear:
𝑓𝑘 = 𝛼. 𝑠𝑘 (11)
Função exponencial:
𝑓𝑘 = 𝑒 𝑠𝑘 (12)
Função seno:
𝑓𝑘 = 𝑠𝑖𝑛𝑠𝑘 (13)
1−𝑒 −2𝑠𝑘
𝑓𝑘 = 1+𝑒 −2𝑠𝑘 (14)
40
Podemos distinguir dois padrões para as conexões entre os neurônios de uma rede
neural artificial. Em um caso as informações seguem somente em um sentido sem
laços de retroalimentação, conhecidas como redes alimentadas adiante e redes com
laços de retroalimentação, conhecidas como redes recorrentes.
Onde o fluxo de dados segue somente no sentido da entrada para a saída, não
havendo nenhum tipo de retroalimentação do sistema. Este tipo de rede pode ter
uma única camada (figura 10) ou múltiplas camadas (figura 11), onde cada camada
de neurônios recebe os sinais de saída da camada anterior (KROSE e VAN DER
SMAGT, 1996)
As redes recorrentes são assim denominadas por apresentarem pelo menos um laço
de realimentação (figura 12). As conexões de realimentação podem originar tanto
dos neurônios de saída quanto dos neurônios escondidos. A presença de laços de
realimentação altera significativamente a capacidade de aprendizagem e o
desempenho da RNA (HAYKIN, 2009).
Aprendizado supervisionado
saída para a RNA, esta irá ajustas seus parâmetros para atingir a ação ótima como
resposta, conforme apresentada nos exemplos.
OS parâmetros da RNA são ajustados com base na influencia combinada dos dados
de treinamento e sinais de erro. O sinal de erro é a diferença entre a resposta
desejada e a resposta emitida pela RNA. O ajuste é conduzido passo a passo
através de iterações sequenciais, tendo como objetivo a emulação do conhecimento
do tutor pela RNA. Desta forma o conhecimento do ambiente que era posse do tutor
é transferido para a RNA na forma de pesos sinápticos fixos, que representam uma
memória.
O desempenho pode ser medido pelo erro quadrático médio (EQM), raiz do erro
quadrático médio (REQM) ou ainda pela soma dos quadrados dos erros (SSO) em
função de parâmetros livres do sistema. Esta função pode ser representada por uma
superfície de erro multidimensional, ou simplesmente superfície de erro. Para um
aumento no desempenho da RNA o ponto de operação deve sempre se mover para
posições inferiores, buscando um ponto mínimo, que pode ser local ou global. Um
sistema que utiliza o aprendizado supervisionado é capaz de utilizar o gradiente de
erro correspondente ao estado atual do sistema para deslocar o ponto de operação
da RNA pela superfície de erro através de um movimento aleatório (Figura 14)
o modelo matemático para cada neurônio conta com uma função de ativação
não linear diferenciável.
A figura 16 mostra um trecho de uma rede PMC, onde podemos identificar dois
sinais:
(𝑅𝐸𝑄𝑀0% −𝑅𝐸𝑄𝑀𝑖% )
𝑆𝐸𝑁𝑆 = . 100% (16)
𝑅𝐸𝑄𝑀0%
Onde:
REQM0% Erro com a variável na condição original
REQMi% Erro com a variável alterada em i%
O modelo matemático concebido por Monteiro Braga e Carvalho (2003) conta com
uma rede neural artificial com arquitetura RBF com 20 neurônios na camada
implícita e função e transferência gaussiana. O resultado da implementação da rede
neural foi o aumento em 6,4 vezes da precisão na predição da resistência à
compressão e 10,2 vezes na precisão na predição da abrasão.
O método das redes neurais artificias desta forma se apresenta de uma maneira
propicia para a solução de problemas como o controle e automação do processo de
pelotização, pois mostra resultados excelentes para sistemas com uma grande
quantidade de variáveis conectadas e não lineares, apresentando resultados
excelentes tanto na predição de parâmetros quanto na analise de sensibilidade de
uma maneira robusta e capaz de contornar falhas.
50
4 MATERIAIS E MÉTODOS
Entrada
Diâmetro médio mm
Pelotas entre 10 e 16 %
Esfericidade %
Saída
Fonte: Autor
𝑁 = 2𝑛 + 1 (17)
Onde:
N é o numero de neurônios na camada escondida
n é o número de entradas da RNA
𝑃
𝑁= (18)
10(𝑛+𝑠)
Onde:
N é o numero de neurônios na camada escondida
P é o número de padrões de treinamento
n é o número de entradas da RNA
s é o número de saídas da RNA
Desta forma serão treinadas redes utilizando a mesma base de dados, variando a
quantidade de neurônios entre 12 e 15 com o objetivo de avaliar o desempenho e
selecionar a RNA.
1
𝑓(𝑥) = (19)
1+𝑒 −𝑘𝑥
𝑓(𝑥) = 𝑘𝑥 (21)
1
𝑅𝐸𝑄𝑀 = √ ∑𝑛𝑖=1(𝑌̂𝑖 − 𝑌𝑖 )2 (22)
𝑛
Onde:
n Quantidade de amostras
𝑌̂ Valor da predição
𝑌 Valor alvo
1 Logística Logística
3 Logística Identidade
7 Identidade Logística
9 Identidade Identidade
Fonte: Autor
Entrada
Quantidade de CaO %
Umidade %
Saída
Esfericidade %
Fonte: Autor
5 RESULTADOS E DISCUSSÃO
Saída
Fonte: Autor
0,07
0,06 Log-Log
Log-Tanh
0,05
Log-Lin
REQM
0,04 Tanh-Log
Tanh-Tanh
0,03
Tanh-Lin
0,02 Lin-Log
0,01 Lin-Tanh
Lin-Lin
0
12 13 14 15
Neuronios na camada escondida
Fonte: Autor.
60
Numero de neurônios 15 1
Fonte: Autor
Fonte: Autor
61
Fonte: Autor.
Os gráficos das figura 20 e 21 mostram respectivamente as regressões para as
amostras de treino e teste, plotando em uma dispersão no eixo das abcissas o valor
de saída pertencente ao conjunto de dados, utilizado como alvo na redução do erro,
e no eixo das ordenadas a predição feita pera RNA. Pode-se observar em ambas as
situações (treinamento e teste) que houve uma boa convergência entre os valores
alvo e as predições, com os pontos pouco dispersos e próximos de uma linha de
tendência de 45o, mostrando que a RNA obteve êxito em mapear as entradas e
saídas.
Fonte: Autor
62
Fonte: Autor
Treino
Teste
Fonte: Autor
64
Figura 22 - Gráfico da degradação do REQM em função da aplicação do ruído por variável de entrada
140,00%
120,00%
Soma percentual - degradação do REQM
100,00%
80,00%
60,00%
Ruído de 10%
40,00% Ruído de 5%
Ruído de 2%
20,00%
0,00%
Fonte: Autor
Figura 23 - Gráfico da predição dos valores de contrapressão utilizando o software MBP com dados
de teste.
-290
-270
-250
Contra pressão - [mbar]
-230
-210
-190 Alvo
Predição
-170
-150 0 10 20 30 40
Amostra
Fonte: Autor
Fonte: Autor
-300
-280
-260
Contra Pressão - [mbar]
-240
-220
-200
-180
-160
Planilha
-140
Alvo
-120 0 10 20 30 40
Amostras
Fonte: Autor
Entrada
Saída
Fonte: Autor
0,045
0,04
Log-Log
0,035 Log-Tanh
0,03 Log-Lin
REQM
0,025 Tanh-Log
0,02 Tanh-Tanh
Tanh-Lin
0,015
Lin-Log
0,01
Lin-Tanh
0,005
Lin-Lin
0
11 12 13 14
Neuronios na Camada Escondida
Fonte: Autor.
Para tornar mais claro a arquitetura gerada no software MBP a RNA descrita
anteriormente pode ser vista graficamente na figura 26.
Após a fase de treinamento e testes foram alcançados os resultados de correlação
R2 e REQM conforme descritos na tabela 12.
Os gráficos das figuras 27 a 30 mostram respectivamente as regressões do desvio
padrão e esfericidade para as amostras de treino e teste, plotando em uma
dispersão no eixo das abcissas o valor de saída pertencente ao conjunto de dados,
utilizado como alvo na redução do erro, e no eixo das ordenadas a predição feita
pera RNA. Pode-se observar em ambas as situações (treinamento e teste) que
houve um convergência razoável entre os valores alvo e as predições, com os
pontos com leve dispersão, porém, próximos de uma linha de tendência de 45 o,
mostrando que a RNA pode mapear as entradas e saídas de maneira aceitável.
69
Numero de neurônios 13 2
Numero de épocas 58
Fonte: Autor.
Fonte: Autor.
Tabela 12 - Correlação e erro para etapa de aglomeração
Treinamento Teste
Fonte: Autor.
70
Fonte: Autor
Fonte: Autor
71
Fonte: Autor
Fonte: Autor
72
Ruído 0% 2% 5% 10%
Treino
Teste
Fonte: Autor
Figura 31 - Gráfico da degradação do REQM em função da aplicação do ruído por variável de entrada
80,00%
Soma percentual - degradação do
70,00%
60,00%
50,00%
REQM
Ruído de 10%
40,00%
Ruído de 5%
30,00%
Ruído de 2%
20,00%
10,00%
0,00%
% CaO Superficie % < 325 % H2O Rotação
Específica mesh
Fonte: Autor
2,4
2,3
Desvio Padrão - [mm]
2,2
2,1
Alvo
2
Predição
1,9
1,8
1,7
0 10 20 30 40
Amostras
Fonte: Autor
74
85
80
Esfericidade - [%]
75
Alvo
70 Predição
65
60
0 10 20 30 40
Amostras
Fonte: Autor
0.014159
REQM 0,016876 0,013916
Fonte: Autor
Figura 34 - Gráfico de predições do desvio padrão do diâmetro para amostras de validação, utilizando
planilha de cálculo.
2,60
2,50
Desvio Padrão - [mm]
2,40
2,30
2,20
Alvo
2,10
Excel
2,00
1,90
1,80
0 10 20 30 40
Amostras
Fonte: Autor
85,00
80,00
Esfericidade - [%]
75,00
70,00 Alvo
Excel
65,00
60,00
0 10 20 30 40
Amostras
Fonte: Autor
76
Fonte: Autor.
77
Figura 37 - Gráfico comparativo dos resultados da RNA treinada no MBP com a RNA implementada
em planilha eletrônica – desvio padrão do diâmetro
2,5
2
Desvio Padrão - [mm]
1,5
Excel
1
MBP
0,5
0
0 10 20 30 40 50 60 70 80 90
Amostras
Fonte: Autor
Figura 38 - Gráfico comparativo dos resultados da RNA treinada no MBP com a RNA implementada
em planilha eletrônica – esfericidade
90
80
70
Esfericidade - [%]
60
50
Excel
40
MBP
30
20
10
0
0 10 20 30 40 50 60 70 80 90
Amostras
Fonte: Autor
78
Figura 39 - Gráfico comparativo dos resultados da RNA treinada no MBP com a RNA implementada
em planilha eletrônica – contra pressão
-300
-250
Contra pressão - [mbar]
-200
-150 Excel
MBP
-100
-50
0 10 20 30 40 50 60 70 80 90
0
Amostras
Fonte: Autor
Fonte: Autor.
79
-280
-260
CONTRA PRESSÃO - [mbar]
-240
-220
-200
-180
-160
-140
-120
0 10 20 30 40 50 60 70 80 90
-100
Predições
Fonte: Autor.
6 CONCLUSÃO
6.1 PERMEABILIDADE
6.2 AGLOMERAÇÃO
Elaborar um modelo baseado em RNA com somente uma etapa, a fim de minimizar
os erros e criar um modelo mais abrangente, tendo como alvo os parâmetro finais de
qualidade como abrasão e resistência à compressão.
Considerar a abordagem de outras variáveis que potencialmente influenciam o
processo, como taxa de alimentação dos discos, posição dos raspadores, posição
de alimentação da polpa, rotação dos ventiladores no interior do forno entre outras,
aumentando deste modo a precisão do modelo.
Analisar a influência individual de cada disco pelotizador no processo global,
possibilitando uma ação mais focada e precisa na operação, e possivelmente
analisar a influência da quantidade de discos no resultado da usina.
Adaptar o modelo matemático à arquitetura do sistema de operação da planta,
possibilitando sua inserção como um sistema online de controle de parâmetros do
processo, viabilizando sua aplicação prática.
Determinar os pontos de ótimos de operação da planta de pelotização para cada
variável, buscando a melhor condição possível do ponto de vista técnico e
econômico.
82
REFERÊNCIAS
BLUM, A. Neural Networks in C++. New York: John Wiley & Sons Inc., 1992.
DWARAPUDI, S.; GUPTA, P. K.; RAO, S. M. Prediction of Iron Ore Pellet Strength
Using Artificial Neural Network Model. ISIJ International, v. 47, p. 67-72, 2007.
FAN, X.-H.; LIB, V.; CHEN, X.-L. Prediction of Iron Ore Sintering Characters on the
Basis of Regression Analysis and Artificial Neural Network. Energy Procedia , p.
769-776, 2012.
HAYKIN, S. Neural networks and learning machines. 3. ed. New Jersey: Pearson,
2009.
KOEKEMOER, A.; LUCKOS, A. Effect of material type and particle size distribution
on pressure drop in packed beds of large particles: Extending the Ergun equation.
Fuel, n. 158, p. 232-238, 2015.
TRAHANA, J. et al. Evaluation of pressure drop and particle sphericity for an air-rock
bed thermal energy storage system. Energy Procedia, n. 57, p. 633 – 642 , 2014.
84
/**
Generated by Multiple Back-Propagation Version 2.2.4
Multiple Back-Propagation can be freely obtained at http://dit.ipg.pt/MBP
*/
#include <math.h>
/**
inputs - should be an array of 7 element(s), containing the network input(s).
outputs - should be an array of 1 element(s), that will contain the network output(s).
Note : The array inputs will also be changed.Its values will be rescaled between -1 and 1.
*/
void 7151 em C(double * inputs, double * outputs) {
double mainWeights[] = {-0.210376820336255, -2.451622017305488, 0.079825569040298, -
3.480488437381447, 1.828648972731710, -2.591503514054862, -0.580355803853491, -
0.408613644639126, -0.926514890558635, -5.387680901063519, 0.404114631777590,
4.037741754690992, -0.140325068156321, -0.570916730152442, -0.411254938329114, -
0.691066385262272, -0.239598816064662, -0.138937299058937, -0.540569324499966, -
0.241908381261869, -0.875192129422371, -0.674994287733274, -0.694052537440473,
2.176091639243290, 0.105785510698918, -0.048700146405850, 0.688904486653636,
0.381222610435768, -0.595539409027399, 0.113132689180417, -0.199723009674404, -
0.335371063808358, -1.491333848418378, 2.878923965349864, 1.118154764949057, -
0.678087836154843, -0.222871575865120, 1.027339901048534, 0.605630014840429, -
1.115617570834530, 0.545972353451518, 0.779911716567754, -4.035284605484105,
0.937394513740587, 3.997888062903593, 0.460433643609875, -0.952461459213902, -
0.200725271333746, 0.028844510647476, -1.894395140721658, 0.221324453009030, -
2.181808151197144, 0.332923410510247, 0.784301049139911, -0.882252578514546,
1.923189120131941, 0.096093388004219, -1.068128571906310, 0.358249819378427,
0.896095622875461, -0.470528359304177, 0.843771785003751, -1.799529690241459, -
0.921761794952330, 0.901107216577155, 0.942959837543659, 0.833769406537894,
1.785694321424656, -0.209829738808998, -0.358892966585323, 0.109266539848592, -
0.386270721799710, -0.943337339624421, -0.194137427280442, 0.636206577341331,
0.108028088795450, 0.009498733763122, -0.394925554281514, 0.443779388800410,
0.384552882903862, -1.798199521384575, -0.115938176596215, 0.709174527807271,
0.876616857214926, 3.863998380357780, -3.205114585687404, -0.759977073421923, -
1.945779607767659, 0.861197709336955, 5.975736842061536, -3.098089734639636,
1.091923254722068, -0.931201818225913, -1.736142796103195, -1.585451107833053, -
0.515969182956136, -0.588761799374164, 0.209163903327959, -0.120653121961638,
85
/**
Generated by Multiple Back-Propagation Version 2.2.4
Multiple Back-Propagation can be freely obtained at http://dit.ipg.pt/MBP
*/
#include <math.h>
/**
inputs - should be an array of 5 element(s), containing the network input(s).
outputs - should be an array of 2 element(s), that will contain the network output(s).
Note : The array inputs will also be changed.Its values will be rescaled between -1 and 1.
*/
void rede 2 em C(double * inputs, double * outputs) {
double mainWeights[] = {-0.801346454876713, -0.311440786972751, -0.404653382671471, -
0.232841372593325, -0.656508240526775, -1.742077146349432, -0.168702488501729, -
0.157160844554272, -0.630266771929730, -1.161243738883461, -0.804558803117998, -
1.719429845591431, -1.697919135694763, 0.640540495325974, -0.176954986881978, -
1.039525839191029, -0.370798234510188, -0.007779165924267, 0.368251335894211,
0.753650415032095, -1.009260062754803, -0.713142230994037, 1.539350863411879,
3.602818799494924, -1.130438054950433, -1.120247658380018, 0.937070529043630, -
1.106614597755210, -1.057061824047337, 0.346456235656002, -0.759316544257862, -
0.590623272930821, -0.698287441695293, 0.332945664649439, -1.989325576806695, -
1.820227335114438, -2.154964581267817, 1.177781013274958, -0.691535656793270, -
0.459621812851254, -1.391670579280139, 1.935465765591726, 0.433990092331698, -
0.297421855034914, 0.204566988465822, -0.443145820906379, -0.725505933747435, -
2.501042996499444, 1.598220264411490, -1.906878397991606, -0.231577463617129,
3.301342124944786, 0.790209012506198, -8.008342192495249, -0.771018106264343, -
0.921276987870999, -0.880275462278168, -0.563290263534831, -0.447212449339888, -
1.849253804725356, -6.223490435134237, -0.169878033892777, -0.463705033379521, -
0.016263448255812, -0.863320372213033, 7.766980929464461, -1.699963302749034,
0.098159497850995, -0.756935934413496, -1.187971481480963, -0.542668832703719,
1.424294145142690, -0.963912599253666, -0.271068332171813, -0.988654350435430, -
0.887048426800022, -0.145070048462912, -1.096635542087274, 0.197043308100461, -
0.450295934602981, -0.332607251789465, -0.126836239608270, 2.188401157304998,
0.767653881547030, -1.260266564704719, -0.693796243921735, 0.145174865759662, -
1.328406281184840, -1.550774016546369, -0.735910234880486, 0.115724694883250, -
0.507806350140404, 0.700214190349369, -0.524171174740423, -0.923195476202732,
0.333675331672747, 1.614694152961840, -0.684622757342739, -1.534983141760314,
88