Escolar Documentos
Profissional Documentos
Cultura Documentos
P
I=√ (3)
3V η
onde P e V representam a potência e tensão do motor
respectivamente.
A variável η da equação (3) leva em conta vários fatores
construtivos do motor, bem como fatores de operação como
a sua condição de carga. Dessa forma, claramente não se
dispõe de meios para determinar com precisão esta variável,
e conseqüentemente, não é possível o calculo exato da sua
corrente.
O problema em questão propõe a utilização de uma rede
neural para estimar o valor dessa corrente, com base na
potência, tensão e rotação do motor, através de uma rede
MLP com 3 neurônios em sua camada sensorial e 1 neurônio Figura 2 – Treinamento da Rede
em sua camada de saída.
O conjunto de treinamento utilizado na assimilação desse
mapeamento, consiste em 300 amostras obtidas diretamente
de catálogos de fabricantes, que por sua vês baseiam-se em
ensaios práticos para obtenção desses valores. As amostras
utilizadas incluem motores que encontram-se nas seguintes
faixas de valores:
algoritmo proposto é bastante oneroso do ponto de vista com- iteração do método de treinamento
5.2. Aproximação de Curvas Outra característica vantajosa ao método proposto, é o
fato de que o este permite uma implementação paralela, dev-
Neste exemplo foi utilizado um conjunto de testes de 100
ido ao paralelismo intrínseco a meta-heurística aplicada, o
amostras de pares estrada-saída para uma função quadrática
que em uma máquina paralela hipotética representaria um
y = x2 , onde foi inserido um ruido branco de amplitude
método muito mais eficiente que métodos procedurais, in-
10−4 em ambos os sinais (entrada e saída). O treinamento
trinsecamente seqüenciais.
foi realizado para varias configurações da rede utilizando o
Dessa forma, conclui-se que o método Gradiente Evo-
algoritmo proposto e os algoritmos citados anteriormente, os
lutivo aqui apresentado, representa uma solução alternativa
resultados podem ser observados na tabelas que seguem.
viável para o treinamento de redes neurais artificiais em qual-
quer situação, especialmente em situações mais complexas,
Tabela 1 – Resultados do Treinamento: EG, SCG e FR principalmente onde há dificuldades, ou mesmo a impossi-
Arquitetura EG SCG FR bilidade da construção do vetor gradiente.
1-3-1 0.00016 0.00066 0.00030
1-6-1 0.00019 0.00069 0.00031 Referências
1-6-6-1 0.00024 0.01065 0.01395 [1] R. Battiti and F. Masulli. Bfgs optimization for faster
1-6-12-6-1 0.00014 0.00667 0.05779 and automated supervised learning. INNC 90 Paris,
International Neural Network Conference,, pages 757–
760, 1990.
Tabela 2 – Resultados do Treinamento: BFGS, DFP e GRAD
[2] César Daltoé Berci. Observadores Inteligentes
Arquitetura BFGS DPF GRAD de Estado: Propostas. Tese de Mestrado,
1-3-1 0.00032 0.00079 0.01012 LCSI/FEEC/UNICAMP, Campinas, Brasil, 2008.
1-6-1 0.00037 0.00529 0.01197
[3] César Daltoé Berci and Celso Pascoli Bottura. Ob-
1-6-6-1 0.01161 0.00959 0.01342
servador inteligente adaptativo neural não baseado em
1-6-12-6-1 0.00070 0.01060 0.01268
modelo para sistemas não lineares. Proceedings of 7th
Brazilian Conference on Dynamics, Control and Appli-
É possível notar que convergência do método proposto, cations. Presidente Prudente, Brasil, 7:209–215, 2008.
foi também bastante acelerada para este problema, sendo su-
perior aos outros algoritmos testados. Outra característica [4] Jürgen Branke. Evolutionary algorithms for neural net-
marcante observada nos resultados expostos, é a robustez do work design and training. In 1st Nordic Workshop on
método com relação a variações na topologia da rede neu- Genetic Algorithms and its Applications, 1995. Vaasa,
ral, pois devida a estocasticidade inerente ao algoritmo EG, é Finland, January 1995.
possível inferir que o mesmo apresentou o mesmo resultado [5] D.J. Chalmers. The evolution of learning: An ex-
para as várias configurações testadas. periment in genetic connectionism. Proceedings of
the 1990 Connectionist Summer School, pages 81–90,
6. CONCLUSÃO 1990.
O método proposto neste documento, representa uma [6] Charles Darwin. On the Origin of Species by Means
nova abordagem para utilização de métodos meta-heurísticos of Natural Selection, or the Preservation of Favoured
no treinamento de redes neurais artificiais tipo MLP. Races in the Struggle for Life. John Murray, London,
Até então esse procedimento apresentava um desem- 1859.
penho inferior quando comparado a métodos procedurais
de otimização. Esta nova abordagem, porém, mostra- [7] D.C. Dennett. Darwin’s Dangerous Idea: Evolution
se competitiva neste cenário, alcançando resultados com- and the Meanings of Life. Penguim Books, 1995.
paráveis com métodos usuais de treinamento de redes neu- [8] A. Fiszelew, P. Britos, A. Ochoa, H. Merlino, E. Fer-
rais, e ainda preservando características presentes em méto- nández, and R. García-Martínez. Finding optimal neu-
dos meta-heurísticas, como a possibilidade de otimizar fun- ral network architecture using genetic algorithms. Soft-
cionais dos quais não se conhece o gradiente, ampliando a ware & Knowledge Engineering Center. Buenos Aires
sua aplicação a problemas de maior complexabilidade em seu Institute of Technology. Intelligent Systems Laboratory.
modelamento, como o problema proposto em [3]. School of Engineering. University of Buenos Aires.,
O custo computacional elevado, característica de metas 2004.
eurísticas como os algoritmos genéticos, também esta pre-
sente no método proposto, que mostra-se muito mais oneroso [9] C. Fyfe. Artificial Neural Networks. Department of
do ponto de vista do número de cálculos numéricos em sua Computing and Information Systems, The University
execução, do que os outros métodos aqui discutidos. Porém, of Paisley, Edition 1.1, 1996.
fica claro nos exemplos mostrados, que este alto custo com- [10] D.G. Luenberger. Linear and Nonlinear Programming.
putacional, é compensado pela taxa de convergência aceler- Addison-Wesley, 2nd edition, 1984.
ada do método, tornando sua evolução temporal, comparável
a outros algoritmos de treinamento aqui análisados. [11] M.F. Møller. Learning by conjugate gradients. The
6th International Meeting of Young Computer Scien-
tists, 1990.
[12] M.F. Møller. A scaled conjugate gradient algorithm
for fast supervised learning. Computer Science Depart-
ment, University of Aarhus Denmark, 6:525–533, 1990.
[13] D. Montana and L. Davis. Training feedforward neu-
ral networks using genetic algorithms. Proceedings of
the International Joint Conference on Artificial Intelli-
gence, pages 762–767, 1989.
[14] D. E. Rumelhart, R. Durbin, R. Golden, and Y. Chau-
vin. Backpropagation: The basic theory. Lawrence
Erlbaum Associates, Inc., 1995.
[15] D. E. Rumelhart, G. E. Hinton, and R. J. Williams.
Learning internal representations by error propagation,
in: Parallel distributed processing: Exploration in the
microstructure of cognition. Eds. D.E. Rumelhart, J.L.
McClelland, MIT Press, Cambridge, MA., pages 318–
362, 1986.
[16] Udo Seiffert. Multiple layer perceptron training using
genetic algorithms. ESANN’2001 proceedings - Euro-
pean Symposium on Artificial Neural Networks, pages
159–164, 2001.
[17] Zhi-Hua Zhou, Jian-Xin Wu, Yuan Jiang, and Shi-Fu
Chen. Genetic algorithm based selective neural net-
work ensemble. Proceedings of the 17th International
Joint Conference on Artificial Intelligence., 2:797–802,
2001.