Você está na página 1de 5

REDES NEURAIS ARTIFICIAIS APLICADAS À

PREVISÃO DE PRODUTIVIDADE DE SOJA


Weber Martins Wagner da Silva Lima Leandro Nunes de Castro Silva
weber@eee.ufg.br wagner@eee.ufg.br lnunes@dca.fee.unicamp.br

Grupo PIRENEUS, PesquIsa em REdes NEUraiS


Escola de Engenharia Elétrica - Universidade Federal de Goiás
Pça Universitária s/n. Goiânia GO 74605-220
Fone/fax: (062) 202-0325

Resumo
Aplicações de Redes Neurais Artificiais (RNAs) na Agricultura são raramente encontradas. Motivados
pelo grande sucesso dessa nova tecnologia na predição de processos, desenvolveu-se uma ferramenta
computacional utilizando as RNAs capaz de prever qual a produtividade de soja na região de Rio Verde (GO).
A predição da produtividade de um cultivar permite-nos fazer uma correção (química ou de adubação) no solo
capaz de elevar a produtividade de grãos caso seja prevista uma safra pouco satisfatória. Deve-se mencionar por
fim, que a ferramenta desenvolvida pode ser utilizada para prever a produtividade de qualquer cultivar, desde
que haja um banco de dados disponível.

Palavras-chave: previsão de produtividade, redes neurais artificiais, mapas auto-organizáveis de kohonen.

Abstract
Artificial Neural Networks (ANN) Applications on Agriculture are rarely seen. Motivated by the great
success of this new technology on predicting processes, a computational tool using ANN was developed with
the goal of predicting Soya production in Rio Verde (GO). Predicting allows us to make soil corrections
(chemical or with fertilisers) that would be able to increase grain production in case where a low harvest is
predicted. There must be mentioned the software developed can be used to predict production of any kind of
cultivate, as far as there is a data base available to train the net.

Keywords: forecasting productivity, artificial neural networks, kohonen sel-organizing maps.

1 Introdução • capacidade de generalizar da rede, ou


seja, de responder a novos casos quando
Uma rede neural artificial pode ser definida estes possuem discrepâncias em relação
como sendo um sistema massivo de processamento aos casos para os quais a rede foi
paralelo de informações inspirado nos modelos treinada.
neurais biológicos. Essa inspiração provém,
principalmente, do fato de que os seres humanos são A utilização das RNAs na solução de
capazes de aprender através de exemplos e que o problemas da Agricultura é um projeto pioneiro no
nosso conhecimento está armazenado em pequenas Estado que poderá contribuir significativamente
“fendas sinápticas” dentro do cérebro conhecidas para a economia regional.
simplesmente como sinapses [1].
Em termos mundiais, é bastante recente
Outras características importantes das este tipo de aplicação. A primeira conferência
redes neurais artificiais observadas durante este específica foi realizada em julho de 1996 na
estudo foram: Holanda.

• altas velocidades de processamento,


mesmo sem usar paralelismo massivo. 2 Sistema Proposto
A estratégia inicial para predição da
produtividade foi desenvolver uma arquitetura do
tipo Multi-Layer-Perceptron (MLP) com uma única
camada escondida e um neurônio na saída. A figura nós de saída j
1 mostra esta arquitetura. O algoritmo de
treinamento utilizado foi o back-propagation com
taxa de aprendizagem Adaptativa, Momentum e
método de inicialização de Nguyen-Widrow. As pesos das conexões wij
aplicações que fazem uso deste tipo de redes podem nós de entrada i
ser encontradas em várias áreas. As redes MLP são x1 x2 x36
utilizadas na solução de problemas que envolvem o
mapeamento de um conjunto de entradas dado em Figura 2: Mapa Auto-Organizável de Kohonen
um conjunto específico de saídas (redes que usam (SOFM) com Grid bidimensional.
treinamento supervisionado) [2]. Um dos problemas
desta arquitetura de rede encontra-se na Segundo, este vetor de entrada é mapeado
determinação da quantidade de elementos que serão no grid de unidades de saída do SOFM e a unidade
colocados na camada escondida. com maior ativação é determinada. Terceiro, o vetor
de pesos do “vencedor”, assim como os vetores de
Feitas algumas simulações com esta pesos das unidades vizinhas são adaptadas de forma
topologia de rede, verificou-se que os resultados que estas unidades apresentem futuramente uma
obtidos não eram satisfatórios, pois apresentavam resposta até maior para o mesmo padrão de entrada.
erros superiores a 25% em relação aos valores reais.
As principais características do SOFM
X1 utilizado neste trabalho são: grid 5 × 5
Z1
(bidimensional), raio de vizinhança iniciando em 5
X2 e com decrescimento unitário e taxa de
Z2
Y aprendizagem com decrescimento geométrico.

Zn
A rede neural utilizada para fazer o sistema
X36 previsor consiste, então, da junção das duas
arquiteturas diferentes de rede.
Entrada Camada Escondida Saída
A figura 3 mostra a representação
Figura 1: Arquitetura inicialmente utilizada. topológica da rede utilizada, considerando as duas
arquiteturas distintas.
Com o intuito de melhorar os resultados
decidiu-se utilizar uma nova arquitetura para filtrar
a quantidade de variáveis que seriam aplicadas ao 3 O Banco de Dados
MLP [5]. Utilizou-se para isso um Mapa Auto-
Organizável de Kohonen (Self Organizing Feature O conjunto amostral é composto por quatro
Map - SOFM) [3-5]. Este tipo de rede apresenta um partes:
paradigma de aprendizagem diferente do algoritmo
de Back-Propagation. Neste caso, estamos diante • Análise foliar, composta por 10 variáveis.
das chamadas Redes Competitivas, onde durante o • Análise de solo com profundidade entre
processo de treinamento “vencem” as unidades 0-20cm, composta por 13 variáveis.
(neurônios) com maior excitação [3]. A topologia da • Análise de solo com profundidade entre
rede é mostrada na figura 2. 20-40cm, composta por 13 variáveis.
• Produtividade, composta por 1 variável.
A determinação do vetor de pesos
representa um dos aspectos mais cruciais de
qualquer processo de treinamento não-
supervisionado. Este processo é geralmente descrito
em três partes [4]. Primeiro, um padrão de entrada é
apresentado de cada vez.
Z1

Z2
Y

Zn

...
SOFM MLP

Figura 3: Rede neural utilizada na predição da produtividade de soja.

Isto perfaz um total de 37 variáveis, sendo saída do Mapa de Kohonen. Este grid de saída do
36 independentes e 1 dependente (produtividade). SOFM compõe as entradas do Multi-Layer
Foram fornecidas 149 amostras, que após uma pré- Perceptron. O MLP só é treinado depois que o Mapa
seleção foram reduzidas para 144. O que resulta em de Kohonen está definido.
uma matriz de dados de 144 × 37 elementos.
A estrutura de treinamento utilizada foi a
Para que pudessemos desenvolver um seguinte:
sistema previsor e avaliar a sua performance, o
banco de dados fornecido, contendo a priori 144 1. Para cada padrão de entrada faça:
amostras, foi dividido em duas partes: A. Alimente o SOFM
B. Com as saídas do SOFM alimenta-se o
• uma parte utilizada na aprendizagem da MLP
RNA (116 amostras); e Obs.: O SOFM já está treinado
• outra parte utilizada para a avaliação do C. Executa-se o Back-Propagation dos
comportamento do previsor Erros - no MLP
implementado (28 amostras). D. Atualiza os pesos do MLP
2. Repita o passo 1. até que o Erro Médio
Quadrático convirja para o valor desejado ou o
4 Aprendizagem número máximo de épocas atinja o limite.

A ferramenta computacional foi


desenvolvida em linguagem C Padrão utilizando 5 Resultados
projetos. Foram desenvolvidos 3 projetos distintos:
Para efeitos comparativos fez-se duas
• projeto para manipulação dos bancos de simulações do sistema. No primeiro treinamento
dados (arquivo de Padrões, sinapses do tomou-se a rede MLP simples, ou seja,
SOFM e sinapses do MLP). desconsiderando o SOFM. Essa rede possui 36
• projeto para treinamento do Mapa de entradas. Para a determinação da melhor
Kohonen (definição dos pesos das quantidade de elementos na camada escondida fez-
conexões) se várias simulações.
• projeto para treinamento do MLP.
Em seguida treinou-se a rede apresentada
O processo de treinamento passa então a na figura 3 (SOFM + MLP), onde o objetivo é
ser composto por duas etapas distintas: determinar os pesos das conexões do Multi-Layer
Perceptron. Os resultados são apresentados na
• treinamento do SOFM e Tabela 1.
• treinamento do MLP.

Primeiramente faz-se o treinamento do


SOFM e define-se os valores dos pesos das conexões
entre as entradas do banco de dados e o grid de
a serem aplicados na rede MLP. Isso explica-se
EMC% EMC% considerando que o mapa auto-organizável
NEsc MLP SOFM+MLP classifica os padrões de acordo com suas
02 25,34 19,92 características [5]. Padrões semelhantes são
03 22,28 20,33 mapeados para os mesmos nós ou para nós vizinhos.
04 30,47 20,08
05 26,78 21,19 Verifica-se, também, que os melhores
06 27,38 20,33 resultados são apresentados quando a quantidade de
07 27,86 20,82 elementos na camada escondida está próxima da
metade do número de variáveis de entrada que são
08 31,70 20,36
apresentados à rede. Para os outros valores tem-se
09 25,61 20,98
um comportamento bastante uniforme nas saídas.
10 26,15 20,31
11 30,58 21,16
12 25,87 23,00 Agradecimentos
13 26,13 21,55
14 23,95 20,65 Agradecemos à Escola de Agronomia da
15 26,24 21,98 UFG pelos dados fornecidos. Esta pesquisa teve o
16 30,93 17,54 apoio financeiro da Fundação de Apoio à Pesquisa
17 25,20 24,14 (FUNAPE) e do Conselho Nacional de
18 32,50 20,80 Desenvolvimento Científico e Tecnológico (CNPq)
19 32,15 18,24 através do programa PIBICT.
Tabela 1: Back-Propagation padrão

Autores
EMC [%]
35
30
Weber Martins (PhD) é professor titular da Escola
de Engenharia Elétrica da Universidade Federal de
25
Goiás e nasceu em Goiânia GO, Brasil em 1961.
20
Formou-se em Engenharia Elétrica na Universidade
15 Federal de Goiás (86), tendo alcançado o título de
10 MLP mestre pela Universidade Federal de Uberlândia
5 MLP + SOFM (90) e doutor pela York University, Inglaterra (94).
0 Atualmente o professor Weber desenvolve pesquisas
2 4 6 8 10 12 14 16 18 na área de Redes Neurais Artificias e Inteligência
NEsc Artificial e é o coordenador do Grupo de Pesquisa
em Redes Neurais - PIRENEUS da EEE/UFG.
Figura 4: Comparação entre os erros considerando
a topologia simples (MLP) e a topologia composta
Wagner da Silva Lima (MSc) é professor assistente
(MLP + SOFM).
da Escola de Engenharia Elétrica da Universidade
Federal de Goiás e nasceu em Rio Claro SP, Brasil
Legenda EMC% = erro médio percentual do
em 1970. Formou-se em Engenharia Elétrica na
conjunto amostral
Universidade Federal de Goiás (93), tendo
NEsc = quantidade de neurônios na
alcançado o título de mestre pela Universidade
camada escondida
Estadual de Campinas (96). Atualmente o professor
Wagner ministra aulas na graduação e desenvolve
6 Conclusão
pesquisas nas áreas de Previsão de Séries
Temporais, Redes Neurais Artificias e Inteligência
O sistema neural desenvolvido é capaz de
Artificial junto ao Grupo de Pesquisa em Redes
prever, com uma margem de erro inferior a 25%,
Neurais - PIRENEUS da EEE/UFG.
qual será a produtividade de um determinado
cultivar em uma região, desde que este seja treinado
Leandro Nunes de Castro é engenheiro eletricista e
para tal fim.
nasceu em Goiânia GO, Brasil em 1974. Formou-se
em Engenharia Elétrica na Universidade Federal de
Um dos aspectos importantes que foi
Goiás (96). Atualmente Leandro Nunes é aluno de
verificado neste trabalho é a melhoria nos resultados
mestrado no Departamento de Computação e
do previsor ao utilizarmos um mapa auto-
Automação da Faculdade de Engenharia Elétrica e
organizável para reduzir a quantidade de elementos
de Computação da UNICAMP, Campinas, Brasil.
Referências

[1] S. Haykin. “Neural Networks a Comprehensive


Foundation”. pp. 1-41. 1994.

[2] L. Fausett. “Fundamentals of Neural Networks”.


Prentice Hall International, Inc. pp. 289-329. 1994.

[3] D. E. Rumelhart. “Parallel Distributed


Processing”. Vol.1 Foundations. pp. 162-193.
1986.

[4] M. Kohle & D. Merkl. “Semantic Classification


of Documents without Domain Knowledge”. Anais
do II Simpósio Brasileiro de Redes Neurais. pp.
118-123. 1995.

[5] Hsu, Y.-Y.; Yang, C.-C. “Design of Artificial


Neural Networks for Short-Term Load
Forecasting”. Part I and Part II. IEEE
PROCEEDINGS-C, Vol 138, Nº 5, September
1991.

Você também pode gostar