Você está na página 1de 29

UNIVERSIDADE TECNOLGICA FEDERAL DO PARAN

CAMPUS CORNLIO PROCPIO


COORDENAO DE ELETROTCNICA - ENGENHARIA ELTRICA
LABORATORIO DE SEGURANA ILUMINAO E EFICINCIA ENERGTICA

NOES DE REDES NEURAIS ARTIFICIAIS

Prof. Me. Marco Antonio Ferreira Finocchio

Julho de 2014
2

NOTA DO PROFESSOR
Esta apostila de apoio didtico utilizada para fornecer informaes bsicas de
Redes Neurais Artificiais.
Este material no tem a pretenso de esgotar, to pouco inovar o tratamento do
contedo aqui abordado, mas, simplesmente, facilitar a dinmica do estudo do tema, com
expressivo ganho de tempo e de compreenso do assunto por parte dos interessados. A
complementao do tema ocorrer atravs de exemplificaes, notas de aula, trabalhos e
discusses.
Este trabalho se baseia nas referncias, citadas na bibliografia, nos apontamentos
de aula e na experincia do autor na abordagem do assunto. Sendo esta experincia baseada
na atuao do autor aplicada aos transformadores de energia eltrica. Por se tratar de um
material didtico elaborado em uma Instituio Pblica de Ensino, permitida a reproduo
do texto, desde que devidamente citada a fonte.
Quaisquer contribuies e crticas construtivas a este trabalho sero bem-vindas.

Lauda parce et vitupera parcius.


Louva com moderao e censura com mais moderao ainda.

In nomine XPI vicas semper.


Em nome de Cristo vencers sempre.

Prof. Marco Antonio Ferreira Finocchio


mafinocchio@utfpr.edu.br
3

NDICE:

01. INTRODUO 04

02. TOPOLOGIA DE REDES NEURAIS ARTIFICIAIS 17

03. DETERMINAO DO NMERO DE NEURNIOS 27

REFERNCIAS 29
4

1. INTRODUO
Redes neurais artificiais (RNAs) so sistemas que mimetizam o comportamento e a
estrutura do crebro humano, todavia, possuindo um conjunto muito limitado de neurnios.
Esses neurnios, por sua vez, processam paralelamente os dados e os propagam atravs de uma
complexa malha de interconexo. Analogamente ao crebro humano, as RNAs tm a capacidade
de interagir com o meio externo e adaptar-se a ele. Essas caractersticas conferem as RNAs uma
importncia multidisciplinar, razo pela qual essa ferramenta vem ganhando destaque em
diferentes reas do conhecimento, tais como engenharia, matemtica, fsica, informtica, etc.
Particularmente, na rea de transformadores, as RNAs vem sendo aplicadas na previso de
manuteno, no controle e monitoramento da operao e, como nos casos desse trabalho e
outros, na modelagem.
De acordo com diversas estruturas neurais e algoritmos de aprendizagem propostos por
vrios pesquisadores, as redes neurais possuem certas caractersticas exclusivas de sistemas
biolgicos. Sistemas de computao baseados em redes neurais tm a capacidade de receber ao
mesmo tempo vrias entradas e distribu-las de maneira organizada. Geralmente, as informaes
armazenadas por uma rede neural so compartilhadas por todas as suas unidades de
processamento. Essa caracterstica contrasta com os atuais esquemas de memria dos
computadores convencionais, onde a informao fica confinada em um determinado endereo.
Esse captulo traz alguns fundamentos e propriedades das RNAs, importantes no
desenvolvimento de seus trabalhos, comeando por um breve histrico. No existe a
preocupao de ir alm do estritamente necessrio para a compreenso da aplicao desta
ferramenta em Engenharia.

1.1 HISTRICO

Nesta seo apresentado um histrico da evoluo do estudo de RNAs. O tema


abordado considerando-se uma seqncia cronolgica das atividades cientficas de relevncia no
processo de evolutivo da tcnica.
Esse processo marcado por um longo perodo de estagnao e seguido por um recente e
crescente interesse cientfico, devido s inovaes tecnolgicas e tambm pela caracterstica
multidisciplinar das RNAs.
Os primeiros documentos mencionados sobre redes neurais ou neurocomputao datam de
1943 com McCulloch e Pitts que projetaram a estrutura que conhecida como a primeira rede
neural. Estes pesquisadores propuseram um modelo de neurnio como uma unidade de
processamento binria e provaram que esta unidade capaz de executar muitas operaes
lgicas. Este modelo, apesar de muito simples, trouxe uma grande contribuio para as
discusses sobre a construo dos primeiros computadores digitais, permitindo a criao dos
primeiros modelos matemticos de dispositivos artificiais que buscavam analogias biolgicas
(uma mquina baseada ou inspirada no crebro humano). Muitos outros artigos e livros surgiram
desde ento, porm, pouco resultado foi obtido. At que, em 1948, N. Wiener criou a palavra
ciberntica para descrever, de forma unificada, controle e comunicao nos organismos vivos e
nas mquinas. Em 1949, Donald O. Hebb apresentou uma hiptese a respeito da maneira com
que a fora das sinapses no crebro se altera em resposta experincia. Em particular, ele
sugeriu que as conexes entre clulas que so ativadas ao mesmo tempo tendem a se fortalecer,
enquanto que as outras conexes tendem a se enfraquecer. Esta hiptese passou a influir
decisivamente na evoluo da teoria de aprendizagem em RNAs. Ele escreveu o livro intitulado
"The Organization of Behavior" que perseguia a idia de que o condicionamento psicolgico
clssico est presente em qualquer parte dos animais pelo fato de que isto uma propriedade de
neurnios individuais. Suas idias no eram completamente novas, mas Hebb foi o primeiro a
5

propor uma lei de aprendizagem especfica para as sinapses dos neurnios. Este primeiro passo
serviu de inspirao para que muitos outros pesquisadores perseguissem a mesma idia.
Mark I Perceptron foi o primeiro neurocomputador a obter sucesso e surgiu por volta de
1957. Ele foi criado por Frank Rosenblatt, Charles Wightman e outros. Rosenblatt introduziu
uma nova abordagem para o problema de reconhecimento de padres com o desenvolvimento do
Perceptron.
Ele tambm props para o Perceptron um algoritmo para o ajuste dos pesos.
Devido profundidade de seus estudos, suas contribuies tcnicas e sua maneira moderna
de pensar, muitos o vem como o fundador da neurocomputao na forma em que encontra-se.
Por volta do mesmo perodo, Bernard Widrow e alguns colaboradores, desenvolveram um
novo tipo de elemento de processamento de redes neurais chamado de Adaline (abreviao de
Adaptive Linear Element), e mais tarde a sua generalizao multidimensional, o Madaline
(mltipla Adaline). Esta rede era equipada com uma nova lei de aprendizado, conhecida como
"Regra Delta", que depois foi generalizada para redes com modelos neurais mais elaborados.
Infelizmente, apesar do sucesso do Perceptron e do Adaline, a pesquisa em redes neurais
passou gradualmente a conviver com dois problemas fundamentais. Devido ao fato de a maior
parte das pesquisas at ento desenvolvidas ser de natureza heurstica, o primeiro problema
estava vinculado carncia de resultados tericos que justificassem a manuteno do interesse
cientfico pela rea, o que ocasionou a reduo na produo de novas idias.
O segundo problema, e talvez o de maior significado histrico, foi a expectativa exagerada
criada pelos prprios pesquisadores desta rea, no acompanhada de resultados altura, o que
agravou a queda de financiamentos para pesquisa. Em 1969, L. M. Minsky e S. A. Papert
publicaram o livro Perceptrons - An Introduction to Computational Geometry, onde os autores
argumentaram enfaticamente quanto s limitaes bsicas das redes perceptrons isoladas, a
comear pela impossibilidade de se implementar regras lgicas to simples, como o caso do ou-
exclusivo. Neste livro conceitos de matemtica moderna, tais como, topologia e teoria de grupo,
so aplicados com o objetivo de analisar as capacidades adaptativas e computacionais de
neurnios. Os autores demonstraram que a rede perceptron, apesar de ser capaz de executar as
operaes booleanas AND e OR, no capaz de executar outras operaes elementares, como
XOR (ou-exclusivo). Alm disso, esses autores no acreditavam que uma arquitetura adequada
em conjunto com um algoritmo de ajuste dos pesos pudesse ser desenvolvida de forma a superar
esta limitao.
Historicamente, a publicao deste livro paralisou, a partir de 1970, as pesquisas na rea de
redes neurais. Os pesquisadores passaram a buscar por alternativas dentro do campo da
engenharia e, principalmente, da lgica matemtica, que, na poca, encontrava-se em franca
expanso, devido s grandes conquistas realizadas na rea de computao.
Apesar do xodo generalizado, um perodo de pesquisa silenciosa seguiu-se durante
perodo de 1969 a 1982, quando poucos desenvolvimentos foram publicados devido aos fatos
ocorridos anteriormente. Entretanto, nomes como Teuvo Kohonen, Stephen Grossberg, B.
Widrow, James Anderson, Edoardo Caianiello, Kunuhito Fukushima, Igor Aleksander, entre
outros, conseguiram novamente estabelecer um campo concreto para o renascimento da rea.
Eles passaram a publicar diversas propostas para o desenvolvimento e para as aplicaes de
redes neurais. Esta retomada do interesse pela explorao das RNAs deu-se por vrios fatores,
entre os quais ressaltam-se:

os melhores conhecimentos da estrutura real do crebro;


a disponibilidade de computadores com maior capacidade de clculo;
o desenvolvimento de novos algoritmos de aprendizado.
6

Nos anos 80, muitos fatores contriburam para o ressurgimento definitivo das pesquisas em
redes neurais e, conseqentemente, permitindo a sua aplicao em sistemas reais. Os mais
importantes so:

neurofisiologistas foram adquirindo um maior conhecimento sobre o processamento de


informaes nos organismos vivos;
avanos tecnolgicos tornaram disponvel um maior potencial computacional a baixo
custo, viabilizando ou facilitando simulaes e testes com modelos neurais;
novas teorias para a implementao de algoritmos foram desenvolvidas.

Neste perodo, John Hopfield, renomado fsico de reputao mundial e ganhador do Prmio
Nobel, se interessou pela neurocomputao. O trabalho dele conquistou centenas de cientistas,
matemticos e engenheiros altamente qualificados para a pesquisa nesta rea. Contudo, o fato
que efetivamente colocou a rea de redes neurais como uma das prioritrias na obteno de
recursos foi o desenvolvimento de um mtodo para ajuste de parmetros de redes no-recorrentes
de mltiplas camadas. Este mtodo, baseado em um algoritmo denominado backpropagation,
tornou-se largamente conhecido aps a publicao, em 1986, do livro Parallel Distributed
Processing, por J. L. Mcclelland e D. E. Rumelhart, fazendo com que pesquisadores das mais
diferentes reas passassem a visualizar interessantes aplicaes para redes neurais artificiais.
Desde ento, vrias aplicaes tem sido mapeadas atravs de redes neurais artificiais, tais
como: reconhecimento de padres, processamento de imagens, sistemas de controle, robtica e
identificao de sistemas. Na rea especfica de transformadores de potncia, encontram-se
vrios trabalhos com aplicao de redes neurais, que mostram as diversas pesquisas que esto em
desenvolvimento nesta rea.

1.2 CREBRO HUMANO


O crebro humano responsvel pelo controle das funes e dos movimentos do
organismo. Por esta razo, ele considerado o mais fascinante processador baseado em carbono
existente. Ele composto por aproximadamente 100 bilhes de neurnios. Cada neurnio est
conectado a aproximadamente 100 outros atravs de sinapses, formando, juntos, uma grande
rede, chamada rede neural biolgica. Esta grande rede proporciona uma fabulosa capacidade de
processamento e armazenamento de informao. As mais de 10 trilhes de sinapses transmitem
estmulos atravs de diferentes concentraes de Sdio e Potssio, e os resultados destas podem
ser estendidos por todo o corpo humano.
O sistema nervoso humano pode ser visto como um sistema com trs estgios. So eles:

o centro do sistema (crebro), representado pela rede neural que recebe informaes e
toma decises;
os receptores, que convertem os estmulos do corpo ou do ambiente em impulsos
eltricos que transmitem informao para a rede neural;
os atuadores, que, por sua vez, convertem impulsos eltricos em respostas para a sada do
sistema.

A rede neural formada por um conjunto extremamente complexo de neurnios e, entre


eles, a comunicao realizada atravs de impulsos.
Quando um impulso recebido, o neurnio o processa, e se o resultado do processamento
for maior que um determinado limite de ao, o mesmo dispara um segundo impulso, que produz
uma substncia neurotransmissora e, este impulso flui do corpo celular para o axnio (que, por
sua vez, pode ou no estar conectado a um dendrito de outra clula). O neurnio que transmite o
7

pulso pode controlar a freqncia de pulsos, aumentando ou diminuindo a polaridade na


membrana ps-sinptica. Os neurnios tm, portanto, um papel essencial no funcionamento, no
comportamento e no raciocnio do ser humano.
As redes neurais naturais no transmitem sinais negativos, ao contrrio das redes neurais
artificiais, sua ativao medida pela freqncia com que os pulsos so emitidos. As redes
naturais no so uniformes como as redes artificiais, e apresentam certa uniformidade apenas em
alguns pontos do organismo. A figura 1 ilustra a aparncia de uma clula nervosa (neurnio).

Figura 1: Principais componentes do neurnio

Os principais constituintes de um neurnio so:

dentritos - responsveis por receber os estmulos transmitidos pelos outros neurnios;


corpo celular - responsvel por coletar e combinar informaes vindas de outros
neurnios;
axnio - responsvel por transmitir os estmulos para outras clulas (constitudo de uma
fibra tubular que pode alcanar at alguns metros).

um recurso muito aplicado em cincias exatas baseia-se no ajuste de modelos


matemticos a dados experimentais. O caso mais comum o de regresso seja ela linear ou no,
para uma nica ou vrias variveis independentes.
Este ltimo tipo de ajuste de natureza estatstica e resulta em expresso matemtica
(modelo) que permite fazer previso para casos no experimentados na prtica.
As redes neurais artificiais esto relacionadas a esse tipo de tcnica, com aplicao a
grande variedade de problemas prticos. As RNAs so expresses matemticas com uma
estrutura conveniente. Elas se ajustam melhor a dados experimentais e tm mais capacidade de
reproduzi-los (previso).
As clulas nervosas naturais possuem terminaes (axnios e dendritos), sendo que
substncias denominadas neurotransmissores participam da transferncia de sinais de natureza
eltrica entre clulas.
Um sinal eltrico chega clula nervosa percorrendo suas terminaes conforme Figura 2.
Estas podem atenuar ou amplificar o sinal. A fisiologia da clula tambm altera ainda mais o
sinal. O sinal de sada modificado vai para outra clula.
8

Figura 2: Direo da transmisso de sinal no neurnio

Todos os estmulos do nosso ambiente causam, nos seres humanos, sensaes como dor e
calor. Os sentimentos, pensamentos, programao de respostas emocionais e motoras, causas de
distrbios mentais, e qualquer outra ao ou sensao do ser humano, no podem ser entendidas
sem o conhecimento do processo de comunicao entre os neurnios.
Os neurnios so clulas especializadas, que junto com as clulas gliais formam o sistema
nervoso.
Os neurnios so constitudos fundamentalmente por:

Corpo Celular, ou tambm conhecido como soma, a regio onde est o ncleo e a maioria
das estruturas citoplasmticas;
Dentritos (do grego dendron, que significa rvore) so prolongamentos geralmente muito
ramificados. Eles so responsveis pelo recebimento dos sinais;
Axnio (do grego axoon, que significa eixo) s possui ramificaes na extremidade. Ele
responsvel por conduzir os sinais;
Contatos Sinpticos, ou sinapses, so responsveis por transmitir as informaes de uma
clula para outra clula.

A conexo entre neurnios estabelecida pelas sinapses Figura 3.

Figura 3: Transmisso de sinal entre neurnios

Alm destas estruturas os neurnios possuem outras, devido o seu nvel de especializao.
Dentre elas podemos citar a bainha de mielina.
Alguns neurnios tm seus axnios envolvidos por um tipo celular denominado clula de
Schwann. As clulas de Schwann determinam a formao da bainha de mielina - invlucro
lipdico que atua como isolante trmico e facilita a transmisso do impulso nervoso. Entre uma
clula de Schwann e outra existe uma regio de descontinuidade da bainha de mielina,
9

denominada ndulo de Ranvier. A parte celular da bainha de mielina, onde esto o citoplasma e
o ncleo da clula de Schwann, constitui o neurilema.
O percurso do impulso nervoso no neurnio sempre no sentido

Dendrito Corpo Celular Axnio

Um impulso transmitido de uma clula a outra atravs das sinapses (do grego synapsis,
ao de juntar). A sinapse uma regio de contato muito prximo entre a extremidade do axnio
de um neurnio e a superfcie de outras clulas. Estas clulas podem ser tanto outros neurnios
como clulas sensoriais, musculares ou glandulares.
As terminaes de um axnio podem estabelecer muitas sinapses simultneas. Na maioria
das sinapses nervosas, as membranas das clulas que fazem sinapses esto muito prximas, mas
no se tocam. H um pequeno espao entre as membranas celulares (o espao sinptico ou fenda
sinptica).
Quando os impulsos nervosos atingem as extremidades do axnio da clula pr-sinptica,
ocorre liberao, nos espaos sinpticos, de substncias qumicas denominadas
neurotransmissores ou mediadores qumicos, que tem a capacidade de se combinar com
receptores presentes na membrana das clulas ps-sinptica, desencadeando o impulso nervoso.
Esse tipo de sinapse, por envolver a participao de mediadores qumicos, chamado sinapse
qumica.

Figura 4: Transmisso de sinal entre neurnios

Os cientistas j identificaram mais de dez substncias que atuam como neurotransmissores,


como a acetilcolina, a adrenalina, a noradrenalina, a dopamina e a serotonina.
Existe tambm um outro tipo de sinapse, a sinapse eltrica, onde ons e pequenas
molculas passam por eles, conectando ento canais de uma clula a prxima, de forma que
alteraes eltricas em uma clula so transmitidas quase instantaneamente prxima.
As diferentes terminaes no neurnio artificial modulam o sinal de entrada de modo
diferente, conforme seu comprimento e natureza. Diferentes terminaes pesam diferentemente a
transmisso do sinal.
10

A bioqumica celular tambm altera a transmisso do sinal. H padres gerais definidos


para transferncia, em funo de caractersticas gerais vlidas para classes de clulas. Para uma
mesma funo de transferncia, a alterao depende de particularidades da clula, ou seja,
depende da funo.
Expressando tais idias em linguagem matemtica, a intensidade do sinal de entrada (p)
modulada com pesos(w-weight) e com uma constante (b-bias) nas terminaes celulares: w.p+b.
Esse sinal transformado , em seguida, alterado com uma funo que depende da atividade tpica
da clula.
O resultado um sinal de sada a que pode ser expresso por:

a F (w p b)

uma lei de transmisso dos impulsos atravs de um neurnio.


Os sinais de um neurnio vo para um ou mais neurnios seguintes. Nestes, novamente h
alterao do sinal com outros pesos, bias e uma funo que dependem da natureza da clula.
Podem-se representar os neurnios e a transmisso de sinais eltricos atravs de um
diagrama de blocos Figura 5.

Figura 5: Representao em blocos de neurnios

Os estmulos de entrada vo sendo modificados de maneira a gerar finais que dependem da


natureza do tecido nervoso.
H dois contextos diferentes em que ocorre a transmisso de sinais entre neurnios,
correspondendo a atividades distintas do tecido nervoso:

Aprendizagem
Utilizao do conhecimento

Aprendizagem

Os estmulos (dados de entrada) e sinais de sada (dados de sada) so simultaneamente


submetidos aos neurnios.
Neste caso, o caminho da transmisso do sinal ajustado: seleo das clulas participantes
da transmisso do sinal. Isso corresponde a uma seleo de pesos, funes de transferncia,
quantidade e seqncia de neurnios que melhor reproduza os dados de sada frente aos dados de
entrada.
Esse um caso de aprendizagem: a transmisso de sinal cuidadosamente modulada de
maneira a tornar possvel a reproduo de percepes dos dados do mundo exterior. O tecido
nervoso treinado, sendo feito ajuste do caminho da transmisso de sinal de modo a se permitir
reproduo dos dados da experincia diria (aprendizado por associao).
11

Utilizao do conhecimento

Nesse caso, um conjunto de neurnios que foi submetido a um aprendizado anterior


exposto a novos estmulos.
Tais estmulos de entrada, novos e diferentes dos utilizados para aprendizado, sero
tratados pelos neurnios treinados. Resultam dados de sada correspondentes aos novos
estmulos. Em ltima anlise, os dados de sada so conseqncia do aprendizado anteriores.
Trata-se da utilizao do tecido nervoso para fazer uma previso de situaes novas (dados
de sada) correspondentes a novas questes (dados de entrada novos) com base em experincia
adquirida.

Com as RNAs ocorrem algo semelhante:

Dados de ensino so submetidos s redes:

As redes so treinadas com dados experimentais para aprendizagem. A qualidade dos dados
importante para o aprendizado, exercendo forte influncia no desempenho das redes. O
aprendizado uma etapa prvia e consiste em ajustes de pesos e bias de redes cujas funes de
transferncia e estrutura de neurnios tenha sido pr-definidas.
Tambm no procedimento de ajuste de modelos matemticos(regresso estatstica) a dados
experimentais h algo semelhante. Escolhe-se a forma da expresso matemtica (reta, polinmio,
...) e prossegue com um ajuste de parmetros. O critrio de ajuste o de minimizar a soam dos
quadrados dos erros entre os dados experimentais e os calculados para variveis de sada.

Uso da rede treinada:

Uma vez treinada, a rede utilizada para reproduo (previso) de dados de sada
correspondentes a novos dados de entrada.
Essa etapa a do uso efetivo da correlao matemtica para estimar novos dados de sada
correspondentes a novas entradas.

Reaprendizado:

Sempre que novos dados estejam disponveis, o sistema nervoso pode ser submetido a um
reaprendizado. Isso corresponde a um reajuste dos caminhos da propagao dos sinais atravs
dos neurnios.
Em regresso estatstica, essa etapa corresponde a reestimao de parmetros para nova
massa de dados.
Com redes neurais, o reaprendizado corresponde a novos treinamentos da rede, incluindo-
se os novos dados experimentais.
No restante destas notas, detalham-se as estruturas que permitem a um ajuste matemtico,
seguir o padro de funcionamento do sistema nervoso. Detalham-se as estruturas de algumas
redes neurais.

Estrutura dos Neurnios

Todas as redes neurais so compostas por elementos matemticos denominados neurnios.


O neurnio pode ser entendido a partir da Figura 6:
12

Figura 6: Esquema do neurnio

onde:

p entradas de sinal
w peso
b um termo linear (bias)
F as entradas so somadas e tratadas por um a funo do neurnio, que gera a sada
a sada de sinal (nmero)

Em termos matemticos:

a F w p b

O peso w e o bias so parmetros ajustveis (livres, variveis) do neurnio e da rede neural.

Funo de Transferncia do Neurnio

Uma caracterstica do neurnio a sua funo F, que transforma os sinais combinados de


entrada no sinal de sada. H algumas funes mais comuns utilizadas:

hard limit (degrau): se a sada vale 1 para entrada positiva e 0 ou -1 (simtrica) para
entrada negativa;
linear: sada proporcional ao valor de entrada (puramente linear);
sigmoidal: quando a sada uma sigmide logartimica ou tangencial.

Estas funes de transferncia so tambm chamadas na literatura de funo de ativao


que sero observadas com detalhe na seo 2.1.

1.3 CAMADAS DE NEURNIOS COM VRIAS ENTRADAS


O modelo descrito para um neurnio pode receber mais de um sinal de entrada. Cada sinal
pi combinado conforme mostra a figura 7.

Figura 7: Neurnio recebendo R sinais de entrada mais bias


13

A descrio matemtica para esse caso pode fazer uso de notao com vetores (matrizes),
uma vez que:


a F w1 p1 w2 p2 .... wg p g b F w p b
onde:

w w1 ...w2 ............wR
p p1 ... p2 ............. p R
t

Vrios neurnios podem formar uma camada, cada um deles recebendo todas as mesmas R
entradas descritas. Uma representao da camada de neurnios pode ser a seguinte:

Figura 8: Camada de neurnio recebendo R sinais de entrada mais bias

Nesse caso, cada sinal de entrada est ligado a cada neurnio atravs de um peso. Sendo R
sinais de entrada e S neurnios, sero RxS pesos e S bias, que se agrupam em matriz de pesos e
vetores de bias. Seu relacionamento com dados de entrada e sada (igualmente organizados em
vetores) expresso por:


a F w p b
w matriz de pesos
p, a, b vetores: entradas, sadas e bias

com:
14

a1 b1
w1,1 ........w1, 2 .........w1, R a b
2 2
w2,1 ........w2, 2 .........w2, R
w a . b .
.
. .
wS ,1 ........wS , 2 .........wS , R a S bS

1.4 ESTRUTURA DA REDE NEURAL


As redes neurais so compostas por vrias dessas camadas de neurnios, disposta em
seqncia como mostra a figura 9.

Figura 9: Rede neural com N camadas de Si neurnios

Essa uma rede neural com:

N camadas. H Si neurnios na camada i (i=1, 2,....N);


Diferentes funes de transferncia em cada camada;
R entradas organizadas no vetor P ;
Vetores de sada Ai com dimenso Si em cada camada. As sadas de uma camada
so entradas para a camada seguinte; a sada calculada AN da ltima camada sada da
rede, desejando-se que seja muito prxima a dados disponveis T (target);
Matrizes de pesos W e vetores de bias Bi para cada camada.

Uma representao simplificada da rede pode ser a seguinte:

Figura 10: Representao simplificada de rede neural


15

Essa uma estrutura tpica de rede neural. A rede envolve dados de entrada que se
propagam at uma sada, atravs de uma sucesso de aplicaes de pesos, bias e funes de
transferncia.
Para uso prtico de redes neurais, basta interpreta-las como estruturas matemticas de
matrizes. As redes neurais so seqncias de multiplicaes e somas de matrizes e aplicaes de
certas funes de transferncia.
A rede neural como estrutura matemtica de matrizes:


A1 F W1 P B1
A2 F W A B
2 1 2
.
.
.

T F WN AN 1 BN
1.5 TREINAMENTO DAS REDES E REPETIO DOS DADOS DE
ENTRADA
Para a aplicao mais comum de redes neurais, geralmente se conhecem os dados de
entrada e os dados de sada. Na notao matricial, isso significa conhecer os vetores P e T. Os
pesos e os bias para os diversos neurnios das diferentes camadas devem ser estimados da
melhor maneira possvel, de modo que a rede seja capaz de reproduzir os dados de sada com os
de entrada (associao).
Observa-se, portanto, que o uso de redes neurais se assemelha bastante ao problema de
ajuste estatstico de expresses matemticas a dados experimentais (levantamento de
correlaes). Ou seja, um mtodo matemtico deve ser usado para estimar os parmetros de uma
correlao cuja forma determinada pela estrutura da rede.
Antes de discutir como so esses mtodos matemticos, cabe lembrar um ltimo aspecto da
estrutura de redes neurais. Como use de redes est muito associado a dados experimentais,
comum trabalhar com vrias amostras.
Na coleta de dados para ajuste, o vetor P pode ser amostrado diversas vezes. Sendo Q o
nmero de amostras, resulta a matriz P de dimenses RxQ. Cada uma das Q colunas da matriz P
correspondem a uma amostragem dos dados. Com isso, tambm a cada amostra.
Para uma rede neural com uma nica camada, por exemplo, o efeito de vrias amostragens
das variveis de entrada e de sada da rede pode ser expresso atravs da representao
simplificada indicada na figura 11.

Figura 11: Representao simplificada de rede neural


16

O processo de ajuste da rede neural aos dados denominado treinamento da rede neural.
Definida uma arquitetura para rede (nmero de camadas de neurnios, nmero neurnios
em cada camada e funes de transferncia de cada neurnio), sue treinamento comea com uma
atribuio de estimativas iniciais para pesos e bias.
Seguem, ento, iteraes que incluem:

Propagao dos dados de entrada atravs da rede (clculos matriciais) at calculada;


Comparao da sada calculada com a sada real (erro na sada);
Aplicao de mtodo matemtico para atualizar os bias e pesos conforme o erro
calculado.

Ajustar a rede significa minimizar o erro entre sada calculada e sada real. O erro mnimo
alcanado atravs de reajustes das variveis livres (pesos e bias dos neurnios). Cada execuo
do lao, cada iterao ao longo da pesquisa rumo ao mnimo (convergncia) denominada poca
de treinamento.
Os critrios matemticos que determinam as modificaes necessrias nos pesos e bias em
funo do erro de sada da rede neural so chamados regras de aprendizado da rede neural
(learning rule).Verifica-se que eles so essencialmente, mtodos de pesquisa do mnimo de uma
funo de varias variveis.
A seqncia para aplicao de redes neurais a seguinte:

Figura 12: Fluxograma com a lgica de treinamento de rede neural

Especificao do problema a ser resolvido e escolha da arquitetura de rede mais


apropriada. No problema de ajuste, normalmente so empregadas redes com duas ou trs
camadas de neurnios, as primeiras com funes de transferncia sigmoidais e a ltima
com funo de transferncia linear. O nmero de neurnios em cada camada depende
fortemente do problema a ser resolvido;
Especificao do critrio de convergncia (preciso para a convergncia). A rigidez
desse critrio depende da anlise cuidadosa do problema e dos dados;
A aplicao de mtodo de pesquisa de mnimo erro na sada da rede. Normalmente, usa-
se o mtodo denominado retropropagao (backpropagation).

Existem vrias arquiteturas, porm as mais utilizadas na anlise de dados numricos so:

Percepton
Rede Neural no linear (backpropagation).
17

2. TOPOLOGIA DE REDES NEURAIS ARTIFICIAIS


As RNAs so tcnicas computacionais que tm capacidade para solucionar problemas por
intermdio de circuitos simples que simulam o funcionamento e o comportamento do crebro
humano. Elas apresentam um modelo inspirado na estrutura neural de organismos inteligentes,
que adquirem conhecimento atravs da experincia, ou seja, aprendendo, errando e fazendo
descobertas. Uma rede neural artificial pode ter centenas ou at milhares de unidades de
processamento, enquanto o crebro de um mamfero pode conter muitos bilhes de neurnios.
A operao de uma clula (neurnio) em uma rede neural, geralmente, pode ser descrita da
seguinte forma:

os sinais so apresentados entrada;


cada sinal multiplicado por um peso, o qual indica sua influncia na sada da clula;
executa-se a soma ponderada dos sinais, o que produz um nvel de atividade;
quando este nvel excede um limite (threshold), a unidade produz uma sada.

Assim como o sistema nervoso composto por bilhes de clulas nervosas, a rede neural
artificial tambm seria formada por unidades que nada mais so que pequenos mdulos que
simulam o funcionamento de um neurnio.
Estes mdulos devem funcionar de acordo com os elementos em que foram inspirados,
recebendo, processando e retransmitindo informaes.
O modelo de neurnio mais simples, e que engloba as principais caractersticas de uma
rede neural biolgica, paralelismo e alta conectividade, foi proposto por McCulloch e Pitts. A
Figura 13 mostra o modelo geral do neurnio artificial, onde: x1, x2,... xn representam os sinais
de entrada; w1, w2, ... wn so os pesos ou conexes sinpticas; o bias representa o limiar de
ativao do neurnio; u a sada do combinador linear; g(u) a funo de ativao (limita a
sada do neurnio); y o sinal de sada do neurnio.

Figura 13: Modelo geral do neurnio artificial

As equaes (2.1) e (2.2) descrevem o comportamento do neurnio artificial, onde xi


representa a i-sima entrada do neurnio, wi o peso associado entrada xi, n o nmero de
entradas, g( ) a funo de ativao do neurnio e y a sada dele.

n
u Wi X i (2.1)
i 1

y g u (2.2)
18

A maioria dos modelos de redes neurais possui alguma regra de treinamento, onde os pesos
de suas conexes so ajustados de acordo com os padres apresentados. Em outras palavras, elas
aprendem atravs de exemplos (padres).

2.1 FUNES DE ATIVAO


Na equao (2.2), a funo de ativao processa o conjunto de entradas recebidas e o
transforma em estado de ativao. Normalmente, o estado de ativao dos neurnios pode
assumir:

valores binrios (0 e 1);


valores bipolares (-1 e 1);
valores reais.

As funes de ativao so escolhidas em funo da necessidade do problema em que a


rede esteja trabalhando. As mais tpicas so:

2.1.1 Funo linear

A funo de ativao linear mostrada na Figura 14 e representada pela equao (2.3).

g (u) u (2.3)

Figura 14: Funo linear

2.1.2 Funo linear

Na funo de ativao degrau (hard limit), mostrada na Figura 15 e representada pela


equao (2.4), a sada do neurnio assumir o valor 1 se o nvel de atividade interna total do
neurnio for no-negativo, caso contrrio, a sada do neurnio assumir o valor 0.

(2.4)

Figura 15: Funo degrau


19

2.1.3 Funo degrau bipolar

Na funo de ativao degrau bipolar (hard limit-simetric), apresentada na Figura 16 e


representada atravs da expresso (2.5), a sada do neurnio assumir o valor 1 se o nvel de
atividade interna total do neurnio for no-negativo; caso contrrio, a sada do neurnio assumir
o valor -1.

(2.5)

Figura 16: Funo degrau bipolar

2.1.4 Funo rampa

Nesse tipo de ativao (satlin), mostrada pela Figura 17 e expressa pela equao (2.6), a
sada do neurnio pode assumir valores positivos e negativos no domnio de -1 a 1, e no intervalo
{-a, a}, a sada assume o valor da funo g(u)=u.

(2.6)

Figura 17: Funo rampa

2.1.5 Funo sigmide

Para a funo sigmide (logsig) ilustrada na Figura 18 e apresentada pela expresso (2.7),
o parmetro que define a inclinao (ganho) da funo sigmide. Nesse tipo de funo, a
sada do neurnio assumir valores reais entre 0 e 1.

1
g (u ) (2.7)
1 e u
20

Figura 18 Funo sigmide

2.1.6 Funo tangente hiperblica

Na funo de ativao do tipo tangente hiperblica (tansig), apresentada na Figura 19 e


representada pela equao (2.8), a sada do neurnio pode assumir valores reais negativos e
positivos no domnio de -1 a 1.

1 e u
g (u ) tanh(u ) (2.8)
1 e u

Figura 19 Funo tangente hiperblica

2.2 CAMADAS
Arquiteturas neurais so tipicamente organizadas em camadas, com unidades que podem
estar conectadas s unidades da camada posterior.
Conforme apresentado na Figura 20, as camadas de uma rede neural so usualmente
classificadas em trs grupos:

camada de entrada;
camadas intermedirias ou ocultas;
camada de sada.

A camada de entrada a camada por onde os padres so introduzidos rede. As camadas


intermedirias, escondidas ou ocultas, como tambm so conhecidas, so responsveis pela
maior parte do processamento e atravs das conexes ponderadas, elas podem ser consideradas
como extratoras de caractersticas. A camada de sada responsvel pela apresentao dos
resultados finais.

Figura 20: Organizao da rede em camadas


21

2.3 ARQUITETURA
Do ponto de vista estrutural, a arquitetura de redes neurais pode ser classificada como
esttica, dinmica ou fuzzy. Ela pode ser constituda ainda de nica camada ou mltiplas
camadas. Alm disso, algumas diferenas computacionais surgem quando se trata da maneira
com que so feitas as conexes existentes entres os neurnios. Estas conexes podem ser
estritamente no sentido de ida, no sentido de ida e volta, lateralmente conectadas,
topologicamente ordenadas ou hbridas.
As redes neurais so tambm classificadas de acordo com a arquitetura em que foram
implementadas, topologias, caractersticas de seus ns, regras de treinamento e tipos de modelos
de neurnio empregado. A seguir sero descritas as mais importantes.

2.3.1 Redes feedforward (camada nica)

So redes neurais contendo apenas uma camada de entrada e uma camada de neurnios que
a prpria camada de sada, como mostra a Figura 21. Suas principais aplicaes so em
memria associativa e no reconhecimento de padres. O Perceptron e o Adaline so exemplos
desse tipo de rede.

Figura 21: Exemplo de rede feedforward (camada nica)

2.3.2 Redes feedforward (multicamadas)

Este tipo de rede distingue-se da anterior pela presena de uma ou mais camadas
escondidas de neurnios. A Figura 22 mostra um exemplo de rede feedforward (multicamadas).
Nesta figura:

os neurnios que recebem sinais de excitao do meio externo esto na camada de


entrada;
os neurnios que esto na sada representam a camada de sada;
os neurnios intermedirios esto nas camadas escondidas.

Suas principais aplicaes so em reconhecimento de padres, aproximador universal de


funes e em controle. O Madaline, o Perceptron Multicamadas e o de Funo Base Radial so
exemplos deste tipo de rede.
22

Figura 22: Exemplo de rede feedforward (multicamadas)

2.3.3 Redes recorrentes

A Figura 23 apresenta um exemplo de rede recorrente. Este tipo de rede contm


realimentao entre neurnios de camadas diferentes. Suas principais aplicaes so em sistemas
dinmicos, memria associativa, previso e estimao, otimizao e em controle. O modelo de
Hopfiled e o Perceptron com realimentao so exemplos desse tipo de rede.

Figura 23: Exemplo de rede recorrente

2.4 TREINAMENTO DE REDES NEURAIS ARTIFICIAIS


O objetivo principal da pesquisa sobre redes neurais na rea de computao desenvolver
morfologias neurais, baseadas em modelos matemticos, que podem realizar funes diversas
[22]. Na maior parte dos casos, modelos neurais so compostos de muitos elementos no lineares
que operam em paralelo e que so classificados de acordo com padres ligados biologia.
A rede neural passa por um processo de treinamento com fundamentao nos casos reais
conhecidos, adquirindo, a partir da, a sistemtica necessria para executar adequadamente o
processamento desejado dos dados fornecidos.
Ela , portanto, capaz de extrair regras bsicas (conjunto de pesos) em conseqncia dos
dados reais, diferindo, assim, da computao convencional, onde so necessrios um conjunto de
regras rgidas pr-fixadas e algoritmos.
A propriedade mais importante das redes neurais a habilidade de aprender por intermdio
de seu ambiente e com isso melhorar seu desempenho.
Isso feito atravs de um processo iterativo de ajustes (treinamento) aplicado a seus pesos.
O processo de aprendizado encerra-se quando a rede neural consegue generalizar solues para
uma classe de problemas.
Todo o conhecimento de uma rede neural est armazenado nas sinapses, ou seja, nos pesos
atribudos s conexes entre os neurnios. Cerca de 60 a 90% do total de dados devem ser
23

separados para o treinamento da rede neural, dados estes escolhidos aleatoriamente, a fim de que
a rede "aprenda" as regras associadas ao processo. O restante dos dados s apresentado rede
neural na fase de testes para verificar se as regras produzem sadas adequadas para os dados no
utilizados no treinamento (testar o grau de generalizao).

2.4.1 Aprendizado

Um algoritmo de aprendizado composto por um conjunto de regras bem definidas


visando a soluo de um problema de aprendizado. Existem muitos tipos de algoritmos de
aprendizado especficos para determinados modelos de redes neurais. Estes algoritmos diferem
entre si principalmente pelo modo como os pesos so modificados. As principais formas de
aprendizado, que esto associadas aos processos de ajuste de pesos da rede, podem ser divididas
em:

2.4.1.1 Aprendizado supervisionado

O aprendizado supervisionado utiliza um agente externo que indica rede um


comportamento adequado ou inadequado em conformidade com o padro de entrada. A rede
treinada para fornecer a sada desejada em relao a um estmulo de entrada especfico. Quando
um vetor de entrada aplicado, a sada da rede calculada e comparada com o respectivo padro
de sada. A diferena ou erro ento propagada da sada para a entrada (em sentido inverso ao
fluxo de informaes da rede) e os pesos so alterados em conformidade com algum algoritmo
que tende a minimizar esse erro ou diferena. Os vetores de entrada e sada do conjunto de
treinamento so seqencialmente aplicados, as diferenas ou erros so calculados e, para cada
vetor, os pesos so ajustados at o erro atingir um nvel aceitvel para o conjunto de treinamento.

2.4.1.2 Aprendizado no supervisionado

Essa forma de aprendizado dispensa um agente externo indicando a resposta desejada para
os padres de entrada, utiliza-se, entretanto, de exemplos de coisas anlogas para que a rede
responda de maneira similar. A rede se autoorganiza em relao a alguns subconjuntos de
entrada cujos elementos possuem caractersticas similares. Os vetores do conjunto de
treinamento consistem, unicamente, de vetores de entrada. O algoritmo de treinamento modifica
os pesos da rede para produzir vetores de sada que so consistentes, isto , vetores do conjunto
de treinamento que so similares entre si produziro o mesmo padro de sada. Nesse tipo de
aprendizagem, espera-se que o sistema deva, estatisticamente, descobrir caractersticas e
particularidades marcantes da populao de entrada. Ao contrrio do aprendizado
supervisionado, no existe um conjunto priori de categorias dentro do qual os padres iro ser
classificados, mas sim o sistema quem deve desenvolver sua prpria representao do estmulo
de entrada.
Ciclo de aprendizado (poca) a apresentao de todos os pares (entrada e sada) do
conjunto de treinamento no processo de aprendizado. A correo dos pesos num ciclo pode ser
executada de dois modos (mtodos para apresentao dos dados para o treinamento):

Modo Padro, onde a correo dos pesos acontece a cada apresentao rede de um
exemplo do conjunto de treinamento. Cada correo de pesos baseia-se somente no erro do
exemplo apresentado naquela iterao;
Modo Batch, onde apenas uma correo feita por ciclo. Todos os exemplos do conjunto
de treinamento so apresentados rede, o erro mdio calculado e, a partir deste erro,
fazem-se correes nos pesos.
24

2.5 REDES PERCEPTRONS MULTICAMADAS (MLP)


Quando RNAs de uma s camada so utilizadas, os padres de treinamento apresentados
entrada so mapeados diretamente em um conjunto de padres de sada da rede, ou seja, no
possvel a formao de uma representao interna. Neste caso, a codificao proveniente do
mundo exterior deve ser suficiente para implementar esse mapeamento.
Tal restrio implica que padres de entrada similares resultem em padres de sada
similares, o que leva o sistema incapacidade de aprender importantes mapeamentos. Como
resultado, padres de entrada com estruturas similares, fornecidos pelo mundo externo, que
levem sadas diferentes, no so possveis de serem mapeados por redes sem representaes
internas, isto , sem camadas intermedirias. Um exemplo clssico deste caso a funo
ouexclusivo (XOR). Redes de uma camada no so capazes de solucionar problemas que no
sejam linearmente separveis.
O desenvolvimento do algoritmo de treinamento backpropagation em 1986, mostrou que
possvel treinar eficientemente redes com camadas intermedirias, resultando no modelo de
RNAs mais utilizado atualmente, as redes Perceptron Multicamadas (MLP), treinadas com o
algoritmo
backpropagation. Nessas redes, cada camada tem uma funo especfica. A camada de
sada recebe os estmulos da camada intermediria e constri o padro que ser a resposta. As
camadas intermedirias funcionam como extratoras de caractersticas e nelas os pesos
representam uma codificao das caractersticas apresentadas nos padres de entrada. Este fato
permite que a rede crie sua prpria representao do problema.
So necessrias, no mximo, duas camadas intermedirias, com um nmero suficiente de
unidades por camada, para se produzir quaisquer mapeamentos e suficiente apenas uma
camada intermediria para aproximar qualquer funo contnua.
Neste trabalho, as redes MLPs, que constituem o sistema de projeto, tm a arquitetura
multilayer feedforward, ou seja, o fluxo de informaes executado numa nica direo, no
possuindo retro-alimentao entre os neurnios.

2.6 PROCESSOS DE APRENDIZAGEM DE REDES PERCEPTRONS


Esta seo traz detalhes dos algoritmos de treinamento referentes aos processos de
aprendizagem supervisionada das redes neurais.

2.6.1 Backpropagation

A estratgia de treinamento da rede, utilizando o algoritmo backpropagation (regra delta


generalizada), descrita atravs de uma seqncia de aes:

um padro apresentado camada de entrada da rede;


a atividade resultante propagada pela rede, camada por camada, at que a resposta seja
produzida pela camada de sada;
a sada obtida comparada sada desejada para esse padro particular;
se a sada no estiver correta, o erro calculado;
o erro ento propagado a partir da camada de sada at a camada de entrada;
os pesos das conexes das unidades das camadas internas vo sendo modificados
conforme o erro retro-propagado;
25

o processo repetido para todos os vetores de entrada da rede at que o erro quadrtico
mdio das sadas da rede esteja num valor aceitvel.

2.6.2 Mtodo de Levenberg-Marquardt

Como descrito anteriormente o algoritmo backpropagation ajusta os valores das matrizes


de pesos em funo erro quadrtico mdio. Entretanto, a utilizao desse algoritmo na prtica
tende a convergir muito lentamente, exigindo assim um elevado esforo computacional. Para
contornar este problema vrias tcnicas de otimizao tm sido incorporadas ao algoritmo
backpropagation a fim de reduzir o seu tempo de convergncia e diminuir o esforo
computacional exigido pelo mesmo. Dentre as tcnicas de otimizao mais utilizadas para este
propsito destaca-se o algoritmo de Levenberg-Marquardt.
O algoritmo de Levenberg-Marquardt (LM) uma tcnica que pode ser incorporada ao
algoritmo backpropagation a fim de aumentar a eficincia do processo de treinamento. Este
mtodo bastante eficiente quando estamos tratando de redes que no possuem mais do que
algumas centenas de conexes a serem ajustadas. Isto se deve, principalmente, ao fato de que
estes algoritmos necessitam armazenar uma matriz quadrada cuja dimenso da ordem do
nmero de conexes da rede. Comprova-se que, em determinados problemas, o algoritmo LM
torna-se de 10 a 100 vezes mais rpido que o algoritmo backpropagation convencional.

2.7 APLICAO DO PROCESSO DE DESENVOLVIMENTO DE RNAS


Nesta seo, uma seqncia de aes apresentada com a finalidade de sistematizar o
processo de desenvolvimento das RNAs. Essas aes propiciam a utilizao de forma adequada
da tcnica, prevenindo e evitando a ocorrncia de problemas durante os treinamentos.

2.7.1 Coleta de dados

A primeira ao no processo de desenvolvimento de redes neurais artificiais a coleta de


dados relativos ao problema em questo. Esta tarefa requer uma cuidadosa anlise do problema,
usando tcnicas de amostragem de forma a minimizar ambigidades e erros nos dados. Alm
disso, os dados coletados devem ser significativos e cobrir amplamente o domnio do problema.
Eles no devem cobrir apenas as operaes normais ou rotineiras, mas tambm as excees e
condies pertencentes aos limites do domnio do problema.

2.7.2 Separao em conjuntos

Normalmente, os dados coletados devem ser separados em duas categorias:

dados de treinamento - utilizados para o treinamento da rede;


dados de teste - utilizados para verificar o desempenho no referente s condies reais de
utilizao e a capacidade de generalizao da rede.

Depois de determinados estes conjuntos, eles so geralmente colocados em ordem aleatria


para preveno de tendncias associadas ordem de apresentao dos dados. Alm disso, pode
ser necessrio pr-processar estes dados, atravs de normalizaes, escalonamentos e converses
de formato para torn-los mais apropriados sua utilizao na rede.
26

2.7.3 Configurao da rede

A terceira ao a especificao da configurao da rede, que pode ser dividida em trs


etapas:

a seleo do paradigma neural apropriado aplicao;


a determinao da topologia da rede a ser utilizada: o nmero de camadas, o nmero de
unidades em cada camada, etc;
a determinao de parmetros do algoritmo de treinamento e das funes de ativao dos
neurnios. Esta etapa tem um grande impacto no desempenho do sistema resultante.

Existem algumas metodologias na conduo destas tarefas. Porm, normalmente, parte


dessas escolhas feita de forma emprica. A definio da configurao de redes neurais ainda
considerada uma arte que requer grande experincia dos projetistas.

2.7.4 Treinamento

A quarta ao o treinamento da rede. Nesta fase, seguindo o algoritmo de treinamento


escolhido, sero ajustados os pesos das conexes. importante considerar, nesta fase, alguns
aspectos tais como a inicializao da rede, o modo e o tempo de treinamento.
Uma boa escolha dos valores iniciais dos pesos da rede pode diminuir o tempo necessrio
para o treinamento. Normalmente, os valores iniciais dos pesos da rede so nmeros aleatrios
pequenos, uniformemente distribudos em um intervalo definido.
Quanto ao tempo de treinamento, vrios fatores podem influenciar a sua durao, porm
sempre ser necessrio utilizar algum critrio de parada. Os principais critrios de parada do
algoritmo de aprendizagem so o nmero mximo de ciclos (pocas) e o erro quadrtico mdio
por ciclo. Pode ocorrer que, em um determinado instante do treinamento, a generalizao comece
a degenerar, causando o problema denominado over-training, ou seja a rede se especializa no
conjunto de dados do treinamento e perde a capacidade de generalizao.
O treinamento deve ser encerrado quando a rede apresentar uma boa capacidade de
generalizao e quando a taxa de erro for suficientemente pequena, ou seja, menor que um nvel
admissvel previamente estabelecido.

2.7.5 Teste e integrao

Durante esta fase, o conjunto de teste utilizado para determinar o desempenho da rede
com dados que no foram previamente utilizados.
Finalmente, com a rede treinada e devidamente avaliada, ela pode ser integrada em um
sistema do ambiente de operao da aplicao.
27

3. DETERMINAO DO NMERO DE NEURNIOS


O ponto mais importante das RNAs est na sua capacidade de aprender a partir da
apresentao de amostras (padres) que exprimem o comportamento do sistema, sendo que, em
seguida, aps a rede ter aprendido o relacionamento entre as entradas e sadas, esta capaz de
generalizar solues. A rede ser ento capaz de produzir uma sada prxima daquela esperada
(desejada) a partir de quaisquer sinais inseridos em suas entradas.
Assim, a etapa de treinamento de uma rede neural consiste da aplicao de passos
ordenados que sejam necessrios para sintonizao dos pesos sinpticos e limiares de seus
neurnios. Tendo como objetivo final a generalizao de solues a serem produzidas pelas suas
sadas, cujas respostas so representativas do sistema fsico em que estas esto mapeando.
O conjunto desses passos ordenados visando o treinamento da rede denominado de
algoritmo de aprendizagem. Ao longo de sua aplicao, a rede ser ento capaz de extrair
caractersticas discriminantes do sistema a ser mapeado por intermdio de amostras que foram
retiradas de seu contexto.
Geralmente, o conjunto total das amostras disponveis sobre o comportamento do sistema
dividido em dois subconjuntos, um subconjunto de treinamento e outro de teste. O subconjunto
de treinamento, composto aleatoriamente com cerca de 60% a 90% das amostras do conjunto
total, ser usado essencialmente no processo de aprendizado da rede. J o subconjunto de teste,
cuja composio est entre 10% e 40% do conjunto total de amostras, ser utilizado para
verificar se os aspectos referentes generalizao de solues por parte da rede j esto em
nveis aceitveis, possibilitando assim a validao da topologia assumida. Contudo, o
dimensionamento desses conjuntos deve tambm levar em considerao a caracterizao
estatstica dos dados.
Durante o processo de treinamento de RNAs, cada apresentao completa das amostras
pertencentes ao subconjunto de treinamento, visando, sobretudo, o ajuste dos pesos sinpticos e
liminares de seus neurnios, ser denominada de poca de treinamento.

3.1 DETERMINAO DOS NMEROS DE NEURNIOS


Neste trabalho ser comentado apenas trs dos diversos mtodos para determinao
(estimativa) do nmero de neurnios da camada. Os dois mtodos so:

Mtodo de Kolmogorov
Mtodo de Fletcher-Gloss
Mtodo de Weka

A finalidade de tais mtodos indicar um ponto de partida para construo da rede.

a) Mtodo de Kolmogorov: para determinar o nmero de neurnios (n) da camada escondida


estimado pela equao (3.1):

n 2 n1 1 (3.1)

onde:

n1 representa o nmero de variveis de entradas da rede.


28

b) Mtodo de Fletcher-Gloss: o nmero de neurnios da camada escondida ser dado pela


equao (3.2):

2 n1 1 n 2 n2 1 (3.2)

onde:

n1 representa o nmero de variveis de entradas da rede.


n2 representa o nmero de neurnios de sada da rede.
n quantidade de neurnios

b) Mtodo de Weka: para classificao de padres de classes. O nmero de neurnios ser


fornecido pela equao (3.3)

n nc
n1 (3.3)
2

nc nmero de classes

Embora muito utilizados tais mtodos, so recomendados apenas para alguns tipos de
problemas bem comportados. Porque desconsideram atributos que possam ser relevantes para
especificao da topologia de redes PMC. Como a quantidade de dados, a complexidade do
problema, a qualidade dos dados e suas disposies no espao amostral.
29

REFERENCIAS
[01] A. P Braga, A. P. L. F. de Carvalho e T. B. Ludemir. Redes Neurais Artificiais Teoria
e Aplicaes. Rio de Janeiro: LTC, 2000.

[02] Barreto, Guilherme de Alencar. Percepton multicamadas e o algoritmo de


retropropagao do erro. Publicao interna: Programa de ps-graduao em
engenharia de teleinformtica. Fortaleza: UFC, 2007.

[03] Caio C. O. Ramos, Andr N. de Souza, Lucas I. Pereira, Danilo S. Gastaldello, Maria
G. Zago e Joo P. Papa. Tcnicas Inteligentes Aplicadas na Identificao de
Consumidores Industriais Fraudadores de Energia Eltrica. The 8th Latin-American
Congress on Electricity Generation and Transmission. CLAGTEE, 2009.

[04] Fernando Jos Von Zuben. RNAs - Notas de aula. Campinas: Unicamp, 2001.

[05] Finocchio, Marco Antonio Ferreira. Determinao da temperatura de enrolamentos de


transformadores a seco e de suas perdas totais baseado em redes neurais artificiais.
Dissertao de Mestrado em Engenharia Eltrica Universidade Estadual de
Londrina, 2010.

[06] G. Lupi Filho, R. A. S. Fernandes, A. A. Vallada, I. N. da Silva e R. A. C. Altafim.


Um Estudo Comparativo entre Abordagens Convencionais e Redes Neurais
Artificiais para Diagnstico de Transformadores de Potncia. VIII CBQEE
Conferncia Brasileira de Qualidade de Energia Eltrica. Blumenau, 2009

[07] M. Hagan e M. Menhaj; Training feedforward networks with the Marquardt


algorithm; IEEE Transaction on neural networks; 989-993; Novembro; 1994.

[08] Silva, Ivan Nunes da; Spatti, Danilo Hernane; Flauzino, Rogrio Andrade. Redes
neurais artificiais: para engenharia e cincias aplicadas. So Paulo: Artliber, 2010.

[09] Simon Haykin. Neural Networks and Learning Machines. 3 ed.. New York: Prentice
Hall, 2008.

[10] Spandri, Renato. Introduo a redes neurais. Controle & Instrumentao, So Paulo:
Editora Tcnica Comercial Ltda, no 43, p. 68-73, fev. 2000.

Você também pode gostar