Escolar Documentos
Profissional Documentos
Cultura Documentos
Curso Básico
Gerência de Automação
COSIPA
ÍNDICE
E
Uma RNA é constituída
P por um determinado número de neurônios artificiais
ntrada 1 FUNÇ
conectados entre eso
si, no1que se chama de conexões sinápticas (referência às sinapses
SOMA ÃO DE
cerebrais).
E Nessas conexões sinápticas, a entrada de cada um dos neurônios recebe S
P DOR ATIVAÇÂO
asntrada
saídas 2de n outros neurônios individuais, sendo realizada uma soma ponderadaaída
eso 2
dos sinais recebidos. O resultado dessa soma ponderada é aplicado à função de
ntrada n
E
eso n
P ∫
PIM – COSIPA - Curso Básico Sobre Redes Neurais Artificiais 4
ativação do neurônio artificial para gerar o seu sinal de saída, que por sua vez será
aplicado a outros neurônios artificiais. A Figura 1-1 representa a funcionalidade de
um neurônio artificial.
Entrada 1
Peso 1 FUNÇÃO
SOMADOR DE
ATIVAÇÂO
Entrada 2
Peso 2
Saída
Entrada n
∫
Peso n
Numa RNA do tipo MLP, é bastante comum que o fluxo de informação seja
unidirecional (da camada de entrada para a camada de saída), sendo que cada
neurônio de uma camada está conectado com todos os neurônios da camada
imediatamente posterior. Esse arranjo particular de MLP é conhecido como
feedforward, não-recorrente ou direta e está representado na Figura 1-2 .
(Equação 1-1).
anterior (de índice i–1) e é o peso sináptico da conexão entre esses dois
E n
N Neurônio Neurônio Neurônio Neurônio
T 12 22 k2 k+1,2 S
R A
A Í
D D
A A
S S
Neurônio Neurônio Neurônio Neurônio
1i 2l km k+1,n
O ajuste dos pesos de uma RNA de forma que ela produza as saídas desejadas
para cada padrão de entradas é denominado de treinamento. O treinamento de uma
RNA pode ser de dois tipos:
comparação aos quais são calculados os erros apresentados pelos valores reais yk
dessas mesmas saídas. Tais tipos de algoritmo, portanto, exigem a figura do
oráculo, razão pela qual é conhecido como um algoritmo supervisionado.
(Equação 1-2).
(Equação 1-3),
sendo que a constante 0,5 foi introduzida com o objetivo de simplificar o tratamento
matemático. O algoritmo opera no sentido de minimizar essa função de erro. A
derivada parcial do erro em relação a uma saída qualquer vale:
(Equação 1-4).
(Equação 1-5).
Sendo que cada entrada xi,k é igual à soma ponderada das saída da camada
anterior, podemos calcular as derivadas parciais de uma entrada em relação a seus
(Equação 1-6).
(Equação 1-7).
(Equação
1-8).
(Equação 1-9),
sendo que o segundo fator do lado direito da equação corresponde aos pesos que
relacionam as entradas da última camada com as saídas da penúltima. Lembrando
esse fato e usando as equações 3-4, 3-5 e 3-9, obtém-se:
(Equação 1-10).
A partir desta última equação está aberto o caminho para o cálculo das
derivadas parciais do erro em relação às saídas das camadas anteriores, ainda que os
valores desejados para essas saídas intermediárias não sejam conhecidos. Aplica-se
a Regra Delta para a minimização do erro, num processo iterativo que se mantém até
que o erro quadrático se torne igual ou inferior a um limite previamente estabelecido
ou até que o processo deixe de convergir, ou seja, novas iterações não conduzem a
y2
x2
xk ym
PIM – COSIPA - Curso Básico Sobre Redes Neurais Artificiais 12
Camada
de Entrada Camada Camada
Intermediária de Saída
Figura 1-3– Arquitetura Moody/Darken de uma RNA RBF
(Equação 1-12).
(Equação
1-13).
Cada unidade na camada de saída realiza uma soma ponderada dos valores
recebidos da camada oculta e possui função de ativação linear, ou seja:
(Equação 1-14),
Como ressalta Haykin (1994), uma vez que as camadas de uma RNA RBF
realizam tarefas diferentes, é razoável separar a otimização dessas camadas em
passos distintos e utilizando técnicas distintas, num processo extremamente flexível.
Schwenker, Kestler e Palm (2001) classificam os métodos de treinamento desse tipo
de rede em monofásicos, bifásicos e trifásicos, de acordo com o número de etapas em
que esses métodos são executados. Dentro dessa classificação, esses pesquisadores
Segundo Basheer e Hajmeer (2000), as RNA dos tipos MLP e RBF são
particularmente adequadas para os problemas de mapeamento ou aproximação de
funções, pois possuem, conforme os estudos realizados por Cybenko (1989), Hornik
(1991) e Hwang e Bang (1997), a propriedade de aproximadores universais. A
revisão bibliográfica mostra que esses dois tipos de rede são, pela ordem, os mais
utilizados nas aplicações relacionadas à laminação a frio. Tem-se demonstrado que
as redes RBF com a topologia proposta por Moody e Darken podem ser utilizadas
em praticamente todas as situações em que uma rede MLP é adequada (Moody e
Utilizar uma rede neural artificial para a geração off-line dos presets.
Por todos esses motivos, a solução se inclina naturalmente para as RNA, que
possuem características que favorecem o seu uso, entre as quais:
Como explanado no item Error: Reference source not found, constatou-se que
das 30 variáveis de entrada, apenas 9 têm influência significativa sobre as variáveis
NameNumberSsigmaSqsigma31214032071,3811,3963121002621,3261,39
1371100502111,3111,32037106071661,2731,3063271008431,3531,318377
0220271,1591,22639810018181,1951,26810610010991,3821,34936810018
611,4121,352
Remoção dos registros com dados fora da faixa permitida (outliers). Como
os dados foram extraídos de uma base contendo informações reais de
produção, não houve a ocorrência desse tipo de dados.
Transformação dos dados, para colocá-los numa escala adequada para sua
utilização pela rede.
GRÁFICOS: Permite a criação de gráficos para uma análise visual dos dados.
Como exemplo, a Figura 2-6 apresenta graficamente a mesma correlação
mostrada na figura anterior.
Regra de aprendizado.
Valores de taxa de aprendizado e momento.
Figura 2-10 – Desempenho da Rede Com Uma Única Camada Oculta (Vista Parcial)
(Equação 2-16).
(Equação 2-18).
Numa comparação pura e simples entre as duas opções mais comuns (funções
tangente hiperbólica e logística), constatou-se que o desempenho das RNA utilizando
função de ativação logística foi claramente superior, como pode ser verificado pela
comparação entre a, que ilustra uma RNA com função de ativação logística e a, que
se refere a uma RNA de mesmos parâmetros, mas com função de ativação tangente
hiperbólica. Tal diferença deveu-se, provavelmente, ao fato de que todas as entradas
possuem apenas valores positivos ou nulos.
Tabela 2-2 – Parâmetros e Desempenho das RNA MLP Treinadas Com NeuralWorks
Como última etapa da busca pela estrutura ótima para as RNA, foi avaliado o
desempenho da arquitetura RBF treinada com a Neural Networks Toolbox. Esse
simulador oferece duas funções para o desenvolvimento de RNA RBF: uma delas é a
denominada como newrbe, que busca criar uma rede com ajuste exato da função-
alvo, criando um centro receptivo para cada padrão de entrada. Num caso como o
do presente trabalho, em que o número de padrões é grande, o uso de tal função
levaria a uma rede com dimensões proibitivas. A outra função disponível é a
chamada newrb, que tem como objetivo um erro com valor não-nulo e, durante o
treinamento da rede, vai incrementando gradativamente o número de centros
receptivos para reduzir o erro até atingir o valor objetivado. Essa última função foi a
escolhida, por produzir redes de menor dimensão.