Você está na página 1de 2

MLP - 187, RFBR - 287, Redes Recorrentes - 52, Introdução 23 pag.

+4

As redes neurais com múltiplas camadas , ou , normalmente chamadas de perceptrons de múltiplas


camadas(MLP, multilayer perceptron), consistem de um conjunto de unidades sensoriais( nós de
fonte) que constituem a camada de entrada, uma ou mais camadas ocultas de nós computacionais e
uma camada de saída de nós computacionais. O sinal é propagado para frente através da rede,
camada por camada.

Problemas de difícil solução tem sido resolvidos pelos perceptrons de múltiplas camadas devido o
seu treinamento supervisionado muito popular conhecido como algoritmos de retropropagação de
erro (error-backpropagation)

PROGRAMA PARA PREENCHIMENTO DE

FALHAS

BILLINGS, S.A. & ZHENG, G.L., “Radial Basis Function Networks Configuration Using Genetic Algorithms”,
Neural Networks, vol. 8, no. 6, pp. 877-890, 1995.
O treinamento de uma rede neural de forma supervisionada pode ser dado de varias
formas. Como vimos anteriormente, o perceptron de múltiplas camadas sob supervisão do
algoritmo de retropropagação pode ser visto como uma técnica recursiva conhecida como
aproximação estocástica. Diferentemente nas RNA com função de base radial, que foram
desenvolvidas baseadas na teoria de aproximação de funções. A teoria de aproximação trata o
problema genérico de aproximar uma função contínua e multivariada y(x) por uma função de
aproximação f(w,x) dado um número fixo de parâmetros w. No contexto de uma rede neural,
as unidades ocultas fomecem um conjunto de "funções" que constituem uma "base" arbitrária
para os padrões (vetores) de entrada, quando eles são expandidos sobre o espaço oculto: estas
funções são chamadas de funções de base radial(Haykin, 1999).

Você também pode gostar