Escolar Documentos
Profissional Documentos
Cultura Documentos
Redes Neurais
Redes Neurais
Instituto de Informtica
Curso de Ps-Graduao em Cincia da Computao
Andr Cardon
Daniel Nehme Mller
Philippe Navaux
Orientador
Sumrio
1 Introduo
1.1
1.2
1.3
Histrico . . . . . . . . . . . . . . . . . .
Caractersticas Bsicas de Redes Neurais
1.2.1 Padres . . . . . . . . . . . . . .
1.2.2 Funes . . . . . . . . . . . . . .
1.2.3 Conexes . . . . . . . . . . . . .
1.2.4 Elementos de Processamento . .
Aplicaes . . . . . . . . . . . . . . . . .
1.3.1 Reconhecimento de Fala . . . . .
1.3.2 Identicao de Sinais de Radar
1.3.3 Mercado Financeiro . . . . . . .
1.3.4 Composio Musical . . . . . . .
2 Modelos
2.1
2.2
2.3
2.4
2.5
Classicao . . . . . .
Perceptron / Adaline .
2.2.1 Caractersticas
2.2.2 Topologia . . .
2.2.3 Algoritmo . . .
2.2.4 Uso . . . . . .
Backpropagation . . .
2.3.1 Caractersticas
2.3.2 Topologia . . .
2.3.3 Algoritmo . . .
2.3.4 Uso . . . . . .
Hopeld . . . . . . . .
2.4.1 Caractersticas
2.4.2 Topologia . . .
2.4.3 Algoritmo . . .
2.4.4 Uso . . . . . .
Kohonen . . . . . . . .
2.5.1 Caractersticas
2.5.2 Topologia . . .
2.5.3 Algoritmo . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
Articiais
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
6
6
7
9
10
11
11
11
12
12
13
13
15
15
15
16
17
19
19
20
20
21
22
22
22
23
23
24
24
25
25
2.6
2.5.4 Uso . . . . . . . .
ART . . . . . . . . . . . .
2.6.1 Caractersticas . .
2.6.2 Topologia . . . . .
2.6.3 Algoritmo . . . . .
2.6.4 Uso . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
27
27
28
28
29
Captulo 1
Introduo
1.1 Histrico
O primeiro trabalho sobre Redes Neurais foi realizado no ano de 1943, por McCullock e Pitts [EBE 90]. Neste, eles desenvolveram um estudo sobre o comportamento do neurnio biolgico, com o objetivo de criar um modelo matemtico
para este. As concluses desta pesquisa foram de extrema importncia para a
futura implementao computacional do neurnio formal:
Como possvel perceber na gura 1.1, no podemos traar uma nica reta
(funo linear) tal que divida o plano de maneira que as sadas com valor 0
cam situadas de um lado da reta e as com valor 1 do outro. Entretanto, este
problema pode ser solucionado com a criao de uma camada intermediria na
rede e gracamente com uma estrutura em trs (ou mais) dimenses.
Em 1972, Teuvo Kohonen da Universidade de Helsinky deniu um novo
modelo de rede neural, conhecido como mapa auto-organizvel de caractersticas . Ao contrrio do perceptron, ele no era limitado a valores binrios,
mas os valores das entradas, dos pesos e das sadas poderiam ser contnuos.
Alm disso, ao invs da sada da rede ser representada pela atuao de um
simples neurnio vencedor (ativado), Kohonen estabeleceu um grande nmero
de neurnios para representar o padro de entrada, sendo que este nmero
alcanado pela inuncia do neurnio vencedor aos seus vizinhos. Em outras
palavras, no h apenas um neurnio responsvel pela representao do padro
de entrada, mas sim um conjunto de neurnios que interagem entre si.
Todavia, a grande importncia do trabalho de Kohonen foi ter introduzido um novo paradigma no estudo das Redes Neurais: o aprendizado nosupervisionado, segundo o qual a rede no precisa car sendo comparada constantemente a um valor de sada durante a fase de aprendizado. At o incio da
dcada de 80, os modelos de redes neurais implementados poderiam ser classicados em dois tipos: feedback, onde a rede, partindo de um estado inicial ,
chega ao estado nal de aprendizado atravs de iteraes, na qual as sadas so
canalizadas para as entradas e feedforward, a qual transforma um conjunto de
sinais de entrada em sinais de sada. O modelo de Kohonen veio a ser um novo
paradigma, alternativo, para as redes neurais.
Em 1982 houve uma nova evoluo nos trabalhos das redes neurais iniciado
pela criao do modelo de Hopled, desenvolvido pelo fsico John Hopeld.
Este modelo se caracteriza por ser do tipo feedback, isto , h uma conexo
das entradas com as sadas. Por este motivo, estas redes dicilmente chegam a
um estado instvel, ou seja, chegar um momento em que a sada, aps oscilar
entre alguns valores binrios, ser sempre a mesma para um mesmo padro de
entrada. Hopeld, para demonstrar este fato, utilizou o exemplo de uma funo
matemtica que decresce a cada vez que a rede troca de estado, conseqentemente, chegar um momento em que esta funo alcanar um valor mnimo e
no ser mais alterada. Este o momento em que a rede alcanou a estabilidade.
A rede de Hopeld pode ser comparada a um modelo fsico, onde a cada troca
de estado da rede a energia da mesma diminui, portanto, a fase de aprendizado
chegar ao m no momento em que a rede tiver a sua energia minimizada.
O perceptron teve sua validade provada no modelo backpropagation, que
possibilitou a implementao da terceira camada necessria para o aprendizado
do XOR. Utilizando uma rede de neurnios como os utilizados no perceptron, o
backpropagation realiza uma retro-propagao do erro da sada para as camadas
anteriores. O erro o resultado da comparao entre a sada desejada (prdenida) e a sada real da rede. Com esta retro-propagao, juntamente com
uma funo limiar de valores fracionrios (fugindo ao tudo ou nada), possibilitase a representao de funes no-lineares, permitindo o treinamento da funo
5
XOR. Por este fato, o backpropagation tornou-se uma das redes mais utilizadas,
dado seu amplo espectro de representaes possveis.
Vrios outros modelos foram criados desde ento, embora estes citados anteriormente foram os mais destacados por terem sido os precursores e por terem
denidos os paradigmas de modelos de redes neurais existentes hoje.
1.2.1 Padres
As RNA's no podem operar sem dados. Esses dados so os padres apresentados a uma RNA. Podem ser valores numricos ou mesmo caracteres que sero
posteriormente transformados em nmeros. A um determinado padro de entrada corresponde um sinal de sada, sendo que a dimenso (tipo) do padro de
entrada pode ser diferente do padro de sada.
Uma das principais aplicaes de RNA's o reconhecimento (classicao)
de padres. Por exemplo, em reconhecimento da fala existem tipos diferentes
de caractersticas envolvidas. Nesta aplicao, o padro de entrada pode ser
uma matriz que contm o caracter, e a sada apenas um nmero que indica
se o caracter foi reconhecido ou no. Assim, temos um padro de entrada
com dimenso diferente do padro de sada. Alm disso, neste caso torna-se
essencial um pr-processamento de informaes. Isso signica que a seleo e
representao correta das caractersticas do padro a ser aplicado pode afetar a
performance da rede. Criar o melhor conjunto possvel de caractersticas como
padro o primeiro passo para o sucesso de qualquer aplicao em RNA's.
1.2.2 Funes
Das funes utilizadas em RNA's, podemos distinguir basicamente em dois tipos: funes para transferncia de sinais entre neurnios; e funes para aprendizado de padres. As funes de transferncia, tambm chamadas funes
de limiar, so aquelas responsveis por determinar a forma e a intesidade de
alterao dos valores transmitidos de um neurnio a outro.
As funes de limiar so basicamente quatro: a linear, a hard-limiter ou
step, a em rampa, a sigmoid, e a gaussiana.
A funo linear uma equao linear da forma:
f (x) = x
sendo que x um nmero real e um escalar positivo (inclinao da reta). Veja
gura 1.2.
se x
f (x) =
se x <
onde e so os valores que valero para f(x) caso x ultrapasse ou no o limiar
. Veja gura 1.3.
A funo de limiar em rampa tem este nome por ser uma hard-limiter modicada: ela possui no uma transio direta entre dois valores, mas sim uma
fase de transferncia:
se x
x
se |x| <
f (x) =
se x
onde o valor de saturao da funo, ou seja, durante a transio o valor de
f(x) ir variar dentro do intervalo (, ). Veja a gura 1.4.
7
Figura 1.3: Hard Limiter: o coeciente de limiar determina onde ser o limite
de transferncia.
f (x) =
1
1 + ex
1.2.3 Conexes
Uma RNA equivalente a um grafo orientado (dgrafo). Um dgrafo tem arestas
(conexes) entre nodos (elementos de processamento) com um s sentido. Isso
faz com que a informao ua numa direo denida (denotada por uma exa
no desenho do dgrafo). Esta informao ui atravs das arestas e coletada
pelos nodos. RNA's estendem a representao de dgrafo por incluir um peso
em cada aresta (conexo) que modula o sinal de sada que passado para o
nodo adjacente (ver gura 1.7).
Os pesos so os responsveis pela memorizao do padro, pois so ajus9
10
pesos:
Entradai = F (P adr
ao, P esoj )
O modo mais comum de funo de um elemento de processamento a combinao linear. Desta forma temos:
X
Entradai = f ( (padr
aoij pesoij )) = f (P adr
aoP esoj )
com i variando de 1 a n (nmero de conexes).
1.3 Aplicaes
So inmeras as aplicaes possveis para as redes neurais, mas elas vieram de
encontros s necessidades de modelagem de aplicaes que no representveis
atravs da programao convencional, como, por exemplo, o reconhecimento de
imagens. Neste sentido, atualmente encontramos outros modelos matemticos
como a lgica fuzzy e os algoritmos genticos, que tambm contribuem para
aplicaes que exigem uma certa margem de erro para serem executadas. Neste
sentido, a seguir so apresentados alguns exemplos de aplicaes tpicas das
redes neurais, que dicilmente seriam viveis na programao convencional.
11
12
Captulo 2
Modelos
2.1 Classicao
Apesar de no haver uma norma taxonmica para os modelos de redes neurais,
h diferenas claras entre eles [LIP 87] [KOH 90]. Assim, podemos realizar uma
distino entre os modelos atravs de suas caractersticas bsicas, como o tipo
de entradas, a forma de conexo e o tipo de aprendizado.
Por tipos de entrada entendemos a entrada ser binria ou intervalar:
14
Possui como regra de adaptao dos pesos, o algoritmo perceptron ou LMS (tambm conhecido como adaline). A diferena entre ambos est
na forma do clculo. O perceptron tem a seguinte formulao:
P (t + 1) = P (t) + ((t)/2)E(t)
onde o coeciente de aprendizado e o erro da sada quantizada do
ep. A sada quantizada atravs da funo de limiar aplicada sada. O
erro tem a forma:
(t) = d(t) flim (S(t))
ou seja, o erro fruto da aplicao da funo de limiar sobre a diferena
entre a sada desejada d e a resultante S. A sada desejada o valor -1 ou
1 que se espera como resultado do treinamento.
2.2.2 Topologia
A gura 2.2 apresenta um simples ep segundo as frmulas do perceptron e LMS discutidas anteriormente. O ep recebe o padro representado no vetor E,
que multiplicado pelo vetor de pesos proveniente da Regra de Adaptao. O
clculo resultante somado, perfazendo assim a soma ponderada, que a sada
15
2.2.3 Algoritmo
1. Inicialize os pesos e o coeciente de limiar com valores randmicos e
dentro do intervalo (0;1]. O coeciente de limiar aqui utilizado para
16
S(t) =
n1
X
Pi (t)Ei (t)
i=0
para o perceptron:
P (t + 1) = P (t) + ((t)/2)E(t)
(t) = d(t) Sq(t)
para o -LMS:
P (t + 1) = P (t) + ((t)E(t)/|E(t)|2 )
(t) = d(t) S(t)
6. Voltar ao passo 2 at que a sada quantizada Sq esteja respondendo corretamente com a sada desejada d.
2.2.4 Uso
Aprendizado
Para realizar o treinamento (aprendizado) de um padro, necessrio primeiramente pass-lo para a forma de 1 e -1. comum encontrarmos arquivos de
padres em binrios, resultantes, por exemplo, de processamento de sinais digitais. Cada 0 do padro binrio deve ser colocado na forma de -1 para que
no hajam erros na execuo das equaes do algoritmo. Caso o padro seja
contnuo, este processamento torna-se desnecessrio.
A forma em que so apresentados os padres tambm de grande importncia. Se h mais de um, devem ser apresentados aleatoriamente, ou de forma
alternada. Nunca se deve treinar um padro para somente depois treinar outro,
isso deixaria os pesos da rede sempre tendendo a apenas um dos padres.
Um outro passo o ajuste dos parmetros do algoritmo, que so o coeciente de aprendizado e o coeciente de limiar . O coeciente determina
o intervalo de ajuste dos pesos, quanto maior seu valor, maior ser a diferena
dos valores de uma iterao a outra. Quanto maior o valor, maior o intervalo
17
Reconhecimento
Para efetuar o reconhecimento de um padro, ou seja, saber se ele pertence ou
no ao conjunto de padres treinados, basta que o algoritmo seja executado uma
vez, sem o ajuste de pesos. Isso basta para que obtamos uma sada quantizada
que indique a que padro treinado pertence o padro atual.
Vantagens e Desvantagens
A grande vantagem da implementao do algoritmo perceptron/adaline a simplicidade. So poucos parmetros a ajustar e o padro de entrada no necessita
de um pr-processamento muito elaborado, dependendo da aplicao.
Por outro lado, ele tem sua aplicao restrita a padres no muito complexos,
que sejam linearmente separveis (veja captulo introdutrio).
Aplicaes
A utilizao do perceptron/adaline est restrita quantidade de padres envolvidos e sua complexidade. Ele pode ser usado em reconhecimento de sinais
digitais ou, quando utilizado em grandes redes, pode ser aplicado caracteriza
o de apenas um padro por neurnio.
18
2.3 Backpropagation
2.3.1 Caractersticas
um modelo com entrada intervalar, aprendizado supervisionado e com
alimentao frente.
O backpropagation deriva-se do modelo perceptron/adaline [RUM 86]
[WID 90]. Seus neurnios so compostos por trs ou mais camadas de
adalines interconectados. Estes adalines tm uma diferena fundamental:
eles utilizam uma funo do tipo sigmoid como funo de limiar.
A funo de limiar do tipo sigmoid uma vez que necessria uma funo
no-linear para ampliar o potencial de classicao de um modelo. Essa
variao foi o que possibilitou a este e outros modelos realizarem representaes complexas, como o aprendizado da funo lgica XOR (ver seo
1.1). A funo sigmoid tem a forma:
sgm(Si ) = 1/(1 + e(Si ) )
onde S a sada linear resultante da soma ponderada do nodo i e o
coeciente de limiar.
Neste modelo, o erro obtido na sada transferido para as camadas intermedirias. Da o nome retropropagao (backpropagation). Isso se d
pela necessidade de ajuste dos neurnios que no tm contato com a sada,
necessitando, assim, de algum parmetro para atualizao dos pesos.
O clculo do erro comea na ltima camada, ele tem a forma:
si (t) = S(t)(1 S(t))(di (t) S(t))
onde S a sada linear, d a sada desejada, e i o nodo atual. A partir deste
erro so ajustados os pesos da ltima camada:
Pi (t + 1) = Pi (t) + si (t)En(t)
onde P o vetor de pesos, o coeciente de aprendizado e En o vetor
resultante da sada da camada anterior.
2.3.2 Topologia
2.3.3 Algoritmo
1. Inicializar os pesos e coecientes de limiar com valores pequenos e randmicos.
2. Apresentar o vetor de entrada (padro) e a sada desejada.
3. Calcule a sada:
S(t) =
n1
X
Pi (t)Ei (t)
i=0
Sq(t) = sgm(S(t))
5. Atualize os pesos da ltima camada:
Pi (t + 1) = Pi (t) + i (t)En(t)
e o clculo do erro:
20
k pik (t)
2.3.4 Uso
Aprendizado
A preparao do padro de entrada segue os mesmos princpios do perceptron/adaline: no h muito pr-processamento, dependendo da aplicao desejada. A aplicao tambm dene o nmero de neurnios na camada intermediria. Normalmente utiliza-se um neurnio para cada classe de padro. Por
exemplo, caso queira-se treinar o alfabeto, basta um neurnio por letra, mesmo
que haja um nmero expressivo de padres distintos (amostras) por letra. Tambm comum a utilizao de apenas uma camada intermediria para a grande
maioria das aplicaes. A seqncia de apresentao dos padres continua a
mesma do perceptron/adaline: aleatria ou alternada.
Aps denidos os padres e a topologia, so necessrias algumas iteraes
de treinamento para que se possa denir os parmetros. Como no perceptron/adaline, e podem ser denidos pelo projetista, assim como serem
funes variveis. O incremento deste modelo est no momentum . Este
coeciente permite a acelerao do processo de convergncia. Seu valor ca no
intervalo [0;1].
O treinamento se concretizar quando as sadas desejadas estiverem numa
margem segura de proximidade sada da funo sigmoid. Esta aproximao
existe devido diculdade de se chegar ao valor exato da sada deseja e, ento,
estima-se uma margem de erro para que se alcance a convergncia.
Para a maioria das aplicaes so necessrias muitas iteraes at a convergncia. Isso tambm dependente de um bom ajuste dos coecientes envolvidos.
Reconhecimento
Como no perceptron/adaline, o reconhecimento apenas uma iterao do algoritmo para vericao da sada. Dado o padro que se quer reconhecer, realiza-se
uma iterao do algoritmo, excetuando-se obviamente o ajuste de pesos, e comparando a sada do sigmoid com as sadas desejadas aprendidas. Do resultado
desta comparao sabe-se se a qual classe o padro pertence.
Vantagens e Desvantagens
A grande vantagem deste modelo sua capacidade de abranger as mais variadas
classicaes de padres, podendo ser utilizado numa enorme gama de aplicaes
(veja seo seguinte).
21
Aplicaes
O backpropagation utilizado para reconhecimento de caracteres, composio
musical, sries temporais, reconhecimento de sinais em geral, treinamento de
robs, etc. Alguns destes exemplos esto citados no captulo introdutrio.
2.4 Hopeld
2.4.1 Caractersticas
caracterizada por ser do tipo binria, supervisionada e com retro-alimentao.
baseada no conceito de energia da rede, onde esta proporcional troca
de estados da rede. Isto , quanto maior for a oscilao entre um estado e
outro na sada, maior ser a energia. Portanto, a fase de reconhecimento
tem por objetivo minimizar a quantidade de energia de maneira que a rede
convirja para um nico estado na sada [WAS 89].
2.4.2 Topologia
22
Como podemos ver pela gura 2.5, h uma retro-alimentao que vai da sada
de cada neurnio para a entrada de todos os demais, exceto a sua prpria
entrada.
2.4.3 Algoritmo
1. Inicializar os pesos das conexes:
PM 1 s s
s=0 xi xj
wij =
0
se i 6= j
se i = j
i (0) = xi ,
0 <= i <= N 1
i (t + 1) = fh [
N
1
X
wij j (t)]
i=0
2.4.4 Uso
Aprendizado
Pelo fato da rede de Hopeld ser do tipo binria, a primeira atitude a ser
tomada antes do aprendizado e tambm da fase de reconhecimento da rede,
converter os valores binrios (0,1) em bipolares (-1,1), para que o valor 0 no
cause problemas quanto o clculo das sadas.
Aps, os padres exemplares, isto , aqueles com que a rede ser treinada e
para os quais a rede dever convergir, so inseridos na entrada aleatoriamente.
A fase de treinamento ir se encerrar a partir do instante que, no importando
o padro exemplar posto na entrada, a rede devolver o mesmo padro na sada
ao longo de sucessivas iteraes. Portanto, ao contrrio de outras redes como
Backpropagation e Kohonen, onde pode-se determinar uma condio de parada
na fase de aprendizado, no modelo de Hopeld isto no acontece, pois neste o
treinamento s encerrado aps a rede convergir para um nico estado na sada.
23
Reconhecimento
Na etapa de reconhecimento, padres diversos sero inseridos na rede e para
cada um deles a rede tentar convergir para o padro exemplar que melhor
se aproxima deste. O reconhecimento poder no convergir em virtude das
limitaes do modelo explicadas na seo seguinte.
Vantagens e Desvantagens
A rede de Hopeld tm como vantagem o fato de ser adequada quando se deseja
utilizar uma memria associativa, isto , uma memria que armazena diversos
padres ao mesmo tempo e que cada um deles pode ser referenciado dependendo
com qual deles melhor se assemelha o padro de entrada .
Este modelo tem duas desvantagens, ou em outras palavras, duas restries a
m de que possibilite uma boa capacidade de reconhecimento sem redundncias.
Uma delas que o nmero de padres a ser ensinado, ou nmero de padres
exemplares, dever ser no mximo 15% do total de nodos da rede. E um outro
ponto com o qual deve-se ter cuidado no permitir que um padro exemplar
compartilhe muitos bits com um outro padro, pois isto pode confundir a rede.
Aplicaes
Uma das muitas aplicaes do modelo de Hopeld que pode ser citado um
conversor Analgico-Digital. Neste, os amplicadores funcionam como se fossem
os neurnios da rede e os resistores como os pesos. Todas as sadas da rede so
trocadas no incio de intervalos discretos chamados de poca. No incio de cada
poca, a soma das entradas de cada neurnio somado, e se ultrapassar o
limiar previamente denido, a sada ser 1, caso contrrio, ser 0. O objetivo
selecionar os resistores a m de que um aumento contnuo de uma tenso X
aplicada a uma entrada, produza um conjunto de quatro sadas, cujo valor em
binrio corresponderia ao nvel da tenso de entrada.
2.5 Kohonen
2.5.1 Caractersticas
Possui auto-aprendizado, entrada intervalar e conexo competitiva.
No h propriamente um reconhecimento de padro como em outros modelos, mas h a classicao de um padro junto com outros que tm
caractersticas semelhantes, formando classes. Estas classes so organizadas num mapa, onde pode-se observar a distribuio dos padres. Desta
maneira, no instante em que um padro inserido na rede, esta o coloca na
classe onde melhor o padro se adequa, em funo das suas caractersticas.
Um outro aspecto importante que o modelo de Kohonen chamado de
biologicamente plausvel. No crtex auditivo, por exemplo, existem con24
Este tipo de rede usado quando se deseja, por exemplo, reconhecer diversos padres que possuam alguma relao entre si, como reconhecimento
de voz, que ser explicado posteriormente na seo de aplicaes.
2.5.2 Topologia
2.5.3 Algoritmo
1. Inicializao dos pesos da rede com valores baixos (0.01 a 0.1) escolhidos
aleatoriamente. Ajuste inicial do raio de vizinhana, que poder comear
com a metade do dimetro da rede e ir diminuindo linearmente.
2. Insero do padro de entrada.
3. Clculo das distncias de cada sada:
q
1
2
dj = N
i=0 (xi (t) wij (t))
25
onde:
2.5.4 Uso
Aprendizado
Este modelo extremamente dependente da forma com a qual os padres de
entrada esto denidos. Isso porque o modelo apenas far uma distribuio
dos padres na rede. Se estes padres no possuem uma codicao numrica
uniformemente distribuda, eles podero entrar em conito, no representando o
que se deseja. Para tanto, so necessrios muitos ajustes iniciais at encontrar-se
um pr- processamento adequado aplicao pretendida.
Aps um padro ser inserido na rede, calculada a distncia euclidiana,
respectiva a cada neurnio de sada, e, aps, verica-se aquele que alcanou
o maior valor. Este neurnio levar o nome de neurnio vencedor, e ter o
peso da sua conexo alterada. Alm deste neurnio, outros neurnios de sada
podero tambm ter seus pesos alterados. Isto porque antes de ser realizado
o treinamento, ajusta-se uma varivel chamada de raio de vizinhana (que
poder ser alterado durante o treinamento). O raio indica a qual distncia
mnima do neurnio vencedor um determinado neurnio dever estar para ter
seu peso alterado. Este clculo feito atravs da comparao da diferena entre
a distncia do neurnio vencedor e cada um dos demais, podendo esta distncia
ser vista como um mapa, como uma separao fsica entre os neurnios.
26
Reconhecimento
Depois de um determinado nmero de iteraes, os pesos da rede estaro ajustados de maneira a poder classicar adequadamente os padres a serem reconhecidos. Assim, ao ser inserido um padro, um determinado neurnio de sada se
ativar, indicando aquele que tiver a menor distncia em relao a sua entrada.
Desta forma, a rede no ir exibir um resultado exato de reconhecimento, mas
sim ir classicar o padro conforme as suas caractersticas.
Vantagens e Desvantagens
O modelo de Kohonen pode ser usado nas diversas aplicaes onde comumente
se utilizam outros modelos de redes neurais, como reconhecimento de padres,
robtica, processamento de sinais. Porm, ele se torna eciente [KOH 90] naquelas aplicaes em que os padres possuam alguma relao entre si, podendo
desta forma, serem classicados. Um exemplo que pode ser citado o de reconhecimento da fala, citado no item referente a aplicaes.
A rede possui como desvantagens o fato de ser um pouco complexa em relao
aos outros modelos, pois as variveis como raio de vizinhana e coeciente de
aprendizado devem ser ajustados adequadamente para que o aprendizado seja
realizado com sucesso. Alm disso, o nmero mdio de iteraes necessrios
para o treinamento de 500 vezes o nmero de nodos de sada [KOH 90].
Aplicaes
Como exemplo de aplicao pode ser citado a mquina de escrever fontica,
ou Phonetic Typewriter . O objetivo desta rede , ao ser pronunciada uma
palavra, no caso no idioma nlands, a rede ir informar os provveis fonemas
constituintes daquela palavra. Para tanto, a rede treinada com os fonemas
do idioma, onde estes, dependendo de suas caractersticas, so agrupados com
outros que possuem caractersticas similares. Assim, a cada fonema pronunciado
ser ativado um determinado neurnio de sada correspondente.
2.6 ART
2.6.1 Caractersticas
A Teoria da Ressonncia Adaptativa (Adaptive Resonance Theory) resultou num classicador projetado por Carpenter e Grossberg que possui entrada binria, conexo retro-alimentada e aprendizado no-supervisionado
[LIP 87].
A idia de armazenamento dos padres tem semelhanas com o modelo
de Kohonen, uma vez que h a distino de zonas, a comparao entre
as distncias vetoriais das somas ponderadas, e a escolha de um neurnio
vencedor.
27
Como ele retro-alimentado, o algoritmo tem variantes dos demais apresentados, possuindo um neurnio vencedor varivel, dependente do padro
de entrada.
2.6.2 Topologia
2.6.3 Algoritmo
1. Inicializar contadores:
28
j =
N
1
X
rij (t)ei
i=0
kF Ek =
N
1
X
fiv (t)ei
i=0
kEk =
N
1
X
ei
i=0
2.6.4 Uso
Aprendizado
O aprendizado do modelo ART bem distinto dos modelos vistos anteriormente, apenas com algumas semelhanas com o de Hopeld e o de Kohonen.
Assemelha-se ao de Kohonen em sua forma de distribuio dos pesos na rede
atravs da seleo de um neurnio vencedor, com a diferena de que no ART
29
Reconhecimento
O reconhecimento confunde-se com o aprendizado, uma vez que este um modelo no-supervisionado que incorpora padres desconhecidos e adapta padres
semelhantes.
Vantagens e Desvantagens
O modelo ART possui a facilidade de no ter necessidade de um aprendizado
prvio, podendo adaptar-se de acordo com a necessidade. Por outro lado, este
modelo muito sensvel a padres distorcidos, no podendo fazer uma boa
diferenciao entre padres semelhantes, limitando, assim, em muito suas aplicaes.
Aplicaes
Utiliza-se o ART para reconhecimento de imagens, mais comumente para reconhecimento de caracteres.
30
Referncias Bibliogrcas
[BEA 90]
BEALE, R. & JACKSON, T. Neural Computing: An Introduction. Adam Hilger, Bristol, 1990.
[EBE 90]
[EBEa 90]
[KOH 90]
[LIP 87]
[RUM 86]
[SIG 90]
[SIM 90]
SIMPSON, P. K. Articial Neural Systems: Foundations, Paradigms, applications, and implementations.Pergamon Press, 1990.
[WAS 89]
[WID 90]
[ZAR 90]
31