Você está na página 1de 10

e Segmentacao em tempo real de sequ ncias temporais por uma rede neural auto-organiz vel construtiva a

Eduardo Nunes Ferreira Bastos1 , Paulo Martins Engel1


1

Instituto de Inform tica Universidade Federal do Rio Grande do Sul (UFRGS) a Caixa Postal 15.064 91.501-970 Porto Alegre RS Brazil Abstract. A common requirement of adaptative systems is the lifelong learning of spatiotemporal patterns. The present work proposes a new articial neural network model suitable for robotic applications, in special to spatiotemporal tasks and innite horizon tasks. The model has three characteristics which make it unique and are taken as means to guide its conception: self-organization, temporal representation and constructive learning. Preliminary results in a temporal segmentation task have shown the good efciency of the neural model compared to existing connectionist architectures. Resumo. Uma necessidade freq ente, em sistemas adaptativos, e o aprendiu zado perp tuo de padr es espaco-temporais. Este trabalho prop e um modelo e o o de rede neural articial voltado a aplicacoes rob ticas, em especial a tarefas o de natureza espaco-temporal e de horizonte innito. O modelo apresenta tr s e caractersticas que o tornam unico e que foram tomadas como guia para a sua concepcao: auto-organizacao, representacao temporal e aprendizado constru tivo. Os resultados obtidos numa tarefa de segmentacao temporal demonstra ram a eci ncia do modelo frente as arquiteturas conexionistas existentes. e `

1. Introducao
A necessidade de processamento temporal contnuo surge em numerosas aplicacoes que incluem a classicacao de padr es espaco-temporais, controle adaptativo e identicacao o de sistemas n o-lineares. Atualmente, j existem teorias bem-desenvolvidas para resolver a a problemas din micos quando o sistema sob estudo ou o mecanismo fsico subjacente de a a interesse e linear. No entanto, quando o sistema ou o mecanismo fsico e n o-linear, a tarefa se torna mais difcil. E nestas situacoes que as redes neurais articiais t m o e potencial de fornecer uma solucao vi vel e econ mica sob o ponto de vista computacional. a o Em geral, h duas formas de incluir o tempo na operacao de uma rede neural: a atrav s de lacos de realimentacao (recorr ncia) ou por meio de mem rias de curto prazo. e e o De acordo com [Sepp and Schmidhuber 1997], redes neurais recorrentes s o computacia onalmente complexas e t m poder limitado para a memorizacao de eventos. Assim, a e mem ria de curto prazo e a peca-chave para o projeto de redes neurais temporais. A o ` mem ria pode ser aplicada externa ou internamente a rede e comumente e codicada por o linha de atrasos de tempo, diferenciadores e/ou integradores. A grande maioria das redes neurais para processar informacao temporal e base ada em vers es temporais de redes supervisionadas, entre elas o perceptron de m ltiplas o u camadas, redes de base radial e redes baseadas em mem ria associativa. Apesar de exiso tirem redes n o-supervisionadas projetadas para lidar com seq encias temporais desde o a u

nal dos anos 60, apenas recentemente e que elas t m recebido atencao especial por parte e da comunidade cientca [Barreto and Ara jo 2001]. u De modo geral, redes neurais s o baseadas numa arquitetura previamente denida a e extremamente rgida, contendo o mesmo arranjo geom trico e n mero de neur nios e u o durante todo o processo de aprendizagem. No entanto, redes com dimens o muito redua zida podem n o apresentar exibilidade suciente para tratar alguns problemas, enquanto a redes sobre-dimensionadas geralmente apresentam pouca capacidade de generalizacao. Al m do mais, redes com estrutura est tica podem se demonstrar inadequadas a ambientes e a n o-estacion rios que necessitam de aprendizagem contnua. O aprendizado construtivo a a e uma solucao ao possibilitar a inclus o e remocao de neur nios na estrutura da rede. a o O presente trabalho prop e o desenvolvimento de um modelo de rede neural autoo organiz vel, temporal e construtivo, voltado a tarefas de natureza espaco-temporal e de a horizonte innito. A rede neural e denominada GTSOM (do acr nimo em ingl s para o e Growing Temporal Self-Organizing Map) [Bastos 2007]. Este artigo est organizado como descrito a seguir. Na Secao 2, s o apresentadas a a a estrutura dos elementos e a din mica dos processos da rede neural. A Secao 3 descreve a um experimento computacional para ilustrar o comportamento da rede numa tarefa de segmentacao temporal. Por m, a Secao 4 relata as consideracoes nais do trabalho.

2. Estrutura geral da rede neural


A rede neural proposta faz parte de uma famlia de modelos conexionistas cuja ess ncia e e realizar um mapeamento n o-linear de entrada-sada. Em particular, a rede apresenta tr s a e caractersticas que a tornam unica e que foram tomadas como guia para a sua concepcao, a saber: auto-organizacao, representacao temporal e aprendizado construtivo. A Figura 1 representa de forma esquem tica os elementos b sicos da rede neural proposta. a a

S(t)

(.)

wi h
x(t)

wix wiy

ni

0/1

z(t)

(.)

idadeij

wj x
y(t)

wj

wjy

nj

0/1

Figura 1. Diagrama arquitetural da rede neural proposta.

A rede compreende um sistema n o-linear do tipo caixa-preta com par metros a a distribudos que s o ajustados atrav s de um algoritmo de aprendizagem n o a e a supervisionada. A rede tem uma estrutura de propagacao para frente com apenas uma camada computacional de neur nios. Cada neur nio est totalmente conectado a um o o a vetor de entrada x, a um vetor de contexto y e a um vetor de habituacao S, por meio de termos ponderados w. Cada neur nio ainda pode estar conectado a quaisquer outros o neur nios da rede, com excecao de si mesmo, por meio de conex es sin pticas valoradas. o o a A unidade de memorizacao incorpora o tempo no funcionamento da rede. A unidade de habituacao controla a formacao da arquitetura da rede. A sada da rede e um vetor bin rio com todos os bits em zero, exceto o bit que corresponde ao neur nio vencedor. a o O mapeamento do espaco de entrada contnuo para o espaco de sada discreto e realizado atrav s de uma transformacao n o-linear , tal que: e a : Z A, (x X , y Y) ((x, y) A) (1)

O subespaco sensorial X cont m um conjunto nito de amostras x Rm or e ganizadas segundo uma densidade de probabilidade p(x). O subespaco contextual Y cont m uma colecao de vetores y Rm gerados pela mem ria de curto prazo . A e o mem ria extrai informacoes temporais do vetor x atrav s de diferenciadores e integradoo e ` res [Moser 2004]. A sada da mem ria, em resposta a entrada x(t), e dada por y(t): o x(t) = (1 )x(t) + x(t 1) y(t) = (1 )(x(t) x(t 1)) + y(t 1) (2) (3)

onde e s o duas constantes de integracao que devem ter o valor entre 0 e 1; e x(t) a representa a m dia m vel de x. Os valores iniciais para x(0) e y(0) s o feitos iguais a 0. e o a O espaco de sada discreto A e denido pelo arranjo geom trico de um con e junto de neur nios. O arranjo de neur nios e inicialmente xado em dois e limitado o o a um n mero m ximo nmax , no entanto, n o e constante e nem predeterminado pelo u a a projetista da rede. Durante o aprendizado, a construcao autom tica da arquitetura da a rede e realizada de acordo com a unidade de habituacao . O peso da sinapse de habituacao wh de cada neur nio da rede e ajustado a partir da regra de habituacao proposta o em [Bristol et al. 2003, p. 504507]. A insercao e/ou remocao de neur nios no decorrer o do aprendizado objetiva minimizar o erro m dio de quantizacao da rede e manter a rede e ` adaptada a distribuicao n o-estacion ria dos dados de entrada. a a O conjunto de conex es sin pticas da rede e representado por C A A e o a e limitado a um n mero m ximo cmax . As conex es sin pticas entre neur nios s o u a o a o a sim tricas e valoradas. O valor associado a uma conex o representa a sua idade e tem e a como prop sito determinar o seu tempo de vida util. A rede adiciona e remove conex es o o sin pticas entre os neur nios segundo uma regra de adaptacao de Hebb introduzida por a o [Martinetz and Schulten 1994]. A cada iteracao, as idades de todas conex es entre o o neur nio vencedor e seus vizinhos imediatos s o incrementadas e, se porventura, a idade o a de uma conex o exceder o limiar imax a conex o e removida. Al m disso, uma conex o a a e a e criada ou inicializada entre os dois neur nios melhor casados na competicao. o O algoritmo de aprendizado da rede apresenta uma unica fase de operacao, de nominada fase de aprendizagem. N o h uma fase distinta para o treinamento da a a

rede e outra para a atuacao da rede, tal como presentes na maioria dos m todos co e nexionistas descritos na literatura. A cada iteracao do algoritmo de aprendizagem, a camada de entrada da rede neural recebe um padr o de entrada espaco-temporal a 2m T z(t) R Z = [x1 (t), x2 (t), . . . , xm (t), y1 (t), y2 (t), . . . , ym (t)] e um padr o de a n habituacao S(t) R = [S1 (t), S2 (t), . . . , Sn (t)], onde m e a dimens o dos vetores x e a y e n e o n mero de neur nios da rede no tempo t, i.e., n = |A(t)|. u o 2.1. Processo de inicializacao O processo de inicializacao da rede consiste em criar apenas dois neur nios no espaco o ` de sada. Com o intuito de n o impor nenhuma organizacao pr via a rede, devem ser a e atribudos valores pequenos e aleat rios aos pesos sin pticos desses dois neur nios. Nor o a o malmente, estes valores s o restritos ao intervalo fechado [0, 1]. O conjunto de conex es a o sin pticas da rede e denido como vazio. Uma vez que a rede tenha sido apropriadaa mente inicializada, h cinco processos envolvidos na formacao do mapa auto-organiz vel: a a competicao global, cooperacao local, auto-amplicacao seletiva, crescimento e poda. 2.2. Processo de competicao O processo de competicao da rede e implementado de forma discreta com o auxlio de um juiz externo. O juiz identica o neur nio cujo vetor de pesos sin pticos melhor represente o a o padr o de entrada z(t), em termos de uma medida de dist ncia euclidiana. O reconhea a cimento n o depende apenas do valor presente da entrada x(t), mas tamb m de valores a e passados, que est o armazenados na mem ria de contexto y(t). A ess ncia do processo a o e competitivo entre os neur nios pode ser resumida da seguinte forma: o
z v(t) = argmin{ z(t) wi (t) } i

i = 1, 2, . . . , n

(4)

onde v e o ndice que denota o neur nio melhor casado (neur nio vencedor) para o padr o o o a z de entrada z(t), dentre todos os n neur nios presentes na rede no instante t; e wi (t) o representa o vetor de pesos sin pticos espaco-temporal do i- simo neur nio da rede, de a e o y y y z x x x modo que wi (t) R2m = [wi1 (t), wi2 (t), . . . , wim (t), wi1 (t), wi2 (t), . . . , wim (t)]. 2.3. Processo de cooperacao O processo de cooperacao determina a vizinhanca topol gica centrada no neur nio ven o o cedor. Como a rede n o tem uma estrutura xa (e.g., retangular, hexagonal ou outras), a a vizinhanca do neur nio vencedor e o conjunto de neur nios que tem conex o sin ptica o o a a direta com ele no instante t. O neur nio vencedor e seus vizinhos no mapa discreto inteo ragem atrav s da funcao vizinhanca retangular hvi (t): e hvi (t) = 1 se ni Nv (t) 0 caso contr rio a (5)

onde Nv (t), chamado de conjunto vizinhanca, cont m os neur nios vizinhos de v. e o 2.4. Processo de adaptacao Uma vez determinado o neur nio vencedor e a sua vizinhanca topol gica, ocorre o proo o cesso de adaptacao dos pesos sin pticos. Esse processo basicamente faz com que o a

neur nio vencedor e os seus vizinhos imediatos se tornem mais especializados no reo ` conhecimento do ultimo padr o de entrada apresentado a rede. Os pesos sin pticos s o a a a ajustados a partir das seguintes regras de aprendizagem:
z z z wv (t + 1) = wv (t) + v (t)[z(t) wv ] z z z wi (t + 1) = wi (t) + n (t)hvi (t)[z(t) wi ] i = v, i = 1, 2, . . . , n h h h h wi (t + 1) = wi (t) + ((1 wi (t)) wi (t)Si (t)) i = 1, 2, . . . , n

(6) (7) (8)

onde 0 < v (t) < 1 e a taxa de aprendizagem do neur nio vencedor; 0 < n (t) < 1 o h e a taxa de aprendizagem da vizinhanca topol gica Nv (t); wi (t) R1 e a sinapse de o habituacao do i- simo neur nio; , e s o tr s constantes de habituacao que devem ter e o a e o valor entre 0 e 1; e Si (t) R1 e o fator de habituacao do i- simo neur nio. e o As taxas de aprendizagem, v (t) e n (t), controlam a velocidade com que os pesos sin pticos espaco-temporais s o modicados e, por conseguinte, especicam a velocidade a a com que a rede adquire um novo conhecimento. O valor da vari vel v (t) e computado a a cada instante de tempo conforme a heurstica apresentada em [Berglund and Sitte 2006]:
z z(t) wv (t) d(t) z d(t) = max ( z(t) wv (t) , d(t 1)) v (t)

(9) (10)

` onde d(t) corresponde a dist ncia euclidiana normalizada entre o vetor de entrada z(t) e a z z o vetor de pesos sin pticos wv (t). Considera-se a condicao inicial d(0) = z(0)wv (0) a e, portanto, v (0) = 1. Para efeitos de ordenamento e converg ncia, n (t) deve ser pelo e menos uma ordem de magnitude menor que v (t) (e.g., n (t) = v (t) 101 ). O fator de habituacao S(t) do neur nio vencedor e de seus vizinhos imediatos e a o z pr pria atividade do neur nio, i.e., exp( z(t) wi (t) ). Para os demais neur nios da o o o rede, o fator de habituacao vale 0 . Dessa forma, quando o neur nio vence a competicao ou o participa da vizinhanca topol gica do neur nio vencedor o peso da sinapse de habituacao o o h h w atinge rapidamente o ponto m ximo de saturacao (valor 0). Caso contr rio, w se aproa a xima do ponto inicial de n o habituacao (valor 1). A sinapse de habituacao do neur nio a o vencedor indica se um padr o de entrada e novo (ou desconhecido) para a rede e serve de a refer ncia para tomada de decis o nos processos de crescimento e de poda da rede. e a 2.5. Processo de crescimento O processo de crescimento ocorre quando o erro de quantizacao da rede for demasiada mente alto e o padr o de entrada for relativamente novo. Em geral, a rede cresce rapidaa mente quando novos padr es s o apresentados a ela mas interrompe automaticamente o o a processo de crescimento uma vez que tenha convergido para uma solucao est vel. Mate a maticamente, um neur nio e includo na rede se a seguinte condicao for satisfeita: o A(t + 1) =
z h A(t) {nr } se exp( z(t) wv (t) ) < e wv (t) < A(t) caso contr rio a

(11)

onde r e o ndice do novo neur nio a ser adicionado na rede, 0 < < 1 e o crit rio de o e plasticidade e 0 < < 1 e o crit rio de novidade. e

O crit rio de plasticidade, , dene a m xima similaridade admissvel para criar e a um novo neur nio. O crit rio de novidade, , determina uma medida de novidade baseada o e no valor da sinapse de habituacao do neur nio vencedor. Se ambos os crit rios forem o e satisfeitos um novo neur nio de ndice r e inserido na rede entre o neur nio vencedor e o o o padr o de entrada. O peso da sinapse de habituacao do novo neur nio e feito igual a 1 e o a o neur nio e conectado aos dois neur nios melhor casados para o padr o de entrada. o o a 2.6. Processo de poda O processo de poda remove neur nios que n o possuem nenhum vizinho imediato (i.e., o a Ni = ) e neur nios sup ruos que n o vencam a competicao por um longo perodo de o e a tempo. Esse perodo e determinado implicitamente pelas taxas de habituacao , e . Considera-se um neur nio sup ruo se o peso de sua sinapse de habituacao wh for maior o e ou igual a 0.95. Um neur nio rec m includo na rede somente e elegvel para eliminacao o e na pr xima iteracao do algoritmo e, logo, o valor da sua sinapse de habituacao dever ser o a inferior ao limiar de remocao estipulado. Essa t cnica de remocao capacita a rede para e lidar com um uma distribuicao de dados que varia com o passar do tempo.

3. Resultados experimentais
` A rede neural proposta foi aplicada a tarefa de segmentacao de uma seq encia temporal u de duas dimens es em forma de 8. O prop sito dessa tarefa e segmentar em tempo real o o a seq encia temporal e detectar possveis posicoes de ambig idade espaco-temporal. u u A metodologia adotada para realizar as experimentacoes consistiu em inicialmente utilizar simulacoes em computador para gerar dados e, em um segundo momento, proce der a uma an lise qualitativa e quantitativa dos dados gerados, comparando-os a resultaa dos previamente evidenciados na literatura. Cada um dos testes relatados foi repetido pelo menos dez vezes com diferentes inicializacoes e selecionado o resultado mais comum. A pequena quantidade de epocas foi suciente para constatar os resultados, pois o erro de quantizacao da rede cai rapidamente e estabiliza j nas primeiras iteracoes. a A rede e treinada com um vetor de entrada espaco-temporal z de dimens o 4-por a 1, cujos elementos x1 , x2 , y1 e y2 est o uniformemente distribudos na regi o [0, 1]. Para a a inicializar a rede, os pesos sin pticos dos dois neur nios iniciais s o escolhidos de um a o a conjunto aleat rio restrito ao intervalo fechado [0, 1]. A rede neural e submetida a 10 o epocas de aprendizagem, cada qual com 200 iteracoes. A seq encia temporal e gerada a u partir das Equacoes 12 e 13 para 1 t 200: x1 = 0.5 sin x2 t 4 + 0.5 200 t = 0.5 cos 2 + 0.5 200 (12) (13)

` Os 200 pontos obtidos s o submetidos a rede neural em uma determinada ordem, a de modo que a seq encia possa ser interpretada como a trajet ria de um rob m vel realiu o o o zada dentro de um ambiente. Nessa seq encia existe um unico ponto de ambig idade esu u pacial, posicionado na coordenada (0.5, 0.5). Os dois instantes em que a seq encia tempou ral passa por esse ponto s o t = 50 e t = 150, pois [x1 (50), x2 (50)] = [x1 (150), x2 (150)]. a

A Figura 2 traz os resultados obtidos1 . O arranjo de neur nios encontra-se em o uma conguracao est vel e a proximidade espaco-temporal dos neur nios n o e violada a o a (vide Figura 2a). A rede neural classica a posicao de ambig idade com dois neur nios u o diferentes. Os neur nios de ndice 5 e 14 representam os instantes 50 e 150, respectivao mente (vide Figura 2d). Essa distincao somente e possvel pois os dois instantes de tempo encontram-se em locais distintos no subespaco de entrada contextual Y (vide Figura 2b).

Figura 2. Simulacao de uma distribuicao de dados em forma de 8 com nmax = 20, cmax = 60, imax = 50, = 0.7, = 0.1, = 0.7, = 0.7, = 0.01, = 0.9 e = 0.7. (a) Condicao da rede apos 10 epocas. Os vetores de pesos sinapticos wx sao tracados como pontos no subespaco de entrada sensorial X . (b) Espaco de representacao gerado pela unidade de memorizacao . Os smbolos e indicam os instantes t = 50 e t = 150, respectivamente. (c) Erro de quantizacao da rede (EMQ=0.01001). (d) Atividade na sada da rede na ultima (decima) epoca.

Na Figura 3 e ilustrado o resultado obtido por uma rede de Kohonen convencional. Em todas tentativas realizadas a rede de Kohonen convencional falhou na representacao da posicao de ambig idade, classicando os dois instantes com o mesmo neur nio (vide u o Figura 3d). A atividade na sada da rede de Kohonen sofre saltos abruptos no decor ncia e, por isso, o mapa de caractersticas n o reete espacialmente a conrer da seq e u a tig idade temporal da seq encia. Essa ambig idade de representacao existe independente u u u
Nesse experimento foi necess rio aumentar a import ncia da informacao de contexto gerada pela unia a dade de memorizacao . Para tanto, realizou-se em tempo real a normalizacao dos dados de sada da unidade por uma constante multiplicativa. A determinacao da amplitude ideal para o sinal incidente e feita a partir da an lise da funcao kernel da mem ria e, neste caso, e igual a 10 [Moser 2004, p. 6566]. a o
1

dos par metros escolhidos para e , pois a rede de Kohonen convencional carece de a uma unidade de memorizacao (e.g., mem ria de curto prazo ou lacos de realimentacao). o

Figura 3. Simulacao de uma distribuicao de dados em forma de 8 com 20 neuronios dispostos num mapa de Kohonen unidimensional circular de parametros = 1.5 e = 1. A largura da vizinhanca topologica, , tem seu valor reduzido linearmente ate 1.0 e o valor da taxa de aprendizagem, , decai monotonicamente ate 0.0. (a) Condicao da grade apos 10 epocas. (EMQ=0.019118 e = 0.0011374). (b) Atividade na sada da rede na ultima (decima) epoca.

Na Tabela 1 s o apresentados os percentuais de converg ncia e de classicacao das a e seguintes redes neurais auto-organiz veis temporais: TKM [Chappell and Taylor 1993], a RSOM [Varsta et al. 1997], CSOM [Voegtlin 2002], SOMSD [Hagenbuchner et al. 2003] e MSOM [Strickert and Hammer 2004]. Essas redes temporais classicam o ponto de cruzamento com neur nios diferentes, pois agregam uma informacao de contexto ao o espaco de representacao da rede. N o obstante, o melhor resultado de classicacao foi a obtido pela rede neural proposta, pois em 100% dos experimentos houve converg ncia e est vel e n o ambgua de representacao e o valor m dio do erro m dio quadrado de a a e e quantizacao foi o menor de todos (1.001 102 com desvio padr o de 0.0878 102 ). a

Tabela 1. Percentuais de convergencia e de classicacao, erro medio quadrado e desvio padrao de redes neurais temporais. O percentual de convergencia indica a frequencia de representacao estavel da sequencia. O percentual de classicacao representa a frequencia de deteccao da posicao ambgua. Rede TKM RSOM CSOM SOMSD MSOM DIN GTSOM Par metro(s) a = 0.8 = 0.05 = 1.0 e = 0.5 = 1.0 e = 0.08 = 0.5 e = 0.5 = 0.7 e = 0.7 = 0.7, = 0.1, = 0.7, = 0.7, = 0.01, = 0.9 e = 0.7 Converg ncia e 30% 20% 40% 25% 15% 85% 100% Classicacao 0% 0% 40% 20% 0% 100% 100% EMQ 0.01746 0.04815 0.02761 0.02999 0.02335 0.03776 0.01001 0.00255 0.00213 0.00871 0.01262 0.00597 0.00419 0.000878

4. Consideracoes nais
Este artigo apresentou um novo modelo de rede neural articial para segmentacao de seq encias temporais. De forma inovadora, tr s aspectos fundamentais foram ponderados u e no projeto da rede neural: auto-organizacao, representacao temporal e aprendizado cons trutivo. Com isso, a rede pode ser aplicada a um ambiente de interesse n o-estacion rio a a que requer aprendizagem contnua e processamento espaco-temporal. A rede neural e suprida com propriedades din micas atrav s de uma mem ria de a e o curto prazo, inserida na camada de entrada da rede por meio de integradores e diferenciadores [Moser 2004]. A mem ria exige poucos recursos computacionais e apresenta o grande potencialidade na area da rob tica. N o obstante, a rede tamb m e capaz de proo a e cessar dados puramente espaciais, simplesmente ajustando = 1.0 para anular as duas integracoes da mem ria. Assim, a rede pode discretizar um espaco de entrada contnuo e o identicar os mais variados agrupamentos, tais como: multidimensional, n o-linearmente a separ vel, multimodal, n o-uniforme e n o-estacion rio [Bastos 2007, p. 94105]. a a a a Na grande maioria das redes neurais construtivas, existe a necessidade de especicar previamente uma taxa de crescimento, restringindo, assim, a aplicacao da rede a ambientes estacion rios. Em contrapartida, a arquitetura da rede neural proposta e consa truda de forma autom tica conforme o erro de quantizacao da rede. Uma unidade de a habituacao regula o crescimento e a poda de neur nios. J as conex es sin pticas s o o a o a a criadas, removidas ou ajustadas de acordo com uma regra de adaptacao de Hebb. O resultado do experimento de segmentacao temporal comprova o potencial da ` rede neural e demonstra a sua eci ncia frente as arquiteturas conexionistas existene tes na literatura. Em todas as simulacoes realizadas, houve converg ncia est vel e n o e a a ambgua de representacao. Em [Bastos 2007, p. 105-115], foi demonstrada a estabilidade dessa representacao ao aplicar essa mesma seq encia temporal com perturbacoes de rudo, u translacao, deformacao de eixos e rotacao. Al m do mais, a rede tamb m segmenta cor e e retamente essa seq encia ao alternar o sentido de sua rotacao, uma vez que todos os seus u par metros livres s o constantes no tempo e a sua dimens o e construda sob demanda. a a a

Refer ncias e
Barreto, G. D. A. and Ara jo, A. F. R. (2001). Time in Self-Organizing Maps: An Overu view of Models. International Journal of Computer Research, 10(2):139179. Bastos, E. N. F. (2007). Uma Proposta de Rede Neural Auto-Organiz vel, Temporal e a Construtiva Voltada a Aplicacoes Rob ticas. Masters thesis, Universidade Federal do o Rio Grande do Sul. Berglund, E. and Sitte, J. (2006). The Parameterless Self-Organizing Map Algorithm. IEEE Transactions on Neural Networks, 17(2):305316. Bristol, A., Purcell, A., and Carew, T. J. (2003). Habituation. In Arbib, M. A., editor, The Handbook of Brain Theory and Neural Networks, pages 504507. MIT Press, Cambridge, MA, 2 edition. Chappell, G. J. and Taylor, J. G. (1993). The Temporal Kohonen Map. Neural Networks, 6(3):441445.

Hagenbuchner, M., Sperduti, A., and Tsoi, A. C. (2003). A Self-Organizing Map for Adaptive Processing of Structured Data. IEEE Transactions on Neural Networks, 14(3):491505. Martinetz, T. M. and Schulten, K. J. (1994). Topology representing networks. Neural Networks, 7(3):507522. Moser, L. D. (2004). Modelo de um Neur nio Diferenciador-Integrador para o Representacao Temporal em Arquiteturas Conexionistas. Masters thesis, Universi dade Federal do Rio Grande do Sul. Sepp, H. and Schmidhuber, J. (1997). Long Short-Term Memory. Neural Computation, 9(8):17351780. Strickert, M. and Hammer, B. (2004). Self-Organizing Context Learning. In Verleysen, M., editor, European Symposium on Articial Neural Networks, pages 3944. D-facto Publications. Varsta, M., Heikkonen, J., and Mill n, J. D. R. (1997). A Recurrent Self-Organizing a Map for Temporal Sequence Processing. In Proceedings of the Seventh International Conference on Articial Neural Networks, pages 421426, Lausanne, Switzerland. Springer-Verlag. Voegtlin, T. (2002). Recursive self-organizing maps. Neural Networks, 15(8-9):979991.

Você também pode gostar