Você está na página 1de 4

Machine Translated by Google

T. Alvager, Departamento de Física e Departamento de Ciências da Vida, Indiana


State University, Terre Haute, M 47809, EUA (E-mail: phalva@scifac.indstate.edu)
VA French, Departamento de Física, Indiana State University, Terre Haute, IN, EUA G.
Putman, Departamento de Física, Indiana State University, Terre Haute, IN, EUA

Abstrato rede. O resultado será então discutido no contexto da diminuição


da densidade sináptica no cérebro.
A compactação de dados envolve o empacotamento de
dados de maneira eficiente. É um fenômeno comum em 2. Redes Neurais Artificiais com Feedback
computadores feitos pelo homem. É razoável supor que
algo semelhante ocorre no cérebro . Propõe- se que a A rede neural artificial (ANN) mais comum em uso é
evidência experimental para isso seja dada pelos dados provavelmente a chamada rede de retropropagação.
sobre a diminuição da densidade de conexões sinápticas No entanto, este sistema pode não se adaptar facilmente à
em cérebros com a idade. O efeito proposto é revisto em função cerebral e não será considerado aqui. Em vez disso,
relação a computações com modelos cerebrais simples na focaremos nossa atenção em uma RNA conhecida como recorrente [2].
forma de uma rede neural artificial específica. Esta é uma rede não supervisionada. Inclui feedback como uma
parte importante do funcionamento. A principal propriedade
dessa rede é sua capacidade de servir como um sistema de
1. Intr~dMção entrada-saída de um para um. É um sistema computacional de
três camadas.
A compressão de dados é uma técnica frequentemente A Figura 1 mostra parte da rede com uma entrada, uma
usada em computadores feitos pelo homem para aumentar a visível e duas unidades ocultas . Os sinais da unidade de
eficiência do armazenamento e manuseio de informações. Em entrada são copiados para a unidade visível e alimentados para
geral, o método de escolha é baseado em medições de as unidades ocultas após a aplicação apropriada dos fatores de
frequência de ocorrência dos símbolos [l]. Uma técnica menos ponderação Wij. Novos sinais das unidades ocultas são
utilizada , mas ainda assim poderosa, é baseada na aplicação realimentados para a unidade visível após um novo conjunto de
de redes neurais artificiais [2]. Embora este método seja fatores de ponderação ter sido aplicado. A saída da unidade
desenvolvido a partir de ideias sobre como as redes neurais visível é então comparada com o sinal original e um erro é
naturais funcionam, a técnica não é apenas capaz de modelar estabelecido como a diferença entre os dois sinais.
funções cerebrais, mas também encontrou uso generalizado em As alterações dos fatores de ponderação são então calculadas
muitos campos fora de sua aplicação original [2,3]. proporcionalmente ao erro. Este processo completo constitui um
Uma versão bem- sucedida de redes neurais artificiais período de ciclo de cálculos. Em geral, um grande número de
consiste em três camadas de neurônios artificiais com conexões períodos de ciclagem é necessário para que o erro se aproxime
entre as unidades [2]. Além das camadas de entrada e saída, do nível zero. Obviamente , ocorrem situações em que esse
existe a chamada camada oculta, cujas unidades corresponderiam resultado não é possível de ser alcançado.
aos interneurônios do cérebro. Como será ilustrado a seguir, o Na presente investigação, uma rede recorrente foi aplicada
treinamento de uma rede neural geralmente resulta em uma e utilizada em um Macintosh, modelo Quadra 850 . Esta rede
redução do número de unidades ocultas. Assim, a compressão está disponível comercialmente no pacote de software
de dados é alcançada. Na linguagem das redes neurais naturais, Neuralware, Neuralworks Professional IVPlus [4] sob o nome de
isso corresponderia a uma diminuição das conexões sinápticas rede recirculante [5].
após um período de aprendizado . O objetivo da rede neural é construir na camada oculta uma
representação interna dos dados apresentados na camada de
É objetivo desta comunicação propor um mecanismo entrada. A compressão de dados é obtida se o número de
específico, nomeadamente o da compressão de dados , como unidades na camada oculta for menor que o número de unidades
razão de pelo menos parte das alterações da densidade sináptica na camada de entrada. Para um determinado número de
que ocorrem no cérebro. Na próxima seção, ilustraremos o unidades na camada de entrada, o número de unidades ocultas
funcionamento de um sistema neural artifkid especial. é determinado por experimentação de computador.

0-7803-4859-1/98 $ 10,0001998 IEEE 1580


Machine Translated by Google

Em tais experimentos, o número de unidades ocultas é escolhido de amortecedor. O vetor de entrada para o ciclo de aprendizado atual
modo que o erro eventualmente se aproxime de zero. As ilustrações é armazenado aqui para comparação, para que o erro de
são apresentadas na Fig. 2 e na Fig. 3. reconstrução entre a entrada original e a saída possa ser calculado.

A camada visível é , para todos os propósitos práticos , a


A7 primeira camada da rede de recirculação . Essa camada recebe o
vetor de entrada exato que a camada bder de entrada recebe.
vocês Fora A camada de saída é a terceira camada computacional da rede de
recirculação. Os valores desta camada são comparados com os da
camada do buffer de entrada para o cálculo do erro de reconstrução .
escondido
O tamanho das caixas no diagrama corresponde ao valor do
sinal de saída daquele nó específico (unidade) com os quadrados
visível maior e menor correspondendo ao valor de saída 1 e 0,
respectivamente. Observe que os valores de entrada são , por
definição, um ou zero.
dentro As linhas pontilhadas que interligam os nós da rede representam
o COM~OIU ponderado entre eles. A densidade dos pontos que
compõem essas linhas torna -se maior para fatores de ponderação
mais positivos.
O diagrama da Fig. 3 segue o mesmo esquema descrito na
Fig. 2 com o mesmo número de unidades de camada de entrada e
Figura 1. Diagrama esquemático de uma rede saída (nós), mas com apenas dois nós de camada oculta. Observe
recirculante com uma unidade de entrada e duas a redução considerável na densidade das interconexões entre os
unidades ocultas. Os sinais da unidade de nós na figura.
entrada são copiados para a unidade visível e Os cálculos mostram que o caso dado na Fig. 3 é o limite inferior
com resultados bem- sucedidos . Assim, uma compressão de
então alimentados para as unidades ocultas após
dados de 9/2 é obtida para a sequência testada.
a aplicação dos fatores de ponderação. Novos
sinais das unidades ocultas são realimentados Observe que apenas duas ou três das unidades ocultas na rede
neural da Figura 2 têm saídas grandes. Assim, o resultado do
para a unidade visível após um novo conjunto
cálculo com a rede na Fig.3 poderia ter sido antecipado até certo
de fatores de ponderação ter sido aplicado WI
ponto. Se ocorrer no cérebro um processo de compressão de
dados semelhante ao discutido neste trabalho , isso pode significar
Uma sequência de letras (A,B,C,D) consistindo na substring
que a redução da densidade sináptica se deve a uma redução no
arbitrária CDCCCCCAAABA repetida 15 vezes é apresentada às
uso de algumas sinapses semelhante ao fenômeno mostrado na
unidades de entrada da rede neural. As letras são codificadas em
Fig. 2 e na Fig. 3 .
código binário com A,B,C e D definidas como 001.010.011 e 100,
respectivamente. A sequência é apresentada à RNA em seções de
três letras. Assim , são necessárias 9 unidades de entrada . A
sequência total de entrada, portanto, constitui uma matriz de 9 por
3. Possíveis Indicadores de Compressão de Dados
60 números binários . A RNA é então treinada nesta sequência . A
no Cérebro
experiência total de aprendizado para a rede neural envolve um
grande número de ciclos de aprendizado , conforme discutido Um efeito impressionante da compactação de dados conforme
anteriormente nesta seção. Em gene& 104 ciclos foram aplicados ilustrado na Fig. 2 e na Fig. 3 é claramente a diminuição de
COM~OIU na camada oculta. Algo assim é detectável em um
nos cálculos aqui considerados. O erro, definido como a diferença
entre a saída e a entrada do sistema e mostrado nas figuras como cérebro real ? Vários estudos experimentais indicam que a
densidade de COM~OXE sináptica no córtex cerebral em humanos ,
erro de reconstrução , é registrado aproximadamente a cada 300
bem como em outras espécies, muda com a idade [6]. Em humanos,
ciclos. Um resultado é considerado bem- sucedido se o erro se
a densidade sináptica atinge um máximo em aproximadamente três
aproximar de zero dentro de 1 % em lo4 ciclos.
meses e depois diminui lentamente na velhice [7]. A diminuição das
conexões sinápticas em um indivíduo pode chegar a 30.000 co-
efeitos por segundo [61. A razão para esta diminuição não é clara.
A Fig. 2 mostra alguns detalhes da rede neural de recirculação.
Às vezes, afirma-se que a superprodução e posterior diminuição das
A arquitetura do diagrama de rede tem quatro camadas, das quais conexões sinápticas é causada por um mecanismo não especificado
apenas três são computacionais. A primeira camada é a camada que resulta em
de entrada e constitui uma entrada

1581
Machine Translated by Google

a preservação das sinapses mais eficientes e/ou ativas 181.

Os resultados das computações com modelos cerebrais


simples apresentados na seção anterior indicam que a
diminuição das conexões sinápticas é uma consequência
natural da arquitetura de rede doscombinação
cérebros . com
Isso,aem
ideia
de que uma sinapse não utilizada em nenhum grau é
removida do sistema, causa uma redução na

5
.. ..
..
:::: ....,

Agradecimentos Er 1

Figura 3. Diagrama da rede neural de


recirculação com nove nós de entrada, dois nós
ocultos e nove nós de saída. Detalhes como
na Fig. 2. O erro de rede neural calculado se
aproxima de zero como na Fig. 2 , mas em uma
taxa mais lenta. Observe que as conexões de
entrada para os nós ocultos são desenhadas
separadamente das conexões de saída desses
nós para maior clareza de visualização.

Figura 2. Diagrama de rede neural de conexões. Assim , a situação da Fig. 2 com duas unidades
recirculação com nove nós de entrada, oito ocultas dominantes (# 20 e # 22) se transformará na
nós ocultos e nove nós de saída. O situação da Fig. 3, com ambas as situações tendo zero
erro.
tamanho das caixas no diagrama corresponde
ao valor do sinal de saída daquele nó específico
com os quadrados maior e menor correspondendo 4. Discussão _
ao valor de saída 1 e 0, respectivamente. As
linhas pontilhadas representam as conexões O modelo utilizado neste estudo é escolhido apenas
ponderadas entre os nós. O gráfico mostra o para fins ilustrativos e não é necessariamente fiel aos
erro da rede neural calculado (erro de circuitos detalhados do cérebro. No entanto, acredita -se
que a imagem geral do modelo de rede neural artificial seja
reconstrução) em função do número de ciclos
de aprendizado. O ponto final do gráfico consistente com o funcionamento do cérebro. Assim , a
compressão de dados obtida com o método ANN deve
corresponde a lo4 ciclos. Observe que as espelhar os eventos reais no cérebro em algum nível. Isso
conexões de entrada para os nós ocultos são
pode estar no nível de entrada e a compressão de dados
desenhadas separadamente das conexões de pode ser considerada como um pré -processador para os
saída desses nós para maior clareza de circuitos principais a jusante no cérebro. É bem possível ,
visualização. no entanto, que a compressão de dados também ocorra
em estágios posteriores para aumentar a eficiência da manipulação de dados no

1582
Machine Translated by Google

Uma deficiência do modelo ilustrativo é claramente sua falta Referências


de complexidade na forma de número de unidades de entrada .
Em um cérebro real , cada axônio de um neurônio pode formar [l] Rabbani, M. e Jones, P., Digital Image Commissioning
milhares de conexões com outros neurônios. A complexidade Techniques, SPIE Optical Engineering Press, Behngham,
do cérebro real é , portanto, consideravelmente mais avançada WA, 1991.
do que os modelos de computador simples podem alcançar. [2] Haykin, S., Neuml Network, Macmillan College Publislung
Este parece ser um problema geral que, em princípio, pode ser Co., Nova York , NY, 1994.
enfrentado por sistemas mais avançados com capacidades de [3] Alvager, T., Smith, T., Vijaj, F., "O uso de redes neurais
processamento paralelo, como a implementação óptica de redes artificiais em tecnologias biomédicas", Biomed. Imtru.
& Tech., 28, 1994, p. 315-322.
neurais [9,10]. As redes neurais ópticas podem fornecer
[4] Neuralware, Inc., Technical Publications Group, Penn Center
oportunidades significativas para pesquisas futuras, pois oferecem West, Pittsburgh, PA, 1993.
a vantagem de processamento paralelo e ampla largura de banda [5] Hinton, G. e McClelland, J., “ Representações de
para comunicação. Além disso, técnicas ópticas como, por Aprendizagem por Recirculação” em Nwml Information Pm. Syst., (Ed. D.
exemplo, hologramas de volume [ 101 têm o potencial de Anderson), Instituto Americano de Física, Nova York, 1988,
armazenamento massivo de padrões de interconexão. Todas pp. 358-366.
essas características dão às redes neurais ideais o potencial de [6] Rakic, P., Bourgeois, JP., Goldman-Rakic, P.,
simular o cérebro mais de perto do que as ANNs existentes . “Desenvolvimento sináptico do córtex cerebral'', Progress in
Bmin Research, 102, 1994, pp. 227-243. [q Huttenlwher, PR e
Embora os resultados aqui apresentados constituam um De Courten, C., “O desenvolvimento de sinapses no córtex
estriado do homem”, Hum. Neurobiol., 6, 1987, pp. 1-9.
passo positivo para a compreensão da relação entre as mudanças
na densidade das conexões sinápticas com a idade e os
[SI Greenough, WT, Hwang, HF, Gorman, C., "Evidência
possíveis efeitos de compressão de dados que ocorrem à para formação de sinapse ativa no córtex visual em ratos
medida que o cérebro amadurece, muitos aspectos desses criados em ambiente complexo", Proceedings of the National
processos ainda não são compreendidos e continuam sendo Academy of Science, 82(7), 1985, pp. 4549452.
uma área importante de pesquisa. . [9] Yu, FTS, “Redes Neurais Ópticas: Arquitetura, Design e
Modelos”, Progress in Optics XYXI 1, (Ed. E. Wolf)
Elsevier Science Publications BV, 1993, p. 61-144.
[lo] Yeh, P., “Optical Computing'', in Introduction to
Photoreactive Nonlinear Optics, Wiley & Sons, New York,
1993, pp. 320-351 . _

1553

Você também pode gostar