Você está na página 1de 13

Redes neurais so estruturas computacionais que simulam o funcionamento do crebro humano.

Os primeiros estudos sobre o tema datam da dcada de 40 quando Warren McCulloch e Walter Pitts propuseram um modelo matemtico para o neurnio.A partir da, surgiram vrias publicaes sobre o tema e tentativas para a reproduo do neurnio artificial. As RNAs ou Redes Neurais Artificiais so modelos computacionais inspirados no sistema nervoso dos seres vivos. Possuem a capacidade de aquisio e manuteno de conhecimento e podem ser definidas como um conjunto de unidades de processamento, caracterizadas por neurnios artificiais separados entre camadas (entrada, oculta e sada) (SILVA, 2012). Basicamente, a Ilustrao 1 demonstra o modelo geral de uma RNA. As camadas de entrada estabelecem conexes com as camadas intermedirias que recebem os valores, efetuam os clculos e entrega o resultado para a camada de sada.

Traduzindo essa modelagem genrica para a matemtica, tem-se a estrutura visualizada na ilustrao.

Voltando ao modelo do neurnio biolgico, os sinais de entrada chegam atravs de canais localizados nas sinapses, permitindo a entrada e sada de ons. Um potencial de membrana aparece como resultado da integrao dos sinais de entrada, que iro determinar se o neurnio ir produzir um sinal de sada ou no. O potencial de ao resulta na liberao de neurotransmissores na sinapse sempre que o potencial de membrana for superior a um determinado limiar (threshold). O efeito lquido de todos estes processos biolgicos que ocorrem nas sinapses representado por um peso associado. O elemento computacional bsico empregado na maioria das RNAs um integrador. Trata-se de um elemento processador de informaes que fundamental para a operao das RNAs. (CASTRO, ZUBBEN, 2010). As principais partes do neurnio artificial genrico so: as sinapses, caracterizadas pelos seus pesos associados; a juno somadora; a funo de ativao.

Na Ilustrao 2, as sinapses (x1 ... xn) esto associadas aos seus pesos (w1 ... wn). A juno somadora responsvel por unir os produtos dos valores das sinapses e seus respectivos pesos mais o limiar bk (limiar de ativao), que aumenta ou diminui a influncia do valor da entrada lquida para a ativao do neurnio k. A funo de ativao responsvel por permitir o sinal passar o sinal (resultado). Traduzindo isso para a matemtica, tem-se:

Vale ressaltar que existem vrias funes de ativao tais como a Funo Degrau, Funo Logstica entre outras. A maioria das redes neurais artificiais utilizam um padro estabelecido com arquitetura padronizada, mostrada pela Ilustrao 4. Percebe-se que vrias redes podem ser ligadas, sendo que o resultado de sada de uma pode ser entrada para outra.

1. TEORIA DA RESSONNCIA ADAPTATIVA


Grossberg introduziu, em 1976, a rede ART (Adaptive Resonance Theory), um sistema de aprendizagem no supervisionado, como uma teoria do processo de informao cognitiva humana.

As redes ART permitem a aprendizagem incremental em ambientes que variam no tempo (no-estacionrios), aprendizagem estvel rpida, escalas de generalizao mltipla e convergncia rpida comum nmero relativamente pequeno de padres de treinamento. Estas redes modelam a predio, busca, aprendizagem, e reconhecimento em tempo real, funcionando como modelos de processamento de informao cognitiva porm tambm como sistemas neurais aplicados no mbito das engenharias. (AMORIM, 2011) Segundo AMORIN (2011), a denominao ART advm do modo como os processos de aprendizagem e de recuperao de informaes interagem dinamicamente no modelo original ART1. O conceito de ressonncia corresponde a oscilaes que ocorrem em um sistema fsico quando o mesmo submetido a uma entrada de frequncia especfica (frequncia de ressonncia), usualmente definida pelas propriedades fsicas do sistema (materiais, dimenses, disposio geomtrica, etc.). Em uma rede ART, a aprendizagem ocorre quando as informaes, na forma de sada das unidades de processamento (neurnios), oscilam entre as camadas de unidades da

rede, desenvolvendo um estado de ativao de equilbrio. Essas oscilaes seriam o equivalente neural ressonncia em um sistema fsico. Segundo Freitas (2011), as arquiteturas ART so projetadas de forma que o usurio possa controlar o grau de similaridade entre os padres agrupados na mesma unidade de sada. Tal controle possibilita que a rede seja mediamente sensvel s diferenas existentes entre os padres de entrada, e assim, seja capaz de gerar mais ou menos grupos em resposta a esse controle.

Dentre alguns modelos que fazem parte da famlia ART, destacam-se:

1.

Rede neural ART1: rede que possui treinamento no supervisionado. Possui a capacidade de reconhecer padres de entrada binrios deforma arbitrria (CARPENTER E GROSSBERG, 1987);

2. Rede neural ART2: rede que tambm possui treinamento no supervisionado e emprega tanto padres de entrada binrios como padres de entrada analgicos (CARPENTER E GROSSBERG, 1987); 3. Rede neural Fuzzy ART: rede baseada no treinamento no supervisionado e que engloba em sua arquitetura clculos baseados na lgica nebulosa (CARPENTER et al., 1991").

4. Rede neural ARTMAP: rede que possui treinamento supervisionado. composta por dois mdulos ART interconectados, atravs do campo interART. Esta rede tambm pode identificar padres de entradas binrios ou analgicos (CARPENTER et al., 1991).

5. Rede neural Fuzzy ARTMAP: esta rede possui treinamento supervisionado como a rede neural ARTMAP, porm, todos os clculos so fundamentados na lgica nebulosa (CARPENTER et al., 1992)

Segundo Capuano (2009), as redes neurais artificiais possuem trs tipos de topologias bsicas: alimentao progressiva (feedforward), limitadamente recorrentes e totalmente recorrentes. Na realidade, existem variantes desses trs modelos de acordo com o mtodo de aprendizagem, que o trabalho das camadas ocultas (intermedirias). Redes feedforward Comumente conhecidas como alimentao para frente, as redes feedforward caracterizam por introduzir todos os dados para a soluo de um determinado problema de uma vez s na camada de Entrada. Outra caracterstica especfica dessa rede a no reavaliao recursiva do processo de aprendizado. As unidades de processamento combinam todos os sinais de entrada ponderados com um valor limiar e a soma dos sinais de entrada no neurnio submetida a uma funo de ativao que resultar na sada da unidade que, por sua vez, torna-se entrada para outra camada. A funo de ativao tambm varia mas a mais utilizada a sigmoide, na qual converte um valor de entrada em uma sada com amplitude de 0,0 e 1,0 (funo de normalizao). Os valores do campo de entrada so ento modulados pelos pesos das conexes de rede e amplificados se o peso respectivo for positivo e maior que 1,0, ou reduzidos se for valores entre 0,0 e 1,0. nesse momento em que se encontra o processo de aprendizado da rede: ajuste de pesos de modo que as classificaes dos padres de entrada sejam executadas corretamente. No processo de alimentao dos dados para frente (ou para a camada seguinte) baseado nos sinais de ativao resultantes do processamento com os pesos, sendo positivo, representativo de aprovao e negativo de reprovao. Vale ressaltar ainda que, um determinado dado reprovado pode ser aprovado em outro padro de sada na rede.

Redes limitadamente recorrentes Nesse tipo de rede, a sequencia das entradas importante e espera-se que, de algum modo, ela armazene um registro anterior das entradas, na Ilustrao XXXb, representado pelo contexto. Logo, as entradas j passadas so reintroduzidas atravs de conexo recorrente ou retroalimentao nas unidades de camada ocultas ou de sadas. Essa retroalimentao possibilita a incrementao do processo de aprendizagem.

Redes totalmente recorrentes Nesse tipo de rede, existem conexes de duas vias entre todas as unidades processadoras. Os dados de entrada fluem da 1 camada para todas as demais adjacentes e circulam para frente e para trs at que a ativao das unidades se estabilize. Portanto, as ativaes das camadas ocultas e de sada so, ento, recomputadas at que a rede se estabilize. Dentre um dos paradigmas de redes neurais artificiais tem-se as redes neurais com aprendizado baseado na Teoria da Ressonncia Adaptativa (ART) so consideradas uma famlia de redes recorrentes, com variantes supervisionadas e no supervisionadas, teis na minerao de dados para identificao de clusters. H tambm ainda a diviso das redes neurais em dois tipos: Treinamento NoSupervisionado e Treinamento Supervisionado.

Treinamento supervisionado A principal caracterstica deste modelo o treinamento supervisionado onde a informao sobre as classes a que pertence cada um dos padres de treinamento previamente conhecida durante a fase de treinamento da rede e, portanto, utilizada na definio das representaes armazenadas na rede. Pertencem a esta classe os seguintes tipos de redes neurais:
Memrias Assossiativas e Redes de Hopfield (ou CAM) Perceptron Multicamadas (MLP) Neocognitron Redes de Base Radial (RBFN) Redes de Alta Ordem (HONN)

Rede Neural Probabilstica TREINAMENTO NO SUPERVISIONADO A principal caracterstica deste paradigma o desenvolvimento do aprendizado da rede sem a superviso de um professor para indicar a classe a que cada padro pertence. Esse tipo de rede se aplica em situaes onde a informao a respeito das classes dos padres no disponvel durante o treinamento. Nesse caso, a rede neural, por si s, deve agrupar os vrios padres existentes em diferentes classes a medida que os mesmos so apresentados rede durante o aprendizado, de acordo com um dado critrio de similaridade definido. Alguns modelos so: Mapas Auto-organizveis de Kohonen (SOFM) Teoria da Ressonncia Adaptativa (ART) REDE ART Gail Carpenter e Steven Grossberg foram os criadores da Teoria da Ressonncia Adaptativa e essa teoria surgiu para resolver determinadas questes ligadas ao dilema da plasticidade-estabilidade, tais como elenca Amorim(2010): Como um sistema de aprendizagem pode manter sua plasticidade (capacidade de ser adaptvel) em resposta a informaes novas, ainda

no conhecidas e manter sua estabilidade diante da apresentao de informao irrelevante? Como um sistema pode preservar seu conhecimento adquirido e ao mesmo tempo ser flexvel para armazenar uma nova informao? Como um sistema pode definir quando alternar do estado de estabilidade para a plasticidade e vice versa?

As redes neurais baseadas em ART compartilham um conjunto de propriedades que permitem o processamento online, portanto resolvem o dilema da plasticidadeestabilidade. Baseadas nesse modelo, as redes possuem aprendizagem incremental em ambientes que variam no tempo, aprendizagem estvel rpida e convergncia rpida com um nmero relativamente pequeno de padres de treinamento. Elas trabalham em tempo real e utilizam tanto modelos de processamento de informao cognitiva como sistemas neurais aplicados no mbito das engenharias. O conceito de ressonncia corresponde as oscilaes que ocorrem em um sistema fsico quando o mesmo submetido a uma entrada de frequncia especfica (frequncia de ressonncia), usualmente definida pelas propriedades fsicas do sistema ( matrias, dimenso). Nesse tipo de rede, a aprendizagem ocorre quando as informaes, na forma de sada das unidades de processamento (neurnios), oscilam entre as camadas de unidade da rede, desenvolvendo um estado de ativao de equilbrio. Ambas as oscilaes seriam os equivalentes neurais ressonncia em um sistema fsico. Voltando ainda no propsito inicial das redes baseadas em ART que foi a resoluo do dilema da estabilidade-plasticidade. Essa estabilidade relaciona com a garantia de agrupamento de todos os elementos nas categorias criadas pelo sistema. J a plasticidade a caracterstica que a rede possui de aprender um novo padro, em qualquer tempo de operao, sem que perca o aprendizado anteriormente adquirido. Existem ainda nas redes ART a ideia do mecanismo de vigilncia que administra a nova incluso de entradas em cada grupos para que essas no prejudiquem de alguma forma os padres j armazenados. Com o decorrer do tempo, vrias modalidades de modelos ART foram desenvolvidos mas basicamente eles se dividem em dois principais paradigmas de aprendizagem neural: supervisionado e no supervisionado.

O processo de classificao de padres da rede ART consiste de quatro etapas principais: reconhecimento, comparao, busca e treinamento (CARPENTER; GROSSBERG; REYNOLDS, 1991), como a seguir: Reconhecimento: Cada neurnio do campo (camada de entrada) recebe sinais de baixo para cima do vetor de entrada e de cima para baixo do campo (camada de sada, que representa a categoria ativa). A atividade calculada e o vetor resultante comparado com todos os vetores de pesos j armazenados na rede (memria) para encontrar o que mais se assemelha ao padro de entrada atual. O neurnio do campo F1, com maior valor de ativao, selecionado como provvel categoria para armazenar o novo padro. O neurnio selecionado envia ao campo seu prottipo;

Comparao: Nesta fase acontece um mecanismo de reajuste, que responsvel por testar a similaridade entre o vetor de entrada e o vetor de comparao, , que o vetor resultante da atividade calculada no campo mediante o vetor prottipo dado pelo campo aps a fase de reconhecimento. A maneira pela qual se define de que modo a comparao ir ocorrer definida por um parmetro chamado vigilncia , que determina se um padro de entrada pode ser includo em uma das categorias existentes. Se o valor da comparao for maior do que , ento o padro de entrada includo na categoria ativa, caso contrrio, a rede entra em fase de busca;

Busca: Durante esta fase, a rede procura um novo neurnio do campo para representar o vetor de entrada atual. O neurnio da camada de sada rejeitado na fase de comparao anterior desabilitado nesta seleo. O vetor de entrada reapresentado, e a rede entra novamente na fase de comparao, que termina com o teste no mecanismo de reajuste para determinar a similaridade entre o novo prottipo escolhido e o vetor de entrada atual. Este processo repetido, desabilitando neurnios da camada de sada, at encontrar um neurnio de sada que melhor se assemelhe ao vetor de entrada corrente, dentro dos limites do parmetro de vigilncia . Se nenhum neurnio de sada for encontrado, o vetor de entrada ento considerado de uma classe desconhecida, sendo alocado um neurnio de sada que no esteja associado ainda a nenhuma categoria para represent-lo; Treinamento: O algoritmo de aprendizado da rede ART no-supervisionado e pode ser ativado a qualquer momento, permitindo que a rede aprenda novos padres continuamente. H dois tipos de treinamento para a rede neural ART: aprendizado rpido e aprendizado lento. No aprendizado rpido, os pesos de conexo so ajustados para seus valores timos em poucos ciclos, geralmente em apenas um ciclo de treinamento. No aprendizado lento, os pesos so ajustados lentamente em vrios ciclos de treinamento, possibilitando um ajuste melhor dos pesos da rede aos padres de treinamento (GROSSBERG, 1976).

Redes art no supervisionadas Art1 A ART 1 foi desenvolvida com base a Grossberg Network para aprendizagem no supervisionada de padres de entrada binrios. Como se observa na Ilustrao XX, a arquitetura da rede constituda por um sistema Atencional e um sistema de Orientao. O subsistema atencional composto por duas camadas de unidades alm do N de Controle de Ganhos. O padro de entrada binrio. Os padres de ativao nessa rede so denominados traos de memria de curta durao (STM), pois existem somente em decorrncia da aplicao de uma entrada s unidades. Como se observa, o fluxo de informaes bidirecional (topologia feedback); os pesos das conexes sinpticas so chamados de traos de memria de longa durao (LTM), pois

permanecem quando se retira o padro de entrada em F1. O n de controle de ganhos, alm de direcionar o fluxo de informaes entre as camadas, possui um efeito excitatrio sobre as unidades F1 e recebe tambm um sinal inibitrio proveniente de F2.

O subsistema de orientao possui o parmetro p (de vigilncia) e controla o processo de busca por coincidncia de padres e de aprendizagem da rede, atuando como inibidor de F2. Dependendo da situao, caso a atividade em F1 seja elevada, o subsistema de orientao pode se encontrar desativado, e as unidades de F2 podem se ativar.

Art2 Pelo fato de a ART1 no operar com dados contnuos, foram desenvolvidas outras redes como a ART2 e Fuzzy ART. A ART2 categoriza sequencias arbitrrias de dados de entrada analgicos ou digitais e possui mecanismos de normalizao e filtragem que proporciona uma boa reduo de rudos. Basicamente, a ART2 possuiu a mesma arquitetura da ART1. O sistema Atencional possui o bloco F1 (detector de caractersticas) e a camada F2 (categorias internas, agrupamentos ou clusters), ao mesmo tempo que o sistema de orientao possui o controle dos sinais de rejeio. Os pesos de conexes entre F1e F2 formam uma memria de longo-termo (LTM) adaptativa, que controlam a similaridade dos padres de uma mesma unidade (mecanismo de rejeio).

As conexes no bloco F1 ocorre tanto em feedforward e feedback entre si. Na ART1, cada camada realiza um processamento especfico, no servindo apenas como transmissoras do sinal de entrada, como se d na rede ART1. A rede Fuzzy ART (FA) representa a evoluo da rede ART1, categorizando de forma estvel padres de entrada analgicos com componentes compreendidos entre 0 e 1. A amplitude da informao neste modelo ocorre pois a FA substitui operadores de interseco e unio por operados MIM e MAX, que junto com a ajuda da codificao em complemento, que ao mesmo tempo normaliza os vetores de entrada, permitindo implementar o algoritmo de classificao no supervisionado com grande rapidez de aprendizagem.

Segundo Amorim (2010), a FA pode ser considerada um mtodo baseado a exemplo para agrupamento (clustering) de padres de entrada. Ainda segundo Amorim (2010):
Estes padres agregam-se em categorias ou grupamentos com forma de hiper-retngulos (em geral, sobrepondo-se), quer cobrem distintas regies do espao de entrada. A formao de grupos uma maneira de compreenso, na que se formam regras abstratas sobre a distribuio dos dados que permitem uma certa generealizao. Por outro lado, FA usa a aprendizagem baseada em coincidncia (matching) para incorporar padres a uma categoria.

Redes art supervisionadas Os modelos de redes ART recentes permitem a aprendizagem supervisionada se baseando em princpios que aparecem nas redes ART no supervisionadas. ARTMAP O modelo ART, que serviu de base para o ARTMAP, foi construdo com a ideia de estabelecer uma correspondncia entre um padro de entrada e uma sada ativa. J a ARTMAP se orienta a construo de correspondncias entre mltiplas entradas e sadas. Alm disso, em um caso particular onde um padro seja a PREDIO de sada desejada para o padro de entrada, a rede permite o tratamento de problemas de classificao supervisionada de padres. Sendo assim, ela se baseia tanto na ART1 (ARTa e ARTb) e um mdulo FAB (no mdulo inter-ART ) entre as camadas F2 de ambas as redes, como se v na Ilustrao ****. Para o funcionamento no supervisionada basta desativar os mdulos ARTb e Fab .

Continuar e aplicao e utilizao

Você também pode gostar