Você está na página 1de 14

INTELIGNCIA COMPUTACIONAL E REDES NEURAIS EM ENGENHARIA ELTRICA

Prof. Emlio Del Moral Hernandez


Dep. de Eng. de Sistemas Eletrnicos PSI-EPUSP

emilio_del_moral@ieee.org www.lsi.usp/~emilio

PSI-2222 Prticas de Eletricidade e Eletrnica II Seminrio #2, ministrado em agosto de 2005


( - Copyright) 1

1. INTRODUO: A NATUREZA DA INTELIGNCIA COMPUTACIONAL Este seminrio aborda o campo interdisciplinar chamado inteligncia computacional, que engloba como uma das ferramentas significativas as redes neurais, ou mais precisamente, as redes de neurnios artificiais. Nesta expresso, a palavra artificiais usada para evidenciar a distino com as redes neurais biolgicas. A nfase do seminrio ser em redes neurais artificiais, mas sero abordadas de forma breve algumas outras ferramentas que tambm se enquadram no ambito geral de inteligncia computacional, a saber: inteligncia artificial simblica, lgica difusa, e apoio deciso com ferramentas estatsticas. Falando de uma forma bastante abrangente, o objetivo do campo inteligncia computacional o desenvolvimento de tcnicas que permitam incorporar no ambiente computacional, mesmo que de forma limitada, algumas das funcionalidades dos sistemas biolgicos (humanos ou no) no que se refere a seus aspectos de inteligncia. (tipicamente, a referncia a inteligncia humana, mas de uma forma geral podemos considerar a inteligncia biolgica em suas diversas formas e nveis) importante notar que quando se fala em inteligncia computacional como imitao ou incorporao no
Este material, deve sempre ser citado quando usado em preparao de trabalhos ou artigos de sua autoria. O mesmo procedimento se aplica a qualquer outro material que no seja de sua autoria, inclusive s apostilas da EPUSP. Adicionalmente, reprodues sem modificao de partes de textos que no sejam originalmente seus, devem vir entre aspas. Tal respeito autoria de trabalho intelectual deve ocorrer igualmente com textos disponveis atravs da Internet.
1

computador de aspectos da inteligncia humana, estamos falando de formas limitadas e bastante especficas de tal faculdade, de maneira que, na realidade, o resultado de tal imitao est longe de corresponder a um substituto completo da inteligncia humana, ou do sistema nervoso inspirador tomado da biologia. Em particular, no estado atual de pesquisa em que se encontra este campo, essa imitao das habilidades humanas se revela bastante limitada no que se refere a aspectos de flexibilidade, de capacidade de adaptao e de sensibilidade a contextos, habilidades que o ser humano possui em graus extraordinrios. Em geral, as solues de problemas em inteligncia computacional funcionam com considervel sucesso, desde que o ambiente e as condies de contorno do problema a resolver sejam limitados a sub universos da realidade total e complexa com a qual o ser humano interage.

2. FERRAMENTAS USADAS EM INTELIGNCIA COMPUTACIONAL Usa-se com frequncia a expresso ferramentas de inteligncia computacional; A razo para tal expresso e em particular para o emprego do termo ferramentas, que tipicamente a imitao em computador de diferentes aspectos da inteligncia humana obtida por intermdio de diferentes estratgias e metodologias. Alm disso, tambm frequente que para uma dada aplicao em que se deseja tal imitao, mais de uma estratgia ou ferramenta tenha que ser utilizada. O uso de uma nica classe de ferramenta ou metodologia especfica no permite responder a todos os estilos e classes de problemas que surgem na imitao da inteligncia biolgica. Assim, tipicamente usamos diferentes ferramentas para obter diferentes funcionalidades; ademais, muito frequentemente tambm lanamos mo da conjugao de mais de uma ferramenta na implementao de uma funo complexa por isso resultar em melhores resultados do que a aplicao de cada uma das ferramentas individualmente. Quando este o caso, dizemos que estamos aplicando uma soluo hbrida, que pode, por exemplo, empregar conjuntamente redes neurais e lgica fuzzy na soluo de um mesmo problema. Tendo em mente esta necessidade de empregar uma diversidade de estratgias de ataques, vamos elencar a seguir algumas das ferramentas de inteligncia computacional que tm sido empregadas com sucesso: Redes de Neurnios Artificiais (ou simplesmente Redes Neurais) Tcnicas de Inteligncia Artificial Simblica (IA) Linguagens declarativas para IA Lgica Difusa (Fuzzy Logic) Algoritmos Genticos Tcnicas de Filtragem Adaptativa Deciso com base em Mtodos Estatsticos Classificao e Reconhecimento de Padres com mtodos diversos, inclusive mtodos estatsticos Tcnicas de Viso Computacional e Reconhecimento de Padres Visuais

Tcnicas de Reconhecimento e Sntese de Voz Ferramentas de Otimizao Ferramentas Estatsticas em geral Tcnicas de Aprendizado de Mquina

3. OS PRINCPIOS BSICOS EM REDES NEURAIS Vamos discutir agora com algum detalhe uma das ferramentas de inteligncia computacional especfica, as redes neurais, cuja estratgia na emulao de aspectos da inteligncia humana se baseia no entendimento das estruturas de armazenamento e de processamento de informao realizados pelo sistema nervoso, nisto incluindo o cerbro e as demais partes do sistema nervoso central bem como os diversos sistemas sensoriais (audio, viso, tato, olfato e paladar). As redes de neurnios artificiais so sistemas de computao adaptativos inspirados nas caracteristcas de processamento de informao encontradas nos neurnios reais (biolgicos) e nas caractersticas de suas interconexes. So sistemas de computao massivamente paralelos que podem ser implementados tanto em hardware quanto em software, sendo que os elementos de processamento individualmente tm capacidades relativamente limitadas. Tais elementos de processamento bsicos so os chamados neurnios artificiais, imitam de alguma forma o processamento de informao realizado por um neurnio biolgico, e quando utilizados em conjunto e interagindo uns com os outros, compem o que se denomina uma rede neural. Outra denominao tpica para os elementos de processamento das redes neurais a expresso ns de processamento, ou ns da rede neural. Vale a pena destacar, na forma de breve cronologia, alguns fatos importantes no desenvolvimento do campo de redes neurais e no surgimento dos seus elementos conceituais principais: Dcada de 40: o neurnio de McCulloc e Pitts, uma proposta para a descrio matemtica de clculos lgicos com base nas estruturas neurais biolgicas. Dcada de 50: Em 1956 na 1a Conferncia Internacional de Inteligncia Artificial, foi apresentado um modelo de rede neural artificial pelo pesquisador Nathaniel Rochester, da IBM. Em 1959, foi demonstrada a rede adaptativa Adaline, que pode ser vista como um modelo linear dos principais mecanismos de processamento de informao e adaptao presentes no neurnio biolgico. Dcada de 1960: O Perceptron de Rosenblat, em que um modelo neural no linear e adaptativo permite expressar os processamentos representados no modelo de

McCulloc e Pitts e incorporar um algoritmo de aprendizado supervisionado bastante eficaz. Em 1969, Marvin Minsky e Seymour Papert publicaram um livro chamado Perceptrons, em que vrios aspectos tericos e limitaes do Perceptron de Rosenblat so formalizados e estudados. Em 1982, John Hopfield apresentou um sistema neural artificial capaz de armazenar nas interconexes entre os neurnios informaes complexas, como imagens por exemplo. Esta proposta teve um impacto importante no ressurgimento e crescimento nas decadas seguintes do interesse em redes neurais artificiais para a modelagem e emulao de aspectos da inteligncia e percepo humanas. Ainda em 1982 a primeira conferncia Estados Unidos-Japo sobre redes neurais realizou-se na cidade de Kioto. Em 1994, ocorreu o primeiro congresso de Redes Neurais no Brasil. Atualmente, pelo menos dois congressos brasileiros especficos em redes neurais regularmente (Congresso Brasileiro de Redes Neurais e Simpsio Brasileiro de Redes Neurais), alm de inmeros eventos internacionais (entre eles o International Joint Conference on Neural Networks e o International Conference on Artificial Neural Networks), bem como eventos nacionais de abrangncia mais geral que contam com sees especficas em redes neurais. Alm disso, uma gama ampla de peridicos cientficos trazem os principais avanos da rea, como o IEEE Transactions on Neural Networks, publicado pelo Institute of Electrical and Electronics Engineers IEEE, e o peridico Neural Networks, publicado pela editora Elsevier. Aps este pequeno parnteses histrico, vamos agora retomar o detalhamento e entendimento dos neurnios artificiais e das redes de neurnios. A imitao da biologia e do sistema nervoso citada no incio deste tpico feita pelas redes neurais artificiais tanto no nivel do processamento microscpico realizado por uma clula do sistema nervoso individualmente, quanto no nivel macroscpico, seja em termos de padres de interconexo entre elementos de processamento, seja em termos dos comportamentos coletivos que emergem em uma rede biolgica com vrios neurnios. Segundo o paradigma vigente em neurofisiologia, a informao representada no sistema nervoso atravs de pulsos eltricos gerados pelos neurnios, denominados potenciais de ao. No que se refere ao campo de redes de neurnios artificiais, a forma especfica na qual a atividade neural representada no modelo matemtico pode assumir diversas simplificaes. Isso depende do grau de refinamento na representao de fenmenos biolgicos que se tem em mente, o que por sua vez varia grandemente de grupo de pesquisa a grupo de pesquisa, de acordo com a orientao e a nfase dos seus trabalhos. Nos modelos pulsados por exemplo (spiking neurons), assume-se que a forma dos potenciais de ao irrelevante para a representao de informao e para a computao neural, no precisando-se portanto preserv-la na modelagem computacional. No entanto, em tais modelos se conserva integralmente a informao temporal referente aos instantes

de suas ocorrencias, ou seja, o modelo representa o instante de ocorrncia de cada potencial de ao, individualmente. Uma outra classe de modelos utiliza a representao da atividade neural unicamente atravs da frequncia mdia dos potenciais de ao. Tal simplificao se baseia em resultados de experimentos demostrando a no repetibilidade dos padres temporais dos potenciais de ao que so gerados em resposta a estimulos idnticos, realizados de forma repetida em experimentos semelhantes sequenciados; observa-se no entanto a repetibilidade na frequncia de tais pulsos ao longo dos experimentos sequenciados, o que justificaria considerar um mapeamento funcional entre entrada e sada baseado apenas em grandezas do tipo frequncia de pulsos, no nos pulsos isoladamente. Tais modelos so conhecidos como modelos sigmoidais, ou de codificao for frequncia de potenciais de ao. Uma terceira classe assume que modelos neurais com saida binria so suficientemente poderosos para representar uma classe bastante ampla de problemas computacionais. Em realidade, grande parte da pesquisa em redes neurais assume este tipo de modelo (binrio), que tem a particular vantagem de, por sua simplicidade estrutural, permitir a formalizao matemtica em um grau no possivel para os modelos mais complexos. Nos pargrafos que seguem, so apresentadas algumas das caractersticas de dois dos modelos neurais importantes citados aqui: o sigmoidal e o binrio. Basicamente, todos os tipos de redes neurais apresentam a mesma unidade de processamento: um neurnio artificial, que simula o comportamento do neurnio biolgico. Esse neurnio artificial possui vrias entradas, que correspondem s conexes sinpticas com outras unidades similares a ele, e uma sada, cujo valor depende diretamente da somatria ponderada de todas as sadas dos outros neurnios a esse conectado. Neste clculo de integrao dos estmulos das vrias entradas, a ponderao dada pelos pesos que cada conexo possui (fig. 1).

x0 Entradas x1

w0 w1 w2

Funo de Soma Sada

x2

Pesos (ajustveis)

Figura 1 Unidade processadora (neurnio artificial) do tipo linear (Adaline).

Assim, a somatria, que na figura (1) corresponde sada do modelo neural, dada por:
Soma =
n i =1

xiwi

(1)

As constantes de ponderao wi representam as conexes sinpticas biolgicas que intermediam a interao entre neurnios vizinhos, xi o estmulo proveniente do neurnio vizinho i, e o resultado Soma representa o estmulo global (com as devidas ponderaes relativas) recebido pelo neurnio de todos os seus vizinhos. O neurnio artificial acima representado corresponde ao modelo matemtico conhecido como Adaline (Adaptive Linear Element). importante notar que esse modelo somente incorpora transformaes lineares; como consequncia, temos que alm de o modelo no permitir a implementao de computaes complexas (h pois limitao do poder matemtico), impede a representao de relaes estmulo / resposta no lineares que de fato so observadas com frequncia no neurnio biolgico (h pois limitao do poder de modelagem de sistemas biolgicos). Uma pequena alterao no modelo neural necessria para a viabilizar as funcionalidades no lineares, atravs da introduo de uma funo de transferncia como representado na figure 2 a seguir.

x0 Entradas x1

w0 w1 w2

Funo de Soma

Sada

x2

Pesos

Funo de Transferncia f

Figura 2 Neurnio artificial com funo de transferncia no linear. De acordo com o valor da varivel Soma, e de acordo com a funo de transferncia qual essa varivel Soma aplicada (ou tambm conhecida como funo de ativao), o novo modelo de neurnio, no linear, fornecer uma sada em resposta aos estmulos xi, conforme representado na seguinte equao:
Sada = f ( Soma )

(2)

Na sua forma mais simples, a funo de transferncia no linear f pode ser binria (discreta), como no caso do modelo conhecido como Perceptron de Rosenblatt. Neste caso, o modelo tendo uma sada binria permite representar funcionalidades de natureza lgica realizadas pelos neurnios biolgicos. o caso da tomada de decises (uma funcionalidade digital por natureza). Por outro lado, para o caso de modelagem de funcionalidades do sistema nervoso em que no apenas grandezas digitais esto em jogo, mas uma gama de valores analgicos so necessrios para a representao da atividade neural, devemos empregar uma funo de transferncia f com sada contnua, como por exemplo a funo tangente hiperblica (neste caso o modelo pode ser chamado de

sigmoidal). Em ambos os casos, a idia que essa funo de transferncia possa imitar, em algum grau, a relao entrada / sada observada nos neurnios biolgicos.

4. ALGUMAS ARQUITETURAS TPICAS EM REDES NEURAIS Chegamos agora ao momento de passarmos de modelos de neurnios isolados para as redes neurais propriamente ditas, em que vrios neurnios artificiais so interconectados, interagindo uns com os outros. Conjuntos de neurnios artificiais como os discutidos acima, organizados e conectados de vrias formas, podem resultar em diferentes arquiteturas neurais, com caractersticas e aplicaes bastante distintas, algumas das quais sero discutidas aqui. No entanto, todas essas arquiteturas com diferenas bastante grandes entre si so chamadas indistintamente de redes neurais, pelo simples fato de que o bloco microscpico usado na construo de cada uma dessas arquitetura o neurnio artificial representado na figura 2. Em outro contexto, tal denominao genrica o que tambm se observa na expresso circuitos digitais: embora a memria do seu computador pessoal, o processador central do mesmo, e o seu relgio de pulso digital tenham funes muito distintas entre si e metodologias de projeto e princpios de funcionamento muito diferentes, todos eles podem ser chamados indiscriminadamente de circuitos digitais, por empregarem portas lgicas como o elemento mais microscpico de construo do sistema completo. Da mesma forma, o termo redes neurais empregado para designar um grande leque de arquiteturas, com aplicaes muitas vezes disjuntas, princpios de funcionamento e tcnicas de projeto totalmente diversas, mantendo entre si em comum apenas o bloco bsico (neurnio artificial) e alguns princpios gerais tais como o paralelismo de processamento e a adaptabilidade a mais de uma funo alvo dentro de uma aplicao. Outra caracterstica importante nas redes neurais a programabilidade da funo especfica desejada atravs de conjuntos de exemplos (conjunto de treinamento). Isto contrasta com a estratgia mais tradicional de se ter a programao de funcionalidade de um sistema de computao definida atravs de uma prescrio explcita, na forma de um algoritmo, de uma equao ou sistema de equaes modelando o problema alvo, ou atravs da definio precisa e formal de regras de causa e efeito entre as variveis envolvidas na aplicao. Em lugar de tal especificao formal do sistema computacional, temos apenas a apresentao de exemplos de treinamento rede neural. Este aspecto retomado mais a frente, no tpico 5 (Aprendizado e adaptabilidade em inteligncia computacional os algoritmos de treinamento / aprendizado). A natureza da funo de transferncia no linear f, o nmero de ns de processamento empregados na rede e a topologia de interconexo entre eles, tm todos impacto importante no tipo de computaes que podem ser realizadas pelas redes compostas por vrios ns como os descritos na figura 2. Em primeiro lugar, importante reafirmar que a no linearidade em f viabiliza a implementao de mapeamentos complexos entre as variveis de entrada da rede e as variveis de sada. Entre outras coisas, isto permite que se abarquem os universos de aplicao com sadas digitais para a rede neural, mediante escolha adequada da funo f. O Perceptron simples corresponde forma mais bsica de

modelo neural, para a qual a funo de transferncia se reduz a uma funo com apenas dois valores em seu repertrio de sadas, seja do tipo degrau ou do tipo sinal. Tradicionalmente o perceptron simples definido em forma bipolar (sada +1 ou 1), atravs da funo sinal: Sada = sinal(wixi -) (3)

Pela natureza de elemento de deciso da funo f e pela operao de combinao linear das entradas, que corresponde a um produto escalar entre o vetor de pesos wi e o vetor de entradas xi, o Perceptron simples viabiliza a separao / classificao de padres de entrada atravs de um hiperplano definido pelos pesos wi (para entender isto, basta recordar os fundamentos que voc aprendeu em algebra linear e geometria analtica). Um algoritmo de aprendizado adequado adapta os wi de forma a encontrar o hiperplano de separao adequado a um certo repertrio de exemplos que se deseja separar em duas classes. o clssico algoritmo de aprendizado do Perceptron. Naturalmente, uma estrutura de clculo to simples como a do Perceptron, expressa na Equao (3), no atende a todas as necessidades de classificao de padres no caso geral. medida que cmputos mais complexos que a classificao com separabilidade linear necessria, empregamos uma estrutura com diversos neurnios encadeados. Com isso, temos o conceito do Multi Layer Perceptron (MLP), cujas caractersticas principais so as seguintes: 1) possui mltiplas entradas / mltiplas sadas / mltiplas camadas; 2) entradas e sadas podem ser tanto analgicas quanto digitais; 3) no h mais a restrio de separabilidade linear entre classes. A figura 3 representa uma arquitetura do tipo MLP com 20 neurnios organizados em 5 camadas. Cada n (crculo) representa um neurnio e cada linha uma conexo entre sada de um neurnio e uma entrada de neurnio da camada seguinte.

Figura 3 Rede to tipo MLP (Multi Layer Perceptron) de 5 camadas. Cada um dos 20 crculos representa um neurnio artificial, e cada linha representa uma conexo sinptica, com seu peso programvel.

Como pode ser verificado, o fluxo de informao ocorre em camadas de neurnios, sem que haja realimentao (retorno da informao da sada para a entrada de algum dos neurnios da rede). Esta organizao em camadas e a ausncia de realimentao prpria da arquitetura MLP, no se observando tais caractersticas no entanto em muitas outras arquiteturas neurais importantes, no abordadas aqui por limitao de tempo. Apenas a ttulo de comentrio, a arquitetura de Hopfield por exemplo, densa em realimentaes e no possui qualquer organizao em camadas. Note que no caso do MLP, a funo de transferncia adotada tipicamente do tipo sigmoidal (tangente hiperblica por exemplo), de forma que com escalamentos adequados do argumento da funo de transferncia (ou dos pesos que indiretamente escalam as entradas) possvel passar de mapeamentos entrada-sada aproximadamente lineares a mapeamentos de natureza essencialmente digital, sem mudar a funo f propriamente dita, mas apenas com o recurso de escalamento do argumento. Esta transio entre comportamento analgico e digital possvel porque a funo sinal(x) pode ser vista como o caso limite da funo tangente hiperblica com constante escalamento tendendo a infinito. Entre as aplicaes do MLP, podemos citar a classificao de padres sem separabilidade linear j mencionada, a aproximao de funes genricas (inclusive analgicas) e a fuso no linear de grandezas analgicas multidimensionais, alm da previso de sries temporais no lineares. Note que o aprendizado atravs de exemplos do MLP (discutido em mais detalhes no prximo tpico) permite que ele realize as funes acima sem a necessidade de um modelo matemtico conhecido / confivel Aqui tivemos a oportunidade de abordar apenas duas arquiteturas neurais clssicas, o Perceptron e o MLP, mas vale a pena mencionar o que j ressaltamos no incio: existe um leque muito grande de arquiteturas e aplicaes correspondentes. Entre elas, podemos citar as arquiteturas de Hopfield, as arquiteturas com modelos pulsados, as arquiteturas com funes de base radial (radial basis functions RBFs), as arquiteturas do tipo ART (Adaptive Ressonance Theory), e os mapas auto organizveis de Kohonen, entre outras. Algumas dessas arquiteturas no discutidas neste texto sero abordadas muito brevemente no seminrio de PSI 2222. De qualquer forma, maiores detalhes destas e de outras arquiteturas no citadas aqui podem ser obtidos nas diversas referncias comentadas no tpico 7 frente, denominado Onde Conseguir mais Informao sobre Redes Neurais e suas Aplicaes.

5. APRENDIZADO E ADAPTABILIDADE EM INTELIGNCIA COMPUTACIONAL OS ALGORITMOS DE TREINAMENTO / APRENDIZADO Um aspecto importante em redes neurais a definio das conexes entre os elementos de processamento e a definio dos pesos associados a essas conexes. Pode-se dizer que a informao armazenada e a computao realizada por uma determinada rede neural so definidas mais pela topologia de conexes entre elementos e pelos pesos atribuidos a essas conexes que propriamente pelos elementos de processamento individualmente. Em funo disso, essas conexes entre os neurnios artificiais de uma rede so normalmente programveis, e muitas vezes existe algum mecanismo do tipo "aprendizado", atravs do qual a rede "incorpora experincia a partir de exemplos que lhe so apresentados". Isto particularmente interessante para a soluo de problemas cuja especificao no suficientemente estruturada, o que dificulta a sua representao em uma forma algortmica (prpria aos ambientes computacionais baseados em linguagens procedurais) ou mesmo na forma de uma lista de regras (prpria s linguagens declarativas). Tal situao ocorre por exemplo nas tarefas de reconhecimento de padres visuais, de reconhecimento de padres de voz, e em leitura automtica de textos manuscritos, e este um dos motivos pelos quais as redes neurais so usadas nessas reas. Este conceito de adaptao da rede face a uma descrio do problema que se pretende resolver atravs de exemplos d origem a uma expresso que aparece com frequncia no contexto de redes neurais: redes neurais possuem a capacidade de aprender por exemplos. Outra expresso comum que descreve essa caracterstica a que segue: as informaes so apresentadas rede, que extrai informaes a partir dos padres apresentados. Embora estas frases paream dar s redes neurais o poder especial e quase mgico de entender o problema a ser incorporado por elas, o que ocorre concretamente algo bem simples de entender do ponto de vista matemtico: os graus de liberdade das redes neurais (os pesos w) so adaptados de forma a que uma dado mapeamento entrada / sada desejado (e descrito por um repertrio de pares entrada / sada chamados de exemplo de treinamento) seja obtido. Isto realizado atravs de algum algortmo de adaptao ou aprendizado, que tenha caractersticas boas em termos de viabilizar o aprendizado de um leque amplo de diferentes mapeamentos entrada / sada. Em resumo, a expreso aprendizado da rede neural, embora normalmente traga um toque de charme s redes neurais, nada mais significa do que o processo de adaptao educada dos pesos wi da rede, de forma a viabilizar o mapeamento entre entradas e sadas descritos por uma lista de exemplos representativos de uma dada aplicao. Diversos mtodos de aprendizado / treinamento foram desenvolvidos, sendo que os denominados algoritmos de Aprendizado Supervisionado so os de mais facil entendimento face s discusses que fizemos at o momento. Neste tipo de aprendizado, as informaes so apresentadas rede sob a forma de padres de entrada e dos resultados correspondentes desejados, conhecidos previamente. O algoritmo supervisor verifica as sadas geradas pela rede, para os padres de entrada dos exemplos de treinamento, e as compara com as sadas desejadas, guiando assim o ajuste nas conexes sinpticas de forma a minimizar a diferena entre sada desejada e sada oferecida pela

rede. Os algoritmos de aprendizado supervisionado mais conhecidos so o Regra Delta, para o Perceptron simples, e o Error Backpropagation, para o MLP. Em ambos os casos, sempre que ocorre erro no reconhecimento de uma entrada, um ajuste sinptico conduzido. O ajuste sinptico procura portanto corrigir os pesos de modo que se produza a sada desejada diante da respectiva entrada, representando assim o aprendizado, em cada neurnio, do fato apresentado. Dessa forma, pode-se dizer que ao final do processo de aprendizado, o conhecimento dos neurnios / da rede neural reside nos pesos sinpticos.

6. REAS DE APLICAO DE REDES NEURAIS ARTIFICIAIS EM ENGENHARIA ELTRICA Entre as reas de aplicao de redes neurais podemos destacar a implementao de classificadores e reconhecedores de padres, de sistemas de armazenamento e recuperao de informaes do tipo memria associativa e sistemas de hetero-associao (extenso do conceito de memrias endereadas por contedo), a implementao de sistemas de controle adaptativo e a soluo de problemas de otimizao. Ainda como rea de aplicao, mais ligada biologia, podemos citar o uso de tais redes para a modelagem de percepo e de cognio. A seguir temos uma lista de aplicaes tpicas em forma telegrfica: Reconhecimento de padres Reconhecimento de caracteres Reconhecimento e sntese de voz Converso de texto para voz Viso artificial e viso robtica Avaliao de riscos de inadimplncia / deteo de padres de risco Previso de vendas / previso de sries temporais Modelagem e identificao de sistemas no lineares multivariveis Sistemas para o apoio deciso Processamento de informaes no estruturadas Processamento / reconhecimento / classificao de sinais e imagens Interfaces homem-mquina naturais Minerao de dados (datamining) Problemas de otimizao Modelagem cognitiva

Como uma forma prtica de dar uma idia de como as redes neurais e a inteligncia computacional tm se relacionado com as atividades de pesquisa e desenvolvimento nos departamentos de engenharia eltrica da EPUSP, listo a seguir alguns dos trabalhos em curso, e em seguida alguns dos docentes envolvidos em temas de redes neurais alm de mim. Certamente a lista no completa, mas permite ter uma idia bastante boa das reas

de utilizao de redes neurais dentro das vrias reas em que os nossos quatro departamentos atuam: Emprego de redes neurais em reconhecimento e classificao de padres e em fuso de informaes em sistemas multissensores Aproximao de funes e modelagem de histerese Aplicao das redes neurais artificiais na confiabilidade metrolgica Estudo de novos modelos de computao neural envolvendo fenmenos de bifurcao e dinmica catica, bem como sua implementao eletrnica Desenvolvimento de novas arquiteturas neurais a partir da fuso de mais de uma arquitetura clssica Clustering de dados multidimensionais em diversas reas Neurocomputao e tcnicas de fuso de dados aplicadas no reconhecimento e caracterizao de objetos em imagens mdicas Arquiteturas neurais de Kohonen para o Data Mining em aplicaes de comrcio eletrnico Modelagem e simulao de estgios iniciais do sistema visual com aplicao de redes neurais Arquiteturas neurais hbridas para o reconhecimento de padres Sistemas de neurocomputao para analise de sistemas multissensores para aplicaes ambientais e biomdicas Reconhecedores de voz via redes neurais Eletrnica no linear e dinmica catica: desenvolvimento de modelos eletrnicos de neurnios pulsados Mapas auto organizveis (redes neurais de Kohonen) como ferramenta para o clustering de empresas no setor eltrico brasileiro Aplicao de redes neurais em deteo de padres em sries temporais do mercado financeiro e em previso de carga em sistemas de distribuio de energia eltrica Sistema neurofuzzy para controle de semforos inteligentes Sistemas de controle adaptativos Sensores neuromrficos: lnguas eletrnicos / retinas eletrnicas / narizes eletrnicos / ouvidos eletrnicos Neurnios de bifurcao e aplicaes em otimizao e em memrias associativas

A lista acima foi preparada com base em trabalhos que eu e diversos outros docentes dos quatro departamentos da eltrica da EPUSP temos realizado, em conjunto com nossos orientados e colaboradores, nas reas de redes neurais e inteligncia computacional. Gostaria de mecionar aqui alguns desses demais docentes trabalhando com redes neurais, de citar brevemente alguns de seus interesses, e de agradecer-lhes por terem facilitado

materiais e informaes que de alguma forma ajudaram na preparao deste texto ou na preparao do seminrio de PSI 2222: Prof. Ademar Ferreira (PTC), que tem atuado na aplicao de sistemas neurais e sistemas fuzzy em problemas de controle. Prof. Aquiles Grimoni (PEA), atuando em aplicao de redes neurais a problemas em energia eltrica. Prof. Javier Ramirez (PSI), que tem atuado em sistemas sensores com processamento neural e em particular com narizes eletrnicos Prof. Marco Tlio de Andrade (PCS), atuando em sistemas fuzzy e neurofuzzy

7. ONDE CONSEGUIR MAIS INFORMAO SOBRE REDES NEURAIS E SUAS APLICAES No site que segue, voc poder encontrar diversos textos que permitem um aprofundamento maior no tema: http://www.kcl.ac.uk/neuronet/intro/index.html. Atravs do site www.lsi.usp.br/~emilio, voc pode chegar a esse link e a outros sites com materiais sobre redes neurais em diversos nveis de profundidade, desde artigos introdutrios at artigos sobre temas bastante especficos que so hoje objeto de pesquisa. Outra fonte de consulta para alguns tpicos em arquiteturas neurais pode ser encontrada no trabalho de iniciao cientfica Experimentos com arquiteturas neurais clssicas para o desenvolvimento de arquiteturas neurais hbricas, de Clayton Silva Oliveira e Emlio Del Moral Hernandez, disponvel no prprio site da EPUSP: http://www.poli.usp.br/PesquisaPoli/Publicacoescpq/ProducaoIC2002/. (uma vez no site, localize o artigo com titulo e autores acima) Nesse trabalho, duas arquiteturas neurais importantes so abordadas: a arquitetura MLP multi layer perceptron - e a arquitetura de Hopfield. Duas referncias bastante importantes so os livros de David Rumelhart (Parallel Distributed Processing) e de Simon Haykin (Neural Networks: a Comprehensive Foundation), ambos disponveis na nossa biblioteca. Naturalmente, voc deve escolher destas duas extensas referncias aqueles captulos que so acessveis a voc no seu estgio de formao. Em particular, o livro de Haykin nos seus captulos 1 e 2 bastante acessvel na maior parte de seus contedos. Dois artigos introdutrios: Artificial Neural Networks: A Tutorial, de autoria de Anil K Jain e Jianchang Mao, publicado na IEEE Computer de maro de 1996, pp. 31-44, identificado e recomendado pelo nosso colega o Professor Aquiles Grimoni (PEA). Pode ser copiado para uso pessoal com finalidade de estudo; Um outro artigo, tambm identificado pelo Professor Aquiles, que pode ser de interesse: Artificial Neural Networks

and Computational Intelligence, de autoria de Roger L. King e publicado em outubro de 1998, no IEEE Computer Applications in Power pp.15-25. Outro site relacionado, no qual informaes em inteligncia computacional e redes neurais podem ser obtidas: as notas de aula da PUC do Rio de Janeiro: http://www.ica.ele.puc-rio.br/cursos/crs_lst_notas.asp; Enfim, os interessados em conhecer mais sobre redes neurais esto convidados a me contatar por e-mail, pois posso indicar materiais adicionais de leitura. Obrigado, Prof. Dr. Emilio Del Moral Hernandez emilio_del_moral@ieee.org www.lsi.usp.br/~emilio

Você também pode gostar