Escolar Documentos
Profissional Documentos
Cultura Documentos
Sistemas inteligentes
Sistemas Inteligentes 2
Professor Renato Kazuo Miyamoto
Revisando
• Neurônio biológico: realiza o
processamento de informações no
cérebro humano.
• Conduz impulsos elétricos.
Sistemas Inteligentes 3
Fonte: SILVA; SPATI; FLAUZINO (2010)
Professor Renato Kazuo Miyamoto
Neurônio Artificial
O neurônio artificial é um modelo
simplificado do neurônio biológico. Os
neurônios artificiais utilizados nos modelos
de redes neurais artificiais são não-lineares,
fornecem saídas tipicamente contínuas, e
realizam funções simples, como coletar os
sinais existentes em suas entradas, agregá-
los de acordo com sua função operacional e
produzir uma resposta, levando em
consideração sua função de ativação
inerente.
Fonte: SILVA; SPATI; FLAUZINO (2010)
Sistemas Inteligentes 4
Professor Renato Kazuo Miyamoto
Funções de Ativação
• Seu objetivo é limitar a saída do neurônio dentro de um intervalo de
valores razoáveis a serem assumidos pela sua própria imagem funcional.
Sistemas Inteligentes 5
Professor Renato Kazuo Miyamoto
Sistemas Inteligentes Fonte: Elaborado pelo autor 6
Professor Renato Kazuo Miyamoto
Conceitos
Arquiteturas de
redes neurais
artificiais
• A arquitetura define a forma como seus diversos neurônios estão
arranjados.
• Topologia: forma de composição estrutural (10 neurônios, 20
neurônios).
• Treinamento: conjunto de passos ordenados com o intuito de ajustar os
pesos e os limiares de seus neurônios.
• Camada de entrada: responsável pelo recebimento de informações
(geralmente normalizadas);
• Camadas escondidas (intermediárias): compostas por neurônios
responsáveis por extrair a características associadas ao processo a ser
inferido.
• Camada de saída: responsável pela produção e apresentação dos
resultados finais da rede.
Sistemas Inteligentes 8
Professor Renato Kazuo Miyamoto
• Arquitetura feedfoward de camada simples: possui uma única camada
de neurônios, que já é a própria camada de saída.
• Perceptron e Adaline.
Sistemas Inteligentes 12
Professor Renato Kazuo Miyamoto
• Uma camada neural e um
neurônio artificial.
Sistemas Inteligentes 14
Professor Renato Kazuo Miyamoto
• O ajuste dos pesos e limiar do Perceptron é efetuado utilizando
processo de treinamento supervisionado, isto é, para cada amostra dos
sinais de entrada se tem a respectiva saída (resposta) desejada.
• O Perceptron é tipicamente usado em problemas de reconhecimento de
padrões, sendo que sua saída pode assumir somente dois valores
possíveis.
• Regra de Hebb: Se a saída produzida pelo Perceptron é diferente da
saída desejada, os pesos sinápticos e limiar serão então decrementados.
Este processo é repetido, sucessivamente para todas as amostras de
treinamento, até que a saída produzida pelo Perceptron seja
equivalente à saída desejada de cada amostra.
Se dois neurônios em cada lado de uma sinapse são ativados
assincronamente, então aquela sinapse dever ser enfraquecida.
Sistemas Inteligentes 15
Professor Renato Kazuo Miyamoto
Análise matemática do Perceptron
• Pode ser considerado um típico caso de discriminador linear.
Sistemas Inteligentes 17
Professor Renato Kazuo Miyamoto
• Conclui-se que a condição para que o Perceptron de camada simples
possa ser utilizado como um classificador de padrões e consiste em que
as classes do problema a ser mapeado sejam linearmente separáveis.
• Regra de aprendizado de Hebb: Em termos matemáticos, as regras de
ajuste dos pesos sinápticos {wi} e do limiar {θ} do neurônio podem ser
expressas, respectivamente, pelas seguintes expressões:
Sistemas Inteligentes 18
Professor Renato Kazuo Miyamoto
• Entretanto, em termos de implementação computacional, torna-se mais
conveniente tratar as expressões anteriores em sua forma vetorial.
Sistemas Inteligentes 19
Professor Renato Kazuo Miyamoto
• A taxa de aprendizagem {η} exprime o quão rápido o processo de
treinamento da rede estará sendo conduzido rumo à sua convergência
(estabilização).
Sistemas Inteligentes 20
Professor Renato Kazuo Miyamoto
Exemplificando
• Supõe-se que um problema a ser mapeado pelo Perceptron tenha três entradas
{x1, x2, x3}. Assume-se que o conjunto de treinamento seja composto de
apenas quatro amostras, constituídas dos seguintes valores: Ω(x) = { [0,1 0,4
0,7]; [0,3 0,7 0,2]; [0,6 0,9 0,8]; [0,5 0,7 0,1] }. Considerando-se ainda que os
respectivos valores de saída para cada uma dessas amostras seja dado por Ω(d) =
{ [1]; [-1]; [-1]; [1]} , então se pode adotar a seguinte forma matricial para suas
representações:
Sistemas Inteligentes 21
Professor Renato Kazuo Miyamoto
• Nesta condição, alternativamente, pode-se extrair dessas matrizes cada
um dos vetores x(k), com seu respectivo valor d(k), os quais
representarão cada uma das amostras de treinamento, da seguinte
forma:
Sistemas Inteligentes 23
Professor Renato Kazuo Miyamoto
• Sequência passo a
passo para a
operação do
Perceptron.
Sistemas Inteligentes 24
Professor Renato Kazuo Miyamoto
• Ilustração do processo de treinamento do Perceptron visando
o alcance desta fronteira de separabilidade
Sistemas Inteligentes 25
Professor Renato Kazuo Miyamoto
• A rede divergirá se o problema for não linearmente separável. A estratégia a ser
usada nesta ocorrência é limitar o processo por meio da especificação de um
número máximo de épocas;
• Quando a faixa de separabilidade entre as duas classes do problema for muito
estreita, o seu processo de treinamento pode implicar em instabilidades. Em tais
casos, assumindo-se um valor de taxa de aprendizado {η} bem pequeno, a
instabilidade da convergência pode ser então aliviada;
• A quantidade de épocas necessárias para a convergência do processo de
treinamento do Perceptron varia em função dos valores iniciais que foram
atribuídos ao vetor de pesos {w}, assim como da disposição espacial das amostras
de treinamento e do valor especificado para a taxa de aprendizado {η};
• Quanto mais próxima a superfície de decisão estiver da fronteira de separabilidade,
menos épocas para a convergência do Perceptron são geralmente necessárias;
• A normalização das entradas para domínios apropriados contribui para incrementar
o desempenho do treinamento. 26
Sistemas Inteligentes
Professor Renato Kazuo Miyamoto
• Exemplo 1: Considere um problema de classificação de padrões
composto de duas entradas {x1 e x2}, cujo conjunto de treinamento é
composto pelas seguintes amostras de treinamento:
%amostras classe A
a1=[0.75;0.25];
a2=[0.75;0.25];
%amostras classe B
b1=[0.75;0.25];
b2=[0.25;0.75];
%--------------------%
plot (a1, a2 , '+')
hold on
plot (b1, b2 , '*')
ylim([-.5 1.5]);
Sistemas Inteligentes
xlim([-.5 1.5]); 27
Professor Renato Kazuo Miyamoto
• Exemplo 2: É proposta uma análise de um processo de destilação
fracionada de bebida podendo ser classificado em duas classes de
pureza P1 e P2. Baseado em uma coleta de dados foi formado um banco
de entrada. Considerando a convergência adotada -1 para a bebida
pertencente a P1, utiliza-se a função de ativação degrau bipolar.
Utilize o algoritmo de Hebb para treinamento, e assuma taxa de
aprendizagem como 0.01 para treinamentos.
Sistemas Inteligentes 28
Professor Renato Kazuo Miyamoto
% Implementação Rede Perceptron
• Exemplo 2: Banco de % Renato Kazuo Miyamoto
%%--------------------%
dados para a validação %% Início
clear all; close all; clc;
Sistemas Inteligentes 30
Professor Renato Kazuo Miyamoto
Referências
LIMA, Isaías; PINHEIRO, Carlos A. M. ; SANTOS, Flávia A Oliveira. Inteligência Artificial.
Rio de Janeiro: Elsevier, 2014. 184 p. ISBN: 8535278087.
SILVA, I. N.; SPATTI, D. H.; FLAUZINO, R. A. Redes Neurais Artificiais para engenharia e
ciências aplicadas: curso pratico. São Paulo: Artliber, 2010.
SIMON, H. Redes Neurais Artificiais princípios e prática. 2ed. São Paulo: Bookman,
2000.
Sistemas Inteligentes 31
Professor Renato Kazuo Miyamoto