Escolar Documentos
Profissional Documentos
Cultura Documentos
Visão Geral
1
Características do Controle Fuzzy
2
Funções de Pertinência
3
Operadores AND/OR Fuzzy
Regras de Controle
4
Operações da lógica nebulosa
Estratégias de Defuzificação
5
Controle Fuzzy - FLC
6
Base Regras do Controle de Nível
7
Controle Fuzzy equivalente a um PID - FPID
8
Função de pertinência para a saída do FPID
9
Relação entre PI e o FPID
10
Ação derivativa do FPID
11
FPID vs PID
Fuzzy no Matlab
12
Fuzzy no Matlab
Fuzzy no Matlab
13
Fuzzy no Matlab
Fuzzy no Matlab
14
Fuzzy no Matlab
15
Redes Neurais - Motivação
Computador Cérebro
n Processamento extremamente n Velocidade 1 milhão de vezes mais
rápido; lenta que qualquer porta digital;
n Lentidão no reconhecimento de n Reconhecimento de padrões;
padrões;
n Capacidade de generalização;
n Sem capacidade intrínseca de
generalização; n Processamento paralelo (1011
n Execução seqüencial de instruções. neurônios com 104 conexões
cada).
16
Redes Neurais - Neurônio biológico x processador
Terminais
Sinápticos
Neurônio A
Neurônio C
Ligação Sináptica
Informações
Impulso elétrico transmitido
Ligação Sináptica acionada (Theshold) Neurônio B
17
Redes Neurais - Motivação
Histórico
n Década de 40 – surgem primeiras informações sobre a neurocomputação;
n McCulloch, Pitts (1943) – serem modelo para neurônio artificial, no qual baseava-se a
máquina criada por eles baseada no cérebro humano, o Psychon. Incapaz de aprender;
n Hebb (1949) – foi o primeiro a propor uma lei de aprendizagem específica para as
sinapses dos neurônios;
n Minsky (1951) – cria o primeiro neurocomputador, o Snark , o qual ajustava com
sucesso os pesos de suas liga ções sinápticas;
18
Redes Neurais – Breve Histórico
Esquema da MLP
n Widrow (1962) – desenvolve o Adaline (Adaptative Linear Element), equipado com uma
poderosa lei de aprendizado, em uso até hoje. Similarmente ao Perceptron o Adaline é
baseado no aprendizado supervisionado por corre ção de erros;
n Minsky e Papert (1962) – provam que redes neurais baseadas em um Perceptron são
incapazes de aprender uma simples fun ção lógica XOR ( Ou-exclusivo) ;
n Hopfield (1982) – cria uma rede (diferente da baseada no Perceptron) de aprendizado
não-supervisionado, com conexões recorrentes e cuja base do comportamento consiste
na competição entre os neurônios;
z -1
X1
X2 Saída
Σ Φ
Xj
Bi
n Kohonen (1982) – propõe modelo que permite aprendizado competitivo com uma auto-
organização da rede neural, criando os chamados “ mapas de atributos auto-
organizáveis” (self-organizing maps );
19
Redes Neurais – Breve Histórico
x1 (n)
w k1 (n)
xm (n)
Esquema do Back-Propagation
20
Redes Neurais - Propriedades e Capacidades
21
Redes Neurais - Aplicações Gerais
Aplicações Comerciais
n Automotiva: sistema de direção automática
Representação genérica
x1 w1
Entrada S
w2
T
x2
(valores 0,1)
wi = ±1 i =1, 2, 3, ...
xm w3
1, se ∑n w x k ≥ T
i i
s k +1
= i =1
n
0, se ∑ wi xi < T
k
i =1
Figura 4 – Modelo de McCulloc & Pitts
(Fonte: Rojas)
22
Redes Neurais - Modelo de McCulloc & Pitts
x1 -1
T=0
1 A B AB
x2 -1 1 S =? 0 0 1
T=0
T=1
1
0 1 1
x3 -1
T=0
1 0 1
1, se ∑n w x k ≥ T 1 1 0
i i
s k +1
= i =1
n
0, se ∑ wi xi < T
k
i =1
Figura 5 – Modelo de McCulloc & Pitts: porta NAND
(Fonte: Rojas)
x1 1
A B A+B
0 0 1
x2 1 -1 S =?
T=1 T=0
0 1 0
x3 1 1 0 0
1 1 0
1, se ∑n w x k ≥ T
i i
s k +1
= i =1
n
0, se ∑ wi xi < T
k
i =1
Figura 6 – Modelo de McCulloc & Pitts: porta NOR
(Fonte: Rojas)
23
Redes Neurais - Modelo de McCulloc & Pitts
Entrada
excitadora 1 s k +1
= xk
T=1
Entrada -1
inibitória
1, se ∑n w x k ≥ T
i i Figura 6 – Modelo de McCulloc & Pitts: memória
s k +1
= i =1
n
(Fonte: Rojas)
0, se ∑ wi xi < T
k
i =1
Definição
Redes Neurais Artificiais (RNA) são sistemas inspirados nos
neurônios biológicos e na estrutura massivamente paralela do
cérebro humano, com capacidade de adquirir, armazenar e utilizar
conhecimento experimental.
24
Redes Neurais – Modelo de um neurônio artificial
n Somador : promove a combinação linear dos sinais de entrada multiplicados pelos pelos
sinápticos ;
Bias
x1 bk
Wk1
Função de
x2 ativação
Wk2
Sinais de νk Saída
entrada Σ ϕ(.) yk
Somador
xm
Wkm
Figura 2 – Modelo não-linear de um neurônio
Pesos (Fonte: Hayking)
sinápticos
25
Redes Neurais - Modelo de um neurônio artificial
Funções de ativação
Funções de ativação
continuamente diferenciáveis !
Funções de ativação
Função de ativação
continuamente
diferenciável !
Fonte: MATLAB Help
26
Redes Neurais - Modelo de um neurônio artificial
Funções de ativação
Satlins Tribas
Gráfico de fluxo
x1 (n)
w k1 (n)
xm (n)
Fonte: Shaw & Simões
27
Redes Neurais – Arquiteturas
Arquitetura de redes
A maneira como os neurônios de uma rede neural estão estruturados está
intimamente relacionada com o algoritmo de aprendizagem usado para
treinar a rede.
Principais arquiteturas
Feedforward – single-Layer
É a forma mais simples de rede neural, onde nós temos uma camada de
entrada dos nós fonte que projetam-se para uma camada de saída (apenas
em um único sentido).
Camada de
entrada dos
nós-fonte
Figura 3 – Feedforward Single-Layer
Camada de saída
28
Redes Neurais – Arquiteturas
Feedforward – Multilayer
Esta segunda classe de redes feedforward distingui-se da anterior pela
presença de uma ou mais camadas ocultas (onde ficam os neurônios
escondidos).
Camada de
Camada de saída
entrada dos
nós-fonte
Camadas ocultas
Feedforward – Multilayer
n São ditas completamente conectadas se cada nó da rede está conectado a todos os nós
adjacentes da camada seguinte (caso contrário são ditas parcialmente conectadas);
29
Redes Neurais – Arquiteturas
Recorrentes
São redes que distinguem-se das feedforward pela presença de pelo menos
um loop de realimentação entre neurônios da mesma camada e/ou
camadas anteriores.
Operadores
z-1 z-1 z-1 z-1
atraso unitário
30