Você está na página 1de 30

CONTROLE “FUZZY” e

INTRODUCAO A REDES NEURAIS

Flavio Morais de Souza, M.Sc.

CONTROLE REGULATÓRIO: SINTONIA E APLICAÇÕES


Outubro de 2008

Flavio Morais de Souza, M.Sc.

Visão Geral

1
Características do Controle Fuzzy

Conceitos de Lógica Nebulosa

2
Funções de Pertinência

Pertinência (Fuzificação): Exemplo

3
Operadores AND/OR Fuzzy

Regras de Controle

4
Operações da lógica nebulosa

Estratégias de Defuzificação

5
Controle Fuzzy - FLC

Exemplo: Controle deNível

6
Base Regras do Controle de Nível

Aplicação (Inferência) de Regras

7
Controle Fuzzy equivalente a um PID - FPID

Funções de pertinência para as entradas do FPID

8
Função de pertinência para a saída do FPID

Base de Regras do FPID

9
Relação entre PI e o FPID

Comportamento do controle FPID

10
Ação derivativa do FPID

Desempenho do FLC vs PID

11
FPID vs PID

Fuzzy no Matlab

12
Fuzzy no Matlab

Fuzzy no Matlab

13
Fuzzy no Matlab

Fuzzy no Matlab

14
Fuzzy no Matlab

INTRODUCAO A REDES NEURAIS

15
Redes Neurais - Motivação

Constatação de que o cérebro processa informações de


forma diferente dos computadores convencionais.

Computador Cérebro
n Processamento extremamente n Velocidade 1 milhão de vezes mais
rápido; lenta que qualquer porta digital;
n Lentidão no reconhecimento de n Reconhecimento de padrões;
padrões;
n Capacidade de generalização;
n Sem capacidade intrínseca de
generalização; n Processamento paralelo (1011
n Execução seqüencial de instruções. neurônios com 104 conexões
cada).

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais – Cérebro

Sistema Nervoso Neurônio

Figura 1 - Esquema do neurônio biol ógico

Ref.: Prof. Edson B. da Silva Jr., MSc.

16
Redes Neurais - Neurônio biológico x processador

n Tempo de processamento de um neurônio é de 2 ms (10-3 s);


n Tempo de processamento de um processador é de 2 ηs (10-9 s);
Ø Processador é 1 milhão de vezes mais rápido que o neurônio;
n Cérebro responde a um estímulo com um delay entre 0,2 a 1 s.
Ø O cérebro responde numa equivalência de 100 ciclos de um
processador ;
n Cérebro tem ≈ 100 bilhões de neurônios;
n Cada neurônio tem ≈ 1.000 a 10.000 conexões sinápticas;
Ø 60 trilhões de conexões - 1014 sinapses !
n Cada pessoa pode dedicar 100.000 conexões para armazenar cada segundo
de experiência;
Ø 65 anos ⇒ 2. 000. 000. 000 de segundos !
n Durante os 2 primeiros anos de vida cerca de 1.000.000 de sinapses são
formadas por segundo.
Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Neurônio biológico

n A comunicação entre as células nervosas se dá através das sinapses, através


da transmissão de impulsos nervosos entre eles;
Como se dá a transmissão de informações entre os neurônios?

Terminais
Sinápticos
Neurônio A

Neurônio C

Ligação Sináptica

Informações
Impulso elétrico transmitido
Ligação Sináptica acionada (Theshold) Neurônio B

Impulso elétrico recebido Figura 2 - Esquema de trânsito de informações entre neurônios

Ref.: Prof. Edson B. da Silva Jr., MSc.

17
Redes Neurais - Motivação

n Devido a estas e outras características é que o cérebro constituí-se num


computador paralelo , não-linear e altamente complexo;
n O cérebro tem a capacidade de organizar seus constituintes estruturais, os
neurônios para realizar certos processamentos:
v Reconhecimento de padrões;
v Percepção;
v Memorização;
v Generalização;
v Controlar um motor, etc.
muito mais rápido que o mais rápido computador digital de hoje.

Reconhecimento de padrões visuais pelo cérebro humano são


realizados de 100-200 ms !

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais – Breve Histórico

Histórico
n Década de 40 – surgem primeiras informações sobre a neurocomputação;
n McCulloch, Pitts (1943) – serem modelo para neurônio artificial, no qual baseava-se a
máquina criada por eles baseada no cérebro humano, o Psychon. Incapaz de aprender;

Figura 3 - Esquema do neurônio artificial proposto por McCulloch e Pitts

n Hebb (1949) – foi o primeiro a propor uma lei de aprendizagem específica para as
sinapses dos neurônios;
n Minsky (1951) – cria o primeiro neurocomputador, o Snark , o qual ajustava com
sucesso os pesos de suas liga ções sinápticas;

Ref.: Prof. Edson B. da Silva Jr., MSc.

18
Redes Neurais – Breve Histórico

n Rosenblatt, Wightman e outros (1958) – criam o MARK I Perceptron, primeiro


neurocomputador de sucesso, criado para reconhecer padrões, a qual deu origem
posteriormente aos modelos MLP (Multi Layer Perceptron);

Esquema da MLP

n Widrow (1962) – desenvolve o Adaline (Adaptative Linear Element), equipado com uma
poderosa lei de aprendizado, em uso até hoje. Similarmente ao Perceptron o Adaline é
baseado no aprendizado supervisionado por corre ção de erros;

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais – Breve Histórico

n Minsky e Papert (1962) – provam que redes neurais baseadas em um Perceptron são
incapazes de aprender uma simples fun ção lógica XOR ( Ou-exclusivo) ;
n Hopfield (1982) – cria uma rede (diferente da baseada no Perceptron) de aprendizado
não-supervisionado, com conexões recorrentes e cuja base do comportamento consiste
na competição entre os neurônios;

z -1

X1
X2 Saída
Σ Φ
Xj

Bi

Esquema do modelo Hopfield

n Kohonen (1982) – propõe modelo que permite aprendizado competitivo com uma auto-
organização da rede neural, criando os chamados “ mapas de atributos auto-
organizáveis” (self-organizing maps );

Ref.: Prof. Edson B. da Silva Jr., MSc.

19
Redes Neurais – Breve Histórico

n Rumelhart, Hinton e Willams (1986) – desenvolveram o algoritmo de aprendizado


Back -Propagation: o algoritmo mais popular de retropropaga ção para treinamento de
redes Perceptron de múltiplas camadas (MLP – Multi-Layer Perceptron);

x1 (n)
w k1 (n)

x (n) xj (n) w kj (n) ϕ (.) -1 1 dk


(n)
vk (n) yk (n)
w km (n)
ek (n)

xm (n)

Esquema do Back-Propagation

n Carpenter e Grossberg – desenvolveram o modelo ART (Adaptative Ressonance


Theory ). É um modelo de aprendizado não-supervisionado criando agrupamentos
(clusters ) dos padrões aprendidos.

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Propriedades e Capacidades

Redes Neurais Artificiais


De modo a aproveitar as melhores características funcionais do cérebro
humano foram criadas as redes neurais artificiais, ou simplesmente redes
neurais (RN).

Propriedades e capacidades das Redes Neurais


n Não-linearidade: um neurônio artificial pode ser linear ou não-linear. Esta
propriedade é muito importante pois permite representação de funções não-
lineares, anular certas não-linearidades, etc.
n Mapeamento entrada-saída: as redes podem ser treinadas para fornecer
uma função que reproduza para um dado conjunto de dados de entrada o
conjunto esperado de dados de saída, e ainda além disso promover
generalizações.

Ref.: Prof. Edson B. da Silva Jr., MSc.

20
Redes Neurais - Propriedades e Capacidades

Propriedades e capacidades das Redes Neurais


n Adaptatividade: redes neurais podem ser treinadas para adaptar seus
pesos sinápticos em condições real-time quando operando em ambientes
não estacionários.
n Tolerância a falhas: em caso de danos a um dos neurônios da rede ou
suas conexões sinápticas, apesar da qualidade da resposta ser influenciada é
preciso que a amplitude do dano a rede seja elevado antes que sua resposta
seja completamente degradada.
n Implementabilidade em VSLI : devido a sua natureza massivamente
paralela a implementação das redes neurais em tecnologia VLSI é bastante
susceptível.
n Analogia com a neurobiologia;

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Aplicações Gerais

Aplicações gerais para Redes Neurais


n Reconhecimento de padrões (ex: reconhecimento de faces humanas);
n Classificação de dados (ex: reconhecimento óptico de caracteres) ;
n Predição (ex: previsão de séries temporais, como a cotação de bolsa de
valores ;
n Controle de processos e aproximação de funções (ex: robótica) ;
n Análise e processamento de sinais;
n Filtro contra ruídos eletrônicos ;
n Análise de imagem e voz ;
n Controle adaptativo reverso, etc .

Ref.: Prof. Edson B. da Silva Jr., MSc.

21
Redes Neurais - Aplicações Gerais

Aplicações Comerciais
n Automotiva: sistema de direção automática

n Defesa: direcionamento de armas, rastreamento de alvos, reconhecimento


facial, sonar, radar, supressão de ruídos, compressão de imagens, etc;
n Eletrônica: predição de seqüência de código, controle de processos, análise
de falhas em chips, roteamento de layout de placas de circuito impresso, ,
visão computacional, etc;
n Entretenimento: animação, efeitos especiais, etc;
n Finanças: consultor de empréstimos, predição de oscilação de valores de
ações;
n Manufatura: diagnóstico de máquinas, inspeção visual de qualidade,
predição de qualidade de papel, teste de cerveja, sistema de modelamento
dinâmico de processos químicos, etc.
Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Modelo de McCulloc & Pitts

Representação genérica

x1 w1

Entrada S
w2
T
x2
(valores 0,1)

wi = ±1 i =1, 2, 3, ...
xm w3

1, se ∑n w x k ≥ T
 i i
s k +1
= i =1
n
0, se ∑ wi xi < T
k

 i =1
Figura 4 – Modelo de McCulloc & Pitts
(Fonte: Rojas)

Ref.: Prof. Edson B. da Silva Jr., MSc.

22
Redes Neurais - Modelo de McCulloc & Pitts

Implementações básicas – Exemplo 1

x1 -1
T=0

1 A B AB

x2 -1 1 S =? 0 0 1
T=0
T=1

1
0 1 1
x3 -1
T=0
1 0 1

1, se ∑n w x k ≥ T 1 1 0
 i i
s k +1
= i =1
n
0, se ∑ wi xi < T
k

 i =1
Figura 5 – Modelo de McCulloc & Pitts: porta NAND
(Fonte: Rojas)

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Modelo de McCulloc & Pitts

Implementações básicas – Exemplo 2

x1 1
A B A+B
0 0 1
x2 1 -1 S =?
T=1 T=0
0 1 0

x3 1 1 0 0
1 1 0
1, se ∑n w x k ≥ T
 i i
s k +1
= i =1
n
0, se ∑ wi xi < T
k

 i =1
Figura 6 – Modelo de McCulloc & Pitts: porta NOR
(Fonte: Rojas)

Ref.: Prof. Edson B. da Silva Jr., MSc.

23
Redes Neurais - Modelo de McCulloc & Pitts

Implementações básicas – Exemplo 3

Entrada
excitadora 1 s k +1
= xk
T=1

Entrada -1
inibitória

1, se ∑n w x k ≥ T
 i i Figura 6 – Modelo de McCulloc & Pitts: memória
s k +1
= i =1
n
(Fonte: Rojas)

0, se ∑ wi xi < T
k

 i =1

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Definição

Definição
Redes Neurais Artificiais (RNA) são sistemas inspirados nos
neurônios biológicos e na estrutura massivamente paralela do
cérebro humano, com capacidade de adquirir, armazenar e utilizar
conhecimento experimental.

Figura 1 – Rede Neural Artificial

Ref.: Prof. Edson B. da Silva Jr., MSc.

24
Redes Neurais – Modelo de um neurônio artificial

n Somador : promove a combinação linear dos sinais de entrada multiplicados pelos pelos
sinápticos ;

Bias
x1 bk
Wk1

Função de
x2 ativação
Wk2

Sinais de νk Saída
entrada Σ ϕ(.) yk

Somador
xm
Wkm
Figura 2 – Modelo não-linear de um neurônio
Pesos (Fonte: Hayking)
sinápticos

n Bias : Define o limitar de ativação do neurônio aumentando ou reduzindo a


entrada da rede na função de ativação ;

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Modelo de um neurônio artificial

n Funções de ativação : é responsável pela limitação da saída do neurônio. É a


componente não-linear do neurônio artificial;

Softmax Hardlim Hardlims


(simétrica)

Fonte: MATLAB Help

Ref.: Prof. Edson B. da Silva Jr., MSc.

25
Redes Neurais - Modelo de um neurônio artificial

Funções de ativação

Logsig Tansig Radbas


(radial basis)

Funções de ativação
continuamente diferenciáveis !

Fonte: MATLAB Help

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais - Modelo de um neurônio artificial

Funções de ativação

Purelin Poslin Satlin

Função de ativação
continuamente
diferenciável !
Fonte: MATLAB Help

Ref.: Prof. Edson B. da Silva Jr., MSc.

26
Redes Neurais - Modelo de um neurônio artificial

Funções de ativação

Satlins Tribas

Fonte: MATLAB Help

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais – Representação em gráfico de fluxo

Gráfico de fluxo

x1 (n)

w k1 (n)

w kj (n) ϕ (.) -1 1 d k (n)


x (n) xj (n)
vk (n) yk (n)
w km (n)
ek (n)

xm (n)
Fonte: Shaw & Simões

Ref.: Prof. Edson B. da Silva Jr., MSc.

27
Redes Neurais – Arquiteturas

Arquitetura de redes
A maneira como os neurônios de uma rede neural estão estruturados está
intimamente relacionada com o algoritmo de aprendizagem usado para
treinar a rede.

Principais arquiteturas

n Redes tipo feedforward de camada única;


n Redes tipo feedforward de múltiplas camadas;
n Redes Recorrentes.

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais – Arquiteturas

Feedforward – single-Layer
É a forma mais simples de rede neural, onde nós temos uma camada de
entrada dos nós fonte que projetam-se para uma camada de saída (apenas
em um único sentido).

Camada de
entrada dos
nós-fonte
Figura 3 – Feedforward Single-Layer

Camada de saída

n Empregada em problemas que envolvam sistemas estáticos;


n Com pequeno grau de complexibilidade;
n São de fácil treinamento;
Ref.: Prof. Edson B. da Silva Jr., MSc.

28
Redes Neurais – Arquiteturas

Feedforward – Multilayer
Esta segunda classe de redes feedforward distingui-se da anterior pela
presença de uma ou mais camadas ocultas (onde ficam os neurônios
escondidos).

Camada de
Camada de saída
entrada dos
nós-fonte

Figura 4 – Feedforward Multilayer

Camadas ocultas

Ref.: Prof. Edson B. da Silva Jr., MSc.

Redes Neurais – Arquiteturas

Feedforward – Multilayer
n São ditas completamente conectadas se cada nó da rede está conectado a todos os nós
adjacentes da camada seguinte (caso contrário são ditas parcialmente conectadas);

n Empregada em problemas que envolvam sistemas estáticos;


n Com possibilidade de aplicação tanto para problemas simples como para problemas de
elevado grau de complexibilidade;
n Não possuem memória;
n São de fácil treinamento;

Ref.: Prof. Edson B. da Silva Jr., MSc.

29
Redes Neurais – Arquiteturas

Recorrentes
São redes que distinguem-se das feedforward pela presença de pelo menos
um loop de realimentação entre neurônios da mesma camada e/ou
camadas anteriores.

Operadores
z-1 z-1 z-1 z-1
atraso unitário

Figura 4 – Rede Recorrente


(sem camadas ocultas)

n Empregada em problemas que envolvam sistemas dinâmicos;


n Possuem memória
n São de difícil treinamento;
Ref.: Prof. Edson B. da Silva Jr., MSc.

30

Você também pode gostar