Escolar Documentos
Profissional Documentos
Cultura Documentos
ARTIFICIAIS
RNA ou ANN
Redes de neurônios: Arquitetura das ANNs
▪ Uma rede neural artificial é composta por várias unidades
de processamento (neurônios), cujo funcionamento é
bastante simples.
2
Redes de neurônios: Características Gerais
das ANNs
▪ São modelos adaptativos, robustos e treináveis
– Redes recorrentes.
4
Redes Neurais Artificiais: classificação
das camadas
camada
de entrada
camada
camada de saída
6
escondida
Redes Neurais Artificiais: classificação
das camadas
7
Rede feedforward de uma única camada
o
▪ Os neurônios da camada de
entrada correspondem aos
neurônios sensoriais que
possibilitam a entrada de
sinais na rede (não fazem
processamento).
▪ Os neurônios da camada de
saída fazem processamento.
8
Rede feedforward de Múltiplas Camadas
(Multilayer Perceptron - MLP)
▪ Essas redes tem uma ou mais camadas intermediárias
ou ocultas (escondidas).
9
Redes recorrentes
Essas redes possuem pelo menos uma interconexão
realimentando a saída de neurônios para outros neurônios
da rede (conexão cíclica).
11
Topologias das redes neurais
12
Treinamento de uma ANN: Modelos de
aprendizagem
▪ A propriedade mais importante das redes neurais é a
habilidade de aprender de seu ambiente e com isso
melhorar seu desempenho.
13
Treinamento de uma ANN: Modelos de
aprendizagem
Existem muitos tipos de algoritmos de aprendizado específicos
para determinados modelos de redes neurais.
1) supervisionado;
2) não-supervisionado; e
3) com reforço.
14
Modelo do aprendizado supervisionado
▪ Também conhecida com aprendizagem com professor,
consiste em que o professor tenha o conhecimento do
ambiente, e fornece o conjunto de exemplos de
entrada-resposta desejada.
▪ Com esse conjunto, o treinamento é feito usando a regra de
aprendizagem por correção de erro.
15
Modelo do aprendizado Não supervisionado
▪ Neste caso não há um professor para supervisionar o processo
de aprendizagem. Isso significa que não há exemplos rotulados
da função a ser aprendida pela rede.
16
Modelo do aprendizado Não supervisionado
18
Redes Neurais Artificiais: Efeitos da
Arquitetura da rede
A quantidade de neurônios na camada de entrada e saída é
dada pelo problema a ser abordado.
19
20
21
Redes Neurais Artificiais: Efeitos da
Arquitetura da rede
Por outro lado, uma rede com poucos neurônios na camada
escondida pode não ser capaz de realizar o mapeamento
desejado, o que é denominado de underfitting.
22
23
Inicialização dos vetores de pesos e bias
24
Inicialização aleatória dos pesos
A atualização de um peso entre duas unidades depende da derivada da função de
ativação da unidade posterior e função de ativação da unidade anterior.
Por esta razão, é importante evitar escolhas de pesos iniciais que tornem as funções de
ativação ou suas derivadas iguais a zero.
25
Treinamento da MLP
26
Algoritmo de Retropropagação
(Backpropagation)
● Erro no j-ésimo neurônio da camada de saída no instante t.
27
Algoritmo de Retropropagação
(Backpropagation)C
Durante o treinamento com o algoritmo backpropagation, a
rede opera em uma sequência de dois passos:
end // for
MSE 🡨 1/N. sum(Ti)
t 🡨 t+1
end // while 29
end // procedure
Algoritmo Backpropagation
▪ Treinamento é feito em duas fases:
Fase forward
Fase backward 30
Entrada é apresentada à primeira
Fase forward camada da rede e propagado em
direção às saídas.
Camadas intermediárias
Camada de Camada de
entrada saída
31
Os neurônios da camada i calculam
Fase forward seus sinais de saída e propagam
à camada i + 1
Camadas intermediárias
Camada de Camada de
entrada saída
32
A última camada oculta calcula
Fase forward seus sinais de saída e os envia
à camada de saída
Camadas intermediárias
Camada de Camada de
entrada saída
33
A camada de saída calcula
Fase forward os valores de saída da rede.
Camadas intermediárias
Camada de Camada de
entrada saída
34
Fase backward
Camadas intermediárias
Camada de Camada de
entrada saída
35
A camada de saída
Fase backward calcula o erro da rede: δj
Camadas intermediárias
Camada de Camada de
entrada saída
Erro
(δj) 36
Calcula o termo de correção dos pesos
Erro (δj) 37
Envia o erro para a
Fase backward última camada oculta
Camadas intermediárias
Camada de Camada de
entrada saída
Erro (δj)
38
A camada oculta calcula o seu erro
Fase backward δj = f’(uj). ∑ δkwlk
Camadas intermediárias
Camada de Camada de
entrada saída
Erro (δj) 40
A camada oculta calcula o seu erro
Fase backward δj = f’(uj).∑ δkwlk
Camadas intermediárias
Camada de Camada de
entrada saída
Erro (δj) 42
Cada unidade atualiza seus pesos
Camadas intermediárias
Camada de Camada de
entrada saída
43
Repete-se o processo enquanto
44
▪ Desvantagens do algoritmo de aprendizagem
backpropagation:
– Normalmente o tempo de processamento é
elevado
– A arquitetura da rede deve ser fixada a priori
45
Aspectos do treinamento de redes MLP
O aprendizado é resultado de apresentação repetitiva de
todas as amostras do conjunto de treinamento.
46
Atualização local ou por lote
47