Escolar Documentos
Profissional Documentos
Cultura Documentos
RNA ou ANN
tatuape noite
cc20unip@hotmail.com
cc1p202018@gmail.com
carlos.menta@aluno.unip.br
cc20unip@hotmail.com
adrianne.oliveira@aluno.unip.br
PaulaAVadao@gmail.com
Tatuapé manhã
Tatuapé
gustavo_h.enrique@hotm
ail.com
Anchieta:
turmadacomputacao2018
@gmail.com
tem da norte aqui
martins0712@hotmail.com
Norte
2
Modelos ou paradigmas de IA
▪ Algoritmos Genéticos
▪ Programação Evolutiva
▪ Lógica Fuzzy
3
Sumário
▪ Introdução
▪ Inspiração biológica
▪ Histórico
▪ Neurônio artificial
▪ Treinamento do neurônio
▪ Redes de neurônios
▪ Treinamento da rede
▪ Aplicações
▪ Extração de regras
4
Introdução
5
Inteligência Computacional
A Inteligência Computacional busca, através de
técnicas inspiradas na Natureza, o desenvolvimento
de sistemas inteligentes com capacidade de imitar
aspectos do comportamento humano, tais como:
aprendizado,
percepção,
raciocínio,
evolução e
adaptação.
6
Redes Neurais Artificiais (RNA)
Definições:
7
Capacidade de Generalização
Isso significa que se a rede aprende a lidar com um
certo problema, ou seja, for treinada a resolve-lo, e,
se lhe é apresentado um problema similar, mas não
exatamente o mesmo, isto é, um problema não
explorado no treinamento, ela tende a reconhecer
esse novo problema, oferecendo a mesma solução
(generalização).
8
Aproximador de funções
▪ A característica mais relevante das redes neurais
é a sua habilidade de aproximar qualquer função
contínua ou não contínua com um grau de
exatidão desejado.
9
Mapeamento Entrada-Saída
para Aproximação de Funções
10
Inspiração biológica
11
Inspiração biológica
Inspiração biológica
Os principais componentes dos neurônios são:
14
Inspiração biológica
15
Histórico
16
Histórico
19
Histórico
Em 1949, o psicólogo Donald Hebb, demostrou que
a capacidade da aprendizagem em redes neurais
biológicas vem da alteração da eficiência sináptica,
isto é, a conexão somente é reforçada se tanto as
células pré-sinápticas quanto as pós-sinápticas
estiverem excitadas;
21
Histórico
▪ 1951
▪ Construção do primeiro neuro computador,
denominado Snark, por Mavin Minsky.
22
Histórico
▪ 1956
24
Histórico
Em 1960 surgiu a rede ADALINE (ADAptative
LInear NEtwork) e o MADALINE (Many ADALINE),
proposto por Widrow e Hoff.
25
Histórico
• 1969
• Foi constatado por Minsky & Papert que um
neurônio do tipo Perceptron só é capaz de
resolver problemas com dados de classes
linearmente separáveis.
26
Histórico
1960-1970
27
Histórico
1982
Retomada das pesquisas com a publicação dos
trabalhos do físico e biólogo Hopfield relatando a
utilização de redes simétricas para otimização,
através de um algoritmo de aprendizagem que
estabilizava uma rede binária simétrica com
realimentação.
28
Histórico
▪ 1986
▪Rumelhart, Hinton e Williams introduziram o
poderoso método de treinamento denominado
“Backpropagation”.
29
Histórico
▪ 1988
30
Neurônio artificial
31
Função
degrau
32
Neurônio Artificial: Princípio de funcionamento
A operação de um neurônio artificial se resume em:
▪ Sinais são apresentados à entrada (x1 à xm);
▪ Cada sinal é multiplicado por um peso que indica sua
influência na saída da unidade (wk);
▪ É feita a soma ponderada dos sinais que produz um nível
de atividade ou ativação (uk);
▪ A função de ativação f(uk) tem a finalidade de limitar a
saída e introduzir não-linearidade ao modelo.
▪ O bias bk tem o papel de aumentar ou diminuir a influência
do valor das entradas, ou seja, serve para aumentar os
graus de liberdade, permitindo uma melhor adaptação, por
parte da rede neural, ao conhecimento à ela fornecido.
▪ É possível considerar o bias como uma entrada de valor
constante 1, multiplicado por um peso igual a bk.
Neurônio Artificial: Expressão matemática
do neurônio artificial
▪ Matematicamente a saída pode ser expressa por:
34
Neurônio Artificial: Funções de ativação
35
Função de ativação tangente hiperbólica
(a) (b)
Tangente hiperbólica (a) e sua derivada (b). 36
Função de ativação logística (sigmóide)
(a) (b)
Sigmóide (a) e sua derivada (b). 37
Função de ativação semi-linear
(a) (b)
Função de ativação semi-linear (a) e sua derivada (b). 38
Perceptron de limiar
▪ O perceptron de limiar é chamado separador
linear
– Porque traça um plano entre os pontos de entrada
onde a saída é zero ou um. O bias é usado como
limiar, ou seja, é o valor a partir do qual a saída do
neurônio assume os valores “o” ou “1”.
40
Perceptron de limiar: treinamento
Exemplo: um neurônio para a função AND de 2 entradas
X Y S
0 0 0
0 1 0
1 0 0
1 1 1
44
A reta 0.4 x1 + 0.4 x2 - 0.6 = 0 separa os pontos 00, 01 e
10, do ponto 11.
45
Passos na aplicação do algoritmo OR
Inicio w 1 = 0.5 w2 = 0.6 w0 = -0.3
Entrada 0 0 u = - 0.3 y=0 correta
Entrada 0 1 u = 0.3 y=1 correta
Entrada 1 0 u = 0.2 y=1 correta
Entrada 1 1 u = 0.8 y=1 correta
Fim w 1 = 0.5 w2 = 0.6 w0 = -0.3
46
No caso do XOR, não existe uma única reta que divide os
pontos (0,0) e (1,1) para um lado, e (0,1) e (1,0) do outro
lado.
Função xor:
48
Algoritmo de treinamento do Perceptron
Classificação de padrões
Para classificação de padrões de entrada como
pertencentes ou não a uma dada classe,
considere o conjunto de treinamento formado por
N amostras {x1,d1}, {x2,d2}, ..., {xN,dN},
onde xj é o vetor de entradas e dj a saída
desejada (classe), que em notação vetorial tem-se
{X,d}, onde:
49
50
Aprendizagem de Perceptrons
▪ O algoritmo
51
Se os padrões de entrada forem linearmente
separáveis, o algoritmo de treinamento possui
convergência garantida, isto é, tem capacidade
para encontrar um conjunto de pesos que
classifica corretamente os dados.
52