Escolar Documentos
Profissional Documentos
Cultura Documentos
Mineração de Dados em
Biologia Molecular Principais tópicos
Redes Neurais Artificiais Introdução
Arquitetura
Aprendizado
Principais modelos
André C. P. L. F. de Carvalho Perceptron
Monitor: Valéria Carvalho MLP
SVMs
André Ponce de Leon de Carvalho 2
1
11/10/2012
Topologia Topologia
Arranjo das conexões
Número de camadas
Uma camada (Ex Perceptron, Adaline)
Multi-camadas (Ex MLP, RBF) RN RN
Feedforward Recorrente
Aprendizado Aprendizado
2
11/10/2012
Perceptron Perceptron
Resposta / saída da rede
Treinamento
Supervisionado Aplica função limiar sobre soma total de
Correção de erro entrada recebida por um neurônio
wi(t)= wi(t-1) + ∆wi m f(u-θ)
∆wi = ηxi(y – f(x)) u = ∑ xi wi
Induz hipótese ou função f(x) i =1
u-θ
Rosemblat provou teorema de convergência + 1 if u ≥ θ
Se é possível induzir um classificador um conjunto f (u ) =
- 1 if u < θ
f(u-θ) = sinal (u-θ)
de entradas, uma rede Perceptron induzirá f(x) = f(u-θ)
3
11/10/2012
110
+1
4
11/10/2012
Exercício Exercício
Seja o seguinte cadastro de pacientes: Ensinar uma rede do tipo Perceptron a
distinguir:
Nome Febre Enjôo Manchas Dores Diagnóstico Pacientes potencialmente saudáveis
Pacientes potencialmente doentes
João sim sim pequenas sim doente
Pedro não não grandes não saudável Testar a rede para novos casos
Maria não sim pequenas não saudável
(Luis, não, não, pequenas, sim)
José sim sim grandes sim doente
Ana sim não pequenas sim saudável (Laura, sim, sim, grandes, sim)
Leila não não grandes sim doente
5
11/10/2012
conexões
Erro (backward)
André Ponce de Leon de Carvalho 31 André Ponce de Leon de Carvalho 32
Backpropagation Backpropagation
Procura reduzir os erros cometidos pela Procura reduzir os erros cometidos pela
rede rede
Utiliza erro para ajustar valor dos pesos Utiliza erro para ajustar valor dos pesos
Erro de cada neurônio Erro de cada neurônio
Camada de saída Camada de saída
Saída desejada - saída produzida Saída desejada - saída produzida
Camadas intermediárias ??? Camadas intermediárias
Proporcional aos erros dos neurônios da camada
seguinte conectados a ele
Backpropagation Backpropagation
Treinamento Ajuste dos pesos
Supervisionado ∆wij = ηxiδj
Procura na superfície de erro onde o valor do f ´erro j se j for camada de saída
δj =
erro é mínimo f ´∑ w jk δ k se j for camada intemediária
Gradiente 1 c
erro j = ∑ ( y q − f ( x) q )
2 q =1
6
11/10/2012
Backpropagation Treinamento
Iniciar todas as conexões com valores aleatórios
Função de ativação Repita
Não linear erro = 0
Para cada par de treinamento (X, y)
Diferenciável , contínua e, geralmente, não
Para cada camada k := 1 a N
decrescente Para cada neurônio j := 1 a Mk
Sigmoidal Calcular a saída fkj(x)
f(x) = 1/(1 + e- uj(t)) (sigmoid logística) Se k= N
Calcular soma dos erros de seus neurônios
f(x) = (1 - e-uj(t)) (tangente hiperbólica) Se erro > ε
(1 +e-uj (t)) Para cada camada k := N a 1
Para cada neurônio j:= 1 a Mk
Atualizar pesos
Até erro < ε (ou número máximo de ciclos)
André Ponce de Leon de Carvalho 37 André Ponce de Leon de Carvalho 38
conexões conexões
conexões conexões
7
11/10/2012
conexões conexões
8
11/10/2012
+1 -0.5
bias
-1
Considerar função de
-0.5 -1.5 -2.5 0.5-n
ativação limiar (threshold)
entrada/saída binária
9
11/10/2012
10
11/10/2012
11
11/10/2012
Hiperplano separador
Margem máxima ótimo
11/10/2012 André de Carvalho - ICMC/USP 67 André Ponce de Leon de Carvalho 68
Conclusão Perguntas
Redes Neurais
Sistema nervoso
Muito utilizadas em problemas reais
Várias arquiteturas e algoritmos
Magia negra
Caixa preta
12