Escolar Documentos
Profissional Documentos
Cultura Documentos
1 2
3 4
1
Inspiração Biológica Inspiração Biológica
Axônios – linhas de transmissão. Numa sinapse, dependendo da carga do íon, o fluxo resulta em
aumentar (excitação) ou diminuir (inibição) o potencial de
Dendritos – zonas receptivas membrana.
Os neurônios ficam contidos num ambiente líquido O dendrito de um neurônio recebe íons de várias sinapses e o
contendo uma certa concentração de íons, que podem resultado elétrico da concentração desses íons consiste no que se
entrar ou sair através dos canais iônicos. chama de potencial de membrana.
Tanto as transmissões de sinais nos axônios, como as Esse potencial de membrana gera eventualmente um pulso elétrico
sinapses usam esses canais iônicos. de disparo, denominado potencial de ação.
Os canais iônicos podem ser modulados, permitindo ao A ativação de um neurônio ocorre apenas quando seu potencial de
membrana é maior do que um valor limiar (threshold).
cérebro se adaptar a diferentes situações.
A plasticidade sináptica é a capacidade das sinapses O potencial de ação é gerado no corpo celular e percorre o axônio
até a sua extremidade, que coincide com a sinapse, para atuar no
sofrerem modificações. neurônio pós-sinaptico seguinte.
5 6
A aprendizagem é resultado de alterações locais nos neurônios. A memória também é resultado de um processo
adaptativo das sinapses.
Fisicamente, existem diversas formas de modificações possíveis em
um neurônio:
– a) dendritos podem nascer, bem como serem removidos; Um dos resultados de um processo de aprendizagem
– b) alguns dendritos se esticam ou se encolhem, permitindo ou
eliminando, respectivamente, a conexão com outras células; é a criação de um padrão de conexões sinápticas
– c) novas sinapses podem ser criadas ou sofrer alterações; duradouro, que resulta na memorização de uma
– d) sinapses também podem ser removidas; e determinada experiência.
– e) todo neurônio pode morrer e também se regenerar.
A aprendizagem via modulação sináptica é o mecanismo mais A aprendizagem pode ser vista como o processo
importante para as redes neurais, sejam elas biológicas ou adaptativo da estrutura sináptica, enquanto a memória
artificiais.
é o resultado deste processo adaptativo.
7 8
2
O Perceptron Motivações
9 10
11 12
3
Classificação de padrões Clustering/categorização
Tarefa: atribuir um padrão de entrada a uma Tarefa: explorar semelhanças entre padrões e
das várias classes pré-definidas agrupar padrões parecidos
– Entradas representadas por vetores de – Também conhecido como aprendizado não-
características supervisionado
– As classes não são conhecidas de antemão
Exemplos de aplicações
– Reconhecimento de caracteres Exemplos de aplicações
– Reconhecimento de voz – Garimpagem de dados (Data mining)
– Análise de crédito – Compressão de dados
13 14
Tarefa: encontrar uma estimativa f’ de uma Tarefa: dado um conjunto de exemplos {(y(t1),
função desconhecida f (y(t2),..., (y(tn)}, prever a saída y(.) no instante de
– Conhece conjunto de pares de entrada-saída {(x1y1),
tempo tn+1
(x2y2), ..., (xnyn)}
Exemplos
Exemplos – Previsão do tempo
– Problemas de modelagem científica e de engenharia – Previsão de falências
– Previsão de ações na bolsa
– Previsão do desgaste de peças
15 16
4
Otimização Memória endereçável pelo conteúdo
Exemplos
Exemplo
– Bases de Dados
– Problema do caixeiro viajante (NP completo)
– Sistemas Multimídia
17 18
19 20
5
História das Redes Neurais Artificiais História das Redes Neurais Artificiais
1960 Widrow & Hoff introduzem a Adaline, uma rede simples 1964 Taylor constrói o primeiro circuito neural (winner-take-
treinada através de gradiente descendente all) vencedor-leva-tudo com inibições entre as unidades
de saída
1961 Rosenblatt propõe um esquema para o treinamento de
redes com múltiplas camadas, mas seu algoritmo é 1969 Minsky & Papert mostram que Perceptrons não são
fraco, pois não considera nodos com funções não- computacionalmente universais; o interesse na
diferenciáveis pesquisa em redes neurais artificiais diminui
1962 Hubel & Wiesel descobrem propriedades do córtex 1982 Hopfield desenvolve sua rede auto-associativa
visual motivados por estudos com redes neurais auto-
organizáveis 1983 Kohonen propõe mapas auto-organizáveis
1963 Novikoff prova o Teorema de Convergência do 1985 Ackley, Hinton & Sejnowski desenvolvem uma rede
Perceptron estocástica chamada máquina de Boltzmann
21 22
21 22
23
23 24
6
Processo de aprendizagem Aprendizado de Máquina
25 26
27 28
7
Aprendizagem baseada em memória Aprendizagem Hebiana
As experiências são armazenadas em uma grande memória de exemplos
de entrada-saída classificados corretamente: O postulado de aprendizado de Hebb é a mais antiga e mais
{(xi,di)} i = 1...n, famosa de todas as regras de aprendizagem, e é baseado no texto
a seguir, contido no livro de Hebb (1949), The Organization of
onde xi representa um vetor de entrada e di representa a resposta Behavior:
desejada correspondente.
– O peso de uma conexão sináptica deve ser ajustado se houver
sincronismo entre as atividades: do neurônio pré-sináptico e
Em um problema de classificação de padrões binários, por exemplo, há do neurônio pós-sináptico.
duas classes a serem consideradas, C1 e C2, e a resposta desejada di
assume valor 0 para a classe C1 e valor 1 para a classe C2. – Em termos matemáticos
Na classificação de um vetor de teste, o algoritmo busca os dados de
treinamento em uma vizinhança local deste vetor. ∆wij (t ) = ηyi (t ) x j (t )
Todos os algoritmos de aprendizagem baseada em memória envolvem dois
aspectos essenciais: que significa que a mudança do peso sináptico ∆wij(t) é
– o critério utilizado para definir a vizinhança local do vetor de teste, e proporcional ao valor do neurônio pós-sináptico yi(t) e ao valor
do neurônio pré-sinático xj(t) multiplicado pelo fator de
– a regra de aprendizagem aplicada aos exemplos de treinamento na aprendizado η .
vizinhança local do vetor de teste.
29 30
http://www.dee.ufc.br/~arthurp http://www.dee.ufc.br/~arthurp
31 32
8
Supervisionado Não-supervisionado
Também conhecida com aprendizagem com professor, consiste Neste caso não há um professor para supervisionar o processo de
em que o professor tenha o conhecimento do ambiente, e fornece aprendizagem. Isso significa que não há exemplos rotulados da
o conjunto de exemplos de entrada-resposta desejada. função a ser aprendida pela rede.
Com esse conjunto, o treinamento é feito usando a regra de Nesse modelo, também conhecido como auto-organizado, são
aprendizagem por correção de erro. dadas condições para realizar uma medida da representação que a
rede deve aprender, e os parâmetros livres da rede são otimizados
em relação a essa medida.
Para a realização da aprendizagem não-supervisionada pode-se
utilizar a regra de aprendizagem competitiva.
33 34
35 36
9
37 38
39 40
10
Leitura recomendada Bibiografia básica
41 42
Fontes
43
11