Você está na página 1de 13

Aprendizagem de Máquina

Alessandro L. Koerich

Programa de Pós-Graduação em Informática


Pontifícia Universidade Católica do Paraná (PUCPR)
Horários

•  Aulas
–  Sala [quinta-feira, 7:30–12:00]
•  Atendimento
–  Segunda a sexta pela manhã.
–  Recomenda–se marcar um horário com antecedência.
•  Contato
–  alekoe@ppgia.pucpr.br
–  3271–1669
Apresentação da Disciplina

•  Aprendizagem de Máquina
–  Sendo uma área de sistemas inteligentes,
aprendizagem de máquina (ou machine learning) trata
do desenvolvimento de algoritmos e técnicas que
permitem computadores “aprender”.
Apresentação da Disciplina

•  Os métodos de aprendizagem de máquina tem


sido empregados em problemas como:
•  Processamento de • Reconhecimento de voz e
linguagem natural escritura
•  Ferramentas de • Reconhecimento de
busca objetos em visão
•  Diagnóstico médico computacional
•  Bioinformática • Jogos de entretenimento
•  Detecção de fraudes • Mineração de dados em
em transações grandes bases de dados.
financeiras • Sistemas biométricos
•  Análise do mercado
de ações
•  Previsões financeiras
•  Classificação de
sequências de DNA
Apresentação da Disciplina

•  O objetivo desta disciplina é:

“Estudar os principais paradigmas para a


aprendizagem de máquina, incluindo os aspectos
teóricos e práticos de uma variedade de algoritmos
e técnicas”
Programa da Disciplina

1. Introdução a Aprendizagem de 1. Extração de


Máquina Características
2. Extração de Características 2. J4.8
3. Árvores de Decisão 3. Naïve Bayes

4. Aprendizagem Bayesiana 4. k-NN

5. Baseada em Instâncias 5. SVM

6. Redes Neurais Artificiais 6. MLP

7. Máquinas de Vetor de Suporte 7. Combinação & Rejeição


Prática
8. Combinação de Classificadores e
Rejeição

Teórica
Programa

•  Introdução: Por que a Aprendizagem Computacional é


Difícil? Problemas de Aprendizagem. Projetando um
Sistema de Aprendizagem de Máquina. Exemplos. Tipos
de Aprendizagem. Aplicações. Estudo de Casos.

•  Extração de Características: Importância. Redução de


Dimensionalidade. Características Discriminantes.
Geração de Características Usando Transformadas
Lineares. Características para a Análise de Imagens.
Seleção de Características.
Programa

•  Árvores de Decisão: Representação de Árvores de


Decisão. Algoritmo ID3. Entropia e Ganho de
Informação. Algoritmo C4.5. Exemplos.

•  Aprendizagem Baseadas em Instâncias: Espaço


Euclidiano. Aprendizagem Baseada em Instâncias.
Regra k-NN (k vizinhos mais próximos). Exemplos.
Estudo de Caso.

•  Aprendizagem Bayesiana: Teorema de Bayes.


Classificador Ótimo de Bayes. Algoritmo Naïve Bayes.
Exemplos.
Programa

•  Redes Neurais Artificiais: Motivação Biológica.


Perceptron. Superfície de Decisão. Descida do
Gradiente. Redes Multicamadas (Multilayer).
Retropropagação (Backpropagation). Generalização e
Sobreajuste. Exemplos.

•  Máquinas de Vetor de Suporte: Classificação com


máxima margem. Kernels e otimização.

•  Combinação e Rejeição: Regras para combinação de


classificadores. Critérios para rejeição.
Bibliografia

•  T. M. Mitchell. Machine Learning. McGraw–Hill


Science/Engineering/Math, 432 pages,1997.

•  R. O. Duda, P E. Hart, D. G. Stork. Pattern


Classification. Wiley Interscience, 2001.

•  S. Theodoridis, K. Koutroumbas. Pattern


Recognition. Academic Press. 625 páginas,
ISBN 0126861404.
Bibliografia Complementar

•  Periódicos:
–  IEEE Transactions on Neural Networks
–  IEEE Transactions on PAMI
–  Pattern Recognition
–  Pattern Recognition Letters

•  Conferências:
–  ICPR: International Conference on Pattern Recognition
–  CVPR: International Conference on Computer Vision and Pattern
Recognition
–  NIPS: Neural Information Processing Systems
–  ICML: International Conference on Machine Learning

•  Livros:
–  Bishop, C. Neural Networks for Pattern Recognition, 1995.
–  Vapnik, V. The Nature of Statistical Learning Theory, 1995.
Avaliação

•  Dois trabalhos práticos:


–  Trabalho 1: Extração de Características
–  Trabalho 2: Classificação

–  Nota Final: (Trabalho 1 + Trabalho 2) / 2

–  Conceitos:
•  A: 9,0-10
•  B: 8,0-8,9
•  C: 7,0-7,9
•  D: < 7,0
Requisitos

•  Em todas as aulas:
–  Notebook com Windows e Visual C++ Express 2010.
–  Outros sistemas e IDE são aceitas, sob conta e risco
dos alunos.

•  Softwares que serão usados


–  Microsoft Visual C++ Express 2010
–  Biblioteca OpenCV
–  Simulador Weka
–  Simulador JavaNNS ou SNNS

Você também pode gostar