Escolar Documentos
Profissional Documentos
Cultura Documentos
Implementação de Classificadores para Classificação de Pacientes Com Leucemia - Luiz Eduardo Ferreira Barbosa
Implementação de Classificadores para Classificação de Pacientes Com Leucemia - Luiz Eduardo Ferreira Barbosa
IMPLEMENTAÇÃO DE CLASSIFICADORES
PARA CLASSIFICAÇÃO DE PACIENTES COM
LEUCEMIA
Belo Horizonte
2010
Luiz Eduardo Ferreira Barbosa
IMPLEMENTAÇÃO DE CLASSIFICADORES
PARA CLASSIFICAÇÃO DE PACIENTES COM
LEUCEMIA
Universidade Federal de Minas Gerais
Belo Horizonte
2010
LISTA DE ILUSTRAÇÕES
SUMÁRIO
1 INTRODUÇÃO............................................................................................................................................ 6
2 DESENVOLVIMENTO.................................................................................................................................. 6
2.1 KNN..............................................................................................................................................7
2.2 PERCEPTRON SIMPLES...............................................................................................................8
2.2 MLP (MULTILAYER PERCEPTRON)...........................................................................................10
3 DESENVOLVIMENTO................................................................................................................................ 10
5 CONCLUSÃO............................................................................................................................................ 23
REFERÊNCIAS.............................................................................................................................................. 25
5
1 INTRODUÇÃO
engenharia são alguns exemplos de onde a aplicação das redes neurais tem
pensamento humano são alguns dos fatores que posicionam as redes neurais
classes.
com o intuito classificar pacientes com leucemia por meio de sua composição
MLP (Multilayer Perceptron). Dentre eles somente os dois últimos podem ser
2 DESENVOLVIMENTO
2.1 KNN
químicos e biológicos, onde seus bons resultados são uma característica assim
como sua fácil implementação. Além disso, o método KNN pode ser utilizado
relação aos dados armazenados. Logo, para um ponto k qualquer, onde dentre
primeira, Distance Weighted KNN, atribui pesos durante a escolha das classes
utiliza apenas os pontos escolhidos para determinar a classe dos pontos que lhe
recebem impulsos elétricos por meio de seus axônios e, a partir daí, por meio de
8
uma lógica interna que leva em consideração a intensidade dos sinais e suas
u wi xi wx
(1)
9
A função f(z) pode ser do tipo “se u > Ө, então y = 1, caso contrário y = 0”.
1
x2 x1
2 2 . (2)
da reta e em quanto deve ser ajustada para que o erro de classificação seja o
recebem impulsos elétricos por meio de seus axônios e, a partir daí, por meio de
uma lógica interna que leva em consideração a intensidade dos sinais e suas
3 DESENVOLVIMENTO
Ao todo este estudo avaliou 72 amostras, cada uma contendo 7129 genes
AML.
Dessa massa de dados, 80% foi utilizada para treinamento e 20% para
validação.
meio de testes iniciais, que trabalhar com todos os genes disponíveis na base de
que nos garante sua influência ou relevância sobre todo o conjunto genético e
3.3.1 KNN
contadas.
12
uma faixa de valores de k. O valor mais baixo dentre aqueles com menor erro foi
escolhido.
2) Repetir
o calcular yi
retorna os pesos da rede. Esses pesos são utilizados pelo perceptron na massa de
Perceptron, foi utilizado o toolbox de redes neurais nativo do software Matlab que
4 RESULTADOS OBTIDOS
próximos do aleatório (50% de acerto para 2 classes), como pode ser verificado
na Figura 2 e na Figura 3.
14
A B
Figura 2 – (A) Resultado do classificador KNN para k=1. (B) Resultado do classificador
KNN para k=2 (k ótimo). (C) Variação do erro do classificador KNN.
15
A B
erro é bem aleatório, e não diminui com o número de genes, o que significa que
O próximo passo então foi utilizar uma rede multicamadas (MLP), pois a
genes, sendo este valor escolhido como valor ótimo, do que com 50 genes, valor
limite para o número de épocas foi sempre 300. Os erros obtidos foram
razoáveis, mas bem melhores do que aqueles obtidos com o KNN e Perceptron
Também foram realizados testes com 3 camadas, mas não foi possível perceber
resultado > 0.5, então classe 1, senão classe 0 para definição da resposta do
classificador.
17
A B
A B
A B
A B
A B
A B
variação com múltiplas camadas podem ser considerados uma rede neural devido à
efetua comparações. Ainda com relação ao KNN, pode-se perceber que o erro
Quando uma superfície é muito não-linear, o classificador KNN acaba perdendo sua
dados, ao contrário de se aproximar dos dados. Tal análise justifica o grande erro
Dentre os métodos utilizados, a rede MLP teve o melhor desempenho por ser
5 CONCLUSÃO
classificação.
REFERÊNCIAS
Nigsch, F., Bender, A., van Buuren, B., Tissen, J., Nigsch, E., Mitchell, J. B. O.
Melting Point Prediction Employing k-Nearest Neighbor Algorithms and Genetic
Parameter Optimization. J. Chem. Inf. Model. 2006, 46, 2412-2422