Você está na página 1de 6

Prática e Desafios dentro do Contexto

de Redes Neurais

C lassificadores de Aprendizado de Máquina

A classificação é o processo de prever a classe de dados dados.


As classes às vezes são chamadas de alvos / rótulos ou
categorias. A modelagem preditiva de classificação é a tarefa de
aproximar uma função de mapeamento (f) de variáveis ​de entrada (X)
para variáveis ​de saída discretas (y).

Por exemplo, a detecção de spam em provedores de serviços de e-mail


pode ser identificada como um problema de classificação. Esta é a
classificação binária, uma vez que existem apenas 2 classes como spam
e não spam. Um classificador utiliza alguns dados de treinamento para
entender como determinadas variáveis ​de entrada se relacionam com a
classe. Nesse caso, os e-mails de spam e não spam conhecidos devem
ser usados ​como dados de treinamento. Quando o classificador é treinado
com precisão, ele pode ser usado para detectar um e-mail desconhecido.

A classificação pertence à categoria de aprendizagem supervisionada


onde os alvos também fornecem os dados de entrada. Existem muitas
aplicações de classificação em muitos domínios, como aprovação de
crédito, diagnóstico médico, marketing direcionado, etc.

1
A arquitetura apropriada depende da aplicação do modelo. Para a maioria
dos casos, os modelos de feedforward fornecem resultados
razoavelmente precisos e, especialmente para aplicativos de
processamento de imagem, as redes convolucionais têm um
desempenho melhor.

Pode haver várias camadas ocultas no modelo, dependendo da


complexidade da função que será mapeada pelo modelo. Ter mais
camadas ocultas permitirá modelar relacionamentos complexos, como
redes neurais profundas.

No entanto, quando há muitas camadas ocultas, leva muito tempo para


treinar e ajustar seus pesos. As redes neurais artificiais desenvolvem um
desempenho impressionante na maioria das aplicações do mundo real.
Possui alta tolerância a dados ruidosos e é capaz de classificar padrões
não treinados. Normalmente, as redes neurais artificiais têm melhor
desempenho com entradas e saídas de valor contínuo.

Método de Holdout

Método de Holdout é um tipo de método de validação. Ou seja, o conjunto


de dados fornecidos é dividido em 2 partições para testar e treinar 20% e
80%, respectivamente. O conjunto de treinamento será usado para treinar
o modelo e os dados de teste invisíveis serão usados ​para testar seu
poder preditivo.

Análise de Regressão
A análise de regressão consiste em um conjunto de métodos de
aprendizado de máquina que nos permitem prever uma variável de
resultado contínua (y) com base no valor de uma ou várias variáveis ​
preditoras (x).

Resumidamente, o objetivo do modelo de regressão é construir uma


equação matemática que defina y como uma função das variáveis ​x. Em
seguida, esta equação pode ser usada para prever o resultado (y) com
base em novos valores das variáveis ​preditoras (x).

A regressão linear é a técnica mais simples e popular para prever uma


variável contínua. Ele assume uma relação linear entre o resultado e as
variáveis ​preditoras.

Tecnicamente, os coeficientes de regressão linear são determinados de


forma que o erro na previsão do valor de resultado seja minimizado. Este
método de calcular os coeficientes beta é chamado de método dos
mínimos quadrados ordinários.

Observe também que os modelos de regressão linear podem incorporar


variáveis ​preditoras contínuas e categóricas .

Ao construir o modelo de regressão linear, você precisa diagnosticar se o


modelo linear é adequado para seus dados.

Em alguns casos, a relação entre o resultado e as variáveis ​preditoras não


é linear. Nessas situações, você precisa construir uma regressão não
linear, como regressão polinomial ou spline (da qual não trataremos neste
curso).
Quando você tem vários preditores no modelo de regressão, pode desejar
selecionar a melhor combinação de variáveis ​de previsão para construir
um modelo preditivo ideal. Este processo denominado seleção de modelo,
consiste em comparar vários modelos contendo diferentes conjuntos de
preditores, a fim de selecionar o modelo de melhor desempenho que
minimiza o erro de predição. As abordagens de seleção de modelo linear
incluem melhores subconjuntos de regressão.

Em algumas situações, como em campos genômicos, você pode ter um


grande conjunto de dados multivariados contendo alguns preditores
correlacionados. Nesse caso, as informações, no conjunto de dados
original, podem ser resumidas em algumas novas variáveis ​(chamadas de
componentes principais) que são uma combinação linear das variáveis ​
originais. Esses poucos componentes principais podem ser usados ​para
construir um modelo linear, que pode ter mais desempenho para seus
dados. Esta abordagem é conhecida como métodos baseados em
componentes principais, que incluem: regressão de componentes
principais e regressão de mínimos quadrados parciais .

Um método alternativo para simplificar um modelo multivariado grande é


usar a regressão penalizada, que penaliza o modelo por ter muitas
variáveis. A regressão penalizada mais conhecida inclui a regressão do
cume e a regressão do laço .

Você pode aplicar todos esses modelos de regressão diferentes em seus


dados, comparar os modelos e, finalmente, selecionar a melhor
abordagem que explica bem seus dados. Para fazer isso, você precisa de
algumas métricas estatísticas para comparar o desempenho dos
diferentes modelos na explicação de seus dados e na previsão do
resultado de novos dados de teste.
O melhor modelo é definido como o modelo que apresenta o menor erro
de predição. As métricas mais populares para comparar modelos de
regressão incluem:

Root Mean Squared Error, que mede o erro de predição do modelo.


Corresponde à diferença média entre os valores conhecidos observados
do resultado e o valor previsto pelo modelo.

1
RMSE é calculado como RMSE = ∑(observadoi − predito)2.
​ ​ ​ ​

N i=1
Quanto menor o RMSE, melhor é o modelo.

Atividade Extra

Treine sua rede neural usando o TensorFlow.

https://www.tensorflow.org/tutorials/keras/classification?hl=pt-br
(classificação básica)

Referência Bibliográfica

HAYKIN, S. "Neural Networks. A Comprehensive Foundation". 2 ed.


New Jersey: Prentice Hall, 2001.
LEK, S.; PARK, Y.P. “Artificial Neural Network”. Springer. 2008.

GOODFELLOW, I. “Deep Learning”. The Mit Press. 2016.

Ir para questão

Você também pode gostar