Você está na página 1de 2

Utilize o TensorFlow Playground: http://playground.tensorflow.

org , em grupos de até 4


alunos (todos devem submeter a atividade), use este simulador de redes neurais para
avaliar diferentes MLPs com entradas X1 e X2

Caso 1) Simule uma perceptron (sem camadas ocultas) nas tarefas de “ou exclusivo” e
“gaussiana” para a tarefa de classificação. Descreva os resultados obtidos em função da
resolução dos problemas.

Resposta: Um perceptron, sem camadas ocultas, enfrentou desafios diferentes ao


lidar com as tarefas de "ou exclusivo" (XOR) e "gaussiana" para classificação. No caso do
XOR, o perceptron falha porque não consegue separar linearmente as classes. Isso resulta
em uma classificação aleatória. Por outro lado, no problema com distribuição gaussiana, as
classes são linearmente separáveis, então o perceptron fornece resultados satisfatórios.
Contudo, se houver sobreposição entre as classes ou se elas não forem linearmente
separáveis, o perceptron também falhará em produzir resultados precisos. Ou seja, o
perceptron é adequado para problemas simples de classificação com classes linearmente
separáveis, mas não pode lidar com problemas mais complexos, como o XOR ou
distribuições não linearmente separáveis. Para tais problemas, arquiteturas mais
complexas, como redes neurais multicamadas, são necessárias para obter resultados
precisos e eficazes.

Caso 2) Inclua uma camada oculta com 6 neurônios e verifique os resultados do problema
“ou exclusivo” em diferentes funções de ativação. Houve alguma função de ativação que
não possível resolver o problema, mesmo com a camada oculta? Porque?

Resposta: Para as funções ReLU, Tanh, e Sigmoide foi possível realizar a


classificação. No entanto, a função de ativação linear não introduziu nenhuma não
linearidade na saída do perceptron, tornando-o incapaz de aprender a relação complexa
entre os pontos de dados. Como resultado, o perceptron não foi capaz de classificar
corretamente os dados do XOR, levando a baixa precisão ou classificações aleatórias.

Caso 3) Avalie uma tarefa de classificação, usando dados com distribuição gaussiana e
com 30% dos dados para teste.

Como é possível melhorar o aprendizado para padrões mais complexos?


Resposta: Para lidar com padrões mais complexos, um dos métodos mais eficazes é
o uso de redes neurais com múltiplas camadas ocultas. A adição de camadas ocultas
permite que o modelo aprenda representações mais abstratas e complexas dos dados,
capturando relações não lineares que seriam difíceis de aprender em uma arquitetura mais
simples. Ao aumentar o número de camadas ocultas, a rede neural pode aprender
hierarquicamente características mais complexas dos dados, o que pode levar a uma
melhor capacidade de generalização e desempenho em tarefas mais desafiadoras.

Quais camadas aprendem padrões mais complexos: lower layers ou upper layer?
Resposta: Em uma rede neural, geralmente as camadas inferiores (ou "lower
layers") aprendem padrões mais simples e específicos, enquanto as camadas superiores
(ou "upper layers") aprendem padrões mais abstratos e complexos. As camadas inferiores
são responsáveis por detectar características básicas e de baixo nível nos dados de
entrada, como bordas, texturas e gradientes de cor em uma imagem, por exemplo. À
medida que os dados passam pelas camadas inferiores e são processados, características
mais abstratas e complexas são formadas, e essas são capturadas pelas camadas
superiores da rede.

Caso 4) Defina uma rede com dados do tipo círculo e uma camada interna com dois
neurônios. Rode até 30 epochs. Avalia os erros de teste e treino. Execute novamente a
rede, mas com três camadas ocultas e quatro neurônio em cada. Registre suas conclusões.
Resposta: É possível notar que problemas não linearmente separáveis uma
quantidade 3 de camadas ocultas melhora significativamente o resultado e percebemos que
o erro do treino sempre é menor que o do teste nesse cenário. Já para uma camada não foi
possível realizar a classificação, mas o erro não é tão alto quanto imaginado.

Caso 5) Utilize o tipo de dado em espiral e rode uma rede com três camadas ocultas e
quatro neurônio em cada. Após 100 epochs o que é possível observar?
Resposta: Após 100 épocas nessa arquitetura, não foi possível verificar avanços na
classificação, no entanto ao usar features temos uma taxa de 80% de acerto
aproximadamente.

Caso 6) Utilize o tipo de dado em espiral e rode com apenas uma camada oculta
considerando 3 neurônios e 8 neurônios. O que é possível observar em relação ao Caso 5?
Resposta: É possível observar algo semelhante ao usar features, sem usar as
features a rede não consegue aprender muitas características.

Você também pode gostar