Você está na página 1de 1

- Vi 3 camadas na rede neural: camada de entrada (com 2 neuronios), camada

escondida (com 3 neuronios) e camada de saída.


- Nos neuronios da camada de entrada possuimos os valores de entradas e seus pesos
para a camada de saída ou camada escondida.
- Após o calculo de somatório dos valores de entrada e seus pesos, podemos aplicar
estes somatórios em funções de ativação (stepFuncion, sigmoidFunction,
tahnFunction, reluFunction, linearFunction, softmaxFunction)
- A stepFunction se o valor do somatório for >= 1, então a saída terá 1, se não,
será 0.
- Os pesos são definidos aleatóriamente e são recalculados até que o resultado de
saída atinja uma porcentagem aceitavel em relação aos dados esperados (resultados
de classificações ja presentes nas bases de dados de acordo com a logica dos
dados.)
- A stepFunction só serve para coisas basicas e binarias (onde tem apenas 2 saídas
aceitaveis), para outros tipos de problemas devemos usar outras funções mencionadas
acima, mas todas usam o somatorio das entradas e pesos para seus calculos.
- Com o resultado das funções de ativação, devemos fazer o calculo de erro onde
este valida os dados esperados menos os dados de saída. MAE (mean absolute error),
MSE (mean square error).
- Após identificar os resultados de erros, devemos fazer o caminho inverso
aplicando a descido do gradiente com seu calculo de derivada para encontrar os
valores delta (saida e entrada).
- Com os dados de erro através das saídas da sigmoidFunction, devemos aplicar a
derivadaSigmoide (escondida para saída) para identificar o delta de saída.
- Depois de calcular tudo em relação ao erro, devemos calcular os novos pesos entre
a camada escondida e camada de saída.
- Com os dados da derivadaSigmoide (entrada para escondida), peso (escondida para
saída) e delta de saída. Podemos encontrar o deltaEscondida, que será utilizado
para recalcular os pesos (entrada para escondida).
- Para calcular estes pesos entre camadas, devemos aplicar o calculo de pesos, que
é somando todas as entradas multiplicadas por seus deltas. Incluindo momento e taxa
de aprendizagem.

Você também pode gostar