O documento descreve as camadas e cálculos de uma rede neural artificial, incluindo a camada de entrada, camada escondida e camada de saída, com os valores de entrada e pesos associados. Ele explica o cálculo da saída usando funções de ativação e o processo de retropropagação para recalcular os pesos com base no erro, melhorando continuamente o modelo.
O documento descreve as camadas e cálculos de uma rede neural artificial, incluindo a camada de entrada, camada escondida e camada de saída, com os valores de entrada e pesos associados. Ele explica o cálculo da saída usando funções de ativação e o processo de retropropagação para recalcular os pesos com base no erro, melhorando continuamente o modelo.
O documento descreve as camadas e cálculos de uma rede neural artificial, incluindo a camada de entrada, camada escondida e camada de saída, com os valores de entrada e pesos associados. Ele explica o cálculo da saída usando funções de ativação e o processo de retropropagação para recalcular os pesos com base no erro, melhorando continuamente o modelo.
- Vi 3 camadas na rede neural: camada de entrada (com 2 neuronios), camada
escondida (com 3 neuronios) e camada de saída.
- Nos neuronios da camada de entrada possuimos os valores de entradas e seus pesos para a camada de saída ou camada escondida. - Após o calculo de somatório dos valores de entrada e seus pesos, podemos aplicar estes somatórios em funções de ativação (stepFuncion, sigmoidFunction, tahnFunction, reluFunction, linearFunction, softmaxFunction) - A stepFunction se o valor do somatório for >= 1, então a saída terá 1, se não, será 0. - Os pesos são definidos aleatóriamente e são recalculados até que o resultado de saída atinja uma porcentagem aceitavel em relação aos dados esperados (resultados de classificações ja presentes nas bases de dados de acordo com a logica dos dados.) - A stepFunction só serve para coisas basicas e binarias (onde tem apenas 2 saídas aceitaveis), para outros tipos de problemas devemos usar outras funções mencionadas acima, mas todas usam o somatorio das entradas e pesos para seus calculos. - Com o resultado das funções de ativação, devemos fazer o calculo de erro onde este valida os dados esperados menos os dados de saída. MAE (mean absolute error), MSE (mean square error). - Após identificar os resultados de erros, devemos fazer o caminho inverso aplicando a descido do gradiente com seu calculo de derivada para encontrar os valores delta (saida e entrada). - Com os dados de erro através das saídas da sigmoidFunction, devemos aplicar a derivadaSigmoide (escondida para saída) para identificar o delta de saída. - Depois de calcular tudo em relação ao erro, devemos calcular os novos pesos entre a camada escondida e camada de saída. - Com os dados da derivadaSigmoide (entrada para escondida), peso (escondida para saída) e delta de saída. Podemos encontrar o deltaEscondida, que será utilizado para recalcular os pesos (entrada para escondida). - Para calcular estes pesos entre camadas, devemos aplicar o calculo de pesos, que é somando todas as entradas multiplicadas por seus deltas. Incluindo momento e taxa de aprendizagem.