Escolar Documentos
Profissional Documentos
Cultura Documentos
Aula 4 - O Neuronio Artificial
Aula 4 - O Neuronio Artificial
𝑦𝑘 = 𝑔 𝑢𝑘 = 𝑔 𝑤𝑘𝑚 𝑥𝑚 + 𝑏𝑘
𝑚=1
g(u)=u
Função ReLU
• Possui relações com a restrição de não-negatividade presente em
regularização como em restauração de imagens utilizando projeções
em subespaços;
• Seu gradiente terá sempre uma direção não-nula, enquanto no caso
das sigmoidais, para valores longe da origem podemos ter gradiente
nulo;
• Modelo muito utilizado em Deep Learning.
f(y)=max(0,y)
Função PReLU
• A ReLU paramétrica (PReLU) é uma variação que permite valores negativos com
menor ponderação, parametrizado por uma variável 0 ≤ a ≤ 1;
• Uma das possíveis vantagens da PReLU é a possibilidade de aprender a durante a
fase de treinamento;
• No caso particular em que temos um valor fixo a = 0.01, temos a função
conhecida por Leaky ReLU;
f(x)=max(ax,x)
Gráfico comparativo
Algumas derivadas
Derivada – Função Logística (sigmóide)
Derivada – Função Tangente Hiperbólica