Você está na página 1de 4

Función de activación

Estructura neuronal

Una neurona artificial se compone de un sumador y una función de activación. Las señales de
entrada (representadas por x en la figura) se multiplican por cada peso W. Luego, la suma y1 se
aplica a la función de activación f (y1) para producir la salida z1.

Función de activación

La función de activación debe ser un sigmoide (tiene forma de S), real, continua, limitada y tiene
un derivado positivo. Dos de las funciones de activación más populares (para redes neuronales
multicapa) son la tangente hiperbólica (z = tanh (y)) y la función logística (z = logsig (y)). La ANN
que se muestra a continuación tiene tres entradas y una salida.
Parcialidad

Cada neurona tiene una entrada fija llamada Bias que siempre tiene un valor de uno. El sesgo
permite que la neurona aumente su flexibilidad de aprendizaje cambiando el valor de y según se
requiera para las condiciones específicas del problema.
Problema 5

Indique las principales similitudes y diferencias entre las funciones: logsig y tanh.

Problema 6

Indique si la siguiente afirmación es verdadera o falsa. Cuando las neuronas de una ANN utilizan la
función logsig, los valores de salida de la red no pueden exceder un valor de uno, sin importar qué
entrada se aplique a la red. Es imposible alcanzar un valor fuera del rango [0 1] en la salida de la
ANN. Si el rango requerido es mayor que de cero a uno, entonces la señal de salida debe escalarse
adecuadamente.

Problema 7

Indique si la siguiente afirmación es verdadera o falsa. Cuando las neuronas de una ANN operan
utilizando la función tanh, es muy importante tener en cuenta que la señal de salida está limitada
al rango de -1 a 1. La función tanh tiene una forma muy similar a la forma de la función logsig. Sin
embargo, el rango inferior para la función logsig es cero en comparación con el rango inferior del
tanh que es -1.

Propina

Siempre escale la salida de una ANN usando la función logsig para usar eficientemente el rango de
salida (0 a 1). Esto significa que si hay algunos valores grandes ocasionales que obligarán a la
escala a atenuar severamente la señal de salida, estos valores deben recortarse antes de escalar.

Propina

En algunas aplicaciones, es muy importante calcular rápidamente la función de activación de una


neurona artificial. Esto se puede lograr: Construyendo una tabla de búsqueda con los valores de la
función de activación para un conjunto de valores distribuidos uniformemente Construyendo una
tabla de búsqueda con los valores de la función de activación derivada de un conjunto de valores
distribuidos uniformemente Haciendo uso de las propiedades de la función de activación. Por
ejemplo, si el valor de entrada es mayor que 5, la función de activación es una. Si el valor de
entrada es menor que -5, la función de activación es 0 para el logsig (y) y -1 para el tanh (y).

Você também pode gostar