Escolar Documentos
Profissional Documentos
Cultura Documentos
2. ¿Para que sirven los pesos en las señales de entrada de una neurona
artificial?
Los pesos son realmente la forma de aprender que tendrá la neurona. Estos pesos
se irán modificando de cierta manera para ir adaptando el valor de la salida de tal
forma que se minimice su error con respecto al resultado real que debería sacar
la neurona artificial.
W1 * x1 + W2 * x2 + … + Wn * Xn
Otras: Además de las funciones antes descritas se utilizan otras como la función
rampa, lineal identidad o semilineal.
1
Carlos Rodríguez Domínguez 2º B Ingeniería Informática
introducirán los datos a la red. En ésta capa habrá tantas neuronas como entradas
necesite la red. La capa oculta puede ser única o haber varias capas ocultas,
según el problema y el diseño de la red que se haga. Ésta capa será la encargada
de realizar el paso o pasos intermedios entre la capa de entrada y la capa de
salida. La capa de salida será la encargada de sacar los resultados obtenidos al
exterior. El número de neuronas de ésta capa vendrá definido por el problema en
sí que estemos resolviendo.
Fase de aprendizaje: En ésta fase tenemos una red que inicialmente es genérica
y mediante una serie de ejemplos iremos adaptando los pesos de los arcos de tal
manera que produzca las salidas que nosotros deseemos. Conviene que el
conjunto de ejemplos sea lo suficientemente amplio como para que abarquemos
todos los posibles rangos de valores de entrada. En ésta fase hay que tener un
especial cuidado con no extenderla demasiado, puesto que se puede producir un
fenómeno llamado sobreentrenamiento, es decir, que la red neuronal se adapte
tan perfectamente al conjunto de datos de ejemplo que no produzca resultados
aceptables con datos que no pertenezcan a éste conjunto.
1 si W1 * x1 + W2 * x2 < Ө
F(x) =
-1 si W1 * x1 + W2 * x2 > Ө
2
Carlos Rodríguez Domínguez 2º B Ingeniería Informática
Wi = Wi + error * xi
Wi = Wi + α * error * xi
Siendo α una constante cualquiera, con un valor pequeño pero mayor que cero,
que nos permitirá realizar el avance en el descenso en gradiente.
9. ¿Porqué son necesarias las redes neuronales con más de una capa?
Las redes monocapa son tan solo útiles cuando el problema que deseamos
solucionar es linealmente separable, es decir, cuando con una sola recta podemos
separar valores de un tipo y valores de otro (negativos y positivos, falsos y
verdaderos, etc.), pero esto ocasiona un gran inconveniente, puesto que la gran
mayoría de los problemas que existen en la práctica no son linealmente
separables. Por poner un ejemplo de uno muy sencillo, aprender la función
lógica XOR mediante una red con una sola capa es imposible. Si lo vemos
gráficamente:
Podemos comprobar que es imposible con una única recta separar los ceros de
los unos, por tanto es necesaria una red neuronal multicapa.
3
Carlos Rodríguez Domínguez 2º B Ingeniería Informática
- El número de unidades ocultas tiene un efecto positivo, pero tan sólo hasta
cierto punto, puesto que, aunque siempre se minimizará más el error en el
conjunto de entrenamiento, puede ser que un número muy alto de unidades
ocultas ocasione un aumento del error en el conjunto de test. Para hallar el
número exacto de unidades ocultas podemos recurrir a métodos empíricos
que nos generen gráficas como éstas:
4
Carlos Rodríguez Domínguez 2º B Ingeniería Informática