Você está na página 1de 14

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

Nuevas Estrategias para el entrenamiento de Redes Neuronales que propagan Nmeros Difusos
Edwin Villarreal Lpez1, Oscar Duarte2, Daniel Alejandro Arango3 1Universidad Nacional de Colombia 2Universidad Manuela Beltrn edvillal@gmail.com

Resumen
Se presenta la arquitectura bsica de una red neuronal feedfordward con la capacidad de propagar nmeros difusos. Se exponen brevemente las principales tendencias en el entrenamiento de este tipo de sistemas y con base en ellas se proponen nuevas estrategias. La primera de ellas se basa en la retropropagacin del error cuadrtico medio en todos los cortes para pesos crisp. La segunda hace uso de un algoritmo gentico con codificacin real para redes con pesos crisp. La tercera consiste en la retropropagacin del error en el valor promedio y la ambigedad en todos los -cortes para pesos difusos, y por ltimo se tiene una basada en la retropropagacin de una medida difusa del error para redes con pesos difusos. Luego se describen algunos experimentos realizados permitiendo identificar para qu conjuntos de datos particulares resulta til cada una de las estrategias. Palabras clave: red neuronal, algoritmos, retropropagacin

Abstract
A novel architecture of a feedfordward neural network for fuzzy numbers is presented. We shortly analyze the main trends in the training of this kind of systems and from that point, we propose new strategies. The first of them is based on the backpropagation of the mean square error in all the -cuts for crisp weights. The second strategy uses a real codification genetic algorithm for crisp weights networks. The third is based in the backpropagation of the mean error value and the ambiguity of all the -cuts for fuzzy weights, and the last one uses the backpropagation of a fuzzy error measure for a fuzzy weighted network. A comparison analysis is then presented and some conclusions are given. Keywords: neural network algorithms, backpropagation.

1. Introduccin
La mayor parte de los sistemas para el manejo y tratamiento de la informacin que existen en la actualidad se basan en una arquitectura de procesamiento digital, esquema que, aunque ha demostrado ser de gran utilidad, se encuentra limitado por su incapacidad de representar de manera eficaz la informacin procedente del mundo real en una forma legible para las mquinas, informacin que, por lo general, se encuentra contaminada con imprecisiones y distorsiones. La lgica difusa y, en general, la teora de los conjuntos difusos (Zadeh, 1975) es un rea de la inteligencia artificial que se ha enfocado en desarrollar herramientas que permitan representar y realizar operaciones con cantidades inexactas e imprecisas. Uno de los principales conceptos manejados dentro de esta teora es el nmero difuso que facilita la tarea de modelar la imprecisin del mundo real, lo que permite a los sistemas operar a partir de mediciones y percepciones no muy exactas del medio. Con el objetivo de aprovechar esta cualidad y combinarla con las ventajas de otros tipos de sistemas de informacin, se han desarrollado mltiples tcnicas hbridas, y entre stas se destacan las
1

III CONGRESO INTERNACIONAL


redes neuronales difusas.

DE

COMPUTACIN

TELECOMUNICACIONES

Una red neuronal difusa de este tipo puede verse como la generalizacin de una red neuronal feedforward convencional, en la que, tanto las cantidades manipuladas (entradas, salidas y pesos de las conexiones), como las operaciones necesarias para realizar la propagacin (adicin, multiplicacin, funcin sigmoide) son extendidas al dominio de los nmeros difusos mediante el principio de extensin formulado en (Zadeh, 1975), el cual ha sido reformulado de distintas formas (Klimke, 2006), entre otras, resulta sencillo llevar estas operaciones a los nmeros difusos. Sin embargo, dicha extensin no puede realizarse a los mtodos de entrenamiento. Diversos grupos de investigadores han venido desarrollando estrategias de entrenamiento para estas redes, las cuales, en su mayora, se simplifican las formas de las funciones de pertenencia de los nmeros difusos propagados por la red, o se desarrollan algoritmos aplicables nicamente a ciertas topologas. En este trabajo, se presentan nuevas estrategias de entrenamiento ms generales con respecto a la geometra de los pesos difusos y la arquitectura de la red. Se utiliza la notacin barra para denotar un nmero difuso. Adems, se define un -corte de un nmero difuso como el conjunto de todos los que pertenecen al conjunto difuso con, al menos, un grado de pertenencia (1)

2. Trabajos Previos
La salida de una red neuronal que propaga nmeros difusos est dada por las ecuaciones 2 y 3, en donde se obtiene al realizar la combinacin lineal de las entradas por medio de la extensin de la suma y la multiplicacin al dominio de los nmeros difusos y es la funcin sigmoide extendida a los nmeros difusos. (Duarte, 2005) (2)

(3) El problema del entrenamiento es, pues, encontrar un conjunto de pesos que permitan el ajuste de la salida de la neurona a un conjunto de patrones de entrenamiento. En (Ishibuchi, Okada, & Tanaka, 1993)- (Ishibuchi & Nii, 2001) definen distintos mtodos de entrenamiento que tienen en comn el limitar la forma de la funcin de pertenencia, tanto de los patrones de entrenamiento (siendo el ndice del patrn) como de los pesos a una geometra especfica, como nmeros crisp figura 1(a), tringulos simtricos(b), t. asimtricos(c) o trapecios(d). Una vez que se tiene esta geometra se calcula el valor de la correccin necesaria en cada uno de los vrtices caractersticos, por ejemplo, para el caso de pesos trapezoidales se tiene: (4)

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

Figura 1: Funciones de pertenencia

Cada uno de los valores

es calculado de manera similar como se

realizara para 4 redes neuronales independientes, una por vrtice. Este enfoque presenta principalmente dos desventajas, por un lado, puesto a que se tienen correcciones independientes, es posible que el nuevo peso obtenido no sea un nmero difuso (vea figura 2(a)), por lo tanto es necesario reordenar los vrtices como en la figura 2(b). Se han planteado diversas alternativas para abordar este inconveniente, una de ellas desarrollada en (Dunyak & Wunsch, 1997), (Dunyak & Wunsch, 2000), que propone una transformacin que convierte el entrenamiento de la red neuronal difusa en un problema de optimizacin sin restricciones geomtricas en los parmetros de los pesos difusos. (Bede, Rudas, & Benscsik, 2007).

Figura 2: Reordenamiento de los parmetros del peso

Por otro lado, cuando se tiene una red con una o ms capas ocultas, los gradientes dependen de los signos de los pesos de las capas siguientes. Para afrontar este problema se plantean algunas heursticas que tienen en cuenta estos signos a la hora de obtener los gradientes. Dichas heursticas solo se formulan para redes con una capa oculta, lo que limita la aplicacin de este mtodo de entrenamiento a redes con esta arquitectura.
3

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

(Buckley, Czogala, & Hayashi, 2003) - (Buckley, Czogala, & Hayashi, 2008) desarrollan tambin varias estrategias que se limitan a nmeros difusos t. asimtricos como los de la figura 1(c). El entrenamiento para el vrtice se realiza a travs del algoritmo de retropropagacin convencional, mientas que la correccin de la ambigedad de los pesos se realiza por medio de algunas heursticas. En (Buckley et al., 2008) se propone otro mtodo vlido nicamente para entradas, salidas y pesos positivos, lo que elimina la discontinuidad en el gradiente del error que es ocasionada por los cambios de signo. En otro de estos trabajos (Krishnamraju, Buckley, Hayashi, & Reilly, 2004) se plantea un entrenamiento a partir de algoritmos genticos para pesos triangulares simtricos (figura 1(b)) en donde los parmetros a ajustar son los extremos del soporte de cada peso .

3. Nuevas Estrategias de Entrenamiento


Entre los principales inconvenientes que se aprecian en las estrategias discutidas en la seccin anterior se destacan las limitaciones impuestas, tanto a la topologa de la red, como a la geometra de los nmeros difusos utilizados como pesos. Es por esta razn que, en este trabajo se formulan estrategias ms generales respecto a las funciones de pertenencia de las entradas, salidas y pesos, as como en cuanto a la arquitectura de la red. 3.1. Retropropagacin del error cuadrtico medio para todos los -cortes para pesos crisp 3.1.1. Funcin de error La funcin de error a minimizar es:

(5) Donde es el conjunto de casos de entrenamiento y es:

(6) 3.1.2. Gradiente del error Como sucede en las redes neuronales convencionales, el valor del error, en este caso , es funcin de todos los pesos , y para hallar la direccin de la correccin que debe ser aplicada a un peso , es necesario obtener la derivada de con respecto a cada peso ,

Para evitar las restricciones descritas en (Villarreal, 2008) para la obtencin analtica de dicho gradiente, originadas por la dependencia de este valor de los signos de los pesos, se propone calcular una aproximacin de forma numrica, as: (7) Haciendo el valor de cercano a cero para mejorar la calidad de la aproximacin.
4

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

3.1.3. Algoritmo de entrenamiento Puesto que el enfoque propuesto para el clculo del gradiente es ineficiente desde el punto de vista del coste computacional, se implement la heurstica Rprop (Riedmiller, 1994). Este mtodo nicamente tiene en cuenta el signo de la derivada para calcular el tamao de la correccin de un peso, y mejora considerablemente la velocidad de convergencia del algoritmo. Las etapas necesarias para realizar el entrenamiento de la red propuesta mediante esta tcnica son: 1. Propagar todos los casos hacia adelante y calcular el error total.

2. Calcular el gradiente

mediante la ecuacin 7. , mediante la heurstica

3. Hallar el valor de la correccin necesaria para un peso Rprop(Riedmiller, 1994).


4. Actualizar el valor del peso mediante

(8)

5. Ir al paso 1 mientras E<umbral


3.2. Algoritmo Gentico para una red de nmeros difusos con pesos crisp (AGCrisp) 3.2.1. Funcin Objetivo La funcin de desempeo es el error cuadrtico medio en todos los -cortes (MSE)

(9)

Siendo N el conjunto total de datos de entrenamiento. Por medio de la ecuacin 9 se obtiene un ndice que muestra qu tan semejantes son dos nmeros difusos. Dicho ndice puede ser utilizado como funcin de desempeo, que indique qu tan cerca se encuentra el algoritmo de la solucin. 3.2.2. Codificacin del Individuo La implementacin del algoritmo gentico se ha realizado bajo UNGentico 2.0 (Delgadillo, Madrid, & Velez, 2004) , una librera en C++ para la implementacin de algoritmos genticos. Gracias a la capacidad de esta herramienta de manejar individuos con genes de distintos tipos, la codificacin del individuo se realiz asignando directamente a cada gen el valor de un peso sinptico de la red neuronal. El problema de optimizacin ha sido limitado a tres funciones de razonamiento aproximado; Combinacin lineal, funcin sigmoide y polinomio. Tanto la funcin combinacin lineal, como la logstica toman la misma cantidad de parmetros. Por lo tanto, cada peso es asignado a un gen, indistintamente. Por otro lado la funcin polinomio (que es vlida solo para argumentos positivos) tiene algunos parmetros adicionales a optimizar (dependiendo del nmero de entradas a la neurona), que representan
5

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

los exponentes asignados a cada una de las entradas. Estos parmetros son representados por un arreglo de genes de tipo entero. 3.3. Retropropagacin del error en el valor promedio y ancho de cada -corte (BFuzzy) El enfoque sugerido aqu consiste en plantear dos funciones de error locales para cada corte, una correspondiente al valor promedio y otra a la ambigedad. Luego se calcula un gradiente independiente para cada una de ellas, y se realizan correcciones simultneas para cada iteracin. un -corte de un nmero difuso Definicin 1 Sea est dado por: , el valor promedio de ,

(10)

Y la ambigedad de

es: (11)

3.3.1. Funciones de error Las funciones de error a minimizar son, entonces, para un -corte : (12)

(13) (14)

(15)

Siendo

el conjunto de neuronas ubicadas en la capa de salida.

3.3.2. Actualizacin de los pesos Debido a las funciones de error propuestas, para cada -corte de un peso son necesarias dos correcciones, una para el valor promedio y otra para la ambigedad. Para corregir el valor promedio es necesario desplazar todo el -corte hacia la direccin deseada, as: (16) (17)

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

Mientras que para corregir la ambigedad es necesario modificar la separacin entre los extremos, izquierdo y derecho de un -corte. (18) (19)

Para obtener los valores se utiliza el algoritmo de retropropagacin para redes crisp (Rumelhart, Hinton, & Willimas, 1986), de manera similar al mtodo utilizado en (Lippe, Feuring, & Mischke, 2006). En el momento de realizar la actualizacin, es necesario establecer ciertas restricciones a los nuevos extremos de los -cortes de un peso (figura 3), con el objetivo de que ste contine siendo un nmero difuso vlido. Dichas restricciones son: Todo -corte debe estar contenido en el -corte inmediatamente anterior, esto es: (20) Para No se permiten ambigedades negativas, es decir: (21) Para

Figura 3: Correccin en la geometra de un peso

3.4. Retropropagacin de un error difuso (BEFuzzy) 3.4.1. Definicin de la funcin de error para una neurona difusa (22) Seguida de: (23)

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

Donde el operador es conocido como la operacin resta necesaria, definida como el inverso de la suma aritmtica, as: Definicin 2 Sean dos nmeros difusos, si existe un nmero difuso tal que , entonces se conoce como la resta necesaria entre y y se denota por Para algunas formas particulares de y es posible que no exista ni . Para estos casos se utiliza como medida de error una aproximacin al nmero difuso ms cercano a una posible solucin. 3.4.2. Correccin de los pesos En general, el error existe cuando se requiere un aumento en la ambigedad de la salida , y de forma complementaria, existe cuando debe reducirse la ambigedad de $. Por lo tanto, las correcciones en cada peso efectos opuestos en la ambigedad de para la actualizacin de los pesos: debido a cada uno de los errores deben tener . De esto se desprenden las siguientes ecuaciones

(24) (25)

3.4.3. Algoritmo de entrenamiento 1. 2. 3. 4. 5. 6. 7. Realizar la propagacin hacia adelante utilizando aritmtica difusa. Calcular el error por medio de la ecuacin 22 Hallar

Corregir los pesos de acuerdo con la ecuacin 22. Propagar nuevamente hacia adelante. Calcular _con la ecuacin 23. Hallar . 8. Corregir los pesos por medio de la ecuacin 25. 9. Si no se satisface alguno de los criterios de parada definidos, ir al paso 1.

4. Experimentos y Resultados
4.1. Software Implementado FNetT (FuzzyNet Training) es una programa implementado en lenguaje C++ bajo el entorno de desarrollo wxWindows que permite el entrenamiento de redes neuronales que propagan nmeros difusos implementadas en Fuzzynet 1.0. FNetT, adems cuenta con las herramientas bsicas para cargar y guardar los modelos de las redes, visualizar los casos de entrenamiento, visualizar y modificar los pesos de la red y exportar e importar los -cortes de dichos pesos. 4.1.1. Estrategias Implementadas En FNetT se encuentran implementadas las siguientes estrategias de entrenamiento:

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

Retropropagacin del error cuadrtico medio para todos los -cortes para pesos crisp. (BCrisp). Algoritmo Gentico para una red de nmeros difusos con pesos crisp. (AGCrisp). Retropropagacin del error en el valor promedio y ancho de cada -corte. seccin (BFuzzy). Retropropagacin de un error difuso. (BEFuzzy). Con el objetivo de poder comparar el desempeo de las estrategias planteadas en este trabajo, con los trabajos previamente realizados acerca del entrenamiento de redes anlogas a las tratadas aqu, fue necesario implementar una aproximacin de una de las estrategias ms representativas de las citadas en la seccin correspondiente al estado del arte. Por ltimo, FNetT cuenta con la implementacin de un algoritmo gentico para la inversin de este tipo de redes, que permite el clculo de las entradas a partir de una salida dada.
4.1.2. Experimentos Realizados

Figura 4: Evaluacin difusa del impacto ambiental en vertedero Evaluacin Difusa del Impacto Ambiental en Vertederos (EDIAV). En una investigacin previa, los parmetros de las distintas funciones presentes en la red de la figura 4 haban sido exitosamente sintonizados a partir de informacin proveniente de expertos en el tema. Para validar dicho sistema se calcularon los coeficientes de evaluacin final para 34 vertederos ubicados en la provincia de Granada en Espaa con resultados satisfactorios. Con el objetivo de probar el desempeo de las estrategias de entrenamiento desarrolladas en la seccin anterior, se implement una nueva red de sistemas de computacin con palabras que aproxime el mismo conjunto de casos utilizado para validar el sistema EDIAV. Dicha red debe tener 34 nodos de entrada, un bas y una salida CFIN. Los conjuntos difusos de las variables de entrada y de salida fueron normalizados, y se construy una nueva red en la que se tiene como nica FRA (o funcin de activacin) la extensin de la funcin sigmoide. Modelamiento de un conjunto de datos de entrada crisp y salidas difusas. Los datos de entrada para este experimento son considerados nmeros crisp, mientras que la salida es descrita de manera ms adecuada mediante una variable lingstica cuyas etiquetas toman por valor nmeros difusos con forma de campana. La figura 5 muestra los vrtices de la salida deseada para este conjunto de datos.

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

Figura 5: Datos a aproximar mediante ABCWN


Modelamiento de un conjunto de datos de entrada difusos y salidas difusas. La funcin a aproximar es:

Con , los posibles valores que pueden tomar las variables

. La figura 6 muestra

Figura 61: Variables de entrada

(arriba) y

(abajo)

Realizacin de una base de reglas. Se construy una ABCWN equivalente a la base de reglas de la tabla 1.
10

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES
Etiquetas de Medio Alto Medio Bajo

Etiquetas de Bajo Medio Alto

Bajo Medio Bajo Bajo

Alto Alto Alto Medio

Tabla 1: Reglas a aprender

Aproximacin de un polinomio que evala nmeros difusos. La funcin crisp que ha sido extendida es: (26) La figura 7 muestra el comportamiento de dicha funcin en el intervalo .

Figura 7:

con

La forma extendida de es idntica a la ecuacin 26 con la diferencia de que la variable x ha sido sustituida por la variable lingstica . El espacio de entrada ha sido dividido en 40 etiquetas con forma triangular.

5. Discusin de los Experimentos


Las conclusiones ms significativas encontradas despus de realizar este conjunto de experimentos son: Las dos estrategias que utilizan pesos crisp (AGCrisp y BCrisp) presentaron desempeos similares, en cuanto a la calidad del modelo obtenido, dado que utilizan la misma funcin de desempeo. Sin embargo, el coste computacional de la estrategia basada en algoritmos genticos presenta una gran desventaja, sobre todo en problemas de gran cantidad de parmetros a ajustar, como el descrito en el ejemplo EDIAV. Esto permite recomendar su utilizacin nicamente problemas con un nmero reducido de variables y casos. En general, las estrategias de entrenamiento de pesos difusos, bien se trate de las desarrolladas en este trabajo (BFuzzy y BEFuzzy) o de la implementacin que se realiz de los planteamientos encontrados en la consulta de referencias, demostraron ser
11

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

mejores, en trminos de la calidad de ajuste, que los planteamientos que hacen uso de pesos crisp, en especial cuando se trata de modelar un conjunto de datos en donde las entradas son crisp y las salidas son difusas. Se consider la aproximacin de un conjunto de datos proveniente de una funcin difusa, en el que, adems de la incertidumbre propia del modelo, se tiene incertidumbre en las entradas. En el ejemplo planteado, se encontr que una red con pesos crisp entrenada mediante BCrisp, no present grandes desventajas en el aprendizaje de este conjunto de datos, en comparacin de las estrategias que utilizan pesos difusos. En los problemas de aproximacin de funciones, no se encontraron grandes diferencias a favor de ninguna de las estrategias de entrenamiento con pesos difusos, sin embargo en la mayora de los ejemplos, si hay una ligera diferencia en favor de la estrategia de retropropagacin de un error difuso BEFuzzy, y en contra de la implementacin de la estrategia propuesta por otros autores. En el ejemplo del sistema EDIAV, se evidenci que mientras que las estrategias de pesos difusos planteadas aqu (BFuzzy y BEFuzzy) convergen tambin a pesos crisp, los pesos calculados por la estrategia realizada por otros autores propuesta eran cada vez ms ambiguos. Este hecho se reflej en el pobre desempeo de la estrategia a la hora de evaluar la consistencia entre el conjunto difuso obtenido y las etiquetas predefinidas para la variable lingstica CFIN, en donde, generalmente se encontraron aproximaciones lingsticas de la forma: muy posiblemente bajo(1.0)-muy posiblemente Medio(1.0)-muy posiblemente Alto(1.0)-muy posiblemente Muy Alto(1.0). La retropropagacin con pesos crisp present los mejores resultados a la hora de aproximar conjuntos de datos provenientes de funciones crisp extendidas (regresin de reglas y funciones extendidas), as como en el modelamiento del sistema EDIAV, en el que mostr por un amplio margen ser la mejor estrategia. Una red de este tipo puede ser entrenada tanto a partir de informacin cuantitativa como cualitativa. Adems, permite modelar la incertidumbre presente, tanto en las entradas y salidas, como en el modelo mismo. Gracias a que la informacin se almacena en los pesos de las conexiones, es decir, en los parmetros de las funciones de razonamiento aproximado, se evita el problema de la explosin del tamao de la base de reglas, el cual siempre est presente cuando se manejan sistemas de lgica difusa para problemas con un nmero considerable de entradas, y etiquetas asociadas a cada entrada y con relaciones no muy evidentes entre entradas y salidas. El coste computacional de entrenar y propagar datos a travs de una red de sistemas de computacin con palabras es mucho mayor que en una red neuronal convencional, y es proporcional a la cantidad de -cortes utilizada para la representacin discreta de un nmero difuso. En aplicaciones en las que no se deban considerar las formas de la salida, resulta sensato utilizar nicamente 2 -cortes. Adems, es importante tener en cuenta que el uso de cualquier tipo de sistema de computacin con palabras se justifica nicamente cuando la informacin disponible es demasiado imprecisa para ser representada por nmeros crisp.

6. Conclusiones
El uso de pesos crisp es una alternativa que debe ser tenida en cuenta a la hora de modelar la relacin presente en un conjunto de datos difusos. El desempeo de esta estrategia se destac en el problema del sistema de evaluacin difusa del impacto ambiental en vertederos. La totalidad de las estrategias de entrenamiento planteadas en este proyecto son vlidas para redes con cualquier nmero de capas ocultas. El entrenamiento de una ABCWN con pesos crisp mediante algoritmos genticos con codificacin real, puede arrojar resultados similares a los encontrados con BCrisp, en cuanto a la calidad de la aproximacin. Sin embargo, el elevado tiempo de clculo, debido a la gran cantidad de parmetros a ajustar, limita la aplicacin de esta estrategia a
12

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

problemas relativamente pequeos. Este hecho hace dudar de la viabilidad del empleo de alguna tcnica similar que considere pesos difusos, puesto que se tendra una cantidad an mayor de parmetros a ajustar. Ninguna de las dos estrategias para pesos difusos formuladas (BFuzzy, BEFuzzy) presentan limitaciones en cuanto a la geometra de los pesos difusos (siempre que sean nmeros difusos). A pesar de que la estrategia BFuzzy no maneja una funcin de error global, sino mltiples funciones de error independientes, mostr tener un comportamiento aceptable en los experimentos realizados, con excepcin del problema EDIAV. La estrategia fundamentada en la retropropagacin de un error difuso (BEFuzzy) se obtuvo al extender algunos conceptos del clculo crisp al dominio de los nmeros difusos. Las redes con pesos difusos mostraron ser el mecanismo ms adecuado para representar la incertidumbre propia de un sistema. Los resultados de este enfoque se destacaron en especial a la hora de aproximar conjuntos de datos con entradas crisp y salidas difusas. Las estrategias para redes con pesos crisp mostraron los mejores desempeos a la hora de aproximar conjuntos de datos provenientes de funciones extendidas a los nmeros difusos.

Referencias
[Bede, Rudas, & Benscsik, 2007] Bede, B., Rudas, I., & Benscsik, A. (2007). First order linear fuzzy differential equations under generalized differentiability. Information Sciences, 177, 1648-1662. [Buckley, Czogala, & Hayashi, 2003] Buckley, J., Czogala, E., & Hayashi, Y. (2003). Fuzzy neural networks with fuzzy signals and fuzzy weights. Inter. J. Intelligent Systems, 8, 527537. [Buckley, Czogala, & Hayashi, 2008] Buckley, J., Czogala, E., & Hayashi, Y. (2008). Adjusting fuzzy weights in fuzzy neural nets. Second international conference on Knowledge-based intelligent electronic systems. [Delgadillo, Madrid, & Velez, 2004] Delgadillo, A., Madrid, J., & Velez, J. (2004). Ampliacin de UNgentico: Una Librera en C++ de Algoritmos genticos con Codificacin Hbrida. Universidad Nacional de Colombia. [Duarte, 2005] Duarte, O. (2005). FUZZYNET 1.0 Software Para el Diseo e Implementacin de Redes de Sistemas de Computacin con Palabras. Universidad Nacional de Colombia. [Dunyak & Wunsch, 1997] Dunyak, J., & Wunsch, D. (1997). A training technique for fuzzy number neural networks. Proc. of the International Conference on Neural Networks. [Dunyak & Wunsch, 2000] Dunyak, J., & Wunsch, D. (2000). Fuzzy regression by fuzzy number neural networks. Fuzzy Sets and Systems, 112, 371-380. [Ishibuchi & Nii, 2001] Ishibuchi, H., & Nii, M. (2001). Numerical analysis of the learning of fuzzified neural networks from fuzzy if-then rules. Fuzzy Sets and Systems, 120, 281-307. [Ishibuchi, Okada, & Tanaka, 1993] Ishibuchi, H., Okada, H., & Tanaka, H. (1993). Fuzzy neural networks with fuzzy weights anf fuzzy biases. Proc. of ICNN93, San Francisco. [Klimke, 2006] Klimke, A. (2006). Uncertainty Modeling using Fuzzy Arithmetic and Sparse Grids (PhD Tesis). Universitt Stuttgart, Alemania. [Krishnamraju, Buckley, Hayashi, & Reilly, 2004] Krishnamraju, P., Buckley, J., Hayashi, Y., & Reilly, K. (2004). Genetic learning algorithms for fuzzy neural nets. IEEE World Congress on Computational Intelligence (pgs. 26-29). [Lippe, Feuring, & Mischke, 2006] Lippe, W., Feuring, T., & Mischke, L. (2006). Supervised learning in fuzzy neural networks. Department of Computer Science, University of Munster. [Riedmiller, 1994] Riedmiller, M. (1994). Rprop-Description and Implementation Details. [Rumelhart, Hinton, & Willimas, 1986] Rumelhart, D., Hinton, G., & Willimas, R. (1986). Learning representations by back-propagating errors. Nature, 323, 533-536. [Villarreal, 2008] Villarreal, E. (2008). Estrategias de Entrenamiento para un Red Neuronal Difusa (Tesis de Maestra en Automatizacin Industrial). Universidad Nacional de Colombia.

13

III CONGRESO INTERNACIONAL

DE

COMPUTACIN

TELECOMUNICACIONES

[Zadeh, 1975] Zadeh, L. (1975). The Concept of a Linguistic Variable and its Application to Approximate Reasoning. IEEE Trans. Systems, Man, and Cybernet.

14

Você também pode gostar