Você está na página 1de 31

Universidad Autnoma de Coahuila.

Ingeniero en Sistemas Computacionales.

Materia: Metodologa de la Investigacin.

Tema: Redes Neuronales Artificiales (RNA)

Profesor: M.A. Juan Carlos Lpez Sarmiento.

Alumno: Cecilio Andreu Moctezuma.

22 de Octubre 2010
1

INDICE GENERAL. 1. Por qu esta investigacin?.......................................................................3 2. El objetivo de esta investigacin....3 3. Introduccin...4 4. Inspiracin biolgica.....7 5. Definicin de redes neuronales artificiales (RNA) ...7 6. Sistema neuronal biolgico.....8 7. Sistema neuronal artificial .....11 8. Niveles o capas de neuronas.......12 9. Evolucin histrica.....13 10. Campo de aplicacin......16 11. Cmo se construyen las Redes Neuronales?..........................................17 12. Elemento bsico. De la (RNA)......17 13. Tipo de informacin que manejan (RNA)...18 14. Los elementos que constituyen la neurona son ....19 15. Peso sinptico.20 16. El aprendizaje de las redes neuronales..21 17. Ejemplo.22 18. Conclusin...30 19. Bibliografas.31

Por que de esta investigacin? Mi investigacin es sobre redes neuronales, ya que en la actualidad se utilizan en las empresas, hospitales, problemas matemticos, etc. Porque se les puede agregar una gran cantidad de datos y son mas rpidas en procesar la informacin que el cerebro humano y tiene un margen de error muy mnimo o ninguno. Actualmente son la punta de la tecnologa por su gran procesamiento de informacin. Hoy en da existen una gran cantidad de sistemas de software comerciales que se basan en los anlisis de datos para hacer tareas como: anlisis financieros, vigilancia, economa. Los bilogos y los ingenieros de software, los de robtica han tenido que unirse para poder llevar acabo este tipo de redes aportando cada uno parte de sus conocimientos para hacer mas rpido una tarea especifica y compleja.

El objetivo de esta investigacin es: darnos cuenta has donde a llegado el ser humano con la ayuda de la tecnologa y como a ido evolucionando que, actualmente hay mquinas inteligentes y con la apariencia de un ser humano. Y como se han inspirado en el cerebro los ingenieros para poder realizar este tipo de investigaciones y poder llevarlas a la tecnologa. Conocer la inspiracin biolgica de las Redes Neuronales Artificiales (RNA) y sus fundamentos. Entender el funcionamiento de los modelos de las RNA. Identificar en donde se pueden aplicar los modelos de RNA.

Introduccin. Muchos de los desarrollos del hombre se deben a su capacidad para explicar y emular funciones que son realizadas por seres vivos. Por ejemplo, se puede citar el radar, que surge como imitacin de la forma como un murcilago es capaz de detectar los objetos que estn en su camino sin necesidad de verlos, por medio de emisin de una onda ultrasnica, la posterior recepcin de la seal de eco y su procesamiento. As como el anterior hay muchos ejemplos ms: El helicptero, el avin, el submarino.

Existen dos tipos de visin nocturna: por aumento de luz y por visin trmica, ambas tcnicas son

utilizadas por los animales. La retina de un animal (la parte de atrs del ojo donde se forma la imagen) est

compuesto mayormente por dos tipos de clulas sensibles a la luz llamadas bastones y conos. Los bastones son responsables para potenciar los

estmulos lumnicos pequeos

Radares y murcilagos Ambos, el radar y el murcilago utilizan el mismo principio: el eco. Las ondas reflejadas por los objetos son

percibidas por los odos del murcilago y, en el otro caso, por una antena de radar que las transforma en

informacin.

El avin y las aves El principio que utilizan los aviones es bsicamente el mismo que utilizan las aves, es la forma del ala y su posicin relativa con respecto a la corriente de aire lo que produce la fuerza de sustentacin.

El submarino y el nautilos Los submarinos poseen "tanques de inmersin" ubicados a ambas bandas los que, una vez inundados, le dan al submarino una flotabilidad apenas

positiva. Posee otro tanque, ubicado en el centro, relativamente chico, que al ser totalmente inundado le da al buque flotabilidad negativa para ir a inmersin

El

camarn

mantis

los

aparatos de DVD. El ojo del camarn mantis puede convertir luz de todos los colores del espectro visible. Las

investigaciones apuntan a que, tomando como modelo el ojo de este camarn, los ingenieros podran fabricar un aparato de DVD que reprodujera discos con mucha ms informacin que los actuales.

Aunque el hombre ha sido capaz de emular funciones de los animales, para l siempre ha sido un sueo poder conocer e imitar, la llamada por muchos la mquina perfecta: el cerebro humano. Cuando la neurociencia pudo explicar de forma un poco convincente el funcionamiento de la unidad principal de procesamiento de informacin que posee el cerebro, la neurona, surge casi de manera automtica la idea de poder emular dicho funcionamiento en un elemento artificial "La neurona artificial."

Inspiracin biolgica. El cerebro humano. 1011 Neuronas (procesadores) 1000 10000 conexiones por neurona. Capacidad basada en las conexiones. Cada neurona es muy compleja. Trata gran cantidad de informacin. Capacidad de tratar situaciones nuevas. Capacidad de aprendizaje Almacenamiento distribuido. No binario, no estable y no secuencial. Poder desconocido

Definicin de redes neuronales artificiales (RNA). Las Redes Neuronales Artificiales (RNA) o sistemas conexionistas son sistemas de procesamiento de la informacin cuya estructura y funcionamiento estn inspirados en las redes neuronales biolgicas. Consisten en un conjunto de

elementos simples de procesamiento llamados nodos o neuronas conectadas entre s por conexiones que tienen un valor numrico modificable llamado peso.

Los tres conceptos claves de los sistemas biolgicos, que se pretenden emular en los artificiales son: Paralelismo de clculo. Memoria distribuida. Adaptabilidad al entorno.

Las redes neuronales artificiales (RNAs) son modelos computacionales que surgieron como un intento de conseguir formalizaciones matemticas acerca de la estructura del cerebro. Las RNAs imitan la estructura del hardware del sistema nervioso, centrndose en el funcionamiento del cerebro humano, basado en el aprendizaje a travs de la experiencia, con la consiguiente extraccin de conocimiento a partir de la misma.

Sistema neuronal biolgico: Los elementos bsicos de un sistema neuronal biolgico son las neuronas, agrupadas en redes compuestas por millones de ellas y organizadas a travs de una estructura de capas, que constituyen un sistema con funcionalidad propia.

En general una neurona consta de un cuerpo celular ms o menos esfrico de 5 a 10 micras de dimetro, del que sale una rama principal el axn, y varias ramas ms cortas denominadas dendritas.

Neurona. Pueden presentar muchas formas, aunque presentan un aspecto similar. Cuerpo celular o soma (10 80 micras). Dendritas de entradas Un axn de salida Sinapsis de conexin.

En la tabla 1 se muestra un paralelo entre un computador secuencial (Computador de Von Neumann) y un sistema biolgico

Caracterstica Unidad de Procesamiento Memoria

Computador secuencial Compleja, Veloz, nica Separada del procesador, Localizada

Sistema biolgico neuronal Simple, Lenta, Muchas Integrada dentro del procesador, Distribuida, Direccionable por contenido Distribuido ,Paralelo, Auto aprendizaje Robusto Problemas perceptuales Pobremente definido, Sin restricciones

Procesamiento de Centralizado, Secuencial, los Datos Programas almacenados Confiabilidad Especializacin Ambiente de operacin Muy vulnerable Manipulaciones simblicas y numricas Bien definido, Muy restringido

En la tabla 2 se muestra la velocidad de procesamiento de informacin del cerebro y la computadora.

10

Sistema neuronal artificial: En un sistema neuronal artificial puede establecerse una estructura jerrquica similar, de forma RNA puede concebirse como una coleccin de procesadores elementales (neuronas artificiales), conectados a otras neuronas o bien a entradas externas y con una salida que permite propagar las seales por mltiples caminos.

El elemento esencial de partida es la neurona artificial, que se organiza en capas; varias capas constituyen una red neuronal; y, por ultimo, una red neuronal (o un conjunto de ellas), junto con las interfaces de entrada y salida constituirn el sistema neuronal.

11

Niveles o capas de neuronas. La distribucin de neuronas dentro de una red se realiza formando niveles o capas de un nmero de neuronas determinado, donde se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede ser otra capa de neuronas).

Se pueden distinguir tres tipos de capas: 1. Capa de Entrada. Es la capa que recibe directamente la informacin proveniente de las fuentes externas de la red 2. Capa Oculta. Son internas a la red y no tiene contacto directo con el exterior. El nmero de niveles ocultos puede estar entre cero y un nmero elevado. Las neuronas de la capa oculta pueden estar interconectadas de diferentes maneras, lo que determina, junto con su nmero, las distintas tipologas de redes neuronales. 3. Capa de Salida. Transfieren informacin de la red hacia el exterior.

12

Evolucin histrica Los primeros anlisis acerca del comportamiento del cerebro y el pensamiento se deben a filsofos griegos, destacando las aportaciones realizadas por Aristteles (384 422 A.C).y Platn (427 347 A.C), continuadas en la Edad Media por Descartes (1596 1650) y por los filsofos empiristas del siglo XVII. En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vista computacional, si bien los trabajos pioneros para la construccin de modelos matemticos que imitasen el comportamiento de las neuronas biolgicas se deben a Warren McCulloch y Walter Pitts (neurofisilogo y matemtico, respectivamente), que presentaron en 1943 uno de los primeros modelos abstractos de una neurona artificial.

13

La historia de las redes neuronales puede dividirse en varios periodos: 1. Primeros intentos: Se realizaron algunas simulaciones usando lgica formal. McCulloch and Pitts (1943) desarrollaron modelos de redes neuronales basados en su conocimiento de neurologa. Sus redes se basaban en neuronas simples, consideradas como dispositivos binarios con umbrales fijos. Los resultados de sus modelos fueron funciones lgicas elementales tales como "a o b" y "a y b". Dos grupos (Farley and Clark, 1954; Rochester, Holland, Haibit and Duda, 1956) lo intentaron usando simulaciones computacionales. El primer grupo conformado por investigadores de IBM mantena un contacto cercano con neurocientficos de la universidad de McGill.

2. Tecnologa emergente y promisoria: No solo la neurociencia influa en el desarrollo de las redes neuronales, tambin los fsicos y los ingenieros contribuan al progreso de las simulaciones de redes neuronales. Rosenblatt (1958) revitaliz fuertemente el inters y la actividad en esta rea cuando dise y desarrollo su Perceptrn. El Perceptrn tiene tres capas, incluida la capa del medio denominada de asociacin. Este sistema pudo aprender a conectar y asociar unas entradas dadas a una unidad de salida aleatoria. Otro sistema fue el ADALINE (ADAptive LInear Element) el cual fue desarrollado en 1960 por Widrow and Hoff (de la Universidad de Stanford). El ADALINE fue un dispositivo electrnico analgico hecho de componentes simples, con un mtodo de aprendizaje diferente al del Perceptron, empleando una regla de aprendizaje basada en mnimos cuadrados (LMS). 3. Periodo de frustracin y desprestigio: En 1969 Minsky and Papert escribieron un libro en cual ellos generalizaban las limitaciones de un Perceptron monocapa a sistemas multicapa. En el libro ellos decan: "...nuestro intuitivo juicio es que la extensin (a sistemas multicapa) es una tarea estril". El resultado de las afirmaciones de este libro fue eliminar la financiacin para los investigadores que trabajaban con simulaciones de redes neuronales. Las conclusiones del libro de
14

Minsky and Papert soportadas con el desencanto de los investigadores en el rea, trajo como resultado un gran prejuicio contra la actividad de la misma. 4. Innovacin: Aunque el inters pblico por las redes neuronales era mnimo, varios investigadores continuaron trabajando en el desarrollo de mtodos computacionales basados en neuromorfologa para problemas de identificacin de patrones. Durante este periodo varios paradigmas fueron generados, los cuales aun continan con trabajos modernos, se puede mencionar a: Steve Grossberg and Gail Carpenter quienes desarrollaron la teora de la resonancia adaptativa, ART (Adaptive Resonance Theory), Anderson y Kohonen (1982) quienes desarrollaron tcnicas para aprendizaje asociativo. Hopfield (1984) quien desarroll una red neuronal haciendo un smil energtico. Werbos (Paul Werbos 1982) desarroll y us el mtodo de aprendizaje conocido como Backpropagation, destacando que varios aos despus de popularizarse este mtodo, es actualmente la arquitectura de red neuronal mejor conocida y ms utilizada en las aplicaciones de redes neuronales. En esencia una red Back-propagation es un Perceptron con mltiples capas, con diferentes funciones de activacin en las neuronas artificiales y con una regla de aprendizaje ms robusta y confiable. 5. Resurgimiento: Durante el final de la dcada de los 70s y principios de los 80s, fue importante el resurgimiento del inters en el campo de las redes neuronales. Varios factores han influenciado este movimiento, tales como la aparicin de libros y conferencias que han dado a conocer las bondades de esta tcnica a personas de diferentes reas. El financiamiento a proyectos de investigacin en redes neuronales en Europa, EUA y Japn que han hecho que aparezcan una gran variedad de aplicaciones comerciales e industriales.

15

6. Hoy: Se han realizado progresos muy significativos en el campo de las RNA, lo suficientes como para atraer una gran atencin e inters en financiar investigaciones. Ya se encuentran comercialmente circuitos integrados basados en RNAs y las aplicaciones desarrolladas resuelven problemas cada vez ms complejos. Sin lugar a dudas, hoy es un periodo de transicin y fuerte evolucin para la tecnologa en redes neuronales.

Campo de aplicacin. Las Redes neuronales artificiales son interesantes para una gran cantidad de personas de diferentes reas: Cientficos de la computacin que quieren averiguar sobre las propiedades del procesamiento de informacin no-simblica con una red neuronal y sobre sistemas de aprendizaje en general. Estadsticos utilizan redes neuronales como modelos de clasificacin y regresin no lineal flexible Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas reas, como procesamiento de seales y control automtico Los cientficos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (funcin cerebral de alto-nivel). Neuro-fisilogos utilizan redes neuronales para describir y explorar funciones cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz). Fsicos usan redes neuronales para modelar fenmenos en mecnica estadstica y para muchas otras tareas. Bilogos utilizan Redes Neuronales para interpretar sucesiones del nucletido.

16

Filsofos y otras personas tambin pueden ser interesadas en Redes Nerviosas por las varias razones.

Las RNA con su capacidad para deducir un significado desde datos complicados o imprecisos, pueden ser utilizadas para detectar patrones o detectar una tendencia que es muy compleja de hallar por una persona con modelos determsticos o por otras tcnicas computacionales tradicionales. Una red entrenada puede ser vista como un experto en el manejo de la informacin que se le ha dado para analizar. Este experto puede ser utilizado para proporcionar proyecciones ante nuevas situaciones de inters.

Cmo se construyen las Redes Neuronales? Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando transistores o amplificadores operacionales, pero la mayora de las RNA se construyen en software, esto es en programas de computacin.

Elemento bsico de la (RNA). Una neurona artificial es un elemento con entradas, salida y memoria que puede ser realizada mediante software o hardware. Posee entradas (I) que son ponderadas (w), sumadas y comparadas con un umbral (t). La seal computada de esa manera, es tomada como argumento para una funcin no lineal (f), la cual determinar el tipo de neurona y en parte el tipo de red neuronal

17

Tipo de informacin que manejan (RNA). Las redes neuronales manejan dos tipos de informacin. La primera, es la informacin voltil, que se refiere a los datos que se estn usando y varan con la dinmica de la computacin de la red, se encuentra almacenada en el estado dinmico de las neuronas El segundo tipo de informacin que manejan las redes neuronales, es la informacin no voltil que se mantiene para recordar los patrones aprendidos y se encuentra almacenada en los pesos sinpticos.

18

Sinpticos: la conexin entre el axn de una neurona y las dendritas de otra recibe el nombre de sinapsis o synapsis, y determina la fuerza y tipo de relacin entre ellas.

Las conexiones sinpticas son las vas o caminos de comunicacin entre los diferentes elementos de procesos (neuronas) y entre stos y las entradas/salidas del sistema.

Los elementos que constituyen la neurona son:

Conjunto de entradas, Xj(t). Pesos sinpticos de la neurona i. Wij representa la intensidad de interaccin entre cada neurona pre sinptica j y la neurona post sinptica i.

Regla de propagacin g(Wij, Xj(t)). Proporciona el valor del potencial post sinptico hi(t) = g(Wij, Xj(t)) de la neurona i en funcin de sus pesos y entradas.
19

Funcin de activacin fi(ai(t-1), hi(t)), que proporciona el estado de activacin actual ai(t) =fi(ai(t-1), hi(t)) de la neurona i, en funcin de su estado anterior ai(t-1) y de su potencial post sinptico actual.

Funcin de salida Fi(ai(t)), que proporciona la salida actual yi(t) = Fi(ai(t)) de la neurona i en funcin de su estado de activacin. De este modo, la operacin de la neurona i puede expresarse como: yi(t) = Fi(fi[ai(t-1), g(Wij, Xj(t))]) Interaccin entre una neurona pre sinptica y una post sinptica:

Peso sinptico Si el peso es positivo tendera a excitar a la neurona post sinptica, si el peso es negativo tender a inhibirla. As se habla de sinapsis excitadora e inhibidora en las redes neuronales artificiales.

20

El aprendizaje de las redes neuronales. Es el proceso de presentar los patrones a aprender, a la red y el cambio de los pesos de las conexiones sinpticas usando una regla de aprendizaje. La regla de aprendizaje consiste en algoritmos basados en formulas matemticas, que usando tcnicas como minimizacin del error o la optimizacin de alguna "funcin de energa", modifican el valor de los pesos sinpticos en funcin de las entradas disponibles y con ello optimizan la respuesta de la red a las salidas que deseamos.

El aprendizaje se basa en el entrenamiento de la red con patrones , que usualmente son llamados patrones de muestra o entrenamiento. El proceso usual del algoritmo es que la red ejecuta los patrones iterativamente, cambiando los pesos de las sinapsis, hasta que convergen a un conjunto de pesos ptimos que representan a los patrones lo suficientemente bien, entonces mostrar una respuesta satisfactoria para esos patrones. Esto es, sus pesos sinpticos se ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento que le hemos mostrado.

Podemos distinguir tres tipos de aprendizaje. El modo ms intuitivo es el Aprendizaje supervisado, que consiste en que la red dispone de los patrones de entrada y los patrones de salida que deseamos para esa entrada y en funcin de ellos se modifican los pesos de las sinapsis para ajustar la entrada a esa salida. Otro modo de aprendizaje, Aprendizaje no supervisado , consiste en no presentar patrones objetivos, si no solo patrones de entrada, y dejar a la red clasificar dichos patrones en funcin de las caractersticas comunes de los patrones.
21

Existe otro tipo de aprendizaje, que usa una formula hbrida, el supervisor no ensea patrones objetivos si no que solo le dice se acierta o falla en su respuesta ante un patrn de entrada. Es el aprendizaje reforzado,

Ejemplo:
Resumen Este trabajo tuvo como objetivo predecir las manifestaciones macroscpicas de los dos principales fenmenos de transferencia de masa en tres frutas (meln, lechosa y manzana) osmticamente deshidratadas. Se consider el efecto de cinco variables de proceso: tipo de alimento, concentracin de la solucin osmtica, tamao de la fruta, temperatura y tiempo de proceso, sobre la prdida de agua y ganancia de slidos de las frutas. Para ello se desarroll un modelo neuronal artificial compuesto por cinco neuronas de entrada y dos capas ocultas de procesamiento de informacin compuestas por cinco neuronas cada una, utilizando funciones sigmoides como medio de comunicacin, y dos neuronas de salida representando a las variables dependientes del modelo. La arquitectura neuronal desarrollada y entrenada mediante el algoritmo Levenberg-Marquardt permiti predecir ms de los 90% de la variabilidad de los datos en los dos fenmenos de transferencia estudiados, constituyndose en un modelo alternativo a las ecuaciones para mtricas desarrolladas hasta el momento.

Introduccin

La deshidratacin osmtica es una tecnologa que ha sido aplicada principalmente en frutas, con el objeto de reducir la actividad de agua y el contenido de humedad de las mismas, para as generar alimentos de humedad intermedia con una

22

estabilidad relativamente limitada, por lo cual, el proceso osmtico es usualmente combinado con otra tcnica de preservacin que permita extender la vida til del alimento. Generalmente, el proceso se desarrolla mediante la inmersin de trozos de fruta en soluciones de sacarosa, mediante el control de variables como temperatura, agitacin y tiempo de proceso. En el curso de la tecnologa se suscitan tres fenmenos de transferencia de masa: la migracin de agua desde la fruta hacia la solucin de impregnacin, la transferencia de solutos de la solucin a la fruta y la salida de solutos propios del alimento a la solucin. El tercer fenmeno de transferencia resulta cuantitativamente despreciable en comparacin con los dos primeros, los cuales caracterizan el proceso y permiten el logro de los objetivos ulteriores de la tecnologa: la estabilidad del alimento mediante el control de su contenido de humedad y la actividad de agua, y la posibilidad de aplicacin de efectos de formulacin especficos mediante componentes especficos.

En tal sentido, el objetivo de la presente investigacin es desarrollar un modelo de red neuronal artificial basado en un algoritmo de retro propagacin del error, para el modelado predictivo de los fenmenos de prdida de agua y ganancia de slidos en frutas osmticamente deshidratadas.

23

Materiales y Mtodos

Proceso de deshidratacin osmtica

Las frutas usadas en la investigacin, lechosa, meln y manzana, seleccionadas en virtud de su naturaleza porosa y por ende facilitadora de los fenmenos de transferencia de masa, se obtuvieron de un mismo establecimiento comercial, sin lesiones externas y con caractersticas similares de forma, tamao y color. Se determin el contenido de humedad inicial de las frutas, de acuerdo a la metodologa de la AOAC (AOAC, 1990), obtenindose los siguientes resultados: lechosa 88,93% 0,71% (n=5), meln 93,07% 0,85% (n=5) y manzana 87,32% 0,82% (n=5). Una vez lavadas, las frutas fueron picadas en cubos mediante la utilizacin de un vernier y un cuchillo previamente desinfectado. Es importante sealar que las frutas, con caractersticas similares de madurez (de acuerdo a la relacin Brix / pH), fueron asignadas aleatoriamente a cada condicin experimental (1 fruta o individuo por tratamiento) y se obtuvieron 10 unidades experimentales (cubos) de cada fruta para conformar una rplica de cada i-simo tratamiento (Tabla I). La obtencin de cubos de geometra regular con caractersticas finitas, permiti reducir la dimensin caracterstica de las frutas y minimizar los tiempos de impregnacin empleados. Una vez cortadas y registrado el peso inicial de las muestras de frutas, las mismas se sumergieron en las soluciones de impregnacin (soluciones de sacarosa), para cada una de las condiciones experimentales (Tabla I). Para satisfacer cada una de las condiciones de temperatura, las soluciones fueron colocadas en baos de agua y tapadas para evitar la evaporacin de las soluciones. Al finalizar el tiempo de proceso, los trozos de fruta fueron cuidadosamente secados con papel absorbente para remover el exceso de solucin osmtica de la superficie y su peso se registr inmediatamente. Posteriormente, las muestras se secaron en un horno de conveccin a 60C por 16h., y posteriormente en una estufa al vaco a 70C por 24h., para determinar la masa seca de las frutas osmticamente tratadas y

24

calcular por balance de masa el contenido de humedad de las mismas (Panagiotou et al., 1998). Cada condicin experimental se realiz por duplicado. Con la primera rplica se entren la arquitectura neuronal artificial y con la segunda, constituida a partir de muestras de frutas totalmente independientes de las utilizadas para la primera rplica, se valid la habilidad predictiva y de generalizacin del modelo (Milln et al., 2001).

Como se seal en la introduccin, los dos principales fenmenos de transferencia de masa que se suscitan en la deshidratacin osmtica, se evidencian macroscpicamente mediante la prdida de agua (PA) y la ganancia de slidos (GS), las cuales pueden ser definidas por las ecuaciones.

25

Donde M0: masa inicial de fruta antes de ser sometida al tratamiento osmtico, M: masa de fruta luego del tratamiento osmtico, m0: masa seca inicial de la muestra de fruta, y m: masa seca de la fruta luego del tratamiento osmtico.

Desarrollo del modelo neuronal artificial Se desarroll una estructura neuronal de retro propagacin del error con 5 neuronas de entrada, constituidas por las variables tipo de alimento (meln, lechosa y manzana), concentracin de la solucin de impregnacin, tamao de la muestra de fruta, temperatura y tiempo de proceso, y dos neuronas de salida, representativas de la prdida de agua y ganancia de slidos, como

manifestaciones macroscpicas de la transferencia de agua desde la fruta hacia la solucin de impregnacin y la transferencia de solutos desde la solucin de impregnacin hacia la fruta, respectivamente. Los valores de entrada a las isimas neuronas de entrada estuvieron constituidos por los valores que conforman las variables independientes mencionadas (Tabla I). A estos valores se asoci aleatoriamente un peso de conexin de poca magnitud, que permiti la propagacin de la informacin a la primera capa de neuronas ocultas de procesamiento de datos. La asignacin aleatoria de los pesos de inicio de poca magnitud es la tcnica normalmente usada cuando no se dispone de informacin previa acerca del sistema que se est modelando, ya que impide la temprana
26

saturacin de la red por cuanto induce a la ruptura de simetra. As, la entrada neta de la j-sima neurona de la capa oculta puede representarse a travs de la ecuacin

Donde xpi: entrada que recibe la neurona procedente de la i-sima unidad de entrada, wjih: peso de la conexin y jh: trmino de tendencia. El ndice h se refiere a magnitudes de la capa oculta y el subndice p al p-simo vector de entrenamiento. El establecimiento del nmero de capas ocultas y el nmero de neuronas que conforman dichas capas se seleccion mediante un proceso de ensayo y error Luego, la salida de las j-simas neuronas de la capa oculta se transfiri a las neuronas de la capa de salida mediante una funcin de transferencia fjh. Dicha salida se representa por la ecuacin

Donde ypj: salida neta de cada j-sima neurona de la capa oculta, y netpjh: entrada neta a la j-sima neurona de la capa oculta. La funcin de transferencia ms empleada en las redes de retro propagacin del error es la tangente hiperblica (Reed y Marks, 1999). Luego, la entrada neta a la capa de neuronas de salida, representadas por el nmero de variables dependientes del sistema, en este caso la prdida de agua y la ganancia de slidos de las frutas osmticamente deshidratadas, se representa mediante la ecuacin

27

Donde el ndice 0 se refiere a magnitudes de la capa de salida, ypj: entrada procedente de la j-sima neurona oculta, wkj0: peso de conexin entre la j-sima unidad oculta y la k-sima neurona de salida, k0: trmino de tendencia asociado a la k-sima neurona de salida, y netpk: entrada neta a la k-sima neurona de salida. Finalmente, la salida de las neuronas de salida se compar con un vector objetivo constituido por los valores experimentales de prdida de agua y ganancia de slidos y se gener la siguiente funcin de error, constituida por la suma de errores cuadrticos (Reed y Marks, 1999):

Donde ESSE: suma de cuadrados del error, p: vector de entrenamiento o conjunto de datos experimentales, i: salida emitida por las neuronas de salida de la red, y tpi y ypi representan el objetivo o conjunto de valores observados y la salida de la red, respectivamente. El proceso de entrenamiento y aprendizaje de la red se bas entonces en la reduccin de la funcin de error anterior, a travs de un proceso iterativo de actualizacin de pesos de conexin y trminos de tendencia que se representa esquemticamente en la Figura 1.

28

La arquitectura neuronal, as como el proceso de entrenamiento, aprendizaje y posterior simulacin de la red, se desarrollaron con el mdulo de redes del programa Matlab 6.0.

29

Conclusin. Los computadores digitales actuales superan al hombre en su capacidad de clculo numrico y el manejo de smbolos relacionales. Sin embargo, el hombre puede solucionar problemas mucho ms complejos de percepcin (por ejemplo, reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o al escuchar su voz, incluso por el modo de caminar; definir la habitabilidad de un aula a partir de sensaciones de temperatura, ruido, humedad, iluminacin, etc.) a muy altas velocidades y sin necesidad de concebir un complejo modelo matemtico o computacional. La respuesta est en la arquitectura del sistema neuronal biolgico que es completamente diferente a la arquitectura del computador.

En este momento se ha dado solucin a problemas con altos niveles de incertidumbre que con mtodos tradicionales jams se habra obtenido. Soluciones tan novedosas e interesantes como la reconstruccin craneofacial para la identificacin de hombres, msica neurocomputacional, sistemas de deteccin de virus en computadores conocidos y desconocidos, identificacin de usuarios en cajeros automticos desde la imagen del iris de los ojos, reconocimiento de emisores en comunicaciones, diagnstico de hepatitis, recuperacin de telecomunicaciones ante fallas en el software, interpretacin de palabras chinas, deteccin de minas submarinas, anlisis de texturas,

reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito.

30

9.- Bibliografas:

Flrez Lpez Raquel. (2008). Las Redes Neuronales Artificiales. Prited in Spain. Pino Diez Ral (2001). Introduccin a la inteligencia artificial. Servicio de publicaciones Universidad de Oviedo Jess de la Fuente Mara (1999). Aplicaciones de las redes neuronales en supervisin, diagnosis y control de procesos. Impreso en Venezuela. Flrez Lpez Jos Mara ( ). Las redes neuronales artificiales. Hernndez Lpez Leonor. ( ). Prediccin y optimizacin de emisores y

consumo mediante redes neuronales


http://www.redes-neuronales.netfirms.com/tutorial-redesneuronales/clasificacion-de-redes-neuronales-respecto-al-aprendizaje.htm http://www.books.google.com/books?id=X0uLwi1Ap4QC&pg=PA16&dq=co ncepto+de+redes+neuronales+artificiales&hl=es&ei=dwW_TMuzIoL88Aaa826Bg&sa=X&oi=book_result&ct=bookthumbnail&resnum=1&ved=0CC8Q6wEwAA#v=onepage&q=concepto%20d e%20redes%20neuronales%20artificiales&f=false http://members.tripod.com/jesus_alfonso_lopez/RnaIntro.html http://listas.20minutos.es/lista/inventos-humanos-basados-en-aptitudesanimales-187409/ http://www.answermath.com/neural-networks/tutorial-esp-4construccion.htm

31

Você também pode gostar