Escolar Documentos
Profissional Documentos
Cultura Documentos
Índice
1. Génesis 3
1.1. Introducción histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Orı́genes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2. Autómatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3. Ciencia ficción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4. Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.5. Edad mecánica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.6. Edad de la computación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.7. Época actual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Caracterización y test de Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1. Cuestiones que plantea la Inteligencia Artificial . . . . . . . . . . . . . . . . 5
1.2.2. Test de Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3. Superar el Test de Turing: Ordenador lamus . . . . . . . . . . . . . . . . . . 6
1.2.4. Habitación china . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Estructura de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1. Procesos de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2. Categorı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3. Cerebro versus ordenador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4. Tipos de simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Sistemas Expertos 9
2.1. Definición y caracterı́sticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Ventajas y desventajas frente al experto humano . . . . . . . . . . . . . . . . . . . 9
2.3. Construcción de un Sistema Experto . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.1. Sistema automático de aparcamiento de Audi . . . . . . . . . . . . . . . . . 10
2.4.2. Sistema de almacenamiento y dispensado en farmacias . . . . . . . . . . . . 10
2.5. Sistema de cálculo, diseño y fabricación de torres . . . . . . . . . . . . . . . . . . . 10
2.5.1. Tipos de Torres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3. Algoritmos Genéticos 12
3.1. Historia y descripción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2. Fases de un Algoritmo Genético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1. Inicialización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.2. Evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.3. Condición de término . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3. Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3.1. Clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3.2. Selección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.3. Cruzamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.4. Mutación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3.5. Clonación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3.6. Reemplazo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1
3.4. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4. Toma de Decisiones 18
4.1. Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.2. Teorı́a de la Decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2.1. George Dantzig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2.2. Abraham Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2.3. Leonard Savage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.4. John Von Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.5. Oskar Morgenstern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.6. Robert Schlaifer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.7. Howard Raifa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.3. Descripción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.1. Fases en una decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.2. Definir el problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.3. Tipos de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.4. Toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4. Cálculo del valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.1. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.2. Árboles de decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.3. Representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.4. Método de cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5. Cálculo del Riesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.1. Riesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5. Redes Neuronales 27
5.1. Descripción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2. Tipos de redes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2.1. Gráfico de Red Neuronal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2.2. Componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.3. Cálculo de una red neuronal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.4. Perceptrón Multicapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
6. Aplicaciones a la Domótica 30
6.1. Definiciones de edificios inteligentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.1. Grados de inteligencia en los edificios . . . . . . . . . . . . . . . . . . . . . . 30
6.1.2. Escuela de Ingenierı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2. La domótica y la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3. Eficiencia energética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3.1. Sensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3.2. Consumos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.3.3. Casos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4. Seguridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4.1. Seguridad Informática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4.2. Sensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.4.3. Casos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5. Protocolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5.1. Mejora de los protocolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5.2. Casos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.6. Autoaprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.6.1. Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.7. Minerı́a de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.7.1. Fases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.7.2. Técnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7. Bibliografı́a 36
1. Génesis
1.1. Introducción histórica
1.1.1. Orı́genes
Los intentos de replicar organismos vivos mediante máquinas son muy an-
tiguos. Aristóteles (384-322 a.C.) dio el primer paso hacia la Inteligencia
Artificial (IA) al explicar ciertos estilos de razonamiento deductivo que él
llamó silogismos. Para los griegos, la inteligencia o razón era la parte esen-
cial del ser humano, constitutiva de su alma y, por lo tanto, debı́a ser algo
eterno y simple [Muñ13].
1.1.2. Autómatas
En el siglo XVIII asistimos a la creación de diversos autómatas,
capaces de ejecutar piezas de música o de baile, que se pusieron
de moda especialmente en la corte francesa. Pero no tenı́an un
ápice de inteligencia; simplemente se movı́an automáticamente
en respuesta a un estı́mulo determinado.
1.1.4. Literatura
En cuanto a la literatura, mencionaremos :
la novela de Mary Shelley de 1816 con la creación monstruosa del doctor Frankenstein. En
este relato, la autora hace una crı́tica a la irresponsabilidad de la ciencia, que no puede
hacerse cargo de su propia creación. Veamos como describe el nacimiento de la criatura:
Sólo con considerable dificultad, puedo recordar la era original de mi ser: Todos los eventos de
ese periodo aparecen confusos e indistintos. Una extraña multiplicidad de sensaciones creció
en mi, y yo vi, sentı́, escuché y olfateé, al mismo tiempo; y transcurrió un largo tiempo antes
de que aprendiera a distinguir las operaciones de mis varios sentidos... ((
Estaba oscuro cuando desperté; Sentı́ frı́o también, y medio congelado, instintivamente, me
encontré desolado... Pronto una amable luz desde los cielos me produjo una sensación de
placer. Me levanté, y una forma radiante surgió de entre los árboles...))
Posterior (1883) es la novela de Carlo Collodi que narra la creación del niño Pinocho a cargo
del carpintero Gepetto.
En el siglo XX está la novela de Gustav Meyrinck, basada en leyendas medievales, El Golem,
hombre de barro creado por el rabino Low, que le otorga vida a través de la palabra y que
se convirtió en un asesino sin control.
Una nueva versión (Deeper Blue) se enfrento de nuevo a Kaspárov en mayo de 1997 con el
resultado a seis partidas de 3.5-2.5. Por vez primera un ordenador derrotaba a un campeón del
mundo vigente.
Deep Blue era capaz de calcular 200 millones de posiciones por segundo. Sin embargo,
aunque el hombre tiene una capacidad de cálculo considerablemente inferior, éste la compensa con
su intuición, de la que carece el ordenador.
En febrero de 2011 Watson, otro superordenador creado por IBM, logró ganar una competición
de tres dı́as jugando al programa televisivo Jeopardy1 , en el que derrotó a los dos máximos
campeones en la historia del programa. A diferencia de Deep Blue, Watson debió ser programado
con una inmensa cantidad de información, y con un motor de inteligencia artificial capaz de decidir
por si sólo la respuesta más acertada a cada pregunta del programa.
Para la prueba situamos a un juez en una habitación y una máquina y un ser humano en otras
dos2 . El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos
permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es
que si ambos jugadores eran suficientemente hábiles, el juez no podrı́a distinguir quién era el ser
humano y quién la máquina3 .
2 Se fundamenta en la hipótesis que, si una máquina se comporta en todos los aspectos como inteligente, entonces
1.3.2. Categorı́as
Stuart Russell y Peter Norvig diferencian las categorı́as [RN10]:
1. Sistemas que piensan como humanos: Estos sistemas tratan de emular el pensamien-
to humano (p.ej. las redes neuronales artificiales). Automatizan actividades vinculadas con
procesos de pensamiento humano (toma de decisiones, resolución de problemas, aprendizaje).
2. Sistemas que actúan como humanos: Estos sistemas tratan de actuar como humanos
(p.ej. la robótica). Intentan lograr que los ordenadores realicen tareas que los humanos hacen
mejor.
3. Sistemas que piensan racionalmente: Tratan de imitar o emular el pensamiento lógico
racional (p.ej. sistemas expertos). Usan procesos que hacen posible percibir, razonar y actuar.
4. Sistemas que actúan racionalmente: Tratan de emular de forma racional el comporta-
miento humano (p.ej. los agentes inteligentes). Estudian conductas inteligentes en artefactos.
CEREBRO ORDENADOR
Analógico Digital
1011 neuronas 108 puertas lógicas
Masivamente paralelo Secuencial/paralelo
Entrenado (aprendizaje) Programado
Neuronas lentas Conexiones rápidas
Lógica difusa Lógica precisa
Tolerancia al ruido Intolerancia al ruido
Tolerancia a fallos Intolerancia a fallos
Procesamiento sub-simbólico Procesamiento numér. y simból.
Memoria direccionable Memoria no direccionable
Memoria distribuida Memoria localizada
Facilidad en reconocer patrones Dificultad en reconocer patrones
1.3.4. Tipos de simulación
Para aquellos problemas dónde se requiera el uso de la Inteligencia Artificial, las técnicas más
conocidas son las siguientes:
1. Sistemas Expertos
2. Algoritmos Genéticos
3. Toma de Decisiones
4. Redes Neuronales Artificiales
2. Sistemas Expertos
2.1. Definición y caracterı́sticas
Definición 2.1 Un Sistema Experto (SE) se puede definir como aquel programa de ordenador que
contiene la erudición de un especialista humano versado en un determinado campo de aplicación.
1. Selección de la Aplicación
Es posible modelarla
Está justificado su desarrollo
Es apropiado realizarlo
2. Selección de la Herramienta de desarrollo del SE
Lenguaje de programación
Base de datos experiencial
3. Diseño de ingenierı́a y construcción del prototipo
Identificación y Conceptualización
Formalización e Implementación
Verificación
4. Integración y Mantenimiento en régimen de producción
Coordinación con el entorno de trabajo
Evaluación y retroalimentación
2.4. Ejemplos
Definición 3.1 Los algoritmos genéticos (AG) hacen evolucionar una población de individuos
sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución biológica.
Un algoritmo genético puede presentar diversas variaciones, dependiendo de cómo se aplican los
operadores genéticos (cruzamiento, mutación), de cómo se realiza la selección y de cómo se decide el
reemplazo de los individuos para formar la nueva población. Gráficamente, el proceso es el siguiente:
3.2.2. Evaluación
A cada uno de los cromosomas de esta población se aplicará la función de aptitud para saber
cómo de buena es la solución que se está codificando.
3.3. Operaciones
3.3.1. Clasificación
Selección: Después de saber la aptitud de cada cromosoma se procede a elegir los cromoso-
mas que serán cruzados en la siguiente generación. Los cromosomas con mejor aptitud tienen
mayor probabilidad de ser seleccionados.
Cruzamiento o Recombinación: El cruzamiento es el principal operador genético, representa
la reproducción sexual, opera sobre dos cromosomas a la vez para generar dos descendientes
donde se combinan las caracterı́sticas de ambos cromosomas padres.
Mutación: modifica al azar parte del cromosoma de los individuos, y permite alcanzar zonas
del espacio de búsqueda que no estaban cubiertas por los individuos de la población actual.
Una mutación sin cambios es la clonación [Mer03].
Reemplazo: una vez aplicados los operadores genéticos, se seleccionan los mejores individuos
para conformar la población de la generación siguiente
3.3.2. Selección
Definición 3.2 Debemos seleccionar de todo un poco, especialmente al principio, pero teniendo
una mayor preferencia por los mejores, sobre todo al final [GPF00]
El algoritmo genético trata de explorar las regiones más prometedoras del espacio de búsqueda del
problema. Al encontrar una zona con pesos altos, ésta se explora más a fondo, pero hay que evitar
que el algoritmo se estanque en una determinada zona, produciendo multitud de cadenas muy pa-
recidas. De igual forma, se ha de evitar lo contrario, que el algoritmo distribuya tan uniformemente
el espacio de búsqueda que casi se dejen de explorar las mejores zonas. Se trata de encontrar un
equilibrio entre ambas posibilidades. Se busca que el algoritmo llegue al óptimo rápidamente pero
sin quedarse estancado en un máximo local.
Tipos de Muestreos
3.3.3. Cruzamiento
Una vez hecha la selección de la generación o población base, algunos de los individuos de dicha
población deben reproducirse, y esto se consigue aplicándoles a dichos individuos los operadores
genéticos. Estos sufrirán una serie de transformaciones, para dar lugar a una descendencia, que se
unirá a la población. Para la determinación de los individuos que se decide reproducir, se realiza
un ensayo de Bernoulli, es decir, se escogen aleatoriamente. No suele ser habitual trabajar dando
de forma anticipada el número de individuos a reproducir, lo habitual es disponer de unas proba-
bilidades de aplicación de los operadores genéticos, y a partir de dichos valores de probabilidad, se
va decidiendo si cada individuo es reproducido o no.
Definición 3.3 El operador cruzamiento se aplica a parejas de individuos, que combinan sus ca-
racterı́sticas para dar lugar a una nueva pareja, los descendientes.
Ejemplo de aplicación:
Tipo 2 Order-crossover (OX) desarrollado por Davis en 1985: este cruce consiste en elegir para
cada descendiente un tramo de uno de los progenitores y a la vez preservar el orden relativo de
todos los datos del otro.
Ejemplo de aplicación:
Tipo 3 Cycle-crossover (CX) propuesto por Oliver y otros en 1987: se trata de que cada cro-
mosoma herede sucesivamente la posición de uno de los progenitores mediante ciclos.
Ejemplo de aplicación:
123456789
452187693
Ejemplo de aplicación:
123456-789
452187-693
123456-879
452163-789
3.3.4. Mutación
Definición 3.4 La mutación es una variación de las informaciones contenidas en el código genéti-
co. Habitualmente es un intercambio de datos escogidos de forma aleatoria [Min00].
Tipo 1 Mutación por Inversión: Selecciona dos posiciones al azar dentro de un cromosoma
para marcar una zona e invierte los datos contenidos en ella.
Ejemplo de aplicación:
Dado un padre y una zona:
123456789
Se genera el hijo:
126543789
Tipo 2 Mutación por Desplazamiento: Selecciona una zona al azar y lo inserta en una posi-
ción aleatoria.
Ejemplo de aplicación:
Dado un padre y una zona:
123456789
Se genera el hijo eligiendo una posición aleatoria:
345612789
Si la zona tiene un único dato se llama Mutación por Inserción
Tipo 3 Mutación por Intercambio Recı́proco: Selecciona dos posiciones aleatorias y luego
intercambia los datos de estas posiciones.
Ejemplo de aplicación:
Dado un padre y dos posiciones:
123456789
Se genera el hijo:
126453789
Tipo 4 Mutación Heurı́stica: Cheng y Gen proponen este tipo de mutación. Se eligen algunas
posiciones, se permutan y desarrollan todos los hijos posibles y se escoge el de más valor.
Ejemplo de aplicación: Dado un padre y unas posiciones:
123456789
Se generan todos los hijos posibles:
1 2 3 4 5 8 7 6 9
1 2 8 4 5 3 7 6 9
1 2 8 4 5 6 7 3 9
1 2 6 4 5 8 7 3 9
1 2 6 4 5 3 7 8 9
3.3.5. Clonación
El uso de la clonación fue introducido en 2003 por Salvador Merino [Mer03]. La idea es que,
dado que en multitud de ocasiones los hijos no mejoran la valoración de los padres, siempre puedan
conservarse de una generación a otra el cromosoma de un padre ı́ntegramente. Con ello podemos
producir cruces y mutaciones futuras más enriquecedoras.
La probabilidad de clonación debe ser suficientemente baja (menor que la mutación) para no
degenerar la población, y debe hacerse especialmente en progenitores de alto valor.
3.3.6. Reemplazo
Es la tercera etapa de los AGs. Tras la etapa anterior de reproducción, la población que cons-
tituye ahora el AG está formada por los n individuos de partida a los que se han sumado los s
individuos descendientes que se han generado. Por lo tanto la población en este punto es de n + s
individuos. Esta etapa será pues la que lleve a cabo la selección de los n individuos que constituyan
la nueva población, existen varias formas de realizar esto.
Reemplazo inmediato: Es el más simple de todos. Los s descendientes sustituyen a sus
progenitores.
Reemplazo con factor de llenado: En este caso los s descendientes sustituyen a s indivi-
duos de la población de progenitores, sin ningún tipo de criterio.
Reemplazo por inclusión: En este reemplazo se juntan los s descendientes con los n
individuos de la población originaria, para hacer un muestreo de n individuos que constituirán
la nueva población.
3.4. Aplicaciones
Diseño de vehı́culos espaciales
La decisión requiere la elección de una forma de actuar entre varias formas alternativas posibles y
dicha elección ha de hacerse de forma que cumpla algún fin determinado. Hablando en términos
generales, el fin será elegir una actuación que lleve en el futuro a una situación deseable.
Hay que observar que el tiempo es uno de los elementos del problema de decisión, puesto que la
decisión que tomamos en el momento presente, da lugar a una acción que provocará un resultado
en el futuro. Además, la decisión del presente se alimenta con los datos del pasado. Desde luego,
estamos suponiendo que el resultado dependerá del acto que se realice, pues de otra forma la
decisión no tendrı́a importancia.
Para tomar la decisión hay que prever el futuro, o sea hay que predecir y calcular las consecuen-
cias de cada una de las posibles acciones, teniendo en cuenta, además, los cambios que pudieran
tener lugar en el escenario donde la acción se va a realizar.
En nuestra época ha aparecido un nuevo grupo de personas que toman decisiones: es la de los
dirigentes de empresa y de otras organizaciones. En efecto, el conjunto de las decisiones de todos
estos directivos impacta en la estructura económica y social de las naciones.
4.3. Descripción
4.3.1. Fases en una decisión
1. Definir el problema
El problema es nuevo
El problema es repetitivo
No programadas
Merecen una atención especial
La idea del valor esperado consiste en que al decidir entre un cierto número de acciones, cada
una de ellas con un número de resultados asociados que poseen probabilidades diferentes. El pro-
cedimiento matemático es identificar todos los posibles resultados de las acciones, determinar sus
valores (positivos o negativos) y sus probabilidades asociadas, resultantes de cada acción. Poste-
riormente, al multiplicar los pares de datos (valores y probabilidades), se obtiene el valor esperado.
La acción elegida deberá ser aquella que proporcione el mayor valor esperado.
Estos valores esperados se calculan mediante los árboles de decisión. Con ellos se desarrolla una
estrategia óptima cuando el tomador de decisiones se enfrenta con:
Resultados de las posibles interacciones entre las alternativas de decisión y los eventos. Tam-
bién se les conoce con el nombre de Pagos
4.4.3. Representación
La simbologı́a a usar será la siguiente:
Ramas: se representan con lı́neas
Nodos de decisión: de ellos salen las ramas de decisión y se representan con un cuadrado
con fondo azul
Nodos de incertidumbre: de ellos salen las ramas de los eventos y se representan con un
cuadrado con fondo rojo. Aquı́ se calcula el valor esperado respecto a las ramas que salen de
ellos.
Pago 1
1
e nto
Ev x 1)
p(
Evento 2
E(X) Pago 2
iva
rnat p(x2 )
Alte Ev
1 en
Decisión t
Alte p(x o 3
rnat 3)
iva
2
E(X) Pago 3
Generalmente se inicia de derecha a izquierda, calculando cada pago al final de las ramas
Posteriormente en cada nodo de evento se calcula un valor esperado
Finalmente en cada punto de decisión se selecciona la alternativa con el valor esperado óptimo
4.4.5. Ejemplos
Ejemplo 4.1 Debemos decidir si compramos por 1000 e un número de una rifa, entre 100 valores
posibles, donde el premio es de 50.000 e.
x1 = 49,000 e
ar
gan 1
) = 100
(x 1
E(X) =-500 p
perd
Sı́ p
er
p rar (x2 )
= 99
C om 100 x2 = −1000 e
Decisión
N
com o
pra
r
E(X) =0
Unidades Probabilidad
6.000 0.30
8.000 0.50
10.000 0.20
u.
00 0
6.0 0,3
)=
p(x 1
8.000 u.
E(X) =33.000 x2 = 30,000 e
o p(x2 ) = 0,50
equip
u. 10
p rar 0 e/ p(x .000
om a1 3) u.
C
c tos =
0,3
du 0
pro
Decisión x3 = 50,000 e
No
com
pro pra
du re E(X) =13.750
cto qu
sa ip o i dad
5.5 ublic
e/ Sin p
u.
x1 = 16,250 e
0 u.
Con 5.50
80
publ
icida = 0,
d p (x 1 )
E(X) =16.200
4.00
0 u.
p( x
2) =
0,20 x2 = 8,000 e
4.5.2. Ejemplos
Ejemplo 4.3 A Julian le han pedido 3 programaciones domóticas en 3 viviendas distintas y debe
escoger cuál realizar primero. Ha determinado que la dificultad de las mismas es similar y puede
tardar entre 7 y 11 dı́as en realizar cualesquiera de ellas. Considera que tiene una probabilidad 0.3
de tardar 7 dı́as y 0.5 de tardar 9 dı́as o menos.
Ejemplo 4.4 La compañı́a de Julian tiene un pleito por impago de un proyecto por parte de un
cliente. Los abogados de ese cliente le hacen una oferta de 210.000 e por no ir a juicio. Si la
empresa no acepta esta indemnización y decide ir a juicio puede obtener 185.000 e, 415.000 e
ó 580.000 e dependiendo de las alegaciones que el juez considere aceptables. Si pierde el juicio
tendrá que pagar las costas del mismo, que ascienden a 30.000 e.
x1 = 185,000 e
jo
Ba 0
0,5
x 1 )=
p(
Medio
E(X) =333.000 x1 = 415,000 e
p(x2 ) = 0,30
Gana
0
= 0,7 Alt
E(X) =224.000 p( x 1 ) p(x o
3)
=0
Pierd ,20
Ir a e
p(x2 ) x3 = 580,000 e
io = 0,3
juic 0 x3 = −30,000 e
Decisión
Res
olu
ext ci
ra ju ón
dici
al
E(X) =210.000
Observamos que, aunque por poco, la mejor opción es ir a juicio. Nuevamente dependerá de la
capacidad de riesgo de la empresa para tomar esta decisión.
5. Redes Neuronales
5.1. Descripción
Definición 5.1 Las redes de neuronas artificiales (denominadas habitualmente como RNA) son
un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona
el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que
colaboran entre sı́ para producir un estı́mulo de salida.
Los primeros modelos de RNA datan de 1943 por los neurólogos McCulloch y Pitts. En 1949,
Donald Hebb desarrolló sus ideas sobre el aprendizaje neuronal, quedando reflejado en la ”regla
de Hebb”. En 1958, Rosemblatt desarrolló el perceptrón simple, y en 1960, Widrow y Hoff desa-
rrollaron el ADALINE, que fue la primera aplicación industrial real. En los años 80, volvieron a
resurgir las RNA gracias al desarrollo de la red de Hopfield y de los perceptrones multicapa.
Red neuronal artificial perceptrón multicapa con n neuronas de entrada, m neuronas en su capa
oculta y una neurona de escape.
5.2.2. Componentes
Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie
de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones:
1. Una función de propagación (o de excitación), definida habitualmente como la suma de
cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo,
la conexión se denomina excitatoria; si es negativo, inhibitoria.
2. Una función de activación, que modifica a la anterior. Si no existe, la salida es la misma
función de propagación.
3. Una función de transferencia, que se aplica al valor devuelto por la función de activación.
Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación
que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea
(con valores en [0, 1]) y la tangente hiperbólica (con valores en [−1, 1]).
T otal = x0 w0 + x1 w1 + x2 w2 > 0
Para cumplir las condiciones del ejemplo, los valores de entrada y la respuesta deben ser los
siguientes 4 :
x1 x2 salida
0 0 0
1 0 0
0 1 0
1 1 1
Solución:
Partimos de w0 = w1 = w2 = 0 y C = 1, obteniendo:
−2 + 1 · x1 + 2 · x2 > 0
1. Totalmente conectado: cada salida de una neurona de la capa i es entrada de todas las
neuronas de la capa i + 1
Ejercicio
Entrenar una red neuronal formada por tres neuronas y una neurona Bias
donde, si alguna de las variables x1 y x2 están activas (valen 1), la salida
valdrá 1. En el caso de que ambas estén inactivas será 0. La condición de
activación de la tercera neurona será
T ot = x0 w0 + x1 w1 + x2 w2 > 0
Una definición más técnica del concepto serı́a: ”el conjunto de servicios de la vivienda garan-
tizado por sistemas que realizan varias funciones, los cuales pueden estar conectados entre sı́ y
a redes interiores y exteriores de comunicación. Gracias a ello se obtiene un notable ahorro de
energı́a, una eficaz gestión técnica de la vivienda, una buena comunicación con el exterior y un
alto nivel de seguridad”.
Si estas tecnologı́as se
conectan a los sensores
de consumo de una vi-
vienda, tendremos una
información en tiempo
real del entorno y podre-
mos tomar las decisiones
adecuadas.
6.3.2. Consumos
Esta información de los
sensores se combina con
los usos y costumbres de
los habitantes y nos dan
el nivel de confort exigi-
do por los usuarios
6.4. Seguridad
6.4.1. Seguridad Informática
Una de las principales aplicaciones de la IA en la domótica es el campo de la seguridad in-
formática, para evitar la intrusión desde el exterior sobre el sistema informático de la vivienda.
Los algoritmos creados por Crouse y Fulp aprovechan que, de hecho, los virus informáticos
identifican los mecanismos de defensa de la vı́ctima antes de atacar. Pero si ocurre un ligero
cambio en la configuración del sistema, el ataque puede disuadirse.
6.4.2. Sensores
2. Sistema NIDES: Next Generation Intrusion Detection Systems. Basado en las redes neurona-
les trata de analizar el comportamiento habitual de los usuarios y descubrir anomalı́as. Los
sistemas antivirus de McAfee han incorporado estas técnicas [Rap04].
3. Sistemas expertos para la detección de intrusos [MHL94].
6.5. Protocolos
6.5.1. Mejora de los protocolos
La transmisión de información en los sistemas domóticos, especialmente a raı́z del desarrollo de
los sistemas BUS y su estándar KNX, se realiza mediante telegramas de ceros y unos que establecen
las relaciones entre los diferentes dispositivos.
6.6. Autoaprendizaje
En la domótica uno de los retos futuros será la capacidad de los sistemas para aprender de
los usuarios y predecir, en lo posible, sus deseos. Para ello es necesario un proceso de aprendizaje
basado en el establecimiento de bases de datos, suficientemente precisas y amplias, que incorporen
los hábitos de las personas.
Entre los sistemas más recientes, que incorporan la inteligencia artificial a los procesos de
autoaprendizaje de las instalaciones domóticas, podemos resaltar Openhab. El proyecto de la
Universidad CEU Cardenal Herrera en Solar Decathlon, llamado SMLSystem (obtuvo el segundo
puesto en balance energético), ha hecho uso de esta herramienta para programar su instalación
KNX. A partir de ella, y gracias a la capacidad de enlace mediante webservices REST, SMLSystem
es capaz de obtener datos y predecir el estado de la casa.
6.6.1. Datos
La entrada de datos se
produce a través de los
diferentes sensores de
los que dispone la
vivienda, y son
contrastados con las
decisiones habituales
que toman los usuarios.
En el caso de redes
neuronales, los sensores
nos darı́an las entradas,
y las decisiones del
usuario serı́an los
premios y castigos a la
solución propuesta.
6.7.1. Fases
1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo (las que
se quiere predecir), como a las variables independientes (las que sirven para hacer el cálculo).
2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas de
dispersión, presencia de valores atı́picos y ausencia de datos (valores nulos).
3. Transformación del conjunto de datos de entrada, con el objetivo de prepararlo para
aplicar la técnica de minerı́a de datos que mejor se adapte a los datos y al problema.
4. Seleccionar y aplicar la técnica de minerı́a de datos, se construye el modelo predictivo,
de clasificación o segmentación.
5. Extracción de conocimiento, aquı́ se obtiene un modelo de conocimiento, que represen-
ta patrones de comportamiento observados en los valores de las variables del problema o
relaciones de asociación entre dichas variables.
6. Interpretación y evaluación de datos. Una vez obtenido el modelo se debe proceder a
su validación, comprobando que las conclusiones son válidas y suficientemente satisfactorias.
6.7.2. Técnicas
1. Redes neuronales.
El perceptrón simple y el perceptrón multicapa.
Los mapas autoorganizados (redes de Kohonen).
2. Modelos estadı́sticos.
6. Algoritmos genéticos.
7. Bibliografı́a
Referencias
[Cor12] Javier Cortés. Aplicación de sistemas expertos para el diseño de edificios eficientes
energéticamente. Master’s thesis, ETS de Ingenierı́a, Universidad de Sevilla, 2012.
[dE13] Organización de Empresas. Inteligencia artificial aplicada a la gestión de empresas.
EPS de Ingenierı́a de Gijón, 2013. Universidad de Gijón.
[GH88] D.E. Goldberg and J.H. Holland. Special Issue on Genetic Algorithms. Machine
learning. Kluwer Academic Publishers, 1988.
[GPF00] A. Gómez, J. Parreño, and I. Fernández. Aplicaciones de los Algoritmos Genéticos
en la industria. 2000.
[Mer03] Salvador Merino. Optimización en el Diseño de Torres. PhD thesis, Matemática
Aplicada. Universidad de Málaga, 2003.
[MGMA12] S. Merino, J.L. Galán, J. Martı́nez, and M. Aguilera. Classifying the items of a
Likert based questionnaire in different competences. 2012.
[MHL94] B. Mukherjee, L. T. Heberlein, and K. N. Levitt. Network intrusion detection. IEEE
Network, pages 26–41, 1994.
[MI11] S. Merino and J.M. Iglesias. Pather, servicios orientados al fomento de la autonomı́a
en interiores. II Foro Internacional de Diseño Universal: Design for all, 2011.
[Min00] Gabriela Minetti. Una solución de computación evolutiva para el TSP, su posible
aplicación en las organizaciones. PhD thesis, Universidad Nacional de la Plata.
Argentina, 2000.
[MS96] Z. Michalewicz and M. Schoenauer. Evolutionary algorithms for constrained para-
meter optimization problems. Evolutionary Computation, 4:1–32, 1996.
[Muñ13] José Muñoz. Conferencia sobre inteligencia artificial. Universidad de Málaga, 2013.
[OBS05] G. Ovando, M. Bocco, and S. Sayago. Redes neuronales para modelar la predicción
de heladas. Agricultura Técnica, 65:65–73, 2005.
[Rap04] A.N. Rapaka. Next Generation Intrusion Detection System. University of Missouri–
Rolla, 2004.