Você está na página 1de 36

Inteligencia artificial

Máster en Domótica, Gestión de la Energı́a y Gestión Técnica de Edificios


Prof. Dr. Salvador Merino Córdoba
smerino@uma.es
Departamento de Matemática Aplicada
Escuela de Ingenierı́as. Universidad de Málaga

Índice
1. Génesis 3
1.1. Introducción histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Orı́genes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2. Autómatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3. Ciencia ficción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4. Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.5. Edad mecánica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.6. Edad de la computación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.7. Época actual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Caracterización y test de Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1. Cuestiones que plantea la Inteligencia Artificial . . . . . . . . . . . . . . . . 5
1.2.2. Test de Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3. Superar el Test de Turing: Ordenador lamus . . . . . . . . . . . . . . . . . . 6
1.2.4. Habitación china . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Estructura de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1. Procesos de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2. Categorı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3. Cerebro versus ordenador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4. Tipos de simulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2. Sistemas Expertos 9
2.1. Definición y caracterı́sticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Ventajas y desventajas frente al experto humano . . . . . . . . . . . . . . . . . . . 9
2.3. Construcción de un Sistema Experto . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.1. Sistema automático de aparcamiento de Audi . . . . . . . . . . . . . . . . . 10
2.4.2. Sistema de almacenamiento y dispensado en farmacias . . . . . . . . . . . . 10
2.5. Sistema de cálculo, diseño y fabricación de torres . . . . . . . . . . . . . . . . . . . 10
2.5.1. Tipos de Torres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3. Algoritmos Genéticos 12
3.1. Historia y descripción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2. Fases de un Algoritmo Genético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1. Inicialización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.2. Evaluación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.3. Condición de término . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3. Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3.1. Clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3.2. Selección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.3. Cruzamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.4. Mutación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3.5. Clonación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3.6. Reemplazo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1
3.4. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4. Toma de Decisiones 18
4.1. Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.2. Teorı́a de la Decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2.1. George Dantzig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2.2. Abraham Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2.3. Leonard Savage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.4. John Von Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.5. Oskar Morgenstern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.6. Robert Schlaifer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.7. Howard Raifa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.3. Descripción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.1. Fases en una decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.2. Definir el problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.3. Tipos de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.4. Toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4. Cálculo del valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.1. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.2. Árboles de decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.3. Representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.4. Método de cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5. Cálculo del Riesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.1. Riesgo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

5. Redes Neuronales 27
5.1. Descripción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2. Tipos de redes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2.1. Gráfico de Red Neuronal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2.2. Componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.3. Cálculo de una red neuronal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.4. Perceptrón Multicapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

6. Aplicaciones a la Domótica 30
6.1. Definiciones de edificios inteligentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.1. Grados de inteligencia en los edificios . . . . . . . . . . . . . . . . . . . . . . 30
6.1.2. Escuela de Ingenierı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2. La domótica y la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3. Eficiencia energética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3.1. Sensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3.2. Consumos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.3.3. Casos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4. Seguridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4.1. Seguridad Informática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4.2. Sensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.4.3. Casos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5. Protocolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5.1. Mejora de los protocolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5.2. Casos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.6. Autoaprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.6.1. Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.7. Minerı́a de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.7.1. Fases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.7.2. Técnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

7. Bibliografı́a 36
1. Génesis
1.1. Introducción histórica
1.1.1. Orı́genes
Los intentos de replicar organismos vivos mediante máquinas son muy an-
tiguos. Aristóteles (384-322 a.C.) dio el primer paso hacia la Inteligencia
Artificial (IA) al explicar ciertos estilos de razonamiento deductivo que él
llamó silogismos. Para los griegos, la inteligencia o razón era la parte esen-
cial del ser humano, constitutiva de su alma y, por lo tanto, debı́a ser algo
eterno y simple [Muñ13].

Ramón Llull (1235-1316), filósofo, teólogo, poeta y mı́stico, diseñó una


máquina lógica, llamada Ars Magna (Gran Arte), de naturaleza mecánica
que operaba con diales, palancas y manivelas de manera que las proposiciones
y tesis se movı́an a lo largo de unas guı́as y se detenı́an frente a la postu-
ra positiva (certeza) o negativa (error) según correspondiera. Según Llull, la
máquina podı́a probar por sı́ misma la verdad o la falsedad de un postulado.

1.1.2. Autómatas
En el siglo XVIII asistimos a la creación de diversos autómatas,
capaces de ejecutar piezas de música o de baile, que se pusieron
de moda especialmente en la corte francesa. Pero no tenı́an un
ápice de inteligencia; simplemente se movı́an automáticamente
en respuesta a un estı́mulo determinado.

En el Renacimiento podemos mencionar a Paracelso, alquimis-


ta que dijo construir un homúnculo (hombrecillo) afirmando:
”seremos dioses; duplicaremos el milagro más grande, la creación
del hombre”. La criatura no habrı́a medido más de 30 centı́me-
tros de alto. Sin embargo, tras poco tiempo, el homúnculo se
volvı́a contra su creador y huı́a.

1.1.3. Ciencia ficción


Hoy en dı́a el cine desarrolla algunas visiones futuristas de lo que será la IA. Un ejemplo de
ello es la pelı́cula de Steven Spilberg Inteligencia Artificial. En la pelı́cula hay una nueva clase
de robots llamados Mecha, humanoides avanzados capaces de emular pensamientos y emociones.

David, un modelo creado


por Cybertronics, es di-
señado para parecerse a
un niño humano y mostrar
amor para sus poseedores
humanos.

Otro ejemplo de cinematografı́a sobre la IA serı́a: Un amigo para Frank. En la pelı́cula


se pone sobre la mesa un asunto muy en boga en el cine de hoy, los problemas derivados de la
atención a personas de edad avanzada que no aceptan de buen grado las soluciones asistenciales
que plantean sus hijos.
Frank es un viejo solitario y
cascarrabias que vive solo.
Su hijo decide regalarle un
robot que se encargará de
cuidarle.

1.1.4. Literatura
En cuanto a la literatura, mencionaremos :
la novela de Mary Shelley de 1816 con la creación monstruosa del doctor Frankenstein. En
este relato, la autora hace una crı́tica a la irresponsabilidad de la ciencia, que no puede
hacerse cargo de su propia creación. Veamos como describe el nacimiento de la criatura:
Sólo con considerable dificultad, puedo recordar la era original de mi ser: Todos los eventos de
ese periodo aparecen confusos e indistintos. Una extraña multiplicidad de sensaciones creció
en mi, y yo vi, sentı́, escuché y olfateé, al mismo tiempo; y transcurrió un largo tiempo antes
de que aprendiera a distinguir las operaciones de mis varios sentidos... ((

Estaba oscuro cuando desperté; Sentı́ frı́o también, y medio congelado, instintivamente, me
encontré desolado... Pronto una amable luz desde los cielos me produjo una sensación de
placer. Me levanté, y una forma radiante surgió de entre los árboles...))
Posterior (1883) es la novela de Carlo Collodi que narra la creación del niño Pinocho a cargo
del carpintero Gepetto.
En el siglo XX está la novela de Gustav Meyrinck, basada en leyendas medievales, El Golem,
hombre de barro creado por el rabino Low, que le otorga vida a través de la palabra y que
se convirtió en un asesino sin control.

1.1.5. Edad mecánica


En el siglo XVII, Descartes pensaba que todos los seres vivos, a excepción del ser humano,
se pueden explicar como meros sistemas mecánicos, dando lugar ası́ al animal-máquina.
El médico y filósofo francés La Mettrie (1709-1751) proponı́a en su libro El Hombre
Máquina que también el ser humano y su comportamiento inteligente se podrı́a explicar por
medios exclusivamente mecánicos. Desarrolla las tesis de la identidad entre funciones psı́qui-
cas y estados corporales. A partir de ahı́ radicalizó la posición de Descartes que consideraba
el cuerpo vivo de los animales como máquinas, extendiendo esta tesis también al ser humano.
No se alcanzó un avance sustancial hasta mediados del siglo XIX cuando George Boole
desarrolló los fundamentos de la lógica de proposiciones.

1.1.6. Edad de la computación


Von Neumann (1903-1957), unos de los mejores matemáticos del siglo XX y pionero de los
ordenadores modernos, no concebı́a que toda la conducta humana pudiera ser expresable en
sı́mbolos lógicos y dudaba más aún acerca de la posibilidad de simular dicha conducta en una
máquina. Se esforzó en señalar nı́tidamente las diferencias entre el sistema neuronal humano
y el sistema electrónico del ordenador. Ası́, resaltaba que mientras el cerebro puede operar
tanto en régimen discreto como en régimen continuo, el ordenador sólo puede ser o digital
(discreto) o analógico (continuo).
Marvin Minsky, uno de los pioneros de la inteligencia artificial, opinaba en 1977 que dentro
de una generación el problema de crear inteligencia artificial habrı́a sido sustancialmente
resuelto. Sin embargo, cinco años más tarde afirmaba que el problema de la inteligencia
artificial es uno de los más difı́ciles que haya abordado la ciencia. La inteligencia humana
está dotada de sentido común y no sabemos como equiparar dicho sentido.
1.1.7. Época actual
El gran impulso a la IA nace en la Conferencia celebrada en el campus de Dartmouth College
en el verano de 1956.
Allı́ asistieron:
• John McCarthy
• Marvin Minsky
• Allen Newell
• Herbert Simon
que llegaron a ser los lı́deres de la investigación en IA durante varias décadadas
A. Newell y H. A. Simon contribuyeron de forma importante al procesamiento simbólico
y vaticinaron en 1967 que podrı́a desarrollarse un programa de ajedrez que fuera campeón
del mundo.

Deep Blue, un ordenador de IBM que jugaba al ajedrez utilizando reglas


lógicas y explorando parte del espacio de soluciones, fue el primer ordena-
dor que venció a un campeón de mundo como Garry Kasparov en una
memorable partida el dı́a 10 de febrero de 1996, aunque Kasparov ganó 3
y empató 2 de las siguientes partidas.

Una nueva versión (Deeper Blue) se enfrento de nuevo a Kaspárov en mayo de 1997 con el
resultado a seis partidas de 3.5-2.5. Por vez primera un ordenador derrotaba a un campeón del
mundo vigente.

Deep Blue era capaz de calcular 200 millones de posiciones por segundo. Sin embargo,
aunque el hombre tiene una capacidad de cálculo considerablemente inferior, éste la compensa con
su intuición, de la que carece el ordenador.

En febrero de 2011 Watson, otro superordenador creado por IBM, logró ganar una competición
de tres dı́as jugando al programa televisivo Jeopardy1 , en el que derrotó a los dos máximos
campeones en la historia del programa. A diferencia de Deep Blue, Watson debió ser programado
con una inmensa cantidad de información, y con un motor de inteligencia artificial capaz de decidir
por si sólo la respuesta más acertada a cada pregunta del programa.

1.2. Caracterización y test de Turing


1.2.1. Interrogantes que plantea la Inteligencia Artificial
¿Puede una máquina ayudarnos a realizar demostraciones de enunciados matemáticos?
¿Qué problemas se pueden resolver con un ordenador?
¿Cuándo una máquina se dice que es inteligente?
¿Puede una máquina ganarle a una persona en un cierto juego o concurso?
¿Llegarán a pensar las máquinas?
¿Qué puede hacer un ser humano que no pueda hacer una máquina?
¿Hay máquinas creativas o con sentimientos?
¿Podrá haber máquinas con conciencia reflexiva?
1 Jeopardy es un concurso de televisión estadounidense con preguntas sobre historia, literatura, arte, cultura
popular, ciencia, deportes, geografı́a, juegos de palabras, y otras temas. El programa tiene un formato de ”respuesta
y pregunta”, en el cual a los concursantes se les presentan pistas en forma de respuestas, y deben dar sus respuestas
en forma de una pregunta.
1.2.2. Test de Turing

El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan


Turing para demostrar la existencia de inteligencia en una máquina.

Fue expuesto en 1950 en un artı́culo (Computing machinery and intelligence)


para la revista Mind, y sigue siendo uno de los mejores métodos para los
defensores de la Inteligencia Artificial.

Para la prueba situamos a un juez en una habitación y una máquina y un ser humano en otras
dos2 . El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos
permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es
que si ambos jugadores eran suficientemente hábiles, el juez no podrı́a distinguir quién era el ser
humano y quién la máquina3 .

1.2.3. Superar el Test de Turing: Ordenador lamus


La música es un arte que se lleva bien con los ordenadores. Los instrumentos musicales sinteti-
zados son habituales desde hace muchos años. ¿Pueden también componer? Sı́, hasta el punto de
superar el Test de Turing y confundir a los expertos.

Iamus, un compositor vir-


tual de la UMA es un ejem-
plo. Sigue los pasos de Da-
vid Cope creador de Emmy,
capaz de competir con el
mismı́simo Mozart.

1.2.4. Habitación china


Para tratar de rebatir el Test de Turing, el filósofo John Searle y el matemático Roger
Penrose plantearon el siguiente reto: construimos una máquina, del tamaño de una habitación,
que cuando recibe en su entrada textos en el idioma chino, lo procesa y emite como respuesta
(coherente) otro texto en chino. Esta máquina pasarı́a el Test de Turing al convencer a cualquier
chino que entiende su idioma.
Ahora supongamos que dentro de la habitación se encuentra una persona que desconoce el
chino. Se encuentra completamente aislada del exterior, salvo por la ranura por la que entran y
salen las hojas de papel, con los textos escritos en chino. Esta persona dispone de manuales con
las reglas que relacionan los caracteres chinos de entrada y los que debe escribir para enviar a la
salida.

Searle explica que la


habitación china tiene
la capacidad de hacer-
le creer a la persona
que interactúa con ella
que comprende el idio-
ma chino, a pesar de que
quien está en su inte-
rior nunca haya hablado
o leı́do ese idioma.

2 Se fundamenta en la hipótesis que, si una máquina se comporta en todos los aspectos como inteligente, entonces

debe ser inteligente.


3 La primera y única vez que se superó el test de Turing fue en el año 2010, cuando el robot Suzette, de Bruce

Wilcox, superó la prueba


1.3. Estructura de la Inteligencia Artificial
1.3.1. Procesos de la Inteligencia Artificial
El problema general de simular la inteligencia se puede descomponer en varios subproblemas
especı́ficos:

Deducción, razonamiento y resolución de problemas


Representación del conocimiento
Planificación
Aprendizaje automático
Procesado del lenguaje natural
Movimiento y manipulación
Percepción
Inteligencia social
Creatividad
Inteligencia general
Integración de los diferentes enfoques

La IA es el conjunto de técnicas, métodos, herramientas y metodologı́as que nos ayudan a


construir sistemas que se comportan de manera similar a un ser humano en la resolución de
problemas concretos.

1.3.2. Categorı́as
Stuart Russell y Peter Norvig diferencian las categorı́as [RN10]:

1. Sistemas que piensan como humanos: Estos sistemas tratan de emular el pensamien-
to humano (p.ej. las redes neuronales artificiales). Automatizan actividades vinculadas con
procesos de pensamiento humano (toma de decisiones, resolución de problemas, aprendizaje).

2. Sistemas que actúan como humanos: Estos sistemas tratan de actuar como humanos
(p.ej. la robótica). Intentan lograr que los ordenadores realicen tareas que los humanos hacen
mejor.
3. Sistemas que piensan racionalmente: Tratan de imitar o emular el pensamiento lógico
racional (p.ej. sistemas expertos). Usan procesos que hacen posible percibir, razonar y actuar.
4. Sistemas que actúan racionalmente: Tratan de emular de forma racional el comporta-
miento humano (p.ej. los agentes inteligentes). Estudian conductas inteligentes en artefactos.

1.3.3. Cerebro versus ordenador

CEREBRO ORDENADOR
Analógico Digital
1011 neuronas 108 puertas lógicas
Masivamente paralelo Secuencial/paralelo
Entrenado (aprendizaje) Programado
Neuronas lentas Conexiones rápidas
Lógica difusa Lógica precisa
Tolerancia al ruido Intolerancia al ruido
Tolerancia a fallos Intolerancia a fallos
Procesamiento sub-simbólico Procesamiento numér. y simból.
Memoria direccionable Memoria no direccionable
Memoria distribuida Memoria localizada
Facilidad en reconocer patrones Dificultad en reconocer patrones
1.3.4. Tipos de simulación
Para aquellos problemas dónde se requiera el uso de la Inteligencia Artificial, las técnicas más
conocidas son las siguientes:

1. Sistemas Expertos
2. Algoritmos Genéticos
3. Toma de Decisiones
4. Redes Neuronales Artificiales
2. Sistemas Expertos
2.1. Definición y caracterı́sticas
Definición 2.1 Un Sistema Experto (SE) se puede definir como aquel programa de ordenador que
contiene la erudición de un especialista humano versado en un determinado campo de aplicación.

Caracterı́sticas que debe cumplir un SE [dE13]:


Resolver el problema que se les plantea de la misma manera que el experto humano
Trabajar con datos incompletos o información insegura
Explicar el resultado obtenido
Aprender conocimientos nuevos sobre la marcha
Reestructurar los conocimientos de que dispone en función de datos nuevos
Saltarse las normas, cuando se llega a la conclusión de que éstas no son aplicables a nuestro
caso concreto

2.2. Ventajas y desventajas frente al experto humano


Ventajas frente al experto humano:
El conocimiento contenido en un Sistema Experto es más fácil de documentar y de transferir
que el de los expertos humanos
El conocimiento permanece tras la desaparición del experto. Forma parte del ”know-how” de
la empresa
Es fácilmente transportable y utilizable simultáneamente en distintos lugares
No se ”cansan” ni están sujetos a presiones
A la larga pueden ser más rentables que los expertos humanos
Desventajas frente al experto humano:
Carecen por completo de creatividad y de sentido común
Sólo sirven para parcelas bien acotadas del conocimiento frente a la mayor universalidad del
saber humano
Reciben sus entradas de forma simbólica mientras que el ser humano utiliza sus sentidos
De momento tienen grandes dificultades para adquirir nuevos conocimientos por sı́ mismos

2.3. Construcción de un Sistema Experto

Fases de la construcción del Sistema Experto

1. Selección de la Aplicación
Es posible modelarla
Está justificado su desarrollo
Es apropiado realizarlo
2. Selección de la Herramienta de desarrollo del SE
Lenguaje de programación
Base de datos experiencial
3. Diseño de ingenierı́a y construcción del prototipo
Identificación y Conceptualización
Formalización e Implementación
Verificación
4. Integración y Mantenimiento en régimen de producción
Coordinación con el entorno de trabajo
Evaluación y retroalimentación

2.4. Ejemplos

2.4.1. Sistema automático de aparcamiento de Audi

2.4.2. Sistema de almacenamiento y dispensado en farmacias

2.5. Sistema de cálculo, diseño y fabricación de torres


2.5.1. Tipos de Torres

Piramidal Delta Telecomunicaciones


3. Algoritmos Genéticos
3.1. Historia y descripción
Comenzaron a desarrollarse a finales del decenio de 1950 con el fin de investigar la teorı́a y la
práctica de la evolución algorı́tmica. La formulación ya tradicional del AG [GH88], consiste en ir
mejorando, generación tras generación, la calidad de los individuos de una especie dada. Para ello
se parte de una generación básica ó inicial, normalmente obtenida en forma aleatoria; se seleccionan
los mejores individuos de ella, con base en el criterio de optimización que se persiga, y luego por un
proceso de cruce y mutación se van obtiendo nuevas generaciones. Progresivamente se consiguen
individuos cada vez más cercanos al óptimo buscado.

Definición 3.1 Los algoritmos genéticos (AG) hacen evolucionar una población de individuos
sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución biológica.

Un algoritmo genético puede presentar diversas variaciones, dependiendo de cómo se aplican los
operadores genéticos (cruzamiento, mutación), de cómo se realiza la selección y de cómo se decide el
reemplazo de los individuos para formar la nueva población. Gráficamente, el proceso es el siguiente:

(i) inicialización; f (X) evaluación; (?) condición de término; (Se) selección;


(Cr) cruzamiento; (Mu) mutación; (Re) reemplazo; (X ∗ ) mejor solución

3.2. Fases de un Algoritmo Genético


3.2.1. Inicialización
Se genera aleatoriamente la población inicial, que está constituida por un conjunto de cromoso-
mas los cuales representan las posibles soluciones del problema. En caso de no hacerlo aleatoriamen-
te, es importante garantizar que dentro de la población inicial, se tenga la diversidad estructural
de estas soluciones para tener una representación de la mayor parte de la población posible o al
menos evitar la convergencia prematura.

3.2.2. Evaluación
A cada uno de los cromosomas de esta población se aplicará la función de aptitud para saber
cómo de buena es la solución que se está codificando.

3.2.3. Condición de término


El AG se deberá detener cuando se alcance la solución óptima, pero ésta generalmente se
desconoce, por lo que se deben utilizar otros criterios de detención. Normalmente se usan dos
criterios: correr el AG un número máximo de iteraciones (generaciones) o detenerlo cuando no
haya cambios en la población. Mientras no se cumpla la condición de término se realizan las
operaciones descritas a continuación.

3.3. Operaciones
3.3.1. Clasificación
Selección: Después de saber la aptitud de cada cromosoma se procede a elegir los cromoso-
mas que serán cruzados en la siguiente generación. Los cromosomas con mejor aptitud tienen
mayor probabilidad de ser seleccionados.
Cruzamiento o Recombinación: El cruzamiento es el principal operador genético, representa
la reproducción sexual, opera sobre dos cromosomas a la vez para generar dos descendientes
donde se combinan las caracterı́sticas de ambos cromosomas padres.
Mutación: modifica al azar parte del cromosoma de los individuos, y permite alcanzar zonas
del espacio de búsqueda que no estaban cubiertas por los individuos de la población actual.
Una mutación sin cambios es la clonación [Mer03].
Reemplazo: una vez aplicados los operadores genéticos, se seleccionan los mejores individuos
para conformar la población de la generación siguiente

3.3.2. Selección
Definición 3.2 Debemos seleccionar de todo un poco, especialmente al principio, pero teniendo
una mayor preferencia por los mejores, sobre todo al final [GPF00]
El algoritmo genético trata de explorar las regiones más prometedoras del espacio de búsqueda del
problema. Al encontrar una zona con pesos altos, ésta se explora más a fondo, pero hay que evitar
que el algoritmo se estanque en una determinada zona, produciendo multitud de cadenas muy pa-
recidas. De igual forma, se ha de evitar lo contrario, que el algoritmo distribuya tan uniformemente
el espacio de búsqueda que casi se dejen de explorar las mejores zonas. Se trata de encontrar un
equilibrio entre ambas posibilidades. Se busca que el algoritmo llegue al óptimo rápidamente pero
sin quedarse estancado en un máximo local.
Tipos de Muestreos

Se seleccionan los Muestreo directo: Toma un subconjunto de elementos de la po-


”padres” o blación, con relación a un cierto criterio establecido (p.ej. se podrı́a
cromosomas que plantear escoger los k mejores elementos).
forman la
generación base: Muestreo aleatorio simple: Asigna a todos los individuos la mis-
ma probabilidad y realiza un ensayo de Bernoulli, obteniendo la
Cromosomas muestra.
100011001 Muestreo estocástico: Se asigna, a cada individuo, una probabi-
011111011 lidad en función de su aptitud, fijada por la función de evaluación.
101101100 Una vez ordenados y obtenidas todas las probabilidades acumula-
111101000 das, se genera un número aleatorio entre 0 y 1, y en función de
100001000 dicho número aleatorio y de la probabilidad acumulada obtenida se
......... seleccionan los individuos [MS96]. Es el más usado.

3.3.3. Cruzamiento
Una vez hecha la selección de la generación o población base, algunos de los individuos de dicha
población deben reproducirse, y esto se consigue aplicándoles a dichos individuos los operadores
genéticos. Estos sufrirán una serie de transformaciones, para dar lugar a una descendencia, que se
unirá a la población. Para la determinación de los individuos que se decide reproducir, se realiza
un ensayo de Bernoulli, es decir, se escogen aleatoriamente. No suele ser habitual trabajar dando
de forma anticipada el número de individuos a reproducir, lo habitual es disponer de unas proba-
bilidades de aplicación de los operadores genéticos, y a partir de dichos valores de probabilidad, se
va decidiendo si cada individuo es reproducido o no.

Definición 3.3 El operador cruzamiento se aplica a parejas de individuos, que combinan sus ca-
racterı́sticas para dar lugar a una nueva pareja, los descendientes.

Existen varias maneras de aplicar es- Cromosomas Cruce Resultados


te operador, siendo la más utilizada el 100 − 011001 & 100 − 010001
Cruce simple, o de un punto: Es el 101 − 010001 % 101 − 011001
más sencillo y, uno de los más usados. 011111011 −→ 011111011
Se eligen dos individuos, y se cortan sus 101101 − 100 & 101101 − 000
cromosomas en un mismo punto elegido 111101 − 000 % 111101 − 100
aleatoriamente. A partir de ese punto 100001000 −→ 100001000
intercambian sus cadenas. ......... ........ .........
Tipo 1 Partial matching crossover (PMX) basado en las investigaciones de Goldberg y Lingle,
de 1985: en este cruce, dados dos cromosomas padres, el operador copia una subcadena de uno de
los padres directamente a las mismas posiciones en el hijo. Las posiciones restantes se llenan con
los valores que aún no han sido utilizados en el mismo orden que se encuentran en uno de los
padres.

Ejemplo de aplicación:

Cromosomas Cruce Resultados


12463758 & 12172758
54172683 % 54463683
Quitamos repeticiones
Limpieza F inal
∗ ∗ 172 ∗ 58 46172358
5 ∗ 463 ∗ 8∗ 51463782

Tipo 2 Order-crossover (OX) desarrollado por Davis en 1985: este cruce consiste en elegir para
cada descendiente un tramo de uno de los progenitores y a la vez preservar el orden relativo de
todos los datos del otro.

Ejemplo de aplicación:

Cromosomas Cruce Resultados


12463758 & ∗ ∗ 172 ∗ ∗∗
54172683 % ∗ ∗ 463 ∗ ∗∗
Partiendo del punto final de corte se colocan aquellos datos que se encontraban originalmente en
el cromosoma y que no interfieren con los ya colocados. Finalmente se colocan los que se han
trasladado al otro cromosoma.
Llenado F inal
∗ ∗ 17258∗ 63172584
∗ ∗ 46385∗ 72463851

Tipo 3 Cycle-crossover (CX) propuesto por Oliver y otros en 1987: se trata de que cada cro-
mosoma herede sucesivamente la posición de uno de los progenitores mediante ciclos.

Ejemplo de aplicación:

Consideramos los padres:

123456789
452187693

Empezamos en la posición 1 y respetamos el orden del primer ciclo completo:


1**4*****
4**1*****
Intercambiamos las posiciones del segundo ciclo completo:
15248**93
42315**89
Respetamos las posiciones del tercer ciclo completo:
152486793
423157689
Tipo 4 Dominant-crossover (DX) propuesto por Salvador Merino y otros en 2012: se elige un
cromosoma dominante y otro recesivo, en base a su valoración. Se elige un lugar de partición y
se colocan las dos partes del cromosoma dominante en los dos hijos. Finalmente se introducen los
datos del cromosoma recesivo [MGMA12].

Ejemplo de aplicación:

Consideramos el punto de corte tras el 6 y los padres:

123456-789
452187-693

Empezamos colocando los datos del cromosoma dominante:


123456-***
******-789
Sustituimos ahora los datos del gen recesivo, allı́ donde falten, conforme van siendo leı́dos:

123456-879
452163-789

3.3.4. Mutación
Definición 3.4 La mutación es una variación de las informaciones contenidas en el código genéti-
co. Habitualmente es un intercambio de datos escogidos de forma aleatoria [Min00].

Algunas de las razones que pueden motivar la mutación son:


Desbloqueo del algoritmo. Si el algoritmo se bloqueó en un mı́nimo parcial, una mutación
puede sacarlo al incorporar nuevos fenotipos de otras zonas del espacio.
Acabar con poblaciones degeneradas. Puede ocurrir que, bien por haber un cuasi-óptimo o
bien por aparecer inicialmente un individuo demasiado bueno, se limitó la diversidad genética.
Si se ha llegado a una población degenerada, es preciso que las mutaciones introduzcan nuevos
genomas.

Incrementar el número de saltos evolutivos. La mutación permite explorar nuevos subespacios


de soluciones, por lo que, si el subespacio es bueno en términos de adaptación, se producirá
un salto evolutivo después de la mutación que se expandirá de forma exponencial por la
población.
Enriquecer la diversidad genética. La mutación es un mecanismo de prevención de las pobla-
ciones degeneradas.

Tipo 1 Mutación por Inversión: Selecciona dos posiciones al azar dentro de un cromosoma
para marcar una zona e invierte los datos contenidos en ella.

Ejemplo de aplicación:
Dado un padre y una zona:

123456789

Se genera el hijo:

126543789

Tipo 2 Mutación por Desplazamiento: Selecciona una zona al azar y lo inserta en una posi-
ción aleatoria.
Ejemplo de aplicación:
Dado un padre y una zona:
123456789
Se genera el hijo eligiendo una posición aleatoria:
345612789
Si la zona tiene un único dato se llama Mutación por Inserción

Tipo 3 Mutación por Intercambio Recı́proco: Selecciona dos posiciones aleatorias y luego
intercambia los datos de estas posiciones.
Ejemplo de aplicación:
Dado un padre y dos posiciones:
123456789
Se genera el hijo:
126453789

Tipo 4 Mutación Heurı́stica: Cheng y Gen proponen este tipo de mutación. Se eligen algunas
posiciones, se permutan y desarrollan todos los hijos posibles y se escoge el de más valor.
Ejemplo de aplicación: Dado un padre y unas posiciones:
123456789
Se generan todos los hijos posibles:
1 2 3 4 5 8 7 6 9
1 2 8 4 5 3 7 6 9
1 2 8 4 5 6 7 3 9
1 2 6 4 5 8 7 3 9
1 2 6 4 5 3 7 8 9

3.3.5. Clonación
El uso de la clonación fue introducido en 2003 por Salvador Merino [Mer03]. La idea es que,
dado que en multitud de ocasiones los hijos no mejoran la valoración de los padres, siempre puedan
conservarse de una generación a otra el cromosoma de un padre ı́ntegramente. Con ello podemos
producir cruces y mutaciones futuras más enriquecedoras.

La probabilidad de clonación debe ser suficientemente baja (menor que la mutación) para no
degenerar la población, y debe hacerse especialmente en progenitores de alto valor.

3.3.6. Reemplazo
Es la tercera etapa de los AGs. Tras la etapa anterior de reproducción, la población que cons-
tituye ahora el AG está formada por los n individuos de partida a los que se han sumado los s
individuos descendientes que se han generado. Por lo tanto la población en este punto es de n + s
individuos. Esta etapa será pues la que lleve a cabo la selección de los n individuos que constituyan
la nueva población, existen varias formas de realizar esto.
Reemplazo inmediato: Es el más simple de todos. Los s descendientes sustituyen a sus
progenitores.
Reemplazo con factor de llenado: En este caso los s descendientes sustituyen a s indivi-
duos de la población de progenitores, sin ningún tipo de criterio.
Reemplazo por inclusión: En este reemplazo se juntan los s descendientes con los n
individuos de la población originaria, para hacer un muestreo de n individuos que constituirán
la nueva población.
3.4. Aplicaciones
Diseño de vehı́culos espaciales

Saxex: Creación automática de música


El talento musical es algo puramente humano, por lo que el hecho de que un programa informáti-
co muestre habilidades musicales ha suscitado interés entre los investigadores en IA y músicos.
Saxex es un sistema inteligente basado en el razonamiento por casos. Es decir, aquel en el que
cuando se presenta un problema se busca si se ha resuelto algún problema similar y se aplica una
solución parecida a la del caso encontrado.
Saxex recibe como entrada una melodı́a simple interpretada por un humano y hace modifica-
ciones que añaden expresividad a la pieza.
Saxex analiza la pieza musical recibida mediante un sistema llamado SMS. Se basa en el análisis
espectral de las piezas y lo que hace es extraer información sobre la expresividad, la armonı́a y la
dinámica de la melodı́a, para obtener una representación de ésta sobre la que trabajar. Además,
también necesita de un conocimiento musical sobre teorı́as tonales y armónicas, como base del
conocimiento del sistema.
4. Toma de Decisiones
4.1. Historia
A continuación realizamos una breve revista de las formas fundamentales de tomar decisiones
que se han dado en la historia de la humanidad.
La forma más simple es la toma de decisión biológica que se da en los seres unicelulares y en el
hombre, con la diferencia que es la única forma de decisión para el primero y la menos importante
para el segundo. Cuando ese ser unicelular deja pasar una partı́cula venenosa y atrapa una partı́cula
alimenticia, ha tomado una decisión biológica.
En formas más complejas de vida, y especialmente en las más primitivas culturas humanas,
no fueron suficientes esas decisiones naturales. Aparece ası́ la toma de la decisión cultural, que se
caracteriza porque se trasmite de generación en generación. Esta forma dio lugar al nacimiento de
los grupos, tribus, clanes, pueblos y civilizaciones. Fue la principal causa del nacimiento y desarrollo
del lenguaje, destinado a trasmitir experiencia. Cuando el hombre de las cavernas decidı́a golpear
al animal salvaje en el punto mortal estaba tomando una decisión cultural.
Pero el desarrollo de los conjuntos humanos exigió de decisiones más frecuentes y más delicadas.
Surgió ası́ una clase de especialista cuyo cometido era tomar decisiones. Este método tiene la ventaja
que da la especialización y la desventaja que tiene la posibilidad de tomar decisiones que afecten
a otras personas, con las posibles consecuencias de burocracias relajadas y brutales tiranı́as. La
mayor parte de la historia escrita es una crónica de los especialistas en decisiones: reyes, generales
y sacerdotes.
Al aparecer esta clase de profesionales de la decisión se hizo necesario, para impedir el caos,
algún tipo de sistematización del proceso. Uno de los mayores peligros era la existencia de contra-
dicciones en un mismo sistema, lo que lleva muchas veces al fracaso de las decisiones.
Ası́ aparecieron los sistemas mágicos y los demonı́acos. El brujo y el hechicero crearon un
modelo muy original del mundo real. Ubicaron demonios y espı́ritus amigos en los torrentes, las
nubes, en los árboles, en todas las cosas. Si el torrente arrastraba a un compañero, era una venganza
del demonio que lo habitaba. Si el hermano muerto aparecı́a en un sueño era un espı́ritu amigo
que querı́a ayudarlos. Entonces era necesario calmar a los demonios, atraer a los espı́ritus y dioses
buenos, y pedirles consejo cuando llegaba el momento de tomar decisiones. Cuando el brujo de
la tribu recomendaba ir a la guerra, en base al color del humo, estaba tomando una decisión
demonı́aca.
Este sistema de tomar decisiones es mucho más intelectual de lo que pudiera aparecer a primera
vista. Por primera vez se forman modelos del mundo real. El único inconveniente es que no sirve;
y aquı́ llegamos a un principio muy importante, el principio del pragmatismo, que nos dice que
para juzgar la bondad de un sistema decisorio es necesario valorar la utilidad o inutilidad de sus
consecuencias. Nuestra sociedad de hoy es una sociedad de especialistas. Nosotros no podemos
adentrarnos en los principios y los métodos de esos especialistas cuando toman decisiones que nos
afectan, pero sı́ podemos valorar las consecuencias que emanan de sus decisiones. Este criterio del
pragmatismo ha constituido una base para la evaluación de las decisiones y de los especialistas que
las toman.
En la Antigua Grecia nació una nueva forma de tomar decisiones, la toma de decisiones ra-
cionales, favorecida por el desarrollo del estudio de la estructura del razonamiento y la lógica. La
geometrı́a de Euclides, la fı́sica de Aristóteles, permitieron tomar decisiones de gran trascendencia.
Pero este sistema racional tenı́a un grandı́simo defecto: identifica lo lógico con lo verdadero, sin
tomar en cuenta que el mundo que crea nuestro intelecto no coincide en general con el mundo real.
Ello explica por qué no pudieron construir diques y máquinas con la fı́sica de Aristóteles y por qué
la geometrı́a de Euclides no funciona en el mundo de los átomos y en el mundo de las estrellas.
El verdadero aporte del método racional fue que atribuyó las consecuencias a causas materiales o
naturales y no a demonios o dioses.
Durante la Edad Media el sistema racional luchó en desventaja frente al sistema demonı́aco, y
ambos sucumbieron en el alto renacimiento frente al único sistema que ha dado soluciones verda-
deramente útiles de manera consistente: la toma de decisiones cientı́ficas.
Las nuevas técnicas elaboradas por los cientı́ficos salvaron el vacı́o entre la razón y el mundo real
por medio de la lógica inductiva, procedimiento para pasar de las observaciones a las afirmaciones.
Las nuevas técnicas de experimentación y de medición y el lenguaje simbólico demostraron muy
pronto su poder de manera convincente: daban resultado.
4.2. Teorı́a de la Decisión
La Teorı́a de la Decisión es una ciencia joven, nacida en la década del 40, con los trabajos
pioneros, especialmente, de George Dantzig, Abraham Wald, Leonard Savage, John Von Neumann,
Oskar Morgenstern y, posteriormente, Robert Schlaifer y Howard Raifa. La decisión cientı́fica trata
de abordar el problema de los procesos decisorios adoptando ante el mundo real la posición aceptada
por la ciencia moderna.

La decisión requiere la elección de una forma de actuar entre varias formas alternativas posibles y
dicha elección ha de hacerse de forma que cumpla algún fin determinado. Hablando en términos
generales, el fin será elegir una actuación que lleve en el futuro a una situación deseable.
Hay que observar que el tiempo es uno de los elementos del problema de decisión, puesto que la
decisión que tomamos en el momento presente, da lugar a una acción que provocará un resultado
en el futuro. Además, la decisión del presente se alimenta con los datos del pasado. Desde luego,
estamos suponiendo que el resultado dependerá del acto que se realice, pues de otra forma la
decisión no tendrı́a importancia.
Para tomar la decisión hay que prever el futuro, o sea hay que predecir y calcular las consecuen-
cias de cada una de las posibles acciones, teniendo en cuenta, además, los cambios que pudieran
tener lugar en el escenario donde la acción se va a realizar.
En nuestra época ha aparecido un nuevo grupo de personas que toman decisiones: es la de los
dirigentes de empresa y de otras organizaciones. En efecto, el conjunto de las decisiones de todos
estos directivos impacta en la estructura económica y social de las naciones.

4.2.1. George Dantzig


La verdad de un mito. Un hecho real en la vida de Dantzig dio origen a una famosa leyenda
en 1939, cuando era un estudiante en Berkeley. Al comienzo de una clase a la que Dantzig acudı́a
con retraso, el profesor Jerzy Neyman escribió en la pizarra dos ejemplos famosos de problemas
estadı́sticos aún no resueltos. Al llegar Dantzig a clase, pensó que los dos problemas eran tarea
para casa y los anotó en su cuaderno. De acuerdo con Dantzig, los problemas ”le parecieron ser
un poco más difı́ciles de lo normal”, pero unos pocos dı́as después obtuvo soluciones completas
para ambos, aún creyendo que estos eran tareas que debı́a entregar. Seis semanas después, Dantzig
recibió la visita de un excitado profesor Neyman, quien habı́a preparado una de las soluciones de
Dantzig para ser publicadas en una revista matemática. Años después otro investigador, Abraham
Wald, publicó un artı́culo en el que llegaba a la conclusión del segundo problema, y en el cual
incluyó a Dantzig como coautor. Esta historia comenzó a difundirse, y fue usada como una lección
motivacional demostrando el poder del pensamiento positivo. A través del tiempo el nombre de
Dantzig fue removido y los hechos fueron alterados, pero la historia básica persiste en la forma de
mito.
El nacimiento de la Programación Lineal. Cuando comenzó la Segunda Guerra Mundial,
Dantzig interrumpió sus estudios en Berkeley para unirse a las Fuerza Aérea de los Estados Unidos
como jefe de la Rama de Análisis de Combate de los Cuarteles Centrales Estadı́sticos, lo cual lo
llevó a lidiar con las logı́sticas de la cadena de abastecimiento y gestión de cientos de miles de
ı́tems y personas. Este trabajo proporcionó los problemas del ”mundo real”que la programación
lineal vendrı́a a resolver.

4.2.2. Abraham Wald


Nació el 31 de octubre de 1902 en Cluj, Transilvania, entonces perteneciente a Hungrı́a y actual-
mente llamado Cluj-Napoca y parte de Rumania desde el final de la I Guerra Mundial. Procedente
de una familia de intelectuales judı́a, fue formado en la tradición walrasiana y en la teorı́a neoclásica,
aunque no fue economista. Sin embargo éste influyente matemático, que destacó particularmen-
te en programación lineal, geometrı́a y estadı́stica, propuso varias aplicaciones matemáticas a la
economı́a de cierta relevancia, llegando a ser colaborador de Oskar Morgenstern.
Por una parte, prestó especial atención a la Econometrı́a, proponiendo modelos para suavizar
la estacionalidad de las series temporales, y creando la hoy tan utilizada ”prueba de Wald”, que
data de 1939.
Pero además, aportó soluciones de unicidad a los modelos de equilibrio general competitivo
walrasianos y los posteriores de Arrow y Debreu, ası́ como para el modelo de duopolio al estilo de
Cournot. No obstante, se centró en un modelo derivado del de Walras-Cassel.
También son notables sus aportaciones a la toma de decisiones bajo incertidumbre, y propuso
una función de preferencias reveladas, que dista mucho de semejarse a las consideradas hoy dı́a.
Magnı́fico alumno, desde 1927 cursó estudios en la Universidad de Viena, asistiendo a los
famosos seminarios de Karl Menger (hijo del economista Carl Menger) y doctorándose en 1931.
También en Viena, formó parte del Institute for Business Cycle Research. Posteriormente, debido
a la invasión nazi, y bajo el ”paraguas”protector de Menger, se desplaza a Estados Unidos en 1938,
profundizando sus estudios estadı́sticos, entrando en el equipo de la Cowles Commisson Research
y siendo alumno de Harold Hotelling en Columbia University (New York). Más tarde, pasarı́a a
ser profesor, caracterizándose por explicar complejos conceptos de manera muy sencilla. También
desarrolló proyectos militares para el Statistics Research Group y desarrolló la teorı́a del análisis
secuencial, aplicada a la II Guerra Mundial para mejorar los estudios de control de la calidad.
Falleció de manera trágica junto a su esposa, tras estrellarse en un accidente aéreo, sufrido el
13 de diciembre de 1950 en Travacorc, India. Sus aportaciones y prematura muerte, le convirtieron
en un mito.

4.2.3. Leonard Savage


Fue un matemático estadounidense especializado en estadı́stica. Su obra más conocida es del
año 1954 y se titula Foundations of Statistics (Fundamentos de estadı́stica) en el que introduce
ciertos elementos sobre la teorı́a de la decisión. En su obra menciona y elabora la subjetividad de
la utilidad esperada estableciendo las bases de la inferencia bayesiana y sus aplicaciones a la teorı́a
de juegos. Leonard fue ayudante de John von Neumann.
Muchas de las teorı́as de Savage se aplican en la actualidad en diversos campos de la matemática
financiera. Una de las aportaciones de este autor se denomina ley Hewitt-Savage para los eventos
simétricos.

4.2.4. John Von Neumann


Nació en Budapest (Hungrı́a), su nombre verdadero es Margittai Neumann János (los húngaros
colocan sus apellidos antes que el nombre) que se puede traducir como János Neumann de Margitta,
que se transformó en Jhohann Neumann von Margitta cuando se trasladó a Alemania y que luego
se lo recortaron quedándose en Johann von Neumann, para finalmente conocérsele mundialmente
como John von Neumann, al llegar a EE.UU.
John von Neumann fue un niño prodigio, con una gran memoria fotográfica y una gran habilidad
para los idiomas. A los 10 años ingresó en el Gimnasio Luterano, donde destacó por su talento
para las matemáticas. Ingresó en la universidad de Budapest en 1921 para estudiar matemáticas,
aunque sólo iba a la universidad cuando tenı́a que hacer los exámenes, en cambio si asistı́a a clases
de quı́mica en Berlı́n, entre 1921 y 1923. Su padre no querı́a que estudiase matemáticas, ya que
pensaba que no era una carrera con la que que luego pudiera ganar dinero, por eso von Neumann
ingresó en Eidgenssische Technische Hochschule (ETH) en Zürich para estudiar ingenierı́a quı́mica,
sin darse de baja en la universidad de Budapest.
En 1925 obtuvo la licenciatura en ingenierı́a quı́mica, y en 1926 el doctorado en matemáticas.
De 1926 a 1927 trabajó en la universidad de Göttingen gracias a una beca. En 1927 fue nombrado
conferenciante en la universidad de Berlı́n.
En 1930, fue invitado para trabajar como profesor visitante en la universidad de Princeton
(EE.UU), y durante 3 años von Neumann pasaba medio año enseñando en Princeton y medio año
enseñando en Berlı́n. En 1933 fue contratado por el Instituto de Estudios Avanzados (IEA) y en
1937 se nacionalizó norteamericano.
Al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de los EE.UU,
hacia 1943 von Neumann empezó a interesarse por la computación para ayudarse en su trabajo, en
aquellos años habı́a numerosas computadoras en construcción, como por ejemplo la Mark I (Howard
Aiken) o Complex Computer (George Stibiz), pero con la que von Neumann se involucró fue el
ENIAC (junto con John Presper Eckert y John W. Mauchly). Una vez finalizada la construcción del
ENIAC y viendo sus limitaciones, decidieron definir todo un nuevo sistema lógico de computación
basado en las ideas de Turing y se enfrascaron en el diseño y la construcción de una computadora
más poderosa el EDVAC (Electronic Discrete Variable Arithmetic Computer). Pero hubo problemas
legales con la titularidad de lo que hoy conocemos como Arquitectura de von Neumann. Esto
produjo que el diseño se hiciera público, al final Eckert y Mauchly siguieron su camino y von
Neumann regresó a Princeton con la idea de construir su propia computadora.
En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las bases de la compu-
tadora actual, conociéndose como ”arquitectura de von Neumann”. Otras de sus contribuciones
en computación fueron por ejemplo el uso de monitores para visualizar los datos y el diagrama
de flujo. También colaboró en el libro ”Cibernética: control y comunicación en el animal y en la
máquina” escrito junto con Norbert Wiener, en donde se explica la teorı́a de la cibernética.
En 1954 empezó a trabajar para la Comisión de Energı́a Atómica. A lo largo de su vida von
Neumann obtuvo numerosos reconocimientos por su labor cientı́fica, como varios doctorados Ho-
noris Causa, la medalla presidencial al mérito, y el premio Albert Einstein. También recibió en
1956 el premio Enrico Fermi de la Comisión de Energı́a Atómica por sus ”notables aportaciones”
a la teorı́a y diseño de las computadoras electrónicas.

4.2.5. Oskar Morgenstern


Nacido en Görlitz, Silesia, estudia en las universidades de Viena, Harvard y Nueva York. Miem-
bro de la Escuela Austriaca y avezado matemático, participa en los famosos ”Coloquios de Viena”
organizados por Karl Menger (hijo de Carl Menger) que pusieron en contacto cientı́ficos de diver-
sas disciplinas, de cuya sinergia se sabe que surgieron multitud de nuevas ideas e incluso nuevos
campos cientı́ficos.
Emigra a Estados Unidos durante la segunda guerra mundial ejerciendo la docencia en Prin-
ceton. Publica en 1944, conjuntamente con John von Neumann, el libro Theory of Games and
Economic Behavior.

4.2.6. Robert Schlaifer


Nacio el 13 de septiembre de 1914 en Vermillion (Dakota del Sur) y falleció el 24 de julio de
1994. Fue uno de los pioneros de la teorı́a de la decisión bayesiana. En el momento de su muerte
era Profesor Emérito William Ziegler de Administración de Empresas de la Escuela de Negocios
de Harvard.
Se graduó en la Universidad de Amherst y tuvo un pasado muy curioso para llegar a ser un
teórico de la decisión estadı́stica: él se hizo historiador y un erudito en griego clásico. Para ello
asistió a la escuela americana de estudios clásicos en Atenas y obtuvo un doctorado en historia
antigua de Harvard en 1940. Enseñó historia, economı́a y fı́sica en la Facultad de Artes y Ciencias
de Harvard. Durante la segunda guerra mundial él comenzó a escribir informes técnicos y escribió
un volumen importante en el desarrollo de motores de aviación. Fue llamado a la Harvard Business
School y, cuando se jubiló el profesor de estadı́stica, empezó a enseñar estadı́stica (empezando por
enseñarse a sı́ mismo). Tenı́a muy poca experiencia matemática y el propio Howard Raifa recordaba
cómo trabajaron juntos: Raifa le enseñarı́a algo sobre Álgebra lineal por la mañana y Schlaifer le
enseñaba cómo podrı́a aplicarse por la tarde.
Schlaifer hizo una importante contribución a la teorı́a de la decisión bayesiana.

4.2.7. Howard Raifa


Nacido en 1924. es actualmente Profesor Emérito Frank P. Ramsey de Empresariales y Eco-
nomı́a de la Escuela de Negocios y de la Escuela de Gobierno Kennedy de la Universidad de
Harvard. Él es un influyente teórico de la decisión bayesiana y pionero en el campo de análisis de
decisión , con trabajos en teorı́a de la decisión estadı́stica, la teorı́a de juegos, teorı́a de la decisión
del comportamiento, análisis de riesgo y análisis de la negociación . Él ayudó a fundar y fue el
primer director de la Instituto Internacional de Análisis Aplicado de Sistemas.
Su libro Teorı́a de la Decisión Estadı́stica Aplicada con Robert Schlaifer introdujo la idea de
las distribuciones de conjugados a priori.
Una conferencia suya en la década de 1960, relativa a la utilización de métodos bayesianos para
apostar a los caballos dio a John Craven USN, cientı́fico de la Marina de los EE.UU., la idea de
utilizar métodos bayesianos para buscar una bomba de hidrógeno de EE.UU. perdida por la Fuerza
Aérea cerca de Palomares (España) en el accidente de un B-52 en 1966. Craven utilizó los mismos
métodos de nuevo en la búsqueda de un submarino perdido USS Scorpion en 1968.
Raiffa ha analizado las situaciones que implican el uso de la probabilidad subjetiva y sostiene
que las probabilidades subjetivas deben seguir las mismas reglas (los axiomas de Kolmogorov) que
las objetivas, basadas en la frecuencia de las probabilidades.

4.3. Descripción
4.3.1. Fases en una decisión
1. Definir el problema

2. Enumerar las soluciones


3. Tomar decisiones

4.3.2. Definir el problema


¿Qué es un problema?. Según la RAE es:
1. Una cuestión que se trata de aclarar.

2. Una proposición o dificultad, de solución dudosa.


3. Un conjunto de hechos o circunstancias que dificultan la consecución de algún fin.
4. Una proposición dirigida a averiguar cómo obtener un resultado, cuando ciertos datos son
desconocidos.

Análisis del problema


El problema es complejo
El problema es importante

El problema es nuevo
El problema es repetitivo

4.3.3. Tipos de soluciones


Programadas
Siguen polı́ticas y procedimientos

Abordan problemas recurrentes


Nos liberan de las decisiones
Pueden asumirlas más personas

Su fracaso está controlado

No programadas
Merecen una atención especial

Abordan problemas poco frecuentes


Requieren de una mayor disciplina
El poder de decisión debe ser mayor
Consecuencias menos predecibles
4.3.4. Toma de decisiones
El procedimiento para tomar decisiones en situaciones de incertidumbre se basa en el valor
esperado o esperanza, ya conocido en el siglo XVII (El matemático, filósofo y escritor francés
Blaise Pascal lo enunciaba en sus famosas dudas, contenidas en su Pensamientos, publicado en
1670).

La idea del valor esperado consiste en que al decidir entre un cierto número de acciones, cada
una de ellas con un número de resultados asociados que poseen probabilidades diferentes. El pro-
cedimiento matemático es identificar todos los posibles resultados de las acciones, determinar sus
valores (positivos o negativos) y sus probabilidades asociadas, resultantes de cada acción. Poste-
riormente, al multiplicar los pares de datos (valores y probabilidades), se obtiene el valor esperado.
La acción elegida deberá ser aquella que proporcione el mayor valor esperado.

4.4. Cálculo del valor esperado


4.4.1. Valor esperado
Definición 4.1 El valor esperado de la variable X es la media aritmética de cualquier distribu-
ción de probabilidad. Se calcula como
m
X
E(X) = xi · p(xi )
i=1

Estos valores esperados se calculan mediante los árboles de decisión. Con ellos se desarrolla una
estrategia óptima cuando el tomador de decisiones se enfrenta con:

Una serie de alternativas de decisión


Incertidumbre o eventos futuros con riesgo
Por otra parte, un buen análisis de decisiones incluye un análisis de riesgo

4.4.2. Árboles de decisión


Para construir los árboles de decisión se deben concretar:

Alternativas de decisión en cada punto de decisión


Eventos que pueden ocurrir como resultado de cada alternativa de decisión. También son
llamados Estados de la naturaleza
Probabilidades de que ocurran los eventos posibles

Resultados de las posibles interacciones entre las alternativas de decisión y los eventos. Tam-
bién se les conoce con el nombre de Pagos

4.4.3. Representación
La simbologı́a a usar será la siguiente:
Ramas: se representan con lı́neas

Nodos de decisión: de ellos salen las ramas de decisión y se representan con un cuadrado
con fondo azul
Nodos de incertidumbre: de ellos salen las ramas de los eventos y se representan con un
cuadrado con fondo rojo. Aquı́ se calcula el valor esperado respecto a las ramas que salen de
ellos.
Pago 1
1
e nto
Ev x 1)
p(

Evento 2
E(X) Pago 2
iva
rnat p(x2 )
Alte Ev
1 en
Decisión t
Alte p(x o 3
rnat 3)
iva
2
E(X) Pago 3

4.4.4. Método de cálculo


El procedimiento habitual de cálculo es el siguiente:

Generalmente se inicia de derecha a izquierda, calculando cada pago al final de las ramas
Posteriormente en cada nodo de evento se calcula un valor esperado
Finalmente en cada punto de decisión se selecciona la alternativa con el valor esperado óptimo

4.4.5. Ejemplos
Ejemplo 4.1 Debemos decidir si compramos por 1000 e un número de una rifa, entre 100 valores
posibles, donde el premio es de 50.000 e.

x1 = 49,000 e
ar
gan 1
) = 100
(x 1
E(X) =-500 p
perd
Sı́ p
er
p rar (x2 )
= 99
C om 100 x2 = −1000 e
Decisión
N
com o
pra
r
E(X) =0

Ejemplo 4.2 Un fabricante está considerando la producción de un nuevo producto. La ganancia


es de 10 e por unidad y la inversión necesaria en el equipo es de 50.000 e. La estimación de la
demanda es como sigue:

Unidades Probabilidad
6.000 0.30
8.000 0.50
10.000 0.20

De seguir con el producto actual las ventas serı́an a 5.5 e/unidad:


Si no invierte en publicidad venderı́a 2.500 unidades.
SI invierte 14.000 e en publicidad podrı́a, con una probabilidad del 80 %, conseguir ventas
de 5.500 unidades y con un 20 % de que éstas fueran de 4.000 unidades.
Construya el árbol de decisión y determine la decisión óptima
x1 = 10,000 e

u.
00 0
6.0 0,3
)=
p(x 1

8.000 u.
E(X) =33.000 x2 = 30,000 e
o p(x2 ) = 0,50
equip
u. 10
p rar 0 e/ p(x .000
om a1 3) u.
C
c tos =
0,3
du 0
pro
Decisión x3 = 50,000 e
No
com
pro pra
du re E(X) =13.750
cto qu
sa ip o i dad
5.5 ublic
e/ Sin p
u.
x1 = 16,250 e
0 u.
Con 5.50
80
publ
icida = 0,
d p (x 1 )
E(X) =16.200
4.00
0 u.
p( x
2) =
0,20 x2 = 8,000 e

4.5. Cálculo del Riesgo


4.5.1. Riesgo
El análisis del riesgo ayuda al tomador de decisiones a identificar la diferencia entre:
el valor esperado de una alternativa de decisión, y
el resultado que efectivamente podrı́a ocurrir
El riesgo se refiere a la variación en los resultados posibles. Mientras más varı́en los resultados
se dice que el riesgo es mayor. Una de las formas de cuantificar el riesgo es la varianza
Definición 4.2 La varianza se calcula como:
m
X m
X
var(X) = p(xi ) · [xi − E(X)]2 = p(xi ) · x2i − E(X)2
i=1 i=1

donde p(xi ) es la probabilidad del suceso xi y E(X) es el valor esperado de X

4.5.2. Ejemplos
Ejemplo 4.3 A Julian le han pedido 3 programaciones domóticas en 3 viviendas distintas y debe
escoger cuál realizar primero. Ha determinado que la dificultad de las mismas es similar y puede
tardar entre 7 y 11 dı́as en realizar cualesquiera de ellas. Considera que tiene una probabilidad 0.3
de tardar 7 dı́as y 0.5 de tardar 9 dı́as o menos.

La primera programación serı́a en la vivienda de un inglés, teniendo que trabajar en exclusiva


para él. Le pagarı́a 100.000 e si tarda 7 dı́as y nada si tarda más.
La segunda es de un francés. Hay un 60 % de posibilidades de trabajar en exclusiva para él
y le pagarı́a 40.000 e si tarda 9 dı́as o menos y 30.000 e si tarda más. En caso de no
exclusividad le pagarı́a 20.000 e por la programación.
La tercera es de un italiano y le va a pagar 25.000 e, lo haga como lo haga.

¿Que proyecto debe elegir?¿Cuál es el riesgo en cada caso?

Decisión xi p(xi ) E(X) var(X)


Inglés 100.000 0,30
0 0,70 30.000 210.000.000
Francés 40.000 0,30
30.000 0,30
20.000 0,40 29.000 8.307
Italiano 25.000 1,00 25.000 0
Podemos observar que la decisión con mayor esperanza es desarrollar el proyecto del propietario
inglés, pero también es la que tiene una mayor varianza (riesgo). A partir de aquı́ depende de la
capacidad de riesgo de Julian.

Ejemplo 4.4 La compañı́a de Julian tiene un pleito por impago de un proyecto por parte de un
cliente. Los abogados de ese cliente le hacen una oferta de 210.000 e por no ir a juicio. Si la
empresa no acepta esta indemnización y decide ir a juicio puede obtener 185.000 e, 415.000 e
ó 580.000 e dependiendo de las alegaciones que el juez considere aceptables. Si pierde el juicio
tendrá que pagar las costas del mismo, que ascienden a 30.000 e.

Sabiendo que el 70 % de los juicios se gana, y de éstos, en el 50 % se obtiene la menor indem-


nización, en el 30 % la intermedia y en el resto la más alta, determine la decisión más acertada.

x1 = 185,000 e
jo
Ba 0
0,5
x 1 )=
p(
Medio
E(X) =333.000 x1 = 415,000 e
p(x2 ) = 0,30
Gana
0
= 0,7 Alt
E(X) =224.000 p( x 1 ) p(x o
3)
=0
Pierd ,20
Ir a e
p(x2 ) x3 = 580,000 e
io = 0,3
juic 0 x3 = −30,000 e
Decisión
Res
olu
ext ci
ra ju ón
dici
al
E(X) =210.000

Observamos que, aunque por poco, la mejor opción es ir a juicio. Nuevamente dependerá de la
capacidad de riesgo de la empresa para tomar esta decisión.
5. Redes Neuronales
5.1. Descripción
Definición 5.1 Las redes de neuronas artificiales (denominadas habitualmente como RNA) son
un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona
el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que
colaboran entre sı́ para producir un estı́mulo de salida.
Los primeros modelos de RNA datan de 1943 por los neurólogos McCulloch y Pitts. En 1949,
Donald Hebb desarrolló sus ideas sobre el aprendizaje neuronal, quedando reflejado en la ”regla
de Hebb”. En 1958, Rosemblatt desarrolló el perceptrón simple, y en 1960, Widrow y Hoff desa-
rrollaron el ADALINE, que fue la primera aplicación industrial real. En los años 80, volvieron a
resurgir las RNA gracias al desarrollo de la red de Hopfield y de los perceptrones multicapa.

5.2. Tipos de redes


5.2.1. Gráfico de Red Neuronal

Red neuronal artificial perceptrón multicapa con n neuronas de entrada, m neuronas en su capa
oculta y una neurona de escape.

5.2.2. Componentes
Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie
de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones:
1. Una función de propagación (o de excitación), definida habitualmente como la suma de
cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo,
la conexión se denomina excitatoria; si es negativo, inhibitoria.
2. Una función de activación, que modifica a la anterior. Si no existe, la salida es la misma
función de propagación.
3. Una función de transferencia, que se aplica al valor devuelto por la función de activación.
Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación
que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea
(con valores en [0, 1]) y la tangente hiperbólica (con valores en [−1, 1]).

5.3. Cálculo de una red neuronal


En el presente esquema se muestra una red neuronal formada por tres
neuronas (dos de entrada y una de salida) y una neurona Bias (con dato
de entrada fijo). Se va a entrenar para que, si las variables x1 y x2 están
activas a la vez (valen 1), la salida valdrá 1. En los demás casos debe ser
0. La condición de activación de la neurona 3 será

T otal = x0 w0 + x1 w1 + x2 w2 > 0
Para cumplir las condiciones del ejemplo, los valores de entrada y la respuesta deben ser los
siguientes 4 :

x1 x2 salida
0 0 0
1 0 0
0 1 0
1 1 1

Solución:

Usando un método derivado de la Regla de Aprendizaje de Hebb:


1. Si la salida de la neurona 3 (para los valores de las otras dos neuronas) es correcta, no se
ajustan los pesos.
2. Si la salida es 1 pero deberı́a ser 0, se reducen sólo los pesos de las conexiones activas una
cantidad C.
3. Si la salida es 0 pero deberı́a ser 1, se aumentan sólo los pesos de las conexiones activas la
misma cantidad C.

Partimos de w0 = w1 = w2 = 0 y C = 1, obteniendo:

x0 w0 x1 w1 x2 w2 Total Acción Salida Operación


1 0 0 0 0 0 0 0 0 Ok
1 0 1 0 0 0 0 0 0 Ok
1 0 0 0 1 0 0 0 0 Ok
1 0 1 0 1 0 0 0 1 Cambiar
1 1 0 1 0 1 1 1 0 Cambiar
1 0 1 1 0 1 1 1 0 Cambiar
1 -1 0 0 1 1 0 0 0 Ok
1 -1 1 0 1 1 0 0 1 Cambiar
1 0 0 1 0 2 0 0 0 Ok
1 0 1 1 0 2 1 1 0 Cambiar
1 -1 0 0 1 2 1 1 0 Cambiar
1 -2 1 0 1 1 -1 0 1 Cambiar
1 -1 0 1 0 2 -1 0 0 Ok
1 -1 1 1 0 2 0 0 0 Ok
1 -1 0 1 1 2 1 1 0 Cambiar
1 -2 1 1 1 1 0 0 1 Cambiar
1 -1 0 2 0 2 -1 0 0 Ok
1 -1 1 2 0 2 1 1 0 Cambiar
1 -2 0 1 1 2 0 0 0 Ok
1 -2 1 1 1 2 1 1 1 Ok
1 -2 0 1 0 2 -2 0 0 Ok
1 -2 1 1 0 2 -1 0 0 Ok

Queda establecida por tanto la solución final de la red


neuronal, cuya salida se activa si

−2 + 1 · x1 + 2 · x2 > 0

y cumple la tabla de respuestas. Esta inecuación es lo


que hemos llamado la función de propagación.

4 En lógica serı́a la operación binaria ”AND”


5.4. Perceptrón Multicapa
El perceptrón multicapa está formado por múltiples capas. Esto resuelve problemas que no son
linealmente separables, lo cual es la principal limitación del perceptrón simple. Puede ser:

1. Totalmente conectado: cada salida de una neurona de la capa i es entrada de todas las
neuronas de la capa i + 1

2. Localmente conectado: cada neurona de la capa i es entrada de una serie de neuronas de la


capa i + 1

Ejercicio

Entrenar una red neuronal formada por tres neuronas y una neurona Bias
donde, si alguna de las variables x1 y x2 están activas (valen 1), la salida
valdrá 1. En el caso de que ambas estén inactivas será 0. La condición de
activación de la tercera neurona será

T ot = x0 w0 + x1 w1 + x2 w2 > 0

En lógica esta neurona representarı́a a la operación binaria ”OR”


6. Aplicaciones a la Domótica
En Francia se acuñó la palabra ”Domotique”. De hecho, la enciclopedia Larousse definı́a en
1988 el término domótica como: ”el concepto de vivienda que integra todos los automatismos en
materia de seguridad, gestión de la energı́a, comunicaciones, etc.”.

Una definición más técnica del concepto serı́a: ”el conjunto de servicios de la vivienda garan-
tizado por sistemas que realizan varias funciones, los cuales pueden estar conectados entre sı́ y
a redes interiores y exteriores de comunicación. Gracias a ello se obtiene un notable ahorro de
energı́a, una eficaz gestión técnica de la vivienda, una buena comunicación con el exterior y un
alto nivel de seguridad”.

6.1. Definiciones de edificios inteligentes


Intelligent Building Institute (IBI), Washington D.C.: Un edificio inteligente es aquel
que proporciona un ambiente de trabajo productivo y eficiente a través de la optimización
de sus cuatro elementos básicos: estructura, sistemas, servicios y administración. Por ello
ayudan a los propietarios, operadores y ocupantes, a realizar sus propósitos en términos de
costo, confort, comodidad, seguridad, flexibilidad y comercialización.
Compañı́a HoneywelI, S.A. de C. V., México D.F.: Se considera como edificio inteli-
gente aquél que posee un diseño adecuado que maximiza la funcionalidad y eficiencia en favor
de los ocupantes, permitiendo la incorporación y/o modificación de los elementos necesarios
para el desarrollo de la actividad cotidiana, con la finalidad de lograr un costo mı́nimo de
ocupación, extender su ciclo de vida y garantizar una mayor productividad desde el máximo
confort.
Compañı́a AT & T, S.A. de C.V., México D.F.: Un edificio es inteligente cuando las
capacidades necesarias para lograr que el costo de un ciclo de vida sea el óptimo en ocupación
e incremento de la productividad, sean inherentes en su diseño y administración.

6.1.1. Grados de inteligencia en los edificios


Existen tres grados de inteligencia, catalogados en función de la automatización de las instala-
ciones o desde el punto de vista tecnológico:

1. Inteligencia mı́nima o básica. Un sistema básico de automatización de la actividad y los


servicios de telecomunicaciones del edificio, aunque no están integrados.
2. Inteligencia media. Tiene un sistema de automatización del edificio totalmente integrado,
sin una completa integración de las telecomunicaciones.
3. Inteligencia máxima o total. Los sistemas de automatización del edificio, la actividad y
las telecomunicaciones, se encuentran totalmente integrados. El sistema de automatización
del edificio se divide en: sistema básico de control, sistema de seguridad y sistema de ahorro
de energı́a.

El sistema básico de control es el que permite monitorizar el estado de las instalacio-


nes, como son: eléctricas, hidrosanitarias, elevadores y escaleras eléctricas, y suministros
de gas y electricidad.
El sistema de seguridad protege a las personas 5 , los bienes materiales y la informa-
ción 6 .
El sistema de ahorro de energı́a es el encargado de la zonificación de la climatización,
el intercambio de calor entre zonas, incluyendo el exterior, el uso activo y pasivo de la
energı́a solar, la identificación del consumo, el control automático y centralizado de
la iluminación, el control de horarios para el funcionamiento de equipos, el control de
ascensores y el programa emergente en puntos crı́ticos de demanda.
5 Sistemas de detección de humo y fuego, fugas de gas, suministro de agua, vigilancia para la extinción de fuego,

red de rociadores, extracción automática de humo, señalización de salidas y alarmas de emergencia


6 Circuito cerrado de televisión, la vigilancia perimetral, el control de accesos, el control de rondas de vigilancia,

la intercomunicación de emergencia,la seguridad informática, detector de movimientos sı́smicos y/o presencia


6.1.2. Escuela de Ingenierı́as
Entre los edificios inteligentes construidos en España podemos destacar la Escuela de Ingenierı́as
de la UMA. En 2009 fue reconocida como el primer edificio terminado con Calificación Energética
A de Andalucı́a y de toda la Universidad española.

Con una superficie de


57,000 m2 cuenta con un
sistema de control central
que gestiona tanto el su-
ministro de energı́a como
el agua, los sistemas de
seguridad o el control de
accesos.

6.2. La domótica y la inteligencia artificial


Los avances desarrollados en los últimos años en el campo de la domótica, desde el punto de
vista del edificio y hogar inteligentes, nos permiten avanzar lı́neas de trabajo convergentes con las
aplicaciones de la inteligencia artificial.

Entre las principales áreas de cooperación podemos destacar:


1. La eficiencia energética
2. Seguridad
3. La mejora de protocolos

4. Los procesos de autoaprendizaje


5. Minerı́a de datos

6.3. Eficiencia energética


6.3.1. Sensores

Sabemos que la inte-


ligencia artificial nos
proporciona herramien-
tas de aprendizaje,
búsqueda de soluciones
óptimas y desarrollo de
estrategias.

Si estas tecnologı́as se
conectan a los sensores
de consumo de una vi-
vienda, tendremos una
información en tiempo
real del entorno y podre-
mos tomar las decisiones
adecuadas.
6.3.2. Consumos
Esta información de los
sensores se combina con
los usos y costumbres de
los habitantes y nos dan
el nivel de confort exigi-
do por los usuarios

A partir de ello podemos


establecer, mediante al-
goritmos genéticos, la
solución óptima y, me-
diante redes neurona-
les, predecir el estado
futuro. La toma de de-
cisiones nos indicará la
solución más económica.
Todo ello conforma un
sistema experto en efi-
ciencia energética

6.3.3. Casos resueltos


Entre los casos que podrı́amos resaltar de aplicación de la inteligencia artificial en la gestión de
consumos, tenemos:

1. Sistemas expertos para el diseño de edificios eficientes energéticamente [Cor12]

2. Uso de algoritmos genéticos en la optimización de los sistemas de abastecimiento de aguas


[Rin06].
3. Diseño óptimo de una red de agua potable usando algoritmos genéticos multiobjetivos [VM12].
4. Predicción eficiente de temperatura con redes neuronales (grupo de investigación Gheode de
la Universidad de Alcalá de Henares, Madrid. Febrero de 2012).
5. Redes neuronales para modelar la predicción de heladas [OBS05].

6.4. Seguridad
6.4.1. Seguridad Informática
Una de las principales aplicaciones de la IA en la domótica es el campo de la seguridad in-
formática, para evitar la intrusión desde el exterior sobre el sistema informático de la vivienda.

En particular, los investigadores Michael Crouse y Errin Fulp, de la Universidad de


Harvard, están creando la primera computadora que de forma automática ajusta su configuración
para defenderse de ataques informáticos. Ellos utilizan los algoritmos genéticos para seleccionar las
mejores configuraciones; configuraciones adaptables, que van mejorando de generación en genera-
ción. Ası́ descubrieron que la seguridad de una red de sistemas informáticos aumenta si también
crece la diversidad de configuraciones entre cada dispositivo.

Los algoritmos creados por Crouse y Fulp aprovechan que, de hecho, los virus informáticos
identifican los mecanismos de defensa de la vı́ctima antes de atacar. Pero si ocurre un ligero
cambio en la configuración del sistema, el ataque puede disuadirse.
6.4.2. Sensores

Junto con la seguridad


informática, los sensores
de seguridad nos ofrecen
información sobre
cualquier percance y la
ubicación de las
personas.

Gracias a ello podemos


aportar nuevas
soluciones, a partir del
posicionamiento de los
usuarios, junto con
garantı́as de
aprovechamiento
máximo de los recursos.

6.4.3. Casos resueltos


Entre los casos que podrı́amos resaltar de aplicación de la inteligencia artificial en la seguridad,
encontramos los siguientes:

1. Proyecto PATHER para el guiado de personas a través de edificios [MI11]

2. Sistema NIDES: Next Generation Intrusion Detection Systems. Basado en las redes neurona-
les trata de analizar el comportamiento habitual de los usuarios y descubrir anomalı́as. Los
sistemas antivirus de McAfee han incorporado estas técnicas [Rap04].
3. Sistemas expertos para la detección de intrusos [MHL94].

6.5. Protocolos
6.5.1. Mejora de los protocolos
La transmisión de información en los sistemas domóticos, especialmente a raı́z del desarrollo de
los sistemas BUS y su estándar KNX, se realiza mediante telegramas de ceros y unos que establecen
las relaciones entre los diferentes dispositivos.

El estudio de la estabilidad de la información se basa, por una parte, en el Álgebra de Boole


que establece las propiedades básicas de los conjuntos de datos, y por otra en la correcta secuencia
de llegada de estas cadenas de datos a su destino.

Por ello el uso de algoritmos genéticos y de técnicas de ordenamiento en la llegada y salida


de la información es de suma importancia para el comportamiento eficiente de las instalaciones
domóticas.

6.5.2. Casos resueltos


Entre los casos que podrı́amos resaltar de aplicación de la inteligencia artificial en los protocolos,
encontramos los siguientes:

1. Sistemas expertos para la regulación de entradas y salidas en ferrocarriles (con bases de


Groebner). [RLHLRM09]
2. Técnicas de interacción cerebro-máquina (BCI: Brain Computer Interfaces): Proyecto ”Apli-
cación de sistemas BCI al entrenamiento cognitivo y al control domótico para prevenir el
envejecimiento” del Grupo de Ingenierı́a Biomédica (GIB) de la Universidad de Valladolid
(2008).
3. Teorı́a de colas: técnicas de análisis para la eficiencia de aquellos sistemas donde se pueden
producir colas y retrasos en el proceso de los datos.

6.6. Autoaprendizaje
En la domótica uno de los retos futuros será la capacidad de los sistemas para aprender de
los usuarios y predecir, en lo posible, sus deseos. Para ello es necesario un proceso de aprendizaje
basado en el establecimiento de bases de datos, suficientemente precisas y amplias, que incorporen
los hábitos de las personas.

Entre los sistemas más recientes, que incorporan la inteligencia artificial a los procesos de
autoaprendizaje de las instalaciones domóticas, podemos resaltar Openhab. El proyecto de la
Universidad CEU Cardenal Herrera en Solar Decathlon, llamado SMLSystem (obtuvo el segundo
puesto en balance energético), ha hecho uso de esta herramienta para programar su instalación
KNX. A partir de ella, y gracias a la capacidad de enlace mediante webservices REST, SMLSystem
es capaz de obtener datos y predecir el estado de la casa.

6.6.1. Datos

La entrada de datos se
produce a través de los
diferentes sensores de
los que dispone la
vivienda, y son
contrastados con las
decisiones habituales
que toman los usuarios.

En el caso de redes
neuronales, los sensores
nos darı́an las entradas,
y las decisiones del
usuario serı́an los
premios y castigos a la
solución propuesta.

6.7. Minerı́a de datos


Definición 6.1 La minerı́a de datos (o data mining) es un campo de las ciencias de la compu-
tación que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza para
ello los métodos de la inteligencia artificial, aprendizaje automático, estadı́stica y bases de datos.

6.7.1. Fases
1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo (las que
se quiere predecir), como a las variables independientes (las que sirven para hacer el cálculo).
2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas de
dispersión, presencia de valores atı́picos y ausencia de datos (valores nulos).
3. Transformación del conjunto de datos de entrada, con el objetivo de prepararlo para
aplicar la técnica de minerı́a de datos que mejor se adapte a los datos y al problema.
4. Seleccionar y aplicar la técnica de minerı́a de datos, se construye el modelo predictivo,
de clasificación o segmentación.
5. Extracción de conocimiento, aquı́ se obtiene un modelo de conocimiento, que represen-
ta patrones de comportamiento observados en los valores de las variables del problema o
relaciones de asociación entre dichas variables.
6. Interpretación y evaluación de datos. Una vez obtenido el modelo se debe proceder a
su validación, comprobando que las conclusiones son válidas y suficientemente satisfactorias.
6.7.2. Técnicas
1. Redes neuronales.
El perceptrón simple y el perceptrón multicapa.
Los mapas autoorganizados (redes de Kohonen).
2. Modelos estadı́sticos.

Análisis de varianza y de regresión.


Análisis de agrupamiento o clustering (buscadores y recuperadores de información).
Prueba chi-cuadrado.
Análisis discriminante.
Series temporales.
3. Árboles de decisión.
4. Reglas de asociación.
5. Sistemas expertos.

6. Algoritmos genéticos.
7. Bibliografı́a
Referencias
[Cor12] Javier Cortés. Aplicación de sistemas expertos para el diseño de edificios eficientes
energéticamente. Master’s thesis, ETS de Ingenierı́a, Universidad de Sevilla, 2012.
[dE13] Organización de Empresas. Inteligencia artificial aplicada a la gestión de empresas.
EPS de Ingenierı́a de Gijón, 2013. Universidad de Gijón.

[GH88] D.E. Goldberg and J.H. Holland. Special Issue on Genetic Algorithms. Machine
learning. Kluwer Academic Publishers, 1988.
[GPF00] A. Gómez, J. Parreño, and I. Fernández. Aplicaciones de los Algoritmos Genéticos
en la industria. 2000.
[Mer03] Salvador Merino. Optimización en el Diseño de Torres. PhD thesis, Matemática
Aplicada. Universidad de Málaga, 2003.
[MGMA12] S. Merino, J.L. Galán, J. Martı́nez, and M. Aguilera. Classifying the items of a
Likert based questionnaire in different competences. 2012.
[MHL94] B. Mukherjee, L. T. Heberlein, and K. N. Levitt. Network intrusion detection. IEEE
Network, pages 26–41, 1994.
[MI11] S. Merino and J.M. Iglesias. Pather, servicios orientados al fomento de la autonomı́a
en interiores. II Foro Internacional de Diseño Universal: Design for all, 2011.
[Min00] Gabriela Minetti. Una solución de computación evolutiva para el TSP, su posible
aplicación en las organizaciones. PhD thesis, Universidad Nacional de la Plata.
Argentina, 2000.
[MS96] Z. Michalewicz and M. Schoenauer. Evolutionary algorithms for constrained para-
meter optimization problems. Evolutionary Computation, 4:1–32, 1996.
[Muñ13] José Muñoz. Conferencia sobre inteligencia artificial. Universidad de Málaga, 2013.

[OBS05] G. Ovando, M. Bocco, and S. Sayago. Redes neuronales para modelar la predicción
de heladas. Agricultura Técnica, 65:65–73, 2005.
[Rap04] A.N. Rapaka. Next Generation Intrusion Detection System. University of Missouri–
Rolla, 2004.

[Rin06] Jean Carlos Rincón. Aplicación de algoritmos genéticos en la optimización del


sistema de abastecimiento de agua de Barquisimeto-Cabudare. Avances en Resursos
Hı́dráulicos, 14:25–38, 2006.
[RLHLRM09] Eugenio Roanes-Lozano, Antonio Hernando, Luis M. Laita, and Eugenio Roanes-
Macı́as. A groebner bases-based approach to backward reasoning in rule based
expert systems. Ann. Math. Artif. Intell., 56(3-4):297–311, 2009.
[RN10] S.J. Russell and P. Norvig. Artificial Intelligence: A Modern Approach. Prentice
Hall. Series in Artificial Intelligence. Pearson Education/Prentice Hall, 2010.
[VM12] P. Vargas and Ch. Mamani. Diseño óptimo de una red de agua potable utilizan-
do algoritmos genéticos multiobjetivo: caso asentamiento humano pampa alta del
distrito de ite-tacna. Facultad de Ingenierı́a Civil, Arquitectura y Geotecnia, 2012.
Universidad Nacional Jorge Basadre Grohmann-Tacna.

Você também pode gostar