Você está na página 1de 218

NUMERO 1 DE LA

REVISTA CONTROL,
CIBERNETICA Y Editada por:
Departamento de

AUTOMATIZACION Control Automático


ICIMAF

(CCA)
ISSN: SOLICITADO

La información en sí misma no vale nada, hay que descifrarla.


Hay que transformar las señales y los mensajes auditivos,
visuales o como fueren, en ideas y procesos cerebrales, lo que
supone entenderlos y evaluarlos. No basta poseer un cúmulo de
información.
Mario Bunge
EDITORIAL

Al primer número de la revista CCA en formato electrónico

A inicios de los años 80, recién graduado de la especialidad de sistemas de control, las
posibilidades de continuar actualizándose en los avances de una ciencia en constante
desarrollo eran escasas. Los cursos de postgrado eran prácticamente inexistentes y las
publicaciones especializadas otro tanto. Estas si existían estaban concentradas en
algunas pocas bibliotecas y eran en lo fundamental procedentes de los ex países
socialistas. Una de las pocas opciones la constituía la revista “Control, Cibernética y
Automatización” (CCA) editada por el Centro Nacional de Información Científico-
Técnica del Ministerio de la Industria Básica y el Instituto de Matemática, Cibernética y
Computación (IMACC) de la Academia de Ciencias de Cuba.

Revista Trimestal, con un precio de tres pesos, a la luz de los años podemos decir que al
leerla era como “leer decenas de buenos libros: cada estudio (era) el fruto de
investigaciones cuidadosas, ordenados extractos y composición hábil de libros diversos”
(Martí, José; “Notable número del mensuario de Ciencia Popular”, La América, Nueva
York, abril de 1884, t. 13, p. 437).

Su objetivo fundamental lo podemos extraer del número de abril-junio del 1982,


“Consagrado en su totalidad a trabajos de algunos de los integrantes del Departamento
de Teoría de Control del IMACC”. En su nota a los lectores de la página 3 se expresa
“… desde su creación se impuso como objetivo fundamental el servir como centro
receptor y procesador de las ideas y métodos más avanzados en la Teoría del Control,
especialmente de aquellos que cuentan con más posibilidades de aplicación práctica en
las condiciones de nuestro país”
Han transcurrido 31 años de la aparición de ese número y 46 años desde la aparición del
primer número de la revista en el año 1967. El Departamento de Teoría de Control se
transformó en el Departamento de Control Automático del Instituto de Cibernética,
Matemática y Física (ICIMAF) del Ministerio de Ciencia, Tecnología y Medio
Ambiente. Las líneas de investigación se han diversificado y además de Teoría del
Control se realizan investigaciones en Instrumentación virtual, Sistemas de Seguimiento,
Robótica, Inteligencia Artificial, Seguridad, Sistemas de Supervisión y Diagnóstico,
Control por computadora en Tiempo real, Ahorro de portadores energéticos, Energía
renovable, Modelación y Simulación, Minería de Datos, Inteligencia de Negocios,
Vigilancia Tecnológica, Buscadores de Internet y Membranas para depuración de agua
de Zeolitas. Sus 20 integrantes participan en eventos Nacionales e Internacionales,
gestionando el Taller anual de “Control, Cibernética y Automatización” con tres líneas,
Control, Ahorro de portadores energéticos y energía renovables y Minería de Datos,
realizan publicaciones en revistas especializadas, algunas de ellas en revistas de impacto
internacional, se imparten cursos, la maestría de “Cibernética Aplicada” en sus
menciones de “Control Avanzado” y “Minería de Datos”, son tutoreados más de una
docena de aspirantes a Doctor nacionales y extranjeros y se realizan varios proyectos
institucionales, ramales y nacionales.

Por otro lado, se ha diversificado la industria nacional apareciendo líneas nuevas como
la biotecnología, desarrollándose otras como el turismo y modernizándose otras como
las refinerías y la industria azucarera, caracterizadas todas ellas por un elevado nivel de
automatización. Se han potenciado los centros de investigación y desarrollo
tradicionales como los de las Universidades de La Habana, Las Villas, Santiago de
Cuba y la CUJAE y han aparecido otros nuevos asociados a nuevas Universidades como
las Universidades de las nuevas provincias y la Universidad de Ciencias Informáticas
(UCI).

Todo ese caudal científico en el país necesita “de receptor(es) y procesador(es) de las
ideas y métodos” para difundirlos y aplicarlos en la economía y la sociedad acorde con
la creación del nuevo modelo económico resultante de los Lineamientos del VI
Congreso del Partido. Sin embargo, las revistas nacionales en formato papel de
Cibernética son prácticamente inexistentes y las de formato electrónico son pocas y no
tienen la difusión necesaria. Nuestros investigadores en estas áreas se ven obligados
entonces a publicar en revistas extranjeras, las nacionales solo recientemente entraron
en el Cuarto nivel de publicaciones definidos por el CITMA, cuyos objetivos de
publicación en ocasiones no tienen ningún punto de coincidencia con las necesidades de
la industria nacional y en general del país.

Algo parecido sucede, en otra dimensión, en América Latina. Esta área experimenta un
proceso de industrialización y está necesitada de soluciones originales para ser
realmente competitiva, pero tiene que vencer la falta de cultura científica autóctona en
las esferas del control, la cibernética y la automatización. De ahí el renovado interés de
los gobiernos progresistas por impulsar la educación científico-técnica en todos los
niveles de enseñanza.

Por las necesidades planteadas, nos hemos dados a la tarea de rescatar con este número
la revista “Control, Cibernética y Automatización”, desaparecida en el año 1992 por el
Período especial. Con más amor que recursos, se unen cuatro generaciones, desde los
primeros editores, aún en activo, hasta los actuales, recién salidos de los centros de
educación superior, para publicar, en esta ocasión en formato digital, los trabajos de los
investigadores y especialistas nacionales y de la “América Nuestra” en bien de la Patria
Común.
EXPERIMENTO, TEORÍA Y PRÁCTICA EN LAS CIENCIAS DE LA
COMPUTACIÓN Y EL CONTROL AUTOMÁTICO.

Tomo el título y el espíritu de la intervención realizada por el académico Kapitza en


reunión general de la Academia de Ciencias de la URSS en el año 1962 para hablar
sobre estos aspectos y sus realidades en nuestro país relativos no a las ciencias físico
matemáticas sino a las ciencias de la computación y el control automático esencia de la
publicación “Control, Cibernética y Automatización”.

Como en todas las ciencias, en la computación y el control automático debe de existir


un equilibrio entre la teoría, su verificación experimental y su introducción en la
práctica social, un enfoque más filosófico que el pragmático “ciclo cerrado” empleado
por algunas de nuestras instituciones de investigación-producción. “Una ruptura entre la
teoría y la experimentación, entre la teoría y la vida, entre la teoría y la práctica es un
síntoma de serias violaciones en el desarrollo normal de la ciencia”. Ahora entonces
caben las preguntas, ¿Cuál es la proporción necesaria para un desarrollo armónico de las
ciencias temas de este artículo de acuerdo con las características de Cuba?, ¿Cuál es la
situación actual de estas ciencias en el país?

Tomando como referencia los eventos científicos “Taller de Cibernética Aplicada” del
ICIMAF del 2012 e Informática, la proporción de trabajos teóricos es en Control
Automático del 25% (24% en Informática y 28% en Cibernética) contra un 75% de
trabajos aplicados o experimentales. En Ciencias de la computación la proporción es del
50% (45.3% de trabajos teóricos en Informática, 50% en Cibernética).

La experimentación.

En la historia del desarrollo de las ciencias básicas, en particular la física, la división de


investigadores teóricos y prácticos se realizó hace relativamente poco tiempo. Con
anterioridad, no solamente Newton y Huygens que eran excelentes instrumentistas sino
también un teórico como Maxwell generalmente comprobaban experimentalmente sus
propias teorías. En la actualidad solamente en casos extraordinarios los teóricos realizan
sus experimentos. Ello se debe a que la técnica necesaria para la realización de los
experimentos se ha hecho muy compleja y se exigen de grandes esfuerzos para poder
realizar los mismos. Así por ejemplo existen los departamentos de Física Teórica y
Física Aplicada, Matemática y Matemática Interdisciplinaria.

Con la cibernética (en la que se incluye el control y la computación) la situación es


diferente, Norbert Wiener, además de matemático se ocupaba de tareas ingenieriles
como el seguimiento de los aviones, y esta filosofía en su esencia ha continuado hasta
días. Tal vez ello se debe a que en comparación con las ciencias mencionadas
inicialmente estas todavía están en sus inicios. Generalmente el investigador lleva a
efecto sus experimentos. La disponibilidad de los medios de cómputo y la asequibilidad
de los programas de computación, fundamentalmente el software libre, proporciona una
base de experimentación asequible al investigador. En el caso del control automático,
donde se requiere de una base de experimentación menos asequible, fundamentalmente

1
por los costos, así como la imposibilidad de realizar los experimentos en plantas
industriales en funcionamiento, siempre queda el recurso de escalar las comprobaciones
experimentales inicialmente mediante la simulación y posteriormente realizar maquetas
de laboratorio. En el caso de las ciencias de la computación es factible acudir a la
validación de los algoritmos desarrollados apoyados en paquetes de programas, muchos
de ellos de libre acceso, tomando como datos los que se distribuyen en repositorios de
libre acceso.

Esta fase de experimentación no está exenta de insuficiencias. En mayor o menor


medida de acuerdo a la rama específica y al centro en donde se realiza la investigación,
por lo general se carece de computadoras modernas y de un centro de hipercómputo en
donde probar los programas. La situación se hace más crítica cuando la experimentación
depende de importación de componentes, como es el caso de la instrumentación y la
robótica, los que aun teniendo el financiamiento se hace un calvario su ejecución por los
trámites burocráticos, la decidía y la demora en general de su ejecución. También en la
mayoría de los centros el acceso a Internet es deficiente debido a lo reducido del ancho
de banda. Sin embargo, pienso que con iniciativa e inteligencia, recuperando
componentes de computadoras en desuso, cambiando los horarios, hasta pidiendo
componentes a investigadores que salen al extranjero y que traen en los bolsillos de sus
pantalones y abrigos es posible continuar haciendo una ciencia suficiente.

La teoría.

El nivel y la cantidad de la producción teórica pensamos que si en la producción de


artículos se corresponde con las necesidades y posibilidades de nuestra ciencia en
cuanto a libros es muy deficiente, el publicar un libro de texto de la especialidad, a pesar
de la demanda que tienen temas como la informática en nuestro país, puede convertirse
en un calvario que desanima al más optimista de los investigadores. ¿La solución?
buscarse un coautor en el extranjero, con las implicaciones que ello conlleva, y disponer
de un texto de primera calidad en impresión, pero de difícil adquisición aún para el
propio autor si quiere disponer por ejemplo de libros para orientar una clase o dirigir
una investigación.

Debe entonces realizarse un trabajo más coordinado y dinámico entre las editoriales, las
administraciones de la ciencia y los investigadores para estimular la publicación de
libros de textos científicos que incluya el pago del derecho de autor lo cual para los
libros científicos no está concebido a diferencia de las publicaciones en otras temáticas.

Por otro lado, los investigadores cubanos, al menos lo que reflejan las tesis de doctorado
de las que he sido oponente, no leen a los autores del país. Tal vez sea por lo difícil que
es adquirir los materiales impresos o por la ausencia de estos materiales en la red, de
hecho no existe un repositorio de artículos y libros de autores cubanos, o que se
considere que el consultar textos de científicos del patio es una pérdida de tiempo, a
pesar de que esta deficiencia es una deficiencia metodológica en la elaboración de las
tesis y una pérdida de oportunidades por el alto nivel que considero estas publicaciones

2
tienen por las soluciones originales que dan a losproblemas. Lo cual se corrobora por el
alto impacto que tienen muchas publicaciones en el extranjero.

Tal vez en el campo del control automático, como muestran los datos, sea necesario
incentivas las publicaciones teóricas.

La práctica.

Si la experimentación y la teoría pueden presentar resultados más o menos


satisfactorios a pesar de las insuficiencias, es la práctica de la introducción de las
investigaciones en la sociedad la que confronta más serios problemas, con el gasto de
recursos y el desaprovechamiento de oportunidades para el desarrollo del país que ello
conlleva, a pesar de la importancia que para las propias investigaciones tiene está por
que no es más que la comprobación en la vida de las concepciones teóricas planteadas
como criterio de la verdad.

En ello inciden varios factores.

El país, debido al bloqueo y a insuficiencias propias ha tenido que desarrollar iniciativas


y darle solución a tareas en la industria y en las organizaciones que antes de la
revolución era algo impensable. Eduardo Galeano hace referencia (página 114), citando
al economista cubano Regino Botti, que en la filial de la Nestlle que producía leche
condensada en Bayamo, “en caso de un accidente, el técnico telefoneaba a Connecticut
y señalaba que en su sector tal o mas cual cosa no marchaba. Recibía enseguida
instrucciones sobre las medidas a tomar y las ejecutaba mecánicamente…Si la
operación no resultaba exitosa, cuatro horas más tarde llegaba un avión transportando
un equipo de especialistas de alta calificación que arreglaban todo. Después de la
nacionalización ya no se podía telefonear para pedir socorro y los raros técnicos que
podían reparar los desperfectos secundarios había partido”

Hoy la situación es bien distinta, existe un potencial considerable de técnicos,


ingenieros e investigadores, bien preparados que son capaces de darle solución a los
más complejos problemas en la industria y en las organizaciones. A pesar de ello, este
potencial se emplea deficientemente o sencillamente no se emplea. Hasta el año 90 se
daban soluciones nacionales a la industria muy satisfactorias ya sea por el bloqueo ya
mencionado, como las insuficiencias tecnológicas del propio ex campo socialista.
Ejemplo de ello son los autómatas construidos en el ICIMAF, el ICID y el CEDAI para
la industria azucarera basado en tecnologías de microprocesadores. El período especial
acabó con muchas líneas de desarrollo por carencia de medios materiales y el éxodo de
los especialistas a otras ramas mejor remuneradas como el Turismo o a Universidades y
centros de investigación extranjeros. También, al igual que les pasó a muchos países de
América Latina con la independencia según el propio Galeano, (pag. 285) la apertura a
la inversión extranjera y la ausencia de mecanismos nacionales de protección e
importación eficientes en las empresas conllevó al desplazamiento de la industria
nacional por las firmas, dándose fenómenos como la reparación de la cocina del hospital
oncológico por una forma española o la desaparición del taller de circuitos de aviación

3
para importarlos ya confeccionados desde Rusia. Los programas de lectura y análisis de
la información de los recopiladores de los parámetros de vuelo (cajas negras) que se
desarrollaron en Cuba para la aviación existente en aquellos años tuvieron que ser
adquiridos a las firmas SAGEM francesa y a la sociedad “Centro de Mecánica
Aplicada” de Rusia a un costo de 100000.00 dólares cada uno con el cambio a una
nueva técnica. Los recopiladores de parámetros para los aviones AN-24 (BUR-SL) que
se adquirieron a la firma rusa PRIVOR para cumplir con las reglamentaciones de la
OACI pudieron haberse adquirido a las FAR en Cuba que venía desarrollando y tenía en
explotación en los helicópteros y aviones cazas un recopilador con mejores
características (RUPAI).

Como curiosidad, cuando el especialista francés terminó de impartir el curso en inglés y


partió del Hotel Melía, el software de la firma francesa, por el que hay que pagar
anualmente 2000 dólares por concepto de actualizaciones, no trabajaba por falta de
entrenamiento de los especialistas cubanos fue uno de los desarrolladores de los
software iniciales el que a partir de la experiencia adquirida pudo poner en
funcionamiento el mismo.

En otros países, como Corea del Sur existen regulaciones que protejen a las
producciones nacionales y gravan con altos impuestos las tecnologías que se adquieren
en el extranjero.

Las situaciones anteriormente descritas pudiesen tener una solución más favorable para
la economía y la ciencia del país si cualquier inversión tecnológica de envergadura
fuese sometida a licitación con la participación tanto de firmas nacionales como
extranjeras.

Otro problema es el lograr la debida interfase entre los investigadores, desarrolladores y


la industria. Todo nuevo desarrollo de alta tecnología requiere de un entrenamiento de
los tecnólogos y operarios lo cual debe ser un compromiso, bajo contrato entre los
involucrados. El no cumplimiento de este paso para la implementación de los
desarrollos tecnológicos de software y de control en la práctica puede llevar a que el
mejor de los desarrollos se eche a un lado por parte de la industria.

Un ejemplo lo constituyó la automatización de las lecturas de una Planta en una


refinería. Construida antes de la revolución por los norteamericanos, esta planta
continuó su funcionamiento con la misma tecnología de registros de parámetros que en
sus inicios, o sea el registro en un papel por una plumilla. El ICIMAF realizó un
desarrollo para realizar ese mismo registro por computadoras. Lo instaló y lo puso a
trabajar en paralelo con el registro anterior. Al final, la empresa continuó importando las
plumillas y el papel, que de hecho ya no se producen y nunca adoptó como principal el
sistema de registro automatizado.

Una solución es que dentro del contrato se prevea la estimulación directa a los
investigadores encargados de la introducción en la práctica de sus desarrollos. Otra
revisión necesaria sería variar el % que a knowhow se destina en la formación de los

4
precios que en la actualidad solo es de un 10 a un 20% del costo neto del desarrollo. Si
se piensa que esto es mucho dinero a pagar al investigador solo interésese cuánto cobra
un especialista extranjero por realizar esa misma actividad o cuanto se paga en el
extranjero a un especialista de similar categoría.

También debe de estudiarse el pago de una remuneración a inventores por concepto de


patentes, como mismo se paga los royalties a los músicos, que estimule el interés de
estos en patentar sus invenciones las cuales no en pocas ocasiones son robadas y
patentadas en el extranjero y que les permita afrontar el incremento de los pagos por
derechos de patentes realizados recientemente.

Finalmente, y a mi modo de ver el más grave de los problemas que inciden en la


realización práctica de los desarrollos es la insuficiente paga y estimulación monetaria
de técnicos, ingenieros e investigadores. Cuando un especialista nuestro gana 1000
dólares al mes si incluimos los subsidios de educación, salud y alimentación. Un
especialista extranjero gana de 10 a 20 veces más por igual trabajo. Los investigadores
cobran una estimulación en CUC mucho más baja que los especialistas de empresas
tecnológicas y el turismo con peores condiciones de trabajo y teniendo que realizar un
trabajo más calificado lo que propicia el éxodo hacia esas actividades.

Una situación nueva en relación al mercado laboral ha introducido la ampliación del


trabajo por cuenta propia. De hecho la situación no es nueva. En la novela “Talento” de
del escritor ruso Green, se narra como el protagonista, inventor no reconocido por la
burocracia de las oficinas de patentes, ante la implantación en el país de la “Nueva
política económica” de Lenin, se percata de la necesidad que tienen los pobladores de
moler el trigo para obtener harina, y así su ingenio lo hace transformar un torno en
desuso para crear un molino vertical de harina con lo cual brinda el servicio particular a
los necesitados ciudadanos. En la Cuba de hoy el molino de harina se ha transformado
en las más diversas actividades, una de las cuales es la venta de churros, en la cual, se
puede ganar hasta 200 pesos en una sola jornada. Compárese con los 400 pesos
promedio que gana un recién graduado a mes.

La posibilidad de crear cooperativas no agropecuarias le da entrada a una nueva


categoría laboral para investigadores y desarrolladores. Si bien es cierto que el
desarrollo realizado en universidades y centros de investigación cuenta con la ventaja de
la tradición, el conocimiento acumulado y la estabilidad de estas instituciones, lo cual
es vital para el mantenimiento de software, no es menos cierto que las cooperativas
tendrán ventajas competitivas al poder dar respuestas más dinámicas, tener más libertad
en realizar asociaciones y acceso a componentes y medios electrónicos, y poder
incentivar mejor a sus trabajadores al no tener que cargar con las trabas burocráticas que
le son inherentes a Universidades y centros de investigación. El escenario es difícil de
predecir por lo que habrá que esperar el desenvolvimiento de los acontecimientos.

Si el pago y el reconocimiento a los investigadores y especialistas es insuficiente, más


aún lo es a los dirigentes de la ciencia. Los dirigentes de los colectivos tienen la
responsabilidad de la realización del trabajo y en ocasiones, como no participa
5
directamente en los trabajos de investigación que organiza y crea las condiciones para
su realización no se le considera dentro del colectivo de autores, a pesar de que el esel
encargado de distribuir el trabajo entre sus miembros, separa las buenas ideas de las
malas y orienta las direcciones principales de la investigación. Kapitza en el trabajo ya
referenciado, compara al dirigente del trabajo científico con un director de teatro o de
cine al cual nadie se le ocurre disputarle su protagonismo. En la actualidad se hace
incapié en el trabajo en colectivo de los investigadores para la obtención de resultados
más rápidos y de mayor calidad, entonces el papel del dirigente científico es
determinante. Por ello en ocasiones se hace difícil atraer a los cargos de dirección a los
investigadores talentosos. Estos cargos entonces son ocupados por trabajadores
administrativos, sin la calificación científica y creadora necesaria y como resultado los
colectivos comienzan a trabajar mal y a disminuir la calidad del trabajo científico. En el
ICIMAF una solución no escrita a esta problemática ha sido la de rotar los cargos de
dirección entre los investigadores y pienso que esa práctica ha dado resultados
positivos.

Si la familia es la célula de la sociedad en la ciencia la célula es la organización por


proyectos, la organización de la investigación por proyectos es el núcleo para llevar
adelante cualquier línea de investigación.

6
El zurdo

Adaptación del cuento “El Zurdo” del escritor ruso Nikolai Leskov (1831-1895)

De manera casi inconciente, a lo largo de mi vida he podido apreciar patrones comunes


en cuanto a las características de las personas zurdas. Por lo general son personas que se
destacan por su destreza e inteligencia en general, llegando a la conclusión generalizada
que todo zurdo tiene habilidades por encima del resto de los mortales. Tal vez ello sea
por su constante adaptación a un mundo creado solo para derechos. Precisamente, para
corroborar lo anterior traigo el siguiente cuento.

Terminado la reunión cumbre intergaláctica, el Presidente de las naciones de la Vía


Láctea, Alejandro (original el zar), le acometió el deseo de recorrer las civilizaciones de
la Nebulosa de Andrómeda y ver las maravillas que había en los diferentes mundos.
Aprovechando la tecnología de transportación extracorpórea, donde era posible
convertirse en energía (con la información portadora), trasladarse en un haz de la luz y
materializarse en el planeta destino, estuvo en todos los planetas habitados y, en donde
quiera que se hallase, llevado de su natural afabilidad, mantenía conversaciones
amistosísimas con gente de toda calaña. Los naturales trataban siempre de asombrarlo,
deseosos de ganarse su favor, pero lo acompañaba el hindú Rabindranat – Rabin, a
quien hacían poca gracia aquellas cosas y trataba de convencer al mandatario de que
debían volver a la Tierra pues lo dominaba la nostalgia por su país.

En cuanto Rabin se percataba que el presidente se interesaba mucho por algo


extraterrestre, aunque todo el séquito callase, no reparaba en nada y, con unas u otras
razones distraía su atención asegurándole que en la Tierra tenían cosas que no eran
peores.

Los Andromidanos en particular, conocedores de estas circunstancias, idearon toda


suerte de ardides con motivo de la visita del Presidente, para cautivarlo con sus
originalidades y apartarlo de los terrícolas, lo que lograban en muchos casos y sobre
todo en las grandes fiestas, ya que Rabin no podía expresarse bien en el idioma
intergaláctico. Debo decirles que el hecho de no conocer el idioma no preocupaba gran
cosa al buen ayudante, pues hombre era casado y pensaba que las conversaciones en
intergaláctico eran necedades que no merecían atención. Y cuando los Andromidanos
empezaron a llevar al soberano a sus fábricas robotizadas, perfumerías y manufacturas,
para hacerle ver que tenían ventajas sobre nosotros en todas las cosas, y así presumir,
Rabin se dijo:
- ¡Sanseacabó! Hasta ahora hemos aguantado, pero ya está bueno. Sepa o no sepa
hablar, no dejaré que se rían de mi gente.
-
Apenas terminada de tomar esta determinación, El Presidente le dice:

- Bueno, Rabin, mañana iremos a visitar uno de los museos de armas que tienen
aquí. Hay en él, dicen, tales maravillas, que en cuanto las veas te convencerás de
que nosotros, los terrícolas, con nuestra importancia, no valemos ni para tacos de
escopeta.

Rabin no respondió ni pío a su soberano, escondió su nariz enrojecida en el peludo


abrigo, y en cuanto llegó a la casa ordenó a su asistente que le trajera de la Cava un ron
cubano, de esos casi llegando a los 70 destilados directo del central, se hecho entre
pecho y espalda un vaso capaz de tumbar de un golpe al burro Perico, reflexionó
tomando el libro de cabecera dudando en abrirlo. Se tapó con el abrigo y quedó
profundamente dormido.

El ayudante pensaba que la almohada seria buena consejera.

II

Al día siguiente, el presidente y Rabin fueron a visitar un Palacio de Curiosidades. El


soberano no llevó con el a ningún otro terrícola, pues el transporte de que disponía era
de solo dos asientos.

Llegaron a un edificio alto como una montaña. El portal era una verdadera maravilla,
los corredores eran mas largo que un día sin pan, y las habitaciones a cual más bonita.
Por fin entraron en la sala principal y en el centro, bajo un baldaquín el Apolo de
“bebeleche” ( de la deformación intencional de Apolo de Belvedere),

El presidente miraba de cuando en cuando a Rabin, para ver si se asombraba y que


atraía su atención. Pero el buen ayudante lo seguía con los ojos bajos, como si estuviera
ciego, atusándose los bigotes.

Los andromidanos empezaron enseguida a enseñarles mil cosas raras y a explicarles lo


que habían inventado para la guerra: posicionadotes intergalácticos, escafandras
aerodinámicas para el espacio, cascos especiales para los pilotos. El presidente se
entusiasmaba por todo, y todo le parecía bien, pero Rabin se mantenía en sus trece,
diciendo que todo aquello no era cosa del otro mundo.

El presidente le dice:

- ¿Cómo puedes ser tan insensible? ¿Acaso no te asombra nada de lo que ves
aquí?

Y Rabin responde:
- Lo único que me asombra es que mis bravos soldados combatieran sin nada de
eso en el espacio y pusieran en fuga a todos los invasores de Aldebarán.
- Tú estás mal de la cabeza amigo.
Rabin replica:

- No sé a que vienen esas palabras, pero no me atrevo a discutir y debo de poner


punto en boca.

Los andromidanos, al notar este pequeño altercado, llevaron al presidente hasta la


estatua de Apolo y tomaron en una de sus manos un fusil de neutrinos y de la otra una
pistola antigua.

- Fíjese – le dicen – cuál es nuestra producción – y le extienden el fusil

El presidente examinó sin gran entusiasmo el fusil de neutrinos, pues en la tierra tenían
varios como aquel.

Entonces, los andromidanos ponen en sus manos la pistola y le dicen:

- Esta pistola es de una maestría sin par, inimitable. Uno de nuestros almirantes se
la arrancó del cinto a un capitán pirata de Aldebarán.

El presidente miro la pistola y no podía apartar de ella sus ojos.

De su boca salían un rosario de exclamaciones:

- ¡Oh, oh, oh! ¡Qué maravilla…! ¡Cómo habrán podido hacer eso con tanta finura!
– y volviéndose a Rabin le dijo en inglés -: Mira. Si yo estuviese en la Tierra un
solo maestro armero como el que hizo esta pistola, me sentiría feliz y orgullosos,
y a ese maestro lo haría caballero de honor sin más ceremonias.

Al oír tales razones, Rabin hundió su mano derecha en sus anchurosas bombachas y
sacó de allí un destornillador.

Los andromidanos dicen:

- Esa pistola no se puede desmontar.

Pero el buenazo del ayudante no les hizo caso y continuó hurga que te hurga. Dio una
vuelta, dio otra … y sacó el cerrojo. Rabin mostró este al presidente, que vio allí una
inscripción en inglés “Hecho en Japón”

Los andromidanos asombrados, se daban de codazos:

- ¡Oh, Dios mío, como hemos metido la pata!

Y el presidente dijo tristemente a Rabin:

- Para que los has puesto en ridículo, Me dan mucha pena. ¡Vámonos!
Tomaron asiento en su vehículo de dos plazas y se marcharon. Aquel mismo día el
soberano asistió a un baile, y Rabin; después de secar un vaso de Ron mayor que el de
la víspera, se acostó.

Estaba alegre por haber dejado en mal lugar a los andromidanos y en buen lugar a los
fabricantes de Japón. Pero al mismo tiempo sentía rabia: ¿Por qué el presidente se había
compadecido de tal forma de los andromidanos?

“¿Por qué se habrá amargado el presidente? – pensaba Rabin -, No acierto a


comprenderlo”. Y, rumiando estos pensamientos, se levantó unas dos veces para
remojar el gaznate con ron, hasta que, borracho como una cuba, se rindió al fuerte sueño
cubano.
Los andromidanos tampoco dormían, porque tenía con que calentarse la cabeza.
Mientras el presidente se divertía en el baile, le preparaban tal sorpresa que hasta Robín
habría de quedar con la boca abierta.

III

A la mañana siguiente, cuando Robín se presentó al presidente para darle los buenos
días Alejandro le dijo:

- Dispón que preparen el vehículo de dos plazas, iremos a visitar nuevas


exposiciones.

Robín se atrevió a insinuar que ya habían visto bastantes productos intergalácticos y que
sería mejor prepararse para volver a casa, la Tierra; pero el presidente le dijo:

- No deseo ver más cosas nuevas: me han alabado su azúcar de primera calidad.

Partieron.

Los andromidanos mostraban y mostraban al presidente diferentes clases de azúcar y


Rabin, que los miraba muy atento, dijo de pronto:

- Muestrénnos sus fábricas de azúcar prieta.

Los andromidanos no sabían lo que era prieta. Cuchicheaban, se hacían guiños, se


decían unos a otros ”Prieta, prieta”, pero no podían comprender que era una clase de
azúcar que se hacía en el Caribe, y se vieron obligados a confesar que no tenían prieta.

Rabin dice:

- Vaya, entonces no se alaben. Vengan a visitarnos y nosotros los hartaremos de


limonada con verdadera prieta del Central “Guiteras” de Camaguey.

Entonces le presidente tomó de la manga al ayudante y le dijo en voz baja:

Haz el favor de no echar a perder mi política.


Los andromidanos invitaron entonces al presidente a visitar su última exposición de
curiosidades, donde habían reunido piedras minerales, objetos de todos los rincones de
la galaxia. Había allí desde la más grande de las construcciones hasta la más pequeño de
los paisajes pintados en un grano de arena, imposibles de distinguir a simple vista.

El presidente recorrió la exposición y cuando estaban a punto de salir de allí y Rabin


pensaba:

“Gracias a Dios, todo ha terminado felizmente. El presidente no se ha asombrado de


nada”.

Pero cuando llegaron a la última sala, encontraron en ella a unos hombres vestidos con
batas blancas que sostenían una bandeja que en la que no había nada.
Al presidente le extrañó sobremanera que le presentaran una bandeja vacía.

- ¿Qué significa esto? – preguntó

Los investigadores andromidanos le respondieron:

- Es nuestro modesto ofrecimiento a vuestra excelencia.


- ¿Qué ofrecimiento es este?

- ¿No tiene usted a bien ver un granito de metal? – le dijeron.

El presidente aguzó la vista y en efecto: en la bandeja de plata había un granito plateado


de lo más diminuto.

Los científicos le dicen:

- Tenga a bien ensalivarse el dedo y póngalo en la palma de la mano.


- ¿Qué falta puede hacerme esto?
- No es un grano de metal – le dijeron -, es un robot.
- ¿Y funciona?
- Si le dicen, es pura tecnología de Andrómeda. Lo hemos construido en forma de
“cotorrita” y en el interior están todos los sensores, el control y los actuadores.
Tenga a bien de accionar el mando y comenzará inmediatamente a moverse de
forma autónoma.

El presidente, picado por la curiosidad, pregunta:

- ¿Dónde está el mando?

Los andromidanos le dicen:

- Aquí está, ante vuestros ojos.


- ¿Por qué no lo veo? – pregunta el soberano.
- Porque hay que utilizar un microscopio.

Trajeron un microscopio y el presidente de toda la Vía Láctea vió que en la bandeja,


junto a la cotorrita había efectivamente un mando.
- Tenga a bien coger en la palma la cotorrita, cuide que las antenas queden arriba,
ponga el dedo sobre el mando y esta comenzará a moverse.

El presidente se vio apurado en coger la cotorrita entre el pulgar y el índice de la mano


derecha para ponerla en la palma de la izquierda, y más apurado aún para que no se le
escapara. Apretó el mando con la otra mano presionando sobre la bandeja y se percató
que de que la cotorrita comenzaba a mover las alitas y después las paticas, preparándose
para despegar lo cual hizo al llegar al borde de la mano. Dio un círculo y volvió a
posarse en la mano del presidente.

El presidente dispuso que inmediatamente le entregaran un millón a los andromidanos


en la moneda que deseasen o bien en metal.
Los andromidanos pidieron que se les pagara en oro, pues no conocían los billetes; e
inmediatamente hicieron otro de sus trucos: regalaron al presidente la cotorrita pero sin
estuche; y sin estuche no se podían guardar ni la cotorrita-robot ni el mando, pues se
perderían irremediablemente.

El estuche lo habían hecho de un diamante del tamaño de una nuez, con un hoyito en el
centro. No dieron al presidente el estuche porque, según ellos, pertenecía al tesoro, y allí
eran muy serios en cuanto a lo que pertenecía al tesoro, y aunque era para un presidente,
no se lo podían ofrecer.

Continuará…...
IDENTIFICACIÓN NO LINEAL
MEDIANTE EL SISTEMA ANFIS
NON LINEAL IDENTIFICATION THROUGH ANFIS
SYSTEM

ABELARDO DEL POZO QUINTERO


.Departamento de Control Automático, Instituto de Cibernética, Matemática y Física
La Habana, Cuba, Telef. 832 0319, e-mail: pozo@icmf.inf.cu

RESUMEN /
Una red adaptativa utilizando un sistema de inferencia difuso neuronal es denominada (ANFIS) y es empleada
para identificar plantas no lineales.
El ANFIS apoyándose en mediciones de las señales de entrada y salida de la planta más el conocimiento humano
difuso que se tiene del proceso expresado mediante reglas if-then, aplica un procedimiento de aprendizaje híbrido
para lograr la identificación del objeto deseado. El modelo neuro-difuso obtenido representa la dinámica inversa
del objeto identificado y entonces puede también ser empleado como un controlador. En el presente trabajo dos
plantas no lineales son modeladas con el ANFIS. Las figuras presentadas muestran la ejecución del programa
elaborado para obtener los modelos.
Palabras Clave: Red adaptativa, sistema de inferencia difusa, aprendizaje híbrido, identificación de sistemas no
lineales.

ABSTRACT
An adaptive network using a neuro fuzzy inference system is denominated (ANFIS) and can be employed to identify
non lineal plants.
The ANFIS based in measurements of the input- output signals of the plant, more the fuzzy human knowledge that one
has of the process, expressed by means fuzzy if-then rules, applies a procedure of hybrid learning to achieve the
identification of the wanted object.
The obtained neuro-fuzzy model represents the inverse dynamics of the identified object and then can also be used as a
controller. In this paper, two non lineal plants are modeled with the ANFIS. Are presented the figures that show the
performance of the elaborated program to obtain the models.

Keywords: Adaptive network, fuzzy inference system, hybrid learning, non lineal system identification

desarrollado métodos en los cuales, si el sistema presenta


INTRODUCCION incertidumbre no es necesario un conocimiento cuantitativo
Los métodos de identificación de sistemas son bastantes del sistema para modelarlo. Más bien utilizando el
numerosos y se aplican con buenos resultados en sistemas bien razonamiento y los aspectos cualitativos del conocimiento
definidos. Sin embargo, en la práctica hay un grupo de sistemas humano nos permite elaborar reglas del tipo if-then y con ella
que, o bien presentan incertidumbre en sus variables o bien elaborar un sistema de inferencia difusa, que conduzca a la
presentan indefinición en su estructura y se hace problemática su obtención del modelo. La identificación con incertidumbre o
identificación. Por otro lado, en los últimos tiempos se han también modelación difusa fue presentada por primera vez en
(Takagi and Sugeno, 1985)1 y posteriormente se ha empleado adaptativa se actualizan los parámetros de los nodos, mediante
para el control de procesos industriales (Sugeno, 1985)2. La una ley de aprendizaje híbrido o algoritmo de adaptación
modelación mediante los sistemas de inferencia difusa se basa en La arquitectura del ANFIS (Jang, 1993)4, la presentamos en
un razonamiento difuso y la construcción de las reglas difusas if- este trabajo con el modelo de Sugeno de primer orden.
then (Wang, 1992)3. Habrá 5 capas y en cada capa puede haber varios nodos. La
Un procedimiento denominado ANFIS (Jang, 1993)4, permite función de cada nodo dentro de una capa es la misma.
transformar automáticamente los conocimientos difusos y sus
correspondientes reglas en sistemas de inferencia difusa Capa 1 Cada nodo i en esta capa es un nodo adaptativo con la
mediante el empleo inicial de un juego de datos de entrada- función nodal
salida del proceso. O1, i = µAi (x) para i = 1, 2,
- Donde O1, i es la salida del nodo i en la capa 1, x es la
El ANFIS es una arquitectura para identificar y controlar que entrada al nodo i
partiendo de las mediciones de entrada y salida del proceso - Ai es una etiqueta lingüística, tal como “pequeño”, “grande”,
elabora un sistema de inferencia difusa sobre la base de una red etc. Y también especifica el grado al cual la entrada x satisface
adaptativa neuro difusa. Esto nos permite obtener las funciones al conjunto difuso A.
de pertenencias de los conjuntos difusos usados en las reglas La función de pertenencia (FP) para el conjunto difuso A
difusas obtenidas y así lograr un modelo del sistema. puede ser cualquier función parametrizada como la función
campana generalizada.
El ANFIS como toda red adaptativa utiliza un procedimiento de
aprendizaje, que en este caso es híbrido con el fin de acelerar el 1
proceso de aprendizaje. El procedimiento de aprendizaje A (x) 2bi
(1)
combina el método del gradiente con el estimado de mínimo x ci
cuadrado. 1
ai
En este trabajo se presenta la utilización del ANFIS para
identificar dos plantas no lineales, la primera constituida por la donde (a, b, c ) es el juego de parámetros.
sección no lineal del digestor de un proceso de fermentación y la El centro de la FP es determinado por c. La mitad del ancho de
segunda el conocido péndulo invertido, del cual existen modelos la FP viene dado por a. El ajuste de la pendiente en los puntos
analíticos. En la sección 2 se describe la estructura del ANFIS. de cruce lo realiza b
En la sección 3 es presentada una breve descripción de las Cuando los valores de esos parámetros cambian, la función
plantas a identificar, más la simulación del proceso de campana también cambiará y así se formarán varias FP para el
identificación con los gráficos obtenidos. conjunto difuso A. Los parámetros de esta capa son
Finalmente la sección 4 es de conclusiones y la 5 es referencia denominados parámetros premisas.
empleada.
Capa 2 Cada nodo de esta capa es un nodo fijo es
ESTRUCTURA DEL ANFIS denominado cuya salida es el producto de todas las señales
Una red adaptativa es una estructura de red consistiendo de de entrada.
nodos y enlaces direccionales a través de los cuales los nodos se
conectan. En cada nodo puede haber un conjunto de parámetros, O2, i = wi = µ Ai (x) para i = 1,2 (2)
los cuales ejecutan una función particular sobre las señales de
entrada a ese nodo. Las fórmulas para las funciones de los nodos O2, i s la salida del nodo i en la capa 2
pueden variar de uno a otro. Cada salida de nodo representa un % de cumplimiento de la
De manera de lograr una relación deseada de entrada – salida, regla.
los parámetros del nodo son actualizados de acuerdo a los datos
de entrenamiento y a un procedimiento de aprendizaje. Capa 3 Cada nodo en esta capa es también un nodo fijo
El ANFIS o Sistema de Inferencia Neuro- Difusa Adaptativa es denominado N y calcula la relación de los cumplimientos de la
una clase de red adaptativa que es funcionalmente equivalente a iésima regla a la suma de los cumplimientos de todas las
los sistemas de inferencia difuso (SID). reglas.
Esencialmente consiste en la utilización de los modelos difusos wi
de Sugeno o Tsukamoto y utilizando la arquitectura de una red O3,i wi i 1, 2 (3)
w1 w 2
la salida de esta capa a wi* se le llama normalizada. - Siendo A una matriz de m x n de funciones conocidas del
vector de entrada
Capa 4 Cada nodo de esta capa es un nodo adaptativo con una - el vector de parámetros desconocidos que se quieren
función del tipo estimar, de dimensión n
- y el vector de salida lineal, de dimensión m.
O4, i = wi* f i = wi* (pi x + qi y+ ri) (4) Este proceso es repetido para todos los pares de datos de
entrenamiento hasta completar todas las filas de A e y,
donde wi* es la salida normalizada de la capa 3 y pi, qi y ri es el entonces el vector de parámetros desconocidos ø es
conjunto de parámetros de ese nodo denominado parámetros identificado.
consecuentes.
Si A es cuadrada (m = n) y no singular, es obvio que podemos
Capa 5 Esta capa esta constituida por un único nodo y es un determinar fácilmente a ø mediante:
nodo fijo denominado Ó el cual calcula la salida total como la
suma de todas las señales de entrada. = A-1 y (7)

w i fi Sin embargo, generalmente m es mayor que n, indicando que


i
O5,i w i *fi (5) tenemos más pares de datos (entrada – salida) que parámetros
i i
wi de ajuste, por lo cual no es posible usar la ecuación anterior,
pues nos daría un error de modelación.
Debido a la característica que cada nodo y cada capa tiene Para eliminar esto, incorporamos un vector error que tiene en
funciones modulares, es obvio que la asignación de funciones a cuenta este error:
cada nodo y la configuración de la red pueden ser arbitrarias
Es posible elaborar un ANFIS a partir de los otros esquemas A +e=y (8)
SID. Sin embargo, el ANFIS construido a partir del modelo de e=y-A (9)
Sugeno es el más eficiente y transparente de todos.
e es el vector error producido si calculamos un valor de ø,
La regla de aprendizaje híbrida debemos buscar un nuevo valor de ø, esto es:
La efectividad del ANFIS depende de la regla de aprendizaje ( = * ) que minimice la suma del error cuadrado definido
para identificar sus parámetros (Jang, et.al. 1993)5. Aunque se por
puede aplicar el método del descenso más rápido (steepest
descent), el cual consiste en obtener recursivamente el vector E ( ) = eT e = (y - A )T (y - A ) (10)
gradiente, en el cual cada elemento de éste es definido por la
derivada del error con respecto a un parámetro. Este como E (ø) esta en forma cuadrática tiene un mínimo único en
procedimiento de hallar el vector gradiente en una estructura de ( = *), el cual es llamado el estimador de mínimos
redes adaptativa se denomina Retropropagación, porque el cuadrados
gradiente se calcula en la dirección opuesta al flujo de salida de En el paso hacía atrás se utiliza el método de la
cada nodo. Sin embargo, este método de optimización, si se Retropropagación, las señales del error se propagan desde el
emplea sólo toma mucho tiempo para converger. Por otro lado, nodo de salida hasta el nodo de entrada. El vector gradiente es
si la salida de una red adaptativa es lineal en algunos de sus calculado para cada par de datos de entrenamiento.
parámetros, podemos identificar esos parámetros lineales por un Al terminarse el cálculo para todos los datos de entrenamiento,
método de Mínimos Cuadrados Lineales (MCL). los parámetros en la parte no lineal son actualizados y se
Si combinamos ambos métodos obtenemos un Método de comienza de nuevo el cálculo hacía adelante.
Aprendizaje Híbrido (MAH), para la identificación rápida de los En el paso hacía adelante partiendo de los parámetros
parámetros en una red adaptativa. Durante el cálculo cada época premisas fijos se calcula la salida de los nodos hasta la capa 4
esta compuesta por un paso hacía adelante y otro hacía atrás. En y los parámetros consecuentes que están en esa capa son
el paso hacía adelante se utiliza el método de MCL, con el identificados por el método de MCL.
vector de las señales de entrada presente se calcula la salida de En la arquitectura ANFIS, los valores de los parámetros de la
todos los nodos de la red, capa a capa, hasta que una fila premisa son fijos, entonces la salida total puede ser expresada
correspondiente a la matriz A y al vector y es obtenida, como una combinación lineal de los parámetros consecuentes.
perteneciente a la ecuación: Así el método de aprendizaje híbrido garantiza que los
A =y (6) parámetros consecuentes son óptimos bajo la condición que
los parámetros premisas son fijos. El método de aprendizaje
híbrido converge mucho más rápido, que el método original de
Retropropagación, ya que reduce la búsqueda en el espacio
dimensional Como regla las FP deben ser mantenidas fijas,
mientras dure el proceso de aprendizaje.

LA IDENTIFICACIÓN CON EL ANFIS


En un SID convencional el número de reglas son determinadas
por un experto, que conoce el sistema que se quiere modelar.
Cuando no hay experto el número de FP asignada a cada
variable de entrada es empírico.
Existen varias formas de seleccionar las FP, con el fin de
fraccionar el espacio de entrada y así formar los antecedentes de
las reglas difusas. Hay tres métodos de fraccionamiento:
fraccionamiento de rejilla, fraccionamiento de árbol y
fraccionamiento disperso.
Si seleccionamos el de rejilla, el número de FP sobre cada
variable de entrada determina únicamente el número de reglas.
Los valores iníciales de los parámetros premisas son dados en Figura 1
forma tal, que los centros de las FP son espaciados igualmente a Relación de la medición de los datos de entrada salida
lo largo del rango de cada variable de entrada.
Si utilizamos la subrutina anfis del Toolbox Fuzzy del Matlab Para establecer el SID inicial se comenzó con una estructura
dentro de un programa podemos hacer una identificación de 10 FP, del tipo de campana generalizada buscando tener el
paramétrica del proceso. Donde es necesario, poseer un juego menor número de reglas posibles, pero la identificación
de datos de entrada – salida de la planta de estudio, para lograrlo mostraba errores inaceptables, esto se debe a que en el proceso
se debe tener un juego de mediciones del proceso. hay una gran cantidad de variables de estado influyendo en el
comportamiento del sistema y no se pueden caracterizar con
Identificación de la sección no lineal del digestor. un número bajo de FP.
En este ejemplo se utiliza el modelo desarrollado en el trabajo de
(Aros and Cipriano, 2001)6 de una sección de una planta de Se incrementó a 20 (FP) y con el tipo de campana
celulosa con componentes no lineales (digestor) que tiene las generalizada no se lograba la identificación. Entonces se
siguientes características: cambió al tipo de gauss combinada cuya representación
matemática es:
Consta de dos recipientes para llevar a cabo el proceso de
cocción desarrollado en el digestor. En el primero donde se 2
1
produce la mezcla del licor de cocción con las astillas de madera 2
2
x cj
más vapor permitiendo la impregnación del licor en éstas. Ai (x) gauss(x; j , cj) e
j 1 j
(11)
En el segundo recipiente donde se produce la cocción donde i 1......20, j 1....2
propiamente dicha se desarrolla la reacción entre la lignina
presente en la madera y los reactivos químicos incorporados, donde representa la forma de la FP y c su posición evaluada
esta reacción permite separar la lignina de la fibra de celulosa; en x. La función combinada es una función de gauss doblada
para ello se utiliza una solución de agua con hidróxido de sodio con 4 parámetros, esto es:
y sulfuro de sodio, denominado licor blanco. En el segundo gauss combinada (x; 1, c1 , 2 c2)
recipiente, se dispone de un número alto de estados para
describir el comportamiento de la dinámica del proceso. de los cuales los primeros dos determinan la forma y posición
de la curva de la izquierda y los otros dos la forma y posición
Se obtiene del proceso, un juego de datos de 10000 mediciones de la curva de la derecha evaluadas en x. Con la información
de la entrada y la salida, debido a la periodicidad de la muestra, que damos del tipo, número de FP y del conjunto de datos de
sólo se tomarán las primeras 4000 mediciones para conformar el entrada salida del proceso, se elaboró un programa usando el
juego de datos de entrenamiento. Ver la figura 1.
lenguaje del Matlab y empleando algunas subrutinas del toolbox Funciones de pertenencias iníciales del tipo gauss
“Fuzzy” del Matlab. combinada
La fase inicial del programa elaborado utiliza la subrutina
genparam, la cual genera en forma automática los valores Obtenidas las FP iníciales y el juego de datos de entrada-
iníciales numéricos, arbitrarios de los parámetros de las 20 salida, se ejecuta el entrenamiento inicialmente con 200
funciones de pertenencias (FP). Todos los valores deben ser épocas mediante la subrutina anfis de la misma biblioteca.
multiplicados por el factor 103 La salida de esta subrutina nos da las FP o conjuntos difusos
1 c1 2 c2 modificados, representados mediante los parámetros de las FP.
0.0358 -0.0632 0.0358 0.0632 Usamos las siguientes etiquetas lingüísticas: A1 hasta la A20,
0.0358 0.1474 0.0358 0.2727 para expresar los conjuntos difusos, los cuales quedan
0.0358 0.3579 0.0358 0.4842 definidos por los parámetros de la FP gauss combinada.
0.0358 0.5684 0.0358 0.6947 Los 4 valores finales de los parámetros de las etiquetas
0.0358 0.7789 0.0358 0.9053 lingüísticas correspondientes a las premisas de cada regla son
0.0358 0.9895 0.0358 1.1158 obtenidos con el programa y calculado los valores de A i
0.0358 1.2000 0.0358 1.3263 mediante la expresión dada en (11), estos son:
0.0358 1.4105 0.0358 1.5368 Ai 1 c1 2 c2
0.0358 1.6211 0.0358 1.7474
0.0358 1.8316 0.0358 1.9579 A1 35.76 -63.16 34.59 69.25
0.0358 2.0421 0.0358 2.1684 A2 20 162.9 32.62 275.7
0.0358 2.2526 0.0358 2.3789 A3 22.26 366.8 26.58 482
0.0358 2.4632 0.0358 2.5895 A4 25.36 573.2 24.54 688.3
0.0358 2.6737 0.0358 2.8000 A5 29.43 779.2 20.25 894.1
0.0358 2.8842 0.0358 3.0105 A6 33.68 986 20.23 1096
0.0358 3.0947 0.0358 3.2211 A7 35.92 1189 74.7 1324
0.0358 3.3053 0.0358 3.4316 A8 20.09 1359 57.09 1535
0.0358 3.5158 0.0358 3.6421 A9 25.17 1571 45.2 1789
0.0358 3.7263 0.0358 3.8526 A10 38.17 1795 42.0 1964
0.0358 3.9368 0.0358 4.0632 A11 27.24 2041 53.04 2187
Con el juego de datos de entrenamiento, las 20 FP y el tipo de A12 59.76 2225 67.99 2394
éstas, lo entregamos como datos a la subrutina genfis1 de la A13 47.38 2464 55.14 2588
biblioteca del Toolbox “Fuzzy”. Este programa utiliza un A14 69.71 2650 65.02 2824
fraccionamiento de la entrada del tipo rejilla. A partir de esto A15 56.64 2873 36.67 3017
obtenemos en la figura 2 el sistema de inferencia difuso inicial A16 43.26 3091 47.58 3252
del tipo Sugeno. Note la simetría uniforme de las 20 FP. A17 50.48 3275 24.39 3428
A18 45.03 3507 31.27 3677
A19 50.29 3685 42.26 3864
A20 16.06 3958 35.76 4063

Estas FP pueden verse en la figura 3

Figura 2
identifique al proceso y mediante la subrutina showrule
podamos ver estas 20 reglas
Como la regla para una entrada y una salida para el modelo de
Sugeno es:

If x es Ai then fi = pi x + ri i = 1…….20

Los parámetros del consecuente son los dos coeficientes de un


polinomio de primer grado obtenidos con el programa esto es:
pi ri

-0.0002053 10.960
0.0005504 8.118
-0.0001352 11.010
0.0001471 8.153
0.0003827 10.640
Figura 3 -0.0001734 8.421
Funciones de pertenencias finales del tipo gauss combinada 0.0007373 10.040
0.01901 - 20.110
Al comprobar que el error obtenido no satisfizo el criterio -0.002139 14.75
deseado se inició un nuevo proceso de cálculo donde se cambian 0.03231 -52.72
algunos parámetros como pueden ser el número y / o el tipo de 0.03723 -65.27
FP o se incrementa el número de iteraciones. En este caso se 0.07969 -176.10
incrementó el número de iteraciones a 400. Se pudo apreciar en 0.0914 -218.60
la figura 4, que representa la trayectoria del error, que en la 0.1185 -314.00
iteración 200 el error estaba por encima de 0.35 siendo el criterio 0.06601 -190.10
de error de 0.2, debido a esto se incrementaron las iteraciones 0.05563 -164.50
hasta 400, obteniéndose un valor por debajo de 0.2, esto es 0.15. 0.02287 -69.57
0.03319 -107.50
0.003218 -4.128
- 0.001453 16.78

El sistema de inferencia difuso queda determinado por la


identificación paramétrica realizada mediante las 20 reglas,
esto es:

If x es A1 then f1 = - 0.0002053 x + 10.960


If x es A2 then f2 = 0.0005504 x + 8.118
If x es A3 then f3 = - 0.0001352 x + 11.010
If x es A4 then f4 = 0.0001471 x + 8.153
If x es A5 then f5 = 0.0003827 x + 10.640
If x es A6 then f6 = - 0.0001734 x + 8.421
If x es A7 then f7 = 0.0007373 x + 10.040
If x es A8 then f8 = 0.0190100 x - 20.110
If x es A9 then f9 = - 0.0021390 x + 14.750
Figura 4
Trayectoria del error
If x es A10 then f10 = 0.0323100 x - 52.720
If x es A11 then f11 = 0.0372300 x - 65.270
Puesto que con el fraccionamiento de rejilla se define que el If x es A12 then f12 = 0.0796900 x - 176.100
número de reglas es idéntico al número de FP, esto hace que con If x es A13 then f13 = 0.0914000 x - 218.600
las 20 reglas obtenidas automáticamente en el programa se If x es A14 then f14 = 0.1185000 x - 314.000
If x es A15 then f15 = 0.0660100 x - 190.100
If x es A16 then f16 = 0.0556300 x - 164.500
If x es A17 then f17 = 0.0228700 x - 69.570
If x es A18 then f18 = 0.0331900 x - 107.500
If x es A19 then f19 = 0.0032180 x - 4.128
If x es A20 then f20 = - 0.0014530 x + 16.780

En la figura 5 se muestra el resultado de la identificación hecha


con el ANFIS, se puede ver que para 4000 datos escogidos, hay
coincidencia entre la relación entrada salida del proceso (línea de
rayas) y la identificación realizada por el ANFIS, (línea de raya (12)
y punto
Donde es la posición angular del vástago, es la posición
del carro sobre la pista, mc es la masa del carro, mvv la del
vástago, g es la aceleración del vástago debido a la gravedad, l
es la mitad de la longitud del vástago y u es la fuerza aplicada
sobre el carro.

Este sistema dinámico se caracteriza por 4 variables de estado:


(x1 = ) la posición angular del vástago con respecto al eje
vertical, (x2 = d /dt) la velocidad angular del vástago, (x3 =
) la posición del carro sobre la pista y (x4 = d /dt) y su
velocidad.
Este modelo sirve para construir con el Simulink del Matlab
un esquema para obtener el juego de mediciones de entrada –
salida.

Figura 5
Comparación de la salida de la identificación y del proceso

Identificación del péndulo invertido


Ahora utilizaremos un modelo con una gran no linealidad muy
utilizado en la literatura y es el del péndulo invertido, el cual nos
servirá para comprobar la efectividad del ANFIS.
Un vástago rígido esta unido a un carro mediante una
articulación. El carro se puede mover hacía la derecha o la
izquierda cuando una fuerza es aplicada sobre éste.
El modelo analítico de la planta esta dado por las siguientes
ecuaciones diferenciales de segundo orden (Kwakernaak and
Sivan, 1972)7:
Figura 6
Configuración para obtener el juego de datos entrada salida

Se obtiene de la identificación construyendo un juego de


datos de 500 mediciones de la entrada y la salida, para
conformar el juego de datos de entrenamiento. Como se puede
ver en la figura 7.
conjuntos difusos modificados (figura 9) y la trayectoria del
error (figura 10).

Figura 7
Relación de datos entrada salida

Utilizando el programa ANFIS elaborado anteriormente, Figura 9


generamos 15 FP del tipo de campana generalizada, pero no se Funciones de pertenencias finales del tipo gauss combinada
logró una buena identificación. Por tanto incrementamos a 20
funciones de pertenencias (FP) manteniendo el tipo de gauss
combinada. Como se observa en la figura 8.

Figura 10
Trayectoria del error
Figura 8
Funciones de pertenencias iníciales del tipo gauss combinada En la figura 11 se muestra el resultado de la identificación
Note que las figuras 2 y 8 son iguales porque partimos de l as hecha con el ANFIS, se puede ver que, hay coincidencia entre
mismas condiciones iníciales y los problemas siguen totalmente la relación entrada salida del proceso (línea de rayas) y la
diferentes identificación realizada por el ANFIS, (línea de raya y punto).
Se ejecuta el entrenamiento inicialmente con 300 épocas
mediante la subrutina Anfis. Al comprobar que el error obtenido
no satisface el criterio deseado se inicia un nuevo proceso de
cálculo donde se cambian algunos parámetros. En este caso se
incrementó el número de iteraciones a 400 y se obtuvieron los
-0.0497 4.693
-0.6527 82.150
-0.6187 101.5
-0.2343 41.56
-0.5593 118.7
-0.1046 25.22
-0.503 135.8
-0.7854 231.9
-0.6406 204.2
-0.3695 127
-0.4746 177.5
-0.7087 283.1
-0.1085 46.72
-0.3756 165.9
-0.5357 251.7
-0.3809 191.9
Figura 11 De igual manera que en el ejemplo anterior se puede construir
Comparación de la salida de la identificación y del proceso la 20 reglas que definen la identificación mostrada en la figura
11
Las parámetros de la premisa de la regla que permiten la CONCLUSIONES
identificación son las siguientes: La ventaja de este método de identificación radica en que
solamente hace falta un juego de mediciones de la entrada
Ai 1 c1 2 c2 salida como dato inicial para identificar sistemas no lineales.

4.470 -7.895 5.886 8.485 Buscando mejorar la estructura de identificación es


8.182 19.53 6.528 37.79 conveniente prestar atención a fraccionar con efectividad el
4.707 38.88 2.151 59.00 espacio de entrada, pues así disminuimos el número de reglas
3.821 70.89 1.543 85.85 y aumentamos la velocidad en el proceso de identificación.
3.837 97.29 3.709 119.70
5.503 126.40 8.169 140.60 Note que las características de los datos de entrada-salida no
8.496 149.30 4.675 162.3 lineales de los dos ejemplos considerados son bastante
2.963 172.50 5.252 198.3 diferentes. Sin embargo, usamos el mismo tipo de FP inicial,
8.991 205 3.433 225.9 esto es, gauss combinado, y arribamos a soluciones
1.068 220.9 9.78 249.3 satisfactorias, lo que demuestra su gran generalidad.
2.753 260.7 5.761 278.1
3.777 281.9 5.431 301.9 Otros ejemplos hay en la literatura de aplicaciones de ANFIS
3.725 304.8 5.821 322.6 en identificar procesos no lineales, en los cuales se muestra
2.602 327.1 10.06 351.8 superior a las redes neuronales y a otros métodos de
6.436 361.6 2.908 388.3 identificación clásicos.
5.111 392.1 3.71 400
5.539 411.4 4.391 429.2 Un inconveniente del método radica en que cuando la no
4.88 440 4.142 457.2 linealidad es muy fuerte debido a la interacción de numerosas
4.826 459.4 7.273 480.5 variables, su identificación exige más funciones de
7.59 489.6 4.47 507.9 pertenencias o más tiempo, lo cual lo hace impráctico para
Los parámetros de los consecuentes de las reglas son: identificación en línea en algunos casos. En el caso de la
pi ri primera planta donde se emplearon 20 FP, requirió 9 minutos
su identificación para satisfacer el criterio de error de 0.2. Sin
0.6383 0.7386 embargo, la no linealidad del péndulo con menos variables
0.5112 -12.65 interactuando entre si y con las mismas FP sólo necesito el
0.3232 -18.65 programa aproximadamente de un minuto para satisfacer casi
0.1117 -7.882 el mismo criterio de error.
6. AROS, N., A. CIPRIANO: “Simulador dinámico de un
REFERENCIAS digestor continuo Kamyr para ambiente matlab/simulink”. XV
1. TAKAGI T., M. SUGENO: “Fuzzy identification of Congreso Chileno de Ingeniería Eléctrica, Noviembre, 2001.
systems and its applications to modeling and control” ,IEEE
Trans. ,Syst., Man, Cybern., vol. 15, pp. 116-132, 1985 7. KWAKERNAAK, H., R. SIVAN: “Linear optimal control
systems” Ed. Wiley- Interscience, New York, 1972
2. SUGENO, M.: Ed., “Industrial Applications of Fuzzy
Control” Ed. Elsevier, New York, 1985
AUTOR
3. WANG, L. X.: “Fuzzy System and universal approximators” Abelardo del Pozo Quintero, Ing. Electricista, Dr. en
in Proc. IEEE Int. Conf. Fuzzy Systems, San Diego, Ca. Mar., Ciencias Técnicas, Investigador Titular del Instituto de
1992 Cibernética, Matemática y Física (ICIMAF). Prof. Titular del
Instituto Superior Politécnico “José A. Echevarria” (ISPJAE).
4. JANG, J S R.: “ANFIS: Adaptive network based Fuzzy Actualmente trabaja EN LA TEMÁTICA DE Robótica y las
Inference System” IEEE Trans., Syst., Man, Cybern., vol. 23, técnicas de control inteligente, esto es, redes neuronales,
No. 3, pp. 665-685, 1993. lógica difusa, sistemas neuro difuso- aplicado a la
identificación y control de sistemas
5. JANG, J.R.S., C: T. SUN, E. MIZUTANI: “Neuro-Fuzzy
and Soft Computing” Prentice –Hall, Inc, Upper Saddle River,
NJ, USA,, pp. 340- 341, 1997.
1

SISTEMA DE GESTIÓN DE INFORMACIÓN EN LA INTRANET CON TECNOLOGÍA


DISTRIBUIDA PARA LA TOMA DE DECISIONES DESDE UNA CONCEPCIÓN DE
INTELIGENCIA DE NEGOCIOS.

Armando Plasencia Salgueiro1, Ileana Suárez Blanco2, Elina Mylen Montero Puñales 3, Antonio Díaz
Zamora4 , Omar Ochoa Rodríguez5, Claudia Amelia Rodríguez Guerra 6

Resumen — En las organizaciones modernas cada vez se requiere gestionar más cantidades de datos
semi- o no estructurados, dígase textos, imágenes, páginas Web, etc., para que dentro de una concepción de
Inteligencia de negocios se puedan definir relaciones o patrones que caractericen los procesos y permitan a
los responsables tomar decisiones adecuadas. Una de las vías para darle solución a esta problemática es el
empleo de la tecnología de cluster de computadoras o Grid, una estrategia MapReduce y el empleo de
buscadores especializados y algoritmos de aprendizaje automático. Para validar esta concepción se realizó
un experimento con un cluster y clientes ligeros de computadoras. Como soporte de software se utilizó una
interrelación de herramientas de software libre distribuidas por Apache siendo evaluadas su
comportamiento con una suite de evaluación . Como ejemplo se muestran los resultados a obtener de un
algoritmo de agrupamiento.

Palabras Clave — GridIR Recuperación de Información, Inteligencia de Negocios, motores de búsqueda


especializados, minería de datos, herramientas Apache.

Abstract: In the modern organizations is a crescent requirement the management of semi and non
structured data, texts, imagines, Web pages, etc. These, in the business intelligence conception, permits the
characterization of relationship and patterns of process and make possible the decision making. One way to
solution this problem is the use of clusters and Grid technology, a MapReduce strategy and the application
of machine learning algorithms and vertical searches. To validate this conception was making an
experiment which one cluster and two groups of independents PCs. The used software support was the
Apache tools, evaluates by an evaluation suite. Like example shown the possible results of one cluster
algorithm.

Finally exposes pertinent conclusions and recommendations.

Keywords: GridIR, Information Retrieval, Business Intelligence, specialized searches engines, data mining
algorithms, Apache Tools.

Código AMS: 68W40


2

I. INTRODUCCIÓN

La gestión de información en la intranet de las organizaciones está regida en lo fundamental por el


paradigma de la Recuperación de Información.

La Recuperación de información (RI) en su concepción amplia es la ciencia de la búsqueda y la


recuperación de información a partir de datos con formatos heterogéneos como pueden ser bases de datos
estructuradas, grandes colecciones de documentos semi-estructurados o no estructurados. Los motores de
búsqueda son ejemplos de sistemas de RI para los documentos semi o no estructurados. Un documento es
un conjunto de palabras y un conjunto de documentos se denomina una colección o una colección de
documentos.

Los Sistemas de gestión de bases de datos relacionales (RDBMS) han sido el fundamento de la
recuperación de información en la Intranet durante los últimos años y están consolidados, tanto en su
concepción teórica como en su aplicación, sin embargo, las organizaciones se ven más necesitadas del
manejo intensivo de datos semi o no estructurados que por su volumen y complejidad de análisis requieren
de grandes capacidades de cómputo. Datos que pueden estar disponibles en un sistema distribuido
(geográficamente o por hardware) y que no se adecuan satisfactoriamente en un modelo de datos relacional.

Para la solución de esta problemática los científicos e ingenieros han planteado una nueva concepción en
el diseño de software para enfrentar las demandas de las organizaciones. El término de “NoSQL” (“No
solamente SQL”) fue introducido para describir los motores de gestión de datos modernos que contienen
algunas de las cualidades de los RDBMS, pero van más allá de las fronteras que limitan comúnmente los
sistemas tradicionales de bases de datos basados en SQL.

Las bases de datos NoSQL pueden:


- Servir como bases de datos de procesamiento en línea, así se convierten en la fuente de datos,
operacional, primaria de almacenamiento para aplicaciones on-line, o lo que es llamado en ocasiones “El
sistema de registros”
- Utilizar los datos almacenados en las fuentes primarias de los sistemas en tiempo real, análisis por lotes
y las operaciones de búsqueda empresariales.
- Manipular grandes cantidades de datos con el uso de casos que se incluyen la velocidad de los datos,
variedad, volumen, y complejidad.
- Superar las bases de datos distribuidas y las operaciones de los centros multi-datos (algunos mejor que
otros)
- Ofrecer un esquema flexible de diseño que que puede ser cambiado sin tener tiempos de parada o
interrupciones de servicio.
- Dar cabida a los datos estructurados, semi-estructurados y no estructurados.
- Fácil de operar en la nube y explota los beneficios de la computación en la nube.
Bajo la cobertura de “NoSQL” han aparecido numerosos programas los cuales son de difícil adquisición y
gestión por diversos motivos aunque su precio de adquisición y licencia son menores que los RDBMS más
populares del mercado [1].

Otra filosofía para la solución de los problemas antes planteados es la concepción de desarrollar el papel
3

de los almacenes de datos empresariales (extracción, limpieza, integración y distribución de los datos para
los decisores y por lo tanto incluye las funciones de extracción-transformación y carga (ETL) y de
inteligencia de negocios (BI)) [2]. Estos incluyen una integración extrema, fuentes de datos semi y no
estructurados, terabytes de almacenamiento de conductas e imágenes cuyos datos son accesados a través de
MapReduce/Hadoop así como bases de datos relacionales masivamente paralelas. Es posible entonces
estructurar el almacén de datos empresarial para permitir los métodos avanzados de análisis.

Surge entonces la pregunta si se podrá desarrollar un sistema en software libre que sea capaz de recuperar
y analizar la información residente en datos de formatos heterogéneos, definiendo entonces el objetivo de
validar la misma a través de la concepción de un sistema de gestión de información en una intranet.

Son tres los componentes principales de un sistema de recuperación de información. Estos son el Gestor
de la colección (CM), el indizador y el buscador (Fig. 1).

Figura 1. Modelo de un sistema de recuperación de información [3].

Los motores de búsqueda[3].

La última década ha sido testigo del diseño e implementación de varios motores de búsqueda. Hoy
existen motores de búsqueda que tienen indexadas más de 4 miles de millones de páginas Web y son
capaces de procesar millones de solicitudes por día en sus índices locales.

Un motor de búsqueda tradicional está compuesto generalmente por tres componentes enlazados: un
rastreador, un indizador y un procesador de solicitudes. El rastreador es responsable de la localización,
búsqueda y almacenamiento de del contenido residente en la Web. El contenido descargado es
frecuentemente seccionado por un indizador y transformado en índices invertidos, los cuales representan la
colección descargada en una forma compacta y solicitable eficientemente. El procesador de solicitudes es
el responsable del procesamiento de las solicitudes de los usuarios y el retorno a los usuarios de las páginas
relevantes a la solicitud realizada. Pese a los muchos esfuerzos de investigación realizados, la efectividad y
la eficiencia de los buscadores aún se mantienen como los dos principales retos a solucionar dentro de los
problemas de la búsqueda en la Web.

El problema de la efectividad es común para el rastreo de la Web y el procesamiento de las solicitudes.


En el rastreo de la Web la efectividad está relacionada con el refrescamiento de las páginas indizadas, lo
que está muy relacionado con la eficiencia de rastreo, o sea, si la página es descargada más frecuentemente
4

es más probable que las copias captadas de las páginas sean más frescas.

En el proceso de solicitud la efectividad se refiere a las medidas de precisión y de índice de exhaustividad


de la recuperación (recall measure), con los cuales se evalúa la exactitud y la cobertura de los resultados
respectivamente.

Adicionalmente al problema de efectividad, el rastreo de la Web y el procesamiento de las solicitudes


tienen un problema de eficiencia.

El problema de eficiencia del rastreo de la Web se debe al gran tamaño de la Web así como también la
naturaleza en constante desarrollo de la misma, lo que requiere que las páginas sean descargadas e
indizadas frecuentemente. De acuerdo con los resultados reportados por Google, este toma alrededor de un
mes para volver a rastrear la misma página como promedio. El problema en el procesamiento de las
solicitudes es resultado de la necesidad de evaluar rápidamente una solicitud partiendo de un indizado más
bien grande, en presencia de muchas solicitudes de usuarios que son realizadas al mismo tiempo. Los
motores de búsqueda actuales atacan este segundo problema utilizando algunos algoritmos de optimización
que pueden negociar efectividad a cambio de mejorar eficiencia (ejemplo la evaluación de corto circuito) o
mejorar la programación (por ejemplo tratar de mantener todo el indizado de la Web en una memoria
volátil). Pero por lo general, el principal método para hacer frente a ambos problemas es el empleo de
sistemas de computación paralelos/distribuidos los cuales ejecutan múltiples agentes rastreadores para
rastrear la Web y múltiples motores de búsqueda para evaluar las solicitudes por todas las copias de los
índices de la Web replicados/particionados incrementando ambos los por cientos de páginas descargadas y
la capacidad de procesamiento de las solicitudes.

1.1 Fundamentos teóricos.

Rastreo de la Web [3].

El rastreo de la Web es el proceso de localizar, buscar y almacenar las páginas Web. Un rastreador típico
de la web, comenzando a partir de un conjunto de páginas preestablecidas, localiza nuevas páginas
mediante la partición de las páginas descargadas y la extracción de los hipervínculos dentro de ellas. Los
hipervínculos extraídos son almacenados en un a cola de búsquedas FIFO para la recuperación ulterior. El
rastreo continua hasta que la cola de búsquedas se vacía o un número satisfactorio de páginas son
descargadas. Usualmente, muchos buscadores enlazan las ejecuciones al unísono con el objetivo de solapar
las operaciones de la red con el procesamiento del CPU y así incrementar el rendimiento. A pesar de que
esto parece una tarea simple, están presentes muchos retos en el rastreo de la Web. Los dos problemas más
importantes son la cobertura y el refrescamiento. La cobertura se refiere al tamaño del conjunto de
páginas recuperadas dentro de un cierto período de tiempo. Un rastreador exitoso trata de maximizar su
cobertura con el objetivo de proporcionar una colección grande localizable a los usuarios. De forma similar,
el refrescamiento de la colección es importante con el objetivo de minimizar la diferencia entre las copias
captadas de la Web y sus originales y así mantener la información del servidor actualizada. Otra
problemática importante del rastreo de la Web es la necesidad de una gran cantidad de recursos
computacionales. Primero, se necesita una gran potencia de cómputo para particionar las páginas rastreadas,
extraer los hipervínculos y los índices del contenido de las páginas. Segundo, se necesita una gran cantidad
de memoria volátil para almacenar y administrar las estructuras de datos que crecen rápida y
continuadamente durante el rastreo. El último y más importante recurso necesario es un gran ancho de
5

banda. El ancho de banda de la red determina la proporción de páginas descargadas y afecta la cobertura de
los rastreadores así como el refrescamiento de las páginas. De ahí que se estime que todos estos
requerimientos computacionales hacen del rastreo de la Web un objetivo factible para la computación en
la grid (o en clusters de computadoras estándares) si nos atenemos a una política de ahorro de recursos
materiales y consideraciones ecológicas (por el uso óptimo de la energía) vs. La utilización de grandes
sistemas de hipercómputo. En términos generales la grid puede definirse como “un tipo de sistema de
cómputo paralelo y distribuido que posibilita compartir, seleccionar y agregar recursos autónomos
geográficamente distribuidos dinámicamente en tiempo de ejecución en dependencia de su disponibilidad,
capacidad, funcionamiento, costo y usuarios, requisitos todos para la calidad del servicio” .

La grid contiene nodos computacionales potentes, que tienen los recursos computacionales para correr
aplicaciones de rastreo de la Web. Además, en los casos donde la localización espacial de las páginas es
importante, la naturaleza de distribución geográfica de la grid puede ser utilizada para incrementar la
proporción de descargas.

1.2 Recuperación de información en la Grid (GridIR)

GridIR es la aplicación de la RI en un medio de cómputo formado por una grid. La figura 2 muestra un
modelo de un sistema GridIR. Las fuentes de datos son las colecciones de documentos indizados
distribuidos en cualquier parte de la grid.

Figura 2. Modelo de un sistema GridIR [3].

El punto de partida para la GRID IR es la disciplina científica “Recuperación de Información (IR)” En la


IR, los sistemas de cómputo son utilizados para hacer coincidir las expresiones de las necesidades de
información de los humanos (o sea las solicitudes) con los documentos. Las expresiones de las necesidades
de información pueden ser cualquiera, desde unas pocas palabras (generalmente en los motores de búsqueda
de la Web) a aquellas con lógica estructurada (ej. Las expresiones booleanas) para caracterizar al buscador
de información con sus frases en documentos pasados.

En la práctica, los IR rara vez dan respuesta a una pregunta, o a elementos de información específicos
6

(tales como una tabla de figuras, o una cita textual, o un pasaje en particular de un documento). Lo más
frecuente es que los sistemas de IR presenten un listado ordenado de citas de documentos en la cual se
espera que la información deseada sea hallada. Los sistemas de IR pueden definirse como aquellos sistemas
de cómputo que toman un número de documentos (quizás en diferentes formatos) como entrada (input) y
construyen estructuras de datos las cuales pueden ser rápidamente buscados para que coincidan con las
solicitudes. Estos sistemas de IR son capaces entonces de tomar solicitudes (quizás con un formato especial
o restricciones) como entrada y producir un listado de documentos en un orden establecido.

Ventajas de la GRID IR sobre los motores de búsqueda tradicionales (motores de búsqueda monolíticos).

1. Las solicitudes correrán contra colecciones de documentos con probabilidad de contener los
documentos relevantes, así se eliminan a priori aquellas colecciones con pocas probabilidades de
tener documentos de interés. Por ejemplo, alguien interesado en información acerca de las botas de
trabajo puede querer omitir las bases de datos acerca de botas de invierno.
2. Cada colección será personalizada por sus cualidades inherentes, de acuerdo con las intenciones del
proveedor de la colección. La personalización puede abarcar el diapasón completo del
procesamiento de la solicitud, el procesamiento de los documentos y las técnicas de IR, tales como
los pesos de los documentos y de los términos, los modelos de recuperación de IR (Booleano, vector
espacial, el Indizado Semántico Latente, etc.), la radicalización de términos, las listas de palabras
vacías, etc.
3. En lugar de buscar tiempos de respuestas por debajo del segundo con relación a millones de
millones de documentos como lo hacen los motores de búsqueda monolíticos, los sistemas de GRID
IR pueden realizar tales acciones en colecciones mucho más pequeñas. Ello posibilitará un
procesamiento de las solicitudes más complejo.
4. Las colecciones de las GRID IR, debido al pequeño tamaño y localización definida (por ejemplo el
servidor Web de una organización), pueden ser actualizadas más rápidamente, eliminando así la
demora de los motores de búsqueda entre corridas para llegar a una misma página (cosechas).
5. La computación en Grid ofrece un modelo de notificación en el cual los eventos (tales como la
disponibilidad de un nuevo contenido) pueden disparar otros eventos (tales como la evaluación de
una solicitud de acuerdo con el nuevo contenido). Este modelo abre las puertas a las solicitudes de
importancia, el filtrado de la información, y los métodos de empuje (más que extracción) para la
diseminación de la información.

1.3 Clasificación de Textos [3].

Informalmente, la clasificación textual es el problema de asignar una categoría a un documento a partir de


un conjunto predefinido de categorías. En la literatura, varias técnicas de aprendizaje automático son
empleadas para darle solución a este problema. La mayoría de estas técnicas están basadas en el método de
aprendizaje supervisado, donde el clasificador es entrenado por un conjunto de documentos previamente
etiquetados y a partir de ahí es utilizado para predecir las categorías de un conjunto de documentos no
vistos de prueba. La precisión de la clasificación depende de la selección del algoritmo de aprendizaje
automático subyacente así como la calidad de los documentos utilizados para el entrenamiento por el
clasificador.

La mayoría de los motores de búsqueda se basan en la búsqueda de palabras claves, donde la solicitud,
7

consistente en un número de palabras clave determinado es evaluado mediante un índice invertido, y los k
documentos de la cima son retornados al usuario en orden decreciente de su similitud con la solicitud. Sin
embargo, también existen métodos que emplean la clasificación de textos en la solicitud de colecciones de
documentos y/o la presentación de los resultados. La utilización de la clasificación textual en los motores
de búsqueda es principalmente en forma de pre-clasificación (ej. los motores a los que se les proporcionan
directorios de tópicos de forma manual creados por expertos humanos) o de post-clasificación (ej. los
motores a los que se les proporcionan clasificaciones automáticas de los resultados de las solicitudes. La
primera de estas formas incrementa la precisión y la última mejora la presentación de los resultados.

1.4. Inteligencia de Negocios con datos semi y no estructurados.

Aunque existen un sin número de definiciones de Inteligencia de negocios, combinándolas, la definición


que más se ajusta a los objetivos de este trabajo es la siguiente: “Inteligencia de negocios es el proceso de
descubrir, a partir de los datos, información, mediante un conjunto de herramientas informáticas y
algoritmos que capturan, almacenan, analizan, comparten y proporcionan acceso a los resultados para
apoyar en la toma de decisiones”

A partir del incremento de la cantidad e importancia de los datos semi o no estructurados (informes,
páginas Web, imágenes, etc.) en las organizaciones, conjugado con el desarrollo y abaratamiento de las
herramientas informáticas la concepción inicial de está a partir de datos estructurados ha evolucionado para
incluir los primeros. Lo anterior se evidencia en [2] al proponerse una modificación al modelo clásico de
Kimball al cual se agrega entre otros componentes como fuentes al sistema estructuras complejas, textos no
estructurados, imágenes, video, etc.

Otra concepción, bajo la denominación común de “Analizadores de grandes cantidades de datos (Big
Data Analytics)” es la de IBM con su plataforma Symphony [4], la de ParStream [5] o la de la suite de
acceso libre Stratophere [5]. Todas tienen en común el procesamiento paralelo de los datos, su orientación
a MapReduce (o versiones), las herramientas bajo licencia apache en general y su proyección es hacia una
nueva generación de Inteligencia de Negocios (NGBI) “la cual correlaciona los almacenes de datos con
texto y otras modalidades de servicios web de los suministradores de información, intranets corporativas e
Internet” [5]

Esta concepción no es para ser utilizada para Analizadores de datos de mediana o pequeñas dimensiones.
Algunos casos de uso para los Analizadores de grandes cantidades de datos son el ordenamiento de los
resultados de búsqueda de los motores de búsqueda, comprobación de la similitud del documento, análisis
del genoma, el estado técnico de los aviones en vuelo, el análisis de los resultados de los sensores
industriales, comparación de las imágenes de los satélites, en la ciencia (análisis del clima, telemetría
espacial, etc), caracterizados todos ellos por el tener que manejar muy grandes cantidades de datos [2].

II. MATERIALES Y MÉTODOS


Herramientas Apache para implementar la arquitectura de Recuperación de Información en la
Grid (GridIR).
Para implementar la arquitectura necesaria de un sistema GridIR se propone la utilización de las
herramientas Apache en la capa de programas intermedios (Grid Middleware) entre las aplicaciones que
requieren una gran capacidad de cómputo para su ejecución, Vigilancia tecnológica, Biblioteca digital,
8

Astrofísica, etc., y el hardware que soporta esta Grid. Así, para la gestión de recursos, eventos, políticas,
etc. proponemos la utilización de Hadoop con su implemntación de MapReduce, para la búsqueda y rastreo
en la Web proponemos la combinación de las herramientas Solr y Nutch, y para la realización de la
determinación de patrones y relaciones en la información, mediante el empleo de la minería de textos, la
bibliominería, etc., proponemos el empleo de Mahout con sus algoritmos de aprendizaje automático. Esta
idea se representa en la figura 3, para la validación de la cual pasaremos a explicar las características de
cada una de las herramientas señaladas.

Figura 3. Arquitectura de recuperación de información en la Grid [6 modificado por los autores].

Solr [7].

Solr es un servidor de búsqueda empresarial de código abierto. Este es un producto ya probado que
permite la búsqueda en sitios públicos como CNET, Zappos, y Netflix así como en un número considerable
de sitios de intranets corporativas y gubernamentales. Está escrito en Java y ese lenguaje es utilizado para
en lo sucesivo extender y modificar a Solr mediante interfaces de plugins simples. El servidor realiza la
comunicación utilizando los estándares HTPP, XML y JSON.
Adicionalmente a la habilidad estándar de retornar los resultados en una lista a una determinada solicitud,
Solr tiene otras numerosas características como la de resalte, clasificación facetada (al igual que la mayoría
de los sitios de e-comercio), la corrección de la escritura de las solicitudes, el finalizar las solicitudes no
completadas y la característica de “más parecido a” para encontrar documentos similares.
El motor de búsqueda subyacente de Solr es Lucene. Este es una biblioteca consistente en un motor de
búsqueda textual de altas prestaciones. Al ser una biblioteca de código, Lucene no es un servidor ni
tampoco un rastreador de la web. Incluso no tiene ficheros de configuración.

Las características más importantes de Lucene son:

- Un indizado invertido para la recuperación eficiente de los documentos por los términos indizados. La
misma tecnología respalda a los datos numéricos al realizarse solicitudes de rango.
- Un rico conjunto de componentes de análisis de textos encadenables, tales como señalizadores
(tokenizers) y radicalizadores (stemmers) de lenguajes específicos que transforman una cadena textual en
una serie de términos.
- Una sintaxis de solicitud con un analizador sintáctico (parser) y una variedad de tipos de solicitud desde
la consulta de un término simple hasta un pareo tipo fuzzy.
- Un buen algoritmo de posicionamiento (scoring) basado en principios fundamentados en la
9

Recuperación de Información (IR) para generar primero el candidato más parecido, con significados
flexibles para afectar el posicionamiento.
- Mejoramiento de las características de búsqueda tales como:
La característica de resaltado para mostrar las palabras de solicitud encontradas en el contexto.
Un corrector ortográfico de las solicitudes basado en el contenido indizado o en el diccionario
suministrado.
La característica de “más parecido a este” para listar los documentos que son estadísticamente
similares al texto proporcionado.

Solr tiene características propias que van más allá del propio Lucene. Estas son:

Un servidor que se comunica con http por intermedio de los formatos de datos XML y JSON.
Ficheros de configuración, en particular por su esquema de índices, los cuales definen los campos y
la configuración de sus análisis de textos.
Varios caches para una respuesta más rápida del servidor.
1. Una interfase de administración en formato Web que incluye: Estadísticas del tiempo de corrida
de la búsqueda y de la cache.
2. Una herramienta de diagnóstico para la corrección de errores del análisis de texto.
Facetado (Faceting) de los resultados de la búsqueda.
Un analizador sintáctico de la solicitud llamado dismax que es más utilizable para el análisis de las
solicitudes del usuario final que el analizador sintáctico de solicitudes nativo de Lucene.
Búsqueda geoespacial para el filtrado y el ordenamiento por la distancia.
Una propiedad de búsqueda distribuida y de replicación del índice para la adaptación de Solr.
Solritas: un ejemplo de buscador web genérico que muestra muchas de las característica de búsqueda
de Solr.

También, hay dos módulos contrib que se acarrean con Solr que realmente son destacables:
El DataImportHandler (DIH): modulo con capacidad de rastreo e importación de datos de una base
de datos, e-mail, y fichero.
Solr Cell: Un adaptador al proyecto de código abierto Apache Tika, el cual puede extraer texto de
numerosos tipos de ficheros.

Se puede descargar Solr desde su sitio web: http://lucene.apache.org/solr/

Nutch para el rastreo de las páginas web [8].

Una fuente de datos muy común a ser sometida a búsqueda es el contenido de las páginas web, ya sea de
Internet como dentro del corta fuegos. Una solución para el rastreo y la búsqueda de páginas web es Nutch,
inicialmente un subproyecto de Lucene. Nutch está enfocado a ejecutar el rastreo de la web a escala de
internet de forma similar a Google e incluye componentes tales como el rastreador de la web, una base de
datos gráfica de los hipervínculos y analizadores sintácticos para HTML y otros formatos comunes que se
encuentran en Internet. Nutch está diseñado para escalar horizontalmente sobre múltiples máquinas durante
el rastreo utilizando la plataforma Hadoop para gestionar su trabajo.

Anteriormente Nutch utilizaba su propio interfase de búsqueda por el usuario basado en Lucene, pero
10

actualmente hace uso de Solr para la búsqueda. Esto le permite a Nutch enfocarse en el rastreo de la web
mientras que Solr trabaja como una herramienta de búsqueda genérica con características tales como
corrector ortográfico de solicitudes y el facetado que anteriormente Nutch no podía realizar. El Nutch de
forma nativa comprende los conceptos de relevancia de la web tales como el valor de los hipervínculos para
calcular el ordenamiento por page rank, y como tener en cuenta en que <title/> tag de HTML es, cuando se
crea el modelo de ordenamiento para entregar los resultados.

El Nutch trabaja separado de la lista original de las URLs que son utilizadas como fuente de páginas web
a rastrear.

Hadoop [9].

Las bibliotecas de programas de Apache Hadoop constituyen un marco de trabajo que permite el
procesamiento distribuido de grandes conjuntos de datos a través de clusters de computadoras utilizando un
modelo simple de programación. Este está diseñado para escalar desde un solo servidor hasta miles de
máquinas, cada una ofreciendo cómputo y almacenamiento locales. En vez de depender del hardware para
garantizar alta disponibilidad, la biblioteca en sí está diseñada para detectar y manipular los fallos en la
capa de aplicación y así garantizar un servicio de alta disponibilidad sobre un cluster de computadoras, cada
uno de cuyos elementos pueden ser propensos a fallos.

Formalmente, Hadoop es un marco de trabajo de código abierto para la escritura y la corrida de


aplicaciones distribuidas que procesan grandes cantidades de datos. La computación distribuida es un
campo vasto y disímil, pero las distinciones fundamentales de Hadoop son:

- Accesible: Hadoop corre en grandes clusters de máquinas disponibles (commodity) o en servicios de


cómputo en la nube tales como el Amazon’s Elastic Compute Cloud (EC2).

- Robusto: debido a que está diseñado para correr en hardware disponible, el Hadoop está configurado
asumiendo fallas frecuentes del hardware. Este puede manipular satisfactoriamente la mayoría de tales
fallas.

- Escalable: Hadoop escala linealmente para manipular grandes cantidades de datos adicionandomás
nodos al cluster.

- Simple: Hadoop le permite a los usuarios escribir rápidamente código paralelo eficiente.

La accesibilidad y simplicida de Hadoop le da ventaja en la escritura y corrida de grandes programas


distribuidos. Con relativamente pocos recursos se puede de forma rápida y barata crear cluster propio de
Hadoop. Por otro lado, su robustez y escalabilidad lo hace disponible para la mayoría de los trabajos
demandados por Yahoo y Facebook. Estas características hacen que Hadoop sea muy popular ya sea en la
Academia como en la industria.

La figura 4 ilustra como interactuar con un cluster Hadoop. Como puede verse, el cluster de Hadoop es
una serie de máquinas conectadas en red juntas en una localización. Todo el almacenamiento de los datos y
el procesamiento ocurre dentro de esta “nube” de máquinas. Usuarios diferentes pueden enviar “trabajos”
de cómputo al Hadoop desde clientes individuales, las cuales pueden ser sus propias máquinas en
11

localizaciones remotas del cluster Hadoop.

Fig. 4. Un cluster Hadoop tiene muchas máquinas en paralelo que almacenan y procesan grandes
conjuntos de datos. Las computadoras clientes envían trabajos a esta nube de computadoras y obtienen los
resultados [9].

La introducción al proyecto Hadoop en la web (http://hadoop.apache.org/) define: El proyecto Apache


Hadoop desarrolla programas de código abierto para la computación distribuida fiable y escalable,
incluyendo a:

Hadoop Core, el subproyecto bandera, proporciona sistemas de ficheros distribuidos (HDFS) y soportado
por la metáfora de computación distribuida Map Reduce-

HBase construido sobre el Hadoop Core para proporcionar una base de datos escalable y distribuida.

Pig es un lenguaje de alto nivel de data-flow y un marco de ejecución para la computación paralela. Está
construido encina del Hadoop Core.

ZooKeeper es un sistema de coordinación de alta disponibilidad y fiabilidad. Las aplicaciones distribuidas


utilizan ZooKeeper para almacenar y facilitar las actualizaciones para estados compartidos críticos.

Hive es una infraestructura de almacén de datos construida sobre Hadoop Core que proporciona una
indización general de los datos, adhoc de las solicitudes y el análisis de los conjuntos de datos.

El proyecto Hadoop Core proporciona los servicios básicos para la construcción de un entorno de
cómputo en la nube (cloud computing) con hardware de uso general (commodity), y las API para el
desarrollo de software que correrá en la nube. Las dos piezas fundamentales de Hadoop Core son el marco
MapReduce, el entorno de cómputo en la nube y el Hadoop Distributed File System (HDFS).

El modelo MapReduce

Hadoop soporta el modelo MapReduce, el cual fue introducido por Google como un método de solución
de clases de problemas de gran escala con clusters grandes de máquinas de comunes.

El modelo está basado en dos pasos distintos para una aplicación:


12

- Map: Un paso inicial de ingestión y transformación, en el cual los registros individuales de entrada
pueden ser procesados en paralelo.

- Reduce: Un paso de agregación o resumen, en el cual todos los registros asociados tienen que ser
procesados juntos por una sola entidad.

El núcleo del concepto de MapReduce en Hadoop es que una entrada puede ser dividida en pedazos
lógicos, y cada pedazo puede ser inicialmente procesado independientemente por un mapa de tareas. Los
resultados de este procesamiento individual de los pedazos pueden ser particionados físicamente en
distintos conjuntos, los cuales son entonces ordenados. Cada pedazo ordenado es pasado a una tarea de
reducción. La figura 5 ilustra cómo trabaja el modelo MapReduce.

Figura 5. El modelo de MapReduce [9]

El mapa de tareas puede correr en cualquiera de los nodos de cómputo del cluster y múltiples mapas de
tareas pueden correr en paralelo a través del cluster. El mapa de tarea es responsable en la transformación
de los registros de entrada en pares llave/valor. La salida de todos los mapas será particionada y cada
partición será ordenada. Habrá una partición para cada tarea de reducción. Cada llave ordenada de la
partición y el valor asociado con las llaves son entonces procesados por una tarea de reducción.

Pueden existir múltiples tareas de reducción corriendo en paralelo en el cluster. El desarrollador de la


aplicación necesita proporcionar solamente 4 items al marco de desarrollo de Hadoop: la clase leerá los
registros de entrada y los transforma en pares llave/valores por registro, un método de mapeo, un método de
reducción y una clase que transforma los pares llave/valor que el método de reducción entrega en registros
de salida.

Apache Mahout [10]

Mahout es una biblioteca de algoritmos de aprendizaje automático de Apache. Ello significa en particular
para Mahout el disponer de motores de recomendación (filtrado colaborativo), agrupamiento y
clasificación. Este es también escalable. Mahout tiene la finalidad de ser una herramienta de aprendizaje
automático a seleccionar cuando la colección de datos a ser procesados es muy grande, (relativo a ser
procesada por una sola máquina). En la actualidad, estas implementaciones de aprendizaje automático
13

escalables de Mahout están escritas en Java y algunas secciones se basan en el proyecto de Cómputo
distribuido de Apache Hadoop.

III. RESULTADOS Y DISCUSIÓN

La integración en un módulo de GridIR de las herramientas relacionadas de acuerdo con la configuración


de la Figura 3 fue realizada a un desarrollo previo realizado en ICIMAF de un software de gestión de
información en la Intranet de una organización para darle capacidad de procesamiento en paralelo y
características “NoSQL” dentro de la concepción de Inteligencia de Negocios a partir de datos semi o no
estructurados.

En el experimento se corrió dicho módulo en una configuración de máquinas como la que se da en la


Figura 6 perteneciente geográficamente al centro de cómputo (cluster de 20 procesadores Celeron D), las
dos aulas-laboratorios (con dos clientes ligeros de 10 terminales y dos servidores Intel Xeon a 2.13 GHz y 1
Giga de RAM.

Figura 6. Sistemas de computadoras utilizadas en el experimento. Este está enlazado por una red de de
100 Mbps. Las computadoras del cluster de Linux están interconectadas por una red Ethernet de un Gigabit
[elaboración propia].

Para comprobar el funcionamiento, el empleo y realizar la caracterización del sistema basado en Hadoop se
seleccionó la suite HiBench [xx] de Intel la cual consiste en un conjunto de programas de Hadoop que
incluyen micro-evaluadores y aplicaciones del mundo real (Figura 7)

Figura 7. Componentes de la suite de evaluación HiBench. [11]


14

Ejemplos de aplicaciones a realizar por el sistema.

Técnica de división en bloques para la correspondencia por referencia utilizando MapReduce. [9].

El agrupamiento de documentos tiene cada vez más importancia en el área de la minería de datos y la
recuperación de información. Con el crecimiento de los volúmenes de datos, las técnicas de CPU y de
eficiencia de la memoria para los algoritmos de agrupamiento está recibiendo una considerable atención por
la comunidad de investigadores. Para tratar con enormes cantidades de datos (ej., los documentos de
Wikipedia o CiteSeerX que tienen varios GB de tamaño), las técnicas de agrupamiento distribuido han sido
diseñadas para proporcionar facilidades de escalabilidad y flexibilidad. Uno de los problemas a solucionar
es el problema de agrupamiento de documentos en el área de correspondencia por entidad (Entity
Matching) donde los documentos de varias fuentes de datos son seleccionados juntos. Más específicamente,
se puede utilizar una técnica de optimización común denominada división por bloques que reduce el
enorme espacio de búsqueda para el agrupamiento de las fuentes de datos en grupos más pequeños y el
procesamiento de las comparaciones solo dentro de esos grupos. En el artículo [12], se aplica el marco de
trabajo de MapReduce para gestionar el enorme conjunto de datos bibliográficos mediante una técnica de
división en bloques flexible, escalable y fácil de utilizar para reducir el espacio de búsqueda para realizar la
correspondencia por entidad.

Para determinar la relación entre documentos se utiliza las co-citas. Estas son técnicas bibliométricas de
medición de la similitud para determinar publicaciones relacionadas por tópicos de una colección de
documentos. Esta puede ser utilizada en los agrupamientos para unir publicaciones de tópicos similares
(Figura 8).

Figura 8. Calculo de la matriz de citas L y la matriz de co-citas C basados en el grafo de citas G [12].

Agrupamiento jerárquico para la correspondencia por referencia.

En recuperación de información, el agrupamiento jerárquico es un método para agrupar observaciones


similares dentro de un mismo grupo y crear una jerarquía entre todos los grupos. La jerarquía es producida
mediante la división en cada nivel de dos clusters a partir del próximo nivel inferior el cual tiene la menor
disimilitud intergrupal. Las estrategias para el agrupamiento jerárquico pueden dividirse en dos paradigmas
básicos, aglomerativos (bottom-up) y divisorios (top-down).

Para calcular la proximidad entre los clusters, se requiere disponer de una matriz de medidas de
proximidad inicial entre clusters únicos. Para ello puede utilizarse la medida de co-citas como como una
medida de proximidad inicial (Fig. 9).

Se define como dos publicaciones cercanas, cuando sus medidas de co-citas normalizadas alcanzan un
15

umbral definido por el usuario. Por ejemplo, considerar que dos publicaciones son similares a partir de que
medida de co-citas es mayor que 0.2.

Figura 9. Dendograma para 118 publicaciones creadas por una herramienta de agrupamiento [12]

Cluster jerárquico paralelo en la nube.

En los algoritmos de agrupamiento (clustering) del tipo de K-medias y en los clusters jerárquicos, el
cálculo más intenso de la CPU se produce en el cálculo de la proximidad o la distancia entre las
observaciones desde el conjunto de datos. El cálculo de la matriz de co-citas es realizado de forma de
adición y puede realizarse también en paralelo debido a que el cálculo entre dos publicaciones es
independiente de otros cálculos (Figura 10).

Figura 10. Computación en paralelo de la medida de similitud entre publicaciones [12].

Después de realizados los cálculos de todas las co-citas entre publicaciones, se pueden utilizar los
resultados como entrada a un cluster jerárquico en Mahout de Apache. Mahout proporciona los algoritmos
para varias tareas de minería de datos tales como clasificación o agrupamiento utilizando en la corrida de
estos con MapReduce y alimentar los cálculos con la matriz inicial de proximidad.

IV. CONCLUSIONES
En el artículo, a partir de definir la concepción de la recuperación de información en la Grid o GridIR y
sus funcionalidades, la inteligencia de negocios con semi o no estructurados, se propone crear la estructura
16

de GridIR con herramientas Apache de código abierto. Esta concepción se valida a través de expresar las
funcionalidades de las herramientas propuestas, compatibles con las funcionalidades necesarias en la
estructura de recuperación, y la interrelación entre las mismas partiendo de una única concepción de diseño
y un lenguaje de programación común (java) lo cual posibilita realizar las adecuaciones necesarias por
software para su completa armonización en su implementación. Esta idea también se ilustra con el ejemplo
de división en bloques para la correspondencia por referencia utilizando MapReduce el cual demuestra la
factibilidad de ejecución práctica de la estructura de GridIR, en particular, el procesamiento de grandes
bases de datos obtenidas con un buscador Web mediante el agrupamiento de los resultados de las
búsquedas.

AGRADECIMIENTOS
Este trabajo se realizó en el marco del proyecto“Algoritmos de Minería de datos para la toma de
decisiones en procesos industriales con procesamiento paralelo (Cluster y Grid) y la búsqueda especializada
de contenidos en la Web” (Proyecto no asociado de la Agencia de Energía Nuclear y Tecnologías de
Avanzada, Contrato PNA/8/25 NO./2012)

REFERENCIAS
[1] NoSQL in the Enterprise. A Guide for Technology Leaders and Decision-Makers. DataStax
Corporation. March 2012. Pp 18.
[2] Kimball. R., The Evolving Role of the Enterprise Data Warehouse in the Era of Big Data Analytics.
Kimball Group. 2012
[3] Suárez I., et al., Algoritmos de minería de datos para la toma de decisiones en procesos industriales con
procesamiento paralelo (grid) y herramienta y metodología para la búsqueda especializada de
contenidos en la web. Reporte de Investigación del ICIMAF. No. 641, Noviembre 2011. 20p.
[4] Integration Guide for MapReduce Applications in IBM Platform Symphony – Advanced Edition. IBM
Platform Symphony. Version 5.2. May 2012
[5] Volker Markl. Big Data Analytics. Parallel Data Processing Beyond Map and Reduce. Database
Systems and Information Management Lab. Technishe Universitat Berlin.
[6] Larson R., Grid-based Digital Libraries and Cheshire3. UC Berkely School of information. 2006. PPT.
[7] Smiley D., Pugh E., Apache Solr 3 Enterprise Search Server.Copyright © 2011 Packt Publishing
[8] NutchTutorial.
http://wiki.apache.org/nutch/NutchTutorial?action=fullsearch&context=180&value=linkto%3A%22Nut
chTutorial%22. Descargado el 9 de marzo del 2012.
[9] Lam Chuck., Hadoop in Action ©2011 by Manning Publications Co.
[10] Owen S., Mahout in Action. ©2012 by Manning Publications.
[11] Dai J. Performance, Utilization and Power Characterization of Hadoop Clusters using HiBench. Intel
2010.
[12] Paradies, M., An Efficient Blocking Technique for Reference Matching using MapReduce.
Datenbank Spektrum (2011) 11: 47–49 © Springer-Verlag 2011.
MÓDULO CALDERAS DEL SISTEMA
DATASEGE H25MW
Luis M. Fernández1, José R. Rodríguez2, Carlos González3, Ileana Sánchez4, Ricardo Sebastián5
Resumen: El presente trabajo trata sobre el módulo Calderas (Unidades de Generación de Vapor) del sistema
Datasege H25MW (Simulador para el Entrenamiento de Operadores de Grupos Electrógenos Hyundai de 2.5
MW). El objetivo del sistema es facilitar la comunicación entre el entrenador y el operador, en su período de
adiestramiento. La mayor ventaja del sistema es la capacidad de autoevaluación del operador. El módulo Calderas
incluye: el suministro de agua, el tratamiento químico y térmico, la producción de vapor, etc. El módulo emplea
modelos matemáticos para simular el proceso.

Palabras Clave: Autoevaluación, Calderas, Entrenamiento, Modelos Matemáticos, Simulación de Procesos.

DRUM BOILER MODULE IN DATASEGE


H25MW SYSTEM
Abstract: This technical report is about drum boilers (Steam Generator Units). This software is a module in
Datasege H25MW (Training simulator for Hyundai power unit operator, 2.5 MW units). The main target is to do
more easy communication between teacher and operator, in training period. Self-evaluation is the most important
advantage of system. Calderas include: water supply, chemical and thermal treatment, steam production, etc.
Mathematical models replace real process in simulator.

Keywords: Drum Boiler, Mathematical Models, Process Simulation, Self-evaluation, Training.

I. INTRODUCCIÓN
Las calderas o generadores de vapor son instalaciones industriales que han evolucionado
extraordinariamente desde la época de la Revolución Industrial [1]. La máquina de vapor,
nombre de la época, sigue siendo el corazón de muchos procesos, al ser el centro de los
generadores de energía eléctrica que la obtienen a partir de centrales termoeléctricas. Los
buques modernos emplean las calderas para generar electricidad, al igual que otras
instalaciones industriales. El vapor que generan tiene diferentes usos y no todas emplean
una misma fuente para generar el calor que transforma el agua en vapor.

1
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico: luis@icimaf.cu
2
Dpto. de Matemática Interdisciplinaria, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15
#551 e/ C y D Vedado, Correo electrónico: tito@icimaf.cu
3
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico, cgonzalez@icimaf.cu
4
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico, ileana@icimaf.cu
5
Dpto. de Control Automático, Instituto de Cibernética, Matemática y Física (ICIMAF), Calle 15 #551 e/ C y
D Vedado, Correo electrónico, sebas@icimaf.cu

1
El presente trabajo es continuación de un Reporte de Investigación del ICIMAF [2] y tiene
en cuenta los aportes de las tesis [3], [4] y [5].

Para comprender mejor el Módulo Calderas del simulador es necesario conocer el proceso
[6], [7], [8] y [9], es por ello que presentamos una breve descripción.

Descripción del proceso.


Una vez que se obtiene el agua tratada en la Planta de Tratamiento Químico de Agua
(PTQA), se envía al Tanque de Agua de Alimentar (TAA) que vemos en la figura 1.

La función de esta instalación es darle tratamiento químico y


térmico al agua que será empleada en la generación de vapor.
Se conoce que el precalentamiento en esta área favorece al
proceso de generación de vapor, al disminuir los tiempos de
calentamiento. También se sabe que el tratamiento químico
disminuye las incrustaciones en las tuberías y permite demorar
las paradas por mantenimiento [2].

Fig.1. Tanque de Agua de Alimentar

Las calderas que acompañan a los grupos electrógenos Hyundai traen un contenedor
auxiliar. Este contenedor incluye los elementos siguientes:
• Bombas de suministro de agua de alimentar, ver figura 2. Son las encargadas de
enviar el agua desde el tanque de agua de alimentar hasta el domo. También pueden
trabajar en modo de recirculación hacia el propio tanque de agua de alimentar.
• Bomba de tratamiento químico, ver figura 3. Es la encargada de suministrar los
productos al agua, para disminuir las incrustaciones en el domo, el horno y las
tuberías.
• Detector de aceite, ver figura 4. Es el encargado de determinar si el agua de
condensado que retorna del proceso se contaminó con aceite.
• Tanque de purga, ver figura 5. Todas las purgas del tanque de agua de alimentar, del
domo y del resto de las instalaciones son enviadas a este tanque.
• Panel de mandos, ver figura 6. El sistema tiene habilitado un display con tecnología
touch screen que permite visualizar en pantalla las partes fundamentales del
proceso. Este panel permite accionar las bombas, establecer modos de operación
manual y automático. En el modo automático, el elemento inteligente es un
Controlador Lógico Programable (PLC). Los dos PLC que emplea tienen
implementado un algoritmo PID cuyos parámetros se ajustan desde aquí. Contiene
además reportes gráficos de las variables asociadas a los PID.

2
Fig. 2. Bombas Fig. 3. Bomba Fig. 4. Detector Fig. 5. Tanque Fig. 6. Panel de
de suministro de tratamiento de aceite de purga mandos
de agua de químico
alimentar

Una vez que el agua es succionada del TAA por las Bombas de Suministro de Agua de
Alimentar (BSAA), puede seguir dos caminos. Uno es de retorno al TAA y el otro en viajar
hacia el Domo. En el camino hacia el Domo hay un área de Control del Agua de Alimentar
(CAA). Esta área permite controlar el flujo de acceso, del agua, en cada caldera del
emplazamiento. La instalación es la que se muestra en la
figura 7.

El Domo es el área que sigue y su función es la de


almacenar agua y vapor. Podemos ver en la figura 8 esta
tecnología

Fig.7. Control del Agua de


Alimentar

El Domo recibe el agua procedente del TAA y la envía al horno para convertirla en vapor.
El vapor retorna al Domo para ser distribuido hacia diferentes partes del proceso a partir del
Cabezal de Vapor (CV), ver figura 9.

El vapor almacenado en el domo se emplea para precalentar el agua en el TAA. Una parte
es empleado en el horno para deshollinar, etc.

El Horno, ver figura 9, es el encargado de transformar el agua en vapor y para ello utiliza la
temperatura de los gases que se obtienen como residuo de la combustión. Esta idea reduce
extraordinariamente los costos, al no tener necesidad de consumir combustible para generar
el vapor. Además disminuye la temperatura de los gases que van a la atmósfera.

El Horno recibe los gases calientes desde el Dámper, ver figura 10.

3
Fig. 8. Domo Fig. 9. Cabezal de vapor Fig. 10. Dámper

Los gases que se obtienen como residuo de la combustión viajan por un canal magistral que
recorre todas las calderas del emplazamiento. Aquellas calderas que demandan de ellos
posicionan las válvulas del Dámper en el ángulo adecuado para obtener solo la cantidad de
gases que se requieren para convertir el volumen de agua en vapor. El resto de los gases
viaja por el canal y puede ser empleado por otras calderas.

El vapor que se entrega a través del CV retorna a la caldera a través del Cabezal de
Condensado (CC), ver figura 11. De ahí se envía en forma de agua al área de enfriamiento,
ver figura 12. En el área de enfriamiento hay dos caminos: uno va directamente al TAA, el
otro, va al mismo lugar, luego de pasar por los Ventiladores de Condensado (VC). La
selección del camino se hace en función de la temperatura que trae el agua.

El agua que regresa al tanque de alimentar cierra lo que se conoce como el ciclo del agua.
Esta recuperación del vapor y su condensación reduce extraordinariamente los costos por
consumo de agua y de quimicales. Solo se reponen las pérdidas en el proceso.

Debemos señalar que el detector de aceite mostrado en la figura 4, se encuentra conectado a


la entrada de agua al enfriador de condensado.

Fig. 11. Cabezal de condensado Fig. 12. Enfriador de condensado

Podemos apreciar tres ciclos importantes en este proceso: el del agua, el de los gases y el
del vapor.

II. MÉTODOS Y HERRAMIENTAS

Tal como ocurrió con el Módulo PTQA [2], se trabajó con los modelos matemáticos de
cada parte del proceso y se emplearon las mismas herramientas para la programación del
simulador.

4
Métodos.
Establecimos los coeficientes de las ecuaciones de los modelos de temperatura, flujo,
presión y volumen para cada recipiente, según fuera el caso.

Cuando las relaciones son no lineales, se establecieron los coeficientes del modelo lineal
alrededor del punto de operación, considerando solo variaciones inferiores al 3 %. Es por
ello que para una representación más precisa de las áreas, recomendamos un estudio más
preciso de los modelos. Como se trata de modelos a emplear para entrenamiento de
operadores, en su primera versión, no hemos considerado una mayor precisión.

Para la evaluación de los errores se establecieron procedimientos por áreas. Al igual que en
el módulo PTQA el operador puede entrenarse sin evaluación. Denominamos esta etapa
aprendizaje de navegación por el simulador. Se puede realizar con asesoría del profesor o
con la ayuda del manual de usuario. En cualquier caso los errores no crean problemas en el
proceso real.

En la segunda etapa el operador que conoce el proceso, se familiariza con la representación


esquemática del mismo. Debe ser capaz de identificar en el esquema las partes del proceso
real. Por ejemplo, el TAA que vimos en la figura 1 se representa por el esquema que se
muestra en la figura 13.

Esta representación, como


se conoce, responde a las
normas internacionales de
representación de los
procesos con fines de la
operación.

Es por ello que el operador


logra relacionarse con
facilidad con esta imagen y
puede asociarla a la
mostrada en la figura 1.

Fig. 13. Representación esquemática del TAA

Este método de trabajo es el que se emplea con cada parte del proceso.

Herramientas

Para desarrollar y validar el Módulo Calderas del simulador se emplearon las herramientas
siguientes:

5
• Hardware. Laptop Dell Inspiron con procesador i7, 8 GB RAM y HD 250 GB. El
producto final instalado corre sobre PC con procesador Intel, P4 o superior, 1 GB
RAM y requiere 9.69 MB de espacio en el HD, Sony Cybershot DSC-W530 con
14.6 Mpixel para las fotos. Las entrevistas se registraron en mp3 con grabadora
portátil Sony IC Recorder.
• Software. Se empleó el ANSI C como plataforma de desarrollo. El CorelDraw y el
MS PowerPoint para el diseño. También Sony PMW para las fotografías. MS-Word
y Adobe Acrobat para el manual de usuario.

Toda esta tecnología y el empleo de los conceptos de la instrumentación virtual [10],


permitieron alcanzar la calidad requerida en el producto final.

III. RESULTADOS

El Módulo Calderas, del Sistema Datasege H25MW, se implementa con el objetivo de


facilitar el entrenamiento de los operadores de grupos electrógenos. Una vez que el
operador recibe el entrenamiento en el simulador pasa a completar su formación en el
proceso.

El simulador le permite trabajar en modo supervisado, por un profesor. También le permite


trabajar de forma independiente. En ambos modos es posible trabajar con evaluación de
errores y sin evaluación. Todas estas facilidades han sido otorgadas en aras de flexibilizar y
hacer más amigable el adiestramiento.

Para facilitar la comunicación del operador con el módulo Calderas del simulador, se
desarrollaron un conjunto de HMI (Human Machine Interface). Estas HMI hacen más
amigable la comunicación ya que están diseñadas por áreas. De esta forma, el operador se
puede entrenar, y evaluar si lo desea, en un área específica.

La experiencia en el uso del simulador nos ha demostrado, que en el caso del módulo
Calderas, puede ser interesante adiestrar por ciclos. Se destaca el ciclo del agua, este va del
TAA al Domo y del cabezal de condensación de vapor al TAA. El ciclo de los gases
comprende al Dámper y al Horno. El tercer ciclo es el del vapor, este incluye al Horno, al
Domo, al Cabezal de Vapor y al Cabezal de Condensado.

Se diseñó un portal, ver figura 14, desde el cual


se puede navegar hacia cualquiera de las áreas
del proceso en que desee entrenarse.

Como puede apreciarse, además de cada una de


las áreas, hay una opción de Vista General. El
objetivo es que el operador después de lograr
resultados satisfactorios en cada área, pueda
entrenarse operando toda la planta.

Fig. 14. Portal del módulo Calderas

6
Podemos decir entonces que la opción Vista General nos permite navegar hacia un nuevo
portal desde donde
operamos cada parte
de la caldera.

En el menú está
presente, además, la
opción de
configuración, ver
figura 15, que
permite establecer,
en cada caso, las
condiciones
iniciales.
Fig. 15. Configuración del módulo

Esta facilidad se implementó, porque no siempre se parte de las mismas condiciones.


Porque además, se puede evaluar el arranque y la parada de la caldera, o la operación en
régimen de trabajo. En cada caso, esta opción nos permite configurar el módulo según
nuestras necesidades.

Es muy importante que en el proceso de configuración los valores que se establezcan para
cada variable estén en su rango de operación, de lo contrario podrán aparecer valores que
no correspondan con la realidad. Somos del criterio de que esta opción se debe emplear con
asesoría del profesor.

En la figura 16 se muestra el TAA (esquema) y un ejemplo de evaluación negativa. En la


parte superior la hora, el nombre del sistema
y la fecha. En el nivel siguiente toda la
automática del tanque. A la derecha el
isométrico de la caldera. En el nivel inferior
el menú de evaluar con dos opciones:
preparación y operación. A la derecha de este
nivel el dictamen que resulta para un ejemplo.

En este caso que sirve de ejemplo se encendió


la bomba1, encargada de sacar agua del
tanque y enviarla al domo, y no se realizaron
el resto de las acciones establecidas.

Fig. 16. Esquema del Tanque de Agua de Alimentar

Debieron abrirse la válvula de entrada de agua y la de salida de agua del tanque a las
bombas. Ambos errores se penalizan. Debieron abrirse las válvulas a la entrada de cada
bomba. Luego tenemos dos opciones:

7
• Se recircula el agua hacia el TAA. En este caso debemos abrir la válvula de retorno
de la bomba al tanque, para cada bomba que esté trabajando.
• Se envía el agua al Domo. En este caso debemos abrir las válvulas del CAA o la
válvula de desvío. Adicionalmente debe abrirse la válvula de entrada al Domo.

Cada error que se cometa tiene una penalización que disminuye la calificación ideal de 100
puntos. La Tabla I presenta las penalizaciones posibles en el TAA.

El resultado de la evaluación aparece en la ventana de la derecha de este nivel. La


calificación es de 30 puntos, muy baja, porque los errores cometidos son graves.

En el nivel más bajo están los botones de navegación global, que nos permiten visitar
cualquier área sin necesidad de regresar al portal.

Un desarrollo similar se estableció para cada una de las áreas, precisándose errores y
penalizaciones de acuerdo con la importancia de cada uno.

TABLA I
ERRORES PARA EL TANQUE DE AGUA DE ALIMENTAR

Error Causa Penalización


Bajo nivel de agua en el entrada de agua de -5 puntos
tanque alimentar cerrada
Bombas de agua operando salida de agua de alimentar -5 puntos
en vacío cerrada
Baja temperatura del agua entrada de vapor cerrada -5 puntos
Posible daño en la bomba1 bomba1 encendida y válvula -10 puntos
de entrada a bomba cerrada
Posible daño en la bomba2 bomba2 encendida y válvula -10 puntos
de entrada a bomba cerrada
Posible daño en la bomba1 bomba1 encendida y válvula -10 puntos
de salida a bomba cerrada
Posible daño en la bomba2 bomba2 encendida y válvula -10 puntos
de salida a bomba cerrada
Posible daño en la bomba1 bomba1 encendida y válvula -10 puntos
en el control de agua de
alimentar cerrada
Posible daño en la bomba2 bomba2 encendida y válvula -10 puntos
en el control de agua de
alimentar cerrada
Posible daño en las bombas bombas encendidas y -10 puntos
válvula de entrada al domo
cerrada
Posible daño en las bombas bajo nivel de agua y bombas -15 puntos
encendidas

8
Hemos visto muchos errores y fuertes penalizaciones, los más leves son: Bajo nivel de agua
en el tanque, Bombas de agua operando en vacío, Baja temperatura del agua, se penalizan
con -5 porque su afectación es menor. Pero: Posible daño en las bombas, se penaliza con
-15 puntos por ser un error severo.

IV. CONCLUSIONES

Contamos con el módulo Calderas del Sistema Datasege H25MW, el cual permite el
entrenamiento, supervisado por un profesor o no, de operadores de calderas.

Un sistema de evaluación con escala de 100 puntos, basado en penalización por errores, fue
implementado. El operador puede entrenarse evaluándose o no.

Con este módulo de entrenamiento disponible podemos pasar a su introducción en el


Centro de Entrenamiento para poder evaluar su eficacia en el mejoramiento de la operación
de Calderas.

BIBLIOGRAFÍA
[1] Shields, Carl D. Calderas: Tipos, características y sus funciones. Edición
Revolucionaria. Tercera edición 1975. Cuba.
[2] Fernández, Luis M., José R. Rodríguez, Ileana Sánchez, Ricardo Sebastián, Carlos
González. Módulo PTQA del sistema Datasege H25MW, Reporte de Investigación
ICIMAF-655, 2012.
[3] A. Sosa, Jorge. Diseño del Simulador de la Planta de Tratamiento Químico de Agua de
Habana 220. Tesis de Ingeniería ISPJAE, 2011.
[4] Heyner García, Simulador de calderas para grupos electrógenos de 2,5 MW. Tesis de
Ingeniería ISPJAE, 2011.
[5] Matos Cantillo, Rodolfo. Sistema Asesor para la atención de Alarmas en plantas
Hyundai de 2.5 MW implantado sobre PLC, Tesis de Ingeniería ISPJAE, 2010.
[6] Hyundai Heavy Industries CO, LTD. Manual de Instrucciones de Tecnología H25MW
DPP.
[7] Luna Leiva, A. Cartas de Régimen Tecnología HH 2.5 MW DPP, 2009.
[8] Manuales de explotación Eléctrica y Hyundai Heavy Industries CO. LTD, Julio 2007.
[9] Pocket Book 2.5 MW 9H25 / 33 DPP / O & M, Editado por Unión Eléctrica, MINBAS
2007.
[10] http://www.ni.com. Sito Web de National Instrument.

9
Aplicación de modelo de predicciones energéticas a dos hoteles de ciudad.
MSc. Adriana V. Acosta Corzo

Dr. Ana I. Gonzales Santos

Ing. Yllel Alejandro Hernández Juvier

Ing. Manuel Alejandro Díaz Serret

Ing. Víctor Álvarez Castelló.

Resumen

El presente trabajo muestra los principales resultados obtenidos durante la aplicación de un


modelo de predicciones energéticas, basado en el método de series de tiempo radiante para la
estimación de la carga térmica, en dos instalaciones turísticas de la Habana. Durante la
implementación se utilizaron valores reales de los registros históricos de los hoteles “Meliá
Habana” y “Parque Central, La Torre”. Todo el desarrollo del modelo se implementó en
ambiente de programación MATLAB.

1. Introducción

El Turismo, visto como un sector de amplia relevancia en la economía cubana, con infinitas
posibilidades de desarrollo, debería constituirse en un tema de especial interés público para la
nación, (9). Las facilidades de desarrollo no solo han de estar dirigidas a la obtención de nuevos
ingresos sino a la obtención de una eficiencia económica que contribuya al ahorro de recursos.

Las instalaciones hoteleras se caracterizan por ser edificaciones con un uso permanente a lo
largo de cada año y donde su principal objetivo reside en garantizar confort y calidad para los
huéspedes en todos sus servicios, durante su estancia en la instalación. En estos inmuebles
predomina el movimiento de los ocupantes desde la habitación hacia las áreas exteriores, la
presencia de cristales, la diversidad entre habitaciones, así como el amplio uso del sistema de
aire acondicionado. Estos factores inciden decisivamente en los altos niveles de carga térmica.
Por estas razones para las actividades de alojamiento en el turismo constituye un verdadero reto
lograr la eficiencia energética sin afectar la calidad de los servicios que se brindan, (3). En los
hoteles, de forma similar que en otros inmuebles climatizados el gasto energético del sistema de
climatización representa alrededor de un 60% del consumo eléctrico total. En aras de disminuir
el consumo eléctrico, no se debe ir en detrimento del confort del huésped, que paga su estancia
para disfrutar de las comodidades, correspondientes a la categoría del alojamiento. Afectar los
estándares de confort de un hotel durante la visita de un turista, puede perturbar la opinión del
servicio brindado, evitar que vuelva a visitarnos y contribuir a que haga disentir a sus
conocidos de que nos visiten; perjudicando y comprometiendo el ingreso de otras temporadas.
Por ello, es tan importante velar por que las condiciones de confort no se vean afectadas, en
ningún momento.

En Cuba, el ahorro de los portadores energéticos ha sido objeto de estudio por varios
especialistas: Fernández Pizat aborda el tema de la disminución del consumo de los sistemas
de climatización de los hoteles cubanos; Montelier Hernández y otros han desarrollado un
procedimiento de optimización de la temperatura de agua helada a través de la utilización de
redes neuronales, modelos neurodifusos y algoritmos genéticos en el hotel “Jagua” de la ciudad
de Cienfuegos. También Montero y otros han trabajado en la predicción del consumo de
electricidad y de gas a través de las redes neuronales artificiales. (7,12,13,14,15,16,17)

Según las estrategias propuestas para la mejora de la eficiencia energética en la climatización de


hoteles de los expertos fabricantes Carrier, la implantación de un sistema de control y gestión
avanzada constituye una de las medidas que pueden ser adoptadas, (5). Diseñar, y aplicar un
controlador predictivo basado en modelo no lineal, para la regulación del sistema centralizado
de climatización en los hoteles es el propósito fundamental de nuestra investigación. Para ello es
imprescindible obtener un modelo de predicciones energéticas que nos posibilite alcanzar tal
objetivo, (6,10,19).

En el presente trabajo se presentarán los principales resultados alcanzados en la aplicación de un


modelo de predicciones energéticas del sistema centralizado de climatización de las
habitaciones de dos hoteles de la Habana: “Meliá Habana” y “Parque Central La Torre”.

El trabajo se divide en 5 secciones: Introducción, descripción del sistema y del modelo,


resultados y conclusiones.

2. Descripción del sistema

Los hoteles estudiados son operados por empresas mixtas y turoperadores internacionales.
Ambos pertenecen al grupo Cubanacán del ministerio del turismo. Son catalogados de
categoría 5 estrellas, poseen un índice de ocupación promedio alto y se encuentran localizados
en La Habana.

Hotel “Meliá Habana”

La instalación hotelera se encuentra ubicada en el litoral noroeste de la Habana. Tiene


características de hotel de ciudad y de playa. Posee cierto nivel de automatización y adecuada
gestión de los registros históricos de operación. El edificio tiene dos bloques habitacionales y un
total de 413 habitaciones. El primer bloque cuenta con 9 pisos y 297 habitaciones. El segundo
bloque cuenta con 4 pisos y 116 habitaciones. Las habitaciones se subdividen en tres tipos A,
B, C. El sistema de climatización del hotel es mixto pues combina el sistema individual de aire
acondicionado con el sistema centralizado. El clima es el responsable del 60% del consumo
eléctrico de este hotel, y por ello será objeto importante de atención.

El esquema general del equipamiento del sistema centralizado de aire acondicionado está
conformado por un circuito primario y otro secundario. El circuito primario está constituido por
4 máquinas enfriadoras del agua, de condensación por aire; con una capacidad de 208 ton de
refrigeración o 730 kW de carga de enfriamiento cada una, para un total de 2.92 MW. Este
circuito se complementa además con el empleo de bombas que impulsan el agua hacia los
lugares de consumo, a través de sistemas de tuberías y de manejadoras, climatizadoras y
unidades de ventiladores y serpentines (conocidos como “fan coils”), (1). Según la carga
nominal del fan coil, en el hotel se han instalados 4 modelos de unidades de ventiladores
serpentines. El sistema secundario de distribución de agua helada se encuentra subdividido en 7
circuitos a su vez, para una mejor gestión del sistema en general. Las habitaciones son
alimentadas por tres de ellos: uno para los pisos del primero al quinto del bloque A, uno para los
pisos del sexto al noveno de ese mismo bloque y uno para los cuatro pisos del bloque B. El
resto de los circuitos están destinados a otras áreas de la instalación. El caudal de agua de los
circuitos destinados a las habitaciones es el 50% del caudal total del sistema secundario.

La mayor fuente de ganancia térmica en las habitaciones, desde el punto de vista constructivo,
está relacionada con una amplia puerta de cristal que separa la habitación del balcón. Por otra
parte en el interior de cada habitación se encuentra un mobiliario abundante, varios equipos
electrodomésticos, así como abundante iluminación que también transfieren calor al local, al
igual que los ocupantes.

En el hotel existen dos subestaciones eléctricas y un grupo electrógeno. Las cargas eléctricas se
encuentran distribuidas entre ambas subestaciones. La carga eléctrica asociada a la
climatización de las habitaciones se encuentra conectada, en su mayoría, a la subestación
número 2. No se encuentran conectados a esta subestación los motores de los ventiladores de los
fan coils de las habitaciones del segundo bloque del hotel. Por esta razón cualquier cálculo del
consumo energético de la climatización de las habitaciones siempre se compara con los registros
de consumo de la subestación número 2 o también nombrada T2, (1)

El consumo eléctrico del hotel representa alrededor de 8 GW anuales.

Hotel Parque Central La Torre

El bloque hotelero es una ampliación del hotel “Parque Central”. Está clasificado como un
hotel de ciudad. Cuenta con un total de 148 habitaciones, distribuidas a lo largo de 9 pisos. Se
encuentra ubicado en el norte de la Habana, en una importante zona de la Habana Vieja. Las
habitaciones se subdividen en 20 tipos diferentes atendiendo a sus dimensiones. A diferencia de
las habitaciones del hotel “Meliá Habana”, las ventanas hacia el exterior no ocupan toda la
superficie del área exterior. El mobiliario y el equipamiento interior también son abundantes en
correspondencia con la categoría del alojamiento, (8).

El sistema de climatización utilizado en el bloque habitacional es centralizado y el líquido


refrigerante utilizado es agua helada. El sistema, como tal, consta de 2 unidades enfriadoras del
tipo LCAE-X, diseñadas para usar R134a como sustancia de trabajo. Cada unidad enfriadora
presenta una potencia térmica de 386 kW. La unidad terminal empleada para la climatización de
las habitaciones también son los fan coils. Las unidades de fan-coils que se encuentran
instaladas son de la firma “MagicAire” de la serie HBB de la cual se encuentran dos modelos: el
06 y el 08,

El consumo eléctrico del hotel “Parque Central, La Torre” representa alrededor de 2 GW


anuales.

Para ambos hoteles los gastos por concepto de climatización se dividen en tres categorías:
gastos fijos, gastos de salones de eventos y gastos de habitaciones.

Los gastos fijos no dependen de la ocupación del hotel y están asociados con el funcionamiento
básico de la instalación, independientemente de la afluencia de turistas. Comprende las áreas de
uso general como son el recibidor, el centro de negocios, los restaurantes, las oficinas, los
almacenes, la planta real, la cocina central, los locales tecnológicos y otros.

Los gastos de salones de eventos dependen del uso que se les dé a los mismos y de la
programación del hotel. Los gastos de las habitaciones están estrechamente relacionados con la
cantidad de turistas hospedados. Para este estudio en particular será analizada la climatización
de las habitaciones, partiendo del criterio que el alojamiento del hotel debe constituir la
principal fuente de ingresos del mismo.

En la figura #1 se representa el consumo eléctrico de los hoteles durante el año 2012.


Consumo eléctrico vs. Habitaciones ocupadas, 2012
90

Hotel "Meliá Habana"


80 Hotel "Parque Central, La torre"

70
[kw h/HDO]

60

50

40

30
0 2 4 6 8 10 12
Meses del año 2012
Figura #1. Comportamiento de la relación kW h consumidos y habitaciones ocupadas durante
los 12 meses del año 2012.

La estructura del consumo eléctrico para los dos hoteles se puede observar en las figuras #2 y
#3.

Figura #2. Distribución del consumo eléctrico del hotel “Meliá Habana”, según carga nominal
instalada.

Figura #3. Estructura del consumo eléctrico del hotel “Parque Central, La Torre”, según
mediciones de consumo.

3. Descripción del modelo

El modelo empleado es del tipo directo y su objetivo es predecir las variables de salida, a partir
del conocimiento de la estructura y de los parámetros del sistema, si este es sometido a
determinadas condiciones de las variables de entrada. Este tipo de modelo es ampliamente
utilizado en los programas de simulación desarrollados para el análisis del consumo energético
de edificios que emplea un sistema de calefacción, ventilación y aire acondicionado; como:
“BLAST”, “DOE-2” y “Energy Plus”, (1).

Los procedimientos para estimar el consumo energético varían considerablemente en


dependencia del grado de complejidad del modelo empleado y poseen generalmente tres
elementos comunes, (1):

el cálculo de la carga térmica,

la carga del equipamiento secundario y

el consumo energético del equipamiento primario


Figura #4. Componentes del modelo de predicción energéticas de las habitaciones del hotel.

Cálculo de la carga térmica

La carga térmica, también nombrada carga de enfriamiento, es la cantidad de energía que se


requiere vencer en un área, para establecer determinadas condiciones de temperatura y
humedad. Es la cantidad de energía en forma de calor que se retira de un espacio definido, para
así lograr los valores de referencia deseados. Generalmente su determinación es el elemento más
engorroso de cumplimentar, debido a que contempla todos los procesos de intercambio de calor
que ocurren desde el exterior hacia el interior del edificio y entre las propias fuentes internas de
calor. Los componentes externos que más inciden en la carga son las paredes, los pisos, los
techos, falsos techos, las ventanas y las particiones. Entre las fuentes internas se encuentran los
muebles, los ocupantes, los equipos y la iluminación. Otros factores que también influyen son
las fugas de aire y las infiltraciones.

Con el objetivo de calcular la carga, fue desarrollado un predictor de carga que contempla los
parámetros constructivos del edificio, la época del año, la ocupación, la predicción de la
temperatura exterior e interior, el equipamiento y la iluminación de la zona, que es objeto de
análisis.

El predictor se basa en el método de series de tiempo radiantes (Método RTS) que es un


método derivado directamente del método de balance de calor (4), para cálculos de la máxima
carga térmica instantánea de operación. Este método reemplaza eficazmente otros métodos
simplificados que han sido descritos con anterioridad para el cálculo de la carga y permite
contar con una metodología rigurosa que para su uso, el usuario no requiere realizar cálculos
iterativos y que permite comparar los valores obtenidos de ganancia de calor para cada fuente
(4). Para evadir los cálculos iterativos el método RTS desacopla los procesos de transferencia
de calor, dividiendo las ganancias de calor en fracciones por convección y por radiación y
empleando valores recomendados que están establecidos por tablas, (4). Después que las
ganancias de calor se fraccionan, la porción por convección es una contribución directa a la
carga térmica instantánea, mientras que la porción por radiación es absorbida por los elementos
constructivos y se distribuye nuevamente por convección hacia la zona térmica.

Para la aplicación del método es necesario generar las series de coeficientes que sustentan al
mismo. Estos coeficientes dependen de las características constructivas del edificio. En el
trabajo, los coeficientes de las series de tiempo fueron generados con la ayuda de un programa
desarrollado por Iu, de la facultad de Mecánica y de Ingeniería del Espacio Aéreo de la
Universidad Estatal de Oklahoma, conocido como “PRF/RTF Generator”. Este programa
consiste en una interfaz entre el método y la aplicación, que facilita la instrumentación del
procedimiento RTS.

De esta forma para cada tipo de habitación se dispone de la serie de coeficientes CTS, la serie
de coeficientes RTS y el área de la superficie y los coeficientes de transferencia de calor U.
Cada hora, como variables de entrada, se miden los valores de la temperatura exterior, de la
temperatura en el interior de las habitaciones, de la temperatura del agua helada, de la
temperatura del agua de retorno y se actualiza el vector de habitaciones ocupadas del hotel. Se
asume que los valores de temperatura son los mismos para cada habitación. Con todos estos
datos se calcula la carga térmica de cada habitación, determinando las diferentes ganancias de
calor correspondientes. Luego se suman todas las cargas y se totaliza el resultado para el hotel.
La formalización, parametrización del modelo de predicción de carga térmica se recoge en el
trabajo (1). Sin embargo en el mismo no fueron empleados los modelos del fan coil y de las
enfriadoras que a continuación se describen.

Modelo de operación de los fan coils

Los fan coils constituyen los intercambiadores de calor entre el agua helada procedente de las
enfriadoras y el aire interior de cada habitación. Para modelar este tipo de equipamiento se
empleó el método conocido como efectividad – número de unidades de transmisión (NTU)
desarrollado por Kays y London en 1984 para los intercambiadores de calor. (18). De esta forma
fueron consideradas las ecuaciones de balance de energía en el aire, en el agua y en el
serpentín, simbolizadas por las ecuaciones (1), (2) y (3) respectivamente. La expresión de la
temperatura media logarítmica representada en la ecuación (4) se corresponde con los
intercambiadores de calor de tipo paralelo o de flujo a contracorriente. La solución de estas
ecuaciones fue implementada a través de un método de prueba y error utilizando una función de
optimización del MATLAB, (11).

Tabla 1: Variables y parámetros del modelo de los fan coils


Variables Descripción

y Parámetros

Q Calor total transferido del aire al agua, [W]

magua Caudal másico del agua, [kg/s]


maire Caudal másico del aire, [kg/s]

Ce,aire Calor específico del aire, [J/kg °C]

Ce,agua Calor específico del agua, [J/kg °C]

T1,agua Temperatura del agua a la entrada del fan coil, [°C]

T2,agua Temperatura del agua a la salida del fan coil, [°C]

T1,aire Temperatura inicial del aire, [°C]

T2,aire Temperatura final del aire, [°C]

U Coeficiente de transmisión, [W /°C/m2]

A Superficie del área de contacto del serpentín, [m2]

MLDT Media logarítmica de temperatura

Modelo de las enfriadoras

En la modelación de las enfriadoras se emplea el modelo físico simplificado propuesto por


Gordon y Ng en el año 1994, (4). El modelo predice la dependencia del coeficiente de
eficiencia, conocido como COP, de la temperatura del agua de salida del evaporador, de la
temperatura del agua de retorno al condensador y de la capacidad frigorífica de la enfriadora.
Ver ecuaciones (5) y (6). En la Tabla 3 se detallan las variables utilizadas en este modelo. Los
coeficientes A0, A1, y A2 se calculan por métodos de mínimos cuadrados, a partir de los datos
de operación proporcionados por los fabricantes de las enfriadoras.

(5)

(6)

El empleo de modelos dinámicos para describir la operación de los fan coils y de las enfriadoras
posibilita un mejor ajuste de la estimación del consumo eléctrico de las enfriadoras por concepto
de climatización de las habitaciones ocupadas del hotel.

Tabla 2: Variables y parámetros del modelo de las enfriadoras


Variables Tipo Descripción

Tent cond Entrada Temperatura del aire a la entrada del condensador, [°C]

Tevapsal Entrada Temperatura del agua a la salida del evaporador, [°C]

Qevap Entrada Capacidad frigorífica, [W]

Ecomp Salida Potencia eléctrico del compresor, [W]

COP Salida Coeficiente de eficiencia de las enfriadoras.

A0,A1,A2 Parámetros Coeficientes inherentes a las características de la enfriadora

4. Resultados

Para la obtención de los resultados en ambos hoteles fueron utilizados los registros de
mediciones de los hoteles. También se emplearon las ecuaciones descritas en el libro de
Sicrometría práctica de Acosta Marrero, (2).
En el caso del hotel “Meliá Habana”, los registros se corresponden al mes de mayo del año
2008, al igual que los resultados de las mediciones de la temperatura interior realizada en una
habitación ocupada del hotel durante 20 días. El consumo eléctrico de las enfriadoras en el
“Melía Habana” no se encuentra independizado, por lo que los resultados son comparados con
los valores reales de consumo alcanzados en la subestación T2, donde se encuentran conectadas
las unidades enfriadoras. Es necesario aclarar que en el consumo eléctrico estimado no ha sido
considerado el consumo de las bombas, ni el consumo de las habitaciones desocupadas. En la
tabla 3 se representan los valores obtenidos para el modelo y los registros reales de consumo de
la subestación T2 y del total (T1+T2) del hotel.

Tabla 3: Resultados de la aplicación del modelo a las habitaciones del hotel “Meliá Habana”.
Fecha 2008 Habitaciones Promedio de Carga Consumo Consumo de % del Consumo % del
ocupadas la Frigorífica eléctrico de la consumo eléctrico consumo
Temperatura Diaria de las las subestación eléctrico de total del eléctrico de
Exterior habitaciones enfriadoras T2 [kWh] las hotel [kWh] habitaciones
[°C] ocupadas calculado habitaciones climatizadas
[kWh] por modelo climatizadas en el total
[kWh] en T2 del hotel

02-may 386 25,3 28204,2154 8502,65446 14110 60,3 22650 37,5


03-may 357 25,8 26260,7259 8437,96068 14090 59,9 22280 37,9
04-may 392 26,3 28727,9533 8682,6887 15537 55,9 23845 36,4
05-may 316 26,2 23036,4404 8366,30677 14851 56,3 23071 36,3
06-may 392 26,2 28564,0603 8682,57823 17088,0 50,8 26004,0 33,4
07-may 392 26,1 28747,0539 8653,15084 15958,0 54,2 24686,0 35,1
08-may 243 27,8 17866,4154 6621,74636 17391,0 38,1 25756,0 25,7
09-may 235 28,6 17308,2169 5867,65364 17914,0 32,8 26474,0 22,2
10-may 258 28,4 19264,1156 7731,74573 19434,0 39,8 27777,0 27,8
11-may 259 29,8 19586,2373 8222,71026 18624,0 44,2 26723,0 30,8

Como complemento de la comparación de los resultados, fue aprovechada la disponibilidad de


las mediciones de la temperatura del agua impulsada hacia los fan coils de las habitaciones y la
temperatura del agua que retorna. La figura #5 ilustra la comparación entre las dos series de
valores correspondientes a los días desde el 2 de mayo hasta el 11 de mayo del 2008.

Temperatura del agua helada que retorna de las habitaciones 2-11/5/2008


16
modelo
15 mediciones

14

13
Tret, [°C]

12

11

10

7
0 50 100 150 200 250
Horas
En el caso del hotel “ Parque Central, La Torre”, los registros conciernen a los días 30 de abril,
1 y 2 de mayo del año 2013. También para el estudio fueron realizadas mediciones de la
temperatura interior en una habitación ocupada del hotel. Los registros reales del hotel cuentan
con mediciones independientes para el consumo eléctrico de las climatizadoras, lo que facilita la
comparación de los resultados. Sin embargo no se pudo obtener el registro de las mediciones de
la temperatura del agua de retorno.

En la tabla 4 se representan los valores obtenidos para el modelo y los registros reales de las
habitaciones del inmueble hotelero.

Tabla 4: Resultados de la aplicación del modelo a las habitaciones del hotel “Parque Central, La
Torre”.
Fecha Habitaciones Temp. Consumo Consumo % del consumo Consumo % del % del consumo
2013 Ocupadas Ext [°C] eléctrico eléctrico eléctrico de la eléctrico consumo eléctrico de la
enfriadoras enfriadoras climatización total del eléctrico de climatización
(modelo) (real) [kWh] de las hotel las de las
[kWh] habitaciones en [kWh] enfriadoras habitaciones en
el consumo real en el total el consumo
de las del hotel total del hotel
enfriadoras
30-Abr 143 26,54 2150 2681 82,7 6219 43,1 34,5
01-may 144 26,72 2236 2950 75,8 6156 47,9 36,3
02-may 133 26,41 2069 2500 82,8 5890 42,4 35,1

5. Conclusiones

La obtención de un modelo de predicciones del consumo eléctrico de la climatización de un


hotel posibilita conocer con antelación el comportamiento de este importante indicador para
tomar las medidas necesarias en aras de disminuirlo.

La aplicación del modelo a dos instalaciones hoteleras diferentes, permite considerar la futura
generalización del mismo a otros hoteles.

El consumo eléctrico de la climatización de las habitaciones ocupadas alcanza en ambos hoteles


alrededor de un 30% del consumo total, lo que debe ser objeto de estricta atención. En ninguno
de los dos casos fue considerado el consumo eléctrico de las habitaciones desocupadas por
clientes, y ocupadas por personal de servicio.

La ocupación, las variables meteorológicas, y los parámetros geográficos y constructivos son


elementos imprescindibles a tener en cuenta durante la modelación del sistema de climatización
centralizado de las habitaciones.

Los resultados obtenidos posibilitan el uso del modelo para otras aplicaciones más complejas
como son la utilización de técnicas de control predictivo basado en modelo no lineal en la
regulación de la eficiencia energética de los edificios hoteleros.

Recomendaciones

El estudio debe ser ampliado a otras áreas climatizadas del hotel que también poseen una alta
incidencia en el consumo eléctrico del edificio.
Es importante velar desde la misma etapa de diseño de contar con toda la información requerida
para aplicar modelos que garanticen el seguimiento de la dinámica actuante.
Agradecimientos

Este trabajo no hubiera sido posible sin la ayuda del personal de las instalaciones hoteleras que
facilitaron las mediciones en las habitaciones y los registros históricos de consumo energético,
así como de los especialistas del grupo “Cubanacán”.

Referencias

1. Acosta C. A., González A. I., Zamarreño J.M. and Castelló V., 2011. “Modelo para la
predicción energética de una instalación hotelera”. Revista Iberoamericana de Automática e
Informática. http://www.revista-riai.org. España Vol. 8.
2. Acosta Marrero G., 1998. “Sicrometría práctica del aire exterior “. Editorial Científico-
Técnica. Ciudad de la Habana. Cuba.
3. ASHRAE, 2007. ASHRAE Handbook. Chapter 5, “Hotels, Motels, and Dormitories”.
ASHRAE Handbook Editor.
4. ASHRAE, 2009. ASHRAE Handbook. Chapter 18, “Nonresidential cooling and heating
load calculations”. ASHRAE Handbook Editor.
5. Carrier, 2012, “Eficiencia Energética”. Departamento técnico.
6. Castilla M., Álvarez J.D., Berenguel M., Pérez M., Rodríguez F. and GuzmánJ.L., 2010.
“Técnicas de control de confort en edificios”. Revista Iberoamericana de Automática e
Informática. http://www.revista-riai.org. España.
7. Fernández Pizat, J.F., 2012. “Disminución del consumo energético en los sistemas de
climatización de hoteles cubanos.
8. Hernández Juvier Y. A., Díaz Serret M.A., 2013. “Modelado y control del consumo
energético del bloque habitacional del hotel Parque Central La Torre”. Tesis de grado.
CUJAE. La Habana. Cuba.
9. López Felix, 2012. “El turismo en la brújula de Cuba”. Periódico “Granma”. Cuba. 12 de
Octubre del 2012.
10. Marik K., Rojicek J.,Stluka P. and Vass J.,2011.”Advanced HVAC Control: Theory vs.
Reality”. Preprints of the 18th IFAC World Congress. Milano. Italy. pp. 3108-3113.
11. MatLab® 7.12.0.635 (R2011a), “Ayuda de la herramienta”, versión 7.0, 2011.
12. Montelier Hernández, Borroto Nordelo, Lapido Rodríguez, Monteagudo Yánez, Álvarez
Guerra Plasencia, Armas. 2005. “Influencia de las principales variables climatológicas en la
operación de los sistemas de climatización por agua helada”. Cuba.
13. Montelier S., Barroto A.,De Armas M. y Gómez J.,2008. Procedimiento de optimización de
la temperatura de agua helada en sistema de climatización centralizados a flujo constante”.
CubaSolar. Cuba.
14. Montero R, Pérez C., Góngora E., Marrero S., 2009. “Predicción del consumo de
electricidad y gas LP en un hotel mediante redes neuronales artificiales”. Energética.
Volumen 42. Medellin. Colombia.
15. Montero, R.L, Hechavaria, J.H y Nordelo, A.B., 2011.”Carga térmica y consumo energético
en edificación turística con climatización centralizada a flujo variable”. Instituto Superior
Minero Metalurgico. Universidad de Holguin, Cuba. Universidad, Ciencia y Tecnología.
Versión impresa ISSN 1316-4821. uct v.15 n.61 Puerto Ordaz.
16. Nodal, Y.V, Rodríguez, M.L, Sarduy, J.R,2012. Optimización de sistemas centralizados de
agua helada en la etapa prematura del diseño comercial. Universidad de Cienfuegos Carlos
Rafael Rodríguez. Centro de Estudio de Energía y Medio Ambiente. Ingeniería Mecánica.
Vol. 15. No. 1. p. 54-65
17. Pérez Ajo P., 2010. “Ahorro Energético y Control Distribuido en Sistemas de Clima
Centralizado”. XIV Congreso Latinoamericano de Automática. Chile.
18. TROTT A. R. and WELCH T.,2000.” Refrigeration and air-conditioning.”. Third edition
by Butterworth-Heinemann.
19. Vega B.G., Bombino O., Cigler J., Oldewurtel F., Rodríguez M. Á., 2013. ”Model
Predictive Control for a Tropical Island Hotel”. Paper ID 975. CLIMA 2013: 11th REHVA
World Congress & 8th International Conference on IAQVEC. Czech Republic.
TCA2013 1

Diseño de un sistema de Vigilancia Tecnológica utilizando


técnicas de minería web para identificar las líneas investigativas
más prometedoras para los científicos del ICIMAF.
Autores:

Elina Mylen Montero Puñales, elina@icimaf.cu, ICIMAF

Armando Plasencia Salgueiro, armando@icimaf.cu, ICIMAF

Ileana Suarez Blanco, ileanasb@icimaf.cu, ICIMAF

Resumen— En el presente trabajo se muestra la labor y protección de la información obtenida de modo legal, útil
realizada para lograr la instalación y configuración de la para los actores económicos de una organización para el
plataforma Eclipse, que será manejada en el marco del proyecto desarrollo de sus estrategias individuales y colectivas, con el
como la plataforma de desarrollo común para la configuración de
objetivo final de “ Dar la información correcta a la persona
las herramientas Apache. Se expone la fundamentación teórica
que contiene los conceptos necesarios para la comprensión del correcta en el momento correcto para tomar la decisión
trabajo que se ha realizado y la ilustración de los pasos necesarios correcta”. [2]
para lograr el correcto funcionamiento de la herramienta Apache
Solr. En los resultados obtenidos se muestra la creación de un Para poder hablar de Inteligencia Competitiva en un proceso
proyecto Maven desde Eclipse con dependencias a Solr. de VT (conocido por sus siglas VT-IC) la información captada
por la unidad o personas que realizan vigilancia tecnológica
Palabras Clave — Alrededor de cuatro palabras o frases claves,
en orden alfabético, separadas por comas. debe ser incorporada a los procesos de decisión estratégica y
táctica de la organización.

I. INTRODUCCIÓN A su vez se halla una correlación muy estrecha con la


La información es considerada un recurso de significativa gestión de la información ya que la VT-IC utiliza
importancia para las organizaciones, se ha convertido en un continuamente técnicas de la gestión de la información en
factor estratégico y de gran valor para el buen desempeño de cada uno de sus pasos: captación, filtrado, análisis,
las mismas. Con el creciente desarrollo de las Tecnologías de distribución, almacenamiento y protección de la información.
la Información y las Comunicaciones la web se ha convertido Se utilizan sistemas informáticos que intentan ser un soporte
en una de las fuentes más utilizadas para su búsqueda. Al para estos procesos, pero desde la irrupción de Internet, las
realizar una búsqueda en la web sobre un determinado tema fuentes de información se han disparado, así como las
resulta ser excesiva la cantidad de resultados que es generada. herramientas para su explotación. Dado esta problemática y la
En consecuencia, las organizaciones despliegan una serie de necesidad de realizar búsquedas más exitosas y de describir
acciones encaminadas a garantizar una adecuada gestión de la patrones de comportamientos significativos de los datos estos
información de manera que les garantice el éxito en medio de sistemas comienzan a utilizar técnicas como la minería de
la llamada Sociedad de la Información. Entre las prácticas más datos.
utilizadas para la adquisición y gestión de este recurso se
encuentra la Vigilancia Tecnológica. Las aplicaciones de la minería de datos son bastante
amplias, ya que se puede ver su uso en distintas áreas, tales
La Vigilancia Tecnológica (VT) se define como proceso como Inteligencia Artificial, negocios, terrorismo, informática
organizado, selectivo y permanente de captar información del y comportamiento en internet. Este último caso de estudio,
exterior y de la propia organización sobre ciencia y tecnología, también llamado minería de datos web (Web Mining).
seleccionarla, analizarla, difundirla y comunicarla, para
convertirla en conocimiento para tomar decisiones con menor La minería web es un proceso complejo que comprende el
riesgo y poder anticiparse a los cambios. [1] análisis de información diversa, como el contenido y estructura
de los documentos web (html, xml), archivos de texto, bases
El término de VT está estrechamente relacionado con la de datos, bitácoras de acceso de usuarios, bitácoras de
Inteligencia Competitiva que contempla el conjunto de referencias de otros servidores, perfiles de usuarios y otros,
acciones coordinadas de búsqueda, tratamiento (filtrado, con el fin de encontrar información útil y relevante de acuerdo
clasificación, análisis), distribución, comprensión, explotación a las necesidades de un usuario. Por lo que en un escenario
TCA2013 2

ideal se contaría con un sistema que cuenta con una interfaz Vigilancia Tecnológica (VT). Es por esto que se reconoce a la
que analiza el comportamiento y preferencias del usuario y Vigilancia como un proceso informacional. [3]
realiza peticiones en su representación a una base de
conocimientos que se encuentra estructurada y gestionada La VT es el esfuerzo sistemático y organizado de una empresa,
debidamente para la rápida y correcta recuperación de para la observación, captura, análisis, difusión precisa y
información; en donde dicha base de conocimientos devuelve recuperación de información sobre los hechos del entorno
las respuesta a la interfaz para que esta a su vez le brinde una económico, tecnológico, social o comercial, relevantes para la
respuesta al usuario. misma por poder implicar una oportunidad o amenaza para
ésta. [4]
En el campo de la investigación:
Se puede concluir, que el uso de la VT propicia el
Ante el gran volumen de información que generan las
mejoramiento de la toma de decisiones permitiendo formular
universidades y centros investigativos, surge la necesidad de la
planes y estrategias tecnológicas, minimizando la
contar con un servicio propio y único de vigilancia tecnológica incertidumbre que esta puede traer consigo. Además aporta
a favor de la comunidad académica. nuevos elementos y enfoques que son utilizados para alertar
El Instituto de Cibernética, Matemática y Física (ICIMAF) sobre posibles amenazas y oportunidades reduciendo el riesgo
es un centro de investigación de ciencias en matemática, física para la organización.
y cibernética con una consolidada presencia nacional e
internacional y reconocido prestigio de su colectivo científico Con el desarrollo que han alcanzado las nuevas tecnologías, la
por los resultados obtenidos en las investigaciones y servicios informática ha llegado a jugar un papel fundamental en la
científicos y tecnológicos. Tiene como misión gestionar y gestión de la VT, permitiendo a estas empresas la
ejecutar proyectos de investigación, desarrollo e innovación automatización de sus procesos de gestión, mediante la
con personal motivado y de competencia reconocida; realizar creación de diversas aplicaciones, dichas aplicaciones utilizan
actividades de formación posgraduada, asesorías y servicios técnicas de Minería de datos específicamente la llamada
científicos y tecnológicos que brinden soluciones de alto valor minería web.
agregado, por lo que genera una gran producción científica. La minería web, puede ser clasificada en las siguientes
Para lograr estos objetivos los investigadores deben poder categorías: Minería de uso en la web, minería de la
realizar un mapeo y definir donde se está parado respecto a estructura web, minería del contenido web; la figura 2 sirve
una tecnología, para que pueda conocer qué otras tecnologías para ilustrar el enfoque propuesto.
existen en el mismo campo, lo que dará al científico una idea
acerca de qué tan innovador es lo que se está haciendo.

En el centro no se cuenta con procesos de VT que permitan


facilitar y optimizar la labor investigativa de los académicos,
para que puedan encontrar los campos más fértiles para
descubrir material científico básico y aplicado. Tampoco se
cuenta con sistemas de VT que permitan realizar el rastreo y
búsqueda personalizada de datos y de información en Internet,
la limpieza y procesamiento de estos datos, la visualización de
los resultados de las investigaciones para facilitar el análisis y
la distribución de los mismos interna y externamente.

Por eso los autores planteamos como problema de Figura 2: Mapa conceptual de la clasificación minería Web
investigación: ¿Cómo desarrollar un sistema de vigilancia
tecnológica que facilite la labor de los investigadores? El proceso general de la minería web es el siguiente ver
figura 3:
II. MATERIALES Y MÉTODOS Recuperación de Información (IR): Proceso del
A continuación se exponen algunos fundamentos teóricos descubrimiento automático de documentos relevantes
necesarios para la mejor comprensión del trabajo realizado. de acuerdo a una cierta búsqueda. Documentos
Definición de Vigilancia Tecnológica. relevantes disponibles en la web tales como noticias
electrónicas, newsgroups, newswires, contenido de
La secuencia lógica de las acciones de observación, captación, las html, etc.
análisis, difusión selectiva y retroalimentación sobre los Extracción de Información (IE): Tiene como objetivo
hechos del entorno en las organizaciones, que integradas y transformar los documentos extraídos en el proceso
utilizadas sistemáticamente condicionan posibles cambios en de recuperación de información, en documentos que
la estrategia y en los procesos de innovación, es definida como sean más digeribles, fáciles de leer y de analizar.
Generalización: Reconocimiento de Patrones generales
TCA2013 3

de una página en particular o bien también patrones ¿Cuál es el objeto de la Vigilancia? ¿Qué debemos
de diferentes páginas. vigilar?
Análisis: Una vez que los patrones han sido ¿Qué información debemos buscar?
identificados, la parte humana juega un papel ¿Dónde encontrarla?
importante haciendo uso de herramientas adecuadas ¿De qué forma podemos difundirla?
para entender, visualizar e interpretar los patrones ¿A quién debe dirigirse?
¿Qué medios vamos a utilizar?

Figura 3: El proceso general de la minería web. Respondiendo estas interrogantes se puede definir para el
desarrollo del trabajo:
Los motores de búsqueda han tenido un éxito considerado
gracias a la enorme necesidad que tienen los usuarios de ¿Cuál es el objeto de la Vigilancia? ¿Qué debemos
indagar información no disponibles en sitios físicos y si en la vigilar?
Internet. Un motor de búsqueda tiene como objetivo indexar Se puede definir que se quiere realizar un estudio de VT
archivos almacenados en los servidores web, un ejemplo son orientado a la i+D+i, con el objetivo de realizar búsquedas de
los buscadores de Internet. El resultado de la búsqueda es un los contenidos de la web, posteriormente aplicarle técnicas de
listado de direcciones Web en los que se mencionan temas minería de contenido web para ello se utilizarán las técnicas
relacionados con las palabras clave buscadas. de:
 Minería de páginas web
Basándonos en las descripciones hechas por Henzinger [11]  Minería de resultados de búsqueda
podemos decir que los motores de búsqueda están integrados
básicamente por tres grandes componentes; el crawler, el ¿Qué información debemos buscar?
indexador y el query processor. La información a buscar será aquella relacionada a las líneas
de investigación del centro.
 Crawler: Recorren las páginas recopilando información ¿Dónde encontrarla?
sobre los contenidos de las páginas. Recolectan La información a buscar estará dispersa en la web, tanto en
páginas de manera recursiva a partir de un conjunto la intranet como la internet. Se utilizará la minería de páginas
de links de páginas iniciales. Cuando buscamos una web y se trabajará con datos de tipo: texto libre, páginas
información en los motores, ellos consultan su base escritas en HTML o XML, elementos multimedia y cualquier
de datos, y nos la presentan clasificados por su otro tipo de contenido.
relevancia. De las webs, los buscadores pueden
almacenar desde la página de entrada, a todas las Otro enfoque metodológico lo muestran los autores Ashton,
páginas de la web. Rodríguez y Vargas Que proponen un modelo que realiza un
 Indexador: el objetivo principal del indexador es resumen (ver tabla 1) de los procesos y actividades
procesar las páginas coleccionadas por el crawler. La involucrados en la Vigilancia tecnológica.
indexación proporciona agilidad en las búsquedas, lo
que se traduce en mayor rapidez a la hora de mostrar
resultados.
 Query processor: procesa las consultas de los usuarios
y regresa resultados de acuerdo a esas consultas y de
acuerdo a un algoritmo de posicionamiento.

Luego de los conceptos expuesto en este capitulo se puede


definir que el trabajo a realizar estará centrado principalmente
en la utilización de Minería web, específicamente utilizando la
Recuperación de información y la implementación de técnicas
de minería de contenido web para encontrar patrones
significativos de la información obtenida, para apoyar la toma
de decisiones.

Existen diferentes propuestas metodológicas para el diseño


de sistemas de VT, estas se dirigen a definir los procesos
propios de la organización. Los autores Palop y Vicente
(1999) proponen responder las siguientes interrogantes como
paso inicial. Tabla 1. Fases de los procesos de la vigilancia tecnológica
TCA2013 4

El análisis predictivo es una rama de la inteligencia de


Es de destacar la semejanza de estas fases de vigilancia con negocios y utiliza la minería de datos para realizar
las fases propuestas por la metodología CRISP-DM para la predicciones del futuro. Las predicciones le dicen cuales son
realización de un proceso de minería de datos. las posibilidades de que un determinado evento tenga lugar o
1. Comprensión del Negocio (FASE I) no, bajo qué circunstancias o las tendencias a seguir.
2. Comprensión de los datos (FASE II)
3. Preparación de los datos (FASE II) La idea de una solución consta de realizar la búsqueda y una
4. Modelado (FASE III) vez que las páginas relevantes del texto son obtenidas, tales
5. Evaluación (FASE III) páginas deben ser minadas para la detección de los tópicos.
6. Despliegue (FASE IV) Varios pre procesamientos de minería de textos, tales como
eliminación de las palabras vacías, radicalización, etiquetado
POS, eliminación de la ambigüedad, etc. Son ejecutadas para
limpiar el texto obtenido. Posteriormente son aplicadas las
técnicas de minería de texto como agrupamiento y
clasificación para categorizar el texto y obtener tópicos
relevantes. Los algoritmos de detección de tendencias son
aplicados para detectar los tópicos que identifican las
tendencias actuales en los tópicos obtenidos. Varias
metodologías de análisis predictivo son aplicadas a las
tendencias obtenidas para predecir su futuro. La salida final, o
sea, la tendencia futura predicha es necesario presentársela al
usuario a través de varias técnicas de visualización. El
Figura 4. Pasos del proceso de la metodología CRISP-DM algoritmo propuesto tiene cinco pasos fundamentales:

1. Rastreo de los datos de varios sitios Web.


III. RESULTADOS Y DISCUSIÓN 2. Detección de tópicos.
Siguiendo los pasos de la metodología propuesta el 3. Detección de tendencias,
desarrollo de las fases se muestra a continuación. 4. Visualización de las tendencias y su futuro esperado.

Fase I: Planeación e identificación de necesidades: Fase II: Identificación, búsqueda y captación de


Las necesidades que se pueden identificar son las siguientes: información.
Se tiene un grupo de científicos los que han definido las Para desarrollar esta fase se utilizarán las técnicas de
principales líneas de investigación para realizar su trabajo, Recuperación de información con el desarrollo de un buscador
pero se desea saber que otros campos pueden ser prometedores web creado sobre tecnologías Apache.
para el desarrollo. Herramientas Apache para implementar la arquitectura de
Recuperación de Información.
Planeación: Apache Software Foundation (ASF) es una organización no
Para dar respuesta a esta problemática se pretende utilizar lucrativa (en concreto, una fundación) creada para dar soporte
Minería web, específicamente utilizando la Recuperación de a los proyectos de software bajo la denominación Apache.
información mediante la creación de un motor de búsqueda Apache Software Foundation es una comunidad
desarrollado sobre tecnologías Apache y la implementación de descentralizada de desarrolladores que trabajan cada uno en
técnicas de minería de contenido web para encontrar patrones sus propios proyectos de código abierto. Los proyectos
significativos de la información obtenida, para apoyar la toma Apache se caracterizan por un modelo de desarrollo basado en
de decisiones. También para poder definir las áreas más el consenso y la colaboración y en una licencia de software
prometedoras para la investigación se debe realizar una abierta y pragmática. Cada proyecto es gestionado por un
detección de tendencias. grupo autoseleccionado de expertos técnicos que son
participantes activos en dicho proyecto.
Detección de tendencias: Para implementar la arquitectura necesaria de un sistema
De acuerdo a las características de la información recuperación de información la ASF ha propuesto la
disponible en la Web ya enunciadas una de las líneas de utilización de herramientas para aplicaciones que requieren
investigación más actuales es la realización de la detección de una gran capacidad de cómputo para su ejecución, como son
tendencias y el análisis predictivo (TDPA) en las ciencias y en Vigilancia tecnológica, Biblioteca digital, Astrofísica, etc. La
particular las ciencias de la vida para detectar las tendencias utilización de Solr y Nutch para la búsqueda y rastreo en la
emergente y atender las necesidades de los investigadores con Web, y para la realización de la determinación de patrones y
el empleo de la minería de textos. relaciones en la información, mediante el empleo de la minería
TCA2013 5

de textos, la bibliominería, etc., el empleo de Mahout con sus es muy grande, posiblemente demasiado grande para una sola
algoritmos de aprendizaje automático. Esta idea se representa máquina. Esta implementación está escrita en Java y algunas
en la figura 5. de sus partes están construidas el proyecto de computación
Nutch es un programa de código libre diseñado distribuida Hadoop. Este es una biblioteca de Java, o sea no
especialmente para realizar las tareas de robot de búsqueda, proporciona una interface de usuario, un servidor pre-
esto es, para rastrear la web recuperando las páginas que empaquetado, o un instalador. Este es un marco de
componen la red a través de la estructura de enlaces existente herramientas que pretenden ser utilizadas y adaptadas por los
entre ellas. Nutch crea una base de datos con todos los enlaces desarrolladores [13].
encontrados, al tiempo que guarda una copia de todas las
páginas localizadas y el resultado del análisis de su contenido, Algunos de los algoritmos se mencionan a continuación:
pues incorpora parsers para muchos formatos, no solamente Clasificación Agrupamiento (Clustering)
HTML. (Clasification)
Solr es el programa de código libre perteneciente al Regresión Logística Reference Reading
proyecto Apache que se ocupa de las tareas de búsqueda y Naïve Bayes Canopy Clustering
recuperación de información. Solr emplea la librería Lucene
Support Vector
para las tareas esenciales de indexación y recuperación, pero a K-Means Clustering
Machines
través de Tomcat o Jetty permite una configuración externa
Perceptron Fuzzy K-Means
integral que posibilita el desarrollo de cualquier aplicación de
Redes neuronales Expectation Maximization
búsqueda y recuperación de manera relativamente sencilla. Sin
embargo, es necesario instalar por separado Nutch y Solr, Random Forests Mean Shift Clustering
configurarlos correctamente, y posteriormente integrarlos de Restricted Boltzmann
Hierarchical Clustering
manera que las páginas obtenidas con Nutch puedan ser Machines
indexadas y recuperadas mediante Solr. Online Passive
Dirichlet Process Clustering
Aggressive
Boosting Latent Dirichlet Allocation
Hidden Markov Models Spectral Clustering
Minhash Clustering
Top Down Clustering

Fase IV: Proceso de comunicación y toma de decisiones.


Para presentar la información se generará un reporte que
apoyará a la toma de decisiones para definir las áreas de
investigación más prometedoras.
Figura 5. Arquitectura de recuperación de información en la Grid
[12 modificado por los autores]

IV. CONCLUSIONES
Fase III Organización, Depuración y Análisis de la
Información: El trabajo realizado:
Para realizar el análisis de la información y descubrir
patrones en los datos se utilizará la minería de contenido web  Presenta un estudio de los principales conceptos y
y el estudio de tendencias. Para realizar la minería del características de VT-IC.
contenido web y el estudio de tendencias se utiliza la
aplicación de la herramienta Mahout integrada al buscador  Realiza un acercamiento a los fundamentos de la
que permite mediante sus algoritmos el agrupamiento y la minería de datos, profundizando en la minería web.
clasificación categorizar el contenido obtenido del proceso de
 Permitirá el posterior desarrollo de un sistema de
RI.
Vigilancia Tecnológica el cual facilitará la labor
Mahout es una biblioteca de aprendizaje automático en investigativa de los académicos, para que puedan
código abierto de Apache. Los algoritmos implementados
realizan en lo fundamental las funciones de motores de encontrar los campos más fértiles para descubrir
recomendación (filtraje colaborativo), agrupamiento y material científico básico y aplicado.
clasificación. También Mahout es extensible. Mahout tiene la
finalidad de ser una herramienta de aprendizaje automático a
seleccionar cuando la colección de los datos a ser procesados
TCA2013 6

REFERENCIAS [8] Raymond J. Mooney. Text Mining with Information Extraction.


Multilingualism and Electronic
[1] Según la norma UNE 166006:2006. [9] Marti A. Hearst. Untangling Text Data Mining. Proceedings of ACL'99:
[2] Michael E. Porter (Harvard Business School) the 37th Annual
[3] DELFOS. Consultoría del ministerio de la informática y las [10] Ricardo Baeza-Yates and Berthier Ribeiro-Neto. Modern Information
comunicaciones. Ciudad Habana: s.n., Abril 2007. retrieval. ACM Press.
[4] VICENTE, PALOP . 1999. [11] Henzinger M. “Web Information Retrieval an Algorithmic Perspective”,
[5] León López, a. M. Y Domínguez., Castellanos. [En línea] 2006. European Symposium on Algorithms, p 1-3, 2000
[6] Dra., Ing. Mercedes Delgado Fernández; et al* Facultad de Ingeniería [12] Larson R., Grid-based Digital Libraries and Cheshire3. UC Berkely
Industrial, Instituto Superior Politécnico “José Antonio Echeverría” School of information. 2006. PPT.
(CUJAE) [13] Owen S. et al. Mahout in Action. 2012 by Manning Publications.
[7] Bamshad Mobasher. Web Usage Mining and Personalization. CRC Press
LLC. 2004
TCA2012 1

DISEÑO Y SIMULACIÓN DE UNA RNA


PARA LA NAVEGACIÓN DEL MINI ROBOT
MÓVIL “RICIMAF”
Autor: Yarán Manuel Ortega Corteguera

Resumen— El presente trabajo tiene como objetivos una meta. Se trata de controlar el robot para que navegue por
principales diseñar, simular y validar una Red Neuronal Artificial el entorno, evitando los obstáculos y alcanzando la meta.
(RNA) que actuará como el núcleo de decisión en la estrategia de Existen varios enfoques para intentar resolver este problema,
autoguiado de un robot móvil en entornos desconocidos. La
por un lado, se está trabajando en mejorar los métodos clásicos
estructura propuesta para la red neuronal está basada en
arquitecturas de tipo Perceptrón Multicapa (MLP) y su de planificación de trayectorias, como los grafos de
entrenamiento se realiza mediante el algoritmo Backpropagation visibilidad, los diagramas de Voroni, etc. [2]; y por otro, las
(BP). Diferentes trabajos con arquitecturas modulares neuronales investigaciones se encaminan hacia sistemas de control
señalan que éste tipo de estructura provee un control apropiado inteligentes, basados en técnicas de Inteligencia Artificial
de robots en tareas vinculadas a detección y evasión de obstáculos como son la Lógica Fuzzy [3], [4] y las Redes Neuronales [5],
y han sido frecuentemente utilizados en el mundo real. En este
[6]. Estos sistemas han permitido abocar muchos de los
trabajo se propone la adición de una entrada a la RNA no
recogida en la literatura especializada consultada. En la fase de problemas de control gracias a su capacidad de emular algunas
desarrollo se han tenido en cuenta las peculiaridades del mini características propias de los humanos.
robot móvil RICIMAF, sobre el que se implementará la red En este trabajo se pretende aprovechar la capacidad de
neuronal y por tanto se realizaron algunas aproximaciones generalización de las redes neuronales para resolver los
necesarias. problemas que se plantean en la navegación de un robot móvil
Palabras Clave — Algoritmos de Retropropagación, detección
en un ambiente desconocido. Este es un trabajo de simulación
de obstáculos, evasión de obstáculos, inteligencia artificial, para su posterior implementación en el mini robot móvil
navegación de robots, redes neuronales. RICIMAF.
El resto del artículo se organiza de la siguiente manera: en
el epígrafe II se presentan algunas características del robot
I. INTRODUCCIÓN RICIMAF, el cual constituye la razón de esta investigación; en
Paulatinamente el uso de los robots se hace más popular y el epígrafe III se modelan las peculiaridades del sistema en
en muy distintos ámbitos, llegando a tener tal impacto que estudio; en el epígrafe IV se realiza una breve introducción a
actualmente sus aplicaciones se encuentran desde el campo del las redes neuronales y se expone el proceso de diseño y
entretenimiento hasta grandes proyectos de investigación a entrenamiento de la Red Neuronal Artificial (RNA) utilizada;
nivel mundial. en el epígrafe V se explican los pasos seguidos para la
Estimaciones recogidas en la literatura especializada validación de los resultados; y en los últimos epígrafes se
afirman de que para 1995 se encontraban funcionando unos arriba a las conclusiones del trabajo y se exponen las
700,000 robots en el mundo industrializado. Más de 500,000 referencias bibliográficas.
se empleaban en Japón, unos 120,000 en Europa Occidental y
unos 60,000 en Estados Unidos [1]. Hoy en día es difícil
realizar una aproximación de tales estimados. El empleo de los II. DESCRIPCIÓN DEL “RICIMAF”
robots se ha hecho tan popular dado que son unos excelentes El mini robot móvil elegido para la posterior fase de
auxiliares en tareas con alto grado de riesgo o trabajos que implementación de los resultados alcanzados en este trabajo es
suelen ser desagradables para el ser humano. Los robots el Robot del Instituto de Cibernética, Matemática y Física
pueden realizar tareas monótonas y repetitivas durante las 24 “RICIMAF” [7].
horas sin bajar su rendimiento. Este es un robot flexible creado con fines docentes e
Uno de los retos tecnológicos más importantes en el campo investigativos, cuyo sistema de control central está basado en
de la robótica móvil lo constituye la navegación autónoma de el microcontrolador PIC16F628A. Su sistema de tracción y
robots en entornos desconocidos. Actualmente, un gran dirección al mismo tiempo, es de tipo diferencial, con una
número de investigadores centran sus estudios en el desarrollo rueda loca y dos ruedas motrices accionadas por motores de
de técnicas de control y navegación de robots. De forma paso. Básicamente el robot puede realizar tres tipos de
resumida, el problema que se plantea puede enunciarse de la movimiento: en línea recta, en arco, y rotación (vuelta sobre su
siguiente manera: un robot móvil se encuentra situado en un propio eje).
determinado ambiente, que contiene una serie de obstáculos y A este robot se le ha añadido cinco pares de sensores
TCA2012 2

emisor-receptor de señales de ultrasonido en su parte


delantera, para detectar la presencia de obstáculos y la El ángulo θ se aproxima a una de las ocho posiciones
distancia a los mismos. Estos sensores se encuentran en una señaladas en la Fig. 2.
interfaz electrónica gobernada por un microcontrolador
PIC16F683 y un sistema de multiplexado.
Para que este robot pueda navegar en un ambiente
desconocido tiene que ser capaz de efectuar unos movimientos
tan intuitivos como los que realizaría una persona que se
encontrara en su misma situación.
Los humanos no tenemos un mapa o un sistema de
coordenadas en base al cual navegamos, simplemente
observamos el entorno y vamos decidiendo en cada instante la
acción que tenemos que ejecutar para continuar avanzando
hacia nuestro objetivo. Lo que se pretende es que el robot
Fig. 2: Ángulo de orientación del robot.
actúe de igual forma que una persona, es decir, que capte
información sobre su entorno a través de los sensores y en
Otra variable importante es el ángulo „α‟ de orientación con
función de ella “decida” qué acción debe llevar a cabo para
la meta, que representa el giro que debe efectuar el robot desde
continuar su camino. No se puede pretender que el robot
su posición para quedar orientado hacia la meta [8]. El valor
aprenda todas las situaciones que posiblemente se le vayan a
de este ángulo puede variar entre –179º y 180º, considerando
presentar durante la navegación. Para resolver este problema
positivos los ángulos efectuados en sentido horario y negativos
las personas recurrimos al proceso de generalización, que nos
los realizados en sentido contrario. En la Fig. 3 se representa
permite solucionar un caso particular, cuando se asemeja a un
un ejemplo del ángulo α negativo.
caso general conocido. Una de las principales características
de las redes neuronales es precisamente su capacidad de
generalización, por tanto, son una herramienta ideal para
proporcionar al robot la capacidad de decidir en cualquier
situación, incluso cuando dicha situación no se le haya
presentado anteriormente.

III. MODELADO DEL SISTEMA


El ambiente donde navega el robot es un área cuadrada
delimitada por paredes. En el interior del ambiente se
distribuyen de forma aleatoria varios obstáculos que el robot
tendrá que evitar. Fig. 3: Ángulo de orientación a la meta α.
Las variables de interés para el control del robot son las
coordenadas cartesianas (x, y) y el ángulo θ que representa la Con el fin de facilitar el aprendizaje de la red, se va a
orientación del robot dentro del ambiente, referida a un codificar el rango de valores de este ángulo, de acuerdo con
sistema de coordenadas global. Este sistema coordenado los siguientes criterios:
absoluto tiene como referencia la indicada en la Fig. 1, donde Si el ángulo está comprendido entre –179º y – 11º se
el origen se encuentra en la esquina inferior izquierda de la codifica como –1.
imagen, el eje x aumenta de izquierda a derecha y el eje y de Si está comprendido entre –10º y +10º se codifica
abajo hacia arriba. como 0.
Si está comprendido entre +11º y +180º se codifica
como 1.
Por tanto, el ángulo α se representará por los valores –1, 0,
ó 1.
Otra variable que se ha tenido en cuenta para la modelación
realizada es la magnitud λ, que representa la distancia hasta un
obstáculo a la cual el robot adquiere un comportamiento
reactivo. Los valores que propician su cambio son originados
por las mediciones efectuadas por los sensores ultrasónicos.
Esta magnitud se ha codificado en un rango de tres valores -
1, 0, ó 1:
Fig. 1: Sistema de coordenadas absolutas. Si el obstáculo se encuentra alejado del robot adquiere
TCA2012 3

el valor 0. objeto se activará la señal lógica 1 y si no la señal activa será


Si el obstáculo se encuentra a una distancia un 0. El campo de acción de estos sensores presenta una
relativamente cerca (distancia de evasión) adquiere el directividad típica de unos 55º y un alcance máximo de 300
valor 1. cm [10].
Si el obstáculo se encuentra a una distancia crítica B. Comportamiento reactivo
adquiere el valor -1.
En este trabajo se ha considerado para el modelado del
Las magnitudes umbrales para los cambios en el código de
comportamiento reactivo del robot que el mismo sólo puede
esta variable son fijados por el especialista y dependen de las
realizar tres movimientos básicos (ver Fig. 6), que son:
características cinemáticas del robot.
Esta variable se incluye con el fin de obtener una mejoría en Girar -45º y avanzar.
el desempeño de la RNA que se desarrolla en este trabajo. Avanzar sin giro.
Girar 45º y avanzar.
A. Sensores de ultrasonido
Tanto en la actualidad como en el pasado, numerosos robots
móviles han utilizado sistemas de medición basados en
sensores de ultrasonido para realizar tareas de navegación por
el entorno, como por ejemplo, evitar obstáculos, seguir
paredes, atravesar puertas, etc. Las razones de su utilización
son numerosas y entre ellas cabe destacar su bajo costo,
velocidad de procesamiento y una aceptable precisión [9].
Fig. 6: Movimientos reactivos del robot.

La determinación de estos movimientos básicos responde


fundamentalmente a la disposición física de los sensores de
ultrasonido sobre la estructura del mini robot.

IV. REDES NEURONALES ARTIFICIALES (RNA)


Las RNA funcionan siguiendo el principio de tratar de
imitar en lo mayor posible a los sistemas nerviosos animales,
es decir, consta de varias entradas (sensores), las cuales son
Fig. 4: Sensores de ultrasonido UCM-R40K1. transmitidas por una serie de n capas neuronales hacia una
capa de salida o respuesta [11].
Como se mencionó anteriormente el robot móvil tiene a Dentro de una red neuronal los elementos de procesamiento
bordo cinco sensores ultrasónicos UCM-R40K1 [10] (ver Fig. se encuentran agrupados por capas. Una capa es una colección
4). Éstos están distribuidos en la parte delantera del robot (ver de neuronas. De acuerdo a la ubicación de la capa en la RNA
Fig. 5), para lograr cubrir un rango de detección de obstáculos ésta recibe diferentes nombres: capa de entrada, capa oculta y
de aproximadamente 180º. Los sensores se encuentran capa de salida (Fig. 7).
ubicados entre sí con una inclinación de 45º respectivamente.

Fig. 5: Ubicación de los sensores de ultrasonido en el RICIMAF.

Estos sensores tienen la capacidad de detectar la presencia Fig. 7: Esquema de una RNA.
de un obstáculo y medir la distancia a la que se encuentra. En
este caso, para su modelación se ha considerado que La neurona artificial fue diseñada para "emular" las
únicamente son de dos estados, de forma que si se detecta un características del funcionamiento básico de la neurona
TCA2012 4

biológica. En esencia, se aplica un conjunto de entradas a la Para la tarea de evitar obstáculos es muy común el uso de
neurona, cada una de las cuales representa una salida de otra una red neuronal del tipo Perceptrón. Algunos trabajos
neurona. Cada entrada se multiplica por su „peso‟ o interesantes se pueden revisar en [3] y [12].
ponderación correspondiente. Todas las entradas ponderadas La arquitectura del Perceptron, llamada mapeo de patrones
se suman y se determina el nivel de excitación o activación de (pattern-mapping), aprende a clasificar modelos mediante un
la neurona. aprendizaje supervisado. Los modelos que clasifica pueden ser
Las RNA aprenden de la experiencia, generalizan de vectores con valores reales y las categorías de la clasificación
ejemplos previos a ejemplos nuevos y abstraen las se expresan mediante vectores binarios.
características principales de una serie de datos. Siguiendo los criterios expresados anteriormente se
Debido a estas peculiaridades, muchos de los sistemas selecciona para el desarrollo del algoritmo de navegación del
inteligentes de generación y seguimiento de trayectorias frente robot RICIMAF un MLP (Prceptrón Multicapa), debido a que
a obstáculos de la robótica móvil en la actualidad están este tipo de redes, por sus características, son muy válidas para
basados en el uso de las RNA. resolver problemas de clasificación como el que nos ocupa. A
esto cabe añadir que presentan una arquitectura relativamente
A. Diseño de la RNA para la navegación del RICIMAF
sencilla para su implementación en el robot.
Existen numerosos trabajos dedicados a la resolución del La Fig. 8 muestra la estructura de la red empleada.
problema de la navegación de robots mediante la utilización de
RNA. Algunos de los trabajos más relevantes fueron
realizados por Ducket y Nehmzow, quienes investigaron
numerosas metodologías posibles.

Fig. 8: Estructura de la RNA.


valores que hacen que cada entrada produzca el vector de
Esta red está compuesta por siete entradas, cinco neuronas salida deseado [13].
en la capa oculta y tres en la capa de salida. Después del entrenamiento los pesos ya no son modificados
Las entradas a la RNA quedaron definidas de la siguiente y la red está en disposición de responder adecuadamente a las
forma: entradas que se le presenten.
Una entrada por cada sensor de ultrasonido (cinco en Para poder llevar a cabo el proceso de entrenamiento es
total). necesario recopilar una gran cantidad de datos, los suficientes
Una entrada para el ángulo de orientación del robot para que la red pueda aprender a desempeñar la tarea para la
con la meta (α). que ha sido creada.
Una entrada para la magnitud del momento de giro (λ). La red propuesta en el epígrafe anterior es entrenada con
Lo que representa el total de las siete entradas a la RNA. una serie de valores de entrada asociados a la información
Como salidas de la RNA se tomaron los tres arrojada por los sensores y datos odométricos, y una salida
comportamientos reactivos del robot para la navegación, deseada que consiste en una acción a llevar a cabo para evitar
expuestos anteriormente en el epígrafe 3.2. un obstáculo.
Para la creación del set de datos de entrenamiento se siguió
B. Entrenamiento y test de la red el criterio del comportamiento humano, es decir: se tomó
Una de las características más destacables de las redes como primicia de que lo ideal sería poder captar la secuencia
neuronales, es que aprenden a partir de ejemplos. El objetivo de movimientos que efectuaría una persona que guiase al
del entrenamiento de una RNA es conseguir que una robot. Como tenemos 5 sensores en entradas de dos estados,
aplicación determinada, para un conjunto de entradas, entonces tenemos 25 posibles patrones. Además, contamos con
produzca el conjunto de salidas deseadas o mínimamente otras dos entradas de tres estados, por lo que el total de
inconsistentes. posibles combinaciones de entradas a la RNA sería de 2 5*3*3
El proceso de entrenamiento consiste en la aplicación = 288, de las cuales fueron eliminadas 24 por considerarse
secuencial de diferentes conjuntos o vectores de entrada para casos imposibles. Ello, teniendo en cuenta las características
que se ajusten los pesos de las interconexiones según un del robot y el planteamiento del problema. Este análisis
procedimiento predeterminado. Durante la sesión de entonces nos lleva a contar con un set de datos definitivo de
entrenamiento los pesos convergen gradualmente hacia los 264 posibles estados de entradas.
TCA2012 5

Este set de datos se completa con las respuestas deseadas número posible de neuronas en una sola capa oculta. Este
para cada patrón de entrada, las cuales se elaboraron según lo criterio se adopta con la intención de minimizar el costo de
planteado en el párrafo anterior: seguir el criterio del procesamiento que tendrá lugar en la etapa de implementación
comportamiento humano. de la red sobre el mini robot móvil RICIMAF.
Después de numerosas pruebas que incluyeron variaciones
C. Desarrollo en MATLAB
en el número de neuronas en la capa oculta, la corrida con
Para la creación, entrenamiento y test de la red se utilizó la disímiles algoritmos de entrenamiento, la utilización de
toolbox Neural Networks de MATLAB, herramienta que diferentes funciones de activación tanto para las neuronas de la
dispone de una biblioteca para trabajar de forma sencilla con capa oculta como las de la capa de salida, el empleo de
redes neuronales [14]. diferentes divisiones del set de datos para entrenamiento,
El entrenamiento es llevado a cabo de forma off-line, validación y test de la RNA, el uso de varios criterios de error
debido a que se hace sobre la base de reglas fijas predefinidas a minimizar por los algoritmos de entrenamiento, entre otras,
y no será necesario reentrenarla una vez logrado el se obtuvieron los resultados finales mostrados en la Tabla I.
comportamiento deseado. Esta tabla muestra el rendimiento alcanzado en el
Para el trabajo con esta toolbox se siguió el criterio de entrenamiento, referido a los principales parámetros de interés.
alcanzar con el entrenamiento, el máximo rendimiento de la
RNA (correcta clasificación de las entradas) con el menor

TABLA I
RESULTADOS OBTENIDOS EN LA ETAPA DE ENTRENAMIENTO DE LA RNA.
Algorithm Neurons in Performance Transfer Overall
hidden layer function function accuracies
Levenberg-Marquardt 5 mse logsig/tansig 83.3 %
Bayesian Regularization 5 sse logsig/tansig 98.5 %
BFGS Quasi-Newton 5 mse tansig/tansig 69.6 %
Resilient Backpropagation 5 mse tansig/tansig 91.0 %
Scaled Conjugate Gradient 5 sse logsig/tansig 80.4 %
Conjugate Gradient with
5 sse logsig/tansig 40.5 %
Powell/Beale Restarts
Fletcher-Powell Conjugate
5 sse tansig/tansig 61.7 %
Gradient
Polak-Ribiére Conjugate
5 sse tansig/tansig 64.4 %
Gradient
One Step Secant 5 mse tansig/tansig 73.9 %
Variable Learning Rate
5 mse logsig/tansig 63.9 %
Gradient Descent
Gradient Descent with
5 mse tansig/tansig 36.4 %
Momentum
Gradient Descent 5 sse logsig/tansig 78.1 %

Como se observa en la Tabla I, el algoritmo que mostró los Primeramente se analiza la gráfica del gradiente del error.
mejores resultados fue el basado en las Reglas Bayesianas, por Como se puede observar en la Fig. 9, el gradiente disminuye
lo cual fue el utilizado para el diseño de la RNA propuesta. con el transcurso de las épocas de entrenamiento. Este es uno
Los resultados obtenidos con este algoritmo de de los comportamientos deseados durante el entrenamiento de
entrenamiento son los esperados, ya que en la literatura las RNA y uno de los objetivos del algoritmo de entrenamiento
especializada se demuestran sus bondades trabajando con sets seleccionado en este trabajo. También se aprecia que en la
de datos de pequeño tamaño y datos con poca influencia de última época del entrenamiento el valor del gradiente es
ruido, como los que generalmente provienen de las lecturas satisfactoriamente pequeño.
sensoriales. Además, es recomendado cuando los datos de
entrenamiento de entrada y salida se encuentran en el rango [-
1,1].

V. VALIDACIÓN DE LOS RESULTADOS


Para comprobar la validez del diseño y el entrenamiento de
la RNA se realizaron varios análisis. Fig. 9: Comportamiento del gradiente durante el proceso de entrenamiento.
TCA2012 6

Esta gráfica nos muestra el siguiente conocimiento: si el


Otro análisis realizado se lleva a cabo a través del gráfico entrenamiento ocurriera de manera perfecta, las salidas reales
relacionado con el rendimiento de la RNA una vez entrenada de la RNA (línea discontinua) serían iguales a las salidas
(Fig. 10). deseadas (línea sólida) y el coeficiente de relación „R‟
obtendría el valor de la magnitud „1‟. La línea sólida
representa la línea del mejor ajuste en la regresión entre la
salida deseada y la salida real.
Como podemos observar en la Fig. 11, el entrenamiento
muestra un gran ajuste. La línea punteada y la línea sólida se
encuentran prácticamente solapadas y la magnitud del
coeficiente de relación „R‟ es muy cercana al valor „1‟.
Otro conocimiento que podemos extraer de esta gráfica se
encuentra en los puntos esparcidos que se observan. Los
mismos demuestran que no existen puntos en los datos que
tengan un ajuste deficiente, por el contrario, se encuentran
agrupados sobre los valores de salida fijados en la etapa de
diseño para la RNA (0 y 1).
Para la validación de los resultados también se creó la
matriz de confusión en la clasificación (Fig. 12).

Fig. 10: Efectividad del entrenamiento de la RNA.

Como se puede observar en la Fig. 10 la efectividad de la


validación alcanza desde una época temprana casi su valor
mínimo, pero aún así continua realizando pequeñas mejorías
hasta la última época del entrenamiento, lo cual es una
característica distintiva del algoritmo de entrenamiento
utilizado.
En esta figura se demuestra la normal ocurrencia del
proceso de entrenamiento. Se observa que el criterio „sse‟
nunca alcanza el valor „0‟. Ésta es una característica típica de
los sistemas no lineales, por lo que ratifica el desempeño
esperado para este entrenamiento.
En el próximo paso para la validación se realizó un gráfico
de regresión (Fig. 11), donde se observó la relación que existe
entre las salidas deseadas para la RNA y las salidas reales que
la misma devuelve al presentársele las entradas de
entrenamiento. Fig. 12: Matriz de confusión.

En la matriz de confusión se observa que el total de casos


que fueron correctamente clasificados (diagonal de celdas
verdes) es de 260, lo cual representa el 98.5% del total de los
casos involucrados en el entrenamiento de la RNA. El valor de
los casos que no fueron correctamente clasificados es 4 (celdas
rojas), que representa un 1.5% del total de casos. Esta
información es recogida en la celda de color azul en la esquina
inferior derecha de la matriz de confusión.
Por último, se analiza el comportamiento del parámetro
receiver operating characteristic (ROC). Este parámetro
brinda una medida de la calidad que presentan los
calificadores de la RNA. La interpretación de este indicador
nos muestra la eficacia de los calificadores en cuanto a sus
características de Sensibilidad y Especificidad.
Un desempeño perfecto, equivalente a valores de
Fig. 11: Gráfica de regresión.
TCA2012 7

Sensibilidad y Especificidad de 100%, sería representado VII. REFERENCIAS BIBLIOGRÁFICAS


gráficamente a través de puntos que ocupen la esquina
superior-izquierda del gráfico. En nuestro caso, como se puede [1] Galicia, R., Aparicio, A., Ortega, R. “Móvil
apreciar en la Fig. 13, el comportamiento del gráfico es muy Inalámbrico Par a Lugares de Acceso Difícil”
cercano al desempeño perfecto. Departamento de Sistemas Electrónicos. Escuela
Superior de Cómputo Instituto Politécnico Nacional.
México D.F. 2008.
[2] Ollero, A. “Robótica, manipuladores y robots
móviles”, Ed. Marcombo. ISBN: 84-481-0815-9.
2001.
[3] Brooks, R. “A Robust Layered Control System for a
Mobile Robot”, IEEE Journal off Robotics and
Automation 2 (1), pp. 14-23. 1986.
[4] Nilsson, N. “Inteligencia Artificial: una nueva
síntesis” Ed. McGraw-Hill. ISBN 84-481-2824-9.
España. 2001.
[5] Mitchell, R.J., Keating, D.A. “Neural Network
Control of Simple Mobile Robot”. Department of
Cybernetics. The University of Reading. UK. 1996.
[6] Yan, Z., Wilkins, D., Cook R. “Neural Network
Control for a Fire-Fighting Robot”. University of
Fig. 13: Gráfica ROC. Mississippi. Department of Computer and
Information Science. U.S.
Una vez realizadas estas pruebas de validación se puede [7] Álvarez, G., Machirán, M.A., Acosta, R. “Interfaz
asegurar que la red neuronal diseñada se encuentra para el control de un robot móvil”. Reporte de
correctamente entrenada y lista para ser utilizada en la etapa investigación 600. Instituto de Cibernética,
de implementación sobre el mini robot móvil RICIMAF. Matemática y Física. Cuba. 2010.
[8] Marcos, M.C., Guzmán, R., Alaiz R., “Autoguiado de
robots móviles mediante redes neuronales” Escuela
VI. CONCLUSIONES
de Ingenierías Industrial e Informática. Universidad
Un buen modelado de las particularidades del sistema de León. España. 2004.
bajo estudio, facilita en gran medida el proceso de diseño
[9] Disponible en: http://www.angelfire.com/biz/itcmex/
y entrenamiento de las RNA.
ultrasensores2.html
Se comprobó la adecuación de las RNA para los [10] Nota de Aplicación 001. “Medidor de Distancia
problemas de clasificación de patrones y la factibilidad Ultrasónico”. Disponible en:
de utilizar estas estructuras en los tópicos vinculados a la http://www.agelectronica.com .mx/
robótica móvil.
[11] Rios, H., Bueno, M., Sánchez, S. “Generación de
Se demostró, mediante comparaciones, la necesidad de trayectorias para un robot móvil empleando redes
explorar entre los diferentes tipos de algoritmos de neuronales”. “Scientia et Technica”. Universidad
entrenamiento y configuraciones de las RNA para lograr Tecnológica de Pereira ISSN 0122-1701. 2008
resultados satisfactorios en la creación de estos sistemas
[12] Chronis, G., Skubic, M. “Training a Neural Network
de Inteligencia Artificial.
for Navigation Behaviors”. Department of Computer
Se desarrolló y entrenó satisfactoriamente una RNA Engineering and Computer Science. University of
para su posterior implementación en el mini robot móvil Missouri-Columbia. U.S. 2000.
RICIMAF, para llevar a cabo las tareas de la navegación [13] Xabier, B., “Redes Neuronales Artificiales y sus
autónoma. aplicaciones”. Departamento Ingeniería de Sistemas
y Automática. Escuela Superior de Ingeniería de
Se expusieron una serie de pasos para llevar a cabo la Bilbao, EHU. España. 2005.
validación del entrenamiento de una RNA mediante el [14] The MathWorks, Inc. “Neural network Toolbox”.
uso de la toolbox Neural Networks de Matlab®. Disponible en: www.mathwoks.com
TCA2012 8

Ing. Yarán Manuel Ortega Corteguera. Nace el 3 de marzo de 1985 en la de dicho centro y se encuentra vinculado directamente al grupo de
provincia La Habana. Se titula como: “Ingeniero en Control Automático”, en investigación de robótica móvil. Las principales líneas de interés están
el “Instituto Superior Politécnico José Antonio Echeverría”, ubicado en La relacionadas con la navegación de robots móviles, diseño de interfaces con
Habana, Cuba, en 2010. Actualmente se encuentra cursando la “Maestría microcontroladores y programación de aplicaciones. Ha realizado
Cibernética Aplicada, Mención Control Avanzado”. Permanece trabajando publicaciones y participado en eventos, tanto de alcance nacional como
desde su graduación como ingeniero, en el Instituto de Cibernética, internacional, con trabajos vinculados a estas temáticas.
Matemática y Física (ICIMAF), donde obtiene la categoría científica de Calle 15 #551 e/ C y D, Vedado. Habana 4, Código Postal 10400. Cuba.
“Aspirante a Investigador”. Pertenece al departamento de Control Automático (537) 8320319,  yaran@icimaf.cu
PROBLEMAS DE OPERACIÓN DURANTE EL ARRANQUE DE UN BLOQUE
ENERGÉTICO DE 330 MW.

Dr. C. Juan Luis Rodríguez Olivera 1, Dr. C. Mercedes Alemán García 1,


Ing. Juan José Iribe-Andudi Dom.ínguez 2, Lázaro García Benítez 2.
1. Universidad de Matanzas “Camilo Cienfuegos”, Vía Blanca Km.3, Matanzas,
Cuba.
2. Central Termoeléctrica “Antonio Guiteras” Zona Industrial. Matanzas, Cuba.

Resumen:
Se describe un arranque de un bloque energético de 330 MW utilizando el software
A330 y se compara el proceso real con el modelo teórico propuesto. Se analizan las
causas de las desviaciones de los principales parámetros registrados en los gráficos
de arranque y se señalan errores humanos y dificultades técnicas que dilatan el
tiempo de puesta en servicio de la unidad y reportan sobreconsumo de combustible.

Palabras claves: arranque, central térmica, turbina de vapor.

Introducción.
El proceso de arranque de una Central Termoeléctrica (CTE) agrupa diferentes
procesos de gran complejidad que juegan un papel fundamental en la explotación
confiable y eficiente de las mismas, destacándose en ello los consumos por
arranque y una maniobrabilidad acorde con las exigencias del Sistema
Electroenergético Nacional.

La amplia variedad de posibles estados térmicos iniciales de arranque y variaciones


en las condiciones técnicas de la unidad, no están contempladas en las normativas
dadas por el fabricante, lo que trae como consecuencia la falta de un modelo de
arranque de referencia y la aplicación de diferentes procedimientos según la
decisión de los operadores, lo que unido a las dificultades técnicas presentadas
durante el proceso, conlleva a incrementos en los tiempos de arranque y
sobreconsumos de los diferentes portadores energéticos utilizados.

El software A330, elaborado para una CTE de 330 MW por parte del Centro de
Estudios de Medio Ambiente y Energía de la Universidad de Matanzas, implementa
la modelación de las normativas de operación, permite obtener los gráficos de
arranque específicos para cada estado térmico inicial de la unidad y el monitoreo del
proceso, comparando el comportamiento teórico con el real, teniendo además la
posibilidad de su ajuste durante el proceso como consejero del operador, lo que
hace posible reducir los costos de arranque, el riesgo de averías, y el sobreconsumo
de combustible.

El objetivo general del trabajo consiste en validar la aplicación de software a un


arranque mediante la descripción de un proceso real de arranque, donde se
describen las dificultades presentadas causantes de las desviaciones del modelo
teórico y el cálculo del sobreconsumo producido.

Desarrollo.
A continuación se analiza un arranque “frío” a partir del fichero histórico de una
unidad de 330 MW con la utilización del software A330.

Los parámetros iniciales del bloque en el momento de encendido aparecen en la


figura 1 que agrupa los datos iniciales y el modo de empleo del software. La hora de
encendido es la 1:35 PM.
Este ejemplo se corresponde con un arranque en los límites del estado frío y tibio,
como se puede ver en la figura 1, debido a las temperaturas de los metales de
turbina cercanas a 190 grados que constituye el límite superior de un arranque frío,
además, no
existe presión en el domo de caldera.

Figura No. 1. Parámetros iniciales del bloque.

Este tipo de arranque obliga a que todos los venteos y drenajes en el generador de
vapor estén abiertos para permitir una evacuación de aire y condensado en las
líneas principales de vapor, estas válvulas permanecen abiertas hasta que se
alcanza 2 bar de presión en el domo cerrándose posteriormente. El vent de arranque
está situado a la salida del recalentador de alta temperatura y se mantiene abierto
garantizando un flujo de vapor por todos los intercambiadores de la caldera. Esta
condición que se mantiene hasta que exista vacío en el condensador (presión de
vacío menor de 300 mbar), que permita en este momento abrir el desvío de baja
presión (by-pass), estableciéndose el flujo a través de él y el envío del vapor al
condensador, posibilitando cerrar el vents de arranque sin que se corte la circulación
del vapor. Los desvíos de alta y baja presión (by-passes), figura 2, son de gran
importancia tanto en el proceso de arranque de la unidad, como en operación
normal. El desvío de alta presión tiene como finalidad enviar el vapor sobrecalentado
directamente a los recalentadores garantizado la circulación de vapor, en los
momentos en que las condiciones (presión y temperatura) no son las idóneas para
circular por dentro del cilindro de alta presión de la turbina. En operación normal,
asimila la sobre presión del vapor sobrecalentado, cuando la presión excede dos bar
por encima de la consigna pre ajustada.
El desvío de baja presión, evita que se expulse el vapor recalentado a la atmósfera
por el vents de arranque, en los períodos de arranques, cuando exista ya vacío en el
condensador y las condiciones del vapor (presión y temperatura) no son las idóneas
para circular por dentro del cilindro de media presión de la turbina, permitiendo
recuperar el vapor recalentado. En operación normal es el encargado de regular la
presión de vapor recalentado evacuando la sobrepresión al condensador.

En el momento del encendido de la caldera, inicio del arranque, los operadores


concentran su atención en la puesta en servicio de dos quemadores de gas-oil,
manteniendo la presión del combustible en 15 bar de forma estable.

Figura No. 2. Sinóptico del sistema SCADA. By-passes de alta y baja presión.

Como se puede apreciar en la figura 3, a partir del encendido de caldera la


pendiente de subida de temperaturas del metal del domo, representativo de la
temperatura del agua en la caldera, se mantiene por encima de su valor admisible
de 1.25 ºC/min estipulado por el fabricante. El incremento de la temperatura de
vapor sobrecalentado reporta valores de 4.26 ºC/min muy superior a los 2ºC/min
establecidos. Ello se debe al exceso de la carga térmica del horno, lo cual no es
controlado por el personal de operación. En el caso de combustible gas-oil, el
consumo no se mide por parte del sistema SCADA y tampoco existe una referencia
de la temperatura del agua en caldera por lo que los operadores en esta etapa solo
controlan la presión del combustible y número de quemadores en servicio.

En los arranques el valor de flujo de aire se controla manualmente y debido a la


inexactitud del regulador automático, se establece un flujo de aproximadamente 400
t/h, que aunque se conoce que es un valor excesivo, se mantiene para tratar de
evitar un disparo de caldera con un flujo de aire menor de 360 t/h. En ésta etapa
inicial del arranque, el aumento del flujo de aire provoca un incremento importante
de las temperaturas del vapor sobrecalentado y recalentado con una razón de
subida por encima del permisible, como se aprecia en la figura 3 en los primeros 40
minutos.

Como consecuencia de lo anterior, se puede apreciar en la figura 3 que se produce


la evaporación de la caldera antes del momento adecuado lo que se aprecia en la
posición de la línea de presión real por encima del modelo teórico, lo que indica que
la velocidad de calentamiento del agua en la caldera es superior a la recomendada
de 1.25 ºC/min. Además se produce un incremento acelerado de las temperaturas
de vapor sobrecalentado y recalentado.

Es interesante plantear que en el momento de encendido en el estado frío, antes del


inicio de la evaporación, no existe flujo de vapor por los sobrecalentadores por lo
que el metal de estas superficies se calienta con los gases de combustión sin
posibilidad de enfriamiento por vapor, lo que reafirma la necesidad de un estudio
más detallado de la regulación de la carga térmica y el flujo de aire inicial del horno
en el momento de encendido de caldera antes del inicio de la evaporación y
posterior a ella.

Figura No. 3. Modelo de arranque y comportamiento real. Resultado del software


A330.

Continuando con el análisis de la figura 3, se aprecia que en el minuto 110 se


produce el cambio de combustible de gas-oíl a fuel-oíl, esto presupone la puesta en
servicio de los dos quemadores restantes en la otra diagonal del primer piso de
quemadores y la coexistencia temporal de los cuatro quemadores, dos quemadores
de gasoil y dos de fuel-oíl, lo cual incrementa la carga térmica. El efecto se
manifiesta en el incremento de la razón de calentamiento de los metales del domo
(agua en la caldera) a los pocos minutos llegando a valores de 1.37 ºC/min y
también en el incremento de la razón de calentamiento del vapor sobrecalentado y
recalentado hasta 2.53 y 3.23 ºC/min respectivamente y la presión de la caldera,
como se aprecia en la figura 3.
En el minuto 140 se aprecia una reducción de flujo de fuel-oíl en el sistema de
quemadores después de pasar todos los quemadores a fuel-oíl, con el objetivo de
limitar el incremento excesivo de los valores de temperatura del vapor
sobrecalentado y recalentado, esta acción provoca un decrecimiento en las
pendientes de subida de temperaturas de vapor sobrecalentado y recalentado,
temperatura del metal inferior del domo y presión en la caldera, todas por debajo de
las recomendadas lo que comienza a incrementar el tiempo necesario para el logro
de los parámetros de rodaje de turbina.

A partir del minuto 160 se incrementa el consumo de combustible llegando a 9.75 t/h
en el minuto 190 y la caldera reacciona incrementándose las pendientes de subida
de temperatura de vapor sobrecalentado y recalentado hasta valores de 2.9 y 2.53
ºC/min respectivamente siendo el valor normativo de 2ºC/min. El incremento de la
temperatura del metal del domo alcanza valores de 1.62 ºC/min.

En este momento debido a que el gradiente de subida de temperaturas de vapor


sobrecalentado y recalentado es muy alto, el operador reduce el flujo de
combustible, pero la inercia térmica hace que el valor de temperatura del vapor
sobrecalentado sobrepase el
establecido para rodar turbina,
siendo necesario abrir el
atemperamiento con agua al
vapor sobrecalentado (punto 4
en la figura 4).

En la figura 4 se observa el
recorrido normal del sistema
agua vapor, donde las líneas
de color verde representan el
recorrido del agua hasta el
domo y las líneas de agua de
atemperamiento, de color
amarillo se representa el vapor
y los sobrecalentadores de
baja, media y alta temperatura
(SBT, SMT y SAT), a la
derecha del gráfico tenemos la
entrada del vapor a recalentar y
los recalentadores de baja y
alta temperatura (RBT y RAT).

Figura 4. Atemperamiento del vapor sobrecalentado y recalentado.

La necesidad de realizar esta operación manualmente por defecto de las válvulas de


control automático reguladoras de temperatura del vapor sobrecalentado, provoca
una caída brusca de temperatura de vapor sobrecalentado de 120 ºC en el minuto
210.
En la figura 5 se observa la
variación de temperatura
del vapor sobrecalentado
con el aumento del flujo de
agua de atemperamiento.
Esta figura se obtiene de
los datos tomados del
fichero histórico para las
variables graficadas de
temperatura de vapor
después de atemperadores
izquierdo y derecho, flujo de
agua de atemperamiento y
temperatura vapor
sobrecalentado salida
caldera.

Figura 5. Variación de temperaturas del vapor y flujo de agua de atemperar.

El brusco suministro de agua provoca un enfriamiento profundo del vapor


sobrecalentado. Para lograr que dicha temperatura regrese al valor establecido el
operador de sala de control en coordinación con el local caldera regulan esta
temperatura lentamente por el volante de la válvula manual paso a paso para evitar
alejarse de los valores requeridos, no obstante se reportan pendientes de mas de 6
grados por minuto, lo cual es muy superior a la norma.

A partir del minuto 220 se presenta un defecto en uno de los quemadores el cual
presenta mala combustión y se procede a su cambio.

En minuto 260, se sella la máquina, es decir, se pone en servicio el sistema de vapor


de sellaje de la turbina, con la apertura de las válvulas reguladoras de vapor de
sello, dejando pasar el mismo a través de los sellos laberinticos de la turbina
logrando la hermeticidad necesaria para inmediatamente hacer vacío en el
condensador. Este evento no es posible monitorearlo a partir de las variables
disponibles del actual sistema SCADA. A continuación se pone en servicio el eyector
de arranque para hacer vacío y se comienza a reducir la presión de vapor a
recalentar hasta 15 bar.

En el minuto 320 se comienza a hacer vacío en el condensador con un eyector de


mantenimiento sin dificultad alguna, hasta el valor de 100 mbar-a, en el minuto 325,
se observa una estabilización del vacío durante 30 minutos hasta el momento de
poner en servicio el segundo eyector de mantenimiento, observándose como se
incrementa el vacío. Esta demora es injustificada y retrasa el arranque
innecesariamente.

A partir del minuto 360, con el aumento del vacío, se comienza a preparar
condiciones para el rodaje de turbina.
Como se observa en la figura 3, al mejorar el vacío, aún sin dar orden de rodaje de
la turbina esta se acelera, debido a que se hace mayor la diferencia de presión entre
las válvulas de cuello y el condensador, lo que provoca que aumente la velocidad del
vapor por entre los alabes y como consecuencia, un aumento de la velocidad del
rotor de turbina desde 76 rpm en girador hasta 188 rpm.

Durante el proceso de hacer vacío en el condensador a partir del minuto 320 se


mantiene aproximadamente constante el flujo de combustible y se reducen la
presión de la caldera y temperaturas de vapor sobrecalentado y recalentado.

En el minuto 370 comienza el rodaje de la turbina, es decir, el operador de sala de


control turbina, comprueba cumplidas los parámetros para el rodaje de turbina, figura
No. 6.

Figura No.6. Parámetros del vapor para el rodaje de turbina.

Con todos los parámetros cumplidos, se da una orden de montaje de turbina,


produciéndose la apertura de las válvulas de cuello del cilindro de alta y media
presión, provocando el incremento del movimiento giratorio del rotor de la turbina por
el pase de vapor a través de las válvulas de regulación que no son herméticas.

Como se aprecia en la figura 3, en el minuto 370 con más de 500 rpm se visualiza
una señal de diferencia de temperatura entre el metal del cilindro de media y el
vapor, mayor de 50 ºC, que acciona dicha protección, la misma provoca el cierre
inmediato de las válvulas de cuello, cortando el flujo de vapor a turbina (disparo de
turbina).

Con posterioridad a la revisión del termopar se verifica la falsedad de dicha alarma,


se comprueba correcta la medición y se decide comenzar el rodaje nuevamente.
Como consecuencia, se retrasa aún más la sincronización del bloque,
manteniéndose todo este tiempo la caldera encendida e incrementándose el
sobreconsumo de combustible.

Pasados 30 min del retorno a la velocidad de girador, en el minuto 450, se


comprueban nuevamente todos los parámetros estables y con las condiciones para
el rodaje activas, se monta turbina y se comienza nuevamente el rodaje hasta llegar
a las 3600 rpm. La pendiente de subida, es seleccionada automáticamente,
apoyándose en el monitor de esfuerzo de la máquina, el cual determina según las
condiciones térmicas si es recomendable aumentar la velocidad, mantenerla, o
realizar un escalón para acondicionar el cilindro a las nuevas condicionas del vapor.
Existen tres posibilidades de toma de velocidad, en dependencia del las condiciones
térmicas de la turbina y los valores de temperatura y presión del vapor recalentado.
Al llegar a 3600 rpm, después del rodaje se procede a reducir presión de vapor
recalentado para el sincronismo de la máquina, esto provoca que la presión de vapor
a los eyectores también disminuya y se afecte el vacío como se muestra a partir del
minuto 470.

En este caso el operador de turbina no se percata de que con el valor de presión


recalentado, inferior a los 15 bar, es necesario poner en servicio la tercera etapa de
los eyectores de mantenimiento, para evitar una caída del vacío.

En estos momentos el desvío de baja presión, se encuentra en automático y en


vigilia, para asumir cualquier exceso de presión en la línea de vapor recalentado a
turbina.

Una vez alcanzada las 3600 rpm se procede a reducir la presión de vapor
recalentado para realizar la sincronización del bloque. Esto se realiza rápidamente
mediante el bypass de baja presión llegando hasta 8 bar.

Se chequean los parámetros para iniciar el evento de sincronización de la máquina,


por el cilindro de media presión, se verifican las mismas condiciones para el rodaje y
demás condiciones que consiste en igualar frecuencia y voltaje a la salida del
generador con las redes del sistema nacional, este evento se realiza sin dificultad en
el minuto 475.

Se comienza a subir la carga 185 min después de lo planificado, con una pendiente
de 3 MW/min., ajustada aproximadamente a la pendiente de rodaje, lo cual se logra
con la apertura lenta y constante de las válvulas de regulación del cilindro de media
presión de la máquina. En este arranque después de sincronizar se llegó a 37 MW
de potencia.

Con un valor de referencia aproximadamente a un 26%, de apertura de la válvula de


regulación del cilindro de alta presión, se realiza la transferencia de carga, este
proceso llamado volqueo consiste en la transferencia de carga del cilindro de media
presión para el cilindro de alta presión de la máquina, o sea, la apertura lenta y
constante de las válvulas de regulación del cilindro de alta presión de la máquina y
es totalmente automatizado.
En este momento se detiene la subida de carga, para realizar el cambio de
configuración eléctrica, o sea lograr que la mayoría de los equipos eléctricos
consuman la energía producida por la máquina, a través del transformador de
servicio, dejando de reserva la energía proveniente del trasformador auxiliar que se
alimenta del sistema nacional.

Al llegar a los 100 MW, se produce el cambio de combustible de fuel-oíl para crudo.
Se continúa subiendo carga a petición del despacho nacional, se revisan todos los
parámetros en cada una de las posiciones, se comprueba estabilidad en los mismos.
Finaliza el proceso de arranque en el minuto 500 cuando se logran 70 MW.

Analizando el sobre consumo reportado por el software a partir de las mediciones de


fuel, este es de 33.02 t, y se obtiene por la integración de las mediciones de fuel-oil a
partir de la hora en que la unidad debió alcanzar los 70 MW (valor en que se
considera completado el arranque según el modelo teórico) y la hora en que
realmente alcanza dicha carga.

Conclusiones.

En el arranque analizado se manifiestan diferentes situaciones que dilatan el tiempo


de puesta en marcha de la central, algunas de ellas debido a la decisión y control de
los operadores y otras debido a situaciones de irregularidades debido a problemas
técnicos imprevistos. Las principales afectaciones son: la imposibilidad del
seguimiento del incremento de temperatura del agua de caldera en el período de
calentamiento antes de la evaporación, la regulación manual del atemperamiento y
pases en válvulas, la necesidad del cambio de quemadores en medio del proceso de
encendido, la demora en el logro del vacío normativo para el rodaje de turbia y el
disparo de turbina por la falsa señal de temperatura. Se muestra además la violación
de las pendientes en algunos parámetros y momentos. El sobreconsumo de
combustible reportado de la integración de la medición de fuel oil es de 33
toneladas.

Bibliografía.

Gostling, J. Two Shifting of Power Plant: Damage to Power Plant Due to


Cycling -A brief overview. European Technology Development Ltd, UK.OMMI
(Vol. 1, Issue 1) April 2002.

De la Paz Reguera, Jorge Yunior .Análisis de los arranques de la CTE “Antonio


Guiteras”. Trabajo de Diploma. Universidad de Matanzas “Camilo Cienfuegos”,
Matanzas (Cuba). 2009.

Normas de operación de caldera de la CTE ¨Antonio Guiteras Holmes¨.

Normas de operación de turbina de la CTE ¨Antonio Guiteras Holmes¨.

Rodríguez J. L., Calvo A. “Software asesor para el arranque de centrales


termoeléctricas”. Revista Ingeniería Energética. No. 2 2004.
Rodríguez Olivera, J. L. Programación del Arranque de la unidad 3 de la Central
Termoeléctrica “José Martí”. Memorias Convención Internacional Universidad de
Matanzas 2009. CD ISBN: 978-959-16-1080-5

Rodríguez Olivera J.L. Tecnología para la optimización de Regímenes en


Centrales termoeléctricas con unidades de 100 MW.Tesis en Opción al grado
Científico de Doctor en Ciencias Técnicas. Universidad de Matanzas. 2004.

Rüdiger Franke, Bernd Weidmann. Starting the boiler. Startup optimization for steam
boilers in E.ON power plants. Boiler_Start_Up_procedures.pdf. Disponible en :
http://www.abb.com/global/scot/scot221.nsf/veritydisplay/fc7df0e90d93a0ddc1
2572b4002ffbf0/$file/operational%20experiences%20with%20startup%20opti%
20eon_pr_deabb%201333%2007_e.pdf
“CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA
INTEGRACIÓN CON EL GESTOR DE PROYECTO MAVEN Y LA HERRAMIENTA
APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB
ESPECIALIZADO.”

"CONFIGURING THE DEVELOPMENT PLATFORM FOR APACHE TOOL INTEGRATION


NEEDED FOR BUILDING A WEB SEARCH."

Elina Mylen Montero Puñales1, Armando Plasencia Salgueiro2, Ileana Suarez Blanco3

1 Instituto de Cibernética Matemática y Física, Cuba, elina@icimaf.cu


2 Instituto de Cibernética Matemática y Física, Cuba, armando@icimaf.cu
3 Instituto de Cibernética Matemática y Física, Cuba, Ileana@icimaf.cu

RESUMEN: El departamento de Control Automático del Instituto de Cibernética Matemática y Física (ICIMAF)
del organismo CITMA lleva a cabo el desarrollo de un proyecto no asociado a programa Proyecto PNAP
121.00000 “Algoritmos de Minería de datos para la toma de decisiones en procesos industriales con procesa-
miento paralelo (Cluster y Grid)” de la Agencia de Energía Nuclear y Tecnologías de Avanzada (AENTA). Entre
sus principales objetivos se propone el desarrollo de un software para la búsqueda de información especializa-
da en Internet. Para el desarrollo de este trabajo se han estudiado herramientas de tecnologías Apache como
son el caso de Solr, Mahout, Nutch, Hadoop, las cuales brindan funcionalidades que pueden ser optimizadas y
aprovechadas. En el proyecto no existe una plataforma de desarrollo común que permita que se configuren y
posteriormente se integren las herramientas mencionadas, por lo que nace la necesidad de definir una plata-
forma de desarrollo común. En el presente trabajo se muestra la labor realizada para lograr la instalación y con-
figuración de la plataforma Eclipse, se expone la fundamentación teórica que contiene los conceptos necesarios
para la comprensión del trabajo que se ha realizado y la ilustración de los pasos utilizados para lograr el correc-
to funcionamiento de la herramienta Apache Solr. En los resultados obtenidos se muestra la creación de un
proyecto Maven desde Eclipse con dependencias a Solr.

Palabras Clave: Apache Solr, Eclipse, Maven.

ABSTRACT: This report shows the work done to achieve the installation and configuration of the eclipse plat-
form, which will be managed as part of the project, as the common development platform for configuring apache
tools. It describes the theoretical foundation that contains the necessary concepts for an understanding of the
work that has been done and the illustration of the necessary steps to ensure the proper functioning of the tools.
In the results shows the creation of a Maven project from Eclipse with Solr dependencies.

KeyWords: Apache Solr, Eclipse, Maven.

“Nombre del Evento”


1. INTRODUCCIÓN contendrá los plugins de interacción entre
Eclipse y las tecnologías Apache.
Con el auge de las Tecnologías de la Informáti-
ca y las Comunicaciones (TIC), el uso de Internet y
el crecimiento sistemático de páginas Web el pro- 3. Integrar la herramienta Apache Solr con la
blema de la sobrecarga informacional se hace cada plataforma de desarrollo Eclipse.
día más complejo durante la navegación. Por lo que
se hace necesario contar con herramientas que 4. Crear un proyecto desde Eclipse que inte-
faciliten la búsqueda y el procesamiento de datos gre toda la tecnología Apache Solr.
en la Web.
Para aliviar este problema, se utilizan varias
técnicas, entre ellas la personalización y el filtraje
colaborativo como solución para adaptar el entorno
de la web hacia las preferencias y necesidades de
procesamiento del usuario. Hasta la fecha, los sis-
temas de recomendación y los sistemas personali-
zados de búsqueda en la web son los ejemplos
más exitosos de la personalización de la Web. Sin
embargo, para obtener estas y otras funcionalida-
des en los buscadores se requiere de disponer de
plataformas de cómputo altamente escalables para
poder correr los algoritmos de minería de datos que
respalden las mismas. (…) Como soporte de soft-
ware se propone una interrelación de herramientas
de software libre distribuidas por Apache. [1]

Figura 1 Arquitectura del buscador.


En reportes de investigación precedentes, re-
dactados en el marco del desarrollo del proyecto se
defiende la idea de que con la integración de las 1. Fundamentos teóricos.
tecnologías de Cluster, Grid y las herramientas
Apache se lograrían el desarrollo y configuración de
A continuación se exponen algunos fundamentos
un buscador web especializado. La utilización de
teóricos necesarios para la mejor comprensión del
las herramientas Apache permitirán la búsqueda y
trabajo realizado.
rastreo en la red mediante el uso de Hadoop, la
construcción de la web y la realización de la deter- Buscador especializado:
minación de patrones y relaciones en la informa- Un buscador especializado debe ser capaz de ofre-
ción, mediante la combinación de las herramientas cer unos resultados al usuario mucho más precisos
Solr y Nutch, para el trabajo con minería de textos, y relevantes de lo que son capaces de ofrecer un
la bibliominería, etc., el empleo de Mahout. buscador común (ejemplo Google) ya que el ámbito
en el que trabaja es más restringido y por lo tanto la
información es más específica que los grandes
En la figura 1 se expone un diagrama de arqui-
buscadores generalistas. En los últimos años, el
tectura que muestra la interacción de las herramien-
auge de los buscadores especializados, también
tas anteriormente mencionadas al ser integradas
conocidos como buscadores verticales, ha ido en
para lograr la concepción de un buscador Web.
aumento debido a la necesidad de delimitar las
áreas de búsqueda. [2]
El objetivo de este reporte es mostrar el trabajo que Apache:
se realizó en el marco del proyecto configurando la
Apache Software Foundation (ASF) es una organi-
herramienta Apache Solr integrada a la plataforma
zación no lucrativa (en concreto, una fundación)
de desarrollo Eclipse y el gestor de proyectos Ma-
creada para dar soporte a los proyectos de software
ven.
bajo la denominación Apache, incluyendo el popular
Para lograr este objetivo se realizaron las siguien- servidor HTTP Apache. Apache Software Founda-
tes tareas: tion es una comunidad descentralizada de desarro-
1. Instalar la plataforma de desarrollo Eclipse. lladores que trabajan cada uno en sus propios pro-
yectos de código abierto. Los proyectos Apache se
caracterizan por un modelo de desarrollo basado en
2. Configurar el gestor de proyecto Maven que
el consenso y la colaboración y en una licencia de
“Nombre del Evento”
Montero, E.; Plasencia, A., Suarez, I. | “CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA INTEGRACIÓN CON EL GESTOR
DE PROYECTO MAVEN Y LA HERRAMIENTA APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB ESPECIALIZADO.”

software abierta y pragmática. [3] de componentes de administración electrónica


Solr: puedan declarar las dependencias hacia estos
componentes y facilitar la entrega del código fuente
Solr es un servidor de búsqueda empresarial de
de estos proyectos de acuerdo con las directrices
código abierto. Este es un producto ya probado que
definidas por Maven. Es importante también cono-
permite la búsqueda en sitios públicos (…) así co-
cer de Maven los conceptos de artefacto (artifact id)
mo en un número incontable de sitios de intranets
que es un componente de software que podemos
corporativas y gubernamentales. Está escrito en
incluir en un proyecto como dependencia yun grupo
Java y ese lenguaje es utilizado para en lo sucesivo
(group id) que es formado por un conjunto de arte-
extender y modificar a Solr mediante interfaces de
factos.
plugins simples. [4]
Archiva:
Plataforma de desarrollo:
Archiva pertenece al conjunto de proyectos des-
Una plataforma software es un conjunto de compo-
arrollados por el equipo de JakartaMaven. Básica-
nentes o subsistemas que forman una estructura
mente es una herramienta de gestión de reposito-
común a partir de la cual podemos derivar (desarro-
rios maven. Entre sus principales funcionalidades,
llar, construir) sistemas de una forma eficiente.
se pueden citar: gestión de control de acceso a los
Eclipse como caso particular de plataforma de de-
repositorios definidos, cacheo de artefactos configu-
sarrollo de software tiene entre sus principales ca-
rando proxys a repositorios remotos y gestión y
racterísticas que es un entorno de desarrollo inte-
mantenimiento de repositorios maven 1.x y 2.x (in-
grado de código abierto. Esta plataforma, típica-
dexación, búsquedas, informes).
mente ha sido usada para desarrollar código Java.
Plugins de Eclipse:
Plugin podría definirse como programa que puede
2. CONTENIDO
anexarse a otro para aumentar sus funcionalidades Materiales y Métodos
(generalmente sin afectar otras funciones propias La primera tarea a realizar en el desarrollo de este
del programa al cual se anexa). El Eclipse cuenta trabajo es instalar Eclipse que será la plataforma de
con una fuerte tradición de desarrollo de plugins desarrollo, (se utilizó la versión 3.7 también conoci-
que le permiten integrarse a múltiples tecnologías, da como Eclipse Indigo). Luego se debe proceder a
facilidad que se utilizará para el desarrollo de este instalar en la computadora la herramienta Maven
trabajo. (en su versión 3.0.4) que va a actuar como gestor
JDK: de proyecto al ser integrada a la plataforma de de-
Se trata de un conjunto de herramientas (progra- sarrollo. Como prerrequisitos para instalar estas
mas y librerías) que permiten desarrollar (compilar, dos herramientas es necesario tener instalado de
ejecutar, generar documentación, etc.) programas forma local en la computadora el JDK (del inglés
en lenguaje Java. JavaDevelopment Kit). La corrida del Eclipse no
Maven: presenta prácticamente dificultad alguna,solo es
necesario ejecutar el archivo eclipse.exe y se crea
Maven es un 'Project Management Framework', el espacio de trabajo (workspace), si se desea
esto es, un framework de gestión de proyectos de agregar un nuevo plugins es solamente copiarlo en
software, que proporciona un modelo estándar de la carpeta plugins.
gestión y descripción de proyectos. Maven da solu-
ciones a tareas que abarcan desde la compilación
hasta la distribución, despliegue y documentación En el caso particular de Maven para lograr la co-
de los proyectos. Se podría describir como un sis- rrecta configuración se debe descargar el paquete
tema de estándares, un repositorio, y un software que contiene los ficheros de instalación, descom-
usado para manejar y describir proyectos. Define primirlo y agregar sus archivos ejecutables en el
un ciclo de vida estándar para la construcción, PATH del sistema operativo accediendo en Mi PC-
prueba, y despliegue de componentes del proyecto >clic derecho->Propiedades->Opciones avanzadas.
para la automatización de las tareas de construc- Para realizar esto se edita el Path del sistema (caso
ción. particular del proyecto que se desarrolla sobre Win-
Maven usa un constructor conocido como Project dows XP SP3) para que apunte al directorio con el
Object Model (POM) para describir el proyecto, sus archivo descomprimido como se muestra en la figu-
dependencias sobre otros módulos externos y ra 2.
componentes y el orden de construcción. Se dispo-
ne de un repositorio Maven de acceso público de
modo que todos aquellos proyectos dependientes

“Nombre del Evento”


Montero, E.; Plasencia, A., Suarez, I. | “CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA INTEGRACIÓN CON EL GESTOR
DE PROYECTO MAVEN Y LA HERRAMIENTA APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB ESPECIALIZADO.”

Figura 2 Modificación del PATH.

A continuación se debe crear una variable de


entorno de nombre Java_Home cuyo valor
apunte al archivo de Java jre (del inglés Java
RuntimeEnvironment)que está instalado en la
máquina, requisito necesario para el correcto Figura 3 Entorno de desarrollo de un reposi-
funcionamiento como se muestra en la figura 3. torio interno Maven.

Al punto para correr el Maven se debe abrir


una consola (cmd en windows) y ejecutar la
siguiente línea de comandos.
C:\>mvn --version
Maven version: 2.0.4
Luego se muestra la siguiente información que
se expone en la figura 4.

Figura 3 Creación de la variable JAVA_Home.

Luego debe modificarse el archivo $MA-


VEN_HOME/conf/settings.xml para que se
logre la conexión a Internet a través de un
proxy, o la conexión al repositorio local de Ma-
ven en caso que se tenga.
Una de las desventajas del Maven es que de-
pende de un repositorio para descargar librerías;
en el caso de que no se cuente con un ancho de
banda a internet suficiente para que realice la
conexión a sus repositorios oficiales, no se lo- Figura 4 Corrida de Maven satisfactoria.
gra el correcto funcionamiento de la herramien-
ta. Para lograr la solución de este problema en
el desarrollo del proyecto se eligió la opción de Subsiguientemente se debe instalar en Eclipse el
plugin m2eclipse de Maven agregando el fichero en
crear un repositorio local. Para realizar esta la carpeta plugins, luego ejecutar el Eclipse para
tarea existen varios gestores de repositorios; se agregar en el menú window->preferences-
podrían mencionar Apache Archiva, Nexus y >usersetting->Maven la dirección al repositorio lo-
Artifactory entre otros, se decidió utilizar el cal.
Apache Archiva que permite crear un espejo El próximo paso es instalar e integrar a Eclipse las
del repositorio oficial; en la figura 3 se muestra herramientas Apache.
con detalle como quedaría el entorno de desa- Apache Solr (en su versión 3,6) será la herramien-
rrollo. ta en el proyecto que contendrá el servidor de
búsqueda y va a interactuar con la interfaz que se

“Nombre del Evento”


Montero, E.; Plasencia, A., Suarez, I. | “CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA INTEGRACIÓN CON EL GESTOR
DE PROYECTO MAVEN Y LA HERRAMIENTA APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB ESPECIALIZADO.”

le muestre al usuario. Esta herramienta depende en


su funcionamiento de un contenedor de servlets,
para la solución se utilizó Tomcat (en su versión 7).
Para que funcione correctamente ésta instalación
se debe detener el servicio deTomcat de forma
local en la pc ir a <Tomcat-home>/bin/catalina.bat y
en las opciones de Java agregar el comando -
Dsolr.solr.home = C:\apache-solr-3.6.0\solr (es
decir apuntar a la dirección donde se encuentran
los ficheros del Solr) luego copiar el archivo solr.war
en <Tomcat-home>/webapps. También es necesa-
rio copiar los ficheros de Solr en la raíz del sistema
(en el caso particular se utilizó la partición C en la
siguiente dirección C:\apache-solr-3.6.0\solr) al
instante se debe reiniciar el Tomcat y ya se accede
al Solr por el navegador en la dirección
http://localhost:8080/solr.

Figura 6 Respuesta en formato xml.

Luego de instalado el Apache Solr se debe proce-


der a integrar Tomcat y Solr con Eclipse para esto
se utilizó el plugin Sysdeo(es importante aclarar
que el pluging sysdeo no contiene Tomcat, solo
proporciona la posibilidad de lograr administrarlo
desde Eclipse). Se debe ir a Windows / preferences
Figura 5 Interfaz Solr. / Tomcat marcar la versión de Tomcat utilizada, la
locación del home de Tomcat y en la opción JVM
establecer la dirección al home del Solr a través del
El buscador que instala la herramienta Solr cuya comando –Dsolr.solr.home = C/: Solr. Luego de
interfaz se expone en la figura 5 no es más que un realizadas estas acciones en el caso de que no se
ejemplo que muestra respuestas en formato xml, muestre el icono de Tomcat en el menú como se
como se expone en el en la figura 6, posteriormente muestra en la figura 6se debe acceder a Windows-
deberá configurarse en dependencia de las necesi- >open perspectivey marcar Tomcat en el grupo de
dades propias del proyecto. comandos (Commande Groups Available).
El significado de las variables en la respuesta son
las siguientes:
Variables:
Status: Cuando esta variable se encuentra en
valor 0 significa que la consulta se ejecutó satisfac-
toriamente.
Qtime: Duración en milisegundos del tiempo en
que Solr se tarda en ejecutar la consulta.
Params: Lista de parámetros que se pasan por la
URL.
NumFound: Número de documentos que machean
con la consulta.

“Nombre del Evento”


Montero, E.; Plasencia, A., Suarez, I. | “CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA INTEGRACIÓN CON EL GESTOR
DE PROYECTO MAVEN Y LA HERRAMIENTA APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB ESPECIALIZADO.”

Figura 7 Integración Tomcat-Eclipse-Solr.


Luego para agregar las dependencias a Solr se
3. RESULTADOS Y DISCUSIONES debe añadir al fichero POM que se crea por defec-
to las siguientes líneas de código que se muestran
Para probar que la integración Maven-Eclipse- en la figura 10.
Solr funciona correctamente se va llevó a cabo una
prueba siguiendo la guía que brinda la referencia
[8].

Los pasos efectuados fueron los siguientes:

Ir a Eclipse iniciarlo, File->New Proyect->Maven Figura 10 Agregar dependencias a Solr.


Proyect se escoge la opción crear proyecto simple y El próximo paso es crear una clase que permita
se especifica el valor del group id y artifact id y clic realizar la recuperación de archivos como se mues-
en finalizar como se muestra en las figuras 8 y 9. tra a continuación:
Se deben configurar al nuevo proyecto la posi-
bilidad de añadir dependencias, para esto clic dere-
cho en el proyecto ir a propiedades -> Java Build-
Path ->Libraries ->Add Variables -> Configure Va-
riables -> New ->añadir una variable de nombre
"M2_REPO" cuyo valor apunte al repo que se crea
por defecto al instalar maven, ubicado generalmen-
te en C:\Documents and Set-
tings\Administrador\.m2. En otro paso clic derecho y
en la opción Maven ->enable dependency mana-
gement.

Esta clase contiene los métodos necesarios para


Figura 8 Crear nuevo proyecto Eclipse.
recuperar datos del ejemplo que brinda la herra-
mienta Solr al instalarla. En el caso particular de
esta prueba hay tres productos que responderán a
esta petición. Es importante tener en cuenta que en
el caso de que no se tenga el Solr levantado y es-
cuchando peticiones por el puerto 8080, se ob-
tendrá una excepción como la que se muestra:
org.apache.solr.client.solrj.SolrServerException:
java.net.ConnectException: Connection refused

Ahora para terminar con el ejemplo se realiza el


proceso de Indexado donde se añade un nuevo
producto a Solr, utilizando las instrucciones de
código que se muestran a continuación, las que
añaden campos vinculándolos a un nombre y pro-
porcionando un contenido textual
Figura 9 DefinirGroup ID y Artifact ID.

“Nombre del Evento”


Montero, E.; Plasencia, A., Suarez, I. | “CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA INTEGRACIÓN CON EL GESTOR
DE PROYECTO MAVEN Y LA HERRAMIENTA APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB ESPECIALIZADO.”

5. REFERENCIAS BIBLIOGRÁFICAS
1. Mari Carmen Marcos. Entrevista a
José Ramón Pérez Agüera profesor de la
UCM [en linea]. "Hipertext.net", núm.
6, 2008. http://www.hipertext.net

2. Plasencia A. Concepción de un busca-


dor web soportado en tecnología Grid e
interrelación de herramientas apache. et
al., Jornada Científica ICIMAF. 2012

3. The Apache Software Fundation,


2012, http://www.apache.org

4. Smiley D., Pugh E., Apache Solr 3 En-


4. CONCLUSIONES terprise Search Server.Copyright ©
2011 Packt Publishing
Con el crecimiento sistemático de páginas web el
problema de la sobrecarga informacional se hace
cada día más complejo durante la navegación. Para 5. Nutch Tutorial.
ello es necesario crear herramientas de búsqueda
que faciliten este proceso. En este trabajo se pro- 6. Lam Chuck., Hadoop in Action ©2011
pone el empleo de Solr, herramienta de software by Manning Publications Co.
libre que solucione en determinada medida esta
problemática. Para ello en el texto se describe una
metodología que logra una mejor comprensión del 7. Owen S., Mahout in Action. ©2012 by
funcionamiento de la herramienta apache Solr. Manning Publications.
También se muestra la instalación de la plataforma
de desarrollo eclipse y se integra exitosamente al 8. Sánchez J. Indexación y recuperación
gestor de proyectos maven. Ello permitió crear un
proyecto desde eclipse que posibilitó indexar y re-
de documentos en Apache Solr hacien-
cuperar documentos. do uso del api para Java. Descargado de
http://www.adictosaltrabajo.com/tutorial
es/tutoriales.php?pagina=apacheSolrJav
aApi (2 noviembre 2012)

“Nombre del Evento”


Montero, E.; Plasencia, A., Suarez, I. | “CONFIGURACIÓN DE LA PLATAFORMA DE DESARROLLO ECLIPSE PARA LA INTEGRACIÓN CON EL GESTOR
DE PROYECTO MAVEN Y LA HERRAMIENTA APACHE SOLR NECESARIAS EN LA CONSTRUCCIÓN DE UN BUSCADOR WEB ESPECIALIZADO.”

6. SÍNTESISCURRICULARES DE LOS AU- la maestría “cibernética aplicada” auspiciada por el ICIMAF.


TORES Dtr.C Armando Plasencia Salgueiro

Ing. Elina Mylen Montero Puñales Doctor en Ciencias Técnicas (1992). Master en Ciencias Técnicas
(1979). Master en Gestión de Información en las Organizaciones
Graduada en 2011, de ingeniería en ciencias informáticas, en la (2000) por la Universidad de La Habana y la Universidad de Murcia.
universidad de ciencias informáticas (UCI). Siendo estudiante se Ingeniero en equipos electroautomáticos de la aviación de la
desempeñó como analista en el proyecto D´TIC de la facultad 1 Academia Militar N.E. Shukovsky, de Moscú (1979). Actualmente,
de la uci. Cumplió misión internacionalista en Venezuela cursan- Investigador Agregado del Departamento de Control Automático del
do el cuarto año de la carrera desempeñándose como adminis- Instituto de Cibernética, Matemática y Física (ICIMAF) del CITMA.
tradora de redes y sistemas en un (CDI) centro de diagnóstico Jefe de los Proyectos “Algoritmos de minería de datos para la toma
integral. Trabaja actualmente en el departamento de control de decisiones en procesos industriales con procesamiento paralelo
automático del instituto de cibernética, matemática y física (ICI- (cluster y grid) y para la búsqueda especializada de contenidos en
MAF) del CITMA como reserva científica. Participó en el taller la Web” Proyecto no asociado a programa de la Agencia de
científico cibernética aplicada TCA 2011 y TCA 2012 del men- Energía Nuclear y Tecnologías de Avanzada (AENTA) y
cionado departamento como ponente. Participó en la jornada “Algoritmos de Control Automático y Modelación en Tiempo Real
científica del instituto como ponente. Participó como ponente en para Software libre”, proyecto interno del ICIMAF. Coordinador de
el congreso internacional de información Info 2012.trabaja en la la Maestría “Cibernética Aplicada” auspiciada por el ICIMAF,
actualidad en el proyecto no asociado a programa de la agencia profesor de la misma. Jefe del Departamento de Control
de energía nuclear y tecnologías de avanzada (AENTA) “algo- Automático.
ritmo de minería de datos para la toma de decisiones en proce-
sos industriales con procesamiento paralelo (cluster y grid) y
para la búsqueda especializada de contenidos en la web”. Cursa

“Nombre del Evento”


TCA2012 1

Control PID de una banda transportadora con labVIEW y PDI


utilizando MATlab para uso en la minería de cobre

Autores: Benavides Maldonado José, Jimmy Stalin Paladines, José Ocho Alfaro & Víctor Espinoza
Ochoa

Resumen— La finalidad del documento es añadir soluciones al En la figura 1 se puede apreciar el sistema controlado con
reconocimiento de minerales y transporte en la minería de cobre labVIEW con su respectivo sistema de PDI elaborador por
en el sur del Ecuador, utilizando herramientas que poseen alumnos de la UNL.
MATlab y labVIEW, el algoritmo desarrollado en MATlab
utiliza los principios de procesamiento de imágenes para
segmentar y filtrar las mismas, para finalmente aplicar la teoría
de redes neuro-difusas para el reconocimiento de la presencia de
cobre en una roca que se toma como modelo, es importante añadir
que gracias a un aplicación hecha en labVIEW se controla el
movimiento de una banda transportadora utilizando un bloque
PID. Para el mando a distancia se configura tanto las antenas
para el control inalámbrico, asi como el PLC -2020 de National
Instruments que es el responsable de ejecutar el bloque PID en la
banda transportadora, se eligió una correcta banda de frecuencia
para poder comunicar las dos antenas que para este caso fueron
utilizadas punto a punto. El mando del motor eléctrico utilizado
consiste en realizar el arranque, la regulación de velocidad, el
frenado, la inversión del sentido de marcha, así como el
mantenimiento del régimen de su funcionamiento, de acuerdo con Fig.1.1 Prototipo creado por estudiantes de la carrera de la UNL para
realizar prácticas de Control Automático y Sistemas Inteligentes.
las exigencias del proceso tecnológico. En el software de control
de velocidad de un motor de corriente alterna se maneja un tipo
de bases de datos, el cual es registro de variables basado en texto II. MATERIALES Y MÉTODOS
plano por medio del formato csv. Esta base de datos permitirá
almacenar las variables como hora velocidad medida, velocidad Al realizar este trabajo se aplicó el método de prueba de
establecida (set point), voltaje de salida, Temperatura 1, confirmación que se basó en la Ejecución, Pruebas y Puesta en
Temperatura 2, Temperatura 3 y por último la variable Marcha los resultados para ser ocupados en alguna aplicación
manipulada por el controlador, la cual es el voltaje de salida en concreto como en este caso para dar una solución a la
desde el Compact FieldPoint 2020 hacia el variador de frecuencia minería de cobre del sur del Ecuador. Los materiales que se
trifásico que controla el motor AC.
utilizaron son los siguientes.
Palabras Clave — UNL ( Universidad Nacional de Loja), Un variador de frecuencia es un sistema para el control de la
labVIEW, WiFi, cFP Compact FieldPoint, Variador de velocidad rotacional de un motor de corriente alterna (CA) por
Frecuencia, Sistemas Inteligentes, Redes neuronales, lógica fuzzy, medio del control de la frecuencia de alimentación
Anfis, PID, PDI, Formato CSV. suministrada al motor de la marca Sinamigs G110 de Siemens.
Un cFP Compact FieldPoint 2020, en los cuales se ocupan los
I. INTRODUCCIÓN módulos de Cuadratura NI cFP-QUAD-510 que recibe la señal
El procesamiento digital de las imágenes es de gran utilidad del encoder trabajando con el principio de número de pulsos
en la automatización de control de procesos, debido a que se por revolución máxima revolución 5000 rpm, NI cFP-TC-120,
puede develar y analizar características que otros procesos más 2 Ubiquiti Nanostation 2, 3 Termocupla tipo K, 1 Breaker
sencillos no podrían, gran cantidad de imágenes en menor trifásico 30 A, 1 Tomacorriente, Polea aluminio 16", Banda
tiempo y extraer información relevante para mejorar procesos tipo, 1 Enchufe, Cable sólido #10, Cable flexible # 14, 1
de producción, esto es apoyado con el control de velocidad en cámara de NI, un banco diseñado por estudiantes para poder
lazo cerrado de un motor trifásico de inducción Jaula de adquirir la imágenes de las piedra.
Ardilla con centro de operación remoto desde una PC, es
importante recalcar que este proyecto está funcionando en la
UNL, en el laboratorio de Automatización y Control, donde
los estudiantes de carreras como Ingeniería Electromecánica,
Electrónica, Ordenamiento Territorial y Sistemas pueden
acceder a profundizar prácticas que luego podrán ser puestas Para la parte de PDI las piedras.
en uso en la industria minera de cobre del sur de Ecuador.
TCA2012 2

Para explicar el procedimiento se van a emplear varias


imágenes tomadas en el banco de pruebas que representan
a las piedras.
Cada pixel se lo puede representar como la información de
tres canales diferentes uno con la información relacionada con
el rojo, otro con el verde y otro con el azul. Considerando lo
anterior, se puede representar cada pixel como un vector con 3
componentes. La intención al segmentar en color es separar
objetos cuyos patrón de color sea uniforme, es decir aislar Fig.2.3 Parte del programa desarrollado en el editor de MATlab
regiones que tengan el mismo color. Lo que da como resultado la figura 2.4
El procesado de imágenes se lo hace con MATlab y se los
carga direccionándola como por ejemplo la de este caso es
I=imread('C:/piedras/17-16-54-08-359.jpg'); lo que se muestra
en la figura 2.1

Fig.2.4 Buscando el pixel con la tonalidad verde


Se extrae a continuación el área total por medio de la función
regionprops de matlab y el promedio de los valores de los
Fig.2.1 Imagen que se carga gracias a MATlad, utilizando el comando pixeles correspondientes a la segmentación, en la figura el
imread. color blanco, estos valores nos servirán para el entrenamiento
de la red neuro-difusa. Figura 2.5. Ver [5].
Posteriormente se recorta la imagen en la figura de interés
con el comando rect=[100 120 450 480];
imagenRecortadaRgb = imcrop(I,rect); quedando tal como se
puede apreciar en la figura 2.2

Fig.2.5 Parte del programa que extrae los valores obtenidos de la


segmentación
Se concluye con el programa combinando la imagen original
con la imagen segmentada. Dándose la Figura 2.6

Fig.2.2 Imagen recortada.

Después se tiene que definir dos cosas, primero la tolerancia


y segundo el color verdoso que caracteriza al cobre. Para la
tolerancia T vamos a escoger un valor entre 0 y 255. Si se
toma T=0, quiere decir que se está buscando un color en
particular sin tener en cuenta la degradación que pueda darse Fig.2.6 Imagen segmentada final
debido a las fuentes de luz o a las texturas, si tomamos un
Para el entrenamiento se extrajeron datos de 6 piedras
valor muy alto, prácticamente estarán pasando todos los
(imágenes) diferentes con el algoritmo explicado
colores por lo que la segmentación podría dar malos
anteriormente, esto se muestra en la Tabla I
resultados. TABLA I
Para escoger los valores lo recomendado es hacer un DATOS PARA EL ENTRENAMIENTO
seguimiento empírico al método hasta que se encuentre
resultados cercanos a lo que se busca. Con respecto al pixel de
tonalidad verde, se buscara un valor cercano a [0, 255, 0]. Para
lo cual se desarrolla un archivo .m, que se presenta una parte
en la figura 2.3

En la Tabla II se muestra los datos que se ocupan para la


validación.
TCA2012 3

TABLA II fispiedra.fis, obteniéndose así resultados que se verán masa


DATOS PARA LA VALIDACION
adelante, esto se puede apreceiar en la figura 2.10Ver [2].

Fig.2.10. Función para evaluar datos extraídos.

Para la parte de movimiento de la banda transportadora que


se encarga de movilizar las piedras que serán analizadas.
A estos datos se los convirtio en matrices para cargarlos y La parte de comunicación se abre una consola de MS-DOS y
entrenar la red neuro-difusa con el comando anfisedit de desde uno de los dos dispositivos s e lanza un “ping” a la
Matlab, los mismos se muestran en la figura 2.7 dirección IP (192.168.1.2) del propio dispositivo y a la del
otro dispositivo (192.168.1.3) y si todo funciona
correctamente se obtendrá respuesta por parte de los dos, en
este caso se ha lanzado un ping desde el que se ha configurado
como “Estación WDS” pero sería indiferente realizarlo de
manera inversa pues el resultado sería el mismo ya que están
enlazados entre sí.
La configuración realizada en MAX puede guardarse y
recuperarse a través de la siguiente ruta: File: Import / Export.
Fig.2.7 Datos de entrenamiento y validación cargados en el Editor Anfis
El resultado de la importación o exportación puede ser cargada
en otro computador e incluye la configuración de los
Luego se generó el FIS (Sistema de Inferencia Difuso), dispositivos reconocidos mediante la opción de Devices and
automáticamente con las variables entrada - salida con sus Interfaces, es decir: tarjetas de adquisición de datos, tarjetas
parámetros, adicionalmente de generaron las reglas de la GPIB, etc., pero no incluye la configuración de dispositivos
inferencia. Figuras 2.8 a, 2.8 b. conectados remotamente. Ver [1]

Para guardar la configuración de un sistema remoto como el


caso de un FieldPoint, se accede a la siguiente ruta: Tools:
FieldPoint: New / Save / Save as.., luego se selecciona la
ubicación donde se desee guardarla, lo antes señalado se puede
observar en la figura 2.7
Fig.2.8 a Sistema de inferencia Difuso

Fig.2.8 b Reglas regeneradas

Para entrenar el FIS se escoje el metodo hybrid, error de Fig. Esquema de la instalación con labVIEW
tolerancia 0 y epoca 30, dandonos un error de 0.31, si
tuvieramos un error alto, nos indicaria que el conjunto de datos En la Fig.2.11 se muestra la sección de código fuente que se
extraidos no serian la mejor opcion, Figura 2.9 encarga de la sincronización con el dispositivo de adquisición
de datos y de la lectura de sus entradas analógicas para
posteriormente ser analizada y mostrada en el panel
frontal.Para leer las entradas analógicas del dispositivo de
adquisición de datos primeramente se debe especificar el
dispositivo a utilizarse así como también los canales a
utilizarse. En el caso del presente proyecto estamos utilizando
el dispositivo denominado FP @ 172_16_10_10 y los canales
Fig.2.9 Gráfica del entrenamiento analógicos a utilizarse son los siguientes: cFP-TC-120
(Todos), cFP-QUAD-510 (Canal de velocidad 0). También
Por otro lado la función evalfis de MATlab permite evaluar debemos especificar el rango de las variables a adquirir, así
los datos extraídos de diferentes piedras analizadas haciendo como también el rango de voltaje para dichas variables. Cabe
uso del Sistema de Inferencia Neuro-Difuso llamado recalcar que estas configuraciones se las debe realizar fuera
TCA2012 4

del ciclo repetitivo encargado de la adquisición o también se TABLA III


RESULTADOS DEL ANÁLISIS DE REGRESIÓN LINEAL
las puede realizar en la aplicación denominada Measurement
& Automation Explorer, comúnmente nombrada como MAX.

No use líneas verticales en la tabla. Los planteamientos que sirven para


toda la tabla no necesitan letras de pie de nota.
En la figura 2.13 se muestra el sistema en diagrama de
bloques a controlar mas adelante se plantean las funciones de
transferencia encontradas con la ayuda de MATlab.
Fig.2.11 Obtención de datos motor AC

En la Fig.2.12 se muestra el controlador PID con sus


respectivas configuraciones, dicho controlador ejerce mando
sobre la variable manipulada, la cual posteriormente fluye
hacia la salida analógica del cFP. Cabe recalcar que la
frecuencia de muestreo que utiliza el controlador debe estar en
base a la velocidad de muestreo del dispositivo de adquisición
de datos.

Fig.2.13 Diagrama de bloques del sistema de generación a controlar


En la tabla IV se describirán las funciones de transferencia
del sistema (que fueron desarrolladas con la herramienta de
LabVIEW): Ver [3].
TABLA IV
RESULTADOS DEL ANÁLISIS DE REGRESIÓN LINEAL

Fig.2.12 Controlador PID

Análisis de la planta No use líneas verticales en la tabla. Los planteamientos que sirven para
toda la tabla no necesitan letras de pie de nota.
En la tabla I se muestran las variables de entrada y salida
tanto para la planta como para el controlador. Las tareas de
En la figura 2.14 se describirán las funciones de
este modelo es identificar el modelo para el grupo Variador de
transferencia con sus respectivas interacciones de entrada y
frecuencia-Motor-Banda transportadora que describa el F
salida (que fueron desarrolladas con la herramienta dei
comportamiento real del sistema instalado. Simular, en lazo
LabVIEW): g
abierto, el modelo acondicionado mediante los parámetros
.
reales para la evaluación del comportamiento estático y 1
dinámico de las siguientes variables: velocidad de rotación del .
motor, velocidad lineal de la banda, peso del elemento que A
transporta la banda y la frecuencia de motor. Determinar los m
p
parámetros del controlador que permita regular las variables l
dentro de las especificaciones deseadas. Simular el sistema i
completo: controlador, actuadores, planta, sensores; como t
parte de un sistema en lazo cerrado, los que se muestran en la u
d
tabla III Fig.2.14 Estructura del modelo MIMO del sistema
d
El esquema de control se seleccionará en función de lase
respuestas pertenecientes a las variantes de la ley de controllc
PID, sintonizadas mediante el método Ziegler-Nichols en lazoo
cerrado (método de las oscilaciones mantenidas) y en lazom
abierto (método de la curva de reacción), así también se p
l
e
j
o
TCA2012 5

tomará en cuenta la sintonización mediante el método Cohen-


Coon. De los métodos mencionados anteriormente, se evaluó TABLA V
RESULTADOS DEL ANÁLISIS DE LAS PIEDRAS
el de mejores características en relación al tiempo de
establecimiento y porcentaje de sobre-oscilación de la variable
de respuesta. En la siguiente figura se muestra el controlador
de tipo PID seleccionado según los requerimientos. Podemos
darnos cuenta de los parámetros del controlador, los cuales
son: Constante proporcional (Kp) = 0.8, Tiempo de
integración (Ti) = 0.6 seg, Tiempo de derivación (Td) = 0.2
seg, en la figura 2.15 se muestrea como

Fig.2.15. Simulación H1 más controlador PID, parámetros de tiempo y


amplitud dentro del umbral permitido Fig. 2.17 Comparación de resultados.

Una vez esquematizada la estructura de la simulación


De esta forma se encuentra la función de transferencia como
basada en software (LabVIEW Simulation Module) se procede
se muestra en 1
a establecer las variaciones tanto del setpoint como de las
(1) perturbaciones. Las variaciones del setpoint para el
controlador de velocidad de rotación del motor: Inicia su valor
La función de transferencia que describe el comportamiento con 0 rpm. En el segundo 4, cambia su valor a 500 rpm. En el
del sensor no es más que una constante que relaciona la segundo 18, cambia su valor a 1500 rpm. En el segundo 36,
variable de entrada y salida. Como podemos observar en el cambia su valor a 1000 rpm. Las variaciones de las
esquema de simulación, la variable de entrada y de salida es la perturbaciones (Peso del elemento carga de la banda
misma, por lo tanto la función que describe el sensor es la transportadora) para el controlador de velocidad de rotación:
unidad, como se puede apreciar en la figura 2.16 Inicia su valor con 0 kg. En el segundo 10, cambia su valor a 8
kg. En el segundo 25, cambia su valor a 20 kg. En el segundo
40, retorna su valor a 0 kg. En la gráfica 2.18 se muestran los
resultados del controlador de velocidad de rotación del motor.

Fig.2.16 Esquema de simulación para la evaluación del controlador

III. RESULTADOS Y DISCUSIÓN


Para demostrar la eficiencia del algoritmo obtenido, se realizo
un análisis de verdaderos positivos y negativos, asimismo de Fig.2.18 Resultados de la evaluación del controlador de frecuencia.
falsos positivos y negativos.
En el análisis se considera como: “Verdaderos positivos”
IV. CONCLUSIONES
cuando un observador indica que la piedra con cobre en el
análisis cumple con el estándar; y para “Verdaderos negativos” Los resultados de la investigación permiten concluir que un
el observador indica que no cumple con el estándar, en ambos sistema de reconocimiento basado en técnicas de
casos el algoritmo demuestra lo mismo que el observador. procesamiento de imágenes y redes neuro-difusas que se
Por otro lado se considera como: “Falsos positivos” cuando un clasifican de forma efectiva y robusta algunos tipos de rocas.
observador indica que la piedra con cobre en el análisis
cumple con el estándar, pero el algoritmo muestra lo contrario; Los sistemas de colores pueden ser bastantes informativos
e inversamente para “Falsos negativos”. parea el análisis de imágenes según necesidades especificas de
A continuación se presentan los resultados obtenidos en la un objetos ó escena.
Tabla V y en la grafica 2.17
TCA2012 6

Se debe buscar las mejores alternativas posibles para que las


imágenes obtenidas muestren la mayor cantidad de detalles de
modo que los resultados sean más precisos.

Ampliar el set de muestras a por lo menos 100 piedras, de


las cuales 40 contengan cobre y el 60 restante contenga otro
tipo de mineral.

En cuanto a los valores en estado estable, se puede extraer


las siguientes relaciones sobre las variables de entrada y
salida: Por cada incremento de 1 Hz en la frecuencia entregada
al motor (fm), se obtiene una variación en la velocidad de
rotación (Vrm) de +57 rpm. Por cada incremento de 1 Kg en el
peso del elemento de carga de la banda transportadora (Pec),
se obtiene una variación en la velocidad de rotación (Vrm) de -
87 rpm.

Con el software diseñado en LabVIEW , con los sistemas


Real Time y la implementación física del sistema, se permite al
operador, visualizar en tiempo real las formas de onda de la
temperatura y velocidad de el motor trifásico, además se puede
en forma remota controlar los diferentes parámetros del motor
como el encendido, apagado, aumento o disminución de
velocidad, inversión del sentido de giro y parámetros de
límites máximos y mínimos de funcionamiento, lo cual afecta
directamente al funcionamiento de la banda transportadora,
con lo que se podrán realizar las correcciones necesarias al
proceso en una forma rápida en caso de que sea necesario.

AGRADECIMIENTOS
Les agradecemos a la UNL, por las facilidades prestadas
para realizar este documento.

REFERENCIAS
[1] Jordi Mayné, 2003. Sensores, acondicionadores y procesadores de señal.
Ciudad de México, México. Nº 2 (60 pag.).
[2] Companioni, A. (2000). La programación en Matlab. La Habana-Cuba.

[3] Aracil, J., & Gordillo, F. (1997). Dinámica de Sistemas.

Enlaces Electrónicos.

[4] MathWorks ®, Inc. (2004). Descripción del Producto. Recuperado el


22 de Agosto de 2011, de MATLAB:
http://www.mathworks.es/products/matlab/description1.html

[5] www.ni.com/download.

[6] Palacios, R. (2004). Curso rápido de Matlab. En Palacios, Rafael (pág.


41).
Universidad de Matanzas “Camilo Cienfuegos”

Dirección: Vía Blanca Km. 3, Matanzas, Cuba.

Título: Software para la distribución óptima de flujo en las


bombas de alimentar caldera de una central térmica.

Autor Principal: Ing. Ernesto Miguel Solís Alemán.

Coautores: Dr. C Juan Luis Rodríguez Olivera.

Dra. C Mercedes Alemán García.

Contacto: Ernesto Miguel Solís Alemán, e-mail: ernesto.solis@umcc.cu,

emsolis88@gmail.com. Teléfono: +53(45) 256884, +53(45) 265167.


Resumen: Se propone un método para obtener una distribución óptima de los flujos en
las bombas de alimentar de una central térmica a partir de minimizar del consumo de
corriente, aplicando un método de optimización; para lo cual, es necesario obtener los
modelos que relacionen el consumo de corriente y la posición del variador de
velocidades, en función de la presión de descarga y el flujo entregado; utilizando para la
modelación de dichas variables, un modelo combinado basado en la implementación
simultanea de una regresión estadística y una red neuronal de tipo Perceptrón
Multicapas (MLP). Para el ajuste de los modelos se utilizaron mediciones de los ficheros
histórico del sistema SCADA (Supervisory Control and Data Acquisition), donde se
aplica un método de diseño de experimento para eliminar posibles ruidos que puede
afectar el ajuste de los modelos. Posteriormente se desarrolla un software que permite
distribuir los flujos de forma óptima, brindando al operador los parámetros necesarios
de explotación con que deben trabajar el sistema de alimentación. Para validar el
software, se utiliza un caso de estudio y se analizan los resultados obtenidos, llevando
a cabo una valoración técnica-económica.
Palabras Claves: bombas de alimentar calderas, optimización, modelo combinado, red
neuronal, regresión estadística.

1. Introducción.

En las centrales térmicas la alimentación del agua a la caldera se realiza a través de


bombas centrífugas multietapas, las cuales suministran el agua necesaria para la
producción de vapor, así como para el enfriamiento de este vapor a la admisión de la
turbina. Estas bombas tienen un insumo entre un 5 y un 7 % de la generación bruta de
la planta representando el 50 % del insumo total; cada bomba está instalada en
paralelo, garantizando la operación para cargas variables de la central. La descarga de
estas bombas se realiza a un cabezal común lo que permite mantener una bomba en
reserva mientras las dos restantes cubren la demanda, (Díaz, et al., 2002). Las
unidades productoras de electricidad son altas consumidoras, ya que se necesita una
gran cantidad de energía para accionar el equipamiento de las mismas, por lo que
tienen como tarea fundamental ser cada vez más eficientes, buscando nuevas tácticas
en la operación de estos bloques en cualquier condición de trabajo, en todo momento
debe responder a una estrategia económica, es decir, existen múltiples posibilidades de
entregar un mismo flujo distribuyendo éste entre las dos bombas en funcionamiento,
sin embargo, solo una combinación de ellas permitirá minimizar el consumo de potencia
total de ambas bombas.
Desde el inicio de la operación de la unidad, con las bombas en buen estado técnico, el
sistema automático de regulación de nivel del domo de caldera garantizaba la
distribución de flujo entre bombas idénticas regulando el variador de velocidad de
ambas bombas al mismo valor de apertura, es decir, suministrando cada una la mitad
del flujo demandado. Esta situación actualmente es totalmente distinta ya que las
bombas a pesar de ser iguales constructivamente no tienen las mismas características
después de más de 20 años de trabajo, esto se debe principalmente al envejecimiento y
cambio de los elementos estructurales. La situación se traslada entonces a la
distribución de flujo óptima entre dos bombas del sistema de alimentación con
características disímiles.

1
2. Materiales y métodos.

2.1. Propuesta del modelo combinado y diseño de experimento.


Para relacionar las variables de explotación de las bombas de alimentar: consumo de
corriente y posición del variador de velocidad con la presión de descarga y el flujo
entregado para cada bomba del sistema de alimentación de la CTE, se propone un
modelo basado en técnicas de inteligencia artificial y estadística que se muestra en la
figura 1.2 según propone (Quiza, 2004).
Este modelo específicamente propone una combinación de dos métodos de
aproximación funcionales, el primero basado en redes neuronales del tipo Perceptrón
Multicapas (MLP) y el segundo es una regresión estadística.
El modelo propuesto determina el valor esperado por cada modelo independiente (red
neuronal y regresión estadística) gMLP y gREG, según los valores que tomen las variables
de entrada (presión de descarga y flujo entregado), posteriormente se determinan sus
respectivas ponderaciones, W MLP y W REG y finalmente se obtiene el valor de las
variables de salida (consumo de corriente y posición del variador de velocidades) a
partir de la suma ponderada de cada aproximador funcional.

Figura 1. Descripción general del modelo combinado.


Para el ajuste del modelo de regresión estadística, y red neuronal, es necesario
disponer de datos experimentales. Inicialmente se dispone de un conjunto de datos
obtenidos a partir de mediciones realizadas y almacenadas por el sistema SCADA
“ALSPA P320”; este conjunto se corresponde con mediciones de aproximadamente 2
meses de trabajo continuo del sistema de bombas de alimentar. El conjunto de datos
iniciales es filtrado, estableciendo el rango de trabajo de la bomba alimentar donde se
seleccionan los valores que se encuentran comprendidos entre flujo mínimo y máximo
respectivamente, eliminando posibles ruidos que pueden afectar la capacidad de
aproximación de los métodos que se proponen; posteriormente se realiza un muestreo
estratificado, donde se divide la población total en estratos o clases disjuntos entre sí,
cada estrato se divide analizando el flujo proponiéndose un incremento del flujo de 2
m3/h; se elige en cada clase una muestra, a partir de una prueba de medias que se
aplica, (Johnson, 2008).
Para cada sistema de bombas de alimentar se obtiene un conjunto de datos con
diferentes números de observaciones, estos datos, se agrupan en tres conjuntos
(entrenamiento, validación y prueba) para el ajuste, validación y prueba del modelo de

2
red neuronal y regresión estadística respectivamente, para lo cual se aplica un
muestreo aleatorio simple.

2.2. Modelos de regresión estadística y red neuronal


Existen disímiles formas de relacionar estas variables entre las cuales las más
empleadas son: la regresión cuadrática múltiple, la exponencial y la lineal (Hair, et al.,
2009), esta última es la empleada para relacionar las variables de explotación. Las
ecuaciones generales de los modelos de regresión estadística propuestos se muestran
a continuación:
y C iq jp (1)
z C nq mp (2)
donde: y, z, q, p, C, i, j, k y l, representan respectivamente la corriente de las bombas, la
posición del variador de velocidades, el flujo entregado por cada bomba, la presión de
descarga y sucesivamente los coeficientes de ajuste de la regresión.
Para el diseño y proceso de entrenamiento de la red neuronal se utilizó el software
MatLab V. 5.1, donde el modelo se obtuvo posterior a un diseño de experimento
aplicando el método de Tagushi para optimizar los principales elementos estructurales y
de entrenamiento de la red neuronal, con objetivos del diseño la capacidad de
generalización de la red y el error medio cuadrático de los residuales; los elementos
estructurales y de entrenamiento son seleccionados a partir de gráficos seleccionando
los puntos máximos y mínimos de cada función según sea el caso según propone
Quizá (2004); una vez obtenido los coeficientes matriciales de ajuste de la red neuronal
se simula la misma para conformar así el modelo de red neuronal, (Flexer, 1996;
Martín, Sanz, 2001; Muñoz, 1996).

2.3. Método de Optimización


Se utiliza como método de optimización la programación dinámica; este se fundamenta
en la toma de decisiones que se realiza por etapas o estados, de manera que la
decisión de una etapa del problema influye en la respuesta del siguiente estado, de
modo que el cambio de un estado a otro siempre se realiza de forma óptima. Para la
construcción del modelo primeramente es necesario definir un conjunto de variables
que caractericen las condiciones de funcionamiento de bombas de alimentar. Donde se
analiza el flujo total necesario que debe entregar el conjunto de bombas de alimentar qT
[m3/h], el flujo entregado por cada bomba i, qi [m3/h], la corriente de la bomba i, yi(qi)
[A], para un flujo qi, la corriente total de las bombas en el estado i, Yi(qT) [A], el paso
de variación del flujo para cada bomba Δq [m3/h], y por último el número de bombas k,
(Grau, 2002; Rodríguez, 2004)
De los modelos obtenidos que corresponden al amperaje para cada conjunto de
bombas de alimentar, se puede evaluar dicho modelo en función del flujo entregado por
cada bomba yi(qi) dentro de todos los valores posibles de flujo en los rangos de trabajo
correspondientes entre flujo mínimo y flujo máximo, además, se considera que para
flujo cero en cada bloque el amperaje será también cero, lo que significa que la bomba

3
no está en servicio; a partir de las definiciones anteriores se propone que la función
objetivo a minimizar es la siguiente:

Y (q1 , q2 , q3 ) min (3)


en los límites:
k
qi qT (4)
i 1

qi min qi qi max (5)


Adoptando como criterio de la racionalidad económica la disminución del consumo de
corriente de las bombas de alimentar, considerando de esta manera una disminución
del consumo de la potencia de las bombas, esta expresión representa una ecuación de
k variables desconocidas que son los distintos valores de flujo que puede entregar cada
bomba con un consumo total mínimo.
Más adelante se resuelve la ecuación 3 transformándola en un sistema de k ecuaciones
con una incógnita cada una; analizando un proceso de varias etapas, donde la etapa
inicial es el análisis del trabajo de la bomba 1 solamente, y la etapa final, en este caso
el número k, que se corresponde con el estado en el cual trabajan las tres bombas en
conjunto.

2.4. Descripción del software “Optimización APA”


El software “Optimización APA” se confeccionó en lenguaje Borland Delphi V 7.0 y
posee una interface asequible para que el usuario pueda operar con él de forma
interactiva, en él se implementó los modelos matemáticos y el método de optimización
mencionado anteriormente. El mismo tiene entre sus funciones fundamentales la
entrada de datos necesarios (presión de descarga y flujo entregado por cada unidad de
bombas de alimentar) en el menú principal, (ver figura 2), también posee la posibilidad
de que el usuario pueda establecer los rangos de trabajo de cada bomba de alimentar y
la salida o entrada en servicio de las mismas; como resultado final se obtiene los
valores de la posición del variador de velocidades en los cuales el flujo se distribuye de
forma óptima, es decir, minimizando el consumo de corriente de las bombas.
El software realiza principalmente las siguientes funciones generales:
Distribuir de forma óptima el flujo total demandado entre las bombas del sistema de
alimentación.
Analizar la conveniencia de la entrada y salida de las bombas de alimentar en caso
de una mayor demanda o déficit de flujo a entregar.
Crea una base de datos con los rangos de flujo y el amperaje correspondiente de
forma óptima para cada bomba de alimentar.
Facilitar y mejorar el trabajo de los operadores en el control de los parámetros de las
bombas del sistema de alimentación a través de la aplicación de las técnicas de
computación.

4
Figura 2. Interface del software Optimización APA.

3. Análisis de los resultados.

3.1. Regresión Estadística.


Para obtener el modelo de regresión estadística del consumo de corriente y posición del
variador de velocidades en función de la presión de descarga y flujo entregado se utilizó
el software Statgraphics Plus V. 5.0, donde el modelo es ajustado según el conjunto de
entrenamiento establecido, utilizando una regresión lineal múltiple; a continuación en
tabla 3 se muestran los resultados de los coeficientes de los modelos, así como el
coeficientes de correlación.

Tabla 3. Resultado de los modelos de regresión estadística.


Consumo de corriente Posición del variador de velocidad
Coeficientes Bomba Bomba
Bomba 1 Bomba 1 Bomba 2 Bomba 3
2 3
C 38.930 28.007 -28.275 17.318 14.169 12.550
i 0.367 0.378 0.423 0.210 0.268 0.236
j 0.929 0.930 1.224 0.038 0.033 0.040
R2 0.98 0.98 0.98 0.95 0.92 0.91

3.2. Optimización de la red.


Los parámetros estructurales y de entrenamiento óptimos son seleccionados a partir de
graficar los resultados obtenidos posterior del diseño de experimento de cada
parámetro en función de los objetivos de diseño; los parámetros de diseño se considera
óptimo cuando el valor de la capacidad de generalización (C.G.) de la red es alto y el
Error medio cuadrático de los residuales (RMSE) es bajo, como cada función es
continua en todo el intervalo analizado se pueden obtener los valores máximos y
mínimos a partir de un análisis gráfico. Los valores óptimos de los parámetros se
muestran en la tabla 4.

5
Tabla 4. Resultado de la optimización de los parámetros de diseño de la RNA.
Consumo de corriente Posición del variador de velocidad
Coeficientes Bomba Bomba
Bomba 1 Bomba 1 Bomba 2 Bomba 3
2 3
LR 0.004 0.006 0.005 0.005 0.006 0.005
CM 0.9 0.9 0.3 0.5 0.9 0.3
Nn 2 1 3 2 3 3
Imax 250000 180000 325000 50000 150000 125000
Una vez obtenidos los parámetros estructurales y de entrenamiento óptimos para la red
neuronal se entrena la misma con dichos parámetros obtenidos y posteriormente se
obtienen los valores de los pesos y los umbrales para su simulación.

3.3. Comparación de los modelos propuestos.


El modelo combinado se propone para disminuir el error de predicción de las variables
modeladas, las figuras 3 y 4 muestran una comparación según el error medio
cuadrático (RMS) de estimación de los modelos de red neuronal, regresión estadística y
el combinado para el conjunto de prueba, donde el modelo combinado reduce
notablemente el error de predicción para las variables modeladas, demostrando así que
existe una buena respuesta del modelo combinado frente a una nueva muestra de
valores.

Figura 3. Error RMS de cada modelo para Figura 4. Error RMS de cada modelo para
el consumo de corriente. la posición del variador de Velocidad.
3.4. Precisión del modelo combinado
Para validar el uso del modelo combinado se utilizan tres combinaciones de trabajo de
las bombas de alimentar para una hora de explotación y se determina el error relativo
máximo y RMS entre los valores predichos por los modelos y la medición real obtenida
del sistema SCADA. En la tabla 5 se muestran los resultados obtenidos del error
relativo máximo y RMS para las variables: consumo de corriente y porciento de apertura
del variador de velocidades, demostrándose que los errores de predicción de dichos
modelos son menores de un 3 %, justificándose así su validez para la modelación de
dichas variables.

6
Tabla 5. Error relativo máximo y RMS del modelo combinado frente a mediciones
reales.
Consumo de Corriente [A] Posición del Variador de Velocidad [%]
Error [%]
Bomba 1 Bomba 2 Bomba 3 Bomba 1 Bomba 2 Bomba 3
Relativo Max. 0.33 2.09 1.24 0.21 1.01 2.23
RMS 0.09 1.75 0.83 0.21 1.01 0.66

3.5. Validación de Software “Optimización APA”


Para validar el software “Optimización APA” se utilizó dos combinaciones de trabajo de
las bombas de alimentar, para un conjunto de datos pertenecientes a una hora de
explotación para las bombas 2-3 y para las bombas 1-3. Para cada caso se obtuvo una
distribución de los flujos de una forma óptima; demostrándose la versatilidad del modelo
combinado dado su precisión, comparándolo con las mediciones reales de amperaje y
posición del variador de velocidades registradas por el sistema SCADA.
A continuación en la tabla 6, se muestran el consumo real y el óptimo para las bombas
de alimentar 1-3 luego de la distribución del flujo óptimamente, así como el consumo
total de ambas bombas (real y óptimo) y la representación del ahorro del consumo para
una hora de explotación de dichas bombas, representando en este caso 0.174 MW·h
ahorrados siendo el 2,30 % del consumo total.

Tabla 6. Consumo para las bombas 1 y 3, total y representación del ahorro.


Consumo [MW·h] Bomba 1 Bomba 3 Total
Real 3.606 3.940 7.546
Óptimo 4.249 3.124 7.372
Ahorro 0.174
Para el caso de las bombas 2-3 en una hora de explotación según la distribución del
flujo de forma óptima se obtuvo un ahorro de 0.373 MW·h tal como lo refleja la tabla 7
que se muestra a continuación, representando un reducción del consumo en un 5.08 %
del total.

Tabla 7. Consumo para las bombas 2 y 3, total y representación del ahorro.


Consumo [MW·h] Bomba 2 Bomba 3 Total
Real 3.254 4.076 7.329
Óptimo 4.093 2.863 6.957
Ahorro 0.373

3.6. Valoración Económica e Impacto Ambiental.


Para evaluar la factibilidad económica se tomará como referencia el caso de estudio
que se trató en el epígrafe anterior, analizando que en la combinación de las bombas 1-
3 y 2-3 se ahorran 0.174 MW y 0.373 MW respectivamente para un hora de explotación
. Esto significa que la CTE entrega al Sistema Electroenergético Nacional (SEN) más
energía eléctrica con un mismo consumo de combustible, por lo que desde dicho punto

7
de vista las plantas más ineficientes del país son las que dejan de generar dicha
energía ahorrando combustible, por tanto, teniendo en cuenta que el consumo
específico de combustible promedio del SEN es de 270 g/kWh, se estima que el ahorro
de combustible para la combinación de las bombas 1-3 es de 46,98 kg/h y para las
bombas 2-3 representa 100,71 kg/h. Conociendo que el precio promedio para el año
2012 del petróleo crudo nacional es de 450.38 USD/t, se puede estimar un costo
aproximado de 21.15 USD/h y 45.35 USD/h para las bombas 1-3 y 2-3
respectivamente. Asumiendo que el ahorro para dichas combinaciones de bombas se
mantiene aproximadamente con un comportamiento como el anterior se puede asumir
un ahorro de 152280 USD/año y 326520 USD/año durante el trabajo de las bombas 1-3
y 2-3 respectivamente.
Conociendo que se ahorra aproximadamente 338.26 t/año de petróleo crudo nacional
para la combinación de las bombas 1-3 y 725.12 t/año para la combinación 2-3, se
puede realizar un análisis de impacto ambiental haciendo uso del Software Inventario
de Emisión y Absorción de Gases de Efecto Invernadero basado en las Guías
Revisadas del Panel Intergubernamental del 2006, pudiendo cuantificar de esta manera
que cantidad de gases contaminantes se deja de emitir a la atmósfera. Según el
software mencionado anteriormente este analiza los principales gases contaminantes
de la atmósfera, entre los cuales tenemos del Dióxido de Carbono (CO2), Metano (CH4),
Óxido Nitroso (N2O), Óxidos de Nitrógeno (NOx), Compuestos Volátiles Diferentes del
Metano (COVDM), Dióxido de Azufre (SO2) y Monóxido de Carbono (CO). En la tabla 8
se muestran los resultados del cálculo ambiental para las bombas 1-3 y 2-3. Para
ambos casos los gases contaminantes de mayor predominio son: el CO 2 y el SO2, este
último debido al alto contenido de azufre que posee el crudo nacional.

Tabla 8. Gases contaminantes que se dejan de emitir para las combinaciones de


bombas.
Gases Emisión [t/año]
Contaminantes Bombas 1-3 Bombas 2-3
CO2 1040.0 2240.0
CH4 0.043 0.092
N2O 0.009 0.018
NOx 2.870 6.160
COVDM 0.072 0.154
SO2 50.480 108.20
CO 0.216 0.462

Conclusiones.

La aplicación del diseño de experimento para los datos iniciales permite obtener un
nuevo conjunto de datos con una disminución de su dispersión físicamente significativa
y por consiguiente el nivel de ruido que pudiera influir sobre el ajuste de los modelos es
relativamente bajo.

8
Utilizando los modelos matemáticos de regresión estadística y red neuronal se obtienen
las características energéticas actuales de cada bomba de alimentar caldera con un
buen nivel precisión.
El uso del modelo combinado permite obtener una respuesta de las variables
modeladas con un error de predicción cuantiosamente menor que el obtenido por los
modelos de red neuronal y regresión estadística para todos los puntos del conjunto de
comprobación, demostrándose la precisión del modelo combinado frente a un nuevo
conjunto de valores.
Se logra alcanzar una mayor eficiencia en la operación de las bombas de alimentar
mejorando el indicador de eficiencia de la central térmica.
El Software que puede ser utilizado en cualquier Central Termoeléctrica que trabaje con
dos bombas de alimentar en paralelo, teniendo en cuenta la necesidad de actualizar los
modelos.

Referencias.

1. Díaz, J. L. y colaboradores, 2002. “Descripción Técnica del Sistema de Agua de


Alimentar de la CTE “Antonio Guiteras””. Consultado en: Departamento de
Descripción Técnica CTE “Antonio Guiteras”.
2. Flexer, A., 1996, “Statistical evaluation of neural network experiments: minimum
requirements and current practices”, 13th European Meeting on Cybernetics and
Systems Research, Vienna (Austria), pp. 1005 - 1008.
3. Grau, M. E., 2002. “Optimización de Sistemas Hidrotérmicos”. (Tesis de doctorado,
Universidad Pontificia Comillas Madrid).
4. Hair, J. F. y colaboradores, 2009. “Análisis Multivalente”. Madrid: Prentice Hall
Iberia.
5. Hu S.,Gao H.,Jia X., 2012. “Regulating Characteristics Analysis of Boiler Feed-water
Pump when 600MW Unit Sliding-pressure Operating”. Energy Procedia 17, pag.
1153 – 1160.
6. Johnson, D. E., 2008. “Métodos Multivariados Aplicados al Análisis de Datos”.
México: International Thomson.
7. Martín B., Sanz A., 2001. “Redes Neuronales y Sistemas Difusos”. Zaragoza,
España: Alfaomega.
8. Muñoz, A., 1996. “Aplicación de Técnicas Redes Neuronales Artificiales al
Diagnostico de procesos industriales”. (Tesis de Doctorado, Universidad Pontificia
Comillas Madrid).
9. Quiza, R., 2004. “Optimización Multiobjetivos del proceso de Torneado” (Tesis de
Doctorado, Universidad de Matanzas).
10. Rodríguez, J. L., 2004. “Optimización de Regímenes en centrales termoeléctricas
con unidades de 100 MW”. (Tesis de Doctorado, Universidad de Matanzas).

9
SISTEMA DE MONITOREO Y CONTROL EN TIEMPO REAL PARA UN
HORNO

MONITORING AND CONTROL SYSTEM REAL TIME FOR A FURNACE


Frank Rafael Pacareu de la Cruz1, Elier Fernandez Pedroso2

1 Instituto de Cibernética Matemática y Física (ICIMAF), Cuba, frank@icimaf.cu, 116 Acosta % Heredia y Saco Apto 2, La
Víbora.

RESUMEN: El presente artículo trae una propuesta de cómo utilizar el sistema operativo de tiempo
real RTAI para crear herramientas de control de sistemas en tiempo real duro. A través del RTAI se ha
logrado crear un sistema operativo con el cual se puede acceder al planificador del micro y darle la
máxima prioridad a una aplicación de control consiguiendo que todos los recursos de la computadora
estén en función de esta. Para comprobar este proceso se ha desarrollado un software basado en tec-
nologías libres propuesto para el monitoreo y control en tiempo real de un horno.
A modo de resumen en el presente trabajo se describe como se ha concebido el sistema operativo con
el RTAI incluido y como se ha hecho uso del mismo a través de un software para el control de un hor-
no. Al final se dan los resultados que comprueban que el software de control del horno trabaja en
tiempo real duro. Esto puede ser una solución viable para la enseñanza en institutos de nuestro país
donde se hace imposible adquirir instrumentación como controladores lógicos programables que rea-
lizan esta tarea y que son muy caros en el mercado actual. Por otra parte continúa labrando la senda
de trabajos con propuestas de sistemas en tiempo real con el uso del software libre, esto es una rama
muy importante en disciplinas como el control automático, la computación, la cibernética y otros.

Palabras Clave: RTAI, sistema de tiempo real duro, aplicación de control.

ABSTRACT: This paper presents a proposal of how to use the real-time operating system RTAI to
create tools to control hard real-time systems. Through RTAI has managed to create an operating sys-
tem with which you can access the micro planner and give top priority to an application by getting con-
trol all computer resources are based on this. To check this process has developed software based on
free technologies proposed for monitoring and real-time control of an oven.
To summarize, in the present work has been described how we get an operating system designed with
the RTAI and how we use it through software to control a furnace. In the end the results are given that
show that the oven control software works in real time drive. This may be a viable solution for teaching
in institutes of our country where it is impossible to acquire instrumentation as programmable logic
controllers that perform this task and they are very expensive in today's market. Moreover trail contin-
ues working the jobs proposed real-time systems with the use of free software, this is a very important
branch in disciplines such as automatic control, computer science, cybernetics and other.
KeyWords: RTAI (Real Time Application Interface), hard real-time system, application to control.

Código AMS: 68W40


I. INTRODUCCIÓN
El control automático comprende un amplio rango de disciplinas que van desde las matemáticas hasta
procesos y sistemas informáticos. Es opinión de muchos autores que la importancia de los programas
informáticos para control no puede ser subestimada, tanto en término de herramientas de diseño, como
en implementación. En un sistema de control, el comportamiento correcto del sistema no depende sólo
de la obtención de cálculos lógicos correctos, sino también de la ejecución en el tiempo adecuado de las
acciones de control. [1]

Partiendo de esta premisa, las tareas efectuadas por el sistema de control, deben ser ejecutadas en
“tiempo real” y deben reaccionar a eventos externos que también ocurren en “tiempo real”. Entonces
un sistema en tiempo real debe brindar la posibilidad de tener control del tiempo en que se deben ejecu-
tar las tareas.

En las ramas del Control Automático son diversos los escenarios donde los sistemas de control distri-
buido necesitan operar bajo condiciones de tiempo real duro (conocido en inglés como Hard Real Ti-
me), esto implica requerimientos críticos en su comportamiento temporal. Un ejemplo de esto son los
Controladores Lógicos Programables (PLC por su sigla en inglés) y los Sistemas de Diseño de Control
Asistido por Computadoras (CACSD por sus siglas en inglés). Por su parte los CACSD como Matlab,
Scilab o Scicoslab son softwares creados para diseñar sistemas de control y trabajan en su mayoría so-
bre sistemas operativos convencionales lo que llega solo a ofrecer características de tiempo real blando
(conocido en inglés como Soft Real Time).[2]

Para de alguna forma compensar problemas como el del tiempo real duro para los CACSD, en el mer-
cado existe una gran variedad de sistemas operativos que sirven para esto. Entre ellos, se destacan
RTLinux, ADEOS, QNX entre otros. Una característica que define a la mayoría de estos softwares es
que son propietarios por lo que el uso y la explotación de los mismos se hace limitado.

Ante esta situación la comunidad del software libre ha venido trabajando durante varios años y ha des-
arrollado herramientas libres que permiten el trabajo en tiempo real. Estos softwares se basan en tecno-
logías libres y pueden ser usados sin costo alguno y entre ellos se encuentra RTAI –LAB que se integra
con otros softwares CACSD para lograr tiempo real duro.

En el caso de los PLC según el profesor Ing. Norberto Molinari [3]: “Se entiende por Controlador
Lógico Programable (PLC), o Autómata Programable, a toda máquina electrónica, diseñada para con-
trolar en tiempo real y en medio industrial procesos secuenciales”. Entonces a modo de resumen los
PLC son instrumentos que controlan procesos principalmente en las industrias y lo hacen en tiempo
real.

En el presente trabajo se expone el software de control HornoSysRT, como una nueva propuesta de
implementación de un PLC, manteniendo la premisa que tienen estos de trabajar con tiempo real duro y
para ello se definió como proceso de control un horno. Dicho software se ha desarrollado sobre la base
del conocimiento adquirido en investigaciones previas donde se hace uso de RTAI para conseguir
tiempo real duro. Este es un sistema operativo libre y que permite realizar tareas en tiempo real del cual
se tienen resultados satisfactorios en la utilización con softwares CACSD.
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

II. METODOLOGÍA
RTAI (Real Time Application Interface).
Con el objetivo de realizar los procesos de control en tiempo real tal y como lo hacen los PLC, en la
presente investigación se utilizó RTAI. Esta interfaz es una extensión del kernel estándar de Linux des-
arrollado por el Departamento de Ingeniería Aeroespacial del Politécnico de Milán (DIAPM), Italia.
RTAI le atribuye al sistema propiedades de tiempo real, o sea asume dicho kernel como si fuera una
tarea más de tiempo real asignándole una baja prioridad. Las operaciones básicas de este tipo de tareas
son implementadas como módulos del núcleo. RTAI maneja las interrupciones de periféricos y si éstas
no requieren servicios de tiempo real pasan a ser atendidas por el kernel.

Sistema Operativo Debian


Con la premisa de utilizar RTAI por todas las razones planteadas previamente, en la presente investiga-
ción se debió utilizar un sistema operativo de Linux sobre el cual se pudiera parchear RTAI. Luego de
varios intentos fallidos con Ubuntu 11.04 se probó con Debian KDE 6.0.0 y se logró una compilación
sin problemas. Por esta razón más que por otra se hizo uso de este como sistema operativo para des-
arrollar el software HornoSysRT. Además Debian KDE es uno de los sistemas operativos de la familia
Ubuntu con mayores perspectivas y con más estabilidad.

Entorno de Desarrollo Integrado Qt


Como Entorno de Desarrollo Integrado (IDE por sus siglas en inglés) utilizado para la implementación
del software se debió elegir uno que cumpliera con la política de licencia libre y pudiera usarse en De-
bian KDE 6.0.0 y con RTAI. Además debería contar con instrumentación virtual que permitiera cons-
truir una aplicación típica de control automático. Otra restricción a tener en cuenta era que el IDE de-
bería permitir la construcción de softwares que pudieran comunicarse mediante el puerto serie, pues
esta iba a ser la vía de comunicación con el horno para la adquisición de datos. Por tanto en la presente
investigación se hizo uso del framework Qt con el fin de realizar toda la construcción del software
HornoSysRT.
Qt Creator además de satisfacer todas las necesidades planteadas anteriormente, fue el IDE selecciona-
do porque constituye un framework con una gran comunidad de desarrollo que brinda servicios de con-
sultoría y ayuda online. El lenguaje que utiliza es C++, un lenguaje muy potente y completo. Es otro de
los softwares de la familia Linux por lo que el código generado en la construcción del software Horno-
SysRT podrá ser compilado sin problemas en cualquier otro sistema operativo de esta familia, por
ejemplo Ubuntu.

Otras Tecnologías de apoyo.


Es objetivo de este trabajo resaltar el uso del RTAI y las tecnologías libres para construir un software
que trabaje como un PLC, en tiempo real duro y probarlo en un entorno determinado. Partiendo de esta
premisa las herramientas mencionadas anteriormente son las de mayor relevancia pero no fueron las
únicas que se utilizaron. A continuación se mencionan otras técnicas, herramientas y metodologías uti-
lizadas que colaboraron a la construcción de un mejor software.
Con el fin de realizar un software más robusto, valioso y con mayor respaldo se decidió asistir el proce-
so de construcción del mismo con una metodología de desarrollo de software. El Proceso Unificado de
Rational (RUP por sus siglas en inglés) fue la metodología escogida, ésta es muy reconocida y agrega
3
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

un alto valor al software que asiste.


Para poder realizar todo este proceso metodológico con RUP se necesitó de una herramienta de inge-
niería de software asistida por computadora (CASE por sus siglas en inglés) que colaborara con los
construcción de los artefactos. En este sentido se utilizó como herramienta CASE el Power Designer v
16.0, software novedoso y que abarca todas las fases de desarrollo en la construcción del software que
define RUP.
Además se decidió crear un módulo para la gestión de reportes, para ello era necesario el apoyo de
algún gestor de base de datos. La capa de acceso a datos del software HornoSysRT se determinó que
descansara sobre el potente gestor MySQL. Igualmente muy reconocido y que se ajusta sin problemas
con QT, el IDE seleccionado.

Proceso de compilación del RTAI


Uno de los procesos más complicados y de mayor importancia en la presente investigación fue la com-
pilación del RTAI junto con el kernel de Linux para “tener montado” este software de tiempo real en la
computadora. En este epígrafe se da una propuesta de pasos a seguir para hacer esto y se abarcan temas
relacionados con la construcción, funcionamiento y prestaciones del software de control HornoSysRT.
Como resultado del proceso investigativo, la fase de compilación del kernel de control (RTAI) estuvo
matizada por muchas fuentes que planteaban un mismo proceso, pero que cuando se realizaba arrojaba
errores y no procedía. Por este motivo se pone a disposición la siguiente metodología, la cual fue reali-
zada en una computadora Pentium 4 de 80gb de disco duro y 1gb de RAM.

Especificación de los elementos utilizados durante el proceso de compilación del kernel:


Fuente del kernel linux-source 2.6.36.46.
Sistema Operativo Debian 6.0.0 KDE.
Parche de RTAI.

Primero debe abrirse una consola o Terminal y entrar como root, primero teclea:
su
y luego entra la contraseña de administrador.
Luego se deben instalar las dependencias necesarias para la compilación del kernel ejecutando la si-
guiente línea en la Terminal:
apt-get install build-essential crash kexec-tools makedumpfile kernel-wedge kernel-package
Una vez concluido este primer paso, se prosigue con la instalación de otros paquetes necesarios para la
compilación.
apt-get install libncurses5 libncurses5-dev libelf-dev asciidoc binutils-dev
Para continuar con el proceso de instalación del kernel, se debe descargar la fuente del último kernel
estable (en este caso se utilizó v2.6.32.46) y el parche de RTAI correspondiente a la versión de dicho
kernel. No importa que los últimos números difieran, estos están asociados a las actualizaciones reali-
zadas para dicha distribución.
El paso siguiente es crear una careta dentro de la ruta /usr/src para la compilación del kernel, ubicarse
en él y descargar las fuentes del kernel y colocar el parche de RTAI también. El kernel de Linux y el
parche de RTAI constituyen ficheros extensión “.tar.bz2” y “.patch.gz” respectivamente, estos se des-
comprimen y dentro de la carpeta que se crea del kernel de linux se copia el fichero “.patch” que se
4
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

genera del parche de RTAI.


Para este ejemplo lo que vamos a usar como directorio para hacer esto una carpeta que se va a llamar
“linux” su ruta será /usr/src/linux.
Ahora se ejecuta un Terminal, se entra como root y se posiciona con el comando cd hasta el directorio
del kernel
cd /usr/src/linux
patch -p1 < hal-linux-2.6.32.11-x86-2.6-03.patch
Nota: En caso de tener algún error es necesario reiniciar el proceso.
A continuación se procede a cargar la configuración actual del kernel, esto se realiza para que el nuevo
kernel tome la configuración directamente desde el sistema montado y no exista problema alguno al
momento de compilarlo.
El proceso de compilación del kernel continúa de la siguiente manera:
cp -vi /boot/config-`uname -r` .config
make localmodconfig
En este punto el proceso de compilación preguntará varias cosas acerca de los módulos, se continúa
aceptando todas las preguntas que se realizan presionando Enter hasta que finalice el proceso de confi-
guración. Se continúa la compilación ejecutando la siguiente línea en la Terminal para abrir el menú de
configuración del kernel:
make menuconfig
En este punto se puede deshabilitar o personalizar el kernel a las necesidades que se posean, pero dejar-
lo por defecto trabaja de manera estable por lo que se sugiere que de no existir necesidad no cambiar
nada.
Aquí culmina el proceso de configuración del kernel, por lo que solo resta dirigirse de nuevo a Exit en
el menú principal y presionar Enter para terminar la configuración. Se acepta cuando el asistente pre-
gunte si se desea guardar los cambios hechos a la configuración del kernel presionando Enter sobre la
opción Yes.
Hasta ahora se han creado todas las condiciones para ejecutar el proceso de compilación, una vez en
este punto ya se puede compilar el kernel. Para ello se ejecuta la siguiente línea en la Terminal.
make-kpkg --initrd --append-to-version=-20120415 kernel-image kernel-headers
Nota: Es importante tener en cuenta que el proceso de compilación puede variar dependiendo del
hardware en que se esté realizando el mismo.
Cuando termine dicho proceso se habrán generado dos paquetes .deb dentro del directorio kernel-
2.6.32.46, los cuales se utilizarán para instalar el nuevo kernel, permitiendo que sean rastreables por
Synaptic y de fácil instalación y desinstalación.
Para finalizar el proceso, se instala y prueba el buen funcionamiento del nuevo kernel que se acaba de
configurar y compilar.
Para instalar los dos paquetes .deb que se acaban de generar producto del proceso de compilación se
debe ejecutar los siguientes comandos en la Terminal:
cd ..
sudo dpkg -i *.deb
Si todo salió bien, se reinicia la máquina y en la lista de Grub, se selecciona el nuevo kernel (2.6.36.46)
y presionamos Enter para iniciar el sistema.

5
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

III. RESULTADOS
Una vez compilado el RTAI se procedió a la construcción del software de control HornoSysRT el cual
tal y como muestra la figura 1 cuenta con los siguientes módulos:
- Gestión de usuarios.
- Monitoreo y control de parámetros internos.
- Monitoreo de parámetros externos.
Reportes de ensayos.

Figura 1. Diagrama modular de la aplicación.

La programación del sistema fue desarrollada empleando filosofía orientada a objetos, lo que hace una
diferencia notable con los tradicionales sistemas enfocados al control, que por sus características de
hardware necesitan que la programación sea realizada al más bajo nivel posible. Esto posibilita dar un
salto en el proceso de reutilización de código y funciones, contribuye a la estructuración de este tipo de
sistemas de manera modular y posibilita la sustitución de un PLC comercial por una PC de propósito
general.
La aplicación propuesta presenta una interfaz cómoda, diseñada con el objetivo de que el operario en-
cargado de la explotación del horno introduzca de forma manual la menor cantidad de parámetros. Está
acompañada de ayudas contextuales en todas sus áreas permitiendo así una interacción dinámica con el
usuario.
Obsérvese en la figura 2 la interfaz de monitoreo de los parámetros externos humedad relativa y tempe-
ratura externa. Cada uno de estos parámetros tiene un rango dentro del cual deben estar para que se
pueda trabajar con el horno. Esta es la primera interfaz que se visualiza cuando se comienza el proceso
de control, si estos parámetros están fuera de rango no se puede pasar al control interno del horno.

6
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

Fig 2. Interfaz de usuario Mediciones Externas.

En la figura 3 se muestra la interfaz de monitoreo y control de los parámetros internos los cueles son
humedad y temperatura. Como ya en esta interfaz se incluye no solo el monitoreo sino también el con-
trol pues es aquí donde se ejecutan los ensayos con el horno. Para un ensayo se establece su tiempo de
duración y se decide el tipo de control a realizar, manual o automático. En el control manual el operario
es el que le suministra las perturbaciones a las variables controladas y establece las mismas en los valo-
res deseados. En el segundo caso el operario establece el valor de referencia del parámetro controlado
más el error del mismo.

Fig 3. Monitoreo y control de parámetros internos.

En la figura 4 se puede observar un ejemplo de un ensayo que se realizó a través de un control auto-
mático, durante un minuto para mantener el horno a 30 grados Celsius y una humedad interna del 30%,
ambos parámetros con una banda de histéresis de 6.

7
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

Fig 4. Prototipo de interfaz de Control Interno luego de un ensayo.

IV. CONCLUSIONES
Con la investigación realizada se ha conseguido construir todo un sistema que permite monitorear y
controlar en tiempo real un horno prototipo. Esto ha posibilitado sentar las bases desde el punto de vista
de conocimiento sobre el trabajo de plataformas de código abierto aplicadas al control automático, sir-
viendo como punto de partida para próximas investigaciones en esta esfera.
La filosofía desarrollada tiene un impacto muy positivo y es aplicable en pequeñas y medianas empre-
sas, centros de investigación y universidades donde el desarrollo y aplicación del control automático
sean eje fundamental. Con esta solución se evita la compra de equipamiento y patentes. Sustituye el
tradicional empleo se sistemas PLC comerciales, evitando todos los inconvenientes que estos acarrean,
desde el punto de vista de su programación interna, costo y dependencia al hardware para el que viene
concebido, convirtiendo una PC de propósito general en un sistema que permite realizar más tareas, y
el registro de las mismas en sistemas de bases de datos.

V. REFERENCIAS BIBLIOGRÁFICAS

1. Erik Marichal Arbona1, Ronald Ugas Lago, Alberto Aguado Behar, Rafael F. Tanda
Martínez: " Simulación en tiempo real de un regulador difuso utilizando herramientas de software
libre.", Instituto de Cibernética Matemática y Física, Reporte de investigación, Ciudad de La Habana,
2011.

2. Erik Marichal Arbona, Ronald Ugas Lago, Alberto Aguado Behar, Rafael F. Tanda Martí-
nez. “Simulación de reguladores PID Auto-Ajustables e identificación de sistemas a lazo cerrado en
tiempo real duro mediante el empleo de la herramienta RTAI-LAB.” Reporte de investigación, Instituto
de Cibernética Matemática y Física, Ciudad de la Habana, 2009.

3. Norberto Molinari. “Curso sobre Controladores Lógicos Programables (PLC).” Instituto Supe-

8
Pacareu de la Cruz, Frank Rafael; Fernandez Pedroso, Elier. | “Sistema de monitoreo y control en Tiempo Real para un horno”

rior Politécnico José Antonio Echeverría, Ciudad de La Habana, 2011.

9
TCA2012 1

Evaluación de un Sistema de Almacenamiento


Distribuido para un entorno no controlado.
Autores: Ing. Mónica T. Llorente Quesada, Msc. Longendri Aguilera Mendoza & Ing. Alberto
Hernández Herrera

Resumen— El crecimiento del universo digital supera la La práctica ha demostrado que no es posible conservar todo
capacidad de almacenamiento disponible, este fenómeno lo que se crea en materia de ceros y unos. Los discos duros por
afecta muchas ramas de la Ciencia, dada la necesidad de sí solos y otros medios de almacenamiento por muy grandes
almacenar enormes cantidades de datos. La utilización del que sean en materia de capacidad, no son suficientes por sí
Almacenamiento Distribuido es una solución viable y solos y han surgido nuevas tecnologías que combinan
económica que ha adquirido popularidad en los últimos años. hardware y software para persistir los datos.
Los discos duros, las computadoras, la red y las aplicaciones
que forman parte del sistema pueden colapsar con mayor Entre las existentes, se encuentran los sistemas de tipo
probabilidad en un entorno no controlado y el principal reto es Redundant Array of Independent Disks (RAID), que dispone
garantizar la escalabilidad y tolerancia a fallos que posibiliten de varios discos duros para formar una única unidad lógica de
una alta disponibilidad. Utilizando las Redes de Petri almacenamiento y que combinados con redes de interconexión
Coloreadas, CPN Tools y basado en el software Hadoop se especializadas dieron lugar a las Storage Area Network (SAN).
obtiene una representación de un Sistema de Almacenamiento Los precios de los componentes de una SAN son elevados al
Distribuido. Se evalúa el comportamiento y se comparan compararlos con el hardware de las computadoras personales
diferentes alternativas de configuración para seleccionar la (PCs por sus siglas en inglés) y los dispositivos típicos de una
más adecuada. Mediante el modelado y simulación, se prueban red local. Por este motivo principalmente, varias instituciones
alteraciones al modelo y el estudio de futuras modificaciones de países del tercer mundo y en vías de desarrollo no cuentan
antes de implementarlas y validarlas. con el dinero suficiente para adquirir esta tecnología.

Palabras Clave — Hadoop, modelado, simulación, Sistema de Una alternativa mucho más económica que está tomando
Almacenamiento Distribuido, Redes de Petri Coloreadas. auge, luego del impacto global de las redes de computadoras,
consiste en utilizar el espacio disponible de las PCs
I. INTRODUCCIÓN (conectadas a través de la red) para almacenar los datos. De
Desde los inicios de la evolución del hombre, la humanidad esta forma surgen los Sistemas de Almacenamiento
ha reconocido el valor de la información y la importancia de Distribuido (SAD) [3]. Los SAD no son más que un grupo de
hacerla perdurable en el tiempo. Para ello, se comenzaron a computadoras conectadas entre sí con el fin de almacenar, de
utilizar numerosas formas para almacenar y conservar de manera transparente a los usuarios, archivos de cualquier
forma segura lo que representara datos y conocimiento. Se índole en el espacio libre de los equipos. Brindando la
tallaron las paredes y las piedras, luego se escribe en el papel y posibilidad de obtener acceso mediante la red a archivos
así se fueron perfeccionando los mecanismos hasta la era almacenados en nodos remotos, con un desempeño y fiabilidad
digital, en la que se comenzaron a utilizar los circuitos casi del mismo modo que si fueran locales.
electrónicos para el almacenamiento.
A continuación se mencionan las principales características
El mundo de la informática enfrenta una eminente que deben tener los SAD para lograr un buen desempeño. Lo
preocupación con el crecimiento acelerado del universo primero es la disponibilidad, ya que el sistema debe ser capaz
digital. Estudios realizados [1] revelan que en los últimos años de responder a las peticiones de los usuarios en todo momento.
la información digital ha crecido 10 veces más y la cantidad de Sin embargo, los disco duros fallan, las estaciones de trabajos
información supera en gran medida a los medios de se rompen, las redes sufren pérdida de conectividad y las
almacenamiento disponibles. Las consecuencias de la gran aplicaciones se detienen. Por lo tanto, la tolerancia a fallas
demanda de almacenamiento son disímiles y se incrementan debe incorporarse para gestionar estas fallas y mantener la
cada año debido a: la complejidad de las investigaciones disponibilidad de los datos. Una manera de enfrentar las fallas
científicas [2], el aumento de la resolución de cámaras es haciendo réplicas, varias estrategias de replicación existen
digitales, grabaciones de cámaras de vigilancia, conversión de para replicar los datos en distintos nodos del sistema. De esta
materiales a formato digital, teléfonos móviles con avanzados manera, si algún nodo falla se puedan recuperar los datos a
servicios multimedia y los sistemas de televisión digital partir de las réplicas que existen en otros nodos. Por último, el
quetoman auge en los países desarrollados, por solo citar sistema debe cumplir con la escalabilidad para poder
algunos ejemplos. aumentar su capacidad de almacenamiento agregando nuevos
equipos sin que afecte su rendimiento.
TCA2012 2

expresiones de arco y guardas en las RdPC usando la


Con lo planteado anteriormente, pensar en aprovechar el herramienta CPN Tools. A través de este lenguaje se puede
espacio libre en el disco duro de las estaciones de trabajo enriquecer la lógica del modelo para representar el SAD.
presentes una institución para el desarrollo de un sistema de
almacenamiento distribuido es una solución útil y económica;
pero nada sencillo. Siendo el diseño del sistema uno de los Almacenamiento Distribuido de Datos
principales retos para garantizar la escalabilidad y la tolerancia
a fallas que posibilite mantener una alta disponibilidad de los El framework Hadoop [17] de la Fundación de Software
datos almacenados. Apache es una biblioteca de software que permite desarrollar
aplicaciones y servicios en el ámbito de la computación
Razón por la cual, en el presente trabajo se pretende distribuida. A tal punto, que ha llegado a convertirse en una de
construir un modelo que permita evaluar el diseño de un las principales herramientas para el procesamiento y
sistema de almacenamiento distribuido mediante simulaciones, almacenamiento de grandes volúmenes de datos. Como prueba
sin necesidad de realizar un despliegue y pruebas reales que de ello, se puede citar que en abril del 2008 rompió el récord
impliquen interrumpir el funcionamiento de la institución y de ordenar un terabyte de datos en 209 segundos, siendo esta
cargar la red de datos innecesariamente. Además de facilitar el la primera vez que un programa de código abierto gana este
estudio del sistema permitiendo realizar alteraciones al modelo tipo de competencia.
para explorar varias alternativas, antes de implementarlas, y
seleccionar la más adecuada. Uno de los componentes esenciales de Hadoop lo constituye
el Hadoop Distributed File System (HDFS) que posibilita la
II. MATERIALES Y MÉTODOS puesta en marcha de un SAD. Al ser este sistema, bajo licencia
de código abierto, el de mayor prestigio en la actualidad,
Redes de Petri Coloreadas altamente tolerante a fallas y no demandar de hardware con
altas prestaciones, es que se decide utilizarlo como referencia
Las Redes de Petri Coloreadas (en lo adelante RdPC) fueron para la construcción del modelo.
desarrolladas en la década de los 80 por Kurt Jensen, profesor
y jefe del Departamento de Ciencias de la Computación en la HDFS tiene una arquitectura maestro-esclavo y ofrece un
Universidad de Aarhus, Dinamarca [4]. Las RdPC son un modelo idóneo para aquellas aplicaciones que necesitan
formalismo para el modelado analítico de sistemas que escribir una vez y leer muchas veces (write-once-read-many).
presentan concurrencia, sincronización y recursos compartidos HDFS está diseñado para almacenar archivos de gran tamaño a
[5][6][7][8]. Permitiendo representar gráficamente través de todas las estaciones de trabajo. Para esto cada
comportamientos de sistemas simples o complejos que archivo es fraccionado en una secuencia de bloques; todos los
facilitan a los analistas tomar decisiones oportunas y eficientes bloques de un archivo tienen el mismo tamaño, excepto el
sobre el sistema modelado. último que puede ser menor. El tamaño por defecto de los
bloques es de 64 MB y son estos fragmentos los que se
CPN Tools almacenan, se recuperan para conformar el archivo original y
se replican para garantizar la tolerancia a fallas.
En el Departamento de Computación de la Universidad de
Aarhus, bajo la guía de Kurt Jensen, nace CPN Tools, una Basado en el funcionamiento de Hadoop, es que se realiza la
herramienta para el modelado y simulación de sistemas y escritura, lectura y replicación en el modelo del SAD que se
procesos [10]. Dado que CPN Tools cumple además por ser un presenta en este trabajo, pero para un entorno donde no se
software de licencia libre, se escogió esta herramienta para la tiene la disponibilidad de las máquinas.
construcción del modelo y simulación del SAD.
El sistema está compuesto por tres tipos de componentes:
CPN Tools es una herramienta gráfica para la edición, DataNodes, NameNode y ClientNodes (ver figura 1). A
simulación y análisis de RdPC[11][12]. Dispone de un continuación se describe el flujo de datos entre estos
simulador (tanto interactivo como automático) para poder componentes para el proceso de escritura.
inspeccionar el sistema modelado con las RdPC. Se encuentra
bien documentado y pueden consultarse manuales en la web Los Client Nodes son los encargados de iniciar el flujo de
[13][14]. datos en el sistema, solicitan la escritura de un archivo y de esa
manera comienzan a interactuar los diferentes componentes.
Una vez respondida la solicitud, ya sea exitosa o errónea llega
al Client Node la respuesta. Una misma máquina, en
momentos diferentes puede comportarse como Client Node o
CPN ML Data Node.

El lenguaje de programación funcional CPN ML [15] [16], El Client Node es el encargado de mandar a crear en el
es una extensión del Standard ML, permite programar las Name Node un nuevo registro para el almacenamiento de un
TCA2012 3

archivo mediante el llamado de la función create(). En ese determinados Data Nodes que realicen copias de los bloques a
instante se realiza la creación en el Name Node de un espacio otros para completar el número de réplicas necesarias.
para el fichero pero sin ningún bloque de datos asociado. El
Name Node realiza varias comprobaciones para asegurarse de Cuando las réplicas se han copiado satisfactoriamente en
que el archivo no existe, si es así, se hace un registro del nuevo todos los Data Nodes, entonces se procede a registrar un
archivo, de lo contrario, la creación de archivos fallará y el nuevo paquete y así hasta que todos los paquetes de cada
cliente se le notifica la existencia del mismo. archivo sean replicados tantas veces como el factor de
replicación indique. Luego se cierra el fichero en el Name
Node y se le envía al usuario un mensaje que notifica que su
archivo fue almacenado satisfactoriamente.

La localización de las réplicas es fundamental para el buen


rendimiento del SAD y la estrategia de replicación a la hora de
ubicarlas distingue a HDFS sobre otros sistemas para este fin.
Para hablar de la estrategia de replicación tenemos que
mencionar que los Data Nodes van a estar agrupados en Racks
y uno o varios Racks forman a su vez un Data Center. Ambos
conceptos, Data Center y Racks, pueden ser vistos como redes
y sub-redes aisladas pero a la vez conectadas entre sí.

Para el caso de estudio en el que el factor de réplicas es tres,


se toma como destino de la primera y segunda réplica dosData
Nodes del mismo Rack que el nodo que solicita la escritura. Si
Figura 1: Flujo de almacenamiento distribuido de datos ese nodo es un Data Node y tiene espacio disponible, entonces
basado en el HDFS de Hadoop. en ese mismo nodo se realiza la primera réplica. Para el
destino de la tercera réplica se toma un Data Node de otro
Para que el cliente comience a escribir datos el fichero se Rack. La ventaja de esta estrategia radica en que el ancho de
divide en paquetes, que escribe a una cola interna. Para cada banda entre Data Nodes del mismo Rack (sub-red)
paquete de la cola interna se le solicita al Name Node generalmente es mayor que el ancho de banda entre distintos
adicionar un bloque al fichero creado. El Name Node retorna Racks o Data Centers. Mejorando el rendimiento del proceso
el bloque con un identificador único y una lista de Data Nodes de escritura y garantizando la disponibilidad de los datos en
en los cuales debe ser copiado dicho bloque. La gestión de las caso de que falle un nodo o un Rack.
réplicas (dónde, cuándo y cómo) es responsabilidad del Name
Node, que se mantiene informado del estado del sistema por Modelado y Simulación.
los reportes periódicos que hacen los Data Nodes.
Modelar y simular hace posible establecer una valoración
El conjunto de Data Nodes destinado para las réplicas pasa final antes de que los sistemas sean construidos, y pueden
al Pipeline y a modo de tubería el primer DataNode le envía aliviar la necesidad de experimentos caros y dar soporte a
al segundo, el segundo al tercero y así hasta tener el número de todas las etapas de un proyecto desde el diseño conceptual,
réplicas determinada por la estrategia de replicación. El pasando por el montaje hasta llegar a su funcionamiento.
proceso de escritura no comienza hasta el Client Node no se
conecta a todo el Pipeline. De manera similar se reciben los Se hace necesario el modelado primeramente para hacer una
ACK que informan que los datos fueron copiados aproximación al sistema real y poder observarlo, controlarlo,
satisfactoriamente. En el cliente también existe una cola de modificarlo. El modelo permite además abstraernos de
ACK que está formada por los paquetes en espera de ser elementos que no aportan relevancia en el trabajo, así como
replicados. Un paquete se elimina de la cola de ACK solo enfatizar y llevar a parámetros críticos los que si son de
cuando ha sido reconocido por todos los Data Nodes del interés.
Pipeline.
La construcción del modelo, incluye lo que se conoce como
Si un Data Node falla mientras se escriben los datos, se especificación o modelo conceptual del sistema. Es el modelo
interrumpen las siguientes acciones, pero de forma con el cual se realiza la primera aproximación y se especifica
transparentes para el cliente. El Data Node que falla se elimina la estructura y procesos, del sistema real, que se tendrán en
del Pipeline y se continúa copiando en los siguientes. Si el cuenta para la investigación. Finalmente se realiza la
próximo vuelve a fallar se elimina y así sucesivamente simulación donde se observa la ejecución y cambio del
mientras exista algún Data Node. En caso de que un bloque modelo. Con varias simulaciones se determina que
quede por debajo del número de réplicas especificadas en el condiciones pueden mejorar su comportamiento.
fichero de configuración, entonces el Name Node indica a
TCA2012 4

III. RESULTADOS Y DISCUSIÓN del SAD. Todas las solicitudes pasan a la Red y en
dependencia del destino, una vez en la Red las consume el
En esta sección se presenta el diseño del SAD usando las Data Node o el Name Node.
RdPC y la herramienta CPN Tools. Este diseño se realizó de
forma jerárquica y a partir de la página principal “Top” (ver Una vez dentro de la página Write, se pueden observar los
Figura 2) se fueron desarrollando las sub-páginas que procesos explicados anteriormente como son crear un espacio
representan los procesos que se realizan en el sistema. Solo se en el Name Node, inicializar las colas, de los paquetes y de los
mostrarán algunas páginas de un total de 48. ACK, dividir un fichero en paquetes, y el proceso de consumir
los paquetes y enviarlos a los Data Nodes. Todos estos
procesos tienen sus subpáginas donde se implementan.

Parámetros del Sistema

Los parámetros en el presente trabajo son fundamentales, se


pueden modificar y tras varias simulaciones, comparar bajo
qué circunstancias el sistema modelado funciona mejor. Los
parámetros no son más que variables de valor constante que
serán utilizadas a lo largo del diseño. Estos valores serán los
criterios modificables y puntos de comparación para futuros
estudios, en los que se pueden encontrar los mejores
parámetros para el funcionamiento del SAD.

Se observa además que son utilizados en diferentes ámbitos


dentro del modelo. Son útiles para inicializar nodos lugar con
valores determinados, en este caso rigen el número de
solicitudes de escritura y lectura que puede enviar el cliente.

Se pueden incluir en la declaración de nuevos Colores (tipos


Figura 2: Componentes principales del SAD y estructura
de datos). En este caso el Token que modela el identificador
jerárquica de la páginas.
de las máquinas (MachinID) está formado por una
combinación de estos dos valores: el número de rack y el
La Figura 2 muestra los principales componentes del SAD ya
número de la máquina dentro del rack.
mencionados en secciones anteriores, así como la manera en
que ellos se comunican a través de la Red. Las tres páginas
También son utilizados en la creación de guardas para una
que jerárquicamente le siguen a la página “Top”, especifican
transición, determinada como valor de comparación y en la
las principales acciones que desarrollan cada uno de los
implementación de funciones, como es el caso de
componentes Name Node, Client Node y Data Node. A la
checkBlkReplication(), en la cual se determina si un bloque
izquierda de la imagen se muestra una parte de la estructura
está por debajo del mínimo valor de replicación.
jerárquica de las páginas diseñadas.
Implementación de la estrategia de replicación.

Para implementar la estrategia descrita en la sección anterior


se tuvo en cuenta: el factor de replicación, este valor coincide
con el número de Data Nodes que se devolverá en el Pipeline
una vez llamada la función. El identificador del Client Node
del que se está realizando la solicitud de almacenamiento, los
bloques en los que ya está replicado y en los que no se pueden
replicar. Además se tiene en cuenta la distancia entre nodos,
calculada por la función Net'getDistance(), para devolver el
Pipeline de una manera ordenada con el fin de que el recorrido
por los nodos sea de costo mínimo.
Figura 3: Procesos que lleva a cabo el Client Node
Proceso de Almacenamiento de Datos
En la Figura 3 se observa que el Client Node es el encargado
de solicitar la escritura o lectura de un archivo. El proceso de almacenamiento de datos se evidencia
principalmente en la página ReceivingAnswer del Client Node,
Todas las solicitudes salen y llegan de UI (User Interface), y en DataNodeCore del Data Node.
sub-página que muestra cómo se generan de manera aleatoria
las solicitudes. Este comportamiento imita a un cliente usuario
TCA2012 5

Al finalizar la simulación las Solicitudes de Escritura quedan


respondidas con el mensaje “OK” y quedan almacenamos los Figura 4: Intentos de ubicación de bloques.
archivos en el nodo lugar File Copied y se muestran como
Archivos Copiados.

Como los tamaños de los archivos son mayores que 64 MB


estos son divididos en paquetes que luego forman los bloques
y se almacenan en los Data Nodes correspondientes. En el
Name Node se evidencia como, una vez terminada la
simulación, en cada uno de los Data Nodes se encuentran la
lista de bloques almacenados con el siguiente formato blocks
= [(blk(identificador), tamaño), … ]. Cada bloque se
encuentra replicado en tres Data Nodes, pues tres es el factor
de replicación.
Figura 5: Respuestas a solicitudes de escritura.
En el SAD está simulado también el estado de los Data
Nodes, se evidencia que todos los Data Nodes tienen el estado En la Figura 5 se muestran las respuestas a las solicitudes de
habilitado (status = On). Esto no ocurre en la totalidad de los escritura (eje y) en función del tiempo (eje x). Si la solicitud
casos, pero como se planteó anteriormente el proceso es fue satisfactoria el monitor guarda 1 y si no -1. De las 100
transparente al usuario. Mediante una transición el estado de solicitudes dos no se lograron, las 98 restantes fueron
los Data Nodes cambia constantemente (On/Off), pero el satisfactorias a pesar de los fallos ocurridos durante la
sistema se recupera y si trata de acceder a alguno que tiene el simulación.
status = Off, vuelve a solicitar un nuevo Data Node hasta
encontrar uno disponible. Además de estar habilitado, el Se identificó un problema que dificulta el almacenamiento
espacio libre (freeMB), que también se muestra en la de los archivos. En el proceso de escritura, antes de comenzar
descripción de los Data Nodes debe ser mayor que el tamaño a almacenarse todos los paquetes de un archivo el Pipeline o
del bloque que se desea guardar. Data Nodes recomendados por el Name Node debe ser
conectado o recorrido de inicio a fin. Todos los Data Nodes
Por otra parte, el Name Node va guardando de cada archivo deben estar encendidos.
los bloques que le pertenecen y de cada bloque la lista de
Data Nodes en los que ha sido almacenado y replicado. De En un entorno no controlado, donde las computadoras se
esta manera se puede recuperar el archivo gracias al proceso encienden, apagan o reinician a voluntad de los usuarios es
inverso, mediante la solicitud de lectura. más difícil que se cumpla esta condición que en un entorno
controlado o dedicado como normalmente sucede. Por este
Para la recogida de los datos de la simulación se motivo se propone que en este Pipeline se realicen tantas
implementaron los monitores que brinda la herramienta CPN replicas como Data Nodes estén disponibles y que por uno que
Tools, se utilizan para observar, inspeccionar, controlar o esté fuera de servicio no se deseche todo el Pipeline.
modificar una simulación. Muchos monitores diferentes
pueden definirse para una red, pueden inspeccionar tanto las El sistema cuando no se puede conectar a uno de los Data
marcas de los lugares y los elementos de unión que se Nodes los desecha por completo sin tener en cuenta que
producen durante una simulación. pudiera tener al menos dos réplicas del bloque en vez de
ninguna. Esto puede traer como consecuencia que los archivos
En la Figura 4 se muestra la cantidad de intentos (eje y) que no cuenten con las tres réplicas necesarias en este caso. Pero la
se realizaron por bloques para ser almacenados en función del tolerancia a fallos del sistema se encarga de completarlas.
tiempo. Mientras algunos bloques se logran almacenar desde
la primera vez, otros tuvieron que ser enviado 2 y 3 veces. En
la Figura 5 se puede aprecia como solamente dos bloques IV. CONCLUSIONES
causaron el error de escritura mostrado en la Figura 4.
Al igual que todo software, un Sistema de Almacenamiento
Distribuido (SAD) como el Hadoop Distributed File System
(HDFS) desarrollado por Apache, debe estar sujeto a
constantes cambios y mejoras a medida que se pruebe en
nuevas situaciones y escenarios. En el presente trabajo se
obtuvo como principal resultado un modelo de un SAD,
basado en el HDFS, usando las Redes de Petri Coloreadas y la
herramienta CPN Tools que permiten la edición del modelo
para explorar, mediante simulaciones, nuevas estrategias de
replicación y experimentar con nuevos valores en los
parámetros de configuración. El modelo construido para el
TCA2012 6

SAD puede servir de referencia para realizar una validación


previa y detectar errores de futuros cambios antes de [12] STÖRRLE, Harald. “An Evaluation of High-end Tools for
implementarlos, sin necesidad de desplegar el sistema y Petri-nets”. Universität München, Univ.Inst. für Informatik, 1998.
40pp.
realizar pruebas en un escenario real que generen un tráfico
[http://www.pst.informatik.unimuenchen.de/personen/stoerrle/V/Ev
adicional de datos en la red. aluierung.pdf]
[13] KURT, Jensen; KRISTENSEN, Lars; WELLS, Lisa.
“Coloured Petri Nets and {CPN} Tools for modelling and validation
REFERENCIAS of concurrent systems”. International Journal on Software Tools for
Technology Transfer (STTT), 2007, vol 9, núm 3, pp. 213-254.
[1] F GANTZ, Jhon; CHUTE, Christopher; MANFREDIZ, Alex;
MINTON, Stephen; REINSEL, David. “The Expanding Digital
[14] CPN Tools Homepage. [http://cpntools.org/]
Universe: A Forecast of Worldwide Information Growth Through.”
IDC, March 2008, pp. 3-6.
[15] MILNER Robin; TOFTE Mads; HARPER , Robert;
MACQUEEN, David. The definition of Standar ML. Library of
[2] HEY, Tony; TANSLEY Stewart; TOLLE, Kristin. The Fourth
Congress Cataloging in Publication Data. 1997. 95 pp. ISBN 0-262-
Paradigm: Data-Intensive Scientific Discovery. Washington:
63181-4
Microsoft Research, 2009. 287pp. ISBN 978-0-9825442-0-4
[16] CHRISTENSEN, Soren; BISGAARD HAAGH, Torben.
[3] DOAN THANH, Tran; MOHAN, Subaji; CHOI, Eunmi; KIM,
“Design/CPN Overview of CPN ML Syntax”. University o f Aarhus
SangBum; KIM, Pilsung. “Taxonomy and Survey on Distributed File
Computer Science Department. 1996.
Systems”. Fourth International Conference on Networked Computing
and Advanced Information Management, 2008.
[17] Hadoop Distributed File System; Consultado en Enero de
2012. [http://hadoop.apache.org/hdfs/].
[4] JENSEN, Kurt. Colored Petri Nets: Basic concepts, Analysis
Methods and Practical Use. New York: Springer Verlag. 1997.
237pp. ISBN 3-540-60943-1
Sobre los autores
[5] KRISTENSEN, Lars Michael; BEAK JORGENSEN, Jens;
JENSEN, Kurt. “Application of Coloured Petri Nets in System Mónica Teresa Llorente Quesada: Es graduada de Ingeniero
Development”. Department of Computer Science, University of en Ciencias Informáticas en el 2007, por la Universidad de
Aarhus, 2004, In Lecture on Concurrency and Petri Nets, pp. 626- Ciencias Informáticas. Se desempeña como profesora
685 (Instructor) de Programación en dicha institución. Tiene la
categoría docente de Instructor.
[6] CANUL-NOVELO, Grelty; LEÓN RAMÍREZ, Adda.
“Modelado de Sistemas Concurrentes y Distribuidos con Redes de
Longendri Aguilera Mendoza: Es graduado de Lic. Ciencias
Petri”. . Departamento de Sistemas Computacionales. Instituto
Tecnológico de Mérida, Yucatán, México. 2002 de la Computación en el 2004, por la Universidad de La
Habana. Se desempeña como profesor (Asistente) de
[7] BRATOSIN, Carmen; VAN DER AALST, Wil; SIDOROVA, Programación en la Universidad de las Ciencias Informáticas.
Natalia; TRČKA, Nikola. “A Reference Model For Grid Tiene la categoría docente de Asistente y es Máster en
Architectures and Its Analysis”. Department of Mathematics and Bioinformática.
Computer Science Eindhoven University of Technology, 2008.
Alberto Hernández Herrera: Es graduado de Ingeniero en
[8] TRČKA, Nikola; VAN DER AALST, Wil; BRATOSIN, Ciencias Informáticas en el 2011, por la Universidad de
Carmen; SIDOROVA, Natalia. “Evaluating a Data Removal Strategy
Ciencias Informáticas. Se desempeña como Ingeniero Recién
for Grid Environments Using Colored Petri Nets”. Department of
Mathematics and Computer Science Eindhoven University of graduado vinculado a la producción en el Dpto de
Technology, 2008 Bioinformática del Centro de Tecnologías y Gestión de Datos.

[9] KRISTENSEN, Lars Michael; CHRISTENSEN, Soren;


JENSEN, Kurt. “The practitioner's guide to coloured Petri nets”.
CPN Group, Department of Computer Science, University of Aarhus,
Denmark, 1998.

[10] BEAUDOUIN-LAFON, Michel; MACKAY, Wendy;


ANDERSEN, Peter; JANECEK, Paul; JENSEN, Mads; LASSEN,
Henry; LUND, Kasper; MORTENSEN, Kjeld; MUNCK, Stephanie;
RATZER, Anne V; RAVN, Katrine; CHRISTENSEN, Soren;
JENSEN, Kurt. “CPN/Tools: A Post-WIMP Interface for Editing and
Simulating Coloured Petri Nets”. Proceedings of the 22nd
International Conference on Application and Theory of Petri Nets,
2001. ISBN 3-540-42252-8. pp.71—80.

[11] http://www.informatik.uni-hamburg.de/TGI/PetriNets/
TCA2012 1

TECANCONTROL. DOSIFICADOR ROBÓTICO DE


RADIOFÁRMACOS LÍQUIDOS EN CAPSULAS.
TECANCONTROL. THE ROBOTIC DISPENSER OF RADIOPHARMACEUTICAL FLUIDS IN
CAPSULES.

Guillermo Alvarez Bestard1, Yarán M. Ortega Corteguera1, Ania Ramírez Ramos1,


Miguel A. Machirán Simón1, Gustavo Silió Ibarra1, Gerardo Fernández Quintero2.

1 Instituto de Cibernética, Matemática y Física, Cuba, guille@icimaf.cu,


Calle 15 #551 E/ C y D, Plaza de la Revolución, La Habana, Cuba, CP 10300
2 Centro de Isótopos, Cuba, gerardo@centis.edu.cu

RESUMEN: Se presenta un sistema para el control automático de un dispensador robótico de líquidos, utiliza-
do en la producción de radiofármacos encapsulados, destinados al diagnóstico y al tratamiento de diversas
enfermedades. Se emplea un microcontrolador que gobierna el dispensador robótico mediante algoritmos de
control secuencial y se comunica con un nivel superior de control a través de un bus RS-485. En una compu-
tadora corre un supervisor que permite planificar la producción en función de las necesidades de cada paciente,
así como configurar y diagnosticar el sistema. Debido a que el dispensador trabaja en un área con peligro ra-
dioactivo, se diseñó y fabricó toda la instrumentación para que trabajara fuera de esta área, quedando solo el
accionamiento y los sensores en el área más peligrosa, facilitando así la reparación y el mantenimiento del sis-
tema. También se incluyeron un conjunto de algoritmos de diagnóstico para minimizar las afectaciones en los
actuadores y extender la vida útil del equipo. Este sistema permite crear productos con la calidad y el formato
adecuado para ser exportados al mercado internacional, mejora la protección radiológica e incrementa la efecti-
vidad del medicamento.

Palabras Clave: control secuencial, dosificador robótico, microcontrolador, cápsulas radiofarmacéuticas.

ABSTRACT: The present paper presents a system for the automatic control of a robotic dispenser of radio-
pharmaceuticals capsules used in the diagnosis and treatment of diverse illnesses. It is used a microcontroller,
that controls the robotic dispenser by means of sequential control algorithms and it communicates with a superi-
or level of control through a bus RS-485. In a computer run a supervisor program that allows planning the pro-
duction in function of each patient's necessities, as well to configure and to diagnose the system. Because the
dispenser works in an area with radio-active danger, your instrumentation it was designed and it manufactured
for worked outside of this area, being alone the working and the sensors in the most dangerous area, facilitating
this way the repair and the maintenance of the system. They were also included a group of diagnosis algorithms
to minimize the affectations in the actuators and to extend the lifetime of the team. This system allow create
products with appropriate quality and format to be exported to the international market, it improves the radiologi-
cal protection and it increases the effectiveness of the medication.

KeyWords: microcontroller, radiopharmaceutical capsules, robotic dispenser, sequential control.


12 2
TCA201

1. INTRO
ODUCCIÓN recu peración de eeste sistema de control fue imposi-
ble y tampoco pudo adquirirse e a la empresaa produc-
La administra ación oral dee radiofármac cos se puede e tora, por estar de scontinuado.
realizar en fo
orma líquida o en cápsulas. En la actua--
lidad el métoodo predominante en todo el mundo es s Por lo anterior, teniendo en cuenta el e excelente
la cápsula, debido a su us notables ventajas
v (verr estad do técnico de
e los equipos y que el costto de uno
ffigura 1), lo que
q obliga a utilizar esta forma
f de pre-- nuevvo, para el trabajo en a ambiente rad dioactivo,
ssentación si se
s quiere exp portar a otro mercado.
m oscilla alrededor d
de 50’000 US SD, se decidióó diseñar
un nnuevo sistema a de control en función d de los re-
La cápsula también pos sibilita un mejor proceso o querrimientos deffinidos por e el CENTIS. Esto se
productivo, pudiéndose
p auutomatizar es ste si las pro-- desaarrolló por esspecialistas d
del Departam mento de
dducciones so on lo suficienttemente grandes, en parti-- Conttrol Automáttico del Insttituto de Cib bernética,
ccular las cáp psulas para diagnóstico.
d Las
L cápsulas s Mateemática y Físsica (ICIMAF F) en un prooyecto de
para terapia se pueden ha acer una a una, a pedido. I+D++i financiado por la Agenccia de Enegía a Nuclear
En ambos ca asos es neces sario un sistemma de control y Te ecnologías d de Avanzada a (AENTA) y por el
aautomático queq permita diseñar la producción en n CENNTIS.
ffunción de la demanda y garantice
g la dosis
d necesa--
ria para cadaa paciente. 2. MÉTODOS
S Y HERRAM
MIENTAS
Debiido a la natu uraleza del p proceso se emplearon
maq uinas de estado para im mplementar e el control
secu uencial y la coomunicación.. Cada tarea se desa-
rrolló
ó definiendo las variable es participan
ntes, sus
posib bles valores y los estadoss de interés, incluyen-
do a aquellos que pudieran com mprometer la a produc-
ción,, el equipo o lla salud del o
operador.
Para a el desarrolloo del supervisor se estab bleció co-
mo g guía la metoddología del P Proceso Unificcado Ra-
ciona al (RUP). Estte es un procceso de desa arrollo de
softwware dirigido por casos de e uso y centraado en la
arquuitectura.
Fig. 1 Forrmas de admin
nistración ora
al de El firrmware del mmicrocontrolad dor se programó en C,
radiofárma
acos emp leando el co ompilador PIC C-C 4.106 en el am-
En nuestro país,
p estos medicamentos se producen n bientte de trabajo del MPLAB 8.46. Este co ompilador
een forma líquida en el Centro
C de Isó
ótopos (CEN-- ofrecce un conjuntto de biblioteccas para los mmicrocon-
TTIS), y en la actualidad ses desarrolla una línea de e trola dores PIC, qque facilitan lla programacción y re-
producción ded cápsulas donde
d se empleará el sis-- duce en el tiempo dde desarrollo. La simulació ón de las
ttema presenttado en este trabajo. Esto o permitirá la
a interf
rfaces se reaalizó en Prote eus 7.7SP2, integrán-
eexportación y por tanto la entrada de e importantes s dolo al MPLAB p para permitir la comproba ación del
ingresos al paaís por este concepto.
c circuuito y del códdigo en un m mismo ambiente. Este
ento rno cuenta con instrume entos virtuale
es como
Para la prod ducción de ra adiofármacos en cápsulas s oscilloscopios, an nalizadores lógicos, ana alizadores
ees necesario diluir y dispe ensar con altta precisión y de la a comunicacción serie, ettc; y depurad dores de
eexactitud peq queñas cantidades de so oluciones ra-- códig go muy poten ntes. [1]
ddiactivas, del orden de microlitros.
m Estas operacio--
nes deben realizarse en determinada as posiciones s El su upervisor se desarrolló en n QtCreator 1.0.0. Es
dde la pequeñ ña área ocup pada por la capsula
c y conn un ID DE completam mente integra ado para el ddesarrollo
un mínimo de error, lo cu ual es indispensable para a de pproyectos bassados en las librerías Qt mediante
qque el conten nido radioactivo no pueda a degradar su u el le
enguaje C++. Está dispon nible para pla
ataformas
eenvoltura. Poor lo que es necesario dis sponer de un n Wind dows, Mac O OS X y Linuxx. Provee me ediante el
ddilutor-dispen
nsador de altaa precisión. uso de dichas lib brerías portab bilidad para e
el código
en la as diferentess plataformass, es decir, e el mismo
El CENTIS ya y cuenta co on dos equipo os con estas s códig go se puede compilar sin realizar cambios para
ccaracterística
as, modelo TECAN RSP-5 505, los cua-- los diferentes sistemas ope erativos. Ofreece gran
les fueron adquiridos de segunda ma ano pero sin n cant idad de librerrías además de los están ndares de
usar. Estos poseían
p un sistema
s de coontrol basadoo C++ y una noved dosa concepcción para la p programa-
een un microc controlador Z80
Z enlazadoo por RS-232 2 ción guiada por e eventos en a ambientes vissuales. El
ccon una com mputadora, do onde corría un n software dee man ual de usuario y la ayuda a del sistema se desa-
ssupervisión y control en n ambiente MS-DOS.
M La
a rrolla
aron en Help& &Manual 4.
TCA201
12 3
Mediante la creación de puertos serie e virtuales in-- porta
an el líquido, y que provo
ocarían el blo
oqueo de
tterconectados, empleando o Virtual Serrial Ports Dri-- este sistema.
vver XP (VSPD), se verificó ó la comunicaación entre el
ddiseño en Proteus y el supervisor,
s y por tanto el
ffuncionamien nto de todo el sistema. En este paso se e
ddetectaron laa mayoría de los problema as y se corri--
ggieron.
Los esquemas y el diseño de fabric cación de las s
ttarjetas se realizaron en Protel
P 99SE. La
L fabricación n
sse realizó totalmente en el
e ICIMAF porr el equipo de e
ttrabajo.

3
3. DISPENSADOR ROBÓTICO
R TECAN
T
El dispensad dor TECAN RSP-505
R es una
u mesa de e
ccoordenadas que puede trabajar en los s planos X, Y
Fig. 3 Jeringas y émbolos de lo
os dosificadorres A y B.
y Z, y que po osee un brazo
o móvil con estos tres gra--
ddos de liberta
ad. [2] La ssalida de cada a jeringa se cconecta a unna válvula
de 3 vías que perrmite seleccio onar entre el conducto
del rrecipiente quee contiene el agua emplea ada en la
cebaa y limpieza del sistema, y el de la p punta dis-
penssadora que trransporta el rradiofármaco.. La posi-
ción de esta válvula se modifica mediante un motor
de ccorriente direccta con reducctor y un dete
ector ópti-
co. AAsí es posib ble combinar la acción de e los dos
dosifficadores en las funcione es de carga//descarga
de la
as jeringas y lla limpieza de
e los conductoos.

4. EL SISTEM
MA DE CON
NTROL.
El diiseño del sisttema de conttrol se realizó
ó en base
a loss requerimienntos técnicos definidos porr el CEN-
TIS para este pro oceso producctivo y según n las nor-
mas y procedimie entos para ell trabajo con radiacio-
nes ionizantes. Esto incluye:
Fig. 2 Dis
spensador rob
bótico TECAN RSP-505. 1. E
El gobierno de e los motoress de paso que e mueven
e
el brazo en los 3 ejes, las jeringas dosificadoras
El brazo móvil está equipado con un n detector de e
y las válvulas para la dosifiicación y el laavado del
nivel y una punta dispensadora con nectada a un n
s istema.
bloque de do osificación qu ue controla laa cantidad de e
2. D
Detección del nivel y de un n conjunto de e irregula-
medicamento o que se va a administrar.
ri dades en conndiciones de operación.
Los movimien ntos, en los planos
p X, Y y Z, son accio-- 3. In
ntegrarse a u un bus de com municacioness RS-485
nados por 3 motores
m de paso, lográndo ose una reso-- h alf dúplex qu e ya existe enn la instalació
ón.
lución de 0.15mm, 0.13m mm y 0.1mm m respectiva-- 4. P
Permitir la inte
errupción del proceso, si ffuese ne-
mente. Es po osible detecta ar la posición inicial de los
s c esario, y registrarse la missma.
eejes X y Y, mediante se ensores óptic cos. El eje Z Sistema robussto pero de un costo ba
5. S ajo, cuya
ccuenta con un detector de e nivel en la punta
p dispen-- re
eparación req quiera de un n acceso mín nimo a la
ssadora y ese e mismo sens sor es capaz de identificarr zoona expuesta a a la radioacctividad.
la posición inicial del recorrrido. 6. E
El volumen a dosificar se a ajustará a la actividad
Los módulos dosificadores s A y B, pose een dos jerin-- ra
adiológica de el líquido, meedida antes d de la pro-
ggas de 2.5 mlm y 1 ml de capacidad
c tota
al, cuyos ém-- d ucción de lass cápsulas m mediante un d dosímetro
bolos se ac coplan a sistemas de accionamiento
a o coon comunicacción RS-232.
idénticos. Esstos están fo ormados por un reductorr
mecánico gobernado por un motor de paso, capaz z 4.2 Circuitos e
electrónicos de contro
ol
dde entregar dosis
d del orde
en de microlitrros. Para
a satisfacer e
estos requerimientos se d diseñaron
TTambién cue entan con do os detectores s ópticos que e un cconjunto de ccircuitos elecctrónicos que incluyen
puede emple earse para identificar la ob bstrucción dee un mmicrocontrolador como elemento princcipal. Del
la jeringa o de
d algunos de e los conductos que trans-- esquuema electrónico original se pudieron n aprove-
charr solamente lo
os motores, llos detectorees ópticos
TCA201
12 4
y el detectorr de nivel con n su circuito acondiciona-- y pu uede trabaja ar a 20MHz. Incluye tam mbién un
miento. Trannsmisor-Rece eptor Sincróniico y Asincró ónico Uni-
Con este nue evo diseño, la
a mayor parte de los circui-- versa al (EUSART)), 3 temporiza adores, dos m modulado-
ttos electrónic
cos se ubicann en la zona protegida del res d de ancho de e pulso (PWM) y 10 con nversores
áárea de prod ducción, donnde es posible cambiar o analó ógicos-digitalles (ADC) de e 10 bits, en ntre otros
reparar una tarjeta sin es star expuestoos a residuos
s perifféricos de inte
erés para nueestra aplicacióón.
dde radioactivvidad. Solo ses mantienen dentro del Se a adquirieron 2 pequeñas fuentes con nmutadas
ddispensador robótico TEC CAN los mottores, los de-- (“sw itching”) de a alimentación, una de 15V V/2A y la
ttectores de fin de carrera y el detector de
d nivel. otra de 30V/4A, q que se energ gizan con un rango de
El TECAN re equiere la ma anipulación de
d 29 salidass tens ión entre 110 0 y 230VAC. E En la interfazz principal
ddigitales, la lectura de 11
1 entradas digitales y 7 se aadicionó un re egulador de 5V/1A para ccubrir las
eentradas ana alógicas, danddo un total de
e 48 entradas
s neceesidades del microcontrola ador y los cirrcuitos de
y salidas (ve er tabla 1). Esta cantidad d supera las
s comu unicación.
ddisponibles ene cualquier microcontrolador de en-- Se d diseñó una ta arjeta controladora que incluye al
ccapsulado DIIP, el cual es el que mejorr se adapta a micro ocontrolador y a las inte erfaces de comunica-
nuestras posibilidades tecnológicas. ción,, y 5 tarjetas de acondicioonamiento de e señales.
Estaa últimas son idénticas y cu ubren las neccesidades
Tabla 1 Entradas y salidas neces
sarias.
de ppotencia y dessacople galvá ánico de los ejes X, Y
Entradas Salidas y Z, y de los dossificadores A y B. Par ello utilizan
Elemento
os a Controlar Digi- Analó-
A Digita- transsistores mosffet canal N (233A/50V, 0.06Ω).
tales gicas
g les
Comunicación RS
R 485 1 2
Comunicación RS
R 232 2 2
Motores de paso 12
XYZ

Sensores ópticos y de nivel 3


Medición de
e corriente 3
Motores de paso 8
A B

Sensores ópticos 2
Medición de
e corriente 2
Motores de corriente directa
a 2
Válv.

Sensores ópticos 2
Fuentes de 30V
V y 15V 2
Jumper de configuración 1
Pulsador de Parrada de Emergen ncia 1
Zumbador 1
Leds Bicolor 2
12 7 29
TO
OTAL
48

Un análisis posterior, de el funcionamie ento del dis--


pensador rob bótico en el proceso pro oductivo, nos s
permitió multiplexar las se
eñales asociad das al eje Z y
los dosificadoores A y B, quedando un n total de 36,
incluyendo las utilizadas s para la comunicación
c ,
indicación y configuración
c del sistema. Para esto see
utilizaron los propios optoacopladores que protegen n
aal microconttrolador, man nejando la conexión
c del
eemisor del trransistor en las entradas o del cátodo o
een las salidass como señales de selección.
Se escogió el microcontrrolador PIC16F887, fabri--
ccado por Microchip Techn nology Inc. [3]. Este cuentaa
ccon 36 entrradas y salidas en un encapsulado o
DIP40, de ellas 8 pueden n ser entradaas analógicas s
dde 10 bits. EsE uno de lo os microconttroladores de e F
Fig. 4 Diagram
ma en bloques
s de las interfa
aces.
ggama media con mayores s prestacionees, que posee e
88KW de mem moria de programa (Flash h), 368 bytess
dde memoria de d datos no remanentes
r (SRAM), 256 6
bytes de mem moria de dato
os remanente es (EEPROM))
TCA201
12 5
cará cter de iniciio y de fin de trama, e esta será
deseechada por la a interfaz de control. En ccambio si
entree estos caraccteres llega unn comando o datos no
válid
dos, el sistem ma devolverá una trama indicando
el errror. Si el com
mando se eje ecuta correcta
amente el
siste
ema devolverá á una trama dde confirmación.
1B
Byte 2 Byte
es 1 Byte 1 Byte
Inici o de Fin de
ulo
ID Módu Comando Datos
Traama Trama
Fig. 5 Tarjetas conttroladora TC1 (der.) y
aconddicionadora de e señales TC2
2 (izq.). Fig. 7 Estructura de las tramas
s para la comu
unicación.

TTodas se inseertan en un ra
ack de alumin
nio, dentro dee Los comandos fu undamentaless, que se mue estran en
un armario de pequeñas
p dimensiones s la ta bla 2, permita
an gobernar y configurar eel sistema
(300x130x210mm) con IP65. En este ta ambién están n desd de una comp putadora que actúa como amo del
las fuentes, dos
d ventiladorres que hacenn circular aire
e bus. En esta corrre un programa que perm mite esta-
por los disipadores, los fusibles
f y las
s regletas de e bleceer los paráme etros del procceso productivo, como
cconexión. son: cantidad de e cápsulas, ssus coordena adas y la
cant idad de radioofármaco a de epositar en ca
ada una.
Tabla 2 Principales comandos.

C
Co-
Ac
cción
ma
ando
* Solicituud de identificaciión
# Cambiaa modo de trabajo
A Solicitaa estado de funcionamiento del siistema
T Solicitaa posición en cadda plano y de vállvulas
W Dosificaa cápsula
K Mezcla líquidos en áreaa de recarga
I Solicitaa corriente de mootores
H Mueve la punta a una cooordenada
Z Mueve la punta a una cáápsula
C Configuura comunicacióón
Configuura posición de rreposo y limpiezza y
N
tiempo de espera sin acttividad
Fig. 6 Circuitos
C de control
c en el armario.
a V Configuura tiempo de paaso de cada motoor
B Configuura datos de la baandeja activa
Del armario salen varios conductores apantallados s ! Transmmite y recibe datoos por RS232
hacia la zona a con peligro
o radiológico, atravesando
o
una pared de e plomo y otrra de aluminioo que confor-- Paraa garantizar la
a medición de e la actividad del líqui-
ma un recin nto estanco que
q contiene
e al TECAN. do sse incluyó la comunicació ón RS-232C a 5 hilos
T
Todo a una distancia de e aproximada amente 2.5m. con un MAX232 [5], y median nte el bus RS-485 se
Otros conduc ctores viajan hacia la coomputadora y envía an tramas quue contienen los comandos propios
hacia la línea
a de alimentacción de 220VAAC. dosímetro. El microcontrola
del d ador sirve de pasarela
entree el dosímetrro y la PC, evvitando el usoo de con-
4
4.3 Comun
nicación verso ores dentro d
del área radioactiva.
Para la comu unicación con
n el nivel supperior de con-- Se eestablecieron 5 modos de trabajo que e el usuario
ttrol se utiliza un bus RS-4 485 half dúpllex, al cual el pued de seleccionaar, estos sonn: dosificaciónn, limpie-
microcontrola ador se acopla mediante e un circuito o za, ddiagnóstico, cconfiguración y dosímetro o. Otros 4
MAX485 [4]. Se utiliza un na velocidad ded comunica-- mod os son mod dificados solo
o por la máq quina de
cción entre 9.6 y 38.4 KBPS, con 1 biit de inicio, 8 estad dos y se info
orman al usua ario, estos soon: recar-
bits de datos, uno de para ada y los dato os en formato o ga, rreposo, mezccla y parada.
AASCII. Se diseñaron las tramas de comunicación
c n
aacorde a los s requerimienntos del sisteema y en la a 4.4 Detección y diagnósttico de fallo
os.
puesta punto o se le asigna
a a la interfaz un identifica-- Dada as las condicciones de ope
eración y la n
necesidad
ddor único dentro del bus. Se creo una a máquina de e de mminimizar lass roturas denntro de la cá ámara de
eestados para el análisis de e las tramas y la detección n fabri cación, se diiseñaron un cconjunto prottecciones
dde errores de e comunicaciión, y se indiica en un led d y méétodos de dettección y diaggnóstico de ffallos que
bicolor estos sucesos. inclu
uyen la medicción de la corrriente que ciircula por
Si la trama no n se conform ma correctam mente, con el cadaa campo de lo os motores d
de paso, la coomproba-
TCA201
12 6
cción del movimiento de lo os émbolos de e las jeringas
s visorr, y se obtuvvieron los modelos de ca asos de
y la medición n de la tensiión de las fu
uentes de ali-- uso, de análisis,, de diseño, de despliegue, de
mentación. imple ementación y de prueba [7 7][8].
El incrementto de la corrriente que circula por las s El m
modelo de cassos de uso p principal de laa aplica-
bobinas de un motor de pa aso puede inddicar su dete-- ción de supervisió ón se muestraa en la figura 7. Este,
rioro y la nec
cesidad de caambiarlo, así como que su u requuiere de la accción del acttor Operador,, el cual
ttemperatura está excedie endo las cond diciones ópti-- será el responsable de la inte eracción con el siste-
mas de opera ación. Reconocer este prooblema puede e ma d de tal forma que se obte engan los ressultados
eevitar que see afecte un lo
ote de medica amentos y se e espe erados. Los ccasos de uso más importan ntes son
pierda el material radioacctivo. Con estte mismo fin n abrirr, crear y guaardar un proyyecto, editar volúme-
sse comprueb ba si existen pérdidas de e pasos cada a nes d de las cápsullas, además dde los relacio
onados a
vvez que el sistema regres sa a la posicción inicial de
e la crreación de la bandeja, la vverificación y el envió
un eje. de loos datos al miicrocontroladoor
La detección de movimien nto de los émb bolos permitee
cconocer si ses está dispe ensando correctamente el
medicamento o y si no existen obstruc cciones en el
cconducto porr donde circula el líquido. De igual for--
ma puede em mplearse parra verificar loss motores de e
paso del bloqque dosificado
or.
Estas rutinass de diagnóstico se realiz zan continua--
mente en cad da paso de cada
c motor, se
s indica me--
ddiante leds cualquier situa
ación anorma al y se envían n
aal supervisor cuando este lo solicita.
4
4.5 Planific
cación de trayectorias
s.
La trayectoria
a del brazo ro obótico será planificada
p en
n
eel nivel superrior de controol y será enviaada a la inter--
ffaz mediante e una secuen ncia de coma andos con la a
ddosis corresppondiente a cada
c cápsula. Mediante un n
ssistema de control
c secue encial que re ecibe los co--
mandos del nivel
n superiorr, los interpretta y los alma-- Fig. 8 Mode
elo de casos d
de uso princip
pal.
ccena en una a cola, es po osible describ bir complejas s Se rrealizaron pru uebas de ca aja blanca y de caja
ttrayectorias sin
s retrasos o esperas prroducto de la a negrra, primero con el apoyo de la simula ación en
ccomunicación n [6]. Proteeus y el VSPD XP, y po osteriormente e con el
El microcontrrolador, mediiante una má áquina de es-- siste
ema real. Tod das se planificaron para M Microsoft
ttados y los datos
d de la bandeja almacenados en n Winddows XP, que e es la platafforma que em mplea el
EEPROM, ejjecutará cada acción ne ecesaria para a CEN NTIS actualme ente; pero se
e planificarán también
aalcanzar cad da destino de efinido en los comandos. paraa GNU/Linux.
Para ello debbe realizar toddos los movim mientos por el El re
esultado es u un supervisorr compuesto por tres
plano X-Y co on la punta dispensadora
d a una alturaa mód ulos, especia alizados en actividades e específi-
ssuficiente para no colision nar con la bandeja y bajarr cas, pero que ccomparten da atos y recurrsos del
hasta la capssula a dispen nsar. Una vez z que se aca-- siste
ema.
be el materiaal contenido en e la punta o este no sea a
ssuficiente para la siguientte cápsula, de eberá mover-- El mmódulo de pla anificación dee la producción es el
sse al área de
e recarga, llen nar la punta co on el material más utilizado y pe ermite al operrador crear un
n proyec-
necesario y continuar
c el trabajo. to qu
ue especifica la bandeja a utilizar y la dosis para
cadaa cápsula, así como medirr la actividad radiológi-
En la tarea de recarga se s emplea el detector de e ca d e un volumen n conocido de e producto. C
Con estos
nivel para sumergir la puntap dispenssadora en la a dato s se calcula la equivalencia volumen/acctividad y
ssolución radiioactiva y ab bsorber el prroducto. Pero o el vo
olumen de líq quido a dosifficar en cada capsula.
ttambién es muy
m importantte no sumergirla más de lo o Postteriormente y de forma auttomatizada, sse optimi-
necesario. za ell recorrido deel brazo robótico.
TTambién se definieron ta areas de limp pieza de con-- Paraa iniciar el trabajo se espeera la orden ddel opera-
dductos y de la punta, al iniciar y al co oncluir la pro-- dor y se verifica qque la bandeja definida en la tarjeta
dducción. contrroladora sea la correcta, ssino se transffieren los
4
4.6 Superv
visor. dato s de esta. Po osteriormentee se le envíaan las do-
sis p
por cada cáp psula en la se ecuencia ópttima para
Siguiendo la metodología RUP se dise
eñó el super-
come enzar la dosifficación.
TCA201
12 7

Fig. 9 Mód
dulo de planific
cación de la producción.
p
De igual formma se registran los datos del operador y
ttodas las variables de inteerés, siguienddo las normass F ig. 11 Módulo
o de configura
ación y diagnó
óstico.
eestablecidas por las “bue enas prácticas de produc--
Med iante este módulo se con nfigura y se vverifica la
cción”.
comu unicación co on la interfaz, se configguran los
El segundo módulo
m solo se
s emplea para especificarr tiemppos de paso óptimos para a los motoress, las co-
las caracteríssticas de la bandeja, como o cantidad dee rrien
ntes máximass, las coorden nadas de repposo y de
ffilas y de coolumnas, dista ancia entre ellas,
e coorde-- limpiieza, etc. Possee una pesttaña para caada modo
nada inicial, coordenada
c Z de movimien nto y de dosi-- de trrabajo y en ella las accioones y la infformación
fficación, coorrdenada de recarga,
r etc. Una vez que e dispoonible en ese
e modo.
eestá definida se guarda en un archivo para su pos--
tterior empleoo en el módulo o anterior. 5. CONCLUS
SIONES
El coontrol automá ático está prresente en la a mayoría
de loos procesos p productivos dde nuestros días. Pero
tienee especial ap plicación en á áreas peligroosas para
la saalud del hom mbre y en aquellas que la a pueden
favorrecer. En nue estro trabajo abordamos e estos dos
sectoores, la prod ducción de m medicamentos y el tra-
bajo con producto os radioactivo
os.
Tuvimmos especia al cuidado en n verificar el funciona-
mien nto de nuestro o diseño y paara ello hay qque resal-
tar la
a gran importtancia de los simuladores y depu-
radoores de códig go, los cualess nos permitieron de-
tectaar la mayoría de los errore es antes de fa abricar el
diseñño.
Los simuladores también noss ayudaron a al diseño
del ccontrol secue encial, a optim
mizar las máq quinas de
estad do y la comu unicación, a p prever un con njunto de
posibbles fallos y a implementar mecanism mos para
su de etección, diag gnóstico y repparación.
Fig. 10 Módulo
M para el diseño de la bandeja. Se d destaca que un microconttrolador de gama me-
dia ees capaz de e gobernar esste equipo, ssiguiendo
El tercer móddulo es utiliza
ado fundame entalmente en n una secuencia de operación diseñada en un nivel
la puesta a punto,
p la repa
aración y el mantenimiento
m o supe erior de contro ol, obteniéndoose un sistemma robus-
ddel sistema. Este permite e configurar su funciona-- to pe ero muy eco onómico y so ostenible en nuestras
miento y realizar diversas tareas de diaagnóstico, porr cond diciones.
lo que se deebe permitir ele acceso solo o al personal
ccapacitado. Peroo sobre todo,, se creó una a línea de prroducción
de rradiofármacoss encapsulad dos que debe reducir
nota blemente loss efectos seccundarios y lo os conta-
mina antes asociados a estoss medicamen ntos, así
como o facilitar su p
producción y su exportació ón.
TCA2012 8

6. REFERENCIAS BIBLIOGRÁFICAS 7. SÍNTESIS CURRICULARES DE LOS


1. Bates, Martin. Interfacing PIC Microcontrollers AUTORES
Embedded Design by Interactive Simulation. MSc. Guillermo Alvarez Bestard
2006 Graduado en 1998 de Ingeniero en Automática en el ISPJAE, en el
2. Tecan Corp: Robotic sample processor (RSP) 2003 defiende el título de MSc. en Informática Industrial y
Automatización. Posteriormente obtiene la categoría científica de
series 500, Operating and Service manual. Investigador Auxiliar y la docente de Profesor Asistente.
1986.
Desde su ingreso en el ICIMAF (1998) trabaja en los temas de
3. Microchip Technology Inc. automatización de procesos industriales, el diseño de hardware
PIC16F882/883/884/886/887. Data Sheet para la supervisión y el control de procesos, y la asesoría en
(DS41291D). 2007 problemas de instrumentación. Ha participado en 13 proyectos de
4. Maxim Integrated Products. Low-Power, investigación-desarrollo-innovación e igual cantidad de servicios
científico-tecnológicos, 4 de ellos en programas nacionales, y uno
Slew-Rate-Limited RS-485/RS-422 Transceiv- internacional, dirigiendo 9 de ellos. Ocupa el cargo de Jefe del
ers. Departamento de Control Automático durante el período 2007-2010
5. Maxim Integrated Products. +5V-Powered, e integra el Consejo Científico del ICIMAF.
Multichannel RS-232 Drivers/Receivers. 2000. Es autor de 65 publicaciones en eventos nacionales e
6. Alvarez Bestard, G., y otros. Sistema para el internacionales, revistas y capítulos de libros. Ha participado en 15
eventos internacionales y 31 nacionales, como autor e integrando
Posicionamiento de Radiotelescopios. Segun- su comité científico. Obtiene el Premio Nacional Especial de las
do Congreso Virtual, Microcontroladores y sus Brigadas Técnicas Juveniles en el 2009.
Aplicaciones. ISBN: 978-987-25855-5-6. 2010 Imparte el curso “Medios Técnicos de Automatización” de la carrera
7. Jacobson, I., Booch, G. y Rumbaugh, J., de Ingeniería Automática en la Facultad de Eléctrica del ISPJAE y
“El Proceso Unificado de Desarrollo de Softwa- el curso “Instrumentación para el control de procesos” en la
Maestría “Control Avanzado” del ICIMAF.
re”, Addison-Wesley, 1999.
8. Ortega, Y. M.; Alvarez, G. Ingeniería de soft-
ware para la aplicación “DISOFT”. Reporte de
Investigación del Instituto de Cibernética, Ma-
temática y Física ICIMAF 2010-642. ISSN
0138-8916. 2011
Título: Árboles de Decisión automáticos para el Pronóstico del
Rendimiento Docente (aplicable al Control de Procesos).

Autores: - MsC. Ing. Mario L. Basulto Núñez (ETECSA) mario.basulto@etecsa.cu


- Lic. Anabel Basulto Casas (Palacio Central de Computación)
anabel.basulto@jovenclub.cu

RESUMEN: Se aplican técnicas de minería de datos para generar un árbol de


decisión que permite pronosticar, en un caso de estudio, el rendimiento docente que
se espera para los estudiantes en la universidad a partir de su rendimiento escolar
previo. El método es aplicable al Control de Procesos y a cualquier caso donde se
deseen pronosticar los valores que adquirirán ciertos parámetros, conociendo
previamente los valores de un grupo de factores que se consideren influyentes en
dichos resultados. Se utiliza el software libre WEKA.

Palabras clave: Árbol de Decisión, Clasificación, Minería de datos, Modelo,


Pronóstico.

INTRODUCCIÓN:
Las técnicas de Minería de Datos intentan obtener patrones o modelos a partir de
los datos recopilados. Se clasifican en dos grandes categorías: supervisadas (o
predictivas) y no supervisadas (o descriptivas).

Las predicciones se utilizan para prever el comportamiento futuro de algún tipo de


entidad, mientras que una descripción puede ayudar a su comprensión. De hecho,
los modelos predictivos pueden ser descriptivos (hasta donde sean comprensibles
por las personas) y los modelos descriptivos pueden emplearse para realizar
predicciones. De esta forma, hay algoritmos o técnicas que pueden servir para
distintos propósitos.

En el aprendizaje inductivo supervisado (predictivo), a partir de un conjunto de


ejemplos denominados de entrenamiento, de un cierto dominio D, se construyen
criterios para determinar el valor del atributo (clase) en un ejemplo cualquiera del
dominio. Esos criterios están basados en los valores de uno o varios de los otros
pares (atributo; valor) que intervienen en la definición de los ejemplos.

1
El modelado predictivo es el proceso mediante el cual se crea un modelo para
predecir un resultado. Si el resultado es categórico se llama clasificación y si el
resultado es numérico se llama regresión. (Toronto University, 2011)

La Clasificación es una tarea de la Minería de Datos que permite predecir el valor de


una variable categórica (objetivo o clase) construyendo un modelo basado en uno o
más variables numéricas o categóricas (predictores o atributos). (Toronto University,
2011)

Mediante la Clasificación se analiza un conjunto de datos y se construye un modelo


de objetos para cada clase. Dicho modelo puede representarse con árboles de
decisión o con reglas de clasificación que muestren las características de los datos.
El modelo puede ser usado para mayor comprensión de los datos existentes y para
la clasificación de datos futuros

El proceso general para generar un modelo de clasificación se resume en el


siguiente gráfico (ver figura 1).

Figura 1. Etapas para la generación de un modelo de clasificación.


(Referencia: Corso, C., 2008)

Se selecciona el Conjunto de datos de entrenamiento (opción: “Use training set” en


WEKA). El algoritmo infiere (aprende) de dicho conjunto de datos y genera un
Modelo (conjunto de reglas). Este Modelo deduce (predice) las clases contenidas en
el Conjunto de datos de entrenamiento y como resultado crea un Conjunto de datos
de testeo. (Corso, C., 2008)

Mediante la comparación de las clases reales contenidas en el Conjunto de datos de


entrenamiento con las clases predichas en el Conjunto de datos de testeo se
determina el por ciento de aciertos logrado. En dependencia de dicho porcentaje se

2
estima en qué medida el Modelo creado por el algoritmo es adecuado para clasificar
ese tipo de datos. Si la clasificación se considera suficientemente certera, se asume
que se ha obtenido un Modelo Validado y por tanto se estima que dicho Modelo
(Conjunto de reglas) es capaz de generar “artificialmente” un Conjunto de datos de
testeo que sea una reproducción suficientemente fiel del Conjunto de datos de
entrenamiento. (Corso, C., 2008), (Hernández, J. & Ferri, C., 2006)

Una vez entrenado el algoritmo, podrá someterse a evaluación un nuevo conjunto


de datos que sea similar al Conjunto de datos de entrenamiento, así, de acuerdo
con el Modelo (Conjunto de reglas) creado previamente por el algoritmo, se
generará como Pronóstico un Conjunto de datos de testeo. (Hernández, J. & Ferri,
C., 2006)

Árboles de Decisión
Los árboles de decisión representan funciones lógicas (if-then). Por medio de
Aprendizaje Automático se infiere un Árbol de Decisión a partir de un conjunto de
instancias o ejemplos. El algoritmo “J48” de Weka utiliza un método heurístico para
inferir el árbol, donde se realiza la selección del atributo en cada nivel del árbol en
función de la calidad de la división que produce. (Kohavi, R. & Quinlan, J. R., 2002).

El árbol de decisión crea un modelo basado en una estructura de árbol. Los nodos
en el árbol representan características, cuyas ramas representan valores con
características posiblemente relacionadas. Una hoja representa la clase que termina
en una serie de nodos y ramas. Para determinar la clase de una instancia se rastrea
la ruta de los nodos y las ramas para la hoja terminal. (Kohavi, R. & Quinlan, J. R.,
2002).

El árbol de Decisión que genera el algoritmo “J48” se basa en la teoría del Grano de
Información (Grain theory) donde la bifurcación en cada nodo busca la mayor
ganancia de información, y se generan reglas de decisión que son fáciles de
interpretar. (Kohavi, R. & Quinlan, J. R., 2002).

DESARROLLO:
Según los resultados docentes de una muestra de 180 estudiantes; clasificados
cualitativamente como alto, medio o bajo; en siete asignaturas durante la enseñanza
secundaria y preuniversitaria con sus respectivos resultados posteriores en tres
diferentes ramas universitarias, se aplicó el algoritmo de Clasificación “J48” y se

3
obtuvo un árbol de decisión que permite pronosticar cuáles serían los resultados
universitarios esperados para un estudiante de acuerdo con los resultados docentes
en las etapas secundaria y preuniversitaria. Además, dicho árbol permite determinar
cuáles de las siete asignaturas valoradas para la enseñanza secundaria y
preuniversitaria influyeron decisivamente en el rendimiento académico de las tres
especialidades consideradas y cuál sería relación lógica operacional entre las
asignaturas en función del resultado previsto. Este pronóstico sería útil para estimar
en qué rama universitaria se podría esperar un mejor el rendimiento para un
estudiante de acuerdo con sus resultados docentes históricos y de este modo
aportar elementos que le ayuden a decidir qué carrera escoger.

Ciencias Ciencias
Matemática Español Física Química Historia Geografía Biología Humanidades
Exactas Biológicas
Alto Medio Bajo Alto Bajo Alto Medio Medio - -
Medio Bajo Alto Medio Alto Medio Bajo - Medio -
Bajo Alto Medio Bajo Medio Bajo Alto - - Alto
Alto Bajo Alto Alto Bajo Alto Medio Alto - -
Alto Bajo Medio Medio Alto Medio Bajo - Alto -
Alto Bajo Bajo Alto Medio Bajo Bajo - - Bajo
Medio Alto Alto Medio Bajo Alto Medio Alto - -
Medio Alto Medio Bajo Alto Medio Bajo - Alto -
Medio Alto Bajo Alto Medio Bajo Alto - - Alto
Bajo Alto Bajo Medio Bajo Alto Medio Bajo - -
Figura 2. Fragmento con 10 casos tomados de la tabla original de 180 alumnos (Cada fila horizontal
contiene los resultados de un estudiante). (Elaboración propia)

Este análisis sería válido para cualquier caso similar donde se evalúen ciertos
“factores” (en lugar de asignaturas) que permitan pronosticar como consecuencia
los valores de ciertos “parámetros” y comprender qué “factores” inciden
directamente sobre los valores de dichos “parámetros” y estimar si existe alguna
relación lógica entre ellos.

Factor 1 Factor 2 Factor 3 Factor 4 Factor 5 Factor 6 Factor 7 Parámetro 1 Parámetro 2 Parámetro 3
Alto Medio Bajo Alto Bajo Alto Medio Medio - -
Medio Bajo Alto Medio Alto Medio Bajo - Medio -
Bajo Alto Medio Bajo Medio Bajo Alto - - Alto
Alto Bajo Alto Alto Bajo Alto Medio Alto - -
Alto Bajo Medio Medio Alto Medio Bajo - Alto -
Alto Bajo Bajo Alto Medio Bajo Bajo - - Bajo
Medio Alto Alto Medio Bajo Alto Medio Alto - -
Medio Alto Medio Bajo Alto Medio Bajo - Alto -
Medio Alto Bajo Alto Medio Bajo Alto - - Alto
Bajo Alto Bajo Medio Bajo Alto Medio Bajo - -
Figura 3. Tabla hipotética con la incidencia de siete factores sobre tres parámetros a considerar.
(Elaboración propia)

4
CIENCIAS EXACTAS

Figura 4. Evaluación del proceso de Clasificación y del Pronóstico realizado por el algoritmo “J48” para
el perfil de “Ciencias Exactas”. (Elaboración propia)

En la figura 4 se observan dos ventanas de Weka, en la de arriba se puede apreciar


que el algoritmo clasificó incorrectamente 10 instancias de las 180 evaluadas, por
tanto se refiere que clasificó correctamente el 94.4444 % de las mismas. En la
ventana inferior se observan las tres nubes de puntos que representan las clases:
“Alto” con puntos azules, “Medio” con puntos rojos y “Bajo” con puntos verdes. En el
eje “X” están los valores tomados de la tabla, mientras que por el eje “Y” están los
valores pronosticados. Hay 10 puntos denotados con cuadrados: son las instancias

5
mal clasificadas, mientras que las que fueron bien clasificadas se denotan por
cruces.
Las Instancias mal clasificadas son aquellos valores cuyo pronóstico fue erróneo,
donde el modelo no pudo predecir el valor esperado. En términos prácticos se trata
de resultados docentes en la rama universitaria que divergen de lo pronosticado.

Figura 5. Árbol de decisión realizado por el algoritmo “J48” para el perfil de “Ciencias Exactas”.
(Elaboración propia)

El árbol se compone de un nodo raíz (Física para este caso) de donde se derivan
tres variantes: “Alto”, “Medio” o “Bajo”, etc. Si las notas de Física fueron altas se
pasa al nodo: Español. Si las calificaciones de Español fueron medias, entonces se
pasa al nodo: Matemática. Si en esta asignatura las notas fueron altas, se
pronostica que el estudiante obtendrá notas altas en la rama de Ciencias Exactas.
De forma análogas ocurre en todo el árbol, siempre de arriba hacia abajo, partiendo
del nodo raíz.

6
HUMANIDADES

Figura 6. Evaluación del proceso de Clasificación y del Pronóstico realizado por el algoritmo “J48” para
el perfil de “Humanidades”. (Elaboración propia)

En la figura 6 se observan dos ventanas de Weka, en la de arriba se puede apreciar


que el algoritmo clasificó incorrectamente 13 instancias de las 180 evaluadas, por
tanto se refiere que clasificó correctamente el 92.7778 % de las mismas.

7
Figura 7. Árbol de decisión realizado por el algoritmo “J48” para el perfil de “Humanidades”.
(Elaboración propia)

El árbol se compone de un nodo raíz (Historia para este caso) de donde se derivan
tres variantes: “Alto”, “Medio” o “Bajo”, etc. Análogamente al caso anterior, si las
notas de Historia fueron altas se pasa al nodo: Español. Si las calificaciones de esta
asignatura fueron medias, entonces se pasa al nodo: Matemática. Si en esta
asignatura las notas fueron altas, se pronostica que el estudiante obtendrá notas
altas en la rama de Humanidades. De forma similar ocurre en todo el árbol.

8
CIENCIAS BIOLÓGICAS

Figura 8. Evaluación del proceso de Clasificación y del Pronóstico realizado por el algoritmo “J48” para
el perfil de “Ciencias Biológicas”. (Elaboración propia)

En la figura 6 se observan dos ventanas de Weka, en la de arriba se puede apreciar


que el algoritmo clasificó incorrectamente 16 instancias de las 180 evaluadas, por
tanto se refiere que clasificó correctamente el 91.1111 % de las mismas.

9
Figura 9. Árbol de decisión realizado por el algoritmo “J48” para el perfil de “Ciencias Biológicas”.
(Elaboración propia)

CONCLUSIONES
Para el caso analizado, el algoritmo “J48” de Weka pronosticó con una exactitud
superior al 90 % el rendimiento académico de los estudiantes analizados basándose
en el rendimiento docente previo. Se pudo apreciar que de las 7 asignaturas
consideradas hubo 5 con influencia decisiva para el pronóstico: Matemática,
Español, Historia, Física y Biología.
Como se explicó previamente, este trabajo es aplicable al Control de Procesos y a
cualquier caso en el cual se evalúe la probable influencia de varios factores sobre
ciertos resultados.

BIBLIOGRAFÍA
Basulto, M. (2013). Descubrimiento de conocimiento sobre accidentes de tránsito en
una base de datos concerniente a las afectaciones a la infraestructura de las
telecomunicaciones en “ETECSA” Tesis en opción al grado de Master en
Cibernética Aplicada, Mención Minería de Datos. ICIMAF.
Basulto, M. (2011). La aplicación de Técnicas de Minería de Datos para extraer
Información de la base de datos: Hechos No Delictivos de ETECSA en el 2010.
Tesina para el para el Diplomado Aplicaciones de la Minería de Datos. ICIMAF.
Britos, P. (2008). Procesos de explotación de información basados en sistemas
inteligentes. Universidad Nacional de La Plata, Argentina
Corso, C. (2008). Aplicación de algoritmos de clasificación supervisada usando
Weka. Universidad Tecnológica Nacional, Facultad Regional Córdoba. Argentina
Kohavi, R. & Quinlan, J. R. (2002). Decision-tree discovery. Handbook of Data
Mining and Knowledge Discovery, pp. 267-276, Oxford University Press.
Toronto University. (2010).
http://chemeng.utoronto.ca/~datamining/dmc/data_mining_map.htm (Consultado:
febrero 2011).
10
TCA2013 1

SELECCIÓN DE UN SIMULADOR DE
PROGRAMAS PARA PLC EN UNA
PLATAFORMA DE RÁPIDO DESARROLLO DE
PROTOTIPOS.
Autores: Armando Plasencia Salgueiro, Frank Pacareu de la Cruz

Instituto de Cibernética, Matemática y Física (ICIMAF), Agencia de Energía Nuclear (AENTA).


Calle 15 N0 551 e/ C y D, Vedado, Plaza de la Revolución, Ciudad de La Habana, Cuba, teléfono
832-0319 C.E.: armando@icimaf.cu, frank@icimaf.cu

Resumen— Los sistemas empotrados, en particular los Para llevar a cabo el correcto intercambio de información
programadores lógicos programables (PLC) están jugando un entre las distintas partes que integran un sistema automatizado
papel cada vez más importante en la ingeniería de control. Sin son necesarios una serie de interfaces o líneas de
embargo, independientemente de su popularidad, debido a sus comunicación.
limitaciones de recursos en ocasiones se hace difícil el construir
con ellos sistemas de control complejos. Para la comprensión de
estos sistemas se expone la concepción teórica de los PLC, su
estructura de hardware y los diferentes software de desarrollo de
programas para PLC. Una de las etapas fundamentales en el
diseño del controlador lo constituye la etapa de simulación. Se
expone entonces una plataforma de desarrollo basada en una PC
de propósito general con Sistema Operativo Linux-RTAI para la
cual se seleccionó, después de un análisis de varias herramientas
de simulación mediante una metodología de marco jerárquico, la
herramienta de código abierto Scilab/Scicos.

Palabras Clave — Simulador de programas PLC. Scilab/Scicos Figura 1. Esquema general de un sistema automatizado
[Reyes.; 2004]

I. INTRODUCCIÓN Cuando el sistema que se pretende automatizar es por ejemplo


Todo sistema automatizado está formado por tres partes una vivienda o edificio, o mejor dicho los distintos sistemas
claramente diferenciadas, a saber: que la forman, ésta se convierte en un sistema automatizado
con un esquema como el detallado anteriormente. En este caso
_ La parte operativa o proceso que se desea controlar. la parte operativa está integrada por los distintos componentes
_ La parte de control o controlador utilizado para gobernar la que forman las distintas instalaciones o sistemas
parte operativa de la manera deseada. (climatización, luces, cargas, persianas, etc.) susceptibles de
_ La parte de supervisión y explotación del sistema que servirá ser controlados en una vivienda o edificio.
de interfaz entre el operador y el sistema automatizado.
Genéricamente a esta función se le
TCA2013 2

el control de cualquier tipo de proceso, pero debido a su gran


facilidad de conexión a los sensores y actuadores que forman
parte del proceso, están especialmente indicados en aquellos
casos en los que las características del proceso sean
cambiantes a lo largo del tiempo, y a su vez esto influya en el
controlador, tanto en su parte hardware como software. Esto
ocurre muy a menudo en la industria de producción como por
ejemplo en el sector del automóvil, en el que las pautas del
mercado exigen el desarrollo de nuevos modelos en menores
plazos de tiempo, y además con mejores prestaciones de
calidad y a precios competitivos.
Figura 2. Esquema general de un sistema automatizado (II)
[Reyes.; 2004] En la actualidad, cada vez la frontera que los separa se va
difuminando más y más, llegando incluso a aparecer
En el ámbito extenso de la automatización de procesos existen arquitecturas híbridas que aúnan lo mejor de cada tipo, como
varios tipos de tecnologías para implementar la parte de por ejemplo los PC/PLCs que basándose en una arquitectura
control: lógica cableada, microcontroladores, reguladores de tipo PC mucho más rica en recursos, toman de los PLCs su
digitales, etc. Todos ellos se conocen como sistemas modo de funcionamiento y su gran facilidad a la hora de ser
empotrados (embebidos) [Ma L. et al., 2008]. Un sistema conectados al proceso.
embebido es un sistema de cómputo de propósito específico
que esta encapsulado físicamente por el dispositivo que este
controla. Este generalmente es parte de un sistema mayor y
está oculto para los usuarios.

Figura 4. Comparación de los distintos tipos de control


[Reyes.; 2004].
Hay diferentes arquitecturas paralos procesadores empotrados,
tales como ARM, PowerPC, x86, MIPS, etc. Algunos de los
sistemas empotrados no tienen sistema operativo, mientras que
otros muchos corren sistemas operativos de tiempo real y
complejos programas de multihilado.
Figura 3 Evolución histórica de los controladores
La mayoría de los sistemas de control empotrados están
programables.[Reyes.; 2004]
implementados en microcontroladores o en PLC. A pesar de
Así aparecen:
que los microcontroladores y los controladores lógico-
programables están provistos de la mayoría de las
-Los ordenadores personales (PC) de carácter industrial.
características esenciales para implementar un sistema básico
Varias son las características que les hacen ser más ventajosos
de control, los lenguajes de programación para la creación de
frente a sus rivales, a saber: su gran capacidad de cálculo
los software de control embebido no han evolucionado a la par
debida fundamentalmente a los potentes microprocesadores y
que otras tecnologías de programación. Una gran mayoría de
la gran cantidad de memoria de trabajo que incluyen, su bajo
los sistemas de control empotrado son programados utilizando
coste derivado de su arquitectura estándar, su gran facilidad
lenguajes de propósito general tales como las cartas de
para la conexión con otros equipos y su escalabilidad.
funciones secuenciales (SFC – sequencial function charts),
lenguajes de bloques funcionales, o lenguajes de diagramas de
- Los autómatas programables. En lo que resta de este capítulo
escalera (ladder). Los cuales generalmente proporcionan una
se tratarán en profundidad este tipo de dispositivos.
pobre estructura de programación. Por otro lado se produce la
Simplemente adelantar ahora que su empleo está indicado en
contradicción de que la complejidad de los software de control
TCA2013 3

crece rápidamente debido a la expansión de los requerimientos II. MATERIALES Y MÉTODOS


de las funcionalidades del sistema. De continuar esta Concepción teórica
tendencia, la manera tradicional de desarrollar software Un PLC (Programable Logic Controller) o autómata
empotrado se convertirá más y más ineficiente. programable según la definición del estándar internacional
Existen esfuerzos por parte de la industria y la investigación de IEC 61131 que normaliza las características fundamentales de
solucionar el problema antes mencionado (ARTIST2 - los mismos tanto en su parte hardware como software, es una
http://www.artist-embedded.org, proyecto CEmACS - máquina electrónica programable capaz de ejecutar un
(http://www.hamilton.ie/cemacs/). programa, o sea, un conjunto de instrucciones organizadas de
Desde el punto de vista técnico, una solución clásica para el una forma adecuada para solventar un problema dado, y
desarrollo de software de control de complejidad para el diseñada para trabajar en un entorno industrial y por tanto
control empotrado es utilizar una plataforma de hostil. Las instrucciones disponibles para crear programas
Matlab/Simulink que está disponible comercialmente desde serán de una naturaleza tal que permitirán controlar procesos,
hace años y que está regida por las leyes del bloqueo a Cuba. por ejemplo: funciones lógicas, operaciones aritméticas, de
Sin embargo, esa solución es complicada, cara y prohibida contador de eventos, de temporización, etc. Además, el PLC
para los investigadores e ingenieros cubanos. La generación estará diseñado de forma tal que la conexión del mismo con el
automática del código a ejecutar a partir de los modelos proceso a controlar será rápida y sencilla por medio de
obtenidos en ocasiones no está incluida. Es posible también entradas y salidas de tipo digital o analógico.
que el código generado no funcione de forma satisfactoria en Definición IEC 61131
las plataformas empotradas, aún si los modelos Un autómata programable (AP) es una máquina electrónica
correspondientes de Matlab/Simulink han alcanzado un programable diseñada para ser utilizada en un entorno
resultado satisfactorio en la PC. En consecuencia los industrial (hostil), que utiliza una memoria programable para
desarrolladores deben de invertir un tiempo considerable el almacenamiento interno de instrucciones orientadas al
tratando de darle solución a estos inconvenientes. Como el usuario, para implantar soluciones específicas tales como
hardware de cómputo se hace cada vez más barato, el costo de funciones lógicas, secuencias, temporizaciones, recuentos y
software embebidos se hace predominante en comparación con funciones aritméticas, con el fin de controlar mediante
el costo total del desarrollo. En este caso, se hace entradas y salidas, digitales y analógicas diversos tipos de
recomendable la utilización de herramientas de software libre máquinas o procesos.
de bajo costo o gratis, en lugar de herramientas caras Sus empleos son numerosos y se pueden analizar desde varios
propietarias. puntos de vista:
Los simuladores de programas para programadores lógicos
programables representan un recurso muy necesario para _ Desde el punto de vista de la concepción del sistema
obtener desarrollos rápidos y fiables y es una etapa automatizado: o Los PLCs son herramientas de fácil manejo
fundamental en el proceso de diseño y puesta a punto del por medio de software de programación y configuración o
controlador. facilitan el trabajo en el laboratorio. De esta forma permiten al
ingeniero concentrarse en los algoritmos de control en un
Algunos simuladores de PLC son ofrecidos por sus ambiente relajado. Además si se combina con el uso de
fabricantes, otros son escritos por terceras partes para maquetas o simuladores del proceso a controlar, este trabajo
propósitos especiales. Tales herramientas generalmente puede hacer que la fase de implantación y puesta en marcha se
ejecutan simulaciones de PLC muy precisas que incluyen sus vea sumamente reducido. Además, los costes de desarrollo se
características temporales, y en ocasiones la representación ven también recortados al no hacerse dependiente la fase de
visual de la simulación. ingeniería de la disponibilidad del proceso a controlar.
Así por ejemplo, la función principal del simulador S7-
PLCSIM es poder testear los programas creados con el -Los PLCs son máquinas a medio camino entre la ingeniería
programa -STEP 7, para el S7-300 y el S7-400, de los que no eléctrica y la informática lo cual permite a las empresas llevar
se pueden probar directamente en el Hardware. a cabo una transición suave hacia nuevas tecnologías aplicadas
al proceso productivo.
Este puede tener diversas funciones:
-Desde el punto de vista del mantenimiento:
- Módulos de programas pequeños, los cuales aún no se - No se requiere de personal altamente cualificado
pueden testear en un procedimiento de la máquina. - Se puede adaptar y formar al personal del
- Aplicaciones críticas, las cuales no se pueden testear departamento de mantenimiento eléctrico para llevar
directamente sobre la máquina o el procedimiento. Con una a cabo las labores de mantenimiento de este tipo de
simulación en el simulador se pueden evitar daños a personas dispositivos.
y a las máquinas. Otra posibilidad es la utilización de éste para -El interfaz hombre máquina de estos dispositivos es muy
fines prácticos, en el caso de que no se disponga del potente lo cual facilita la labor tanto del personal de
Hardware-PLC necesario. mantenimiento como del de producción.

Concepto gráfico
TCA2013 4

Un PLC puede ser definido también desde un punto de vista


gráfico como se muestra en la Figura 5.

No hay que perder de vista que los PLCs son la evolución


natural del empleo de la tecnología eléctrica en el control de
procesos al uso de la tecnología electrónica. De esta forma un
PLC se puede entender como el dispositivo electrónico que
viene a sustituir el conjunto de componentes eléctricos (relés,
enclavamientos, etc.) que adecuadamente combinados
implementan la lógica de un circuito de mando. Esa lógica será
implementada en este nuevo dispositivo como un programa de Figura 5. Concepto gráfico de un PLC [Reyes.; 2004]
control.
CÓMO FUNCIONA UN PLC
Es de destacar que aquellos componentes del circuito de
mando empleados por el operador para comandar su Un PLC una vez conectado a la red eléctrica tiene básicamente
funcionamiento como son pulsadores e interruptores dos modos de funcionamiento:
fundamentalmente, seguirán presentes en la implementación
mediante PLC cumpliendo la misma función. Asimismo, los _ Stop. En este modo de funcionamiento no se ejecuta el
componentes del circuito de mando empleados para mostrar programa de control.
información acerca del estado de activación o no de los _ Run. En este modo de funcionamiento el programa de
componentes del circuito de fuerza o proceso, a saber control se está ejecutando de manera indefinida hasta que o
lámparas, señalizadores acústicos, etc., también aparecerán bien el PLC pasa al modo Stop o bien se desconecta de la
conectados al PLC como salidas del mismo. Por último, los alimentación.
componentes del circuito de mando empleados para la Es obviamente este último modo de funcionamiento el más
activación de los elementos del circuito de fuerza como son interesante. Cuando el autómata se encuentra en esta situación
relés y contactores, aparecerán también conectados al PLC el programa de control que está grabado en su memoria se
como salidas del mismo. ejecuta cíclicamente describiendo lo que se ha dado en llamar
“Ciclo de Scan”.
Aparecen dos nuevos conceptos que hasta ahora con el empleo
de la lógica cableada para implementar el control de procesos Un ciclo de scan consiste básicamente en cuatro pasos bien
no existían: las entradas y las salidas del PLC. diferenciados:
Las entradas del PLC pueden definirse como los canales que le 1. Lectura de las entradas del PLC.
permiten adquirir información procedente de los sensores 2. Ejecución del programa de control.
acerca de cómo se encuentra el proceso en cada momento. 3. Escritura de las salidas del PLC.
4. Tareas internas del PLC.
Las salidas del PLC se pueden definir como los canales que
permiten al PLC enviar órdenes de ejecución a los Lectura de entradas
componentes del proceso empleando los preaccionadores y los Al comienzo de cada ciclo de scan, el sistema operativo del
accionadores del proceso. Es decir, que para poner en marcha PLC comprueba el estado enel que se encuentran todos y cada
un motor deberá existir un contactor conectado a una salida uno de los elementos de entrada (sensores, pulsadores, etc.)
del PLC, de forma que cuando el PLC requiera de ese motor que están conectados a los distintos módulos de entradas del
para que se ponga en marcha dará la orden al contactor para PLC. Si un sensor está activado, el PLC pondrá un “1” lógico
que este la transmita al motor. en una posición determinada de una zona de memoria especial
llamada “Memoria de Entradas” o “Imagen del Proceso de
El programa de control que finalmente ejecuta un PLC reside Entradas”. Si por el contrario ese sensor no estuviese activado,
en su memoria. Para almacenar el programa en la memoria es entonces el PLC pondría un “0” lógico en la posición de
necesario emplear un dispositivo de programación como más memoria de entradas asignada para esa entrada. Si el sensor
adelante en este capítulo se explicará. fuese analógico en vez de escribir un “1” o un “0”, se
convertiría el valor de la magnitud física a un valor numérico
que también se depositaría en una zona de la memoria de
entradas analógicas.

Esta operación de lectura de las entradas conlleva un cierto


tiempo para ejecutarse totalmente, el cuál debe ser tenido en
cuenta a la hora de calcular la duración del ciclo de scan. En
cualquier caso, este tiempo suele ser despreciable con respecto
a la duración de la ejecución del programa de control.
TCA2013 5

El acrónimo PLC viene del Inglés “Programmable Logic


Al hacer esta operación de lectura de todas las entradas al Controller” o “Controlador
comienzo de cada ciclo se asegura que todas las instrucciones Lógico Programable”. Como ya se indicó anteriormente los
del programa de control son ejecutadas sobre una “imagen” PLCs ocupan la posición más alta dentro de los distintos tipos
del estado del proceso coherente. Es decir, que si una vez de equipos de control programables. Aunque a su vez los
comenzado a ejecutar el programa de control, algún sensor del PLCs pueden ser divididos en varias categorías dependiendo
proceso cambiase de valor, este nuevo valor no se tomaría en fundamentalmente de sus características hardware y software,
cuenta hasta el siguiente ciclo. De esta forma se evitaría que todos exhiben una arquitectura similar como la detallada a
una posible instrucción posterior que hiciese referencia a esa continuación.
entrada no fuese coherente con otra instrucción ejecutada con
anterioridad al cambio de valor en ese sensor.

Ejecución del programa de control


Una vez que la memoria de entradas ha sido totalmente
actualizada el sistema operativo del PLC, comenzará a ejecutar
las instrucciones del programa albergado en su memoria de
programa del PLC. Lo hará secuencialmente comenzando por
la primera instrucción del módulo de programa que se
considere el principal (cada fabricante lo designa de una forma
distinta, por ejemplo en los PLCs de Siemens se le llama
OB1). Figura 6 Arquitectura típica de un autómata programable
[Reyes.; 2004].
La ejecución secuencial no implica ejecución lineal, es decir,
que un programa puede contener instrucciones especiales que Aunque todos los PLCs tienen una arquitectura interna como
permitan hacer saltos hacia delante y hacia atrás, e incluso es la descrita hasta ahora, externamente suelen presentar una de
posible que haya subrutinas e interrupciones. Pero en cualquier dos posibles configuraciones:
caso, la ejecución seguirá siendo secuencial siendo posible _ Compacta. En este tipo de PLCs todos los módulos
alterar esa secuencia de forma dinámica. Esa secuencia anteriormente descritos están encapsulados bajo una misma
acabará teniendo una última instrucción que tras ser ejecutada carcasa plástica que hace del PLC un producto robusto
pondrá fin a este paso del ciclo de scan. y monolítico (Figura 7).

Dado que la secuencia de ejecución de un programa puede ser


alterado por medio de instrucciones de programa será posible
hacer un programa de control que no termine nunca, lo que en
informática se conoce como un “bucle infinito” que haga que
el PLC se “cuelgue”. El autómata dispone de mecanismos para
detectar esta situación y provocar la finalización de la
ejecución del programa, y será responsabilidad del
programador contemplar esta anormalidad para subsanar sus
posibles efectos. Evidentemente lo deseable es no generar
nunca un bucle infinito, máxime teniendo en cuenta que un
PLC es un dispositivo dedicado a controlar un proceso y en
caso de presentarse una situación de esta naturaleza, el proceso Figura 7. Ejemplo de arquitectura [Reyes.; 2004]
se descontrolaría poniendo en peligro la integridad de las
personas y de la propia instalación. LENGUAJES DE PROGRAMACIÓN
Los lenguajes de programación de PLCs han sufrido una
La normal ejecución del programa de control hará que los evolución paralela a la de los propios equipos a lo largo del
valores de la memoria de datos del PLC vayan cambiando a tiempo.
medida que se avanza. Especial importancia tienen los
cambios que se registren en la memoria de salidas ya que serán Diagrama de escalera
los que finalmente se traduzcan en acciones sobre el proceso. Con la aparición de los primeros PLCs hacia 1969 el lenguaje
Por último es de destacar que la ejecución del programa de de programación diseñado era el denominado diagrama de
control durará una determinada cantidad de tiempo que será escalera (Ladder Diagram –LD-) muy próximo a los diagramas
directamente proporcional a la velocidad del procesador CPU) eléctricos empleados para representar los esquemas de lógica
del PLC y que por tanto dependerá del modelo del mismo. cableada utilizados para controlar procesos hasta aquel
momento.
CARACTERÍSTICAS HARDWARE Se pretendía que la transición de una tecnología a otra fuese lo
más suave posible de esta forma todo el personal de las
TCA2013 6

empresas con una alta cualificación en sistemas de lógica sigue las mismas pautas. Cada operación es representada por
cableada podrían ser fácilmente formados y adaptados a los un símbolo normalizado. Un conjunto de operaciones que
nuevos sistemas de lógica programable, permitiendo a las llevan a cabo una función específica se pueden agrupar
empresas abaratar la transición hacia un nuevo modelo de formando una subrutina o bloque el cual pasa a tener un
automatización de procesos. símbolo asociado que puede ser empleado en otro segmento de
programa tantas veces como se quiera. Sólo es necesario
seguir unas pautas sintácticas y semánticas a la hora de
construir los diagramas.

Figura 8 Diagrama de escalera [Reyes.; 2004]

Lista de instrucciones
El lenguaje de lista de instrucciones (Instruction List -IL-) es
el lenguaje de programación de PLCs más potente de los que
existe. Es un lenguaje literal de bajo nivel parecido al lenguaje
ensamblador empleado para la programación de Figura 10. Diagrama de bloques funcionales [Reyes.; 2004]
microcontroladores.
Es un lenguaje cuyo origen está en Alemania de la mano de Texto estructurado
Siemens y sus primeros autómatas. Este lenguaje se basa en la El texto estructurado (Structured Text -ST-) es un lenguaje
utilización de un mnemónico que representa la instrucción literal de alto nivel que surge de adaptar el lenguaje Pascal
seguido del operando u operandos sobre los que se aplica. El empleado en la programación de PCs a las necesidades propias
resultado de la operación puede ser almacenado sobre uno de del control de procesos.
los operandos o sobre alguno de los registros o la pila que Es un lenguaje muy potente especialmente indicado para la
emplea el equipo. Cada línea del programa contiene una única representación de algoritmos de control complejos en los que
instrucción y su ejecución es secuencial comenzando por la sea necesario emplear bucles, condicionales, etc.
primera de la lista. Todos los programas escritos en cualquiera
de los otros lenguajes puede ser finalmente traducido a IL

Figura 11. Texto estructurado [Reyes.; 2004]


SFC

El lenguaje de los diagramas funcionales secuenciales


(Sequential Function Chart - SFC) surge como una evolución
Figura 9. Lista de instrucciones[Reyes.; 2004]
del lenguaje de modelado de sistemas secuenciales GRAFCET
Diagrama de bloques funcionales
(estándar internacional IEC 848). El último no es un lenguaje
de programación (aunque sea posible extraer un programa de
El lenguaje de los diagramas de bloques funcionales (Function
los diagramas escritos en este lenguaje) mientras que SFC sí lo
Block Diagram -FBD-) es un lenguaje gráfico que surge como
es con todas las connotaciones que ello supone. SFC
una evolución de los diagramas empleados por los ingenieros
proporciona al ingeniero un potente lenguaje para la
electrónicos para representar los circuitos lógicos. En estos las
representación de automatismos secuenciales.
puertas lógicas son representadas mediante símbolos
estandarizados. Un circuito electrónico puede ser encapsulado
en un integrado el cual puede ser utilizado en un nuevo
diagrama mediante un símbolo adecuado. El lenguaje FBD
TCA2013 7

general de un sistema de control empotrado con un lazo simple


se muestra en la figura 14.

Figura 12. Diagrama funcional secuencial[Reyes.; 2004]


SFC surge del esfuerzo del organismo internacional Figura 14 Estructura general de los sistemas de control
denominado Comisión Electrotécnica Internacional embebido [Ma L. et al., 2008].
(International Electrotechnical Commision -IEC-) cuyo
objetivo era la publicación de un estándar que normalizase los En un entorno de multitarea/multilazo (MIMO) como se ilustra
PLCs desde el punto de vista hardware y software. Este en la figura 15, pueden ser realizadas múltiples tareas por el
estándar está dividido en varias partes y es la tercera (IEC mismo procesador.
61131-3) la que hace referencia a los lenguajes de
programación. Esta norma recogió los cuatro lenguajes
clásicos más empleados en la programación de PLCs y les
añadió un nueva versión de GRAFCET que le daba carácter de
lenguaje de programación, permitiendo además la utilización
de cualquiera de los cinco lenguajes para codificar cualquier
módulo de programa que fuese necesario. Cualquiera de estos
módulos independientemente del lenguaje en que hubiese sido
escrito debe poder ser empleado desde cualquier otro módulo
de programa.
Figura 15 Sistema de control empotrado multitarea [Ma L. et
al., 2008].

Metodología de diseño.
Tradicionalmente, el ciclo de desarrollo de un sistema de
control consiste en dos pasos principales: el diseño del
controlador y su implementación. Estos dos pasos están
frecuentemente separados. Como se muestra en la figura 16, en
donde se representa el llamado modelo V. Mientras que el
diseño del controlador es realizado por usualmente por
ingenieros de control, su implementación es realizada por
ingenieros de sistemas (software). En el primer paso, el
ingeniero de control modela los procesos físicos utilizando las
ecuaciones matemáticas. De acuerdo con las especificaciones
de los requisitos, es donde los ingenieros de control diseñan
Figura 13. Lenguajes de programación [Reyes.; 2004] los algoritmos de control. Los parámetros de los algoritmos de
control son determinados frecuentemente mediante
DISEÑO DE LOS SISTEMAS DE CONTROL simulaciones extensivas para alcanzar el mejor funcionamiento
EMPOTRADOS. posible. LA herramienta más ampliamente utilizada en este
Como los sistemas de control crecen en complejidad y paso es Matlab/Simulink que incluye la realización de la
funcionalidad, se hace imposible en muchos casos utilizar modelación, la síntesis y la simulación de los sistemas de
controladores analógicos. Por ello la mayoría de los control. En los sistemas de control de tiempo real, los procesos
controladores son digitales y están implementados con físicos son usualmente modelados como sistemas analógicos
computadoras. La introducción de las computadoras en los mientras que los algoritmos de control son discretizados para
lazos de control tiene muchas ventajas. Por ejemplo, se hace favorecer su implementación digital. En el segundo paso, los
posible ejecutar algoritmos avanzados con cálculos ingenieros de software desarrollan los programas que ejecutan
complicados en un entorno de GUI amigable. La estructura los algoritmos de control con los parámetros obtenidos del
TCA2013 8

diseño del primer paso. Existen varios lenguajes de


programación disponibles para la implementación. El sistema
será probado varias veces antes de que se alcance un resultado
satisfactorio.

Figura 16. Proceso de desarrollo tradicional del software de


control [Ma L. et al., 2008].
Figura 18. Componentes de la plataforma de desarrollo.[Ma L.
Ante la separación existente durante el desarrollo entre et al., 2008].
ingenieros de control e ingenieros de sistemas, es lógico
pensar en una metodología que cierre esa brecha. En [Ma L. et Operativo “Linux-RTAI” [Plasencia A., 2011]. De acuerdo
al., 2008]. se propone una metodología, representada en la con modelo V de desarrollo aquí expuesto, nos dimos a la
figura 17, en donde se desarrolla una plataforma integrada que tarea de seleccionar un software para realizar la etapa de
proporciona un soporte a todas las fases de todo el ciclo de simulación. Para ello se descargaron los software de
desarrollo de los sistemas de control empotrados. Con esta simulación y se estudiaron los programas de diseño de
plataforma, la modelación, la síntesis, la simulación, la programas de control PLC EasyPLC, RSim, RS Logic 500,
implementación y la prueba del software de control puede Sim2.0, Trilogi5, S7-PLCSIM y los programas de uso general
realizarse en un medio unificado. Gracias a esta integración de modelación y simulación MatLab/Simulink y Scilab/Scicos
del diseño del controlador y su implementación, esta con el doble objetivo de determinar los elementos comunes y
metodología de diseño es capaz de posibilitar un desarrollo las facilidades de simulación que cada programa brindaba, el
rápido de controladores empotrados que pueden utilizarse en diseño de los programas y si era posible utilizarlo como
los sistemas reales. programa de simulación para la plataforma de desarrollo
construida. En la selección se utilizó la metodología dada en
[Nikoukaran, J., 1999] y se añadieron otros elementos como
costos y accesibilidad del software en Internet. Como
resultado se obtuvo que la herramienta que más se adecuaba
esa Scilab-Scicos.
Scilab (http://www.scilab.org) es un software científico de
software libre para los cálculos numéricos, que proporciona un
poderoso entorno abierto de computación para aplicaciones de
ingeniería y científicas. Proporciona miles de potentes
primitivas incluidas en forma de funciones matemáticas. Es un
entorno de programación abierto en el cual el usuario puede
Figura 17. Diseño integrado e implementación de una definir nuevos tipos de datos y operaciones de tipos de datos.
plataforma unificada [Ma L. et al., 2008]. Es fácil hacer interfaces en Scilab con C, C++, Java, Labview
y Maple. La última versión estable es la 5.02
Scilab incluye un modelador gráfico de sistemas y de
III. RESULTADOS Y DISCUSIÓN herramientas de simulación llamada Scicos
Bajo esta misma concepción, representada en la figura 18, se (http://www.scicos.org) que se corresponde con el Simulink de
construyó una plataforma de desarrollo en el marco del Matlab.
proyecto interno del Instituto de Cibernética, Matemática y
Física “Algoritmos de Control Automático y Modelación en IV. CONCLUSIONES
Tiempo Real para Software libre” la cual tiene como hardware En el artículo se da una descripción general y los fundamentos
una PC compatible PIII con el sistema teóricos de funcionamiento y programación de los
controladores empotrados y en particular los PLC. Ante la
necesidad de lograr desarrollos rápidos, de relativo bajo costo
y que cubran la brecha existente entre desarrollo del sistema de
TCA2013 9

control y el desarrollo del programa de control se propone una automático del ICIMAF. Reporte de Investigación.
plataforma de Hardware basada en una PC de propósito ICIMAF 2011.
general que soporta el Sistema Operativo de tiempo real
RTAI-Linux y aplicando la metodología de marco jerárquico Armando Plasencia Salgueiro. Nacido en La Habana el 3 de
se selecciona el software, después de estudiados varios marzo del 1956. Graduado de especialista aeronáutico y M. Sc. en
Ciencias Técnicas en la Academia Militar N.E. Shukovsky de
software de simulación de programas de PLC, en donde esta
Moscú, Rusia en 1979. Doctor en Ciencias Técnicas por el
plataforma debe de desarrollar la etapa de simulación. Este Instituto Técnico Militar de Ciudad de La Habana, en 1990. M.
software fue el software libre Scilab/Scicos. Sc. en Gestión de Información en las Organizaciones en la UH
(2000). Se desempeñó como tecnólogo de aviación (1990),
Director fundador del Laboratorio de Investigación de Informática
REFERENCIAS
y Automatización (USIA) hasta el 2000 en la Empresa de
1. Reyes.; Autómatas programables. Departamento de Reparación de Aviación “Yuri Gagarin”. Jefe del laboratorio de
recopilación y análisis de datos de vuelo (Control Objetivo) de
Ingeniería de sistemas y automática. Universidad de Cubana de Aviación del 2002 al 2006. Profesor de la Maestría en
Oviedo. 2004 Gestión de Información en las Organizaciones, Cátedra UNESCO,
2. Nikoukaran, J., A hierarchical framework for de la Universidad de La Habana del 2002 al 2010. Investigador y
Jefe del Departamento de Control Automático del Instituto de
evaluating simulation software. Simulation Practice Cibernética, Matemática y Física (ICIMAF) del CITMA. Profesor
and Theory. 1999 y Coordinador de la Maestría “Cibernética Aplicada” del propio
ICIMAF. Jefe de los proyectos del PNCIT “Minería de Datos para
3. Ma L. et al., Integrated Design and Implementation of las mediciones industriales” (ya concluido), “Algoritmos de
Embedded Control Systems with Scilab. 2008 Minería de datos para la toma de decisiones en procesos
industriales con procesamiento paralelo (Cluster y Grid) y la
Accesado en http://www.mdpi.org/sensors/papers búsqueda especializada de contenidos en la Web” (Proyecto no
/s8095501.pdf. asociado de la Agencia de Energía Nuclear y Tecnologías de
4. Susta, R. LOW COST SIMULATION OF PLC Avanzada) y “Algoritmos de Control Automático y Modelación
en Tiempo Real para Software libre” (Proyecto institucional).
PROGRAMS. Department of Control Engineering, Centra sus intereses de investigación en el Diagnóstico y la
Faculty of Electrical Engineering, Prague. 2004 fiabilidad de sistemas técnicos, los Sistemas de Seguridad de los
Vuelos, las Tecnologías de la información y las Comunicaciones,
5. Plasencia A. Control en tiempo real con software libre. la Minería de Datos, la Inteligencia de negocios, la Docencia de
Fundamentación, situación actual, resultados y Tecnologías y la Robótica.

proyección del trabajo en el departamento de control


 Intente igualar las dos columnas en la última página 
TCA2012 1

Algoritmos de minería de datos: Árboles de


decisión y reglas de inducción integrados a
PostgreSQL
Autores: Ing. Yadira Robles Aranda, MSc. Anthony Rafael Sotolongo, Ing. Edgar Rojas

Resumen— En la presente investigación se analizó de las que a pesar de que son bajo licencia GPL es necesario
técnicas de minería de datos la de árboles de decisión y la de conectarse al sistema gestor de bases de datos y cuando existe
reglas de inducción para integrar varios de sus algoritmos al una gran cantidad de datos a analizar el proceso se vuelve
sistema gestor de base de datos (SGBD) PostgreSQL, debido a las
engorroso y lento. (Soto Jaramillo, 2009) Además se debe
deficiencias de las herramientas libres existentes. También se
propuso un mecanismo para optimizar el rendimiento de los garantizar la seguridad de los datos pues la información viaja a
algoritmos implementados con el objetivo de aprovechar las través de la red. Otra alternativa que propone weka es
ventajas de PostgreSQL y se comprobó mediante un experimento, convertir los datos a la extención “arff” pero ante cualquier
que al utilizar los algoritmos integrados al gestor, los tiempos de actualización de los datos de la bases de datos sería necesario
respuestas y los resultados obtenidos son superiores. volverlos a convertir Para darle solución a estos problemas en
Palabras Clave — árboles de decisión, minería de datos, la actualidad algunas empresas como Microsoft y Oracle han
PostgreSQL, reglas de inducción, sistema gestor de bases de desarrollado módulos dentro de sus sistemas gestores de bases
datos.
de datos que tienen incluido las técnicas de minería de datos,
lo que les permite ganar en rapidez en los tiempos de respuesta
I. INTRODUCCIÓN ya que no sería necesario transformar “datos sin formato” en
“información procesable” (preparación de los datos) o
La informatización de las empresas, organizaciones e importación o vinculación con la herramienta encargada de
instituciones ha generado un gran incremento de la hacer el análisis, se evita tener que contar con personal
información almacenada en las bases de datos, la cual es de preparado en otras herramientas de análisis de datos, se
gran utilidad cuando se quiere explicar el pasado, entender el proporciona a los analistas de datos un acceso directo pero
presente y predecir la información futura, por lo que se hace controlado lo que acelera la productividad sin poner en riesgo
necesario analizar la misma para la obtención de información la seguridad de los datos, sin embargo a pesar de estas ventajas
útil para la organización. estos tienen el inconveniente de ser propietarios.
Anteriormente estos análisis se realizaban manualmente Actualmente Cuba está inmersa en migrar a software de
mediante técnicas estadísticas, sin embargo esta forma de código abierto con el objetivo de garantizar la seguridad
actuar es lenta, cara, altamente subjetiva y con el incremento nacional y lograr la independencia tecnológica en el país. Una
del volumen de datos es prácticamente imposible el análisis sin de las tareas para lograr este objetivo es la migración a la
la ayuda de herramientas o técnicas potentes. tecnología de bases de datos PostgreSQL debido a que es el
Una de las técnicas más usadas para obtener conocimiento SGBD de código abierto más avanzado del mundo ya que
analizando los datos presentes en las bases de datos es la soporta la gran mayoría de las transacciones SQL, control
minería de datos, que permite obtener patrones o modelos a concurrente, y permite agregar extensiones. (Vazquez Ortíz,
partir de los datos recopilados. Esta técnica se aplica en todo Mesa Reyes, & Castillo Martínez, 2012) (The PostgreSQL
tipo de entornos, como por ejemplo en la rama biológica, en Global Development Group, 2011) Sin embargo este sistema
aplicaciones educacionales, financieras, procesos industriales, no tiene integrado estas técnicas de minería de datos.
policiales y políticas. Por lo cual es necesario lograr la independencia del
Dentro de la minería de datos existen diversas técnicas sistema gestor de base de datos PostgreSQL para analizar los
entre las cuales se encuentran la de inducción de reglas y datos mediante las técnicas de minería de datos reglas de
árboles de decisión, las cuales según diversos estudios inducción y árboles de decisión.
realizados se encuentran entre las más utilizadas. (Moreno,
2007) (Heughes Escobar, 2007) II. MATERIALES Y MÉTODOS
Para la aplicación de estas técnicas existen numerosas
Durante el desarrollo del presente trabajo los métodos
herramientas independientes del sistema gestor de bases de
científicos de investigación que fueron utilizados son:
datos que permiten aplicarlas a grandes volúmenes de datos,
sin embargo, la mayoría de éstas son propietarias como SPSS Histórico-lógico: permitió realizar un estudio
Clementine, SAS Enterprise Miner y MATLAB las cuales no de para definir las tendencias actuales de las técnicas
están al alcance de las organizaciones cubanas ya que son de minería de datos y las herramientas utilizadas
altamente costosas y otras como WEKA o YALE Rapid Miner para la aplicación de estas.
TCA2012 2

Hipotético deductivo: gracias a este método se


logró a partir de la hipótesis definida y siguiendo
reglas lógicas de deducción se llego a conclusiones,
las que posteriormente son validadas.
Analítico-sintético: Este método permitió
analizar la información y arribar a conclusiones en la
investigación.
Experimento: Con el empleo de este método se
logró la evaluación de la solución propuesta
determinando las relaciones entre las variables.

III. RESULTADOS Y DISCUSIÓN


Figura 2: Código del algoritmo 1R en el lenguaje
Algoritmo 1R
Pl/pgsql.
El algoritmo 1R propuesto por Robert C. Holte en 1993 es
un clasificador muy sencillo, que únicamente utiliza un
atributo para la clasificación. A pesar de que el autor lo Algoritmo PRISM
cataloga como “Program 1R is ordinary in most respects.” sus El algoritmo PRISM es un algoritmo de cubrimiento
resultados pueden ser muy buenos en comparación con sencillo que asume que no hay ruido en los datos. El objetivo
algoritmos mucho más complejos y su rendimiento promedio de este es ir creando reglas perfectas que maximicen p/t
está por debajo de los de C4.5 en 5,7 puntos porcentuales de siendo p la cantidad de ejemplos positivos cubiertos por la
aciertos de clasificación según los estudios realizados por el regla y t la cantidad de ejemplos cubiertos por la regla.
autor del algoritmo. (HOLTE, 1993) (Chesñevar, 2009)
Este algoritmo tiene como característica que va eliminando
los ejemplos que va cubriendo por las reglas conformadas, por
lo cual las reglas deben mostrarse e interpretarse en el orden
que se van cubriendo.

Figura 1: Pseudocódigo del algoritmo 1R

La implementación del algoritmo 1R se realizó utilizando el


pseudocódigo mostrado en la figura 1. Esta función sólo
permite trabajar con tablas que tengan atributos nominales y en
la misma no debe haber atributos con valores desconocidos Figura 3: Pseudocódigo del algoritmo PRISM
para obtener el resultado deseado.
La función toma como entrada el nombre de la tabla y la La implementación de algoritmo PRISM se realizó
clase sobre la cual se va a realizar el análisis y se devuelve utilizando el pseudocódigo de la figura 3, Únicamente permite
como resultados un conjunto de reglas para los atributos con la atributos nominales y no puede haber atributos con valores
menor cantidad de errores. desconocidos para obtener el resultado deseado.
A continuación se muestra un fragmento de la función La función toma como entrada el nombre de la tabla y la
implementada. clase sobre la cual se va a realizar el análisis y se devuelve
como resultados un conjunto de reglas las cuales se deben
interpretar en el orden en que aparecen como estipula el
algoritmo.
A continuación se muestra un fragmento de la función
implementada en la figura 4.
TCA2012 3

Figura 6: Código del algoritmo ID3 en el lenguaje


Figura 4: Código del algoritmo PRISM en el lenguaje Pl/pgsql
Pl/pgsql
Mecanismo para optimizar el rendimiento de los algoritmos
Algoritmo ID3 implementados.

El ID3 fue propuesto por J. R Quinlan en 1986, este es un Generalmente las tablas sobre la cuales se realizan análisis
algoritmo simple y, a la vez potente, cuya misión es la de minería de datos cuentan con un gran volumen de
elaboración de un árbol de decisión como un método para información, lo cual puede retrasar el resultado de dicho
aproximar una función objetivo de valores discretos, que es estudio.
resistente al ruido en los datos y que es capaz de hallar o Una de las opciones que brinda PostgreSQL para mejorar el
aprender de una disyunción de expresiones. rendimiento en estos casos es el particionado de tabla para
Para la construcción del árbol el algoritmo utiliza el análisis obtener un mejor desempeño a la hora de consultar dichas
de la entropía, la teoría de la información (basada en la tablas.
entropía) y la ganancia de información. El particionado de tablas es una técnica que consiste en
descomponer una enorme tabla (padre) en un conjunto de
tablas hijas. Esta técnica trae como resultado reducir la
cantidad de lecturas físicas a la base de datos cuando se
ejecutan las consultas.
En PostgreSQL los tipos de particionado existentes son por
rango y lista. (The PostgreSQL Global Development Group,
2011)

Particionado por rango: se crean


Figura 5: Pseudocódigo del algoritmo ID3 particiones mediantes rangos definidos en base a
cualquier columna que no se solape entre los rangos
La implementación de algoritmo ID3 se realizó utilizando el de valores asignados a diferentes tablas hijas.
pseudocódigo de la figura 5. Únicamente permite atributos
nominales y no puede haber atributos con valores Particionado por lista: Se crean particiones por
desconocidos para obtener el resultado deseado. valores.
La función toma como entrada el nombre de la tabla y la
clase sobre la cual se va a realizar el análisis y se devuelve En la presente investigación se implementa una función que
como resultados un conjunto de reglas derivadas del árbol de permite realizar el particionado de la tabla según los valores de
decisión. la clase (particionado por lista). Lo cual permite agilizar la
A continuación se muestra un fragmento de la función búsqueda a la hora de clasificar.
implementada (ver figura 6).
La función tiene como parámetro de entrada la tabla a la que
se le desea hacer las particiones y el nombre de la clase,
creándose tantas particiones como valores tenga la clase. (Ver
figura 7).
TCA2012 4

Las tablas creadas por la función tendrán como nombre la En el archivo “mineria_datos.control” creado para agregar
concatenación de máster más el antiguo nombre de la tabla la extensión donde se cargaran las funciones de los algoritmos
para el caso de la tabla padre y para las hijas es la implementados se definieron los siguientes parámetros:
concatenación del antiguo nombre de la tabla más el valor de
comment: una breve descripción sobre el
la clase por la cual se creo la partición.
contenido de la extensión creada.
Encoding: El tipo de codificación utilizado.
default_version: La versión de la extensión
relocatable: Si se puede
schema: El esquema dónde se almacenarán los
objetos creados por la extensión.

Figura 8: Archivo que contiene las características de la


extensión.

Una vez definido en el archivo “mineria_datos.control” se


Figura 7 Código de la función para crear particiones en especifica el archivo que contendrá el código de las funciones
el lenguaje Pl/pgsql. desarrolladas “mineria_datos--1.0.sql”

Integración de los algoritmos al SGBD PostgreSQL.


A partir de la versión 9.1 PostgreSQL, brinda facilidades
para que los usuarios puedan crear, cargar, actualizar y
administrar extensiones utilizando el objeto de base de datos
EXTENSION. (PostgreSQL, 2011)
Entre las ventajas de esta nueva funcionalidad se encuentra,
que en lugar de ejecutar un script SQL para cargar objetos que
estén “separados” en su base de datos, se tendrá la extensión Figura 9: Archivo que contiene el código los objetos
como un paquete que contendrá todos los objetos definidos en definidos en la extensión.
ella, lo cual trae gran beneficio al actualizarla o eliminarla ya
que por ejemplo se pueden eliminar todos los objetos
utilizando el comando DROP EXTENSION sin necesidad de Trabajo con la extensión de minería de datos.
especificar cada uno de lo objetos definidos dentro de la Para que los usuarios puedan utilizar la extensión de minería
extensión, además se cuenta con un repositorio para obtener de datos simplemente deben ejecutar el comando “CREATE
extensiones y contribuir con estas (http://pgxn.org/). EXTENSION mineria_datos” que cargará la extensión y para
La integración de los algoritmos implementados con el consultar las funciones agregadas por la extensión se debe
SGBD se va a realizar mediante la creación de una extensión consultar en el esquema pg_catalogo la carpeta de funciones
por las ventajas que PostgreSQL brinda para su creación. Diseño del experimento.
Un experimento se realiza generalmente con el objetivo de
Creación de la extensión minería de datos validar una hipótesis en el cual se busca establecer relaciones
entre los diferentes factores, analizando si una o más variables
Para la creación de la extensión se crean dos archivos, en el independientes afectan a una o más variables dependientes y
primero se definen las características de la extensión y en el por qué lo hacen.
segundo los objetos SQL que se desean agregar. Los mismos Roberto Hernández Sampieri1 define como experimento a
deben ser ubicados dentro del directorio de la instalación "un estudio de investigación en el que se manipulan
“C:\Archivos de programa\PostgreSQL\9.1\share\extension”
1
Dr Roberto Hernández Sampieri Director del Centro de
Investigación de la Universidad de Celaya y profesor en el
Instituto Politécnico Nacional
TCA2012 5

deliberadamente una o más variables independientes Aplicación del experimento


(supuestas causas) para analizar las consecuencias que la Para el entorno del experimento se seleccionó una PC
manipulación tiene sobre una o más variables dependientes Haier con Procesador Intel Celeron 2000 MHz, una memoria
(supuestos efectos), dentro de una situación de control para el RAM de 1024 MB y un disco duro de 120 Gb. Además se
investigador". (Martínez Valenzuela, 2007) cuenta con el servidor de PostgreSQL 9.1, la herramienta
El primer paso para diseñar un experimento es definir las PgAdminIII y Weka 3.6.7. Esta última fue seleccionada para la
variables independientes y las variables dependientes. comparación ya que según el estudio realizado en el artículo
La variable independiente es aquella que identifica la “Herramientas de Minería de Datos” publicado en la revista
causa en una relación entre variables y la dependiente expresa RCCI es la herramienta libre más conocida y utilizada.
el efecto que puede causar una variación en la variable
independiente. Relación de la variable cantidad de registro con el tiempo de
En este caso se definieron como variables independientes resultado.
la cantidad de registro y la herramienta utilizada para aplicar la
minería de datos. Como variables dependiente se identificaron
En este primer caso se va a realizar un estudio de cómo se
el tiempo de respuesta y el resultado de los algoritmos.
comporta el tiempo de respuesta en las herramientas Weka y el
Luego de haber definido las variables se define la
gestor PostgreSQL cuando se manipula la variable cantidad de
operacionalización o definición operacional que es especificar
registros para cada uno de los algoritmos estudiados.
la manera en que se manipularán las variables independientes,
Los tiempos de respuestas de Weka se van a medir desde
es decir qué se va a entender por esa variable en el
que se establece la consulta para cargar los datos de la BD
experimento.
hasta que la herramienta brinda el resultado del algoritmo.
Los niveles de la variable cantidad de registro serán bajos,
Para la realización de este experimento se va a utilizar la
medios y altos. En el primer caso las tablas a analizar tendrán
opción de la herramienta Weka de conectarse a la BD
una cantidad total de 100002 registros, en el segundo 500000
PostgreSQL.
y en el tercer caso 1 000000.
Tabla 3: Resultado de la manipulación de la variable
En la variable herramienta las modalidades son Weka y
cantidad de registros para el algoritmo 1R.
PostgreSQL donde en el primer caso se realizarán los análisis
de los algoritmos mediante el uso de la herramienta Weka y en
el segundo caso se utilizará los algoritmos integrados al SGBD
PostgreSQL desarrollados por el autor de la investigación.
El cuarto paso es definir cómo se van a medir las variables
dependientes.la variables del tiempo de respuesta se va a
medir por intervalos de tiempo en segundos y en el caso de
los resultados del algoritmo en grado de acuerdos (si o no).
Para un mejor entendimiento del diseño del experimento se En la tabla número 3 se puede observar que a medida que se
resume en las tablas 1 y 2 la definición operacional. fue incrementando la cantidad de registros los tiempos de
Tabla 1: Operacionalización de las variables análisis para el algoritmo 1R aumentaron, y en el caso de la
independientes. herramienta Weka los tiempos de respuestas resultaron
superiores con respecto al análisis realizado mediante los
algoritmos integrados al SGBD PostgreSQL. Para la categoría
o nivel de 1000020 registros, los análisis no se pudieron
efectuar con la herramienta Weka ya que esta da error debido a
la gran cantidad de datos.
Para una mayor comprensión de la información de la tabla 3
se representa la gráfica de la figura 10.

Tabla 2 Operacionalización de las variables


dependientes.
TCA2012 6

Validación del mecanismo de particionado


Para validar que el particionado de tabla propuesto en el
epígrafe 2.4 mejora el rendimiento de los algoritmos se va a
crear particiones en la tabla prueba_d la cual cuenta con
8000160 registros.

Figura 10: Resultados de la variable cantidad de


registros para el 1R

Relación de la variable cantidad de registro con la respuesta


del algoritmo. Figura 11: Particionado de la tabla prueba_c
En el caso número 2 se analiza cómo se comporta la
variable resultado de los algoritmos cuando se manipula la Como resultado del particionado se obtiene 3 tablas
cantidad de registros a los que se le va a realizar el análisis. masterprueba_d que es la tabla padre, prueba_dsi que contiene
todos los registros que su case tiene valor “si” y prueba_dno
Tabla 4: Resultados de la relación entre la cantidad de los registros con valores no.
registros y los resultados para el algoritmo 1R. Al aplicar la el algoritmo 1R integrado al SGBD
PostgreSQL sin crear particiones la el tiempo de respuesta es
de 174,184 segundos y luego de haber particionado 149,98
segundo.
En la figura 20 se observa como el análisis en la tabla
particionado por el valor de la clase es menor que en la tabla
normal quedando demostrado que el mecanismo de
particionado de datos agiliza el resultado del algoritmo 1R.

Tabla 5: Resultados de la relación entre la cantidad de


registros y los resultados para el algoritmo PRISM.

Tabla 6: Resultados de la relación entre la cantidad de


Figura 12: Comparación de los resultados de los análisis en
registros y los resultados para el algoritmo ID3.
tablas particionada y sin particionar

IV. CONCLUSIONES
De los resultados obtenidos en esta tesis se puede decir que
las técnicas de minería de datos árboles de decisión y reglas de
inducción permiten obtener como resultado final reglas las
cuales por sus características son unas de las formas de
representar más divulgados y una de la más compresivas de
Con los resultados de las tablas 4, 5 y 6 se puede decir que entender por las personas.
a medida que se incrementaron las cantidades de registro se Además se pudo evidenciar que las herramientas libres
dificultó el análisis de los datos con la herramienta Weka. existentes de minería de datos tiene el inconveniente de ser
independientes del SGBD por lo cual se implementaron tres
algoritmos de las técnicas de clasificación y se integraron al
TCA2012 7

SGBD PostgreSQL lo que contribuye a la soberanía Moreno, G. (octubre de 2007). Recuperado el enero de 2012,
tecnológica del país y a que el gestor sea más competitivo. de http://gamoreno.wordpress.com/2007/10/03/tecnicas-mas-
En la investigación también se desarrolló una función que usadas-en-la-mineria-de-datos/
permite aprovechar uno de los mecanismos de optimización PostgreSQL. (12 de SEPTIEMBRE de 2011). Obtenido de
del gestor para mejorar los resultados de respuesta del los http://www.postgresql.org/about/press/presskit91/es/
algoritmos implementados. Soto Jaramillo, C. M. (2009). INCORPORACIÓN DE
Se realizó la validación de los algoritmos implementados TÉCNICAS MULTIVARIANTES EN UN SISTEMA
utilizando un diseño de experimento en el cual se observó que GESTOR DE BASES DE DATOS.
los tiempos de análisis de los algoritmos integrados al SGBD The PostgreSQL Global Development Group. (2011).
son menores que los resultados de la herramienta Weka. PostgreSQL 9.1.0 Documentation.
Vázquez Ortíz, Y., & Castillo Martínez, G. (2011). Propuesta
de un plan de capacitación para la preparación y futura
REFERENCIAS certificación en PostgreSQL. Revista Cubana de Ciencias
Chesñevar, C. I. (2009). Datamining y aprendizaje Informáticas .
automatizado. Obtenido de Vazquez Ortíz, Y., Mesa Reyes, Y., & Castillo Martínez, G.
http://cs.uns.edu.ar/~cic/dm2009/downloads/transparencias/05 (2012). COMUNIDAD TÉCNICA CUBANA DE
_dm%20(Learning_rules).pdf POSTGRESQL: ARMA PARA LA MIGRACIÓN DEL PAÍS
Heughes Escobar, V. (2007). Minería Web de Uso y perfiles A TECNOLOGÍAS DE BASES DE DATOS DE CÓDIGO.
de Usuario:Aplicaciones con Lógica Difusa. Tesis de UCIENCIA.
Doctorado .
HOLTE, R. C. (1993). Very Simple Classification Rules
Perform Well on Most Commonly Used Datasets. Machine
Learning .
Martínez Valenzuela, V. (octubre de 2007). Diseño
Experimental. Obtenido de
http://www.slideshare.net/hayimemaishte/diseo-experimental
MODELO DINÁMICO DEL ROBOT ITM-5
Abelardo del Pozo Quintero pozo@icimaf.cu
Instituto de Cibernética. Matemática y Física (ICIMAF)
Dpto. Control Automático

Resumen elaborate mathematical model, according to the


El modelo dinámico de los manipuladores robóticos no es characteristics of the work that will execute this arm. It is
actualmente un problema de investigación. Sin embargo, cuando already a reality the use of different types of manipulators
se quiere construir un manipulador robótico es necesario elaborar in many spheres of the industry and particularly for
un modelo matemático, de acuerdo a las características del
trabajo que va a ejecutar dicho brazo. Ya es una realidad la
military aim, where one of the applications is to feed the
utilización de diferentes tipos de manipuladores en muchas anti-aircraft gun with taken missile of portable feeders.
esferas de la industria y particularmente para fines militares, The objective of this research report is to obtain the
donde una de las aplicaciones es alimentar los cañones con balas dynamic model of an anthropomorphous robot with 5
tomadas de alimentadores portátiles.. El objetivo de este reporte degree of freedom, with the purpose of obtaining the
de investigación es obtener el modelo dinámico de un robot synthesis of the dynamic equations of the same one,
antropomorfo con 5 grados de libertad, con el fin de obtener la which is dedicated to military aim. With these equations
síntesis de las ecuaciones dinámicas del mismo, el cual está the conditions are had for the design and improvement of
destinado a fines militares. Con estas ecuaciones se tienen las the control algorithms of the joints that will act on the
condiciones para el diseño y mejora de los algoritmos de control
de las articulaciones que actuaran sobre los motores acoplados a
motors coupled these. In the same way these equations
éstas. Del mismo modo estas ecuaciones sirven de base para serve as base to determine a precise trajectory in the route
determinar una trayectoria precisa en el recorrido del brazo del of the robot's arm toward a point determined in their
robot hacia un punto determinado en su espacio de trabajo. workspace.

Palabras claves: modelo dinámico, problema dinámico directo e


inverso, ecuaciones de Lagrange Key words: dynamic model, direct and inverse dynamic
problem, Lagrange’s equations

Abstract
At present the dynamic model of the robot manipulators is PACS: 45.40 Ln
not a problem of open research. However, when one
wants to build a robot manipulator, it is necessary to

INTRODUCCIÓN
Los manipuladores robóticos son básicamente brazos -Tomando piezas de una bandeja alimentadora o
mecánicos, equivalentes a los dispositivos que manipulan transportadora y transfiriéndolas a una máquina, o una
piezas, herramientas, etc., pero tienen un sistema del mesa de posicionamiento, u otro transportador, etc.
control incorporado y son capaces de un funcionamiento -Tomando las piezas de los vagones, tornillos de banco,
independiente. Estos dispositivos son buenos en tareas que etc., y transfiriéndolos para realizar otra manipulación;
requieren una cantidad considerable de repetición dentro - Operaciones de ensamblajes que incluyen la toma de
de tolerancias pequeñas. piezas de las bandejas, depósitos de alimentación, etc., y
poniéndolos en algunas otras posiciones para el ensamblaje
Los manipuladores deben ser reprogramables, o incluso dentro de un circuito impreso.
capaces de tomar decisiones simples. Después que el - Resumiendo podemos asegurar que la probabilidad de
programa se introduce en el manipulador, éste debe operar aplicación de un manipulador es bastante alta.
automáticamente, sin la guía humana.
Si el sistema mecánico de un manipulador está bien- Ya es una realidad la utilización de los manipuladores en
diseñado, fabricado y ensamblado se le debe proporcionar muchas esferas de la industria, particularmente para los
un sistema de control bien desarrollado para alcanzar el fines militares, donde una de sus aplicaciones es alimentar
nivel de exactitud obtenido con la mecánica. cañones con balas tomadas de alimentadores portátiles.
El área de utilización de los manipuladores robóticos es Diseñaremos el modelo dinámico de un robot
cada vez más amplia, citaremos algunos ejemplos: antropomorfo con 5 grados de libertad, destinado a la
En la industria ejecución de tareas tales como tomar y trasladar los objetos
a una nueva ubicación.
El objetivo de este reporte de investigación es obtener un El modelo dinámico inverso proporciona los torques a las
modelo dinámico de la estructura mecánica del robot articulaciones y fuerzas en función de las posiciones,
ITM-5, con el fin de obtener la síntesis de las ecuaciones velocidades y aceleraciones de las articulaciones y se
dinámicas del mismo. Con estas ecuaciones se tienen las describe por:
condiciones para el diseño y mejora de los algoritmos de
control de las articulaciones que actuaran sobre los T = f (q, q , q , fe) [2]
motores acoplados a éstas. Del mismo modo estas
ecuaciones sirven de base para determinar una trayectoria La ecuación [2] es el modelo dinámico inverso porque
precisa en el recorrido del brazo del robot hacia un punto define la entrada del sistema, como una función de las
determinado en su espacio de trabajo. variables de la salida.
En el problema dinámico inverso es conocida una historia
Numerosos trabajos se han publicado relacionados con la temporal de las coordenadas de las articulaciones o
síntesis de las ecuaciones cinemáticas y dinámicas. Los coordenadas cartesianas y a partir del conocimiento de
trabajos pioneros Pieper [1], Paúl [2], Whitney [3], crearon estas historias, de la arquitectura y parámetros inerciales
las bases de todo el andamiaje cinemático-dinámico de los del sistema los torques o fuerzas son determinados como
manipuladores y robots. historias temporales de las diferentes articulaciones que
serán actuadas.
El problema dinámico consiste de dos tareas, la directa
y la inversa. En el diseño de los robots, el modelo dinámico inverso se
El problema dinámico directo consiste en hallar las usa para seleccionar los actuadores, realizando el cálculo
aceleraciones en la articulación, dada la posición, de los torques que necesitan los actuadores para lograr el
velocidad y aceleración de las articulaciones, las cuales movimiento deseado.
son obtenidas al resolver el problema cinemático.
Las ecuaciones dinámicas que describen el movimiento
y se formula mediante la siguiente expresión dinámico del robot son altamente no lineales y representan
q  g  q, q T, fe  [1] un conjunto de ecuaciones diferenciales de segundo orden
con: acoplado entre sí, lo cual tiene un grado de complejidad
grande. Por otro lado, los coeficientes dinámicos de estas
 q : el vector de aceleraciones de la articulación. ecuaciones varían con la posición de las coordenadas
 q: el vector de posiciones de la articulación. generalizadas de las articulaciones, las cuales son
 q : el vector de velocidades de la articulación. funciones de transformaciones trigonométricas.
 T: el vector de torques de la articulación o
fuerzas, dependiendo si la articulación es de No obstante, estas dificultades de la dinámica, el no
revolución o prismático respectivamente. considerar sus efectos conduce a disminución en la
 fe: el vector de fuerzas y momentos ejercido por el velocidad del robot, además de la aparición de vibraciones
robot en el entorno. y otros efectos indeseables en el movimiento del brazo
robótico, limitando el campo de utilización del mecanismo
El modelo dinámico directo juega un papel importante en a tareas de muy baja precisión.
el diseño y el funcionamiento de los robots y es empleado
para llevar a cabo las simulaciones con el propósito de DESCRIPCIÓN Y DATOS TÉCNICOS DEL ROBOT
probar la ejecución del robot y estudiar los méritos ITM-5
relativos de los posibles esquemas de control. También se
usa para identificar los parámetros dinámicos que son El robot está construido sobre la base de 4 eslabones
necesarios para las aplicaciones de control y simulación conectados en serie a través de 5 articulaciones
rotacionales que definen los 5 grados de libertad del robot,
[4]
Fig.1 Estructura del robot ITM-5 eslabón 4 o muñeca hacia delante o hacia atrás en el plano
horizontal. Debe señalarse que esta posición horizontal de
Podemos relacionar estos eslabones con la siguiente la muñeca no cambia con la posición angular del eslabón
notación: 3. El rango del movimiento de este eslabón es de + 25
El eslabón L1 que representa la base, el cual puede girar el grados y - 40 grados y existe un limitador mecánico que
ángulo θ1 por medio de una articulación rotacional, cuyo impide la continuación del movimiento.
eje de movimiento es vertical. El movimiento será El eslabón L4 es el eslabón final o muñeca, el cual
ejecutado por un motor eléctrico de corriente directa (CD) representa la mano de sujeción o agarre. Aquí existen dos
que permitirá giros que abarcarán un área de trabajo de ± articulaciones rotacionales cuyo movimiento originan la
170 grados. trayectoria que describen los ángulos θ4 y θ5.
El eslabón L2 está situado entre las articulaciones La articulación relacionada con el ángulo θ4 produce un
rotacionales 2 y 3. Este simula el brazo superior de la giro de la muñeca o eslabón final de flexión hacia arriba o
estructura humana, realizará los movimientos descritos por hacia abajo con respecto al plano horizontal. Para realizar
el ángulo θ2 hacia la izquierda o la derecha con respecto al estos movimientos se utilizará un motor eléctrico CD
plano vertical. Además, debido al acoplamiento mecánico acoplado a un sistema de engranaje de discos y varillas que
se producirán los movimientos del eslabón 3 hacia engranan con la muñeca. El rango de trabajo de este
adelante o hacia atrás en el plano horizontal. El andamiaje movimiento de flexión es de ± 90 grados con respecto al
mecánico para realizar estos movimientos se basa en un plano horizontal, existe un tope mecánico por si el
tornillo sinfín, el cual esta acoplado a un motor eléctrico de movimiento sobrepasa los valores máximos de ± 90
corriente directa y mecánicamente al eslabón 2. Es grados.
importante resaltar que el brazo inferior siempre estará en La articulación relacionada con el ángulo O5 produce un
paralelo al plano horizontal independientemente de la giro de la muñeca circular con respecto al eje del eslabón
posición angular que adquiera el eslabón 2. 4. Estos movimientos son ejecutados de una forma
El rango del movimiento de este eslabón es de ± 40 semejante al movimiento de flexión. Un motor eléctrico
grados. Si este rango es sobrepasado existe un limitador CD es acoplado a un sistema de engranaje de discos y
mecánico que impide la continuación del movimiento. varillas para transmitir el movimiento hasta la muñeca y
El eslabón L3 está situado entre las articulaciones allí se enlaza con una rueda dentada que produce el
rotacionales 3 y 4. Representa el brazo inferior o antebrazo movimiento rotacional de la muñeca. El rango de
de la estructura humana y realiza los movimientos del movimiento es de ± 180 grados y existe un limitador
ángulo θ3 hacia arriba o hacia abajo con respecto al plano mecánico el cual evita un movimiento por encima de los
horizontal. límites. El eje de referencia para girar en el sentido
La estructura mecánica para realizar estos movimientos es positivo o negativo, está dado por la posición adquirida por
semejante a la del eslabón anterior, o sea, mediante un la articulación que causa el movimiento de flexión.
tornillo sinfín el cual está acoplado a un motor eléctrico En la tabla que aparece más abajo son mostrados los datos
CD y a su vez unido mecánicamente al eslabón 3. El técnicos de este robot suministrados para elaborar el
movimiento del eslabón 3 produce un movimiento del esquema cinemático del mismo.
TABLA 1

Longitud de los eslabones L1=700mm L2 =450mm L3 =670mm L4 =95mm

Límite de los ángulos. Θ1 =± 1700 Θ2 =± 400 Θ3 =-400→+250 θ4 =± 900 Θ5 =± 1800


articulaciones

Velocidad máxima ángulos d/dtΘ1=95m/s d/dtΘ2=0.75m/s d/dtΘ3=1.1m/s d/dtΘ4=1.5m/s d/dtΘ5=195m/


articulaciones s
Carga máxima 6 Kg

SÍNTESIS DINÁMICA
Esto tiene grandes problemas, porque la dinámica del
Es de vital importancia en el empleo de un robot para la movimiento de un robot de n grados de libertad es
ejecución de las tareas industriales el movimiento de su inherentemente no lineal. Estas características no lineales
brazo. Para mantener una trayectoria determinada debemos pueden deberse a diversos factores entre estos podemos
aplicar, si es necesario, los torques de compensación citar: las cargas inerciales propias de cada articulación, las
correctores a los motores, con el fin de ajustar cualquier debidas a la interacción con las articulaciones vecinas, la
desviación de la trayectoria deseada debido a los efectos carga gravitacional sobre los eslabones, etc. Si a esto
dinámicos de la estructura mecánica. adicionamos que los parámetros dinámicos del robot varían
con el valor de las coordenadas generalizadas,  Inercia de acoplamiento en cada articulación debida a
comprenderemos la necesidad de un modelo dinámico que la influencia de las aceleraciones de otras articulaciones
describa las ecuaciones del movimiento del robot, teniendo sobre ésta resultando en otro torque de reacción.
en cuenta las no linealidades que más influyen en la  Inercia gravitacional es un torque de reacción generado
dinámica. en cada eslabón debido a la acción de la gravedad.
 Torque de reacción debido a la velocidad en una misma
Existen varios métodos disponibles en la literatura para crear articulación (efecto centrífugo) y al ocasionado por la acción
el modelo dinámico de un robot entre ellos tenemos el de las velocidades de otras articulaciones sobre una dada
método de Lagrange [5], el recursivo de Lagrange [6], el de (efecto de Coriolis).
Newton-Euler [7], etc.
Nuestro modelo solo contemplará los tres primeros grupos
La formulación de Lagrange describe el comportamiento del de torque de reacción y despreciaremos el último grupo por
sistema dinámico en función del trabajo y la energía las siguientes razones:
guardados en el sistema, es muy explícito y sistemático, - Éstos son generalmente de valor mucho más pequeño que
pudiendo estructurarse en forma algorítmica para los fines los otros
de la computación, pero tiene el inconveniente de su alta - Son muchos términos en número creando una mayor
ineficiencia computacional, ya que el orden de las complejidad innecesaria al modelo
operaciones aritméticas es grande (n). - Sólo debe tenerse en cuenta si el robot se moviera a
velocidades altas (más de 1.5 m/s).
En este reporte se utilizará el método de Lagrange, debido a
la claridad en la obtención de los coeficientes dinámicos, La aplicación del método de las ecuaciones de Lagrange es
que en la simulación por computadora, ayudarán a mejorar muy sistemática pues consiste en hallar el Lagrangeano total
los algoritmos de control del brazo. No obstante, del sistema, basado en la determinación de la energía
desarrollaremos nuestro trabajo haciendo las cinética y potencial de todas las masas del sistema,
simplificaciones necesarias que minimizaran el número de concentradas en forma puntual en los eslabones
operaciones del modelo dinámico, en vista a su cómputo en
tiempo real para los propósitos del Considere a un robot manipulador compuesto de n-1
control, pero sin perder la visión de la contribución de los eslabones conectados en serie a través de n articulaciones
coeficientes dinámicos en el modelo dinámico rotacionales que definen los n grados de libertad del robot
(GDL).
MODELO DINÁMICO
La energía total ℇ de un robot de n GDL es la suma de las
Necesitamos determinar los torques que se han de aplicar a energías cinética (κ) y la potencial (ψ) de cada eslabón i,
las articulaciones del robot de manera de vencer el efecto de siendo i el número de eslabones articulados que componen
la gravedad, la inercia propia o efectiva de cada articulación, el robot [5].
la inercia de acoplamiento debido a las interacciones entre n
las articulaciones.   q, q    i  q, q   i  q  (1)
Estos torques representan las ecuaciones de movimiento del i
mecanismo articulado y serán obtenidas con la ayuda de las siendo:
matrices de transformación homogéneas elaboradas para q = [q𝟏…… q𝐧 ] 𝐓 es el vector de posición de las coordenadas
cada articulación y el formalismo de la mecánica generalizadas o globales y su derivada
Lagrangeana. 𝐪̇ es el vector de velocidades de las coordenadas
Es evidente que al cambiar la configuración espacial del generalizadas
robot en su movimiento, los torques estarán cambiando κi es la energía cinética de la masa representando a un
instantáneamente. El modelo dinámico completo del robot eslabón i.
ITM-5 será descrito por un juego de 5 ecuaciones ψi es la energía potencial de la masa representando al
diferenciales no lineales y acopladas eslabón i.
Cada ecuación contiene un número grande de términos que
representan torques (se excluyen las fuerzas) debido, a que El Lagrangeano L (q, 𝐪̇ ) de un robot de n GDL es la
todas las articulaciones son rotacionales) clasificados en 4 diferencia entre su energía cinética (κ) y su energía
grupos: potencial (ψ), es decir,
 Inercia efectiva propia de cada articulación, la cual
origina por las aceleraciones en la articulación un torque de
reacción.
L q, q   q, q  q (2)
Nosotros asumimos aquí que la energía potencial (ψ), sólo El desarrollo de (6) para la articulación i genera una serie de
se debe a las fuerzas conservadoras como la energía términos, que pueden representarse simbólicamente con un
gravitacional y a las energías conservadas en los muelles sentido físico como:
comprimidos sí éstos existen en la configuración. La
energía potencial   q  , depende exclusivamente del
vector de posición q
Ti  ii qi ij q j jii q2j ijj qi2 ijk qj qk ikj qk qj i
La energía cinética del robot   q, q  es una función (7)
cuadrática en las velocidades de la articulación y esta dada Donde:
por la masa M y el vector de las velocidades lineal y  Pii es el coeficiente de inercia efectiva de la articulación
rotacional 𝐪̇ del eslabón y se puede expresar vectorialmente i y representa una aceleración en esa articulación la cual crea
como: un torque en la articulación igual a ii qi .
1 T
  q, q   q  q  q (3)  Pij es el coeficiente de inercia de acoplamiento entre las
2 articulaciones i y la j y surge cuando una aceleración en la
articulación i ó j origina un torque en la articulación j ó i
Donde: igual a ij qi ó ij q j .
M(q) es una matriz de dimensión n x n llamada la matriz de
 Pjii es el coeficiente de la fuerza centrifuga de la
inercia, que es simétrica, positiva y definida para toda q Є
articulación i y actúa sobre ésta cuando existe una velocidad
Rn . y representa la inercia efectiva propia de cada
en esa articulación i, produciéndose un torque en la
articulación, originándose por las aceleraciones en la
articulaciones resultando en un par o una fuerza de reacción articulación i igual a  jii qi2 .
 Pijj es el coeficiente de fuerza centrifuga actuando sobre
Entonces el Lagrangeano total del robot está dado por la articulación i debido a la velocidad en la articulación j,
provocando un torque de reacción en la articulación i igual a
Sustituyendo (3) en (2)
ijj q 2j .
1 T
L  q, q   q   q  q    q  (4)  Pijk y Pikj son los coeficientes que constituyen la
2 denominada fuerza de Coriolis, actuando en la articulación i,
debido a las velocidades que existen en la articulación j y k,
Las ecuaciones dinámicas que dan los torques de reacción se produciendo un torque de reacción en la articulación i igual
obtienen empleando la ecuación de Lagrange en función del
a la suma algebraica de los términos ijk q jqk  ikj qk q j
Lagrangeano y de las coordenadas generalizadas del robot,
esto es:  Pi es un coeficiente de efecto gravitacional actuando en
la articulación i. representando una aceleración debida a la
d    acción de la gravedad sobre esa articulación, produciéndose
 
dt   q
 L  q,q     L  q,q   (5) un torque de reacción igual a Pi.
 q
Aprovechando las ecuaciones cinemáticas desarrolladas
siendo: para el robot ITM-5 en [8], donde el robot es descrito por un
T es el vector torque o de fuerza de reacción correspondiente juego de matrices de transformación A, que describen la
a cada articulación de dimensión n que provoca el posición y orientación de cada articulación-eslabón,
movimiento del robot podemos obtener las ecuaciones dinámicas en función de
estas matrices.
Sustituyendo la expresión (4) en (5) tenemos:
El desarrollo algebraico matricial es dado en forma general
en [2] cuya ecuación final para la articulación i del robot
d   1 T    1 T  
 q  q q    q  q  q    q  ITM-5 es el siguiente:
dt   q  2   q 
 2  q
(6)
 j   j  jT  j j  2  j  jT   j j  
 traza  j  q k  a i qi      qk qm  m j g rj 
T
5 traza
Ti    k 1  q k qi  k 1 m1  q k q m
j
qi  qi   (8)
j1  
 
Comparando los coeficientes que acompañan a las
coordenadas generalizadas q, q y q en las
ecuaciones (3) y (4) obtenemos
:

5 j   j  jT 
ij    traza  j  (9)
ji 1 k 1  q k qi 
5 j j  2 j  jT 
ijk    traza  j  (10)
ji 1 k 1 m 1  q k q m qi 
5  j j 
i    m j g T rj (11)
ji 1 qi 

Los coeficientes Pij, Pijk y Pi han sido definidos  considerar el movimiento simultáneo del
anteriormente. subgrupo de articulaciones que definen la
 En el caso del coeficiente Pii este surge cuando posición de la mano, mientras que el movimiento
en el coeficiente Pij hacemos i=j, del subgrupo de articulaciones que determinan la
 Por otro lado el término Iai q i es la contribución orientación, es mantenido fijo.
de la energía cinética de los motores en las  considerar sólo los términos ij qi y i , éstos
articulaciones y son con frecuencia de una son los relacionados con las aceleraciones y
magnitud alta. efecto gravitacional y despreciar los
 Zj: representa la matriz de inercia en cada correspondientes a las velocidades (fuerza
eslabón que incluye los momentos de inercia, los centrífuga y de Coriolis), puesto que las
productos de inercia cruzados y los momentos de contribuciones de estos términos a velocidades
los eslabones con respecto a los centros de masa normales es pequeña y simplifica en grado sumo
de cada eslabón. el cálculo del tiempo real.
 rj: expresa los centros de masa de cada eslabón,
 qj: es la aceleración de cada coordenada SIMPLIFICACIÓN DE LOS TÉRMINOS Pij y Pii
generalizada,
 mj: es la masa de cada eslabón, Como ya se mencionó anteriormente el término Pij
 g: es el vector que expresa la aceleración de la incluye la inercia efectiva de la articulación cuando
gravedad. (i=j) y la inercia de acoplamiento entre las
articulaciones i y j, que en su forma general viene
SIMPLIFICACIÓN DEL MODELO DINÁMICO  j
dado por la ecuación (9) donde representa la
Calcular los términos de la ecuación (8) representa q j
una complicación de tal magnitud que se pierde visión diferenciación de la matriz de transformación
en el análisis del comportamiento dinámico del homogénea Aj o Jacobiana de la articulación j con
manipulador. Por esto, asumiremos algunas respecto a las coordenadas generalizadas de esa misma
restricciones que facilitaran el análisis del articulación, referida al sistema de coordenadas de la
comportamiento dinámico del manipulador bajo mano.
diferentes condiciones. En el [9] se demuestra que la matriz Jacobiana se
A su vez esto permite el diseño de un sistema más puede expresar como:
simple y confiable. Estas restricciones son:

  ( T ) (12) Ix I xy I xz mj xj
qi
I yx Iy I yz mj yj
Si consideramos cualquier articulación podemos j  (17)
escribir: Izx Izy Iz mj zj
 mj x j mj yj mjzj mj 0
  j (Tj )i (13)
qi
 Como (17) es una matriz simétrica los elementos
fuera de la diagonal son iguales y son los
Siendo (Tj )i una matriz incremental llamados productos de inercia cruzado: Ixy=Iyx;
Ixz = Izx; Iyz=Izy.

   A  A .....  A j    i 1 i    Ai  Ai 1 .....  A j  (14)
Los términos de la diagonal son los momentos de
1
Tj i i i 1
inercia de los eslabones con respecto al sistema
de coordenadas de la articulación, estos son: Ix,
donde definiremos el producto matricial como: Iy, Iz.
i j
 j   Ai  Ai 1 .....  A j  (15)  Los términos mjxj, mjyj, mjzj son los momentos
de los eslabones con respecto a los centros de
Los elementos de la matriz incremental son dados en masa de estos.
 A    A  es
el [10] dependiendo del tipo de articulación y
alrededor de que eje rota. Si sustituimos (13) en (9) Si en (16) efectuamos el producto j j j
obtendremos: posible simplificar bastante ésta expresión.
5 j
ij    traza ( j  j )  j  ( j  j )T  (16)
El desarrollo de esto puede verse en [2].
ji 1 k 1 La expresión final simplificada de (16) para el robot
la matriz de inercia Zj tiene la forma: ITM-5 es la siguiente:

 p w ix k 2pxx p w jx  p w iy k 2pyy p w jy  p w iz k 2pzz p w jz   p v i p v j 


5  
i j   m p   p    (18)
   r  vi x w j  v j x w i  
p p p p
p  max i, j
  p  

Donde
 mpkpxx = Ix; mpkpyy= Iy; mpkpzz =Iz; representan Note que los productos de inercia cruzados han sido
los momentos de inercia de los eslabones con despreciados, ya que ellos en general son pequeños
respecto al sistema de coordenadas de la comparados con los términos de la diagonal, o sea, los
articulación correspondiente. momentos de inercia de los eslabones.
 w y v son los vectores diferenciales de rotación y Si en (18) hacemos i=j obtenemos la inercia efectiva de
traslación respectivamente. la articulación.

 p p  p 
  w ix k pxx  w iy k pyy  w iz k pzz   v i v i   r  v i x w i   
5 2 p 2 p 2 p p p

ii   mp   p  (19)
p i  
 
n 
i   mp gT i rp (20)
SIMPLIFICACIÓN DE LOS TÉRMINOS Pi p i 
Si descomponemos la matriz Tp de la siguiente manera:
El término Pi representa el efecto gravitacional sobre
p i 1  i 1 p  (21)
los eslabones del robot y aparece en la ecuación (8) la
cual se puede escribir usando (11) así:
y además postmultiplicamos Ai por la matriz unitaria

i   mp g T i1 i1 i  i1p  rp
n
descompuesta. De la misma forma obtendremos:
(24)
 p i 
i   mp gT i1  i1p  i  i1p 
n 1 i 1
rp (22)
p i  Si descomponemos el producto intermedio es sus
componentes tendremos:
definimos la matriz incremental como:
0 z y dx
z 0 x dy
i 1
i   i 1 p  i  i 1
p1  
y x 0 dz
0 0 0 0
(23)
sustituyendo (23) en (22)

nx ox ax px 0 z y dx
n oy ay p y z 0 x dy i1 T
gT Ti 1 i1 i  g x g y g z 0  y   g (25)
nz oz az pz y x 0 dz
0 0 0 0 0 0 0 0

sustituyendo (25) en (24) Si el desplazamiento es a lo largo de los ejes z, y ó x


i 1 T
 respectivamente, el valor de ( g ) será:
i    m p  g  p  rp
n
i 1 T i 1
(26)
p i 
i 1
gT  0 0 0  g a (31)

i 1 T
La expresión ( g ) se puede simplificar aún más, i 1
gT  0 0 0  g o (32)
dependiendo si la articulación rota o se traslada. Si se 
efectúan rotaciones alrededor de los ejes: z, y ó x
i 1
respectivamente podemos expresarla como: gT  0 0 0  g n (33)

CALCULO DE LOS CENTROS DE MASA


i 1 T
g  g  o g  n 0 0 (27) Para determinar el valor numérico de los coeficientes
dinámicos, aún nos falta hallar las expresiones
analíticas para los componentes de la matriz de inercia,
i 1 T
g  g  a 0 g  n 0 (28) estos son: los centros de masa y los momentos de
i 1 T
inercia de acuerdo a la expresión (18).
g  0 g  a g  o 0 (29) Debe conocerse el material con el cual fue construido
el robot, que en este caso es un tipo de aluminio duro.
i 1
Del Manual Hudson [11] obtenemos el peso específico
la matriz incremental ( i ) se simplifica como: de éste:

0 0 0 dx ζ = 2720 kg/m (34)


Si determinamos los volúmenes de cada pieza del
i 1 0 0 0 dy robot, quedarán definidas las masas y con ello los
i  (30) centros de masa a través de las siguientes fórmulas:
0 0 0 dz
( V)
0 0 0 0 m (35)
g
siendo V el volumen en m3 y g la acción de la gravedad
cuyo valor es:
  
g = 9.81 m/seg2 (36) x, y ó z son las distancias del centro de masa
hasta el origen del sistema de coordenadas anterior.
definimos la constante K para el aluminio duro como: Las fórmulas (38), (39) y (40) determinan el centro de
 2720 kg / m masa para cualquier pieza, compuesta de diferentes
K  2
 277.27 kg  seg 2 / m2 partes, donde mi reflejan las masas de los diferentes
g 9.81m / seg componentes.
  
luego: m = K • V (37) Por tanto x, y ó z son las coordenadas del centro
de masa deseado.
Por otro lado tenemos:
En la Fig.1 se muestran la pieza #l, esto es el cuerpo o
n

m x
base y la articulación de la base.
 i i La pieza #2 incluye el eslabón denominado brazo
x i
n
(38) superior y las articulaciones adheridas a éste.
m i
i
La pieza #3 define el eslabón conocido como antebrazo
y las articulaciones correspondientes.
n Sigue la articulación de la muñeca y por último es
 m y i i
mostrado el eslabón correspondiente a la mano.
y i
n
(39) Puesto que el proceso de cálculo es sumamente largo,

 mi
mostraremos el procedimiento sólo para la pieza #1
que representa la articulación de la base y compuesta
i
de diferentes partes.
n

 m z i i
Se mostrarán los resultados numéricos de las otras
piezas en la tabla l del anexo I al final del reporte.
z i
n
(40)
m
i
i
La pieza #1 fue dividida en varias partes, estas son:
a) Paralelepípedo; b) 2 cilindros huecos; c)
siendo xi, yi, zi las distancias desde los centros de Paralelepípedo; d) Cilindro macizo
gravedad de las n masas al origen del sistema de
   Cálculo de los volúmenes de las partes que conforman
coordenadas, desde el cual se mide x, y ó z , a lo la pieza #1 en la Fig. 2
largo de los ejes X, Y, ó Z respectivamente.
n

m i
i es la suma total de la n masa. (41)

Fig.2 Pieza #1 articulación de la base


4
Cálculo de los volúmenes de los componentes de la  m  0.882836 kg
i 1
i
pieza #1.
En la Fig. 2 la parte (a) está constituida por un Los centros de masa se calcularán para cada sistema de
paralelepípedo con una ranura central y una tapa, coordenadas al cual está referida la pieza en cuestión,
siendo el espesor de las paredes de 0.005m. esto es, el sistema de coordenadas de la articulación
Vp1 = Vtotal - Vespesor - Vranura -Vtapa que está enlazada con la pieza.
Vtotal = 0.252 x 0.074 x 0.142 = 2.648xl0-3
Vespesor = 0.010 x 0.010 x 0.010 = 0.001x10-3 La pieza #l que se está analizando esta fija al cuerpo, su
Vranura = 0.085 x 0.074 x 0.005 = 0.031x10-3 centro de masa está referido al origen del sistema de
Vtapa = 0.252 x 0.142 x 0.005 = 0.0789x 10-3 coordenadas de la articulación. Empleando las
Por lo tanto: fórmulas (38), (39) y (40) determinamos las
Vp1 = 2.537x 10-3 m3 coordenadas del centro de masa de la pieza.
La parte (b) son dos cilindros huecos situados en los
4
laterales de 1a parte (a).
 m i  xi
2Vc1 = 2 [π (0.067-0.0475) x (0.270-0.215)/2] x i 1
4
 0  1.161919x103
= 0,0657 x 10-3 m3 m i 1
i
La parte (c) está formada por un paralelepípedo.
Vp2= 0.252 x 0.222 x 0.008 = 0.4475 x 10 -3 m3  1.161919x105  0  0
La parte (d) es un cilindro macizo que sobresale del
paralelepípedo
Vc2= π (0.07322 x 0.008) = 0.1339 x 10-3 m3 Note que xi son las distancias de los centros de
gravedad de las componentes de las piezas al origen del
El volumen de la pieza está dado por la suma de los sistema de coordenadas de la articulación a lo largo del
volúmenes de las 4 partes: eje x, por tanto 1.61919xl0-3 representa la distancia
Vt= 3.1841 x 10-3 m3 desde el centro de gravedad de un cilindro hueco hasta
el origen del sistema de coordenadas de la articulación

y x que refleja la coordenada del centro de masa de
Cálculo de las masas de los componentes de la pieza toda la pieza es nula.
#1. 4
Empleando la fórmula (37) obtenemos las masas de las  m i  yi
partes: y i 1
4
  0
mp1 = 0.70343 kg m i 1
i

mc1 = 0.01821 kg
mp2 = 0.12407 kg
mc2 = 0.037126 kg
La masa total de la pieza es:
4

 m i  zi
z i 1
4
 42.2295x103  2.25862x103
 mi
i 1

 1.68642x103  1.68212x103  0.0463

Las coordenadas del centro de masa de la pieza de la inercia de los eslabones rotando alrededor de un eje lo
Fig.2 con respecto al origen del sistema de coordenadas representamos por I:
de la articulación son: I   mi ri2 (42)
  
x  0; y  0; z  0.0463m i
Debido a que los eslabones no son masas puntuales,
En el anexo I es mostrada la tabla 1 con los centros de sino que es una distribución continua de masa , la
masa de todos los eslabones del robot ITM -5. sumatoria se convierte en una integral:
Cálculo de los momentos de inercia de los eslabones I   ri2  dmi (43)
Puesto que los eslabones lo estamos considerando i
cuerpos rígidos que rotan alrededor de un eje fijo donde el elemento de masa infinitesimal se calcula a
situado en las articulaciones, entonces el momento de partir del peso específico del material o densidad
definido como (ρ) y el correspondiente elemento de Haciendo uso del manual [11], determinamos los
volumen infinitesimal (dV). momentos de inercia para la pieza #1 en la Fig. 2 como
dmi  dVi (44) ilustración. Los momentos de inercia de todos los
eslabones del robot son calculados y mostrados en la tabla
Siempre y cuando los eslabones tengan una forma regular 1 del anexo I.
se puede obtener de los manuales de ingeniero las fórmulas Los componentes de la pieza #1 son cuerpos comunes
que dan los momentos de inercia de cuerpos rígidos cuyo momento de inercia son estándar, estos son:
comunes. Si no es posible obtener esta información es paralelepípedo, cilindro hueco y cilindro macizo, al usar
necesario determinar estos mediante (42) y (44). las fórmulas del manual los momentos de inercia están
dados con respecto a los ejes z, y, x que pasan por el centro
Las fórmulas anteriores son válidas siempre y cuando el de masa del cuerpo respectivamente y han sido calculados
material sea homogéneo, esto hace que la densidad del considerando una distribución continua de masa.
mismo sea uniforme, de no ser así tendríamos que saber
cuál es la dependencia de ρ de r para poder efectuar la Para el paralelepípedo (p1)
integración.

 1 1
Iz  mp1 (x 2  y 2 )  (0.70343)(0.2522  0.1422  4.90454x103 kg  m 2 (45)
12 12
 1 1
I y  mp1 (x 2  z 2 )  (0.70343)(0.2522  0.7042 )  4.04355x103 kg  m 2 (46)
12 12
 1 1
I x  mp1 (y2  z 2 )  (0.70343)(0.1422  0.7042 ) 1.50299x103 kg  m 2 (47)
12 12
   En los cilindros huecos (c1) donde el espesor de las
Donde I x , I y , Iz , con la barra arriba significa el paredes es de 0.0195 m, empleamos las fórmulas que
momento de inercia de la masa ( m p1 ) con respecto a nos dan los momentos de inercia con respecto a los ejes
z, x, y que pasan por su centro de masa Hudson [11].
los ejes que pasan por el centro de masa.  1
Para hallar los momentos de inercia de la masa ( m p1 ) I z  mc1 (R 2  r 2 )  0.0614155x103 kg  m 2 (51)
2
con respecto al sistema de coordenadas que está en la  1 h2
articulación y es paralelo al sistema de coordenadas de I x  mc1 (R 2  r 2  )  0.0318553x103 kg  m 2 (52)
4 3
centro de masa, empleamos la expresión siguiente  
Wells [5]. I y  I x  0.0318553x103 kg  m 2 (53)
 siendo R y r los radios exterior e interior
I x  I x  mp1 (y 2  z 2 ) (48) respectivamente y h la altura del cilindro.
 Los momentos de inercia de la masa (mc1) con respecto
I y  I y  mp1 (x 2  z 2 ) (49) al sistema de coordenadas de la articulación serán
calculados empleando las fórmulas (48), (49) y (50)

Iz  I z  mp1 (x 2  y 2 ) (50) 
I xc1  I x  mc1 (y 2  z 2 )
  
donde x, y, z son las coordenadas del centro de  0.0323669 x103 kg  m2

masa medidas desde el origen del sistema de I yc1  I y  mc1 (x 2  z 2 )
coordenadas de la articulación.
Para el paralelepípedo (p1)  3.54832 x103 kg  m2
I x p  2.75743x103 kg  m2 
Izc1  I z  mc1 (x 2  y2 )
1

I yp  5.29799 x103 kg  m2  0.0614393x103 kg  m2


1

Izp  4.90454 x103 kg  m2 Para el cilindro hueco (c2)


1

Para el cilindro hueco (c1)


Para el cilindro macizo (c2) los momentos de inercia I x  I x p1  I xc1  I xc 2  I x p 2  (54)
con respecto a los ejes de coordenadas que pasan por
su centro de masa según el manual son: I y  I yp1  I yc1  I yc 2  I yp 2 (55)
 1
Iz  mc2  r 2  0.098922 x103 kg  m 2 Iz  Izp1  Izc1  Izc 2  Izp 2 (56)
2
 1
I x  mc2  (3r 2  h 2 )  0.0498571x103 kg  m 2
12 En la tabla 1 del anexo I son mostrados todos los
  centros de masa de los eslabones y los momentos de
I y  I x  0.0498571x103 kg  m 2 inercia de estos con respecto al sistema de coordenadas
de la articulación para el robot ITM-5
Siendo r y h el radio y la altura del cilindro
respectivamente: LOS COEFICIENTES DINÁMICOS DEL ROBOT
ITM-5 UTILIZANDO EL MODELO SIMPLIFICADO
Los momentos de inercia de la masa del cilindro Si desarrollamos la expresión (8) para el robot ITM-5
macizo (mc2) con respecto al sistema de coordenadas de 5 grados de libertad, obtenemos las 5 ecuaciones
de la articulación serán calculados empleando (48), dinámicas que caracterizan su movimiento. Cada
(49) y (50) ecuación tiene un grupo de (n-1) coeficientes Pij otro
 grupo aún mayor n(n+l)/2 de coeficientes Pijk un
I xc 2  I x  mc2 (y2  z 2 )  0.0498581x103 kg  m2 coeficiente Pii, y otro Pi los cuales han sido definidos

anteriormente. Puesto que son 5 ecuaciones estos
I yc 2  I y  mc1 (x 2  z 2 )  0.0498581x103 kg  m2
grupos conforman arreglos de matrices y vectores.

Izc 2  Iz  mc2 (x 2  y2 )  0.0989222 x103 kg  m2 Los coeficientes Pij forman un arreglo matricial
simétrico de 5 x 5 elementos, los coeficientes Pijk
La última componente de la pieza es otro forman también un arreglo submatricial simétrico de 5
paralelepípedo (p2) cuyo momento de inercia se calcula x 5 elementos, pero esto es para cada una de las
exactamente como se hizo con el paralelepípedo (p1) ecuaciones dinámicas, o sea, en total habrán [n(n+l)/2]
El momento de inercia de la pieza # 1 con respecto al n coeficientes del tipo Pijk no repetidos donde estas
sistema de coordenadas de la articulación esta dado por matrices simétricas están relacionadas con las
la suma de los momentos de inercia de los aceleraciones y velocidades respectivamente.
componentes de la pieza: Por razones explicadas anteriormente sólo nos
ocuparemos de calcular el arreglo matricial con los
coeficientes Pij, el cual llamaremos matriz de
aceleración PA, sus elementos son:
Ya que la matriz PA es simétrica entonces necesitamos P11 P12 P13 P14 P15
calcular un total de n(n+l)/2 elementos, o sea, 15, de
los cuales, 5 son los coeficientes de inercia efectiva P ii., P21 P22 P23 P24 P25
que se encuentran en la diagonal de esta matriz y los
otros 10 son los coeficientes de inercia de
PA  P31 P32 P33 P34 P35 (57)
acoplamiento que se encuentran por encima o por P41 P42 P43 P44 P45
debajo,
esto es, al calcular uno de los dos grupos el otro queda P51 P52 P53 P54 P55
determinado.
Los coeficientes Pi, que representan los términos CALCULO DE LOS COEFICIENTES DINÁMICOS
gravitacionales forman un arreglo vectorial, el cual DE INERCIA EFECTIVA
denominaremos como PG con 5 componentes, estas El cálculo de los coeficientes dinámicos lo haremos
son: partiendo de la mano, donde puede haber situada una
carga o no y nos trasladaremos hacia la base del robot.
PG = P1 P2 P3 P4 P5]T (58) Si el robot transporta una carga es necesario considerar
la masa de esta. Esto significa que la masa del último
Para calcular las componentes de (57) y (58) eslabón se modifica por la adición de la masa de carga,
utilizaremos las ecuaciones (18), (19) y (26), donde lo cual conlleva que se alteren las constantes dinámicas
vemos que como incógnita solo quedan por resolver los calculadas para este eslabón: éstos son los momentos
vectores diferenciales de traslación y rotación, v y w de inercia y el centro de masa de este eslabón.
respectivamente, de las matrices de transformación
homogénea involucradas en la síntesis de los CÁLCULO DEL COEFICIENTE P55
coeficientes.
Así que para el robot ITM-5 el último eslabón es el
no.5, entonces la masa m5, el vector de centro de masa
v5  0 0 0 1
5 T

r5 y los momentos de inercia en este eslabón
w 5   0 0 1 0
5 T

I5x  m5 k5xx
2
; I5y  m5 k5yy
2
; I5z  m5 k5zz
2
Utilizamos la expresión (19) obtenemos P55 como:
serán funciones de la carga y lo representaremos con el
supraíndice (*) para indicar la dependencia con la masa P55  (m5 )* k 5zz
2
 (I5z )* (59)
de la carga.
Este resultado nos dice que P55 es una constante
Si en la fórmula (18) comenzamos con la última
numérica que depende de la masa de la carga.
articulación i=5, entonces debemos disponer de las

constantes dinámicas m5, r5 , I5x, I5y, I5z, las cuales ya CÁLCULO DEL COEFICIENTE P44

fueron calculados y tomamos esta información de la Ahora consideramos la articulación 4 la cual rota sobre
tabla 1 del anexo I. el eje (y), entonces de (19) es necesario conocer la
Además debemos determinar los vectores diferenciales matriz
3
T4  A4 y la 3 T5  A 4  A5 y los vectores
5 5
de traslación y rotación v5 y w 5 , para esto es diferenciales de estas matrices que son
4 4 5 5
necesario conocer la matriz de transformación del ( v4 y w 4 ) y ( v4 y w 4 ) respectivamente.
último eslabón A5, que denominamos en forma general Ahora las constantes dinámicas de los eslabones 4 y 5
i 1
como ( Ti ) de forma que sea evidente la relación del robot ITM-5 son:
  

entre los sistemas de coordenadas de las articulaciones  m4 , m5  ,  4 r4 , 5
r5 ,  ,  I 4x , I 4y , I 4z  ,  I5x , I5y , I 5z 
adyacentes. Entonces para i=5 será
4
T5 = A5    
con esta información podemos calcular el coeficiente
P44.
i 1
Los vectores de (v), (w) y la matriz ( Ti ) para cada
una de las articulaciones del robot están calculados en c34 0 s34 s 3 4 L 4
forma general en [10], pero como éstas dependen si el
0 1 0 0
movimiento de la articulación es rectilíneo o rotacional 3
T4 
o si la rotación ocurre alrededor de algunos de los ejes s34 0 c34 c 3 4 L 4
del sistema de coordenadas, entonces para cada
0 0 0 1
articulación debe definirse las condiciones y las
fórmulas de simplificación.
En el [10], se han desarrollados las fórmulas para los de donde utilizando (3.88) y (3.89) de [10] obtenemos:
movimientos rotacionales desde la (3.86) hasta la
v 4   L4 0 0 1
4 T
(3.91) y los movimientos traslacionales se transforman
desde la (3.95) hasta la (3.100), con las
w 4   0 1 0 0
4 T
correspondientes simplificaciones.
La articulación 5 es rotacional y el movimiento se
ejecuta alrededor del eje z, en este caso empleamos las
5
fórmulas (3.86) para hallar el vector v5 y la (3.87) c34c5 c34s5 s3 4 s3 4L 4
5
para determinar el w5 . s3 c5 0 0
4
3
T5 
La matriz T5 para este robot es: s34c5 s34s5 c34 c34 L4
0 0 0 1
c5 s5 0 0
s c5 0 0
4
T5  5
v4   L4c5 L4c5 0 1
5 T
0 0 1 0
w 4  s5 c5 0 0
T
0 0 0 1 5

Efectuando (19) obtenemos:


Usando (3.86) y (3.87) calculamos:
P44  I4y  m4 L24  2m4 L4 z 4  * I5x s52  * I5yc25  * m5L24  2 * m5L24 * z5
P44   I4y  m4 L4   L4  2 z 4     * I5x s52  * I5yc52   * m5L 4   L 4  2 * z5 
En la articulación 3 se produce una rotación sobre el
El primer corchete es una constante, el segundo eje (y), necesitamos la matriz de esta articulación
2
T3
depende de la masa de la carga y de la coordenada
generalizada q5. Si I5x= I5y entonces este segundo dada en (3.16) del [10], los productos de las matrices
término sólo depende de la carga. hasta llegar a la mano, mostrada en (3.23), o sea
Definimos
2
T3  A3 , 2 T4  A3  A4 y 2
T5  A3  A4  A5
k 4  I4y  m4 L4   L4  2 z 4  Y los correspondientes vectores diferenciales de estas
matrices son:
k*41 (5 )   * I5x s52  * I5y c52   * m5L4   L4  2 * z5  60)
 3
v3 3 w3  ,  4
v3 4 w 3  ,  5
v3 5 w 3 
P44  k 4  k*41 (5 ) respectivamente.
Añadimos a la constantes* dinámicas de los eslabones
CÁLCULO DEL COEFICIENTE P33 4 y 5 la del eslabón 3 y aplicando el mismo
procedimiento hallamos el coeficiente dinámico P 33

P33  k 3  k*31 (34 )  k*32 (34 , 5 )


donde
k 3  I3y  m3L3   L3  2 z3 


k 31 (34 )  I4y  m4  L24  L23  2L4 L3c34   2 s3  4L3 x 4   L4  c34 L3  z 4  
k*32 (34 , 5 )   * I5x s52  * I5y c52   * m5   L24  L23  2L3L4c34   2 * m5  s34 L3   c5 x 5  s5 y5    L4  c34L3  z5  
(61)
CÁLCULO DEL COEFICIENTE P22
 2
v2 w 2   v2 w 2  ,
2 3 3
 4
v2 w 2  ,
4
 5
v2 w 2 
5

La articulación 2 rota sobre el eje (y) necesitamos las Añadimos las constantes* dinámicas de los eslabones
1 2, 3, 4 y 5 y aplicando el mismo procedimiento
matrices T2 (dada en 3.15) y los productos de las hallamos el coeficiente dinámico P22
matrices siguientes:
1
T2  A2 ; 1 T3  A2  A3 ; 1T4  A2  A3  A4 ;
1
T5  A2  A3  A4  A5
los correspondientes vectores diferenciales:
P22  k*2  k*21 (23 )  k*22 (3 4 , 24 )  k*23 (3 4 ,  24 , 5 )
donde
k*2  I2y  m2 L2   L 2  2 z 2 


k*21 (23 )  I3y  m3  L25  L22  2[(L3L 2s 23  2c 23L 2 )x 3  (L 3  s 23L 2  z 3] 
 L24  L23  L22  2L4 L3 c3 4  2L 4 L 2 s 24  2L 3 L 2 s 23  
k (3 4 , 24 )  I 4y  m 4 
*

 2 (s34 L3  c24 L2 )x 4  (L4  c34 L3  s 24 L2 ) z 4 
22

 * I5x s52  * I5y c52   * m5   L24  L23  L22  2L3L4c34  2L4 L2s 24  2L3L2s 23  
(62)

k 23 (34 , 24 )  
*

  2  c5s34 L3  c24 L2  x 5  (s5s34 L3  c24 L2 )y5   L4  c34L3  s 24L2  z5  
 

CÁLCULO DEL COEFICIENTE P11


En la primera articulación de la base se origina este Aquí es necesario determinar todas las matrices desde
coeficiente. Esta articulación tiene un movimiento la base hasta el agarre, o sea
0
T1 (representada por
rotacional alrededor del eje Z.
3.14) y los productos de las matrices siguientes:
0
T1  A1 , 0 T2  A1  A2 ; 0
T3  A1  A 2  A3 ; 0 T4  A1  A 2  A3  A 4 ; 0 T5  A1  A 2  A3  A 4  A5
Así como los vectores diferenciales correspondientes
de estas matrices: Además, se necesitan todas las constantes dinámicas de
los eslabones 1, 2, 3, 4 y 5 del robot calculadas
 1
v1 1 w1  ,  2 v2 2 w 2  ,  3
v3 3 w 3  , anteriormente y aplicando el mismo procedimiento
hallamos el coeficiente dinámico P11
 4
v3 4 w 3  ,  5
v3 5
w 
3

P11  k1  k11
*
(2 )  k12
*
(3 )  k13
*
(4 )  k14
*
( 45 )
donde
k1 I1z
*
k11 (2 )  I 2xs 22  I 2zc22  m 2L 2s 2 s 2L 2  2  c 2x 2  s 2z 2  
*
k12 (3 )  I3x c32  I3zs 32  m 3  c 3L 3  s 2L 2   c 3L 3  s 2L 2   2 s 3x 3  c 3z 3  
*
k13  
(4 )  I 4x c24  I 4zs 24  m 4 (c 4L 4  c 3L 3  s2 L2 )  c4 L4  c3L3  s2 L2  2  s4 x 4  c4 z 4  
c24  * I5x c52  * I5ys52   * m5  (c4 L4  c3L3  s2 L2 )  c4 L4  c3L3  s2 L2  
k (45 )  
*
 (63)
 2 s4  c5 x 5  s5 y5   c4 z5  
14
 

Observación: Sustituyendo los valores de la tabla 1 obtenemos


Note que en las ecuaciones (60), (61), (62) y (63), el expresiones más compactas ya que surgen nuevas
primer término es siempre una constante numérica y simplificaciones debido a términos que se hacen muy
loa demás términos son variables con el movimiento pequemos y se pueden despreciar y otros que son
del brazo del robot. El último término de estas iguales entre sí. De esta forma estos coeficientes
ecuaciones es dependiente de la masa de la carga.* simplificados se pueden introducir en un algoritmo de
ejecución en tiempo real.
(26) simplificada (27, 28 y29). Tampoco serán
CALCULO DE LOS COEFICIENTES DE INERCIA mostrados estos cálculos por limitación de espacio.
DE ACOPLAMIENTO
CONCLUSIONES
De acuerdo a la expresión (64) debemos calcular sólo
10 coeficientes debido a la simetría de la matriz P A, En esta ponencia se resume la investigación realizada
comenzando desde la mano de sujeción hacia la base. sobre el robot ITM-5 y abarca la síntesis de los
Calculamos para la articulación 5 la influencia de la movimientos dinámicos de este mecanismo.
cuarta sobre ésta, representada por el coeficiente P 54 y Los resultados alcanzados en la síntesis de las
así sucesivamente obtendremos para esta articulación ecuaciones dinámicas son valiosos para diseñar nuevos
los coeficientes P53, P52 y P51. La fórmula que debe algoritmos de control del brazo robótico o para mejorar
utilizarse es la (18). los existentes.
La tarea de cálculo ahora es más sencilla, debido a que Estos resultados consisten en:
ya tenemos definidas del acápite anterior todas las  La obtención de los torques de reacción
matrices y vectores diferenciales necesarios para necesarios para determinar el torque que deben
efectuar estas operaciones. tener los motores acoplados a las articulaciones
Por limitación de espacio estos cálculos no serán del robot.
mostrados.  La información cualitativa y cuantitativa de la
influencia de la inercia efectiva en cada
CALCULO DE LOS COEFICIENTES DEBIDO AL articulación y la inercia de interacción o
EFECTO GRAVITACIONAL SOBRE LOS acoplamiento debida a otras articulaciones sobre
ESLABONES una dada.
El último grupo de coeficientes dinámicos surgen  Las ecuaciones dinámicas son muy explícitas y se
debido al efecto de la acción de la gravedad actuando ofrecen con todos sus parámetros dinámicos
sobre los eslabones. Si algunos de los ejes de las desglosados, a fin de que si se quiere modificar
articulaciones están en la posición vertical al plano una pieza del robot o colocar otra semejante pero
terrestre comprobaremos que no es necesario calcular de otro material fácilmente se puede incorporar el
el coeficiente relacionado con esta articulación pues valor del nuevo parámetro dinámico
será nulo. La fórmula general que debe utilizarse es la

BIBLIOGRAFÍA

[1] Pieper, D.L.


'The Kinematics of manipulators under computer control"
Stanford Artificial Intelligence Project, Stanford, Memo AIM-72, oct 1968.
[2] Paúl, R.P.
"Modelling Trajectory calculation and servoing of a computer controlled arm".
Stanford Artificial Intelligence Lab. Stanford, Memo. AIM-77,nov. 1972.
[3] Whitney, D.W.
"The mathematics of coordinated control of prosthetic arms and manipulators".
Trans. ASME, J. Dynamics Systém Measurement Control, pp 303-309, dic. 1972
[4] "Detalles de construcción del robot ITM-5"
Editado en la Escuela Interamas de la FAR
[5] Wells, D.A.
"Dinámica de Lagrange" Cap. 7, pp.121-132 Me Graw-Hill, 1972.
[6] Hollerbach, J.M.
"A Recursive Lagrangian Formulation of Manipulator Dynamics and a comparative Study of Dynamics Formulation
Complexity".
IEEE trans. on syste. man and cybernetics, vd.SMC-10, No 11, 1980, pp 730-736.
[7] Luh, J.Y.S., Walker, M.W.and Paúl, R.P.
"On-line computational scheme for mechanical manipulators".
ASME. Journal of Dynamic Syatems, measurement and control, vol.102, jun 1980 pp 69-76.
[8] Ortega Y., Pozo A del.
"Modelo cinemático del robot ITM-5".
Reporte de investigación, ICIMAF 2013.
[9] Paúl, R.P, Shimano, B. and Mayer, G..E.
"Differential Kinematic Control Equations for simple manipulators".
IÉEE trans on syst., man and cybernetics, vol SMC-11, No 6, 1981,pp 456-460.
[10] Pozo A.del, Sebastian R.
"La síntesis cinemática y dinámica de dos robots industriales"
Editorial Academia, La Habana 1990
[11] Hudson, R.G.
The Engineer Manual, J. Wiley & Son, 1959, pp 89-94..

ANEXO I

Las unidades utilizadas son:


masa: en kilogramos.
distancia de las coordenadas de los centros de masa xi , yi , y zi: en metros.
momentos de inercia Ixi, Iyi, Izi : en kilogramos – metros2
METODOLOGÍA DE MINERÍA DE DATOS PARA MITIGAR
ATAQUES DE INYECCIONES SQL
DATA MINING METHODOLOGY TO MITIGATE SQL INJECTION ATTACK
Rogfel Thompson Martínez1

1 UCI, Cuba, rthompson@uci.cu

RESUMEN: Las tecnologías y software desarrollados en el mundo son un producto de la inteligencia y del
conocimiento humano, y como producto de este último, no están exentas de errores. Estos errores en los soft-
ware y tecnologías, conocidos comúnmente como vulnerabilidades, son provocados por malas prácticas, por
problemas de seguridad informática cometidos durante el desarrollo; por el uso de otras tecnologías que tienen
vulnerabilidades, o por problemas de configuración. Las vulnerabilidades informáticas pueden ser aprovechas
por intrusos con la intención de obtener información de un sistema, o adueñarse de él, violando normas de se-
guridad establecidas.
Un tipo de ataque a las vulnerabilidades de los software son las inyecciones de Lenguaje de Consulta Estructu-
rada (SQL, por sus siglas en inglés), las cuales consisten en la inserción o “inyección” de una consulta SQL, a
través de los datos de entrada que poseen las aplicaciones, o mediante el Localizador de Recurso Uniforme
(URL, por sus siglas en inglés).
Con el volumen de información de las Bases de Datos de Vulnerabilidades, se pueden aplicar técnicas que
permiten detectar patrones en grandes conjuntos de datos, el conjunto de estas técnicas se conocen como Mi-
nería de Datos. Teniendo en cuenta las bases de datos de vulnerabilidades, es factible elaborar una metodolog-
ía, que aplique técnicas de Minería de Datos para realizar una base de conocimiento capaz de filtrar inyeccio-
nes SQL. Esta base de conocimiento puede insertarse en un cortafuego de aplicación Web, convirtiéndolo en
un cortafuego semántico de aplicación Web para inyecciones SQL.

Palabras Clave: Base de Datos de Vulnerabilidades, Cortafuego Semántico de Aplicación Web, Inyecciones
SQL, Minería de Datos.

ABSTRACT: The technology and software development on the world are the smart and knowledge human
result, for that they can have errors because the human are not perfect. These errors are called vulnerabilities.
Hacker is taked advantage of vulnerabilities to gain privileges about any system and broke out security law.
One kind of attack to software vulnerability is SQL injection, which are injection of Structure of Query Language
(SQL) on application input data or URL.
With Vulnerability Data Base information and Data mining Technic would be pattern detected about SQL injec-
tion. This result would allow creating a knowledge base to filter SQL injection attack. The knowledge base can
insert in Web Application Firewall and this is converted in Semantic Web Application Firewall.

KeyWords: Data Mining, Semantic Web Application Firewall, SQL Injection, Vulnerability Data Base.

1. INTRODUCCIÓN de clientes y la seguridad de que estos continúen


siéndolos. Los mecanismos para prevenir las vulne-
En el mundo contemporáneo, la información es rabilidades que puedan afectar la información, de-
protegida y cuidada con mucho celo, ya que puede ben estar en creciente investigación, para seguir
representar la ventaja en el mercado, el aumento garantizando la protección de los datos.

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

Con el objetivo de que los administradores de sis- 2. CONTENIDO


temas y usuarios conozcan las vulnerabilidades que
van apareciendo, se han creado bases de datos
internacionales que contienen estas informaciones, 2.1 Técnicas para mitigar amenazas de in-
las estandarizan para una mejor organización, y yecciones SQL
brindan soluciones a los problemas de seguridad
presentes en las tecnologías y herramientas. Estas Las técnicas para mitigar las amenazas de inyec-
bases de datos, permiten realizar estudios para ciones SQL se agrupan en dos áreas:
prevenir varias amenazas a los sistemas y tecno- Las de Defensa a Nivel del Código, consiste en
logías de la información. Una de las bases de datos asegurar el código desde las fases de implementa-
de vulnerabilidades existentes es La Base de Datos ción del proyecto. En esta área, se aplican las
de Vulnerabilidad de Código Libre (OSVDB, por sus técnicas de parametrización de las sentencias, vali-
siglas en inglés). Esta base de datos, permite des- dación de entradas de información, codificación de
cargar los registros de vulnerabilidades que posee, la salida de información, canonización y las buenas
a los que se les pueden aplicar técnicas de Minería prácticas de diseño de las aplicaciones.
de Datos, para la ayuda en la toma de decisiones, Las de Defensa a Nivel de Plataforma o Aplica-
con el objetivo mitigar amenazas de vulnerabilida- ción, que consisten en asegurar el software des-
des. plegado. Entre las técnicas que posee se encuen-
En el campo de la inseguridad, las amenazas de tran las de protección en tiempo real, buenas
Inyecciones SQL son un problema latente, ubica- prácticas de seguridad y las prácticas de seguridad
das entre los tipos de vulnerabilidades más peligro- en el despliegue.
sas del mundo informático ya que estas poseen un Para el desarrollo de la investigación se seleccionó
acceso directo a la información de las bases de trabajar en el área de Defensa a Nivel de Platafor-
datos de los sistemas. ma, ya que sus técnicas no dependen de las espe-
Las Inyecciones SQL consisten en la inserción o cificidades del proyecto, ni del lenguaje con que se
―inyección‖ de una consulta SQL a través de los desarrolló la aplicación. Dentro de esta área se
datos de entrada que facilita el cliente a la aplica- pretende profundizar en las técnicas de tiempo real.
ción. Considerados como uno de los principales
problemas de seguridad, los ataques de inyección
2.1.1 Protección en Tiempo Real
SQL explotan fallos de los software con el fin de
acceder a bases de datos. Su objetivo es inyectar La protección en tiempo real es una técnica de gran
código malicioso en la URL o campos de textos, de valor para mitigar y prevenir las amenazas de in-
páginas web vulnerables, con el fin de robar el con- yecciones SQL conocidas. Reparar directamente el
tenido de las bases de datos, como los detalles de código siempre es la solución ideal; sin embargo, el
las tarjetas de crédito o nombres de usuarios y con- esfuerzo requerido no siempre es efectivo ni prácti-
traseñas. Durante el segundo trimestre del año co.
2012 se detectaron 469.983 atasques de inyección Entre las estrategias que asumen la protección en
SQL, un 89% más respecto a los 277.770 ataques tiempo real para mitigar los problemas de seguri-
del trimestre anterior, según cifras de la empresas dad, debido a las vulnerabilidades de los sistemas a
de seguridad FireHost [1]. La gravedad de este tipo inyecciones SQL, se encuentran los Firewall de
de amenazas se incrementa constantemente, debi- Aplicaciones Web (WAF, por sus siglas en inglés).
do a que su objetivo es adquirir los datos privados
de una compañía o persona, los cuales constituyen,
en la era de la información, la base para el perfec- 2.1.2 Firewall de Aplicaciones Web
cionamiento de las empresas. Los WAFs, son una tecnología emergente de la
Realizando un estudio apoyado con técnicas de seguridad de la información que tiene como objetivo
Minería de Datos, se puede desarrollar una base proteger a las aplicaciones Web de los ataques
de conocimiento para filtrar posibles ataques de informáticos. Las soluciones WAFs, son capaces de
Inyecciones SQL. prevenir ataques que para los Firewall de Redes y
los Detectores de Intruso, es imposible prevenir.
En la actualidad los ataques informáticos son cada
vez más sofisticados, por lo que es de vital impor-

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

tancia desarrollar criterios estandarizado para eva- Arquitectura modular, permitirá a los contribu-
luar los productos. En el caso de los WAFs, el Con- yentes a implementar fácilmente sus propios
sorcio de Seguridad en Aplicaciones Web (WASC, módulos sin necesidad de comprensión profun-
por sus siglas en inglés), ha desarrollado un criterio da de la arquitectura IronBee, así como también
para evaluar los WAFs en cuanto a técnicas de más sencilla la integración de módulos particu-
detección, técnicas de protección, gestión de log, lares para cada usuario.
administración, entre otros [2]. Mediante este Con-
sorcio, se garantiza un desarrollo creciente de esta Esfuerzo de colaboración de la Comunidad con
tecnología, y la hace más eficaz para contrarrestar el fin de captar, centralizar y compartir la infor-
ataques a las aplicaciones Web. mación necesaria para defender a las aplica-
ModSecurity. ciones web [4].
Entre los desarrollos más representativo en esta 2.1.3 Filtros de Intercepción
tecnología se encuentra ModSecurity, el cual se
implementó como un módulo de Apache; sin em- Otra solución de seguridad son los Filtros de Inter-
bargo, él puede proteger cualquiera aplicación Web cepción, que consisten en una serie de módulos
siempre que el Servidor Apache se configure como independientes, que se pueden encadenar para
un proxy inverso. Las peticiones entrantes son ana- mejorar el análisis de seguridad en la aplicación.
lizadas antes de pasarlas al servidor web, o a cual- Los Filtros no tienen dependencias explícitas entre
quier otro módulo de Apache. Para realizar este ellos, se puede añadir un nuevo filtro, sin dañar el
filtrado se puede utilizar expresiones regulares, lo funcionamiento de uno existente. Cada filtro posee
cual lo hace muy flexible [3]. una secuencia de patrones que le permiten denegar
Varias compañías del área de seguridad informática o permitir la interacción entre el cliente y el servidor
ya poseen sus WAF comerciales, entre los que se Web o aplicación. Esta modularidad hace al siste-
encuentran: Profense, Citrix, F5, Cisco, Trustware. ma de Filtros reusable para todas las aplicaciones.
Existe también el caso de la compañía Qualys que Los Filtros son adicionados como un plugins del
posee un proyecto de desarrollo en software libre servidor Web, o en los archivos de configuración de
de su WAF, el cual nombra IronBee. las aplicaciones que lo activa dinámicamente. Son
ideales para la realización de tareas centralizadas y
IronBee.
repetibles en todas las solicitudes y las respuestas
IronBee, es llevado por el equipo que diseñó y que están débilmente acoplados con la lógica de la
construyó ModSecurity, el nuevo proyecto apunta a aplicación principal. También son buenos para fun-
producir un firewall de aplicación web que sea se- ciones de seguridad como validación de entradas,
guro, de alto rendimiento, portable, y libremente generación de log de envíos y de respuestas, y en
disponible incluso para el uso comercial. la transformación de las respuestas de salida. En
El proyecto IronBee está abierto a todas las partes muchas arquitecturas se propone el uso de filtros
interesadas en unirse al esfuerzo de desarrollo y de seguridad en los servidores Web y en los módu-
proporcionar: los de framework de aplicaciones, dándole un ma-
Un motor de inspección de seguridad de aplica- yor nivel de seguridad aplicando estas 2 estrate-
ciones que proporciona nuevas herramientas gias. Muchos de los Filtros de Seguridad, emplean
de procesamiento y análisis para el tráfico una lista de sentencias que no deben ser permitidas
HTTP. (BlackList, por sus siglas en inglés), y en otras las
permitidas (WhiteList, por sus siglas en inglés), la
Apache Software License v2, una licencia de combinación de estos filtros perfecciona el análisis
código abierto no viral que permite a los indivi- de seguridad.
duos y las organizaciones comerciales por igual Entre los desarrollos realizados en esta tecnología
a participar, creando una comunidad de usua- se encuentra el API libre, UrlScan de Microsoft,
rios, así como una comunidad de desarrollado- para el servidor Internet Information Server y
res. WebKnight con las mismas características. Por lo
general, todos los marcos de trabajos (framework)
Portabilidad, construido desde cero para traba- para la Web, presentan filtros para mitigar los ata-
jar en varios modos de implementación, tales ques de inyecciones SQL y otras amenazas de las
como pasiva, embebida, fuera de proceso, y de aplicaciones Web.
proxy reverso.

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

Como otra estrategia de seguridad para mitigar las Quaid-i-Azam, Islamabad, Paquistán, desarrolla un
amenazas de inyecciones SQL se utilizan los Sis- proyecto de un Firewall Semántico de Aplicaciones
temas de Detección de Intruso de Aplicaciones Web [6]. Los investigadores de este proyecto cen-
(IDS, por sus siglas en inglés). Estos trabajan con tran su atención en el desarrollo automático de una
los logs generados por el sistema buscando, en ontología basada en un texto y la generación de
base a anomalía o violación de reglas definidas. reglas semánticas para el Firewall Semántico de
Aplicaciones Web (SWAF, por sus siglas en inglés).
2.1.4 Firewall de Base de Datos Los SWAFs son firewall capaces de proteger apli-
caciones Web, contra todo tipo de ataque, en la
Una de las estrategias más cercana a los sistemas capa de aplicaciones, que sea conocido o no cono-
de almacenamiento de información son los Firewall cido [7]. La potencialidad de esta tecnología radica
de Bases de Datos, que es esencialmente un servi- en el buen desarrollo de la ontología requerida, la
dor proxy que se encuentra entre la aplicación y la que debe variar según el intérprete de la tecnología
base de datos. La aplicación se conecta al servidor Web utilizada, y la técnica de Minería de Datos
de seguridad de bases de datos y envía la consulta definida para el filtrado de ataques.
como si se tratara normalmente la acción de conec-
tarse a la base de datos. El servidor de seguridad Para desarrollar una base de conocimiento para un
de la base de datos, analiza la consulta prevista y la SWAF, que mitigue inyecciones SQL, en una apli-
transfiere al servidor de base de datos para ser cación Web, para un intérprete específico, se hace
ejecutado, si se considera segura. Alternativamen- necesario la utilización de una metodología que
te, se puede evitar que la consulta se ejecute si es ayude a:
malicioso. También puede servir como un IDS a Evaluar los niveles de riesgos a los que está
nivel de aplicación para la actividad de base de sometida la aplicación Web.
datos maliciosos, mediante el monitoreo de co-
nexiones en modo pasivo y las alertas administrati- Definir los elementos necesarios para el desa-
vas de comportamiento sospechoso. rrollo de la ontología correspondiente al intér-
prete.
Un ejemplo de implementación de un Firewall de
Base de Datos de código abierto es GreenSQL [5]. Definir la base de conocimiento para la mitiga-
GreenSQL ción de las inyecciones SQL.
GreenSQL es un Firewall de Bases de Datos de
Definir la técnica de Minería de Datos más ade-
código libre, con el objetivo de proteger las bases
cuada al problema.
de datos de los ataques de inyecciones SQL. Gre-
enSQL trabaja como un proxy para sentencias SQL Aunque no existen investigaciones referidas a la
y tiene soporte para MySQL, PostgreSQL. Recien- posible creación de un Firewall Semántico de Base
temente el proyecto que desarrolla esta herramien- de Datos, en esta investigación se pretende propo-
ta publicó GreenSQL Pro, una versión comercial ner esta estrategia como técnica de filtrado de in-
que soporta al gestor de bases de datos Microsoft yecciones SQL. Esta estrategia, al igual que los
SQL Server [5]. SWAFs, tendría que cumplir los procesos definidos
Las técnicas referidas anteriormente para mitigar por la metodología.
inyecciones SQL, tienen la debilidad de no ser ca- Al existir WAFs y Firewall de Base de Datos de
paces de mitigar inyecciones SQL no conocidas. El código abierto, no se hace necesario invertir tiempo
tiempo de actualización de su base de conocimien- en el desarrollo de uno en específico. Es más con-
to, las hace ineficiente frente a nuevos tipos de veniente, proponer que se les integre un módulos
ataques. Con el uso de técnicas de Minería de Da- de estas técnicas de filtrado, que emplean Minería
tos, se puede perfeccionar el análisis de los Firewall de Datos.
de Aplicaciones y los de Bases de Datos, haciéndo-
lo capaces de poder mitigar técnicas no conocidas.
2.2 Metodología para Mitigar Inyecciones
2.1.5 Firewall Semántico de Aplicaciones SQL
Web Para el desarrollo de una metodología es necesario
definir procedimientos y métodos que guíen el pro-
Un grupo de investigación de la universidad de ceso. Esta metodología propone una combinación

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

del sistemas de evaluación de riesgos CWRAF [8], Esta metodología, para un correcto desarrollo, apli-
con la metodología de Minería de Datos CRISP-DM ca el flujo de trabajo presentado a continuación en
[9]. En cada una de las fases se van a generar arte- la figura 1.
factos, los cuales son las entradas para las próxi-
mas fases.
Para desarrollar la metodología propuesta es nece-
sario que se cuente con conocimientos en el área
de la Minería de Datos y de Seguridad Informática.
Para esto, la metodología define dos roles: el Espe-
cialista de Minería de Datos y el Especialista de
Seguridad Informática.
Especialista de Minería de Datos: tiene la respon-
sabilidad de llevar a cabo los procesos definidos
por la metodología, guiar el proceso de Minería de
Datos y dar cumplimiento satisfactorio a al modelo
realizado.
Especialista de Seguridad Informática: tiene la res-
ponsabilidad de llevar a cabo los procesos definidos
por la metodología, guía el proceso de Mitigación
Figura 1: Diagrama de flujo de la metodología.
de Riesgos y dar cumplimiento satisfactorio al filtra-
do de inyecciones SQL. Debe tener conocimiento
sobre las inyecciones SQL. 2.3 Desarrollo de la metodología
Para esta metodología se han definido seis fases 2.3.1 Comprensión del Negocio
que se explican a continuación:
1. Comprensión del Negocio. Tiene como obje- Para desarrollar los siguientes paso de la metodo-
tivo recopilar información sobre los objetivos, logía correctamente es necesario realizar una reco-
funcionamiento y tecnologías utilizadas en la lección de toda la información referente a la aplica-
aplicación Web. ción desarrollada. En este caso, se cuenta que:
Es un sistema de comercio electrónico de artí-
2. Análisis de Riesgos del Negocio. Tiene como culos de computación.
objetivo verificar el nivel de riesgo, en cuanto a
inyecciones SQL, de la aplicación Web; argu- Fue desarrollado con el CMS Joomla versión
mentar la necesidad del firewall de aplicaciones 1.5 y como gestor de base de datos MySQL
Web y del de Base de Datos. 4.0.

3. Colección y Preparación de los Datos. Tiene Se encuentra de cara a internet y permite tran-
como objetivo recolectar y preparar los datos sacciones bancarias.
necesarios para el proceso de aprendizaje del
modelo para filtrar inyecciones SQL. Estos da- 2.3.2 Análisis de Riesgos del Negocio
tos dependerán del servidor de aplicaciones uti-
lizado y el gestor de bases de datos. Primer paso: definir el Dominio del Negocio
Debido al negocio que realiza el cliente, el dominio
4. Modelado. Tiene como objetivo definir los pro- correspondiente es Comercio Electrónico.
cesos y las técnicas de Minería de Datos que
más se ajustan a la solución del problema.
Segundo paso: definición del Grupo Tecnológi-
5. Evaluación. Tiene como objetivo verificar el co y Modelos Tecnológicos (MT).
buen funcionamiento del modelo definido. Tabla I. Grupos Tecnológicos y sus Modelos Tec-
nológicos correspondientes al negocio.
6. Despliegue. Tiene como objetivo desplegar el
modelo en un firewall de aplicaciones Web y en Grupo Modelos Tecnológicos
uno de Bases de Datos. Se verifica el funcio- Tecnológico
namiento del modelo en un entorno real. Tecnolog- Base de Datos (MySQL), CMS

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

ías Web (Joomla) gos con mayor alcance, para profundizar en todas
las debilidades que pueda poseer el negocio co-
rrespondiente.
Tercer paso: definición del Escenario de Inter-
acción. Tabla III. Definición de las Técnicas de Impacto
para el negocio
De los Escenarios de Interacción definidos por
CWRAF, el que se acoge con mayor exactitud al Impacto Capa Im- Explica-
negocio especificado es, el Suministrador de Ven- portancia ción
tas al Consumidor Basado en la Web (Web-Based Modifi- Apli- 9 Modificar la
Retail Provider, por su definición en inglés) cuyo cación de cación información de
identificador es retail-www. Datos los clientes, los
inventarios.
Cuarto paso: definición de los Valores del Con- Lectura Apli- 7 Lectura de
texto del Negocio (VCN) de Datos cación la tarjeta de
crédito de los
Tabla II. Definición del dominio de negocio y su clientes, de
escenario información de
los contacto y
Dominio Escenario Detalles la contraseñas
de Interacción
Ejecutar Apli- 10 Leer o mo-
Comer- Suministrador Es un sistema de un código o cación dificar tarjetas
cio Electró- de Ventas al cara a internet, con- comando sin de créditos,
nico Consumidor tiene en sus bases de autorización obtener o modi-
Basado en la datos números de ficar informa-
Web. tarjetas de créditos e ción personal,
inventarios. modificar el
MT: base de da- sitio web
tos, servidor Web,
servidor de aplicacio-
nes, sistema operati- El marco CWRAF, tiene definido una serie de esce-
vo de propósito gene- narios de interacción con sus definiciones de im-
ral. pactos correspondiente. Esta definición de impactos
VCN: necesidad pudiera ser de mucha utilidad para escenarios simi-
de confidencialidad – lares.
los clientes deben Calculando el peso del impacto con CWSS.
confiar en que sus
compras será envia- Las cuatro técnicas de impactos están asociadas a
das a sus hogares y las amenazas de inyecciones SQL. El mayor subva-
que sus tarjetas de lor entre los impactos es 10, el máximo valor defini-
créditos están segu- do para las técnicas de impacto. Por lo tanto el
ras. peso del impacto es 1.
Necesidad de la
privacidad de la in-
formación – es nece-
Sexto paso: Toma de decisiones.
sario la protección de Debido al gran riesgo que presenta este sistema
la información de los con respecto a ataques de inyecciones SQL, y la
clientes. importancia de la información que maneja, se deci-
de utilizar un firewall semántico para el filtrado de
Quinto paso: Unión de los valores del negocio y ataques de inyecciones SQL; por lo que se continua
las debilidades con el proceso de desarrollo de esta metodología.
Como esta metodología pretende mitigar inyeccio-
nes SQL, solo se pondrán las técnicas de impactos 2.3.3 Colección y Preparación de Datos
asociadas a esta debilidad del software. En el pro-
En el proceso de colección y preparación se están
ceso de desarrollo de la metodología, si los espe-
utilizando los registros de la base de datos OSVDB
cialistas desean, pueden hacer un Análisis de Ries-

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

publicada hasta Junio del 2010. En esta base de Distribución de los registros de prueba me-
datos se encuentran registrados 376 vulnerabilida-
des por inyección SQL en joomla, y de estas 299 diante la Regla de Asociación:
cuentan con la sentencia de inyección. Para la in-
vestigación solo se tomará de la tabla ―vulnerabili-
ties‖, el campo ―manual_notes‖, donde se encuentra
el registro de sentencias de inyección. Estos regis-
tros datan desde el 23 de Agosto del 2007 hasta el
30 de Junio del 2010.

2.3.4 Modelado
Identificación de los términos
Dado el funcionamiento del CMS Joomla para este
negocio en particular, y los registros de inyecciones
SQL en la base de datos de vulnerabilidades
OSVDB correspondiente, se definen los términos
que quedarán representados. Es necesario reflejar
tanto los términos del CMS Joomla, como los del
Figura 2: Distribución de SQLi mediante Regla
gestor MySQL, ya que basado en la combinación
de Asociación.
de estos dos se realiza una inyección SQL.
Esta técnica reflejó una distribución bien defini-
da, denotándose 14 falsos negativos.
Selección de la técnica de modelado
La herramienta seleccionada por la investigación es Distribución de los registros de prueba me-
Rapidminer por el gran número de formatos que
soporta, lo que facilita la adquisición de los datos diante SVM:
por la herramienta [10]. Posee varias técnicas para
el análisis de Minería de Datos, y sobre Rapidminer
puede definir el flujo completo del proceso de mi-
nería en cuestión.
Naive Bayes, esta técnica no solo modela de forma
cualitativa el conocimiento sino que además expre-
san de forma numérica la fuerza de las relaciones
entre las variables. Es un algoritmo realizado para
trabajar bajo incertidumbre debido al uso explícito
de la teoría de la probabilidad [11].
En la construcción del modelo se utilizaron un total
de 226 inyecciones SQL a Joomla, a través de la
URL, y 203 peticiones del flujo normal sistema. Se
reservaron 5 inyecciones SQL contemporáneas a la
muestra de entrenamiento, 55 inyecciones SQL con
fecha de publicación del 7 de Julio del 2010 hasta
el 1ro de Agosto del 2012, y 21 peticiones normales Figura 3: Distribución de SQLi mediante SVM.
a la aplicación, para la evaluación del modelo.
Esta distribución a pesar de solo denotar siete
falsos negativos, no se encuentra también reflejada
como la anterior. Los márgenes de confidencia si y
no, son muy estrechos, lo que pudiera incrementar
el número de falsos negativos al incrementarse el
números de casos a filtrar.

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

Distribución de los registros de prueba me- funcionamiento del sistema.


diante Naive Bayes:
2.3.5 Evaluación
Tabla IV. Evaluación de la distribución mediante Re-
glas de Asociación.
Verdade- Verdade-
Precisión
ros si ros no
pred. si 41 0 100.00%
pred. no 14 21 60.00%
Perti-
74.55% 100.00%
nencia

Certeza: 81.58%.

Tabla 11. Evaluación de la distribución mediante


Figura 4: Distribución mediante Naive Bayes. SVM.
Verdade- Verdade-
Precisión
Esta distribución es muy similar a la de Regla de ros si ros no
Asociación, demostrando la potencialidad de la pred. si 48 0 100.00%
técnica Naive Bayes. Deja muy bien definido las
inyecciones SQL de las peticiones normales del pred. no 7 21 75.00%
sistema basado en Joomla y solo denotó tres falsos Perti-
87.27% 100.00%
negativos. nencia

Certeza del 90.79%


Distribución de los registros de prueba me-
diante Árbol de Decisión: Tabla 12. Evaluación de la distribución mediante Nai-
ve Bayes.
Verdade- Verdade-
Precisión
ros si ros no
pred. si 51 0 100.00%
pred. no 4 21 84.00%
Perti-
92.73% 100.00%
nencia

Certeza 94.74%

Tabla 13. Evaluación de la distribución mediante


Árbol de Decisión.
Verdade- Verdade-
Precisión
ros si ros no
Figura 5: Distribución mediante Árbol de Decisión.
pred. si 46 1 97.87%
pred. no 9 20 68.97%
La distribución del Árbol de Decisión muestra
ocho falsos negativos y un falso positivo. A pesar Perti-
83.64% 95.24%
de una buena segregación de los 2 grupos, la intro- nencia
ducción de falsos positivos puede atentar contra el Certeza 86.84%

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

De las técnicas utilizadas se decide seleccionar 6) SWAF. SWAF. [Online] 2010.


Naive Bayes por constituir uno de los enfoques http://swaf.seecs.nust.edu.pk/.
teóricamente más sólidos y elegantes (Hernández 7) —. Web Application Security Solution.
Orallo, y otros, 2004). Fue el que mejor distribución [video] Islamabad : s.n., 2010.
tuvo de los resultados con una certeza del 94.74%.
8) MITRE. Common Weakness Risk Analysis
Esto implica que utilizando redes bayesianas se
Framework (CWRAF). [Online] Junio 27,
pudiera mejorar el proceso y detección de las in-
2011. http://cwe.mitre.org/cwraf/.
yecciones SQL.
9) Chapman, Pete and Clinton, Julian.
CRISP-DM 2.0. 2007.
2.3.6 Despliegue 10) Stratebi. Comparativa de Algoritmos de
Para el despliegue se propone utilizar el firewall de Herramientas de Data Mining. 2010.
aplicaciones Ironbee, al cual se hace necesario 11) Hernández Orallo, José y Ramírez
desarrollarle componentes que pueda utilizar el Quintana, José. 2004. Introducción a la
modelo definido por esta metodología. Minería de Datos. Madrid : Pearson
Educación S.A., 2004. 84-105-4091-9.
3. CONCLUSIONES 12) Rapid-I. Ayuda Rapidminer. Alemania :
s.n., 2001.
La aplicación de técnicas de Minería de Datos, en
13) —. Common Weakness Scoring System
la Seguridad Informática, se refleja fundamental-
(CWSS). [Online] Junio 27, 2011.
mente en Sistema Detectores de Intruso y Análisis
http://cwe.mitre.org/cwss/.
de Log; por lo que la metodología contribuye al
esparcimiento de la Minería de Datos hacia otras 14) —. CWE/SANS Top 25 Most Dangerous
áreas de la Seguridad Informática. Software Errors. [Online] Septiembre 13,
2011. http://cwe.mitre.org/top25/.
Se determinó que los Firewall Semánticos de Apli-
caciones Web y de Bases de Datos son la mejor 15) Joomla. Extensiones - Componentes.
opción para mitigar inyecciones SQL, a nivel de 2008.
aplicación. Estas tecnologías son de recién apari- 16) KDnuggets. KDnuggets. [Online] 2002.
ción, solo reflejadas en pocas publicaciones, lo que http://www.kdnuggets.com/polls/index.html.
proporciona una gran novedad a la investigación. 17) OSVDB. Open Source Vulnerability Data
Se demostró la necesidad de realizar una metodo- Base. [Online] 2010. http://www.osvdb.org.
logía en la que se incluyeran elementos de Análisis
de Riesgos y procesos de Minería de Datos. La 18) Anley, C. (More) Advanced SQL Injection.
integración de procesos de Análisis de Riesgos con 2002.
Técnicas de Minería de Datos; dan como resultado 19) —. Advanced SQL Injection In SQL Server
una metodología para mitigar inyecciones SQL, que Applications. 2002.
no tiene precedente en esta área del conocimiento. 20) Cano, Jeimy. Evaluación de las
Predicciones en Seguridad de la
Información para el 2009 y el Riesgo de las
4. REFERENCIAS BIBLIOGRÁFICAS
Predicciones para el 2010. [Online] 2010.
1) NetMediaEurope. channelbiz. [Online] 21) Clarke, Justin. SQL Injection Attacks and
Agosto 6, 2012. http://www.channelbiz.es/. Defense. 2008.
2) WASC. Web Application Firewall Evaluation 22) Huerta, José B. Nociones básicas de Data
v1.0. 2006. Mining - José B. Huerta P. - Consultor de
3) ModSecurity. ModSecurity. [Online] 2011. Datos. [Online] [Cited: Junio 21, 2012.]
www.modsecurity.org. http://www.josebhuerta.com/index.htm.
4) virusinformatico.net. 2011. 23) LAROSE, DANIEL T. DISCOVERING
virusinformatico.net. [En línea] 2 de Febrero KNOWLEDGE IN DATA. 2005.
de 2011. [Citado el: 14 de Junio de 2012.] 24) Lin, T.Y. SECURITY AND DATA MINING.
http://virusinformatico.net/. 1996.
5) GREENSQL. greensql.org. [Online] 2011. 25) Olson, David L. Advanced Data Mining

“Informática 2013”
Thompson Martínez, Rogfel. | “BASE DE CONOCIMIENTO PARA FILTRAR ATAQUES DE INYECCIONES SQL”

Techniques. 2008. 5. SÍNTESIS CURRICULARES DE LOS AU-


26) OSVDB. http://www.osvdb.org. [Online] TORES
2010. El autor se ha titulado Master en Cibernética Aplicada. Mención
27) Racciatti, H. M. Técnicas de SQL Injection: Minería de Datos en el Instituto Cibernético, Matemático y Físico
(ICIMAF). Posee las publicaciones de: ―Análisis de Inyecciones
Un repaso. 2002.
SQL con Técnicas de Minería de Datos‖ Segurmática 2010;
28) Tori, Carlos S. Hacking Ético. 2008. ―Propuesta De Herramienta Para Mitigar Ataques De Inyecciones
SQL Con Técnicas De Minería De Datos.‖ ICIMAF 2011. Es
29) Vallejos, S.J. Trabajo de Adscripción coordinador del Grupo de Investigación de Seguridad Informática
Minería de Datos. 2006. de la Universidad de Ciencias Informáticas.

“Informática 2013”
TCA2013 1

SIMULACIÓN DE LA NAVEGACIÓN DE LOS ROBOTS


MÓVILES MEDIANTE ALGORITMOS DE APRENDIZAJE POR
REFUERZO PARA FINES DOCENTES.
Autor: Armando Plasencia Salgueiro

Instituto de Cibernética, Matemática y Física (ICIMAF), Agencia de Energía Nuclear (AENTA).


Calle 15 N0 551 e/ C y D, Vedado, Plaza de la Revolución, Ciudad de La Habana, Cuba, teléfono
832-0319 C.E.: armando@icimaf.cu

Resumen— Como apoyo al curso de “Aprendizaje automático” fundamental en la navegación de los robots móviles. Estos
de la Maestría de Cibernética Aplicada se propone una práctica deberán ser capaces de adaptar sus habilidades de forma que
de laboratorio sobre Aprendizaje por refuerzo, consistente en la puedan reaccionar adecuadamente en un medio externo
simulación de la navegación de un robot utilizando el algoritmo complejo, desconocido y dinámico. Un buen método para
de Q-learning. Para ello se brinda la concepción, los fundamentos
alcanzar este objetivo es el aprendizaje por refuerzo (RL)
teóricos del aprendizaje por refuerzo y se propone la simulación
del Robot RICIMAF desarrollado en el Instituto de Cibernética,
debido a que no es necesario el conocimiento completo del
Matemática y Física con un simulador de Robótica. Así se logra entorno y permite al robot aprender en línea.
una mejor comprensión del tema de Aprendizaje por refuerzo El aprendizaje automático es un término tomado del estudio
durante la docencia del curso. del aprendizaje de los animales y también está relacionado con
la teoría de los autómatas de aprendizaje de control
automático. El aprendizaje automático puede ser utilizado para
Palabras Clave — Robótica, aprendizaje por refuerzo, conocer las salidas desconocidas deseadas al dotar a los robots
algoritmo Q-learning, práctica de laboratorio. autónomos de una evaluación adecuada de su accionamiento y
también puede ser utilizado para realizar el aprendizaje en
línea de los robots. El aprendizaje en línea y la adaptación son
I. INTRODUCCIÓN características deseables para cualquier algoritmo de
En la Maestría “Cibernética Aplicada”, mención Minería de aprendizaje de un robot que opera en entornos cambiantes y no
Datos, se imparte el curso “Aprendizaje Automático”. Uno de estructurados donde los robots exploran su entorno para
los temas a impartir es el de los algoritmos de Aprendizaje por recolectar suficientes ejemplos y adquirir la experiencia
refuerzo, sin embargo, a pesar de su fácil comprensión necesaria. En un medio exterior complejo, este requiere
intuitiva, se hace difícil el que los fundamentos de los mismos realizar un aprendizaje en línea mediante la interacción con el
sean asimilados en su concepción teórica y práctica por mundo real.
carecer de una práctica de laboratorio que permita diseñar y En este artículo se describirán los fundamentos y la
ejecutar los mismos en un ejemplo práctico. Las búsquedas metodología para la práctica de laboratorio consistente en el
realizadas en Internet de prácticas en cursos similares no han desarrollo de una red neuronal basada en una arquitectura de
arrojado resultados satisfactorios. aprendizaje por refuerzo y su aplicación para el aprendizaje de
Una de las aplicaciones más generalizadas de los algoritmos la evasión de obstáculos. La estructura del artículo es la
de aprendizaje por refuerzo es la navegación de robots móviles siguiente, primero se dan los fundamentos y la concepción del
autónomos. Si bien es cierto que la navegación de robots aprendizaje por refuerzo, posteriormente se describe la
reales con el empleo de estos algoritmos es un proceso costoso arquitectura de una red neuronal de aprendizaje por refuerzo
por la necesidad de realizar muchas iteraciones para obtener (RLNN) y la tarea de evasión de obstáculos basada en esa
una salida adecuada existen las herramientas de simulación arquitectura. Finalmente se proponen las herramientas para
adecuadas que permiten ejecutar estos algoritmos con realizar la simulación y los resultados esperados acorde con la
resultados cercanos a los reales y con un muy inferior costo, literatura consultada.
por lo que esta puede ser una opción viable.
Entonces, para darle solución al problema se propone en este
trabajo describir las ideas, algoritmos, los programas y el II. MATERIALES Y MÉTODOS
empleo de la simulación de robots móviles autónomos que El aprendizaje por refuerzo es una técnica de aprendizaje
permitan facilitar a los estudiantes la comprensión y la basada en prueba y error. En ella hay un decisor, denominado
aplicación práctica de estos algoritmos lo que deberá redundar agente el cual es colocado en un medio exterior (ver figura 1),
en una mejor calidad del proceso docente. el cual puede ser un laberinto para el robot. En cualquier
La investigación de los robots móviles autónomos tiene la momento, el medio está en un estado determinado que es uno
finalidad tanto para la comprensión del comportamiento dentro del conjunto de estados posibles, ejemplo el
inteligente como para la construcción de sistemas que exhiben movimiento de un robot en las direcciones posibles sin chocar
comportamiento inteligente. El evitar los obstáculos es la tarea
TCA2013 2

con las paredes. Una vez que una acción es tomada cambia el sensores. En el caso de que un robot se mueva en una
estado. habitación, este puede no conocer su posición exacta, ni la
posición exacta de los obstáculos, ni la posición objetivo por
lo que deberá tomar decisiones a partir de la información
parcial aportada por sus sensores ultrasónicos.
La política π define el comportamiento del agente y es una
representación de los estados del medio exterior y las
acciones: La política define la acción a ser tomada en
cualquier estado. Off-policy se denomina el método en el cual
el valor de la próxima mejor acción se realiza sin la
intervención de ninguna política. On-policy es cuando se
Figura 1. El agente interactúa con el medio. En cualquiera de emplea una política para determinar la próxima acción.
los estados del medio, el agente toma una acción que cambia el Las secuencias de las acciones desde el inicio hasta un
estado y devuelve una recompensa [Alpaydin, E., 2010] estadofinal es un episodio (episode) o una prueba (trial)
La obtención de un balance entre exploración/explotación es
La solución de la tarea requiere de una secuencia de acciones, uno de los problemas más difíciles del RL para el control. La
entre las cuales está la realización de la realimentación, política π utilizada determina el balance entre la exploración
raramente en forma de recompensa y solo cuando la secuencia del medio exterior y la explotación de lo ya encontrado, pero
completa es consumada. posiblemente esta sea una solución sub-óptima. Con la
La recompensa define el problema y es necesaria si queremos búsqueda aleatoria se alcanza una exploración máxima
un agente que aprenda. El agente aprendiz aprende la mejor mientras una política voraz da una explotación máxima
secuencia de acciones para un problema donde el “mejor” es tomando siempre la acción que tiene el mayor valor.
cuantificado como la secuencia de acciones que tiene una Para explorar, uno de los métodos más utilizados es la
mayor cantidad de recompensas acumuladas. Tal es el exploración (también llamada exploración
escenario del aprendizaje por refuerzo (RL). distribuida semi-uniforme) en donde con una probabilidad Є
Con relación a los métodos tradicionales, este se diferencia en seleccionamos una acción aleatoriamente uniforme entre todas
varios aspectos. Al RL se le llama “Aprendizaje con un las acciones posibles (arbitrariamente) utilizando una
crítico” lo cual es lo contrario al aprendizaje con un maestro distribución probabilística aleatoria y con una probabilidad de
que es lo que teníamos en el aprendizaje supervisado. Un 1-Є seleccionamos la mejor acción a utilizar. Este método es
crítico se diferencia de un maestro en este no dice que hacer un método de exploración indirecta en el sentido que no utiliza
sino cuan bien se ha accionado en el pasado; el crítico nunca ninguna información de una tarea en específico. No se quiere
informa por adelantado. La realimentación del crítico es continuar explorando indefinidamente pero si comenzar a
insuficiente y cuando llega, llega tarde. Esto conduce al sacar el máximo beneficio una vez que hemos realizado una
problema de “asignación de créditos”. Después de tomar exploración suficiente. Para ello, se comienza con un valor
varias acciones y obtener la recompensa, deben valorarse las alto de Єy gradualmente este va decreciendo. Necesitamos
acciones individuales realizadas en el pasado y encontrar los entonces estar seguros que la política es soft, o sea que la
movimientos que nos condujeron a ganar la recompensa para probabilidad de seleccionar cualquier acción a є A en estados s
registrarlas y “recordarlas” más tarde. En esencia, lo que є S es mayor que 0.
realiza un programa de aprendizaje por refuerzo es que Si la recompensa y el resultado de las acciones son no
aprende para generar un “valor interno” para los estados deterministas entonces tenemos una distribución probabilística
intermedios o acciones en términos “conociendo” que tan bien para la recompensa p(rt+i|st,at) de cuyas recompensas se toman
ellos nos están conduciendo al objetivo y como adquirir una muestras, y hay una distribución probabilística para el próximo
recompensa real. Una vez que el mecanismo de recompensa estado p(st+1|st,at). Esto nos ayuda a modelar la incertidumbre
interna aprende, el agente puede tomar una acción local para en el sistema que puede ser debida a fuerzas que no podemos
maximizar el mismo.El conocimiento se almacena en una tabla controlar en el medio exterior debido a la falta de
que contiene una estimación de la recompensa acumulada para conocimiento sobre el medio. Por ejemplo podemos tener un
alcanzar el estado objetivo desde cualquier estado inicial. robot defectuoso con determinados fallos que conlleva a no ir
La solución de la tarea requiere de una secuencia de acciones y a la dirección deseada y por consiguiente desviarse, o avanzar
desde esta perspectiva se puede utilizar un proceso de decisión menos o más de lo deseado.
de Markov para modelar el agente. La particularidad es que es En tal caso tenemos que
que en el caso de los modelos de Markov hay un proceso
externo que genera una secuencia de señales, por ejemplo el
habla, las cuales observamos y modelamos. En este caso sin (1)
embargo, es el agente el que genera la secuencia de acciones. Cuando la recompensa no es inmediata para cada estado de
En ocasiones, tenemos un proceso de decisión de Markov transición, las recompensas necesitan propagarse de alguna
parcialmente observable en los casos en que el agente no forma “hacia- atrás” (backwards) a través del histórico de los
conoce su estado exactamente. Este deberá inferir con una estados. Esto es realizado por los métodos de diferencia
cierta indeterminación mediante la observación utilizando temporal (TD) bajo la suposición de que los estados
TCA2013 3

temporalmente consecutivos deberán tener valores más


cercanos. La principal ventaja de los métodos TD sobre otros
métodos de RL es que ellos actualizan el valor de la función
con cada estado de transición, no solamente después de las
transiciones resultantes de una recompensa directa. Los
métodos TD son los métodos de RL más utilizados.
No podemos hacer entonces en este caso una misión directa a
partir de un mismo estado y acción, por lo que podemos
recibir diferentes recompensas o movernos a diferentes
próximos estados. Lo que se hace entonces es hallar un
promedio de la marcha. Esto se conoce como el algoritmo de
Q-learning, que es un algoritmo TD que utiliza los valores de
estado-acción más que los valores de estado. En su forma más Figura 4. El algoritmo Sarsa, que es una versión on-policy de
simple, enun aprendizaje de un solo paso Q-learning. Los Q-learning[Alpaydin, E., 2010]
valores de acción son actualizados de acuerdo con la
expresión: El método más popular de aprendizaje por refuerzo es Q-
learningdebido a que su formulación es simple y además
resuelve problemas sin crear un modelo durante la interacción
(2) con el entorno. La recompensa acumulada de cada par estado-
Los valores son acción Q(s,a) se actualiza en cada iteración mediante la
muestras de instancias para cada par y deseamos ecuación siguiente[Guash R. et al., 2009]

de para converger a su mediana. Como es usual η


decrece gradualmente en el tiempo para su convergencia y se
ha demostrado que este algoritmo converge a un valor óptimo
de Q* valores (Watkins y Dayan 1992). El seudocódigo de este (3)
algoritmo se da en la figura 3. Donde Q(s,a) es el valor esperado al realizar a en el estado s, r
es la recompensa, α es el factor de aprendizaje que controla la
convergencia del algoritmo y γ es el factor de descuento. El
factor de descuento da más valor a las recompensas obtenidas
en estados cercanos que a las correspondientes a estados más
alejados del estado actual. Si la función recompensa satisface
ciertas propiedades, el factor de descuento puede ser omitido
(γ = 1). La acción a con el valor Q mayor en el estado s es la
mejor acción hasta el instante t.
Este algoritmo [Hatem M. et al., 2008] se basa en tres
funciones principales, una función de evaluación, una función
Figura 3. Algoritmo Q-learning el cual es un algoritmo de de consolidación (strengthening) y una función de
diferencia temporal off-policy [Alpaydin, E., 2010]. reforzamiento (reinforcing). La figura 5 muestra el modelo
Este es un método off-policy ya que el valor de la mejor general para los algoritmos de aprendizaje por refuerzo con Q-
próxima acción es utilizado sin que exista una política de learning.
acción, lo que significa que el valor de la función converge sin
importar que política sea utilizada, bajo la condición de que la
razón de aprendizaje es lo suficientemente pequeña y que
todos los pares estado-acción continúan siendo actualizados.

La versión on-policy de Q-learning es el algoritmo Sarsa cuyo


seudocódigo se da en la figura 4.

Figura 5. Modelo general para los algoritmos con aprendizaje


reforzado mediante Q-learning [Hatem M. et al., 2008].
TCA2013 4

Función de evaluación. problemas que incluyen variables de estado de valores


La función Q se encarga de evaluar el estado del medio continuos.
exterior y la acción realizada por el agente. Desde el estado La generación de la función Q es realizada por una red
actual del medio s que es observado por el agente se realiza neuronal del tipo MLP para almacenar Q, en donde las
una acción basada en el conocimiento disponible dentro de la entradas son leídas por los sensores asociados con el robot en
memoria interna (este conocimiento es almacenado en forma sus tres lados, dándole una percepción de medio, y el vector
de valor de utilidad con un par “Estado - acción” de sus posibles acciones (giro a la izquierda, hacia adelante y
Función de reforzamiento giro a la derecha). La selección de la acción que el agente tiene
Después de ejecutada la acción por el agente en su medio
que realizar es una función denominada selección de función.
aparece la función de reforzamiento R proporcionada por cada
La figura 6 muestra la estructura de aprendizaje por
nuevo estado s´, r es una señal que puede ser de recompensa o
refuerzo basada en una red neuronal artificial.
castigo. Esta señal usualmente toma un solo valor 1, -1 o 0 la
cual es utilizada para actualizar la función para ajustar la
función Q-valor asociada con el par “Acción de estado”.
Los valores de [FRÄMLING K., 2002] las funciones son
denominados generalmente por Q(s,a), donde a є A. En las
aplicaciones de control, el objetivo del RL aprender una
función acción-valor que permita al agente emplear una
política que sea tan cercana a la óptima como sea posible. Sin
embargo, debido a que las acciones-valores son inicialmente
desconocidas el agente primero tiene que explorar el medio Figura 6. Estructura de un aprendizaje por refuerzo basada
exterior para conocerlo. en una red neuronal artificial [Hatem M. et al. 2008].
Función de actualización. Generación de la función Q con una red neuronal
Esta función utiliza el valor de reforzamiento para ajustar el artificial.
valor asociado con el par “Estado-acción” el cual ha sido La generación de la función Q puede realizarse por una
completado. tabla en la cual cada celda se corresponde a una aproximación
En principio este debe de explorar aleatoriamente el entorno a de la función Q para una configuración de los pares
través de un gran número de iteraciones hasta que Q-learning estado/acción. Esta suposición limita considerablemente el
converja a una función óptima, entonces podemos utilizar una tamaño del problema a resolver, de hecho muchos problemas
política óptima definida por: reales de la robótica tienen un tamaño grande. Una
aproximación innovadora a la generación de la función Q en el
caso de los espacios grandes es la utilización de las redes
(4) neuronales. La aproximación de la función Q es alcanzada
Sin embargo, durante el aprendizaje el agente debe de explorar utilizando redes neuronales artificiales con backpropagation.
mediante la realización de diferentes acciones. Una vía es Para está práctica de laboratorio, la red neuronal artificial
seleccionar las acciones de acuerdo a la distribución seleccionada es el perceptron multicapa, la cual se inicia como
probabilística de Boltzmann un estado del medio y sus posibles acciones, una capa
P(b|S) = eQ(S,b)/T/ΣaєAeQ(S,a)/T (5) conteniendo nh neuronas ocultas y una neurona de salida que
Donde T es un parámetro que determina la probabilidad de maximiza la función Q. La función de activación de todas las
seleccionar acciones no voraces. Este decrece lentamente neuronas es una función sigmoide. En la Figura 7 se muestra la
durante el aprendizaje para hacer la política más voraz. generación de la función Q con una red neuronal artificial del
tipo MLP para Q-learning.

III. RESULTADOS Y DISCUSIÓN


Arquitectura del sistema de aprendizaje por refuerzo.
El propósito de esta concepción es tener un sistema de
aprendizaje que permita al robot moverse en un medio que le
es totalmente desconocido en cuando a evitar los obstáculos
existentes.
La generalización en el RL está basada en la idea de que
una acción que es buena en algún estado es probablemente
también buena en estados similares. Varias técnicas de
clasificación han sido utilizadas para identificar estados
similares. Algunos tipos de redes neuronales artificiales
(ANN) son utilizadas típicamente para la generalización. Las
ANN pueden manipular las descripciones de estado, no
solamente las discretas. Por ello ellas se adaptan bien a los
TCA2013 5

Función Selección-Acción
La red neuronal nos permite generar la función Q. El
conjunto de las posibles acciones esta dado por:
- a1: acción de girar a la izquierda
- a2: Ir hacia adelante
- a3: Acción de girar a la derecha.
La selección de la acción que el robot tiene que ejecutar está
basada en la política de Exploración/explotación (EEP), por
esa razón e utiliza el método voraz (ε – greedy) el cual
consiste en la selección de una acción de “voracidad” con una
probabilidad de ε y para seleccionar una acción aleatoria con
una probabilidad de 1 – ε
- p Є [0.1] un número aleatorio
- Si p< ε a “Exploración” donde a є A de todas las
acciones posibles.
- Si p>ε se selecciona
Figura 7. La función Q con una red neuronal artificial del
tipo MLP para el Q-learning.[Hatem M. et al. 2008].
(10)
Aprendizaje de las ANN
La red neuronal se basa en la actualización y ajuste de las Medio exterior
matrices de peso de una red neuronal utilizando la ecuación de La lectura del estado del medio exteriores realizada a través
actualización de un algoritmo clásico de Q-learning y el de los sensores que son colocados a tres lados del robot. Dos a
algoritmo de Back propagation. la izquierda, dos a la derecha y tres al frente. Los sensores son
La capa de salida del tipo de detección de proximidad (ultrasónicos). El ángulo
Para la matriz de peso de apertura de cada sensor varía entre –π/12 y π/12. El vector
de estado S es seleccionado de forma tal de obtener
(6) información sobre la existencia de obstáculos a los tres lados
Para los vectores de estado tenemos del robot.
Este vector está compuesto de siete variables binarias si
(7) donde i = 1,… 7. La selección de estas variables están hechas
Donde: de forma obtener cualquier información de cualquier cosa, por
Qobjetivo es una simplificación de la ecuación de optimización ejemplo, si si = 1, entonces hay un obstáculo cerca del robot, si
de Bellman la cual se da por la fórmula siguiente: si = 0 no hay obstáculos cercanos.
La figura 8 muestra el estado del medio exterior que da
valor al vector de estado S, tal que S = [1,1,0.0,0.0.0].
(8)
f: son las funciones de activación de las neuronas en la capa
de salida.

: Valor de la función estado/acción


correspondiente a la acción realizada.
S : estado del medio
La capa oculta
Para la matriz de pesos

(9)
Donde:
f: son las funciones de activación de las neuronas en la capa
Figura 8. Estado del medio exterior [Hatem M. et al. 2008].
de oculta.

: Valor de la función estado/acción Función de refuerzo.


correspondiente a la acción realizada. Para cada estado en el cual el robot se encuentra, se realiza
S : estado del medio una evaluación de la acción que se realiza por una señal
Estos cambios de los valores para la matriz de pesos y el conocida como señal de refuerzo. Esta función de refuerzo
vector de la desviación (sesgo) están presentes si la señal de permite al robot explorar su entorno y esta señal está
reforzamiento es : -1 o 0. relacionada con los valores de los sensores de medición sobre
TCA2013 6

la presencia o ausencia de obstáculos en las tres direcciones, (1)-Initialize random weights W of the neural network;
izquierda, delante, derecha, lo que representa el estado del
medio exterior. El valor de esta función o la señal de refuerzo (2) Give the initial position of the robot
está dada por: [(Xr(0),Yr(0),θr(0)];
r = - 1 si el robot choca con un obstáculo, 0 en otros casos,
+1 el robot avanza. Fork=1toiterationk
Resumiendo, los procedimientos de aprendizaje a seguir
para el algoritmo Q-learning se pueden enumerar de la forma (3)-Reading the State of the environment by the seven
siguiente: sensors (L,A, R);
1. Inicialización de la red neuronal.
2. Inicialización del sistema móvil autónomo del robot. (4)For a fixed state, calculation of the Q-function by the
3. Obtener el estado actual neural network for the three possible actions (TL,Ar,TR);
4. Obtener Q(S,b) para cada acción mediante la
sustitución del estado corriente y la acción en la red (5)-Determination of the optimal action is action which is
neuronal the maximum value of Q (optimal_Action->Max(Q));
5. Determinar una acción acorde con la ecuación: acción
= max(Q(S,b)) (6)-Run the optimal with probability ε; or random action
6. EL robot se mueve y obtiene el estado actual. with probability1-ε
7. Si falla (se produce la colisión), se genera el refuerzo =
-1 y regresa al estado de inicio de nuevo. (7)Reading the new state St+1 of the environment through
8. Generar Qtargetde acuerdo con la ecuación: sensors the Seven(G,A,D);
Qtarget(S,b) = g(S,b,y) + γmaxaєAQ(y,b)
Utilice Qtargetpara entrenar la red como se muestra en la (8)-Reinforcement;
Figura 9.
9. Repetir 3-8 hasta que el robot aprenda. (9)-Test of Reinforcement

Ifr=- 1(there is an obstacle)

(1)-Update weights and biases of the neural network with


the formula of Q-Learning.
Figura 9. Red neuronal para la aproximación al valor (2)-Return to the original state.
objetivo Q [Huang B. et al. 2005].
Endif
Modelo del robot
RICIMAF, el tipo de robot seleccionado tiene un radio entre (10)–ε =ε*0.99
ruedas de R. Este robot opera con dos ruedas independientes To decrease gradually;
separadas por una distancia L. En la figura 10 se muestra este
tipo de robot. End For

Metodología para la simulación.


Para realizar la simulación se propone utilizar la
herramienta V-REP y programar en Java obteniendo un
entorno gráfico aceptable, Si se desea tener más libertad en el
código Java se puede utilizar la herramienta de simulación
Simbad. Si se quiere programar tener un entorno físico de alta
fidelidad y se desea ejecutar el código en C# se propone la
utilización del Microsoft Robotics Development Studio en su
versión 3 si se tiene el sistema operativo XP y la versión 4
para Vista, Windows 7 y Windows 8.
En el entorno de simulación, debemos dejar el robot a la
deriva en el medio exterior de forma tal que este pueda
Figura 10. Esquema similar al Robot RICIMAF [Hatem M. aprender las habilidades para evitar los obstáculos. Deberá
et al. 2008]. realizarse la comparación entre un aprendizaje por RL normal
Las ecuaciones cinemáticas del robot RICIMAF se pueden y un RLNN.
encontrarse en [Pozo A., 2001] Para obtener una gráfica similar, considere que cada corrida
Algoritmo Q-learning con redes neuronales artificiales.
TCA2013 7

(epochs) incluye 1000 pasos, y un paso consiste en un par de realización de la simulación con algunas de las
observación-acción. Al final, el robot deberá moverse en un herramientas puestas a disposición de los estudiantes
entorno sin experimentar ninguna colisión. (V_REP, Simbad o MRDS) y comprobar las ventajas del
algoritmo RLNN sobre el RL simple.

REFERENCIAS
[1] [1] Huang B. et al. Reinforcement Learning Neural Network to the
Problem of Autonomous Mobile Robot Obstacle Avoidance.Proceedings
of the Fourth International Conference on Machine Learning and
Cybernetics, Guangzhou, 18-21 August 2005 (hybrid&fuzzy/NN-
Q.pdf).
[2] [2] Hatem M. et al., Simulation of the navigation of a mobile robot by
the Q Learning using artificial neuron networks. University Hadj
Lakhdar of Batna-Algeria-Faculty of Engineering Department of
Electronics. 2008 (simulación/81.pdf)
[3] [3] Alpaydin, Ethem. Introduction to machine learning. 2010
Massachusetts Institute of Technology.
[4] [4] Heaton J. Introduction to Neural Networks for Java. Second
Edition.Heaton Research, Inc. 2008.
(a) Número de colisiones del robot con obstáculos. [5] [5] Heaton J. Introduction to Neural Networks for C#, Second Edition.
Heaton Research, Inc. 2008.
[6] [6] FRÄMLING K. Reinforcement Learning in a Noisy Environment:
Light-seeking Robot. Laboratory of Information Processing Science
Helsinki University of Technology, 2002 (generals/NNA04final.pdf).
[7] [7] Guash R. et al., Desarrollo de un sensor de visión para aprendizaje
por refuerzo en robótica. Universidad de Alicante. 2009
(paper_161.pdf)
[8] [8] Pozo A. MODELO CINEMÁTICO DEL MINI ROBÓT MÓVIL
RICIMAF. 2011
[9] [9] Pozo A. et al. MODELO CINEMÁTICO DINÁMICO DEL MINI
ROBÓT MÓVIL RICIMAF. 2011.

Armando Plasencia Salgueiro. Nacido en La Habana el 3 de marzo del


1956. Graduado de especialista aeronáutico y M. Sc. en Ciencias Técnicas en
la Academia Militar N.E. Shukovsky de Moscú, Rusia en 1979. Doctor en
Ciencias Técnicas por el Instituto Técnico Militar de Ciudad de La Habana,
(b) Total de recompensas en cada corrida. en 1990. M. Sc. en Gestión de Información en las Organizaciones en la UH
(2000). Se desempeñó como tecnólogo de aviación (1990), Director fundador
Figura 11. Comparación entre un algoritmo de RL normal y del Laboratorio de Investigación de Informática y Automatización (USIA)
un aprendizaje RLNN [Huang B. et al. 2005]. hasta el 2000 en la Empresa de Reparación de Aviación “Yuri Gagarin”. Jefe
del laboratorio de recopilación y análisis de datos de vuelo (Control Objetivo)
de Cubana de Aviación del 2002 al 2006. Profesor de la Maestría en Gestión
La comparación entre una RL normal y un aprendizaje de Información en las Organizaciones, Cátedra UNESCO, de la Universidad
RLNN muestra que el número de colisiones del robot con de La Habana del 2002 al 2010. Investigador y Jefe del Departamento de
paredes y obstáculos en cada corrida (epoch) de aprendizaje. Control Automático del Instituto de Cibernética, Matemática y Física
Se debe comparar y definir cuál de los dos algoritmos es (ICIMAF) del CITMA. Profesor y Coordinador de la Maestría “Cibernética
Aplicada” del propio ICIMAF. Jefe de los proyectos del PNCIT “Minería de
mejor. Datos para las mediciones industriales” (ya concluido), “Algoritmos de
Minería de datos para la toma de decisiones en procesos industriales con
procesamiento paralelo (Cluster y Grid) y la búsqueda especializada de
contenidos en la Web” (Proyecto no asociado de la Agencia de Energía
IV. CONCLUSIONES Nuclear y Tecnologías de Avanzada) y “Algoritmos de Control Automático y
En este artículo se describe los principios y los pasos a Modelación en Tiempo Real para Software libre” (Proyecto institucional).
Centra sus intereses de investigación en el Diagnóstico y la fiabilidad de
seguir de una aplicación de aprendizaje por refuerzo con sistemas técnicos, los Sistemas de Seguridad de los Vuelos, las Tecnologías
redes neuronales de un robot para evitar colisiones en un de la información y las Comunicaciones, la Minería de Datos, la Inteligencia
medio exterior desconocido con anterioridad. Al estudiar de negocios, la Docencia de Tecnologías y la Robótica.
el tema los alumnos de los cursos de “Aprendizaje
Automático” y de “Modelación y simulación” deberán ser
capaces de comprender teórica y prácticamente el
funcionamiento del algoritmo Q-learning mediante la
 Intente igualar las dos columnas en la última página 
TCA2011 1

Revista de Control, Cibernética y


Automatización. Concepciones para su diseño.
Autores: Elina Mylen Montero.

Claudia Amelia Rodríguez Guerra

Resumen— Con el avance de las tecnologías de la información, artículos ordenados; formalizados; publicados bajo la
las publicaciones científicas han alcanzado un gran auge a nivel responsabilidad de una institución, bien comercial o científico-
mundial, siendo las revistas digitales online en Internet un factor técnica, que certifique la calidad de los contenidos, y
significativo. La relación costo-beneficio de la impresión con el
distribuidos exclusivamente haciendo uso de los servicios y
empleo de las tecnologías de información (desktop publishing)
llegó a un punto en el que la producción electrónica se hizo valor añadido que aportan las redes teleinformáticas tales
obligatoria y generalizada, aun cuando persiste la publicación como Internet.
impresa y su distribución en papel como producto final. Cuba
cuenta con 110 revistas digitales certificadas por el CITMA con el PUBLICACIONES SERIADAS
objetivo de crear un espacio donde la comunidad científica
cubana pueda publicar y que sus artículos sean reconocidos en sus Una publicación seriada es aquella "editada en partes
Curriculums Vitae y por jurados y tribunales de diferente índole, sucesivas, que usualmente tiene designaciones numéricas y
grados, categorías científicas. En los años 80 el Instituto de cronológicas y pretende aparecer indefinidamente". Así, se
Cibernética, Matemática y Física perteneciente al CITMA, crea consideran publicaciones seriadas a las revistas, periódicos o
una publicación seriada en formato impreso con el nombre de diarios, boletines, anuarios, directorios, memorias de
“Control, Cibernética y Automatización” que con el paso del encuentros, actas institucionales, etc. (2)
tiempo se dejo de publicar. En el presente se crea un proyecto que
tiene como objetivo rescatar dicha revista pero en formato digital.
Los principales elementos de una publicación seriada son:
Por lo que la investigación se centra en definir las concepciones
para su diseño.
Título, subtítulo, designación numérica, designación
cronológica, periodicidad, lugar de publicación, editor,
Palabras Clave —revistas digitales, Control, Cibernética y dirección postal, ISSN, y dato de indización.
Automatización.
Una de las más importantes publicaciones seriadas son las
I. INTRODUCCIÓN revistas o publicaciones periódicas. El contenido esencial de
las revistas son los artículos escritos por diferentes autores
La introducción acelerada de tecnologías para el tratamiento sobre temas relacionados con las áreas de interés de un público
de la información, el surgimiento de nuevos lenguajes y lector, anuncios sobre eventos y cartas al editor. La edición de
formatos, el desarrollo de las redes de telecomunicaciones y las revistas está bajo la responsabilidad de un editor o un
los servicios en línea asociados a ellas, y la evolución y uso grupo de editores y de un comité editorial que ayuda al editor
intensivo de la Internet, son los principales factores que han en la revisión de los artículos para su publicación.
influido en la aparición y desarrollo de las publicaciones
electrónicas. La aplicación de estas tecnologías en la industria FACTOR DE IMPACTO EN REVISTAS ELECTRÓNICAS:
de la publicación facilita la aparición de nuevos tipos de
materiales en el mercado. El número de revistas científicas a nivel mundial se estima en
más de 16.000 y no para de crecer. Sin embargo, no todas las
Una publicación electrónica es una forma superior de revistas tienen la misma calidad, por lo que los profesionales
publicación soportada en medios electrónicos y que apoyada de la información y documentación científica, investigadores y
en las posibilidades de los programas modernos para el responsables de la evaluación necesitan disponer de
tratamiento y acceso de la información ofrece vastas indicadores cuantitativos que midan su calidad y les faciliten la
facilidades de interacción hombre/publicación de manera local toma de decisiones en la selección de revistas para la
o mediante el uso de redes de comunicación. (1) formalización de suscripciones, el envío de manuscritos y la
evaluación de la actividad científica (3).
Un ejemplo concreto de esto es el surgimiento de las revistas
electrónicas, como una nueva forma de comunicación El indicador bibliométrico más utilizado para estos fines es el
científica que permiten distribuir información a miles de factor de impacto (FI), ideado inicialmente por Eugene
personas con mayor rapidez y menores costos. Garfield .El FI de una revista es el número medio de veces que
son citados en el año actual los artículos de esa revista
Partiendo de lo antes expuesto debemos referirnos entonces a publicados en los dos últimos años. Se calcula en cada revista
qué son las revistas electrónicas (RE), son aquel conjunto de estableciendo la relación entre las citas que en un año han
TCA2011 2

recibido los trabajos publicados durante los dos años II. MATERIALES Y MÉTODOS
anteriores y el total de artículos publicados en ella durante
esos dos (4, 5). METODOLOGÍA:

Los autores Edith Guerra Ávila y Jandy Alí Sánchez


licenciados de la Filial IDICT – Holguín realizaron una
REVISTAS DE IMPACTO EN LATINOAMÉRICA: profunda investigación donde se evidencia que el CITMA no
cuenta con una metodología para la creación, diseño y
Un aspecto fuertemente relacionado con la difusión de las evaluación de las revistas electrónicas. Basándose en el
investigaciones publicadas en las revistas latinoamericanas es análisis de las metodologías mas conocidas como son: Modelo
el idioma de publicación. En los últimos años, se ha creado la de evaluación según LATINDEX, borrador de normas
tendencia de transformar al idioma inglés revistas provenientes disponible en Internet Dublin Core, Criterios de selección de
de países donde el idioma inglés no es el oficial, en busca de revistas electrónicas del ISI , Sistema LILACS de la
mejorar su índice de factor de impacto. Biblioteca Virtual en Salud , Modelo SCIELO, SciELO -
Entre los países de Latinoamérica que cuentan con más de una Scientific Electronic Library Online(Biblioteca Científica
revista de impacto se encuentran Argentina, Brasil, Chile y Electrónica en Línea), Normas de calidad para las revistas
México. (6,7) electrónicas propuestas por el CINDOC, proponen algunos
Argentina cuenta con 5 revistas registradas, con factores de aspectos importantes y etapas a seguir (9):
impacto que van de 0,06 a 0,70. Dos revistas son bilingües,
dos redactadas en español y una en inglés. Tres revistas Etapa I: Organización de la idea y los contenidos disponibles a
pertenecen al área biomédica y las otras dos a disciplinas publicar en la RE.
diversas. Etapa II: Definir los recursos con que se cuentan, tecnológicos
y humanos.
Chile cuenta con 8 revistas registradas con factores de impacto Etapa III: Diseño y publicación de la RE. Momento donde se
que van del 0,10 a 2,1. Tres revistas están escritas en inglés, definen todos los aspectos referentes al formato, diseño y
dos en español y tres son bilingües. Dos revistas son del área contenido de la publicación así como tipo de formato (ASCII,
biomédica y seis son de disciplinas diversas. html, PDF).
MÉTODOS TOMADOS EN CUENTA PARA EL
Brasil cuenta con 16 revistas registradas con factores de DESARROLLO:
impacto entre 0,09 y 1,1. Seis se encuentran redactadas en el
idioma inglés, 8 son bilingües y 2 en portugués. Cinco revistas Definir:
son del área biomédica y el resto pertenecen a diversas
disciplinas. Cual es el objetivo que se desea conseguir.

México cuenta con 8 revistas registradas con factores de A que grupo objetivo va dirigida.
impacto entre 0,23y 3,2. Una se encuentra redactada en el
idioma inglés, 6 son bilingües y 1 en español. Frecuencia de publicación.

En el caso particular de nuestro país Cuba el Ministerio de Formatos (Digital o papel).


Ciencia Tecnología y Medio Ambiente (CITMA) es el
encargado de certificar y aprobar las revistas y publicaciones Quienes asumirán la tarea (Colectivo de trabajo).
electrónicas. Se han certificado hasta el momento 110 revistas
Contenido y distribución del mismo.
con el objetivo de crear un espacio donde la comunidad
científica cubana pueda publicar y que sus artículos sean ¿Propaganda y Publicidad?
reconocidos en sus Curriculums Vitae y por jurados y
tribunales de diferente índole, grados, categorías científicas.(8) Nombre de la revista, Apartados y secciones fijas de
la Revista, así como los apartados y secciones
En los años 80 el Instituto de Cibernética, Matemática y variables.
Física perteneciente al CITMA, crea una publicación seriada
en formato impreso con el nombre de “Control, Cibernética y Para empezar, podrán crearse las revistas en PDF, y si
Automatización” que con el paso del tiempo se dejo de después se decide imprimir, podrás hacerlo en
publicar. En el presente se crea un proyecto que tiene como cualquier imprenta.
objetivo rescatar dicha revista pero en formato digital. Por lo
que la investigación se centra en definir las concepciones para
su diseño.
MÉTODOS PARA LOGRAR IMPACTO EN LA REVISTA.
(10)

 Dar difusión a la revista.


TCA2011 3

 Lograr contribución tanto nacional como E-ditor 3.0.1: Potente herramienta para crear documentos,
internacional (autores reconocidos y artículos de multimedia. ...electrónicos, revistas digitales, catálogos. Corre
calidad y actualidad se publiquen en la revista). sobre los sistemas operativos Win98/98SE/Me/2000/XP.
 Publicación de artículos que permitan a la revista Permite crear publicaciones digitales. Corre sobre los sistemas
consolidarse a nivel mundial en el área de las operativos WinXP/Vista/7.
ciencias. OJS- Open Journal System: Permite la gestión de una o varias
 Hacer llegar las publicaciones a los lectores de forma revistas electrónicas, es software libre y multiplataforma.
periódica.
 Lograr una edición de artículos bilingüe (al menos en Después de un análisis realizado se escogió para el desarrollo
un comienzo y luego multilingüe) el Open Journal System (OJS) que es una solución de código
abierto para la gestión y publicación en edición electrónica de
PROCESO DE CERTIFICACIÖN DE LA REVISTA. revistas científicas. Se trata de un sistema de gran flexibilidad
para los editores de una revista que apoya en la gestión y
Para publicar una revista es necesario obtener un certificado edición, el cual se puede descargar de forma gratuita y e
de inscripción documento que legaliza la existencia de estas instalarse en un servidor web local. Ha sido diseñado para
publicaciones y autoriza su circulación. (11) reducir el tiempo y la energía dedicadas a las tareas
administrativas relacionadas con la edición de una revista, a la
1. Carta de solicitud de inscripción: dirigida al Director vez que mejora el mantenimiento de registros y la eficiencia en
de la Dirección de las Publicaciones Periódicas en los procesos editoriales. Su objetivo es mejorar la calidad
ella se solicita la aprobación para la inscripción de la académica y pública en la edición de la revista a través de una
publicación. serie de innovaciones, desde hacer más transparentes las
2. Proyecto de publicación: se encabezara como políticas de la revista a mejorar la indexación. Sus
proyecto de publicación seriada. Deben especificarse características principales son: instalación y gestión local; los
los seis puntos siguientes: titulo, objetivos y alcance, editores configuran los requisitos, secciones, procesos de
características principales, política editorial en cuanto evaluación, etc.; Envío electrónico, revisión de doble ciego, y
a publicidad, autofinanciamiento. gestión de todo el contenido; Módulo de suscripción con
3. Carta de aval: se deberá presentar una carta firmada opciones de acceso abierto, de embargo y de acceso
por el ministro del organismo al que pertenece el restringido. Indexación integral del contenido; Herramientas
centro donde se hará la publicación en la que exprese de Lectura para el contenido, basadas campos y en la elección
su conformidad y avale el proyecto que se presente. del editor; Notificaciones a través del correo electrónico y
Las publicaciones seriadas están llamadas a ocupar un posibilidad de comentarios para los lectores; Ayuda y soporte
importante lugar en INTERNET, por ser instrumentos electrónico completo y sensible al contexto; Módulo de pagos
imprescindibles en la difusión y divulgación de todo para tasas de la revista, donaciones, etc. (12)
aquello que se produce para el conocimiento público en
los diversos campos y esferas de la sociedad. Aquellas
DEFINIR SECCIONES:
que proyecten difundirse a través de INTERNET deberán
cumplir, de acuerdo con sus objetivos y perfiles temáticos, Para definir las secciones con que va a contar la revista se
los requisitos siguientes: realizó un estudio de algunas revistas de control automático
a) estar inscrita como publicación electrónica en el que poseen impacto a nivel internacional. Las revistas
Registro Nacional de Publicaciones Seriadas, analizadas fueron: Asian Journal of Control, Control
b) mantener objetividad y alto nivel profesional, Engineering Practice, Engineering Applications of Artificial
c) exponer los más genuinos valores nacionales, Intelligence, Journal of Process Control, Automática: Estas
d) dar a conocer las realizaciones más importantes y revistas cuentan entre sus principales secciones (13):
novedosas de nuestro en las diferentes esferas,
e) destacarse por su presentación formal y estética, Equipo editorial, Guías para los autores, Envío artículos,
f) cumplir rigurosamente la periodicidad prevista para la Números publicados, Alertas de nuevo contenido, Mejores
edición de cada número. artículos, Noticias, Suscripción, Artículos más citados,
Artículos más leídos.
Utilizando las ventajas de trabajar con una herramienta
HERRAMIENTAS PARA DESARROLLO: configurable como lo es el OJS y tomando de guía el estudio
realizado se definió para la revista las siguientes secciones:
Para el desarrollo de revistas digitales existen disímiles Inicio, Acerca de la revista, Área personal, Buscar, Actual,
herramientas entre ellas se pueden mencionar: Archivo.
Ikatz en Casa 2.2.0.0: Permite crear álbumes y revistas
digitales. Corre sobre los sistemas operativos
WinMe/XP/Vista/7.
TCA2011 4

III. RESULTADOS Y DISCUSIÓN En la primera edición de la revista electrónica “Control,


Se obtuvo como resultado una primera iteración de la “Revista Cibernética y Automatización” se publicó el volumen número
Control, Cibernética y Automatización” de la cual se definen uno de la misma en el cual se retoman dos de los artículos
las siguientes características: antes divulgados en su versión impresa:
Va a tener una frecuencia de publicación de dos veces al año, Una clase de control jerárquico de dos niveles para los
o sea, se va a actualizar cada seis meses y a cada usuario manipuladores y robots.
registrado en el sitio se le proporcionara vía correo un boletín Abelardo del Pozo Quintero, Ricardo Sebastian Arbide,
resumen del nuevo volumen de la revista y sus artículos. Ieroslam S. Baruj
Cuenta con cuatro secciones principales: Algoritmo recursivo para la identificación del estado de
Inicio: donde se muestra información acerca de la revista y los sistemas no lineales.
principales anuncios Antonio M Valenciano Mesa, Alberto Aguado Behar.

Acerca de la revista: Esta sección contiene información acerca Además en esta edición se tiene como objetivo publicar los
del Equipo editorial, Política de secciones, Política de acceso mejores vente artículos expuestos en el Taller de Control
abierto, Envíos online, Declaración de privacidad, Mapa del Automático de ICIMAF 2011.
sitio, Acerca de este sistema de publicación. En la imagen 1 que se muestra a continuación aparece la
interfaz de la revista.
Área personal: Le da al usuario la opción de modificar sus
datos personales dependiendo el rol que desempeñen el sitio.

Rol Opciones
Gestión del sitio
Gestor/a de revistas
Funciones administrativas

Páginas de gestión
Editor/a
Gestión Usuarios/a
Roles
Autor/a Realizar envíos.

Tabla 1: Opciones usuarios autenticados.


Buscar: Esta sección permite acotar la búsqueda por Buscar en
todas las categorías, Fecha y términos de indexación.
Imagen 1: Opciones Interfaz de la revista.
Actual: Esta sección muestra el número en curso publicado de
la revista.
IV. CONCLUSIONES
Archivo: Se muestran todos los números anteriores publicados
en la revista. La investigación realizada aportó elementos significativos para
Además existen las siguientes funcionalidades: definir las concepciones del diseño de la revista de Control,
Para el usuario que accede a la revista se da la opción de Cibernética y Automatización. Se evidencia que el desarrollo
autenticarse, en el caso necesario permite registrarse. de revistas electrónicas está muy desarrollado a nivel mundial
Se muestra una barra lateral donde existen los siguientes y que se han creado varias herramientas para facilitar y
enlaces: aumentar la calidad de este proceso, algunas de ellas tan
Notificaciones: El usuario puede visualizar de forma online factibles de utilizar como lo es el caso del OJS. Queda claro
notificaciones las cuales pueden ser de un nuevo número o que el trabajo que se ha realizado es solo un esfuerzo inicial y
anuncio creado. que aún falta mucho camino para lograr que la revista adquiera
Usuario: Aquí tiene la posibilidad de acceder o realizar valor y que permita difundir las publicaciones científicas de
transformaciones en su perfil personal. nuestros investigadores y posteriormente sea de impacto
Contenido de la revista: Se le permite al usuario realizar una internacional.
búsqueda de contenido por todo el sitio dándole la posibilidad
de utilizar varios filtros para que obtenga un resultado más AGRADECIMIENTOS
rápido y eficiente. Los autores agradecen por la cooperación ofrecida para el
Tamaño de la fuente: se puede modificar el tamaño de la desarrollo de esta investigación y de la revista de Control,
fuente. Cibernética y Automatización (CCA) a:
Información: En este punto se le brinda información al  Dr. Armando Placencia.
personal que accede al sitio.  Ing. Yusniel Hidalgo.
 Ing. Yulissa Torres Matos.
TCA2011 5

 Msc. Guillermo Álvarez Bestard. [8] Dirección de Ciencias CITMA


[9] Revistas electrónicas: Metodología, diseño, evaluación e impacto. Lic.
Jandy Alí Sánchez, Lic. Edith Guerra Ávila,Centro de Información y
REFERENCIAS Gestión Tecnológica de Holguín
[1] HECHAVARRÍA KINDELÁN, Angela. Una propuesta de concepto y [10] Isaí Pacheco Ruís Ana Luis Quintanilla Montoya, La revista de ciencias
clasificación de el Siglo XXI. San José, Costa Rica, 10-14 Marzo de marinas y su factor de impacto mundial. Ciencias marinas vol 28, num
1997. 001.
[2] PINEDA DE V., Clemencia y CAMPUZANO A., Yolanda. [11] Resolución No. 56/ 99 Sobre la inserción de publicaciones seriadas
Publicaciones seriadas. Armenia: Universidad del Quindío, 1989. 208 cubanas en INTERNET. Requisitos y Procedimientos.
p. [12] En línea Open Journal Systems _ Public Knowledge Project.html
[3] De la Cueva Martín, A.; Aleixandre-Benavent, R.; Rodríguez Gairín, J. [13] En línea:
M. Manual de fonts d’informació en ciències de la salut. Valencia: http://www.journals.elsevier.com/journal-of-process-control/
Universitat de València, 2001, ISBN: 84-370-5145-2. http://www.journals.elsevier.com/automatica/
[4] Aleixandre Benavent, R.; Porcel Torrens, A. “El factor de impacto de las
revistas científicas”. En: Trastornos adictivos, 2000, v. 1, n. 4, pp. 264- [14] http://www.journals.elsevier.com/control-engineering-practice/
271. http://www.ajc.org.tw/
[5] López Piñero, J. M.; Terrada, M. L. “Los indicadores bibliométricos y la http://www.journals.elsevier.com/engineering-applications-of-artificial-
evaluación de la actividad médico-científica. (II). La comunicación intelligence/
científica en las distintas áreas de las ciencias médicas”. En: Medicina [15]
clínica, 1992 [16] Bracho-Riquelme RL, Pescador-Salas N, Reyes-Romero MA.
[6] Pérez-Padilla R. [The uncertain future of Mexican medical journals ]. [Bibliometric repercussions of adopting English as the sole language for
Rev Invest Clin 1995; 47: 165-7 publication]. Rev Invest Clin 1997; 49: 369-72
[7] Bracho-Riquelme RL, Pescador-Salas N, Reyes-Romero MA. [17]
[Bibliometric repercussions of adopting English as the sole language for [18]
publication]. Rev Invest Clin 1997; 49: 369-72.
TCA2012 1

Diseño de un DCS para una Unidad de Destilación


Atmosférica en una refinería de petróleo.
Autores: Camilo Morales Corral, Ariel de Malas Quintana

Resumen— Este trabajo se realiza un análisis de los Sistemas regidos por estándares industriales bien definidos, tales como
de Control Distribuidos (DCS). Se comienza con el modelo IEC, XML, PROFIBUS, Ethernet, TCP/IP, OPC, ISA. Lo cual
piramidal de automatización y el concepto de integración, para facilita grandemente la selección de los componentes, reduce
llegar a definir la arquitectura de un DCS. Luego se realiza una
los costos en piezas de repuesto, posibilita futuras
comparación entre los sistemas ofertados por los fabricantes más
conocidos de equipos para la automatización de procesos. Se ampliaciones y sobre todo, aumenta la estabilidad del sistema.
realiza una comparación de los sistemas teniendo en cuenta La característica de integración vertical es la comunicación
funcionalidades y equipamientos, bajo la premisa que se trabaja de datos de forma transparente, desde el Nivel 0 hasta el Nivel
para una industria de procesos de gran complejidad, como una 4. Aquí vale destacar, la creciente convergencia entre
refinería. También se define el uso de los sistemas de alta automatización y las TICs.
disponibilidad y la necesidad de un sistema integrado de
En función de las necesidades concretas se puede elegir
seguridad y protección.
distintas arquitecturas para el sistema de automatización. Este
Palabras Clave — control automático de procesos, control modelo piramidal con gran integración es flexible y se ajusta a
distribuido, disponibilidad, seguridad. las necesidades del usuario. En los inicios de un proyecto,
basta con cubrir los tres primeros niveles para que la planta
pueda operar de forma automática. El objetivo que se persigue
I. INTRODUCCIÓN con el sistema y la envergadura del proceso tecnológico es
En una planta de procesos, el sistema de control es el entonces el que define la cantidad y distribución del
encargado de mantener los puntos de operación dentro de los equipamiento.
valores adecuados, disminuyendo la intervención directa del
operador. Para conseguir su objetivo debe contar, como II. MATERIALES Y MÉTODOS
mínimo, de un elemento que cuantifique el estado de cada una
de las variables, un elemento inteligente que basándose en A. Las diferentes arquitecturas de los sistemas de
estos valores decida qué acciones realizar, un tercer elemento automatización industrial.
que materialice dichas decisiones, y por último un canal de Una arquitectura, es un modelo y una descripción funcional
comunicación entre ellos. La instauración de este tipo de de los requerimientos y las implementaciones de diseño para
sistema es de vital importancia ya que con él viene las diferentes partes del sistema.
acompañado un aumento de la productividad y la calidad del Para un sistema automático industrial existen diferentes
producto terminado, lográndose además disminuir el consumo elementos que diferencian una arquitectura de otra. Si se
de energía y materiales. utiliza como base la uniformidad del equipamiento, las
Teniendo en cuenta que los sistemas de producción arquitecturas pueden ser divididas en heterogéneas y
continuos pueden ser vistos como una organización jerárquica homogéneas. Las homogéneas usan elementos de un mismo
en forma de pirámide con varios niveles, se hace lógico que el tipo y un mismo fabricante, garantizando al máximo la
modelo piramidal de automatización sea el más difundido. compatibilidad a nivel de interconexión entre ellos, pero si
Según la referencia [1], este modelo cuenta con cinco niveles: este no abarca una función específica no es posible
Nivel 0 Proceso, Nivel 1 Control, Nivel 2 Supervisión, Nivel 3 implementarse. Entonces la solución que más se apega al
Planificación. Nivel 4 Empresa. concepto de total integración, es el de maximizar el empleo de
Actualmente se requieren soluciones en las que se reduzca la tecnología de un fabricante y sólo recurrir a otros para
al máximo los tiempos empleados en el desarrollo de los funciones puntuales. No cubiertas por el primero o mejor
sistemas; desde el diseño hasta la puesta en marcha. Además cubiertas por otros.
de esto se necesita que el sistema cuente con una mayor Por otra parte, si se utiliza como elemento diferenciador la
disponibilidad y flexibilidad. Estas son las causas que llevan al morfología de las conexiones se agrupan en:
desarrollo del concepto de Automatización Totalmente  Centralizada. En este existe un único elemento donde
Integrada (TIA), que no es más que lograr la máxima radica la lógica de control, y a él se conectan directamente
integración, en y entre, los diferentes niveles de la pirámide de todas las señales de entrada - salida del proceso.
control.  Descentralizada. En estas las diferentes señales están
La integración horizontal conlleva a que todo el proceso de conectadas a módulos de entrada – salida que no se
producción utilice componentes de hardware y software encuentran físicamente unidos al equipo de control. Esta
TCA2012 2

solución es transparente al programa ya que las señales se


direccionan como si fueran centralizadas.
 Híbrida. Como su nombre lo indica es una mezcla de los
dos anteriores.
 Distribuida. Según [2], las características más importantes
de esta arquitectura son:
1) Distribución de funciones. Existen diversos
procesadores, cada uno de ellos especializado en una
misión concreta, por ejemplo: control, interfaz,
visualización, históricos, etc. Este es el concepto básico
de esta arquitectura.
2) Rapidez de ejecución de las funciones. Es una
consecuencia del concepto antes expuesto y es necesaria
para que el sistema actúe con periodos de segundos o
fracciones de segundos.
3) Distribución física de equipos. Brinda la posibilidad
de ubicar cerca de los sensores las interfaces de
entrada/salida, con el consiguiente ahorro de cableado.
Permiten alcanzar unos niveles de automatización más
jerarquizados y mejor estructurados.
4) Gran flexibilidad de configuración y programación.
Lo que facilita su mantenimiento, su reutilización y su
ampliación.
Para plantas grandes, con un gran número de puntos de
medición y variables a manipular, y que además abarcan una
extensa área físicamente, se ha convertido en un estándar el
Fig. 1. Configuración típica de un DCS.
empleo de los Sistema de Control Distribuido (DCS).
B. Arquitectura de un Sistema de Control Distribuido redundancia, dos servidores conectados con uno en espera.
actual ECO: Estación cliente de operación. Disponen de una
En la actualidad cada uno de los fabricantes más importantes conexión de red con los ESO. No disponen de ningún acceso
en lo que a sistema de automatización se trata, ha desarrollado directo al bus del sistema y a las EA. Su acceso a los datos del
el equipamiento necesario para poseer una arquitectura proyecto es mediante los servidores ESO.
distribuida. Brindando equipos inteligentes que usan
igualmente buses de comunicación, que transmisión a
corriente. Esta modularidad y amplia gama de equipamiento BI: Bus de instrumentación. Permite una comunicación
hacen que los sistemas sean escalables desde una pequeña bidireccional entre un maestro de bus y los instrumentos de
aplicación, hasta complejos sistemas de alta disponibilidad. medición. Al mismo tiempo, el conductor blindado de dos
Honeywell desarrolló el Experion PKS, mientras que hilos suministra energía eléctrica para el funcionamiento de los
FOXBORO tiene su I/A, YOKOGAWA el CENTUM VP, y instrumentos.
SIEMENS el PCS7. Todos estos sistemas cuentan con la BP: Bus de periferia. Generalmente, en un sistema de
configuración típica de un DCS que se muestra en la figura 1. automatización varios ramales de BI están conectados a través
Donde: de unidades de acoplamiento al BP, por ser este más rápido.
EA: Estación de automatización. Puede incluir la fuente de Al mismo está conectado también el sistema de control.
alimentación (PS), la unidad central de procesamiento (CPU), BS: Bus de sistema. Este bus se emplea para conectar las
el procesador de comunicaciones (CP) y módulos de diferentes unidades de control que pueden existir en una planta
entrada/salida. de procesos a los servidores. La estación de ingeniería se
EI: Estación de ingeniería. En ella se crean los proyectos, ya conecta a este bus.
que está equipada con las herramientas de ingeniería y tiene BE: Bus de estaciones. Interconecta las diferentes estaciones
acceso a todas las estaciones de automatización y operador. clientes de operación a los servidores. A él también se conecta
ESO: Estación servidor de operación. Tienen comunicación la estación de ingeniería.
con las EA y estación cliente de operación (ECO). Almacenan
los datos del proyecto, como las imágenes y archivos de datos C. Sistemas automáticos de alta disponibilidad
y los ponen a disposición de los clientes. Siguiendo la Los fallos del sistema ocasionan por un lado paros
jerarquía de la planta se pueden conectar varios servidores en improductivos, normalmente costosos, y, por otro, fuertes
caso de que se necesite. En este nivel puede existir gastos para la reanudación del servicio. La presión que ejercen
TCA2012 3

estos costos, junto con requisitos en cuanto a la seguridad del cuenta las condiciones que esté enviando al proceso el DCS,
personal, la maquinaria, el medio ambiente y el proceso, es responsabilidad del sistema de enclavamiento. Este sistema
confieren una importancia creciente a la disponibilidad de los de acuerdo a los nuevos estándares equivale al Sistema
sistemas en uso. Instrumentado de Seguridad (SIS). Este sistema cuenta con:
Algunos de los principales campos de aplicación de los
sistemas de automatización de alta disponibilidad son los  Iniciadores (presostatos, interruptores de nivel, detectores
siguientes: generación y distribución de energía, química y de gases, etc) o sensores que detecten variables críticas
petroquímica, petróleo y gas, refinerías, industria del proceso, independientes a los utilizados por el DCS.
farmacéutica, centrales abastecedoras y depuradoras de aguas,  Elementos de acción final (válvulas de corte, válvulas
entre otros. automáticas actuadas por medio de electroválvulas, etc).
La alta disponibilidad en los sistemas de automatización se  Solucionador lógico (Logic solver). Elemento de
consigue mediante una estructura redundante, que hace posible hardware y aplicaciones de software, que desarrollan la
que se pueda seguir controlando el proceso de producción lógica del sistema.
incluso si se presenta una avería. Para lograr que la  Consola de operación. En ellas el operador puede acceder
redundancia sea lo más completa posible es necesario que a los sistemas de enclavamiento o funciones
abarque cada uno de los elementos del sistema. instrumentadas de seguridad y actuar sobre ellas).
La alimentación eléctrica existente en la industria  Pueden existir elementos tales como pulsadores,
normalmente es de 110 – 240 VAC, o superior, y la tensión conmutadores y lámparas de señalización.
necesaria para los diferentes equipos es de 24 VDC. Por esta
razón se hace necesario conectar fuentes de alimentación. Además de estos elementos básicos, en ocasiones es
Para lograr la redundancia a este nivel se debe conectar una necesario disponer de una derivación (by-pass) para iniciar la
fuente más, en paralelo a las fuentes necesarias. Con esto se operación. Esto se debe a que existen elementos iniciadores
logra suministrar la corriente necesaria en caso de que una que impiden la puesta en operación de un equipo si no se
fuente falle. Además se debería conectar un banco de baterías dispone de un medio para anularlo temporalmente. Como
de respaldo (back up) para alimentar los armarios en caso de ejemplo: un equipo que esté fuera de servicio que va a ser
que falle la alimentación eléctrica. puesto en operación va a dar señal de bajo caudal y no lograría
En el equipo donde se realiza el control, las modalidades se arrancar nunca.
diferencian en la duración del tiempo de conmutación. Esto no Debe existir también un botón de paro de emergencia, el
es más que el tiempo en que se pasa del sistema maestro a la cual debe estar accesible al operador, pero protegido para
estación de reserva, y pueden ser: tiempo de conmutación evitar activación por accidente. Su función es abrir el circuito
largo (Warm-Stand-by, ≥ 1 s) y tiempo de conmutación corto de alimentación eléctrica a los elementos de acción final, por
(Hot-Stand-by, <100 ms). El más empleado es este último. En lo que lleva la planta a una posición segura. Este prevalece
él, ambos subsistemas están siempre trabajando, y si se sobre cualquier derivación.
produce un fallo, el equipo intacto sigue controlando el
proceso. El sistema operativo es el encargado de realizar III. RESULTADOS Y DISCUSIÓN
autónomamente todas las funciones complementarias, tales
como: intercambio de datos, reacción ante fallos (conmutación A. Descripción del proceso de destilación atmosferica
al equipo de reserva), sincronización de ambos subsistemas, y La figura 2 muestra un esquema típico para una Unidad de
autochequeo. Destilación Atmosférica (UDA), en una refinería de petróleo.
El sistema debe contar con dos vías de comunicación: una En ella el crudo es precalentado (1), desalado (2) y entra al
principal y otra de reserva. Cada vía debe estar compuesta por tren de precalentamiento (3) donde adquiere calor de otros
un cable independiente, y en cada equipo se debe contar con reflujos más calientes. De aquí pasa a un horno (4) donde
una interfaz capaz de atender cada vía. eleva su temperatura hasta los 675 a 725 °F necesario. Esta
La estación de operación también debe poder seguir en corriente caliente entra en la torre de destilación atmosférica
funcionamiento ante un fallo por lo que deben instalarse (5) donde los componentes más ligeros se vaporizan y
varias, y cada una debe contar con una vía de datos asciende. La torre cuenta con recirculaciones laterales para
independientes. garantizar el intercambio liquido-gas necesario en cada una de
Aunque estos sistemas de alta disponibilidad reducen al sus zonas. Los productos que se obtienen, empezando por el
máximo la posibilidad de una posible emergencia, siempre tope, son: nafta virgen ligera y pesada, varsol, keroseno y
queda un pequeño margen para que esta ocurra. Por esta razón diesel; además se obtienen gas de baja presión y residuo
[2] plantea que independientemente del sistema de control, el atmosférico, que pasan a ser carga para otras unidades. Cada
proceso debe ser vigilado por otro sistema que lo mantenga uno de los productos terminados pasa al despojador
dentro de los parámetros de seguridad. correspondiente (7, 8, 9, 10). Los vapores son devueltos a la
torre principal por debajo del plato superior al de extracción,
D. Sistema Instrumentado de Seguridad (SIS)
mientras que los fondos pasan a enfriarse y son bombeados a
Lograr llevar la unidad a condiciones seguras, sin tener en tanque.
TCA2012 4

y módulos periféricos duplicados. Se logra la sincronización


entre ambos CPU por medio de un enlace de fibra óptica, y de
esta se encarga por completo el sistema operativo.
En la periferia se empleara una conexión conmutada, en la
cual se conectan dos interfaces de comunicación de bus de
periferia por bastidor. Dejando los módulos de entrada – salida
sin duplicar.
D. Red de comunicación industrial
Cada uno de los componentes seleccionados anteriormente
por sí solo no puede realizar el control de la unidad, es la
unidad de todos ellos en una red de comunicación industrial lo
que consigue esta meta. El esquema de esta red se muestra en
la figura 3.

Fig. 2. Esquema funcional de una Unidad de Destilación Atmosférica.

B. Medios técnicos de automatización


Dentro del sistema de automatización los elementos básicos
son los sensores, que son los encargados de convertir las
magnitudes físicas en una magnitud comprensible al resto del
sistema, por esta razón sobre ellos descansan la pirámide de
control. Manteniendo un esquema de control típico para este
tipo de procesos, las variables que son necesarias medir en el
proceso de destilación son: temperatura, presión, nivel y
caudal.
Los elementos más comunes para la medición de
temperatura son los termopares y las termorresistencias. La
opción más adecuada para este caso son los termopares ya que
tienen un mayor rango de medida y las temperaturas con las
que trabaja son altas, además son más robustos. Teniendo en
cuenta la facilidad de instalación y los costos, la solución más
factible para la medición de los niveles es el método de
presión hidrostática para instalación en depósito presurizado.
En la industria los caudales se miden para dos propósitos
fundamentales: contabilidad y control. Para el segundo
propósito, como la exactitud necesaria es menor, el principio
más empleado, alrededor de un 40%, es el de presión
diferencial [3]. Otro motivo a lo que se debe es que es el más
económico.
A nivel de proceso, en consecuencia de la selección de los
diferentes principios de medición y las diferentes posiciones
que se necesitan cubrir en la unidad, son necesarios 31
sensores de presión diferencial, 26 de presión, 57 temperaturas
y 23 posicionadores electroneumáticos para válvulas de
control.
C. Sistema de alta disponibilidad. Esquema de
redundancia
La modalidad de redundancia que se empleará será Hot-
Standby, ya que existen proceso críticos en los cuales no Fig. 3. Esquema de la red de comunicación industrial.
puede existir pérdida de información.
La estación de automatización empleada utilizará un
bastidor con bus de fondo segmentado, por lo que consta de En campo, zona sombreada de amarillo en la figura 3, se
los siguientes componentes: un bastidor, dos fuentes de instalan 80 equipos con comunicación por bus de
alimentación, dos unidades centrales de procesamiento (CPU) instrumentación y 57 termopares conectados con alambre de
TCA2012 5

extensión a dos concentradores. Del cuarto de control, zona comunicación industrial que da vida al sistema de control. Se
sombreada un gris, salen 15 cables de bus de instrumentación optó por un sistema redundante
que se distribuyen por toda la Unidad y cuatro cables de bus debido a la necesidad de maximizar
de periferia sobre 485 IS para la comunicación con los el tiempo de funcionamiento de la
concentradores. Los cables de BI están conectados a unidad, ya que las pérdidas
acopladores BP/BI que conforman tres Enlaces BP/BI, que su económicas existentes durante un
vez se conectan al BP del sistema anterior a las barreras de periodo de no refinación son
seguridad intrínseca. Este bus parte de las tarjetas de cuantiosas.
comunicación BP que se agregaron en la AS con este fin.
También se agregaron las tarjetas de comunicación para BS, REFERENCIAS
cada una de estas se conectan a un switch, los cuales están [1] L.C. Pérez Rivas, “Modelos de
interconectados en doble anillo mediante fibra óptica. A estos automatización,” FONACIT, Mérida,
2006.
se conectan los servidores, estableciendo una conexión entre la [2] J. Acedo Sánchez, Instrumentación y control básicos de procesos.
tarjeta de BS y otro puerto del switch. El bus de estaciones se España : Díaz de Santo, 2006, pp. 299-353.
conforma con otros dos switch interconectados del mismo [3] J. Acedo Sánchez, Control Avanzado de Procesos. Teoría y Práctica.
modo. A ellos se conectan, usando la tarjeta de red de la placa España: Díaz de Santo, 2003, pp. 137 – 149.
[4] D. M Considine, Process Instruments and Control Handbook. Tomo II.
base, los servidores, los clientes y la estación de ingeniería. Cuba: Ediciones Revolucionaria, 1968.
Esta última también emplea una tarjeta de BS, para conectarse [5] Experion Platform CEE-based Controller Specifications and Technical
el bus del sistema. Data, Honeywell, 2004.
[6] I/A Series System DIN Rail Mounted Subsystem User’s Guide, Foxboro,
2007.
IV. CONCLUSIONES [7] CENTUM VP System Overview, Yokogawa, 2008.
[8] Sistema para control de procesos SIMATIC PCS7, Siemens, 2003.
En el desarrollo de este trabajo se ejecutaron todas las tareas [9] Seguridad contra fallos mediante PLC SIMATIC S7 de alta
concebidas para el cumplimiento de su objetivo general, disponibilidad, Siemens, 2004.
diseñar un Sistema de Control Distribuido para la Unidad de [10] Sencillo, Flexible y Fiable. Process Safety con SIMATIC Safety
Integrated, Siemens, 2004.
Destilación Atmosférica en una refinería de petróleo. Para
conseguirlo se utilizaron como base los conceptos del modelo Alfredo Tablada Crespo y los otros autores pueden incluir sus biografías al
piramidal de automatización, el de automatización totalmente final de la última versión de la ponencia, no en la primera versión a ser
integrada y las diferentes arquitecturas para sistemas de enviada a los revisores. La biografía puede contener lugar y/o fecha de
nacimiento, educación del autor, grados científicos (en qué campo,
automatización industrial. institución, ciudad o país, y año en que se ganaron). Además, puede listar
Se realizó un estudio de los Sistemas de Control Distribuido experiencias de trabajo, incluyendo estancias posdoctorales; mencione la
ofertados por cuatro fabricantes, en el cual: se definió una ubicación de su trabajo actual. Información sobre publicaciones anteriores
puede ser incluida. Los intereses de investigaciones actuales y anteriores,
configuración típica para este tipo de sistema. membresías en sociedades profesionales, y premios también deben ser
Se seleccionó todo el equipamiento necesario, comenzando incluidos. Por favor, proporcione su dirección postal y/o correo electrónico
por los sensores y actuadores en el nivel de proceso, hasta las para permitir el contacto. Si se incluye una fotografía, la biografía se colocará
estaciones clientes de operación, en el nivel de supervisión. La alrededor de ella. La fotografía se coloca en el extremo superior izquierdo de
la biografía.
elección fue realizada garantizando al máximo la integración
entre dispositivos en un mismo nivel y de este con el superior.
Todos estos equipos se interconectaron en la red de
 Intente igualar las dos columnas en la última página 
Programa de computación para la simulación de una planta industrial de
separación de gases en base a membranas de zeolita
Parte II. PROGRAMA PSAMemb 1.1.

Carlos R. González González1; Yoenia Mª Martínez2; Islandy A. Guevara


Tamayo2

RESUMEN
En el trabajo se presenta un software en Qt-creator basado en el modelo y el algoritmo
desarrollados previamente en el marco del proyecto PSAMemb. En el trabajo se dió
solución a la modelación matemática-computacional de tres de los esquemas
tecnológicos clásicos para la separación de gases con membranas de propiedades
adsortivas. El software consta de un programa principal, dos programas auxiliares, dos
que forman parte del paquete de instalación de la Borland Software Corporation para la
gestión de bases de datos, y tres programas elaborados en proyectos anteriores para la
separación de gases por tecnologías de columnas de zeolitas. El impacto de este
proyecto es en los terrenos científico y tecnológico, donde se contribuirá con una
herramienta muy poderosa para el diseño de materiales porosos y de tecnologías de
enriquecimiento de mezclas gaseosas.

Palabras clave: software, separación de gases, zeolita, membranas

ABSTRACT
In this work, a Qt-creator program based on the model and on the algorithm previously
developed by the same group in the frame of the PSAMemb project is presented. In this
work, a solution was reached for the mathematical-computational modelation of three of
the classical technological schemas for gas separation with membranes having adsorption
properties. The software consists of a principal program, two auxiliary programs, other two
been included in the installation package of the Borland Software Corporation for the
management of databases, and three programs elaborated in previous projects for gas
separation by zeolite towers. The project´s impact is in the scientific and technological
fields, where a very powerful tool will contribute to design of porous materials and
processes for enrichment of gas mixtures.

Keywords: software, gas separation, zeolite, membranes


Código MCS: : 93E30

_____________________
1
Departamento de Control Automático, Instituto de Cibernética, Matemática y Física, CITMA, 15 # 551, entre C y D, Vedado,
CP 10400, La Habana, Cuba. *cgonzáles@icmf.inf.cu
2 Universidad de las Ciencias Informáticas, MIC, Autopista de San Antonio de los Baños, Km. 1½, Torrens, Municipio
Boyeros, La Habana, Cuba, ymartinezd@uci.cu, iaguevara@uci.cu
1. INTRODUCCIÓN

Las zeolitas son una familia de materiales de alumino-silicatos altamente cristalinos,


que presentan un conjunto de cavidades de dimensiones moleculares, generalmente,
unidas por un sistema de canales1, por lo que son consideradas como tamices
moleculares2, esto, unido a sus propiedades adsortivas relevantes implica que sean
ampliamente utilizadas en la separación selectiva por tamaños moleculares de gases
y vapores en la industria, principalmente en la Petroquímica3.
Las tecnologías iniciales de separación de gases mediante zeolitas se basaban en
procesos cíclicos de vaivén de temperatura (TSA) o de presión (PSA-VSA) en
grandes columnas donde la zeolita se encontraba como pequeños gránulos o pellets4,
pero al desarrollarse las membranas con permeación selectiva5,6,7,8,9, las instalaciones
de separación pudieron ser mucho más compactas. Esto de debe a que en las
columnas se produce la percolación de la mezcla gaseosa a todo lo largo, mientras
que la difusión tiene lugar en una pequeña capa cercana a la superficie de los
gránulos; y en las membranas la percolación tiene lugar a través de una lámina muy
delgada de zeolita, con lo cual se minimiza extraordinariamente el volumen de las
instalaciones para la misma área de contacto. Sin embargo, las tecnologías ya no
podían describirse por las mismas ecuaciones.
La presente investigación ha tenido dos etapas. En la primera se resolvió el problema
de poder simular de forma efectiva el proceso de separación que ocurre a nivel
molecular en el interior de las membranas de zeolita10,11,12, dando lugar a los
programas TRANSMOL y ATOMPORE, que permiten calcular el flujo de los
componentes de una mezcla de gases a través de una membrana de zeolita como
función de las presiones parciales de los gases y del tiempo. En dichos programas se
parte de las características de la estructura cristalina de la zeolita y sus defectos, así
como de la geometría y dimensiones de la membrana; y también se tienen en cuenta
las propiedades de los gases.
En la presente etapa se pretende desarrollar un programa de computación para la
simulación de equipos e instalaciones industriales de separación de gases basadas
en membranas de nanofiltración. En dicho programa, se hará uso de las funciones
calculadas mediante los programas ATOMPORE y TRANSMOL, como datos de
entrada para la simulación del comportamiento (rendimiento y calidad del producto) de
diversos esquemas tecnológicos clásicos de plantas de separación de gases por
procesos tipo PSA con membranas.
Las búsquedas de software dedicado a resolver el problema planteado no arrojaron
resultados positivos.
El paquete de programas PSAMemb está destinado a la realización de experimentos
simulados de separación de mezclas de dos gases en membranas de nanofiltración.
El software se basa en los tres esquemas tecnológicos clásicos extraídos de la
literatura consultada4. El programa está elaborado en lenguaje C++, utilizando el
entorno de desarrollo QtCreator sobre LINUX. Los usuarios del paquete de
programas PSAMemb serán profesionales relacionados con la industria química.
2. METODOLOGÍA COMPUTACIONAL

2.1. Planteamiento del problema

Se implementó una aplicación desktop para la simulación de los procesos de


separación de gases en plantas con diversos esquemas tecnológicos basados en
vaivén de presión con membranas. El programa se fundamenta en un algoritmo de
cálculos elaborado a través de las soluciones de ecuaciones diferenciales
deterministas que son el resultado de la aplicación de los principios de conservación
de la masa a procesos de transferencia de partículas entre dispositivos de diverso
tipo, entre los cuales hay membranas, depósitos y válvulas.

Las corridas se llevarán a cabo de manera eficiente y rápida, se utilizarán tipos de


datos abstractos en la modelación y para el almacenamiento de los Datos
Persistentes se utilizará el gestor de base de datos PostgreSQL 9.1. La aplicación
presentará una interfaz sencilla para facilitar el trabajo de los usuarios. Esto permitirá
que los usuarios sólo necesiten tener un conocimiento básico para la manipulación de
la aplicación desde el punto de vista informático, pues para realizar los estudios sí
deben tener un conocimiento de la materia en cuestión.

La entrada de datos se efectúa mediante cuadros visuales que conservan las últimas
entradas con el fin de que sean repetidas a voluntad del usuario. Se tuvo cuidado de
mantener una congruencia entre el almacenamiento y las salidas de datos de los
programas auxiliares tales como el TRANSMOL y el ATOMPORE para que se
pudieran integrar en el paquete sin mayores dificultades. Los programas ONAEQ1 y
ONAEQ2, realizados en base al lenguaje Delphi7, fue integrado mediante ejecutables,
manteniendo su formato propio de entrada y salida, aunque se prevé su conversión a
C++ en versiones posteriores para lograr una mayor uniformidad.

El programa realiza los cálculos en lazos sucesivos que simulan secuencialmente los
procesos que ocurren en el equipo o planta de membranas, aunque algunos de estos
procesos ocurren en realidad de forma paralela, lo cual abre la posibilidad de emplear
ese tipo de esquema de programación si el tiempo de las corridas llegara a ser un
problema en las simulaciones.

En la Figura 1 se presentan dos de las tablas utilizadas para la entrada de datos. En la


primera se presentan las tres alternativas tecnológicas a simular para que el usuario escoja
el objeto de estudio; y en la segunda se presenta la identificación del experimento, junto
con datos de aplicación general a lo largo de todo el experimento, tal como la temperatura y
la velocidad de aumento de la presión en los dispositivos de la instalación.
Figura 1. Tablas de selección de la alternativa tecnológica y de entrada de datos
globales del programa PSAMemb.

En la figura 2 se muestra el diagrama de bloques del programa principal, donde se


presentan los segmentos principales de programa, que incluyen la entrada de datos
para cada corrida de simulación, la selección de la opción tecnológica, la carga de la
base de datos con la información necesaria, y la ejecución de la opción escogida
dividida en procesos que poseen una unidad de cálculo en el algoritmo.
Entrada de datos

Selección de esquema

Refinado puro Permeado puro Refinado con recuperación Esquema


de permeado personalizado

Inicialización Inicialización Inicialización Inicialización

Proceso A Proceso D Proceso D


M1 M1 M1

Proceso C(a) Proceso P1 Proceso P1


M3 M2 M3 M2 M3

Proceso C(b) Proceso E Proceso E


M3 M2 M2

Proceso P2 Proceso P1 Proceso P1


M2 M4 M5 M6 M1 M3 M1 M3

Proceso B Proceso F(a) Proceso G(a)


M2 M3 M3

Proceso P1 Proceso F(b) Proceso G(b) Figura 2


M1 M3 M4 M5 M6 M3 M3 Esquema general
M6 de bloques del
Proceso A Proceso P2 Proceso P2 programa
M4 M1 M2 M1 M2
PSAMemb
Proceso C(a)
M6
Hasta |µDi- µDi-1|<0,01
Proceso C(b)
M6 Salida de resultados Salida de resultados

Proceso P2
M1M2 M3 M5

Proceso B
M5

Proceso P1
M1 M2 M3 M4 M6
M6
Hasta |µDi- µDi-1|<0,01

Salida de resultados
2.2. Implementación:

El paquete de programas PSAMemb consta de un programa principal ejecutable


elaborado mediante el lenguaje de programación C++, utilizando el entorno de
desarrollo QtCreator 2.5, basado en Qt 4.8.2, que puede ser corrido sobre LINUX; sin
embargo, la corrida sobre WINDOWS no debe confrontar mayores dificultades
operacionales. El paquete contiene también todas las aplicaciones anteriores
obtenidas por los autores en relación con este tema; entre ellas TRANSMOL y
ATOMPORE, confeccionado mediante el lenguaje FORTRAN90 (incluyendo el
MatLab) destinados a la obtención por simulación de las funciones de flujos directo e
inverso de los gases componentes con las presiones parciales a través de las
membranas; así como la conversión de la información de las posiciones atómicas de
la estructura de las zeolitas y de otros cristales que contienen ámbitos mesoporosos
en sus celdas elementales, en una función de distribución de los espacios vacíos en el
interior de las celdas. El paquete se completa con funcionalidades de gestión de los
datos de los programas confeccionados. También comprenden la posibilidad de correr
los programas ONAEQ1 y ONAEQ2 que dan la posibilidad de simular los procesos de
separación de gases en columnas mediante los procesos de PSA clásicos.

2.3. Estructura y gestión de la base de datos

La Figura 3 muestra el modelo de datos empleado para la persistencia de los datos


del paquete de programa PSAMemb. En el mismo se muestran las tablas
Experimento, DatosIniciales y Resultado, en las cuales se almacena la información
referente al experimento en cuestión, mientras que en las tablas FuncionOx,
FuncionNit,FuncionOxInv y FuncionNitInv, se almacenan los datos referentes a las
funciones que describen el flujo de gases a través de las membranas. La información
almacenada en estas 4 tablas, será determinada a través de la ejecución del
programa TRANSMOL, el cual en su versión 2.0, contará con esta misma estructura
en su modelo de datos de manera que sea compatible con el PSAMemb con respecto
a la generación de sus datos, en el caso en que no esté disponible la herramienta
TRANSMOL 2.0, pues el sistema PSAMemb permitirá cargar un fichero que contiene
el resultado de una corrida previa del mismo, de manera que se puedan cargar los
datos directamente a estas tablas, teniendo en cuenta la temperatura seleccionada
como dato del sistema general (PSAMemb). El fichero antes mencionado, será un
archivo SQLite, que funcionará como una pequeña base de datos portátil, a la cual el
usuario no tiene acceso por vía gráfica de manera que se mantenga la integridad de
los datos.
Figura 3. Modelo de datos.

A continuación se describe cada campo de la base de datos mostrada en la Figura 3.

Tabla Experimento
temperatura: Almacena la temperatura del sistema, la cual se considera constante
para cada experimento.
nombre: Nombre del experimento realizado.
constr: Valor de la constante Universal de los gases, se almacena con el objetivo de
relacionar, sobre todo, la cantidad de cifras significativas con que se trabaja, y así se
pueda tener en cuenta en el análisis de aproximación.
fechaExp y horaExp: Almacenan los datos de la fecha y hora en que se realizó el
experimento. Estos datos no constituyen entrada del usuario, sino que el programa los
toma directamente del Sistema operativo.
pPrima: Almacena la velocidad a la cual varía la presión en el tiempo.
fmN: Almacena la fracción molar de uno de los componentes en el gas de
alimentación, que constituye un dato especificado por el usuario.

Tabla DatosIniciales
idExperimento: Este dato tiene la conexión con la tabla experimento, constituye una
llave foránea de esta tabla, pues se debe conocer a qué experimento corresponden
los datos de la tabla.
volumenA,1,2 y D: Almacena los datos de los volúmenes de cada uno de los
depósitos que conforman la instalación.
presion1,2,3,4,5,D yJ: Almacenan los datos de las presiones en los depósitos, que
constituyen entradas de datos del usuario.

Tabla Resultado
idExperimento: Este dato tiene la conexión con la tabla experimento, constituye una
llave foránea de esta tabla, pues se debe conocer a qué experimento corresponden
los resultados obtenidos.
fmA,1,2 y D: Almacenan los valores de las fracciones molares de nitrógeno que
quedan en cada depósito después del último ciclo del experimento.
nODA, nNDA: Cantidades de moles en el depósito inicial después del último ciclo del
experimento.
nOD1, nND1: Cantidades de moles en el depósito 1 después del último ciclo del
experimento.
nOD2, nND2: Cantidades de moles en el depósito 2 después del último ciclo del
experimento.
nOD, nND: Cantidades de moles en el depósito final después del último ciclo del
experimento.
nOP, nNP: Cantidades de moles del gas producido después del último ciclo del
experimento.
nOW, nNW: Cantidades de moles del gas liberado a la atmósfera después del último
ciclo del experimento.
Presion4,5,6,7,8,9,i,ii: Presiones iniciales, finales o intermedias en cada depósito que
influyen en la obtención del resultado del experimento.

Tablas de funciones de flujo en las membranas.


tiempo: tiempo.
presionNit: Presión parcial del gas N después de atravesar la membrana.
presionO: Presión parcial del gas O después de atravesar la membrana.
valorFuncion: Valor de la función de flujo según los valores de tiempo y las presiones
parciales relacionadas en la tupla.
(Así sucesivamente en cada una de las 4 tablas)
2.4. Instalación

El paquete de programas PSAMemb debe instalarse en una máquina Pentium4 o


Pentium5 con sistema operativo Ubuntu y no menos de 1 GB de RAM. Si se va a
ejecutar solamente el programa general no se requiere montar un sistema de
computadoras en paralelo o clúster, aunque algunos subprogramas sí lo necesitan.

2.5. Clúster de máquinas computadoras

Fig. 4. Esquema simplificado del clúster de máquinas a utilizar en la ejecución


del programa TRANSMOL, donde se ilustra la entrada secuencial en
funcionamiento de las máquinas12.

El programa principal del paquete PSAMemb no tiene que ejecutarse en un


clúster de máquinas computadoras, porque el nivel de paralelismo previsto es muy
bajo. Sin embargo, entre los programas del paquete hay algunos donde esta
facilidad se hace necesaria, tal como el programa TRANSMOL, el cual está
concebido para ejecutarse en un clúster de máquinas computadoras con
microprocesador de 3 Ghz y memoria RAM de 1 GB. El número de máquinas que
compongan el clúster tiene que ser igual al espesor de la membrana expresado en
µm. Las máquinas estarán conectadas dentro de una red PROXI y el acceso libre
entre ellas debe ser comprobado antes de comenzar la ejecución. Las máquinas
entrarán a la ejecución del programa en forma secuencial en la medida en que se
requiera para el manejo de la difusión de las moléculas hacia planos superiores de
la microcolumna. El programa TRANSMOL estará instalado en todas las máquinas,
aunque las aplicaciones DBD32, ATOMPORE y BDEadmin solamente serán
necesarias en la máquina principal.

2.6. Ejecución.

Para comenzar la ejecución del experimento, el programa debe tener


garantizadas una serie de condiciones. La base de datos necesaria para el
almacenamiento de los datos debe estar instalada y lista para su uso, de lo
contrario el sistema mostrará un mensaje anunciando este inconveniente. La base
de datos utilizada en el PSAMemb se genera de manera automática a través del
sistema, pero si desea utilizar una base de datos ya creada, el sistema le ofrece
esta facilidad.

A continuación debe completar los datos de entrada del experimento,


especificando qué tipo de experimento desea ejecutar. Inicialmente el programa le
mostrará como datos iniciales aquellos que haya facilitado al programa en su última
ejecución, y mostrará los campos vacíos si el experimento actual es el primero que
insertará en la base de datos que esté utilizando.
El programa lo guiará a través de este proceso de inserción de los datos
iniciales, pues, teniendo en cuenta que son numerosos, los mismos se han
distribuido en varias pantallas para lograr un mejor efecto visual en el usuario y
ofrecer al mismo, facilidades de uso del sistema. Por cada pantalla el sistema
realizará validaciones garantizando que se complete toda la información que
necesita para ejecutar el experimento. También garantizará que las presiones
introducidas no excedan del margen que ofrece el algoritmo para la obtención de
datos no disparatados.

Una vez introducidos los datos necesarios, el sistema comenzará la ejecución


del experimento, una vez que el usuario presione el botón Comenzar experimento.
Al concluir, la ejecución del algoritmo, el sistema mostrará un mensaje anunciando
que se ha realizado el experimento, y que debe remitirse a la pestaña Resultados,
para conocer los resultados del mismo.

El sistema cuenta con una ayuda breve que guiará al usuario a través del
proceso de utilización del PSAMemb si fuera necesario.

2.7. Salida de resultados

El sistema muestra los resultados también de forma visualmente distribuida,


utilizando un componente tabulado que simula muchos informes en una carpeta.
Se muestran las cantidades de moles por cada depósito después del último ciclo,
las cantidades de moles de los gases producidos, las presiones alcanzadas en
cada depósito, las fracciones molares que se obtienen por depósito, la cantidad de
cada gas liberada a la atmósfera, así como también se muestran los datos iniciales
que propiciaron esos resultados, con lo cual se puede evaluar el comportamiento
de la configuración escogida y realizar la optimización en corridas sucesivas.

3. RESULTADOS Y DISCUSIÓN

3.1. Tiempo de cálculo

Los tiempos de ejecución del programa en las pruebas realizadas fueron muy
satisfactorios. La duración de un experimento completo de simulación con
alrededor de 10 ciclos no fue mayor de 5 min. El segmento de programa más
consumidor de tiempo es la carga de los datos de las funciones de flujo de la base
de datos, lo cual debe ser motivo de optimización en versiones posteriores del
programa.

3.2. Validación del programa

La validación de la implementación del programa PSAMemb1.0 se realizó en


tres niveles sucesivos; la comprobación en caja blanca de que cada uno de los
bloques daba resultados exactos; la comparación de caja negra con la ejecución
del algoritmo en otro software; y el examen de los resultados a la luz de la
tecnología de separación de gases, interpretando la validez de los valores
obtenidos de acuerdo con el comportamiento esperado de los procesos.
En la validación a primer nivel se comprobaron todos los cálculos incluidos en
los códigos del programa mediante cálculos manuales alternativos, sobre todo en
los casos de la integración numérica y las determinaciones de los ceros de las
funciones, que eran los que pudieran estar mayormente sometidos a error dentro
del algoritmo. Esto permitió detectar y corregir algunos errores tanto en el algoritmo
como en el código.

En la validación de segundo nivel se pudo comprobar la validez de los


resultados globales del programa mediante la ejecución del algoritmo en Excel, y
dilucidar problemas relacionados con los datos de entrada del programa y sus
relaciones.

Por último, el examen minucioso de los resultados obtenidos mediante los


cálculos con PSAMemb1.1 permitió comprobar que su lógica se ajustaba
completamente de forma cualitativa a lo esperado por la aplicación tecnológica de
esos procesos. Para estos cálculos se utilizó un juego de funciones analíticas de
flujo del tiempo y de las presiones parciales transmembrana de ambos
componentes (también dependientes del tiempo), basadas en la tangente
hiperbólica, que se asemeja bastante al comportamiento esperado en las
membranas reales de zeolita.

A pesar de que no se pudo contar con la posibilidad de una comprobación


cuantitativa en una instalación de separación real, no dudamos en que los
resultados serán también satisfactorios en la oportunidad en que sean realizados.

4. CONCLUSIONES

El programa PSAMemb 1.1 es la primera versión de un software eficiente y


eficaz para simular el funcionamiento de los equipos y plantas de separación de
mezclas de gases a través de membranas nanoporosas, sobre la base de un
algoritmo determinista de ecuaciones diferenciales de balance de masa, y
funciones de flujo directo e inverso de los gases de la mezcla dependientes del
tiempo y de las presiones parciales de los gases, obtenidas por vía experimental o
mediante simulación previa con otras aplicaciones.

REFERENCIAS
1
Blatov, V. A., Shevchenko, A. P. Analysis of voids in crystal structures: the methods of ¨dual¨ crystal
chemistry, Acta Cryst., 2003, A(59): 34-44
2
Breck, D. W. Zeolite Molecular Sieves. New York, John Wiley & Sons Inc, 1974. 784
3
Velázquez Garrido, M., González González, C. R., Delgado Diez, B. Establecimiento de un método de
separación de oxígeno nitrógeno por un sistema VSA. Proceedings TECNOMAT 2000 (Edition in CD),
Ciudad Habana, 2000
4
Ruthven D.M., Farook S., Knaebel K.S., Pressure Swing Adsorption, VCH, 1993.
5
Bhave, R.R. (Ed.), Inorganic Membrane Synthesis, Characteristics and Applications, Van Nostrand
Reinhold, New York, 1990
6
Burggraaf, A.J., Cot L., Membrane Science and Technology Series, 4. Fundamentals of Inorganic
Membrane Science and Technology, Elsevier, Amsterdam, 1996
7
Burganos V.N., Membranes and Membrane Processes, MRS Bulletin, March 1999, 19-22
8
Morooka S., Kusakabe K., Microporous inorganic membranes for gas separation, MRS Bulletin, 3,25-
29(1999)
9
Engelen C.W.R., Membrane for separating off small molecules and method for the production thereof, Pat.
US 5591 345, 1997
10
González González C. R. , Bravo López Y., Soto Borroto L., Machado Batista Y. Simulación
computacional de los procesos de difusión multicomponentes en membranas policristalinas de zeolita.
Parte II. Algoritmo general del programa, Reporte ICIMAF, Nº 423/2009
11
Yrelis Bravo López1*, Carlos R. González González Programa para la conversión de una estructura
cristalina poroso en una función que describa el ámbito accesible heterogéneo , Reporte ICIMAF, Nº
458/2010
12
González González C. R.; Bravo López Y.; Navas Conyedo E.; Soto Borroto L. Simulación
computacional de los procesos de difusión multicomponentes en membranas policristalinas de zeolita. Parte
III. PROGRAMA TRANSMOL 1.1 Reporte ICIMAF, Nº 512/2010
TCA2012 1

Operador TW-OWA su aplicación en la fusión


de la información
Autores: Maikel Leyva-Vázquez, Miguel Angel Fernández Marín, Karina Pérez Teruel

modelo. Es decir, esta unificación abarca los criterios optimista, el


Resumen—La agregación de la información proveniente de pesimista, el de Laplace y el de Hurwicz en una sola expresión [5].
múltiples expertos, es especialmente sensible a la presencia de El operador puede ser definido de la forma siguiente:
valoraciones extremas. Los operadores existentes son afectados Definición 2. Un operador OWA, es una función de
por la presencia de opiniones atípicas En el presente trabajo se dimensión n si tiene un vector asociado de dimensión con
propone un operador de agregación que tiene en cuenta la y , de forma tal que:
presencia de valores extremos y una variante para el modelo de (2)
la fiabilidad de las fuentes. Se presenta un caso de estudio donde es el j-ésimo más grande de los .
vinculado a la construcción de mapas cognitivos difusos. En los operadores OWA, Yager introduce una medida del grado de
Finalmente se presentan sugerencias para trabajos futuros. orness asociado con cualquier vector de peso [6], o el grado en que
un operador tiende hacia la condición de "or". El grado de orness
Palabras Clave — fusión de la información, operadores de puede ser formulado de dos formas diferentes dependiendo del tipo
agregación, operadores OWA, mapas cognitivos difusos. de ordenamiento utilizado. Para el ordenamiento descendente se
formula:
(3)
I. INTRODUCCIÓN
y para el ascendente :
Una limitación asociada al empleo de operadores de agregación en la
fusión del conocimiento de expertos, es la sensibilidad de la (4)
agregación con respecto a los valores extremos [1]. Los resultados El nivel de orness se puede interpretar en términos de optimismo de
finales de la agregación resultan especialmente sensible a la presencia la decisión tomada o el grado de aceptación del riesgo [5]. Determina
de opiniones atípicas de de las fuentes de información. Por lo que se además el nivel de compensación de los criterios [2].
pretende con el presente trabajo proponer un nuevo operador de Existen distintas alternativas para la determinación de los vectores de
agregación para la fusión de información, teniendo en cuanta la pesos. En el caso del operador WA, AHP es un método muy
fiabilidad de las fuentes y la presencia de valores extremos. empleado [2]. El vector de pesos asociado al operador OWA puede
ser determinado por un cuantificador regular no decreciente [6]. Si
II. OPERADORES DE AGREGACIÓN es un Cuantificador Incremental Monótono Regular (RIM por sus
siglas en inglés), entonces el valor agregado de la alternativa
Los operadores de agregación constituyen funciones matemáticas
está dado por , donde es un operador
empleada para la fusión de la información. Combinan valores en un
OWA derivado de , considerando la familia de cuantificadores RIM
dominio y devuelven un valor en ese mismo dominio [2].
. Un ejemplo se muestra en la Figura 1.2.
Denominando esas funciones [2], los operadores de agregación son
funciones de forma: .
Cumpliendo con tres propiedades fundamentales [2]:
Idempotencia: Si .
Monotonía: Si .
Conmutatividad: Para cualquier permutación de se
cumple que .
Los operadores de agregación presentan múltiples aplicaciones en
diversos dominios [3]. En la toma de decisiones su papel fundamental
está en la evaluación y en la construcción de alternativas [2]. Su
empleo se enmarca fundamentalmente en la toma de decisiones
multicriterio.
Algunos de los operadores de agregación más empleados son los
siguientes:
Media ponderada: la media ponderada (WA por sus siglas en Figura 1.2. Cuantificador Incremental Monótono Regular
inglés) es uno de los operadores de agregación más empleados en la Los cuantificadores RIM pueden ser empleados para generar los
literatura, pesos de los operadores OWA utilizando la siguiente expresión:
La media ponderada se define de la siguiente forma:
Definición 1. Un operador WA tiene asociado un vector de pesos (5)
, con y , teniendo la siguiente forma: En este caso el nivel de orness asociado con un RIM está dado por el
(1) área debajo del cuantificador [6].
donde representa la importancia/relevancia de la fuente de datos Una limitación asociada al empleo de operadores OWA es la
. sensibilidad de la agregación con respecto a los valores extremos [1].
Familia de operadores OWA (ordered weighted averaging o Esto resulta una dificultad cuando se realiza la agregación de la
traducido al español media ponderada ordenada) [4]: Este método opinión de expertos debido al peso que puede tomar un experto con
unifica los criterios clásicos de decisión en incertidumbre en un solo una opinión atípica.
TCA2012 2

III. Operador TW-OWA


Los autores definen un operador de agregación denominado operador ,entonces el operador TW-IWA es el operador WA.
OWA de ventanas con umbrales (TW-OWA por sus siglas en inglés). El operador TW-IWA cumple con las propiedades de idempotencia y
Este tiene en cuenta en la agregación solo los valores que no se alejen monotonía y la demostración es semejante a la ya descrita para el
más allá de un umbral determinado por un parámetro , , operador TW-OWA. No cumple con la conmutatividad porque
y la media aritmética (MA) del conjunto a agregar. incluye en su formulación el operador WA. El operador
El TW-OWA es un operador de la familia de operadores neat-OWA presenta una mayor flexibilidad al modelar la fiabilidad de las
[7] y está a su vez basado en los window-OWA [8]. Está fuentes que se encuentren dentro de la ventana determinada por el
caracterizado por el parámetro que determina la desviación con parámetro .
respecto a la MA que se considerará en la agregación. Este operador
es definido por el autor de la siguiente forma:
Definición 3. Un operador TW-OWA es una función IV. ESTUDIO DE CASO
definida como:
Los MCD (Figura 1.6) son una técnica introducida por Kosko [10]
= , como una extensión de los mapas cognitivos [11]. Los MCD mejoran
(6) los mapas cognitivos describiendo la fortaleza de la relación
donde se ha realizado la conversión del vector original a un vector de mediante el empleo de valores borrosos en el intervalo [-1,1]. Los
tuplas . El primer elemento representa el valor a agregar y se nodos son conceptos causales y pueden modelar eventos, acciones,
determina por la siguiente expresión: . El valores, metas o procesos [14]. Constituyen una estructura de grafo
cálculo de los pesos de la agregación se realiza como sigue: difuso con retroalimentación para representar causalidad. Combinan
herramientas teóricas de los mapas cognitivos, la lógica difusa, las
(7) redes neuronales, las redes semánticas, los sistemas expertos, y los
sistemas dinámicos no lineales [12].
Donde es la cantidad de elementos con , tal que .
Si
entonces el operador TW-OWA es el operador MA.
A continuación se mostrarán las propiedades más significativas del
operador:
Propiedad 1. Idempotencia
Si para todo , entonces
(8)
La demostración de la idempotencia del operador es inmediata.
Propiedad 2. Monotonía.
Sean y con , conjuntos a agregar tal que , ,
entonces
(9)
Manteniendo el valor de para ambos conjuntos.
Como al menos , , y al menos ,
, restaría demostrar la monotonía del Figura 1.6. Ejemplo de mapa cognitivo difuso.
operador MA (ver [2]).
Propiedad 3. Conmutatividad
Si tomamos el conjunto a agregar y realizamos una Cuando participa un conjunto de expertos en la construcción de la
permutación de sus elementos , entonces matriz de adyacencia se formula a través de la media [13]. Esta
(10) agregación de conocimiento permite mejorar la fiabilidad del modelo
La satisfacción de esta propiedad es inmediata debido a que los final, el cual es menos susceptible a creencias potencialmente
resultados de la agregación dependen del valor de los datos a agregar erróneas de un único experto [14]. Esta agregación resulta
y no de su posición. especialmente útil en la construcción de escenarios debido a la
Para unificar este operador con la media ponderada (WA), se propone importancia que presenta integrar conocimientos de diferentes
la utilización de la definición de operador IWA [9] obteniéndose un expertos con modelos mentales diversos [15]. Sin embargo la
operador denominado . Esta formulación evita incluir agregación empleando la media aritmética es muy sensible a la
datos fuera de la ventana de valores como ocurriría con el operador presencia de valores atípicos.
OWAWA, evitando que el modelo causal se afecte por la presencia En este estudio de caso se presenta distintas valoraciones sobre la
de valores atípicos. En este trabajo el operador se define de la intensidad y signo de la relación causal entre los conceptos
siguiente forma: Definición de Requisitos(N2) y Tiempo (N1) como parte del análisis
Definición 4. Un operador es una función : de la relación entre los factores críticos de éxito de los proyectos de
, definido como: desarrollo de software [16]. En la Tabla 1 aparecen las distintas
, (11) valoraciones brindadas por los expertos de la relación existente entre
donde se ha obtenido un vector de pesos W asociado con el operador N2 y N1.
TW-OWA y con un vector de pesos que afecta la media aritmética, Tabla 1. Valoración de los expertos
con , . El cálculo de los pesos de la agregación Experto Relación causal
se realiza como sigue: e1 -0.6
e2 0.1
(12)
e3 -0.65
Si en el vector de pesos V se le asigna igual peso a todas las fuentes, e4 -0.7
se estaría trabajando con el operador TW-OWA. Por otra parte, si e5 -0.95
TCA2012 3

Como vector V que representa la fiabilidad de los expertos se [9] J. M. Merigó, "A unified model between the weighted
determina el siguiente vector de Pesos (V= [0.2, 0.1, 0.4, 0.2, 0.1]. average and the induced OWA operator," Expert Systems
Los resultados de esta agregación se muestran en la Tabla 2 y se with Applications, vol. 38, pp. 11560-11572, 2011.
muestran además los resultados de la agregación utilizando el [10] J. L. Salmeron, "Supporting decision makers with Fuzzy
operador WA. En esta caso el vector de pesos obtenido asociado con Cognitive Maps," vol. 52, ed: Industrial Research Institute,
el operador TW-OWA es el siguiente W=[ 0.33,0, 0.33, 0.33, 0.00], y Inc, 2009, pp. 53-59.
el vector de pesos asociado con el operador TW-IWA es =[0.25,0, [11] B. Kosko, "Fuzzy cognitive maps," International Journal
0.25, 0.50, 0]. of Man-Machine Studies, vol. 24, pp. 65-75, 1986.
Tabla 2. Resultados de la agregación. [12] C. W. Ping, "A Methodology for Constructing Causal
Operador Valor Knowledge Model from Fuzzy Cognitive Map to Bayesian
Media -0,446 Belief Network," PhD Thesis, Department of Computer
Science, Chonnam National University, 2009.
WA -0,356 [13] B. Kosko, "Hidden patterns in combined and adaptive
TW-OWA -0,627 knowledge networks," International Journal of
TW-IWA -0,628 Approximate Reasoning, vol. 2, pp. 377-393, 1988.
[14] W. Stach, et al., "Expert-Based and Computational
Como se puede apreciar tanto la media como la medida ponderada Methods for Developing Fuzzy Cognitive Maps," in Fuzzy
zona afectados por los valores extremos. En el caso de TW-OWA y Cognitive Maps, M. Glykas, Ed., ed Berlin: Springer, 2010,
TW-IWA la agregación no resultan afectada la presencia de valores pp. 23-41.
extremos siendo el resultado menos susceptible a ser afectados por [15] C. Goodier, et al., "Causal mapping and scenario building
valoraciones extremas y errores comunes en la determinación de la with multiple organisations," Futures, vol. 42, pp. 219-229,
intensidad y signo de las relaciones causales. 2010.
[16] M. Y. Leyva-Vázquez, et al., "Modelado y análisis de los
V. CONCLUSIONES factores críticos de éxito de los proyectos de software
mediante mapas cognitivos difusos," Ciencias de la
La fusión de la información es un área de trabajo con múltiples Información, vol. 43, pp. 41-46, 2012.
aplicaciones en especialmente en la toma de decisiones. La presencia
de valores extremos en las opiniones afecta especialmente la
agregación.
En este trabajo se presentó un operador de agregación que tiene en
cuanta la presencia de datos extremos. Se presentó además una
extensión para el modelado de la fiabilidad de las fuentes.
Como trabajos futuros se proponen el manejo de distintas formas de
representación de la incertidumbre en la opinión de los expertos. La
obtención de nuevas extensiones del modelo especialmente para la
inclusión de las probabilidades y su utilización en modelos para la
toma de decisiones.

REFERENCIAS
[1] M. Garcia and D. Puig, "Robust Aggregation of Expert
Opinions Based on Conflict Analysis and Resolution." vol.
3040, R. Conejo, et al., Eds., ed: Springer Berlin /
Heidelberg, 2004, pp. 488-497.
[2] V. Torra and Y. Narukawa, Modeling decisions:
information fusion and aggregation operators: Springer,
2007.
[3] G. Beliakov, et al., Aggregation functions: a guide for
practitioners: Springer, 2007.
[4] R. R. Yager, "On ordered weighted averaging aggregation
operators in multicriteria decisionmaking," Systems, Man
and Cybernetics, IEEE Transactions on, vol. 18, pp. 183-
190, 1988.
[5] J. Merigó, "New extensions to the OWA operators and its
application in decision making," PhD Thesis, Department
of Business Administration, University of Barcelona, 2008.
[6] R. R. Yager, "Quantifier guided aggregation using OWA
operators," International Journal of Intelligent Systems,
vol. 11, pp. 49–73, 1996.
[7] J. M. Doña Fernández, "Modelado de los procesos de toma
de decisión en entornos sociales mediante operadores de
agregación OWA," Tesis en opción al grado de doctor en
ciencias, Universidad de Málaga, 2008.
[8] R. R. Yager, "Families of OWA operators," Fuzzy Sets and
Systems, vol. 59, pp. 125-148, 1993.

Você também pode gostar