Você está na página 1de 38

SEGURIDAD EN REDES CONVERGENTES

¿Qué es una red convergente?


El concepto de convergencia de una red, una que tiene la capacidad para transmitir voz, datos, fax,
video, o alguna combinación de estos tipos de señal (o los medios de comunicación), no es nueva.
Migración de la red legado
El interés en la migración de las redes actuales a la creación de redes convergentes de tecnología
procedentes de muchas direcciones. Los primeros adoptantes de tecnologías de VoIP fueron
considerados por muchos aficionados que se busca experimentar con la transmisión de voz y vídeo a
través de Internet. Sin embargo, el éxito de sus logros ha demostrado la viabilidad de estas tecnologías y
rápidamente agarró a la atención tanto de la voz y los fabricantes de redes de datos. Por ejemplo, los
desarrolladores de hardware de red, tales como enrutadores y conmutadores, se dieron cuenta de que
era necesario para obtener conocimientos sobre la lado la voz de la empresa, y rápidamente se trasladó
a adquirir talento en la WAN de señalización, la línea, y de largo recorrido del circuito operación. En
contraste, los desarrolladores de sistemas de conmutación locales, a veces llamado privada de la
Subdivisión de Intercambio, o PBX, o la menor clave Telephone Systems, o KTSs, cuenta la necesidad
de una mayor experiencia en conmutación de paquetes de tecnologías y se trasladó a adquirir talento en
Internet y relacionados con la propiedad intelectual de funcionamiento de la red.
Los retos de la convergencia de redes
El Protocolo de Internet (IP), que prevé la entrega de paquetes fundamental mecanismo para la Internet,
es un protocolo sin conexión. Fue diseñado originalmente para el transporte de datos, no de voz, y, por
tanto, dependía de otros protocolos de la capa superior, tales como el Protocolo de control de
transmisión (TCP) a fin de mejorar su fiabilidad.
Aquí está el reto fundamental para redes convergentes: ¿Cómo tener una relación orientada a la
aplicación (por ejemplo, voz o video) y que remita, a través de una conexión de red (como una red IP o
Internet), y hacerlo fiable? Este desafío debe considerarse desde tres perspectivas:
La infraestructura de la red, la continuación de la gestión de la red, y los usuarios finales la calidad del
servicio.

La infraestructura de la red probablemente ha sido diseñada en apoyo de las comunicaciones de voz o


comunicaciones de datos, pero no ambos. En otras palabras, vamos a suponer que usted está
considerando la adición de servicios de voz IP o la videoconferencia a su actual Intercambio. ¿La red
tiene la capacidad de estos adicionales, el ancho de banda intensivo, las aplicaciones? Para el gestor de
la red, uno de los principales retos es la educación. La mayoría de voz y redes de datos también ha
separado la gestión de personal y sistemas. Por lo tanto, si usted tenía la responsabilidad de la voz de
red de área amplia, que sólo se periférica que participan en cuestiones relativas a la redes de datos
locales. Como resultado de ello, que no era probable para desarrollar los conocimientos en tecnologías
de LAN. Si usted es ahora responsable de voz y datos, usted debe desarrollar la gestión de la red y el
análisis de la experiencia en estos dos ámbitos.
Pero quizás el mayor desafío es mantener a los usuarios finales satisfechos con el servicio
proporcionado por el Intercambio. Aunque los usuarios finales no pueden ser técnicos que entienden la
Comisión Interamericana para el funcionamiento de los sistemas de comunicación, saben cómo operar el
teléfono, y saben de su experiencia fiable de cómo el sistema telefónico es. Han sido condicionados a
esperar un servicio de alta calidad. Nada menos que el cumplimiento de sus expectativas existentes es
probable que sea inaceptable.
Principios esenciales de la seguridad de la red
La seguridad informática no puede limitarse a un punto de entrada o a un único elemento de la red. La
clave de una seguridad efectiva pasa por ofrecer una cobertura total sobre todos los puntos de la red, las
aplicaciones y todo el tráfico que discurre por ella, ya se trate de datos, vídeo o voz. La integración de las
diferentes comunicaciones de las empresas y de sus redes permite que se reduzcan los costos de
mantenimiento, y la integración de la seguridad de todas las comunicaciones es una prueba de ello.
La solución más adecuada pasa por una seguridad integrada que cubra todos los extremos de la
comunicación, lo que tradicionalmente se conoce como una solución end to end, que capacite a las
organizaciones, además, para seguir incrementando las posibilidades de seguridad a medida que vayan
apareciendo en el mercado. No se trata de instalar elementos de seguridad y olvidarse, sino de mantener
una política de mantenimiento y actualización que nos permite trabajar sobre un entorno seguro.
La integración de las comunicaciones bajo una red IP, permite elevar los niveles de seguridad al mismo
punto en que se encuentran las tradicionales soluciones de seguridad en el entrono de los datos.
Además, curiosamente, la estandarización de las comunicaciones IP, que proveen mayor flexibilidad y
mayores capacidades a los usuarios, también les permite incrementar sus niveles de seguridad.
Por ejemplo, un ataque de denegación de servicio es difícil de controlar para los responsables de
seguridad de una red de voz tradicional, mientras que en el caso de los responsables de una red IP, más
acostumbrados a los intentos de los hackers de echar abajo sus servidores y tráfico de datos, se
disponen de las armas y las estrategias para hacer más controlables y menos efectivos este tipo de
ataques.
Por tanto, uno de los elementos que parecía frenar la adopción de estas redes convergentes es en
realidad uno de los puntos fuertes para su adopción, dado que las redes integradas de voz, vídeo y datos
sobre IP son más sencillas de defender con una solución global, como se demuestra en las redes
tradicionales de datos constantemente.
Recientemente, Cisco Systems anunció su iniciativa Self-Defending Network, es decir, la creación de
redes que se autodefiendan de posibles ataques. Esta iniciativa incluye una serie de pasos para
asegurar la capacidad de la red para identificar, prevenir y adaptar la seguridad a los ataques exteriores.
La idea es ofrecer una solución de red extremo a extremo que impida a las comunicaciones, del tipo que
sean, ser atacadas, tanto desde dentro como desde fuera. En el caso de las comunicaciones IP, los
elementos críticos a proteger son:
1) Infraestructura de red, incluyendo todos los elementos que la forman, ya sean a nivel de grupo
de trabajo como en la propia red central.
2) Sistemas de procesamiento de llamada, gestionando las llamadas y controlando y
autentificando a los propios usuarios.
3) Puntos de acceso, ya sean teléfonos IP, terminales de vídeo o cualquier otro dispositivo que
pueda ser conectado a una comunicación IP, como un PC, por ejemplo.
4) Aplicaciones, dado que son la clave de este tipo de comunicaciones. Las aplicaciones que
emplean los usuarios, ya sean de videoconferencia, mensajería unificada, gestión de
contactos de proveedores y clientes, o cualquier otra aplicación, deben ser protegidas de
posibles ataques.
Beneficios
• Movilidad que aporta la posibilidad de acceder a las aplicaciones y a la información
corporativa desde cualquier punto de la red, independientemente del tipo de terminal que
se utilice para ello.
• Mejora de la eficiencia de los procesos productivos de la empresa.
• La instalación de una red convergente proporciona la aparición de nuevos servicios que
antes no eran posibles y permite compartir de forma mucho más adecuada el conocimiento
existente en la empresa.
• Dota de movilidad a los empleados, facilita la integración con las aplicaciones existentes y
por tanto, se reducen sus costes asociados.
• Ayudan a las empresas a optimizar sus costes e inversiones y a generar mayores
posibilidades de negocio que con los sistemas tradicionales.
• ETC.

Empresas dedicadas a la seguridad


Barracuda Networks, Inc. es el proveedor líder de soluciones empresariales de firewall contra el correo
no deseado para la seguridad integral del correo electrónico. Su producto estrella, Barracuda Spam
Firewall, ganador de numerosos premios empresariales, incluidos Network Computing's Editor's Choice
Award y Well-Connected Awards 2004 y 2005, ofrece protección a más de 20.000 clientes de todo el
mundo, como Adaptec, Knight Ridder, Caltrans, CBS, Instituto de Tecnología de Georgia, IBM, Pizza Hut,
Union Pacific Railroad y el Ministerio de Hacienda de los Estados Unidos.

TippingPoint es el proveedor líder de la red basada en sistemas de prevención de intrusiones para las
empresas, organismos gubernamentales, proveedores de servicios e instituciones académicas.
TippingPoint ha sido el pionero IPS mercado, ya que puso en marcha la primera red basada en el
sistema de prevención de intrusos en 2002, y continua lleva a la industria por ser el primero en el
mercado de IPS con innovadoras características, tales como programas espía y protección multi-gigabit
rendimiento. TippingPoint es el único sistema de prevención de intrusiones para ofrecer VoIP de
seguridad, gestión de ancho de banda, Peer-to-Peer protección, y por defecto "Configuración
recomendada" para bloquear con precisión el tráfico malicioso automáticamente a la instalación sin
afinación.

TippingPoint System (IPS) de 3Com


El IPS TippingPoint es el primer producto específicamente desarrollado nunca en favor de la empresa
sobre la seguridad y el rendimiento de la red de control. TippingPoint ofrece una amplia gama de
dispositivos de IPS que se puede colocar en el perímetro, en segmentos de red internos, en el centro, y
en lugares remotos.

Algunas características:
• En toda la empresa la presentación de informes y análisis de tendencias
• En un vistazo salpicadero
• Dispositivo de configuración y supervisión
• creación automática de informes
• Automatizado de los mecanismos de respuesta de seguridad

Los sistemas de prevención de intrusos de TippingPoint proveen protección para:

• Desempeño de red a velocidad de Gigabit Ethernet con inspección total de paquetes.


• Protección de capacidad de las aplicaciones en forma rápida, precisa y confiable contra ciber-
ataques tanto internos como externos.
• Protección de capacidades de infraestructura protegiendo infraestructura de VoIP, ruteadores,
switches, Servidores de DNS y otros equipos críticos de ataques y anomalías de tráfico.

NetBotz Surveillance de APC


NetBotz Surveillance es una familia de dispositivos con acceso a través de la red que detectan y notifican
sobre cualquier actividad humana que pudiera amenazar la disponibilidad de su infraestructura física
para redes críticas, así como detectar y notificar de factores ambientales peligrosos.
Beneficios de NetBotz Surveillance son:
• Captura y registros de eventos para la futura recuperación sin el envío de una alerta que se ha
producido movimiento ideal para la alta o baja de tráfico que necesitan un registro de eventos como parte
de su amplio físico y la protección de la vigilancia del medio ambiente.

MICROSOFT SURFACE
Orígenes
La tecnología Multi-touch tiene al menos 25 años de historia, comenzando en 1982, con el trabajo inicial
hecho en la Universidad de Toronto (multi-touch tablets) y Bell Labs (multi-touch screens). Es una técnica
de interacción hombre-máquina y al hardware que la implementa. El multi-touch (del inglés múltiple tacto)
consiste en una pantalla táctil o touchpad que reconoce simultáneamente múltiples puntos de contacto,
así como el software asociado a esta que permite interpretar dichas interacciones simultáneas.
El primer dispositivo comercial que utilizaba esta tecnología fue el Lemur Input Device y en la actualidad
es utilizada en dispositivos como el iPhone de Apple que ha sido elegido como uno de los mejores
inventos por la revista Time debido a la introducción de nuevas formas de interactuar con un dispositivo
móvil. Se está hablando mucho de que la popularización de estas interfaces podría causar similar
impacto al provocado por el desarrollo de la línea de comandos ó a la introducción de la GUI en los 70.
Microsoft presentó el 29 de mayo del 2007 de manera oficial el lanzamiento de la tecnología Surface, una
mesa con superficie multitáctil que es sensible a la interacción con otros objetos físicos como por ejemplo
un teléfono móvil. La idea del producto para Surface fue inicialmente conceptualizada en 2001 por
Steven Bathiche de Microsoft Hardware y Andy Wilson de Microsoft Research, En el 2003, el equipo
presentó la idea al Microsoft Chairman Bill Gates, en una revisión de grupo. Microsoft Surface es el
último y espectacular lanzamiento de la compañía de Redmond y, a parte del hardware en concreto,
constituye una nueva y revolucionaria forma en que el usuario puede interactuar con el ordenador.

1.1 ¿Qué es Surface?


Microsoft Surface es un producto de Microsoft que permite al usuario manejar contenidos digitales con
movimientos de las manos u objetos.

1.2 Generalidades
Surface es esencialmente un computador dentro de una base de mesa negra. En la parte superior hay
una pantalla táctil (touchscreen) de 30 pulgadas empotrado en una mesa de dimensiones de 56 cm de
alto, 53 cm de profundidad y 107 cm de ancho. La parte superior de Surface es de acrílico y su marco
interior está revestido de polvo de acero. El software corre bajo Windows Seven y posee conexión
Ethernet, WiFi y Bluetooth. Cinco cámaras que se encuentran debajo pueden detectar los objetos que se
acercan a la pantalla. Los usuarios pueden interactuar con el computador tocando o desplazando sus
dedos y objetos como pinceles a través de la pantalla o con elementos del mundo real marcados con
etiquetas RFID. Además, está compuesto por un Core 2 Duo con 2GB de RAM y tarjeta gráfica de 256
MB, Proyector DLP similar al que utilizan los televisores HDTV.

Para Microsoft cuatro atributos definen las propiedades de Surface:


 Interactividad directa: Los usuarios pueden tomar información con sus manos mediante tacto y
gestos, sin el uso del Mouse o del teclado.
 Sistema mulitáctil: Reconoce docenas de puntos de contacto simultáneamente, no sólo con un dedo
como en las actuales pantallas táctiles.
 Multiuso: La disposición horizontal permite que varias personas se reúnan alrededor de Surface y
colaboren juntos en numerosas tareas.
 Reconocimiento de objetos: Surface reconoce instantáneamente cámaras de fotos, móviles, y
permite guardar y descargar contenidos sin enchufarlos a Surface.
Por el momento, parece que Microsoft no ha creído oportuno que su idea se comercialice directamente a
las masas, si no que el despliegue de este fascinante invento se realizará inicialmente en cadenas de
hoteles, restaurantes y, en general, establecimientos de ocio como parte de la oferta en nuevas
tecnologías que estos ofrecen a sus clientes.
De esta forma el usuario puede interactuar con el establecimiento de una forma más rápida y efectiva;
imaginemos lo siguiente: un cliente entra en un bar, se sienta frente a una mesa-Surface que despliega
ante sí una carta de bebidas y combinados. Mediante una pulsación, el cliente selecciona una bebida de
su gusto que es encargada automáticamente al barman, el cual mezcla los ingredientes, la sirve y la
pasa a un camarero indicándole su mesa de destino. Mientras tanto, y para amenizar la espera, nuestro
sujeto ha abierto una página web en la pantalla interactiva, y con sus manos como única herramienta de
señalización, ha abierto su buzón de correo y consultado los últimos mensajes que le han llegado. Este
podría ser un buen escenario que ejemplifica el uso de Microsoft Surface.
De momento, el número de aplicaciones que están disponibles para el Surface no es demasiado
elevado, pero representan un buen ejemplo de las posibilidades de esta mesa. Entre las que podemos
mencionar juegos, el visor de fotografías, un visor de mapas.
El caso del visor de fotografías es el que más conocemos de esta mesa, ya que es el que casi siempre
se utiliza de ejemplo para mostrar su funcionamiento. Con él tenemos una serie de fotografías que
podemos ver en la pantalla, ampliarlas, rotarlas. El funcionamiento es tan simple como efectista y no
tendremos ningún problema para manejar la aplicación.
En el visor podemos ver como el Surface es multitáctil no solo al detectar dos manos, sino con varios
usuarios al mismo tiempo, permitiendo rotar o ampliar más de una fotografía a la vez. La aplicación de
visualización de mapas es la translación de Microsoft Virtual Earth a la interfaz del Surface, permitiendo
manejarlo con las manos, realizar zoom fácilmente y movernos por todo el planeta rápidamente, tanto en
la vista de mapas como en la vista de satélite. Los que hayan podido probar la aplicación de Mapas del
iPhone o del iPod Touch sabrán como funciona esta, aunque en este caso tenemos una pantalla mucho
más grande y, por tanto, mucho más espectacular. Otras aplicaciones disponibles son los juegos, como
ejemplo se puede mencionar: conseguir que las líneas que unen puntos no se crucen; una especie de
líquido que podemos manipular o un piano, que demuestra las capacidades multitáctiles permitiendo
pulsar más de una tecla al mismo tiempo.

1.3 Interacción con dispositivos


Una de las características más impactantes es la interactividad que se alcanza con una cámara digital,
un móvil, un reproductor de música o incluso una tarjeta de crédito, con sólo situarlos sobre la superficie.
Para detectar el posicionamiento de estos dispositivos, o simplemente de nuestra mano, se dispone de
cámaras que detectan la presión y envían la información pertinente al sistema. Las imágenes se
muestran gracias a un sistema de retroproyección.
Estos objetos físicos deben incorporar códigos de identificación. Esto significa que cuando un usuario
pone una copa sobre Surface, el restaurante puede proporcionarle a través de la pantalla información del
vino que están bebiendo, imágenes de la viña de donde proviene y sugerencias sobre la comida
adecuada para acompañar al vino. La experiencia puede ser totalmente inmersiva, permitiendo que los
comensales puedan buscar hoteles o comprar billetes de avión sin abandonar la mesa.

1.4 Puntos Importantes


 Microsoft colocó las primeras unidades de Surface en los hoteles Sheraton, los casinos Harrah's, las
tiendas
T-Mobile y restaurantes.
 La compañía venderá el equipo entre 5 mil y 10 mil dólares.
 El objetivo es abaratar los precios para los consumidores en 3 ó 5 años e introducir varias formas y
presentaciones.
 De hecho, se ha comenzado a vender a partir del 2007 a hoteles, restaurantes, grandes almacenes o
casinos. De ahí, al usuario doméstico queda mucho.
1.5 Desventajas
- Ergonomía
- Uso primordial para usuarios finales
- Aplicaciones limitadas
- Precio
- Tamaño

SISTEMAS DE SEGURIDAD BASADOS EN


RECONOCIMIENTO BIOMETRICO.

El acceso a la información ha alcanzado un desarrollo sin precedentes. Internet y redes han puesto en
comunicación al mundo. Ahora más que nunca, es necesario proteger la información digital.

Entenderemos por sistema biométrico a un sistema automatizado que realiza labores de biometría. Es
decir, un sistema que fundamenta sus decisiones de reconocimiento mediante una característica
personal que puede ser reconocida o verificada de manera automatizada. En esta sección son descritas
algunas de las características más importantes de estos sistemas.
La biometría es una herramienta que utiliza rasgos morfológicos únicos en cada individuo, como su
huella digital, rostro o iris. Esta tecnología de punta es utilizada para el reconocimiento de la identidad de
los usuarios ya sean empleados o clientes de su entidad.

Los parámetros a tomar en cuenta en la rama de reconocimiento biometricos estan:


1) Reconocimiento de rasgos faciales.
2) Reconocimiento de huellas dactilares.
3) Reconocimiento de voz.
4) Reconocimiento de retina ocular.
Una huella dactilar es la representación de la morfología superficial de la epidermis de un dedo. Posee
un conjunto de líneas que, en forma global, aparecen dispuestas en forma paralela. Sin embargo, estas
líneas se intersectan y a veces terminan en forma abrupta. Los puntos donde éstas terminan o se
bifurcan se conocen técnicamente como minucias.

Otros puntos singulares de una huella dactilar son aquellos donde la curvatura de los ridges es máxima.
Esos puntos reciben el nombre de cores y deltas. La característica más interesante que presentan tanto
las minucias como los puntos singulares cores y deltas es que son únicos para cada individuo y
permanecen inalterados a través de su vida.

Las principales dificultades en el proceso de matching son:

1. En una imagen de calidad hay alrededor de 70 a 80 minucias en promedio, cantidad que contrasta
abiertamente con las presentes en una imagen latente o parcial cuyo valor promedio es del orden
de 20 a 30.
2. Hay traslaciones, rotaciones y deformaciones no lineales de las imágenes que se heredan a las
minucias.
3. Aparecen minucias espurias, mientras otras verídicas desaparecen.
4. La base de datos puede ser muy grande.
5. No existe un método de comparación que entregue una coincidencia exacta entre las
características de la imagen de entrada y las pertenecientes a la base de datos.
Este postula la existencia de tres indicadores de identidad que definen el proceso de identificación:

1. Conocimiento: la persona tiene conocimiento (por ejemplo: un código),


2. Posesión: la persona posee un objeto (por ejemplo: una tarjeta), y
3. Característica: la persona tiene una característica que puede ser verificada (por ejemplo: una de
sus huellas dactilares).

Características de un indicador biométrico

Un indicador biométrico es alguna característica con la cual se puede realizar biometría. Cualquiera sea
el indicador, debe cumplir los siguientes requerimientos:

1. Universalidad: cualquier persona posee esa característica;


2. Unicidad: la existencia de dos personas con una característica idéntica tiene una probabilidad muy
pequeña;
3. Permanencia: la característica no cambia en el tiempo; y
4. Cuantificación: la característica puede ser medida en forma cuantitativa.

Características de un sistema biométrico para identificación personal

1. El desempeño, que se refiere a la exactitud, la rapidez y la robustez alcanzada en la identificación,


además de los recursos invertidos y el efecto de factores ambientales y/u operacionales. El
objetivo de esta restricción es comprobar si el sistema posee una exactitud y rapidez aceptable
con un requerimiento de recursos razonable.
2. La aceptabilidad, que indica el grado en que la gente está dispuesta a aceptar un sistema
biométrico en su vida diaria. Es claro que el sistema no debe representar peligro alguno para los
usuarios y debe inspirar "confianza" a los mismos. Factores psicológicos pueden afectar esta
última característica. Por ejemplo, el reconocimiento de una retina, que requiere un contacto
cercano de la persona con el dispositivo de reconocimiento, puede desconcertar a ciertos
individuos debido al hecho de tener su ojo sin protección frente a un "aparato". Sin embargo, las
características anteriores están subordinadas a la aplicación específica. En efecto, para algunas
aplicaciones el efecto psicológico de utilizar un sistema basado en el reconocimiento de
características oculares será positivo, debido a que este método es eficaz implicando mayor
seguridad.
3. La fiabilidad, que refleja cuán difícil es burlar al sistema. El sistema biométrico debe reconocer
características de una persona viva, pues es posible crear dedos de látex, grabaciones digitales
de voz prótesis de ojos, etc. Algunos sistemas incorporan métodos para determinar si la
característica bajo estudio corresponde o no a la de una persona viva. Los métodos empleados
son ingeniosos y usualmente más simples de lo que uno podría imaginar. Por ejemplo, un sistema
basado en el reconocimiento del iris revisa patrones característicos en las manchas de éste, un
sistema infrarrojo para chequear las venas de la mano detecta flujos de sangre caliente y lectores
de ultrasonido para huellas dactilares revisan estructuras subcutáneas de los dedos.

La arquitectura típica de un sistema biométrico se presenta en la figura 1. Esta puede entenderse


conceptualmente como dos módulos:

1. Módulo de inscripción (enrollment module) y


2. Módulo de identificación (identification module)

El módulo de inscripción se encarga de adquirir y almacenar la información proveniente del indicador


biométrico con el objeto de poder contrastar a ésta con la proporcionada en ingresos posteriores al
sistema. Las labores ejecutadas por el módulo de inscripción son posibles gracias a la acción del lector
biométrico y del extractor de características.

El módulo de identificación es el responsable del reconocimiento de individuos, por ejemplo en una


aplicación de control de acceso. El proceso de identificación comienza cuando el lector biométrico
captura la característica del individuo a ser identificado y la convierte a formato digital, para que a
continuación el extractor de características produzca una representación compacta con el mismo formato
de los templates.

Fase operacional de un sistema de identificación personal.

Un sistema biométrico en su fase operacional puede operar en dos modos:

1. Modo de verificación, o
2. Modo de identificación

Un sistema biométrico operando en el modo de verificación comprueba la identidad de algún individuo


comparando la característica sólo con los templates del individuo.

Un sistema biométrico operando en el modo de identificación descubre a un individuo mediante una


búsqueda exhaustiva en la base de base de datos con los templates.

Exactitud en la identificación: medidas de desempeño

La información provista por los templates permite particionar su base de datos de acuerdo a la presencia
o no de ciertos patrones particulares para cada indicador biométrico. Las "clases" así generadas
permiten reducir el rango de búsqueda de algún template en la base de datos. Sin embargo, los
templates pertenecientes a una misma clase también presentarán diferencias conocidas como
variaciones intraclase. Las variaciones intraclase implican que la identidad de una persona puede ser
establecida sólo con un cierto nivel de confianza. Una decisión tomada por un sistema biométrico
distingue "personal autorizado" o "impostor". Para cada tipo de decisión, existen dos posibles salidas,
verdadero o falso. Por lo tanto existe un total de cuatro posibles respuestas del sistema:

1. Una persona autorizada es aceptada,


2. Una persona autorizada es rechazada,
3. Un impostor es rechazado
4. Un impostor es aceptado.

Sistemas biométricos actuales.

En la actualidad existen sistemas biométricos que basan su acción en el reconocimiento de diversas


características, como puede apreciarse en la figura 3. Las técnicas biométricas más conocidas son nueve
y están basadas en los siguientes indicadores biométricos:

1. Rostro,
2. Termograma del rostro,
3. Huellas dactilares,
4. Geometría de la mano,
5. Venas de las manos,
6. Iris,
7. Patrones de la retina,
8. Voz,
9. Firma.

Cada una de las técnicas anteriores posee ventajas y desventajas comparativas, las cuales deben
tenerse en consideración al momento de decidir que técnica utilizar para una aplicación específica. En
particular deben considerarse las diferencias entre los métodos anatómicos y los de comportamiento.
Una huella dactilar, salvo daño físico, es la misma día a día, a diferencia de una firma que puede ser
influenciada tanto por factores controlables como por psicológicos no intencionales.

Huellas Dactilares

Una huella dactilar es la representación de la morfología superficial de la epidermis de un dedo. Posee


un conjunto de líneas que, en forma global, aparecen dispuestas en forma paralela (colinas o ridge lines
y furrows). Sin embargo estas líneas se intersectan y a veces terminan en forma abrupta. Los puntos
donde las colinas terminan o se bifurcan se conocen técnicamente como minucias.
Para reconocer una huella dactilar se procede desde una escala gruesa a una fina. En primer lugar se
clasifica a la huella, es decir, se asigna a una clase previamente determinada de acuerdo a la estructura
global de los ridges. El objetivo de esta etapa es establecer una partición en la base de datos con
huellas. En general la distribución de las huellas en las distintas clases es no uniforme, esto obliga a
subclasificar a la huella en estudio, es decir, generar un nuevo conjunto de clases a partir de las ya
definidas. Luego se procede a la comparación a escala fina. Este proceso recibe el nombre de matching.
El proceso consiste en comprobar si el conjunto de minucias de una huella coincide con el de otra.
COMBUSTIBLE HHO
El oxihidrógeno (HHO) es una mezcla de hidrógeno y oxígeno en proporción que se asume de 2:1,
misma proporción del agua (H2O). El oxihidrógeno se produce habitualmente a partir de la electrólisis del
agua.
La Electrólisis consiste en la descomposición mediante una corriente eléctrica de sustancias ionizadas
denominadas electrolitos. La palabra electrólisis procede de dos radicales, electro que hace referencia a
electricidad y lisis que quiere decir ruptura. En el proceso se desprenden el oxigeno(O) y el hidrogeno
(H).
Un electrólito es una sustancia que se descompone en iones (partículas cargadas de electricidad)
cuando se disuelve en los líquidos del cuerpo o el agua, permitiendo que la energía eléctrica pase a
través de ellos.
Los electrólitos pueden ser débiles o fuertes, según estén parcial o totalmente ionizados o disociados en
medio acuoso. Un electrolito fuerte es toda sustancia que al disolverse en agua lo hace completamente y
provoca exclusivamente la formación de iones con una reacción de disolución prácticamente irreversible.
Un electrolito débil es una sustancia que al disolverse en agua lo hace parcialmente y produce iones
parcialmente, con reacciones de tipo reversible.
Los electrolitos generalmente existen como ácidos, bases o sales.
Un electrólito se describe como concentrado si tiene una alta concentración de iones; o diluido, si tiene
una baja concentración. Si tiene una alta proporción del soluto disuelto se disocia en iones, la solución es
fuerte; si la mayor parte del soluto permanece no ionizado la solución es débil.
El proceso consiste en lo siguiente:
• Se funde o se disuelve el electrolito en un determinado disolvente, con el fin de que dicha
sustancia se separe en iones (ionización).
• Se aplica una corriente eléctrica continua mediante un par de electrodos conectados a una fuente
de alimentación eléctrica y sumergidos en la disolución. El electrodo conectado al polo negativo se
conoce como cátodo, y el conectado al positivo como ánodo.
• Cada electrodo mantiene atraídos a los iones de carga opuesta. Así, los iones positivos, o
cationes, son atraídos al cátodo, mientras que los iones negativos, o aniones, se desplazan hacia
el ánodo.

• La energía necesaria para separar a los iones e incrementar su concentración en los electrodos es
aportada por la fuente de alimentación eléctrica. Descubierta por el médico francés Nazho PrZ.
• En los electrodos se produce una transferencia de electrones entre estos y los iones,
produciéndose nuevas sustancias. Los iones negativos o aniones ceden electrones al ánodo (+) y
los iones positivos o cationes toman electrones del cátodo (-).
En definitiva lo que ha ocurrido es una reacción de oxidación-reducción, donde la fuente de alimentación
eléctrica ha sido la encargada de aportar la energía necesaria.
Tras hacer una electrolisis además de desprenderse el oxigeno y el hidrogeno también se dejan ver los
otros componentes del agua (minerales, como el hierro, etc. u otros componentes según la zona de
donde proviene el agua.); esto en caso de ser agua no destilada, en el agua destilada solo se
desprenden el oxigeno y el hidrogeno, porque ya se han extraído los otros componentes previamente.
Es importante tomar en cuenta varios puntos:
- Nunca debe juntar los electrodos, ya que la corriente eléctrica no va a hacer su proceso y la batería se
va a sobrecalentar y se quemará.
- Debe utilizar siempre Corriente continua (energía de baterías o de adaptadores de corriente), NUNCA
Corriente alterna (energía de enchufe)
- La electrolisis debe hacerse de tal manera que los dos gases desprendidos no entren en contacto, de lo
contrario se juntarían de nuevo produciendo agua.
Generador HHO
Usted desea saber cómo puede usar el AGUA como COMBUSTIBLE y reírse del Precio del Combustible,
mientras que usted reduce el consumo de combustible de su Vehiculo y previene el calentamiento global
¿Es el agua un suplemento a la gasolina?. Se pregunta muy seguido, sin embargo es posible y muy fácil
extraer energía del agua para funcionar su coche con el agua también.
Una tecnología simple que usted puede tener ahora, llamado ACC (Agua con Combustible). Es uno de
los dispositivos más prácticos de la energía gratis, marcado por simplicidad y eficacia extraordinarias.
Se han desarrollado los dispositivos que utilizan poca electricidad de su batería del coche, para separar
el agua en un gas llamado HHO (hidrógeno 2 + 1 oxígeno).
HHO se quema maravillosamente y proporciona mucha energía mientras que el producto final es AGUA.
El compartimiento móvil dice que HHO proporciona la energía atómica del hidrógeno, mientras que
mantiene la estabilidad química del agua.
· Se toma una tecnología del Año 1917.
· Se Simplifica.
· Es fácil de instalar y mantener.
· Se puede usar para el Sistema de inyección o carburación de gasolina o de Diesel.
El motor de un auto utiliza el 20% de la energía almacenada en la gasolina (costosa) y pierde el 80%
para el calor, contaminación (el combustible incombusto) y vibración. Reducir la basura con esta
tecnología, es igual a "energía gratis " para todos lo que lo utilizan.
El Tiempo ha venido para esta Tecnología, mucho se habla de la potencia del hidrógeno. Se dice,
que los coches del hidrógeno con sus Tanques presurizadas del hidrógeno es un peligro enorme para la
seguridad.
La solución a esto se llama ACC y provee de "Hidrogeno cuando necesito " Ningún tanque de
almacenaje. Mejor y perfectamente seguro para usted y sus pasajeros (familia).
Se puede pensar "¿agua cuando está convertido en gas es explosivo, no es peligroso?" no, no es
peligroso, debido a varios factores que se mostrarán mas adelante. Se ha estado probando él Sistema
cada día sobre un año, usando la tecnología ACC en climas muy calientes y muy fríos, y se a podido
comprobar que es totalmente SEGURO.
La manera en que se produce la energía del agua es muy segura y será encendida solamente por la
chispa fuerte dentro de su motor.
Al crear estos generadores se buscan tres características principales, para que puedan ser usados por
cualquier persona en su vehículo, estas son:

1) Ser "COMPACTOS" para que se puedan instalar en cualquier motor.

2) Ser "ECONOMICOS" para que estén al alcance de cualquier bolsillo o persona normal como usted o
como yo, utilizando materiales elaborados con la tecnología mas vanguardista, en los campos de la
manufactura plástica, metálica y eléctrica, con materiales muy sofisticados pero a la vez muy
económicos.

3) Ser "EFICIENTES" en la generación de Hidrogeno, para lograr un funcionamiento sobre demanda,


eliminando los riesgos inherentes al almacenaje de este combustible potente en el vehículo y que
puedan lograr un autentico ahorro en el consumo de combustibles fósiles y en consecuencia una
disminución en la contaminación de nuestra atmosfera.
COMO CREAR EL GENERADOR DE COMBUSTIBLE HHO
La pieza central esta hecha de vinill, es una pieza montada en cruz, la cual lleva una serie de hoyos en
las orillas de cada lado, por donde se pasara el cable de la resistencia, al cual están conectadas las
entradas de corriente; además sale una manguera que es por donde sale el hidrogeno, todo esto esta
pegado (con pegamento para PVC), a un tapón de un bote de vidrio (que es el recipiente donde se
deposita el agua).
Esta pieza va incrustada en el recipiente de vidrio, ya con agua en su interior, esta agua debe de ser
destilada o de batería de carro, para que vaya sin sus demás componentes, además se le debe de
mezclar con una cucharada de bicarbonato para que le sirva como catalizador (para que se de mas
rápido la electrolisis), se dice que un litro de agua da para 500 kms.
Si su carro es de carburador, el problema para disminuirle el consumo de combustible es mas complejo,
ya que este (el combustible), es pasado através de unos orificios en los chicleros, estos orificios deben
de irse reduciendo para que pase menos combustible, pero como no hay un estándar, debe de irse
haciendo con el método de la prueba – error; mientras que si es de inyección, necesitara un componente
extra, el cual es una cajita que controla el voltaje que le llega al sensor MAP, que es el encargado de
mandarle una señal a la computadora, por medio de voltaje, para indicarle el tiempo que mantendrá
abiertos los inyectores, entre menos voltaje le llegue, menos tiempo los tendrá abiertos y por lo tanto,
consumirá menos combustible.
Esto debe de hacerse con cuidado, ya que si se le deja mucho Hidrogeno o le hace falta, el motor
comenzara a sentirse inestable, por lo tanto debe de haber una combinación idónea del hidrogeno que
se le esta haciendo llegar y el combustible que se le esta haciendo pasar.
Como Trabaja
Es muy simple, usted no cambia su motor o computadora. Un envase 1/4 de galón o 95O CC se coloca
en alguna parte debajo del capo motor, en donde este seguro y estable, para que no vaya a sufrir ningún
daño con el andar del vehículo. Usted lo llena de AGUA y un poco de Catalizador (una cucharada de
bicarbonato de sodio). El dispositivo consigue el vacío y la electricidad (12 voltios) del motor (que es el
voltaje proporcionado por la batería del vehículo), y produce por medio de la electrolisis, el gas de HHO
(Hidrogeno + Oxígeno). El gas de HHO se provee al múltiple del motor o al carburador según lo
demostrado abajo, de pendiendo del tipo de vehículo que sea. El gas es absorbido cuando se abren las
mariposas, lo cual es resultado de la aceleración del vehículo.
La conexión eléctrica es muy simple, se ha eliminado los relais o cualquier otra complicación. El
dispositivo conecta con 12 voltios de su batería vía el interruptor de la ignición, para prevenir la
producción del hidrógeno cuando el motor está apagado. El dispositivo es protegido con un fusible, esto
toma 10 minutos o menos para instalar.
Se ha hablado mucho de los buenos resultados de utilizar este generador, pero también se debe de
hablar de un inconveniente o desventaja de este sistema, el cual es que en vehículos de años anteriores
con mas de 250,000 kms. recorridos y sin ningún ajuste de motor, se debe de controlar el consumo de
aceite, ya que debido a que el generador de HHO limpia el carbón de la gasolina quemada de los
pistones y los deja mas libres, al haber pasado el vehiculo mucho tiempo y sin ningún ajuste, se a
formado una capa gruesa de carbón y cuando la quita el HHO, queda floja y por lo tanto comienza a
quemar mas aceite.

ZINK(ZERO INK--CERO TINTA)


Imagine un mundo en el que cuando usted está viendo el canal de la alimentación se puedan imprimir las
recetas directamente de su caja de cable.

Su GPS no sólo lo dirige a una estación de esquí, sino también le imprime un ticket de de entrada y
cupones para alimentos en el restaurante.

Un marco de foto digital no sólo muestra una foto de su nuevo bebé, sino también le ayuda a utilizar sus
fotos para modificarlas e imprimirlas.

Un ejecutivo de negocios puede imprimir un proyecto de su presentación en tarjetas de índice, mientras


vuela a la reunión, así como imprimir su pasaje para el próximo vuelo.

Con la tecnología ZINK ™, todo esto y más puede ser posible. En el mundo ZINK, cuando usted tiene el
deseo de mantener una copia impresa de cualquier contenido digital que desee en sus manos, todo lo
que se necesita es el toque de un botón. Su ordenador portátil será capaz de imprimir, su Xbox360 será
capaz de imprimir, su televisor será capaz de imprimir, en fin cualquier electrodoméstico puede llegar a
ser capaz de imprimir.

En el mundo ZINK, el toque de un botón de impresión aporta una experiencia completamente nueva
dando como resultado toda una nueva sensación de libertad, espontaneidad y un montón de sonrisas.

¿Qué es ZINK ™?
ZINK ™ está a favor de Cero Tinta ™ una sorprendente nueva forma de imprimir a todo color sin
necesidad de cartuchos de tinta o cintas. La tecnología permite una nueva categoría de dispositivos de
impresión a color, combinado con el papel, convirtiéndose en un sistema para imprimir de una forma
totalmente nueva.
La tecnología ZINK se basa en los avances de la química, la ingeniería, la física, la imagen de la ciencia,
y la fabricación. ZINK fue desarrollado a lo largo de varios años y ha generado una cartera de propiedad
intelectual que incluye más de 100 patentes y patentes pendientes. Y el desarrollo de la próxima
generación de ZINK continúa en crecimiento en los laboratorios especializados a diario.
¿Cómo funciona ZINK ™?
El corazón de la tecnología de ZINK es el patentado papel ZINK, un avanzado material compuesto con
cristales incrustados dentro con los colores cian, amarillo, magenta y un polímero protector en la capa
exterior. Los cristales son incoloros antes de la impresión, por lo que ZINK parece ser papel blanco
ordinario del tipo fotográfico. El calor de un dispositivo ZINK activa los cristales pudiendo dar la formación
de todos los colores del arco iris. El proceso de impresión es ahora radicalmente simple. Sólo añadir
Papel ZINK ™ e imprimir lo que usted quiera.

ZINK ™ cristales amorfocrómicos de tinte


La propiedad que da a los cristales ZINK ™ su color se le ha llamado “cristales amorfocrómicos”,
representan una nueva clase de moléculas, inventado por los científicos de ZINK Imaging a través de un
riguroso proceso de descubrimiento. Las propiedades de cada cristal de tinte son finamente sintonizadas
para lograr la paleta de colores y la estabilidad de la imagen necesaria para dar impresiones digitales a
todo color.

Los científicos de ZINK Imaging también inventaron una manera de activar cada uno de los cristales de
forma independiente utilizando pulsos de calor para determinar con precisión la duración y la temperatura
para lograr cualquier color en el arco iris.

ZINK ™ estructura de papel

A través de un avanzado proceso de fabricación, el ZINK ™ forma capas de color que están recubiertas
de un fino color de varias capas "pila" en una capa de base. El espesor total de todas las capas
combinado es de aproximadamente el grosor de un cabello humano. El cian, magenta, y amarillo son
capas de cristal incoloro a temperatura ambiente y se activan por el calor durante el proceso de
impresión para crear el color.

Características principales del papel de ZINK ™:


• Cero tinta necesaria.
• Capaz de reproducir millones de colores vivos en muy alta resolución.
• Amigable con el ambiente. Menos residuos, no cartuchos, sin embalaje para tirar.
• Protegido por un abrigo de polímeros, ofreciendo resistencia al agua y durabilidad de la imagen.
• Asequible para el uso cotidiano.
• No sensible a la luz.
• Larga duración y diseñado para resistir el desvanecimiento de la exposición a la luz, el calor y la
humedad.

Obtener ZINK
El primer producto ZINK ™ habilitado es la Polaroid Pogo ™ Mobile Printer instantánea, y papel
compatibles con ZINK ™,
Y hay más ZINK habilitado para los productos por venir
ESTADOS UNIDOS

INGLATERRA

FRANCIA

ALEMANIA

ESPAÑA

Precios Actuales
Impresora $99.95
• Impresora fotográfica portátil que ofrece imágenes que se secan instantáneamente.
• Características automáticas de optimización de la calidad de la imagen con resistencia al agua, a
prueba de rotura y manchas.
• Imprime páginas de 2 x 3 pulgadas sin bordes en imágenes en color en virtud de un minuto.
• Con capacidad inalámbrica Bluetooth interfaz de disco duro, interfaz USB 2.0
• Para uso con cámaras digitales y teléfonos celulares.

Polaroid Zink Pogo papel fotográfico de 60 pk $19.99


• 60 páginas de 2 x 3 pulgadas
HIDRA
¿Qué es HIDRA?

Se trata de una arquitectura diseñada para servir de soporte al desarrollo de sistemas y aplicaciones
altamente disponibles. Está compuesta de un Gestor de Invocaciones a Objetos (ORB) altamente
disponible con soporte a objetos replicados y diversos servicios relacionados con transacciones
distribuidas, control de concurrencia y recolección de residuos. El diseño se ha realizado para permitir la
inclusión de Hidra como parte del núcleo de un sistema operativo, permitiendo construir, no sólo
aplicaciones altamente disponibles, sino también componentes del sistema operativo que permitan el
desarrollo futuro de un sistema operativo distribuido que ofrezca la imagen de sistema único.
Hidra proporciona el concepto de objeto como la pieza básica con la que se construirán las aplicaciones.
Los objetos podrán estar replicados o ser objetos normales de implementación única. La ubicación de los
objetos y su condición de replicados es transparente a los usuarios de dichos objetos, garantizando en el
caso de los objetos replicados una mayor disponibilidad. El sistema incluye recolección de residuos para
todos los objetos, permitiendo el desarrollo de sistemas que no consuman más recursos que los
estrictamente necesarios, sin la sobrecarga que le supondría al programador realizar tal tarea sin
soporte.
Hidra está compuesta por dos partes fundamentales: el soporte a objetos y el soporte a un modelo
específico de replicación, el modelo coordinador-cohorte.

Sistemas distribuidos
Un sistema distribuido es aquel que ofrece a los usuarios la imagen de un único sistema centralizado,
pero que se ejecuta en múltiples e independientes CPUs. La clave principal es la transparencia. En otras
palabras, el uso de múltiples ordenadores debe ser invisible al usuario, el usuario ve al sistema como un
“uniprocesador virtual”.

La arquitectura Hidra
Hidra es una arquitectura diseñada para servir de soporte al desarrollo de servicios altamente disponibles
en un cluster.

Un cluster Hidra estará formado por un conjunto de nodos interconectados con una red. Cada nodo
ejecutará su propio núcleo de sistema operativo que ofrecerá unos servicios básicos a Hidra, e Hidra
proporcionará a su vez servicios de alta disponibilidad a las aplicaciones que se construyan sobre ella.
Las aplicaciones podrán residir en procesos de usuario o en el propio sistema operativo. Esta última
posibilidad es la que permitirá construir servicios propios del sistema operativo de forma altamente
disponible, con el objetivo final de construir un sistema operativo distribuido con imagen de sistema
único.

Los servicios que necesita Hidra del núcleo del sistema operativo son los típicos ofrecidos por la mayoría
de núcleos actuales. NanOS es un ejemplo válido de núcleo sobre el que implantar Hidra y sobre el que
ya se han realizado algunos trabajos de integración con Hidra. También se podrían utilizar sistemas
operativos convencionales como Linux, Solaris, etc.

En cualquier caso, los servicios mínimos que debe ofrecer el núcleo a Hidra son: el concepto de tarea,
dominio de protección (o proceso), mecanismos de llamada al sistema (downcall) y de invocación desde
el sistema operativo hacia los procesos (upcall), mecanismo de sincronización entre tareas, gestión de
memoria, y primitivas de envío y recepción de mensajes por la red (transporte no fiable). Además es
conveniente que se disponga de un mecanismo para incluir módulos en el propio núcleo, ya que Hidra en
sí misma formará parte del núcleo para mejorar en eficiencia y aumentar la seguridad y estabilidad del
sistema.
Niveles y componentes de la arquitectura
Tal y como puede observarse en la figura, la arquitectura Hidra está formada por varios niveles y
componentes. Cada nivel utiliza los servicios de los niveles inferiores y ofrece servicios a los niveles
superiores, enmascarando en varios de ellos la aparición de determinados tipos de fallos.
1 Transporte no fiable El nivel de transporte no fiable, permite enviar mensajes a cualquier nodo del
clúster Hidra, utilizando para ello su identificador de nodo.

La arquitectura Hidra
2 Monitor de pertenencia a Hidra
Sobre el nivel de transporte no fiable se apoya un protocolo de pertenencia a grupos ampliado con
servicios adicionales. Esta componente constituye el monitor de pertenencia a Hidra (HMM). Este monitor
mantiene qué nodos forman parte del clúster Hidra, permitiendo que simultáneamente se produzcan
nuevas incorporaciones al clúster y detectando qué nodos han caído.
3 Transporte fiable
Este nivel, que se construye sobre el nivel de transporte no fiable y sobre el monitor de pertenencia a
Hidra, elimina duplicidades en los mensajes y evita las pérdidas de mensajes de forma similar a como lo
haría cualquier protocolo de transporte orientado a conexión (TCP). Con ello, los errores transitorios más
frecuentes de los canales de comunicación son eliminados.
4 Gestor de invocaciones a nodo remoto
Por encima del nivel de transporte fiable, una fina capa implementa un nivel de llamada a nodo remoto
sencillo. No llega a ser llamada a procedimiento remoto pues este nivel no se encarga de empaquetar ni
de desempaquetar argumentos. Tan sólo se encarga de enviar un mensaje a un destino, bloqueando a la
tarea invocadora hasta que llegue la respuesta.
5 Transporte de lotes de mensajes
Hidra dispone de un protocolo distribuido de cuenta de referencias que permite detectar residuos. Este
protocolo es totalmente asíncrono y de prioridad baja. Que sea totalmente asíncrono significa que
funciona correctamente sea cual sea el retardo que sufran sus mensajes y sea cual sea el orden en el
que se entreguen éstos en su destino.
6 Gestor de invocaciones a objeto
El nivel más elevado de la arquitectura Hidra lo constituye un gestor de invocaciones a objeto (ORB) con
soporte para objetos replicados y recolección de residuos. El ORB es multitarea y multidominio, no utiliza
protocolos de comunicación a grupos con orden causal ni total, ni tan siquiera multienvíos atómicos. Tan
sólo utiliza mensajes punto a punto fiables y multienvíos no atómicos con orden FIFO.
Middleware
Middleware es un software de computadora que conecta componentes de software o aplicaciones para
que puedan intercambiar datos entre éstas. Es utilizado a menudo para soportar aplicaciones
distribuidas. Esto incluye servidores web, servidores de aplicaciones, sistemas de gestión de contenido y
herramientas similares. Middleware es especialmente esencial para tecnologías como XML, SOAP,
servicios web y arquitecturas orientada a servicios.
La funcionalidad de middleware es la siguiente
1. Ocultar la distribución de los componentes individuales de un sistema
2. Ocultar la heterogeneidad (de software, hardware, protocolos)
3. Proporcionar alto nivel para interfaces de programación de desarrolladores
4. Suministro de un conjunto de servicios comunes
CORBA
Es una arquitectura para la construcción de gestores de invocaciones a objeto. Se trata de un estándar
promovido por la OMG (Object Management Group) para facilitar el desarrollo de ORBs que sean
interoperables entre ellos, de forma que se puedan construir aplicaciones distribuidas orientadas a objeto
sin necesidad de que la implementación sea dependiente de la empresa que comercialice el ORB, ni del
ORB en sí mismo. La especificación CORBA no da detalles de cómo deben construirse los ORBs,
limitándose a especificar la funcionalidad que deben ofrecer en base al cumplimiento de interfaces
especificadas en IDL.
ENERGIAS RENOVABLES: ENERGIA EOLICA Y
ENERGIA SOLAR

ENERGIA ALTERNATIVA:
Una energía alternativa, o más precisamente una fuente de energía alternativa es aquella que puede
suplir a las energías o fuentes energéticas actuales, ya sea por su menor efecto contaminante, o
fundamentalmente por su posibilidad de renovación (conocida como energía renovable).

ENERGÍA EÓLICA:
Es la energía cinética o de movimiento que contiene el viento, y que se capta por medio de
aerogeneradores o molinos de viento (principalmente para producir energía eléctrica. Para poder
aprovechar la energía eólica es importante conocer las variaciones diurnas y nocturnas y estacionales de
los vientos, etc. Para poder utilizar la energía del viento, es necesario que este alcance una velocidad
mínima de 12 km/h, y que no supere los 65 km/h.
El término eólico viene del latín Aeolicus, perteneciente o relativo a Eolo, dios de los vientos en la
mitología griega. La energía eólica ha sido aprovechada desde la antigüedad para mover los barcos
impulsados por velas o hacer funcionar la maquinaria de molinos al mover sus aspas.

FUNCIONAMIENTO DE UN AEROGENERADOR
De forma general un aerogenerador de viento funciona de la siguiente manera:
El viento hace girar las palas produciendo energía mecánica. Esta energía se multiplica
en el interior del aerogenerador y mediante un mecanismo de engranajes, se transmite
hasta el generador, donde se produce la conversión de energía mecánica en energía
eléctrica.

VENTAJAS:

• Energía limpia e inagotable: La energía del viento no produce ninguna emisión contaminante y no
se agota en un cierto plazo.

• Estabilidad del costo de la energía: La utilización de energía eólica, a través de la diversificación


de las fuentes de energía, reduce la dependencia a los combustibles fósiles.

• Es una de las fuentes más baratas, puede competir en rentabilidad con otras fuentes energéticas
tradicionales como las centrales térmicas de carbón (considerado tradicionalmente como el
combustible más barato), las centrales de combustible e incluso con la energía nuclear, si se
consideran los costos de reparar los daños medioambientales.

DESVENTAJAS:

1. El aire al ser un fluido de pequeño peso específico, implica fabricar máquinas grandes y en
consecuencia caras. Su altura puede igualar a la de un edificio de diez o más plantas, en tanto
que la envergadura total de sus aspas alcanza la veintena de metros, lo cual encarece su
producción.

2. Un impacto negativo es el ruido producido por el giro del rotor, siempre que estemos muy
próximos a los molinos.

3. La mayoría de veces no se tiene cuidado a la hora de seleccionar un parque ya que en las


inmediaciones de las zonas elegidas generalmente habitan aves, el índice de mortandad de estas
al impactar con las palas del generador es alto, aunque existen soluciones al respecto como pintar
en colores llamativos las palas, situar los molinos adecuadamente dejando "pasillos" entre ellos a
las aves.

PARTES PRINCIPALES DE UN AEROGENERADOR:


Palas de la hélice:

Se encargan de "recibir" el viento. Estas palas de gran tamaño aceleran según las condiciones del
viento.

Caja de engranajes:

Aquí se transforma la velocidad de giro de las palas. De baja a alta depende de las condiciones del
viento ya que a mayor velocidad, mayor cantidad de energía eléctrica que se produce.

Generador:
Es el encargado de producir la electricidad.

PARQUES EOLICOS:

Un parque eólico es una agrupación de aerogeneradores que se utilizan generalmente para la


producción de energía eléctrica conectados a la red de distribución.
Se pueden situar en tierra o en el mar (offshore), siendo los primeros los más habituales, aunque los
parques offshore han experimentado un crecimiento importante en los últimos años.
El número de aerogeneradores que componen un parque es muy variable, y depende fundamentalmente
de la superficie disponible y de las características del viento. Antes de montar un parque eólico se
estudia el viento emplazamiento elegido durante un tiempo que suele ser superior a un año.
Para ello se instalan veletas y anemómetros. Con los datos recogidos se traza una rosa de los vientos
que es un círculo que tiene marcados alrededor los rumbos predominantes y su velocidad.
IMPLEMENTACIONES ENERGIA EOLICA
1. GENERADOR EOLICO EN FORMA DE GLOBO
Básicamente, se trata de un globo de helio de forma tubular, dotado de una serie de aspas a su
alrededor, y sostenido desde dos puntos en sus extremos, sobre los que puede girar libremente. La
forma del generador originalmente se tomo de una cometa.
2. GENERADOR EN LAS VENAS CAPAZ DE GENERAR ENERGIA.
La nanotecnología va a cambiar el mundo haciéndolo prácticamente irreconocible. Científicos del
Instituto Tecnológico de Georgia. Tienen entre manos el diseño de un nanogenerador, un pequeño
dispositivo capaz de producir energía a partir del flujo sanguíneo, la construcción de los canales que
forman el sistema circulatorio, o los latidos de tu corazón. Los nanogeneradores deberían ser capaces de
realizar su función mientras están sumergidos en la sangre que circula por tu organismo, aprovechando
la energía cinética y ultrasónica del fluido.
ENERGÍA SOLAR:
Es la energía obtenida directamente del Sol. La radiación solar incidente en la Tierra puede
aprovecharse, por su capacidad para calentar, o directamente, a través del aprovechamiento de la
radiación en dispositivos ópticos o de otro tipo. Cada año la radiación solar aporta a la Tierra la energía
equivalente a varios miles de veces la cantidad de energía que consume la humanidad.
La energía solar es aprovechada en la actualidad mediante 2 tecnologías:
ENERGÍA SOLAR FOTOVOLTAICA:
En términos sencillos, es la utilización de la luz solar para producir electricidad por medio de paneles
solares.
La aplicación de esta energía en zonas rurales donde no llegan las líneas comerciales es importante.
Además ahora es mas frecuente su uso en pequeños electrodomésticos como calculadoras, bombeo de
aguas en lugares aislados, señalización en autopistas, iluminación de jardines o zonas públicas.
ENERGÍA SOLAR TÉRMICA:

Es la que aprovecha la radiación infrarroja del sol para generar calor que se destina, principalmente, a la
producción de agua caliente, calefacción y calentamiento del agua en piscinas. Otras aplicaciones menos
usuales son la cocción de alimentos en cocinas solares, el secado de productos, la refrigeración o la
generación de electricidad mediante vapor de agua.

VENTAJAS

• Es energía no contaminante. Proviene de una fuente de energía inagotable.


• Es un sistema de aprovechamiento de energía idóneo para zonas donde el tendido eléctrico no
llega (campo, islas).
• Los sistemas de captación solar son de fácil mantenimiento.
• El costo disminuye a medida que la tecnología va avanzando (el costo de los combustibles
aumenta con el paso del tiempo porque cada vez hay menos).

DESVENTAJAS

• El nivel de radiación fluctúa de una zona a otra y de una estación del año a otra.
• Para recolectar energía solar a gran escala se requieren grandes extensiones de terreno.
• Requiere gran inversión inicial.

IMPLEMENTACIONES ENERGIA SOLAR:


1. DIRIGIBLE SOLAR PARA ZONAS DE DESASTRE:
Dirigible capaz de volar a las zonas de desastre y aportar energía eléctrica (proveniente del sol), ya que
estaría cubierto de paneles solares. Se trata de un dirigible de unos 20 metros de largo, no muy grande,
que tiene unos 120 metros cuadrados de paneles solares, capaces de producir unos 125 kilovatios hora
al día.
2. "SOLAR IMPULSE": UN AVIÓN PROPULSADO POR ENERGÍA SOLAR
Después de cuatro años de preparación, el “Solar Impulse” hará su primer vuelo de prueba la primavera
del 2009. Podrá volar durante todo el día gracias a un sistema de autorrecarga de baterías. El ‘Solar
Impulse’, avión que funcionará propulsado a través de la energía solar, realizará un primer vuelo para
probar su funcionamiento en la primavera del año próximo, antes de iniciar la vuelta al mundo en el año
2012.
3. MOCHILA SOLAR JUICE BAG
Se ha lanzado la primera bolsa solar flexible del mundo, la juice bag. Las hechuras de los tableros
solares son flexibles El uso de esta mochila es una alternativa mucho más cómoda y ligera además no se
tiene que temer al manejo brusco del equipaje cuando este de viaje.
4. UNIDADES DE CARGA SOLARES
Son unidades grandes para cargar teléfonos móviles, juegos, PDA y cualquier otro dispositivo electrónico
de 12 voltios, la duración de la carga es de 4 horas.
ENFRIAMINETO DE MICROPROCESADORES
CON AGUA.

Los avances en la tecnología han permitido fabricar chips se hacen más pequeños (ahorita estamos en
los 45nm) y más calientes. Cuando abrimos nuestra PC veremos nuestro procesador el cual es muy
rápido y de igual forma algunos de los componentes, todos siendo enfriados comúnmente por un
disipador de calor y el ventilador.
La siempre creciente industria de la computación está en una búsqueda continua de nuevas formas para
enfriar microprocesadores. Desde ventiladores gigantes hasta nitrógeno líquido, la industria y los
entusiastas se esfuerzan continuamente para conseguir mejores y más silenciosos y confiables métodos
de enfriamiento.
Tecnicas de enfriamiento:
1. Refrigeración por Aire: La refrigeración pasiva es probablemente el método más antiguo y común
para enfriar no sólo componentes electrónicos sino cualquier cosa.
1.1 Refrigeración Pasiva por Aire: Las principales ventajas de la disipación pasiva son su inherente
simplicidad (pues se trata básicamente de un gran pedazo de metal), su durabilidad (pues carece de
piezas móviles) y su bajo costo.
1.2 Refrigeración Activa por Aire: La refrigeración activa por aire es, en palabras sencillas, tomar un
sistema pasivo y adicionar un elemento que acelere el flujo de aire.
2. Refrigeración líquida (más conocida como Watercooling): Un método más complejo y menos
común es la refrigeración por agua.
2.1 Refrigeración Líquida por Inmersión: Una variación extraña de este mecanismo de refrigeración es
la inmersión líquida, en la que un computador es totalmente sumergido en un líquido de conductividad
eléctrica muy baja, como el aceite mineral.
2.2 Refrigeración por Metal Líquido: Aunque su principio es completamente distinto al watercooling, de
alguna manera este sistema está emparentado. Se trata de un invento mostrado por nanoCoolers, que
hace algunos años desarrolló un sistema de enfriamiento basado en un metal líquido con una
conductividad térmica mayor que la del agua.
3. Refrigeración Termoeléctrica (TEC): Se descubrió que aplicando una diferencia eléctrica en 2
metales o semiconductores se intercambiaba el calor.
4. Cambio de Fase: Los sistemas de enfriamiento por cambio de fase se basan en la misma máquina
térmica que opera en todo refrigerador. Aunque los sistemas han cambiado mucho desde los primeros
refrigeradores.
5. Criogenia: Incluso más raro que la refrigeración por cambio de fase es aquella basada en la criogenia,
que utiliza nitrógeno líquido o hielo seco. Estos materiales son usados a temperaturas extremadamente
bajas
REFRIGERACION LIQUIDA
La Refrigeración líquida o watercooling es una técnica de enfriamiento utilizando agua en vez de
disipadores de calor y ventiladores (dentro del chasis), logrando así excelentes resultados en cuanto a
temperaturas.
El agua, y cualquier líquido refrigerante, tienen mayor conductibilidad térmica que el aire. A partir de este
principio, la idea es extraer el calor generado por el microprocesador (o los microprocesadores), la tarjeta
gráfica, el chipset de la placa base (elemento que interrelaciona los elementos de un ordenador), la
memoria Ram, discos duros, fuera del chasis del ordenador apoyándonos en un circuito cerrado de agua.
Todos los sistemas de refrigeración líquida deben contar con varios componentes básicos:
 El bloque de agua: generalmente de cobre o aluminio, (circuito semejante a un radiador (de
calefacción) donde se produce el intercambio de calor entre el agua y el componente).
 El circuito de agua: conjunto de tubos por los que fluye el líquido refrigerante.
 La bomba: genera la circulación del líquido.
 El radiador: componente que enfría el agua del circuito mediante tubos muy finos que pasan el
calor al aire.
Los ventiladores: Que lo enfriarán.
APLICACIONES DE WATERCOOLING.
• Bloques para Chipset: Estos bloques están destinados a intercambiar el calor con los microchips
que entrelazan entre sí los elementos de la placa base.
• Bloques para Microprocesador: Estos bloques están destinados a intercambiar el calor con el
microprocesador, o CPU lo que facilita subir su reloj y voltaje para, de esa manera, aumentar su
rendimiento. Actualmente existen bloques para casi cualquier microprocesador de AMD y de Intel.
• Bloques para Disco Duro: Estos bloques están destinados a intercambiar el calor con los discos
duros, componentes que suelen producir bastante calor conforme van envejeciendo, lo que puede
causar fallos de lectura y/o escritura y, por tanto, pérdida de datos.
• Bloques para Tarjeta Gráfica: Estos bloques están destinados a intercambiar el calor con el chip
de la tarjeta gráfica y, con ello, facilitar la subida de su reloj y voltaje para aumentar su
rendimiento, y poder usarla como si fuera un modelo superior y más caro. Aunque suelen ser los
más usados, después de los de microprocesador, no están disponibles para todos los modelos de
chips ni de tarjetas del mercado más habituales.

FUNCIONAMIENTO DE LA REFRIGERACIÓN LÍQUIDA.


El fluido que está almacenado en el depósito va hacia la bomba que es la encargada de mover y dar
presión al agua para que pueda pasar por todos los bloques, el del procesador, el del chipset, el de la
tarjeta gráfica, el del disco duro, etc. Cuando el agua ya ha pasado por todos los bloques, se dirige al
radiador que puede tener unos ventiladores que hacen fluir el aire y enfrían el agua que pasa a través del
radiador. Una vez el agua ha pasado por el radiador y ya ha sido enfriada, se dirige depósito para volver
a hacer el recorrido anterior, formando así un ciclo.
COOLER MASTER AQUAGATE S1
Cooler Master Aquagate S1 - Sistema de Enfriamiento por Liquido, para Intel, AMD y tarjetas de video.
Sistema de Enfriamiento por Líquido fácil de instalar. Alcanza el máximo rendimiento de su procesador o
tarjeta de video ya que este sistema le permite bajar las temperaturas sustancialmente.
CARACTERÍSTICAS:
 Superior desempeño de refrigeración.
 Gran radiador de aluminio con ventilador.
 Potente bomba de agua se integra en bloque.
 Tubo transparente.
 Instalación flexible.
 Fácil de usar diseño.
 Recargas de refrigerante fácilmente.
PROCESADOR CON ENFRIAMIENTO LÍQUIDO INTERNO (IBM)
IBM Labs ha llevado el enfriamiento líquido a un nuevo nivel, literalmente, los científicos del laboratorio
IBM de Zurich demostraron hoy un chip tridimensional que entre sus capas tiene pequeñas
cañerías del ancho de un pelo humano por donde fluye agua para enfriar el procesador.

GREEN IT

INTRODUCCION
El agujero en la capa de ozono, por otro lado, es cada vez más grande y preocupante ya que provoca el
aumento de los casos de melanomas (cáncer) de piel, de cataratas oculares, y supresión del sistema
inmunitario en humanos y en otras especies. Para preservar la atmósfera es de vital importancia
disminuir a cero el uso de compuestos químicos como los clorofluorocarbonos (refrigerantes
industriales), y sobre esto, la industria tecnológica tiene mucho que decir.
Por otro lado la preocupación del sector TIC por el consumo energético y las consecuencias
medioambientales que su actividad genera no ha sido tan temprana como hubiera sido deseable. La
industria, sujeta a un entorno de creciente competencia, ha perseguido el desarrollo de productos y
servicios de alta calidad, fiables y con el menor coste inicial posible. Aspectos relacionados con la
eficiencia energética de los sistemas no han sido considerados prioritarios, pero el ininterrumpido avance
de las redes de trabajo o el aumento de la digitalización de contenidos y de la capacidad de
procesamiento, entre otras actividades, han provocado una demanda de infraestructuras y sistemas de
información cada vez más potentes y, en consecuencia, una demanda energética cada vez mayor.
Tres vertientes configuran la llamada Green IT: el reciclado de materiales, el ahorro de energía y la
virtualización, que no es más que convertir un servidor físico en uno virtual, para poder hacer grandes
agrupaciones en una sola máquina física. Estos son los planteamientos, las medidas, las grandes
soluciones, pero, ¿hay que estarles agradecidos?
Al fin y al cabo, las TIC son las responsables del 2% de las emisiones de CO2 a nivel mundial. Una tasa
que Gartner(consultora internacional) se ha molestado en desmenuzar: donde ese 2%, el 39%
corresponde a PC y monitores, el 23% a los servidores, el 15% a las telecomunicaciones fijas, el 9% a
las telecomunicaciones móviles, el 7% a las LAN y telecomunicaciones de oficina, y el 6% a las
impresoras.

¿Que Es Green IT?

Por Green IT entendemos todo lo que se refiere al uso de la energía y todas las medidas destinadas a la
eficiencia que se computan de manera directa en la cuenta de resultados (uso de la energía,
refrigeración y todo lo relacionado con la alimentación de la infraestructura tecnológica)
Además de perseguir la máxima eficiencia energética, Green IT implica otros aspectos como la
reducción de los componentes nocivos empleados en la fabricación de productos tecnológicos y la
biodegradabilidad o reciclabilidad de los mismos, recogiendo o reutilizando las maquinas obsoletas y
fomentando políticas de reciclaje en las empresas
Al respecto de esto, destaca Green Grid, un consorcio mundial cuyo cometido es incentivar a las
empresas y organismos para que consideren tecnologías, procesos y medidas eficientes
energéticamente.

¿Pero Cuáles son las metas de GREEN GRID?


Green Grid es un consorcio mundial dedicado a la promoción de la eficiencia energética en los centros
de datos y los ecosistemas de informática empresarial. En cumplimiento de su misión, Green Grid se
centra en los siguientes: la definición de sentido, centrados en el usuario y modelos de métrica, el
desarrollo de normas, métodos de medición, procesos y nuevas tecnologías para mejorar el rendimiento
del centro de datos en contra de la métrica definida, y promover la adopción de normas de eficiencia
energética, procesos, medidas y tecnologías.
Consta de un cuerpo interactivo de miembros que comparten y mejoran las mejores prácticas actuales en
torno a la eficiencia del centro de datos, Green Grid incluye en el ámbito de aplicación y la colaboración
con los usuarios finales y organizaciones gubernamentales en todo el mundo para asegurar que cada
objetivo es la organización alineados con los desarrolladores y usuarios de la tecnología de centro de
datos. Todas las partes interesadas se les anima a unirse y convertirse en participantes activos.
"El consumo energético de los centros de datos es una inquietud cada vez mayor tanto para las
empresas como para el medio ambiente. The Green Grid fue fundada con la finalidad de reunir a los
cerebros más brillantes del sector para que encuentren soluciones energéticas innovadoras que
mejorarán el rendimiento por vatio de consumo en todo el sector, para hoy y el mañana", comentó Marty
Seyer, vicepresidente principal de informática comercial y de alto rendimiento de AMD. "The Green Grid
representa no solo una invitación a participar para otros líderes del sector informático sino
también un paso lógico más para la industria de la tecnología que ya alcanzó la madurez
suficiente para intentar resolver los problemas y desafíos mundiales más urgentes. Dado el nivel
de interés, el aval y el nivel de participación iniciales, es claro que esta organización llega en el momento
oportuno para contribuir a resolver los problemas energéticos en los centros de datos y en todos los
entornos informáticos".

Razones para Apoyar GREEN IT

El ahorro de costes es una de las razones clave para abrazar el movimiento Green IT. No en vano, el
coste energético de un data center supone un 13% del total de los gastos. Combinando el progresivo
crecimiento del precio por kilovatio que casi nadie discute, con la proliferación de las TI que tampoco
nadie discute, algunos expertos prevén que en los próximos años el coste de la factura eléctrica llegará a
suponer la mitad del coste total de explotación. IDC prevé que el gasto en suministro de energía y
refrigeración de los centros de datos supere este año al presupuesto destinado al hardware. Además,
hoy en día existen áreas (la City de Londres, por ejemplo) donde no es posible ubicar determinados data
centers porque las compañías eléctricas no pueden garantizar el caudal requerido.
De acuerdo con el estudio realizado por una consultora (BEA Systems), el señala, que el 57%
cumplimiento de la normativa gubernamental como motivo principal para la puesta en marcha de políticas
“green”, seguido de la responsabilidad social corporativa (45%), el incremento del coste energético (38%)
y los problemas de espacio (18%). La principal prioridad para las empresas españolas y portuguesas es
el reciclaje y la utilización más responsable de los recursos tecnológicos. El segundo objetivo en
importancia es la reducción del consumo energético de las TI (53%), seguido de la reducción de los
gastos de refrigeración y luz de los centros de datos (50%).

Metricas

El compromiso creciente de las empresas con el movimiento green IT está haciendo crecer la necesidad
de contar con métodos para medir de una forma objetiva el consumo de potencia en los centros de
datos, pues sólo de esta forma se conseguirá una máxima eficacia contrastable. Y este es el objetivo de
dos nuevos estándares que cuentan con el apoyo del consorcio industrial The Green Grid, creado en
2007 precisamente con la misión de desarrollar métricas de la productividad y eficiencia energética de los
data centers. Se trata de Power Usage Effectiveness (PUE) y Data Center Infrastructure Efficiency
(DDCiE), que, según The Green Grid, “además de permitir estimar el nivel de eficiencia energética de los
data centers, permitirán comparar los resultados con los de otros centros de datos y determinar si resulta
conveniente realizar alguna mejora”. Estas métricas se basan esencialmente en la correlación entre la
cantidad de electricidad que consume el centro de datos, tanto con fines de alimentación como de
refrigeración, y la cantidad de potencia utilizada por el equipamiento TI propiamente dicho en él
instalado.
Esta es la forma en que The Green Grid define sus dos “fórmulas” para calcular el consumo energético
real de la infraestructura de los centros de datos y determinar cuál sería el objetivo a perseguir en cada
caso:
1) PUE = Potencia total consumida por las instalaciones / la potencia consumida por el equipamiento
TI. Se trata de una división y el resultado debe ser menor que 2. Pero cuanto más se aproxime a 1,
mejor, dado que tal valor sería equivalente a una eficiencia del 100%.
Como se ha dicho, hace referencia a la relación entre la potencia total consumida por el centro de datos
y el consumo del equipamiento TI. Por ejemplo, un PUE de 2 significaría que la mitad del consumo
energético del centro de datos se corresponde con el equipamiento TI y el otro 50% está destinado a la
alimentación de los recursos a nivel de instalaciones e infraestructura refrigeración.
2) DCiE = (Potencia de equipamiento TI x 100) / Total de potencia de las instalaciones. El resultado
de esta fórmula es un porcentaje. Cuando mayor sea el número obtenido, mejor.
También conocido como DCE para Data Center Efficiency, muestra la potencia utilizada por el
equipamiento TI como porcentaje del total de potencia por él consumida. Un DCiE del 50% significaría
que la mitad de la potencia total se destina a alimentar tal equipamiento. El otro 50% correspondería a
gastos generales de alimentación y refrigeración de las instalaciones del data center, no directamente al
funcionamiento de los recursos TI.

Clasificacion en Potencia de equipamiento TI y consumo total de las instalaciones

The Green Greed define la potencia del equipamiento TI como el consumo asociado a los sistemas
utilizados para gestionar, procesar, almacenar o encaminar datos dentro del data center. Es importante
comprender cuáles son los componentes a clasificar bajo esta categoría, que, en términos generales,
incluirá la carga asociada con todo el equipamiento TI, como ordenadores, almacenamiento y
networking, además de las plataformas suplementarias (conmutadores KVM, monitores, estaciones de
trabajo/portátiles utilizados para monitorizar o, en general, controlar el centro de datos, etc.).
Por lo que respecta al consumo total de las instalaciones –del que se excluye el asociado al
equipamiento TI- incluirá la alimentación de todos los recursos que soportan la carga de los sistemas
anteriores. Bajo esta categoría entrarán los componentes de entrega de energía, como UPS,
interruptores, generadores, PDU, baterías, componentes de sistemas de refrigeración (chillers, unidades
de aire acondicionado CRAC- Computer Room Air Conditioning...), unidades de manejo de expansión
directa de aire (DX), bombas de aire, torres de ventilación, nodos de almacenamiento, de red y
computacionales, etc.

¿Que se Puede hacer o se ha hecho?

Los Centros de datos como mayores consumidores de energía como ya se menciono, muchas veces no
son regulados sobre el consumo que tienen, algunos estudios preliminares indican, según The Green
Grid, que muchos centros de datos podrían tener un PUE de 3.0 o superior, mientras que con un diseño
apropiado sería perfectamente alcanzable en ellos un valor de 1,6. Esta idea está apoyada por diversas
medias realizadas por Lawrence Berkley National Labs.

A continuación se muestran las diez técnicas que Network World -medio del grupo IDG Communications-
ha aplicado en Estados Unidos para mejorar la infraestructura de su propio data center, un proyecto
llevado a cabo en estrecha colaboración con la compañía NetApp y con el proveedor de servicios local
del grupo. Seguramente muchos se sentirán gratamente sorprendidos al comprobar que en muchos
casos se trata de medidas sencillas, asequibles y fáciles de implementar.
1- Medir para controlar
2- Virtualizar y consolidar sistemas TI
3- Gestionar los datos: eliminar la información duplicada o inútil
4- Eliminar la “sobre-refrigeración” de los sistemas
5- No olvidar los principios físicos durante el diseño: el aire caliente sube, el frío baja
6- Mejorar continuamente la contención de calor
7- Aprovechar al máximo la refrigeración natural
8- Minimizar las pérdidas de transformación eléctrica
9- Aprovechar el calor en lugar de desperdiciarlo
10- Monitorización y ajuste constantes

Casos Exitosos

Greenest Host
Actualemte existe un CPD que hace realidad el uso de la energía solar. Se encuentra en California, no
muy lejos de la comunidad de Palm Springs. Pertenece a la compañía Greenest Host, especializada en
los servicios de alojamiento Web, desarrollo y diseño de páginas Web e Internet, de forma externalizada
o medio outsourcing.
Greenest Host es cien por cien renovable, afirma Corrales. “Con solamente 120 paneles solares,
generamos 50 megavatio-horas de electricidad, anualmente”. Esto se traduce en unos 144 kilovatio-
horas al día. Corrales asegura que ve un crecimiento imparable de su negocio. “La dirección que
estamos tomando nos permitirá escalar nuestra capacidad de procesos, generación de electricidad y
redundancia en función de las necesidades de los clientes”.
Google: un caso de éxito en Green IT
Google uno de los grandes en la TI ha demostrado como el querer es poder
respecto al cuido y uso del plante tierra, llegado a comparar una de las
empresas funididoras de algun metal en cuanto a su consumo energetico;
pues bien según estudios realizados demuestran que los valor obtenidos en
la métricas impuestas por GREEN GRID de PUE están entre 1.13 y 1.29,
con una media ponderada de 1.21, muy inferior a los objetivos más
optimistas de la EPA fijados para dentro de tres años. Lo comenta también GigaOM, “Google data
centers more efficient than the industry average“. Todo un buen ejemplo de cómo plantearse un objetivo
y cumplirlo: para una compañía como Google, la idea de Green IT no supone simplemente tener una
conciencia más limpia y tranquila con respecto al uso de los recursos naturales; supone puro ahorro en la
factura de electricidad. Mientras en las compañías irresponsables y con mentalidad antigua, el
responsable de tecnología dice eso de “la factura de la luz no va a mi presupuesto, y por tanto me trae
sin cuidado”, desesperando a empresas como Dell que ven como plantearon un enfoque hacia Green IT
antes de que el mercado estuviese maduro para absorberlo; en las más evolucionadas, las métricas de
eficiencia forman ya parte de la agenda del CIO, y se evalúan de la misma manera que las habituales de
continuidad de negocio.
Alternativas
Entre otras Alternativas que Google esta pensando lanzar y ha patentado es llevar sus Centros de Datos
a Altamar ¿Como?
La empresa propietaria del buscador más usado del planeta está preparando un proyecto por el que
propone el traslado a barcos en mar abierto de sus servidores y centros de datos. El proyecto
denominado Computer Navy se basa en el uso de water-data centres, aplicación patentada por Google,
por el que las supercomputadoras, instaladas en los barcos, recibirían energía a partir del movimiento
natural de los olas y se refrigerarían con la misma agua.Por si fuera poco, las naves marítimas al
encontrarse a 11 Kilómetros de la orilla, como mínimo, no tendrían que pagar los impuestos de propiedad
de los data-centres, que están localizados por todo el mundo. Para aclarar la idea, Google informó que
los centros de ordenadores localizados en el barco o barcos “captarán la energía del movimiento del
agua y la convertirán en electricidad y la bombearán para refrigerar los ordenadores y así, reducir el
calentamiento”, según la aplicación de patente registrada a la que tuvo acceso The Times.
En un intento de solucionar el problema, ya que no es muy ecológico, Microsoft ha investigado la
construcción de un data-centre en climas muy fríos como Siberia, mientras que en Japón la empresa
tecnológica Sun Microsystems planea enviar sus supercomputadoras a una mina de carbón abandonada,
usando el agua del suelo como refrigerante. Sun asegura que pueden ahorrar hasta 9 millones de
dólares en electricidad por año.
REDES SOCIALES

Una red social es una estructura social que se puede representar en forma de uno o varios grafos en el
cual los nodos representan individuos (a veces denominados actores) y las aristas relaciones entre ellos.
Las relaciones pueden ser de distinto tipo, como intercambios financieros, amistad, relaciones sexuales,
o rutas aéreas. También es el medio de interacción de distintas personas como por ejemplo juegos en
linea, chats, foros, spaces, etc. El aumento de las visitas de los internautas a las redes sociales ha
dividido a la mitad las visitas a los sitios porno, según los datos recogidos.
En términos sencillos se definen en un grupo de personas, miembros de una familia, vecinos, amigos,
compañeros de estudio o trabajo y otras personas capaces de aportar una ayuda y un apoyo tan real
como duradero a un individuo o a una familia.
Es una forma de interacción social, definida como un intercambio dinámico entre personas, grupos e
instituciones en contextos de complejidad. Un sistema abierto y en construcción permanente que
involucra a conjuntos que se identifican en las mismas necesidades y problemáticas y que se organizan
para potenciar sus recursos.

Alrededor de 2001 y 2002 surgen los primeros sitios que fomentan redes de amigos. Hacia 2003 se
hacen populares con la aparición de sitios tales como Friendster, Tribe y Myspace.

Rápidamente algunas empresas ingresan a las redes sociales. Google lanza en enero de 2004 Orkut
apoyando un experimento que uno de sus empleados realizaba en su tiempo libre. En 2005 ingresan
Yahoo 360º y otros.

CLASIFICACION DE LA REDES SOCIALES:

Según la naturaleza de las relaciones, se pueden dividir entre 2 cosas:

a) diádicas (sólo indican ausencia o existencia de la relación) o valoradas (en la que la cantidad de la
relación pueda medirse en términos de orden o de peso como, por ejemplo, número de encuentros
sexuales entre dos personas), o bien

b) transitivas (la relación en realidad es una unión entre actores que siempre es recíproca. Ejemplo:
leemos el mismo blog habitualmente) o dirigidas (que el individuo A tenga relación con el individuo B no
implica que B tenga esa misma relación con A, como, por ejemplo, prestar dinero).

CLASIFICACION DE LAS REDES SOCIALES

Primarias

Secundarias

Terciarias
Primarias: Están compuestas por la suma de todas las relaciones que un individuo percibe como
significativas o define como diferenciadas de la masa anónima de la sociedad.
Por lo tanto las redes primarias están conformadas por:
Familia
Familia ampliada
Amigos – Colegas – Vecindario
Las redes sociales secundarias corresponden a las relaciones entabladas en el macro sistema.
En estas redes se distinguen dos grupos:
1. Uno más próximo a las redes primarias pero cuyas relaciones se establecen con características un
tanto diferentes con respecto a la relación.
2. En segundo lugar están las redes institucionales, que se encuentran en el sistema externo. Estas
redes están conformadas por personas que pertenecen a las instituciones y que brindan servicios
(educativos, de salud, bienestar social, etc.)
Las redes institucionales se definen como organizaciones gestadas y constituidas para cumplir con
objetivos específicos que satisfagan necesidades particulares del sistema usuario; necesidades que son
puntuales y deben ser canalizadas dentro de organismos creados para tales fines.
Que debe tener una Red social en Internet

Básicamente son 3 cosas lo que las redes sociales en internet deben tener, aunque hay algunas que
tienen muchas más funciones:

• Actualización automática de la libreta de direcciones


• Perfiles visibles
• Capacidad de crear nuevos enlaces mediante servicios de presentación y otras maneras de
conexión social en línea.

Redes sociales en Internet

El software germinal de las redes sociales parte de la teoría de los Seis grados de separación, según la
cual toda la gente del planeta está conectada a través de no más de seis personas. De hecho, existe una
patente en EEUU conocida como six degrees patent por la que ya han pagado Tribe y LinkedIn. Hay
otras muchas patentes que protegen la tecnología para automatizar la creación de redes y las
aplicaciones relacionadas con éstas.

Estas redes sociales se basan en la teoría de los seis grados, Seis grados de separación es la teoría de
que cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una
cadena de conocidos que no tiene más de cuatro intermediarios. La teoría fue inicialmente propuesta en
1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada Chains. El concepto está
basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la
cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se
convierta en la población humana entera.

Recogida también en el libro "Six Degrees: The Science of a Connected Age” del sociólogo Duncan
Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan solo seis “saltos”.
Según esta Teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o
escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras
100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan solo pidiendo a un
amigo que pase el mensaje a sus amigos.

Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede
conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir
para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si
conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que
hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son
amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será
sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes
sociales.

Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un
tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000
en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a
cualquier lugar individuo del planeta.

Redes sociales en Internet para el mercado Latino:

Neurona.com, Gyggs.com, Dejaboo.net, eConozco.com, Cielo.com, Qdamos.es,


Festuc.com, Spaniards.es, Linkara.com, Gazzag.com, Networking Activo.

En general, la red social se ha categorizado de 4 maneras:

(a) la red como una agrupación curativa de individuos;

(b) como una ubicación de recursos;

(c) como reflejo del comportamiento de búsqueda de ayuda y de utilización de servicios;

(d) como mitigador de los efectos del compromiso multi-organizacional con la familia.

Beneficios que brindan las "redes sociales"

1.Actualidad
2.Interconexión
3.Comunicación
4.Entretenimiento
5.Protagonismo
6.Control

Peligros de las Redes Sociales

La nueva moda de navegación se centra en la búsqueda e inclusión de amigos y contactos, compañeros


de estudio, colegas, equipos deportivos y hasta agrupaciones políticas en la web. Se trata de una nueva
dimensión expansiva de las relaciones personales, que antes sólo podía ser alcanzada por técnicas de
mercadeo profesional.

La incorporación de imágenes, videos, sonidos y la combinación de estas redes con servicios como
youtube.com, hacen que los perfiles o fichas personales de cada uno de los usuarios sean verdaderos
resúmenes de información, diarios íntimos y álbumes de fotos personales, soñadas sóo por madres y
abuelas de todo el mundo.

Orta considera que estas páginas almacenan datos que sirven para obtener desde el perfil psicológico,
hasta datos personales como fechas de nacimiento, que pueden ser utilizados por ciberdelicuentes en la
suplantación de identidades en Internet para acceder a cuentas bancarias en línea y para el uso de
servicios web, e incluso estos datos proporcionan información privilegiada a hampones y organizaciones
criminales del mundo real.

Orta remarca que los usuarios deben saber que al inscribirse en sitios como Facebook o MySpace, se
coloca información real a efectos de poder ser ubicados fácilmente por amigos y allegados. A manera de
ejemplo, indica que la fecha de nacimiento es utilizada por el 10% de los usuarios de Internet con su
contraseña de acceso.

Redes más famosas: Facebook, MySpace, Bebo, Hi5, Cyword, Orkut, Friensher y Skyblog.

Web Mashup.

Durante los primeros días de Mashups, por lo general los programadores tenían que buscar pantalla de
sitios Web sólo para obtener datos útiles. Hoy en día, los actores principales, como Google, yahoo, y
Microsoft han permitido a los usuarios y creadores mashup utilizar sus mapas para sus aplicaciones con
la esperanza de obtener más exposición para sus productos y para ganar la penetración en el mercado
más profundo y más amplio mercado de la distribución. Esto ha abierto las puertas para el aumento de la
tasa de mashup la creación del sitio.

¿Qué es un Mashup?

Un mashup también conocido como Web Híbrida, es un sitio Web que accede a datos o servicios de
terceros y los combina para crear una nueva aplicación, siendo uno de los pilares de la famosa Web 2.0,
la Web social y colaborativa donde los usuarios tienen algo que aportar.

En otras palabras consiste en una aplicación Web que utiliza recursos de más de una fuente para crear
un servicio completo, consumiendo servicios directamente siempre a través de protocolo http y APIs.

Actualmente según programmableweb.com:

» 3450 mashups
» Tres nuevos mashups cada día
» Últimos 6 meses 3000 - 3450
» 356 APIs disponibles
La potencia de los mashups radica en dos pilares básicos:

 La facilidad de utilizar los recursos de las fuentes originales gracias a un API sencillo y bien
documentado.
 La imaginación de los usuarios llevada hasta límites insospechados.
Composición de los Mashup:

La arquitectura de los mashups está siempre compuesta de tres partes:


 El proveedor de contenidos: fuente de los datos. Los datos están disponibles vía una API y
diferentes protocolos Web como RSS, REST y Web Service.
 El sitio mashup: es la nueva aplicación Web que provee un nuevo servicio utilizando diferente
información y de la que no es dueña.
 El Web browser cliente: es la interfase de usuario del mashup. En una aplicación Web, el contenido
puede ser mezclado por los Web browser clientes usando lenguaje Web del lado del cliente. Por
ejemplo javascript.
Arquitectura de la Tecnología Mashup

 Usuario accede al mashup


 Acceso a proveedores desde el sitio Web del mashup
• Servidor de aplicaciones o similar

 Acceso a proveedores desde el navegador del usuario


• Libera servidor mashup

• Ejemplo: Google Maps

Tecnología Mashup: Screen Scraping

El sitio Web del mashup accede a las páginas Web del proveedor y procesa el contenido HTML
extrayendo información.

Características:

 En desuso en nuevos mashups


 A veces no autorizado
 Anónimo
 Complejo debido al contenido
 Sobrecarga servidores
 Propenso a fallos imprevisibles
 En uso pero para nuevos mashups la tendencia a API
Tecnología Mashup: Web API

El sitio Web del mashup accede a Servicios Web del proveedor utilizando una API.

Características:

 API es del proveedor


 Existe un acuerdo
 Sencillo y documentado
 Servidores específicos
Formas de los Mashup

Los mashups vienen actualmente en cuatro formas: mashups de consumidores, mashups de datos,
mashups empresariales y mashup de negocios.

 El tipo más conocido es el mashup de consumidores que está muy bien ejemplificado por muchas
aplicaciones que utilizan Google Maps. Los mashups de este tipo combinan datos de varias fuentes
escondiendo esto detrás de una interfase gráfica simple.
 Mashup de datos mezcla datos de tipo similar proveniente de diferentes fuentes por ejemplo: Yahoo
Pipes que combinando los datos de múltiples feeds RSS en un solo feed.
 Mashup empresarial integra usualmente datos de fuentes externas e internas. Por ejemplo podría
crear un reporte del market share de un negocio combinando la lista externa de todas las casas
vendidas la semana anterior con datos internos de las casas vendidas por una sola agencia.
 Mashup de negocio es una combinación de todo lo anterior, enfocando en agregación de datos y
presentación y agregando adicionalmente una funcionalidad colaborativa, haciendo que el resultado
final sea una aplicación de negocio apropiada.

Categorías:
Mapas
Requiere una cartografía fuente que podría proporcionar una presentación visual de la zona o lugar que
está involucrado en el proceso. La fuente para el tipo de datos o información de que el mashup
contendrá también es necesaria. Estos datos se representan gráficamente en el mapa en una gráfica de
forma visual o por la aplicación.
Características:
 Muestran información sobre un mapa o imagen satélite
 Categoría dominante (13%)
 80% información es georeferenciable
 Condiciones de uso
 Cobertura mundial
Vídeo y fotos
Se basan sobre la foto y los proveedores de contenido de vídeo junto con otro origen de datos que puede
proporcionar toda la información que podría estar relacionado con tales contenidos multimedia. Estos
podrían incluir los lugares o ubicaciones de las fotos y los vídeos tomada. Estas ubicaciones o
direcciones podrían ser utilizadas para conspirar geográfica de referencia visual.
Características:
 APIs para acceder a grandes bases de datos de videos y fotos
 Contenidos creados por los usuarios (móvil)
 Contenido multimedia clásico - mucha aceptación
Búsqueda y compras
Trabaja sobre la idea de comparar los precios de los productos y utilizando un método de búsqueda. Los
resultados de la búsqueda de diversas fuentes en línea podrían ser compilados para la comodidad del
navegador.

Características:
 Búsqueda de mejores ofertas
 Técnicas de Servicios Web (B2B) y mucho Screen Scraping
 Conducen a comercios online a ofrecer APIs
Noticias
Trabaja sobre el concepto de la colocación de una colección específica de la noticia de que un
determinado usuario o cliente quiere o prefiere por lo general y, a continuación, se presenta en un
método colectivo.
Características:
 Fuentes de noticias RSS/ATOM (sin necesidad de API)
 Noticias agrupadas según preferencias del usuario
 Para los sitios de noticias disminuye visitas

Beneficios de los Mashup para los Diferentes Grupos


Para las empresas:
 Control:
Acuerdo y estadísticas
 marketing
Bajo coste
Mas efectivo / bajo riesgo
Aplicaciones nuevas
 Publicidad para la marca
 Incremento de ventas
 Ingresos por publicidad indirecta
 Ingresos por publicidad directa
Para los desarrolladores:

 Aplicaciones de mucho nivel


 Pocos recursos
 Tecnología accesible
 Experimentar con las últimas tecnologías Web.
 Creatividad muy importante
 No solo para programadores
Para los usuarios:

 Ocio y diversión
 Trabajo en entornos Web 2.0
 Ahorro de tiempo y dinero
 Democratización de la tecnología
 Acceso a nuevos y mejores servicios
 Los usuarios son los que salen mas beneficiados
Desventajas:
 Anuncios no deseados
 Dependencia de los proveedores
 Propiedad Intelectual
 Contenidos de poca calidad
 Limitadores tecnológicos
Mashups interesantes, prácticos y curiosos

 El Ladrillométro: permite a los usuarios comparar el precio que pagan por su casa (tanto propia
como alquilada) en la zona en la que viven.
 TuneGlue: muestra mapas de relación entre artistas musicales utilizando la API de la radio a la carta
Last.fm y el servicio de Amazon que ofrece recomendaciones basadas en el criterio de compra de
usuarios anteriores.
 Facebook: de tipo red social, es posible que cada usuario incluya aplicaciones de terceros en su
propio perfil
MICROBLOGGING
0x000Definición

Acorde a la wikipedia el microblogging (tambien llamado nanoblogging) es un servicio que


nos permite enviar mensajes de texto simples y relativamente cortos, por diferentes medios
como por ejemplo SMS, mensajeria instantanea, sitios web o redes ad hoc.
Extendiendo el concepto podemos decir que es un medio de comunicacion similar y
derivado de los blogs o weblogs que destaca por su excesiva sencillez restringiendo al
usuario a enviar mensajes de corta duracion (es casi una convencion la restriccion a 140
caracteres) de manera que puedan ser transmitidos por diferentes medios como los
telefonos celulares via mensajes SMS, paginas web o aplicaciones de escritorio dispuestas
para tal fin de manera que se les faciliten los medios de transmision y recepcion disponibles
para los usuarios siendo mas sencillo el proceso de transmitir ideas tan simples que puedan
ser explicadas con texto plano en no mas de 140 caracteres y los interesados en esta noticia
puedan estar al tanto de ello a traves de internet o SMS en un intervalo de no mas de un
minuto de retraso, sin restricciones tecnologicas o geograficas.

Algunos suelen confundir al microblogging con la mensajeria instantanea pero cada uno
tiene diferentes aplicaciones y usos. Por ejemplo, en la mensajeria instantanea la
comunicacion es entre dos personas a la vez. Un mismo mensaje solo puede ser transmitido
a una sola persona, a menos que se organice una sala de chat. En cambio, en el
microblogging cada usuario actualiza su estado enviando el mensaje y este es reproducido y
recibido de forma simultanea por cada uno de los usuarios "seguidores" del que transmitio el
mensaje. Algunos de los servicios de mcroblogging permiten ademas enviar mensajes
directos a una persona, de forma publica o tambien de forma privada.

0x010 Orígenes

A continuación se muestra una linea de tiempo con los servicios, accesorios y clientes del
microblogging, desde su nacimiento hasta abril de 2008:
0x011Servicios

Entre los servicios que ofrecen caracteristicas similares al microblogging se encuentran los
mencionados en la linea de tiempo anterior y ademas otros que listaremos a continuacion
pero entre ellos, quien mas popularidad ha tenido desde sus inicios ha sido Twitter.

• Twitter (http://twitter.com)
• Plurk (http://www.plurk.com/)
• Pownce (http://pownce.com/)
• Jaiku (http://www.jaiku.com/)
• Identi.ca (http://identi.ca/)

Ultimamente otros servicios como las redes sociales han incorporado la capacidad del
microblogging como es el caso de facebook (el cual fue uno de los pioneros al incorporar
este servicio), myspace, pringo y hi5.

0x100Aplicaciones

La aplicación mas común y mas sencilla del microblogging ha sido desde sus inicios
responder a una simple pregunta:
What are you doing?
(Que estas haciendo?)
Lo cual significa que por lo general, los servicios de microblogging pretenden que el usuario
actualice su estado con lo que hace a cada momento, por ello y por los diferentes medios
por los cuales es posible acceder al servicio es que se vuelve tan adictiva esta actividad.
Despues del boom de twitter, surgieron muchos otros accesorios para este que permitian
aprovechar su popularidad y simplicidad para otros servicios como es el caso los que
listaremos a continuación. Estos son servicios que se integran con el mas popular de los
servicios de microblogging: Twitter.

• Twitpic: Servicio para alojamiento de imágenes que se asocia con tu cuenta de twitter de
manera que te permite publicar la imagen al momento de subirla al servidor agregandole un
comentario en twitter junto con un vínculo a dicha imagen.
• Blip.fm: que permite escuchar música en línea, mientras que se escribe un twitt con un
comentario sobre la canción y un vínculo para que los followers o contactos de twitter
puedan conocerlo. Algo asi como responder a la pregunta "Que musica estas escuchando?"
• Twitterfeed: El cual te permite usar una cuenta de twitter como un consumidor de
RSS/Atom feeds para poder mostrar de manera automatica en tus actualizaciones de twitter,
por ejemplo, los ultimos posts que has escrito en tu blog.
• Twittertise y twittadd: Los cuales permiten aprovechar la popularidad de twitter para
promover anuncios publicitarios de empresas y ganar algo de dinero con ello.