Escolar Documentos
Profissional Documentos
Cultura Documentos
Sánchez Carrión
Facultad de Ingeniería
Escuela Profesional de Ingeniería de Sistemas
Ciclo Académico: 2005-II
SISTEMAS DE
COMUNICACIÓN
Ing. Wigberto Martín Nicho Virú
E-mail: wmnicho@hotmail.com
• Es usado para aplicaciones de gran escala y de misión critica donde no puede haber
tiempos muertos. Un cluster contiene los servidores que comparten el estado en un
cierto nivel, tal como estado del HTTP, el estado de EJB o estado del contexto de
aplicación. El acceso del cliente a estos servidores es manejado normalmente por los
balanceadores de la carga
» Orión http://www.orionserver.com
Los servicios de cluster ofrecidos con una aplicación Orion Application Server incluye:
Balanceo de carga, Replicación del Contexto de estado de Aplicación, Replicación de
estado HTTP y Replicación de estado EJB
Una versión gratuita puede bajarse de:
http://www.orionserver.com/mirrordownload.jsp?file=orion2.0.2.zip
Cluster de Datos - Ejemplo
Funciones Ventajas
Recuperación Proporciona disponibilidad de datos continuada
tras fallo para un servidor de almacenamiento no disponible
automática con y notifica al administrador la recuperación tras
notificación fallos
• La arquitectura de almacenamiento para cluster puede ser con SCSI o Fibre Channel (mas
caro pero mas fiable).
• Cada componente constituyente del sistema debe ser tan fiable como sea posible.
LAN LAN
SQL 2000 Virtual Server - MSCS SQL 2000 Virtual Server - MSCS
Nodo A Nodo B
Heartbeat
Server Virtual
• Se le asigna un nombre
• Se le asigna una IP
• Para el cliente, es indistinto y transparente el nodo
que le brinda servicio
Clustering Win 2000 – La actualidad
Pros del Clustering Contras
• Reduce al mínimo los tiempos • Costo mayor que un Stand by
de un server caído server
• Tiene respuesta automática • Precisa más tiempo en la
ante la caída de un nodo instalación
• No se necesita renombrar los • Requiere un mantenimiento
servidores mayor
• La recuperación es rápida: tan • Requiere administradores de
pronto se arregle el server red y DBA’s con más
experiencia
Clustering Win 2000 – La actualidad
Software necesario para un Cluster de 2 nodos
• 2 Windows 2000 Advanced Server
• 1 SQL Server 7 Ent. ó 1 SQL 2000 Ent. para un cluster Act / Pas
• 2 SQL Server 7 Ent. ó 2 SQL 2000 Ent. para un cluster Act / Act
• El prototipo inicial fue concebido con un cluster formado por 16 PC’s 486 DX4
conectados por Ethernet de 10 Mb usándolo como canal asegurado. La máquina fue un
éxito inmediato y su idea de proporcionar sistemas de bajo costo fue adoptado por la
NASA y las comunidades de investigación.
• Este primer sistema requirió el rediseño de los drivers Ethernet para usarlo como canal,
subdividiendo el trafico para que curse por mas de un Ethernet
• Debido a que los nodos no están estrechamente acoplados y no comparten la memoria, pueden
ser heterogéneos
•
• Por convención, los sistemas de Beowulf están divididos en clases de máquinas I y II.
•
• Las del tipo I no contienen otra cosa que componentes estándares que pueden comprarse en por
lo menos tres diversas fuentes
•13.88 TFLOPS
•3,072 AlphaServer ES45s HP
•12,288 EV-68 1.25-GHz CPUs con 16-MB cache
•33 Terabytes (TB) memory
ASCI Q •Gigabit fiber-channel disk drives con 664 TB
Los Alamos •Dual controller accessible 72 GB drives arranged in
National 1536 5+1 RAID5 storage arrays, interconectados a
Laboratory (LANL) traves deswitchs fiber-channel a 384 nodos file server
Los 5 Supercomputadores más grandes
Virginia Tech Sx •10.28 TFLOPS
•1,100 sistemas Apple G5 teniendo cada uno dos procesadores
IBM PowerPC 970 de 2 GHz.
•Cada nodo tiene 4GB de memoria principal y 160GB de
almacenamiento Serial ATA.
•176TB total almacenamiento secundario.
•4 nodos principales para compilaciones/job startup.
•1 nodo de administración
•9.82 TFLOPS
•1,450 procesadores dual Dell PowerEdge
•1750 servidores corriendo Linux Red Hat,
•1 Switch Myrinet 2000 high-speed interconnect fabric,
Tungsten NCSA's •1 SubCluster I/O con mas de 120 TB Almacenamiento
Urbana Campaign, DataDirect
USA
Los 5 Supercomputadores más grandes
•980 nodes HP/Linux Itanium 2 ("Madison") 1.5 GHz
•1,960 procesadores Quadrics Elan 3 interconectados
•11 TERAFLOPS de performance pico teórico
•7 Tb de RAM
•142 Tb de espacio en disco
•53 TB de espacio global en disco scratch
Escala de procesamiento
Lista de soluciones comerciales con tecnología Beowulf -
Software
Página recomendada
• http://www.beowulf.org