Você está na página 1de 49

Captulo 3: Dentro de un Servidor

Introduccin
En el ltimo captulo, aprendi acerca de los componentes de un centro de datos o data center.
Por
supuesto, los componentes ms crticos en un data center son los servidores. Los servidores
difieren en aspectos muy importantes a las PCs de escritorio. En este captulo, veremos la
arquitectura de un servidor para ilustrar cmo un servidor est diseado y rene requisitos de
Comenzaremos
carga de trabajo.con una breve discusin sobre cmo las cargas de trabajo de servidor difieren de
las
cargas de trabajo de las PC de escritorio. A continuacin, nos adentraremos en las arquitecturas
de procesador y memoria, centrndonos en los procesadores Intel Xeon y AMD Opteron. A partir
de ah, nos fijaremos en otros componentes clave de servidor (buses de expansin) y
terminaremos con una mirada a la serie de productos diversos de las familias de productos de G7
Matriz
y Gen8redundante
ProLiant.de discos independientes (RAID)
Un conjunto de discos fsicos que se consideran como un nico volumen lgico por el sistema operativo.

Objetivos
En este captulo aprender a:
Describir las tecnologas del procesador.
Describir las tecnologas de memoria.
Describir las arquitecturas comunes de sistema del
servidor.
Describir el papel de un controlador Smart Array.
Describir las caractersticas de las implementaciones RAID.
Describir las caractersticas de la serie de productos ProLiant G7 y
Gen8.

Por qu son diferentes los servidores?

La diferencia obvia entre un servidor y un PC de escritorio es el sistema operativo. Aunque puede


instalar un sistema operativo de servidor en un equipo de escritorio, obtendr un mejor
rendimiento al ejecutar cargas de trabajo de servidor en un equipo que est especialmente
diseado como un servidor. Antes de ver la arquitectura de un servidor, primero debemos echar un
vistazo a las cargas de trabajo tpicas de dos tipos de servidores: un servidor de archivos y un
servidor de base de datos.
Carga de trabajo
La cantidad de trabajo realizado por un sistema.

Los servidores de archivos


Como se vio en el captulo 1, las principales responsabilidades de un servidor de archivos
son:
Almacenamiento de
archivos.
Autorizar el acceso.
Cargar archivos.
Descarga de archivos.
La Figura 3-1 proporciona una ilustracin simple de los pasos que deben ocurrir cada vez que
un
usuario copia un archivo a/o desde el servidor de archivos.

Figura 3-1: Pas os de l s e rvidor de


archivos

Como se puede ver, un servidor de archivos realiza una gran cantidad de entradas/salidas (E/S) en
la
red as como almacenamiento de entrada/ salida para cada solicitud. Si se multiplica esto por el
nmero de peticiones que el servidor debe procesar, se puede ver que un servidor de archivos
ocupado necesita ser optimizado para la red y el acceso de almacenamiento. Esto no significa que
el procesador no sea importante. El procesador trabaja para ayudar a que el sistema operativo
tome decisiones sobre la autorizacin y determinar si el archivo se ha procesado. Si se utiliza un
cifrado, el procesador tambin tiene que realizar los clculos necesarios de cifrado y descifrado

procesar las solicitudes de acceso a archivos.


Descifrado
La inversin del proceso de encriptacin para permitir que los datos se puedan leer.

Servidor de Base de datos


Como en un servidor de archivos, un servidor de base de datos tiene que ser optimizado para la red
y el almacenamiento de E/S. Sin embargo, un servidor de base de datos requiere mucha ms
potencia
de procesamiento y memoria tambin. Los requisitos exactos dependen de si el servidor
realiza principalmente las operaciones transaccionales o de recuperacin.
La Figura 3-2 muestra cules recursos se utilizan cuando se ejecuta una consulta sencilla para
recuperar la jerarqua para un empleado especfico de una base de datos. Como se puede ver en
la columna Objeto, en el lado derecho de la ilustracin, el procesador, la memoria y el
almacenamiento se emplean. Tenga en cuenta que este nivel de utilizacin de los recursos refleja
una
sola operacin. Los servidores de bases de datos son responsables de realizar muchas operaciones
por segundo. Otra consideracin es que esta consulta se basa en una tabla de empleados que tiene
solo 290 registros. Algunas tablas de bases de datos tienen miles de registros. Entre ms recursos
tiene una tabla y ms compleja es la consulta, ms recursos se consumen al ejecutar la consulta.
Dado el nivel de utilizacin de los recursos que el servidor maneja, se puede ver por qu es
esencial para un servidor de base de datos contar con los recursos necesarios.

Figura 3-2: Re curs os utilizados por una cons


ulta

Arquitecturas de CPU

La unidad de procesamiento central (CPU) es el caballo de batalla del servidor. Un servidor


contiene
uno o ms CPUs que deben ser capaces de gestionar de forma eficaz un gran nmero de
instrucciones. Al elegir una configuracin de CPU, necesita estar consciente del rendimiento, la
escalabilidad y la eficiencia energtica.

Instruccin
Una operacin programtica. Instrucciones comunes incluyen los clculos y valores que se mueven entre posiciones de
memoria.

Todos los procesadores en este curso son procesadores x64. A veces se puede ver el
trmino EM64T (Extended Memory 64 Technology) que se utiliza para referirse a un procesador
de 64-bit Intel y AMD64 para referirse a un procesador de 64-bit AMD. Los equipos heredados
se emplean en procesadores de 32 bits. Una limitacin de un procesador de 32-bit es que slo
puede utilizar 4 GB de RAM.
Tanto AMD Opteron como Intel Xeon se emplean en servidores. Para entender las ventajas que
ofrece un procesador Xeon, vamos a echar un breve vistazo a la historia de las arquitecturas Intel
y sus caractersticas, tambin vamos a ver la arquitectura de un procesador AMD Opteron.

Los procesadores Intel


Los componentes principales de un procesador Intel son las unidades de ejecucin, cach y buses
de comunicacin. Como su nombre lo indica, una unidad de ejecucin es la responsable de llevar a
cabo las instrucciones. Las memorias cach son lugares donde los datos y el cdigo estn
almacenados. Cach L1 es el ms cercano a la unidad de ejecucin. Cach L1 es SRAM que es, en
realidad, parte de la CPU y ofrece una alta velocidad de acceso. Cach L2 est ms lejos de la
unidad de ejecucin
y es mucho mayor que cach L1. Sin embargo, el acceso a cach L2 toma ms tiempo. Adems, en
algunas arquitecturas de procesador, como el procesador Intel Core 2 Duo, si hay mltiples
ncleos, la memoria cach L2 se comparte entre los mismos, como se muestra en la Figura 3-3.
Memoria esttica de acceso aleatorio (SRAM)
Un tipo de memoria no voltil que proporciona tiempos rpidos de acceso y utiliza muy poca energa.

Figura 3-3: Arquite ctura Inte l Core 2


Duo

Comenzando con el procesador Intel Core 2 Duo, hasta el procesador Core i7, toda
comunicacin
entre la CPU y los componentes externos, como la Memory Controller Hub (MCH), se
produce a travs del bus frontal (FSB) de la unidad.
El SMI tiene una interfaz Direct Media (DMI), que es una serie dedicada de cuatro enlaces para
el
controlador hub de entrada/salida (ICH). El DMI soporta 2,5 GT/s.
GT/s
Gigatransfers por segundo.

Los enlaces seriales se conocen como carriles.


Como se ilustra en la Figura 3-4, el DMI soporta varios tipos de perifricos, incluyendo PCIe,
USB,
SATA, IDE, as como la gestin de control de potencia APIC, temporizadores y alarmas y control
de velocidad del ventilador.

Figura 3-4: DMI e ICH

El ICH se comunica con los controladores de unidades de disco duro, incluyendo SATA e IDE,
as
como otros perifricos. Tambin es responsable de la gestin de los casos de restauracin y
eventos de ciclado de energa.
General Purpose I/O (GPIO)
Se utiliza para la personalizacin del sistema, interruptores y eventos de
activacin.
System Management Bus (SMBus)
Un bus que se utiliza para dispositivos de bajo ancho de banda, tales como switches on/off, sensores de
voltaje y controladores de ventilador.

InSerial Peripheral Interface (SPI)


Interfaz de dispositivo utilizado para BIOS flash. Un dispositivo de BIOS flash que contiene cdigo de inicializacin
y el firmware de arranque.
Low Pin Count Interface (LPC)
Interfaz de ancho de banda utilizado para conectar controles PS2 para teclado/ratn, puertos seriales y otros
dispositivos de baja velocidad de E/S.
Real Time Clock (RTC)
Reloj interno de la
computadora.

Advanced Programmable Interrupt Controller (APIC)


Componente que dirige las interrupciones a un procesador en particular.

Comprender el chipset
El procesador es un chip en un chipset que incluye tambin chips Northbridge y Southbridge. El
chip
Northbridge es responsable del acceso a la memoria y vdeo AGP. El chip Southbridge
es responsable de los buses perifricos.
Accelerated Graphics Port (AGP)
Un bus de punto a punto que se utiliza para conectar una tarjeta de vdeo.

Arquitectura Intel Core i7


El procesador Core i7 se basa en una arquitectura completamente nueva, conocida como
arquitectura
Sandy Bridge.

Figura 3-5: Arquite ctura Sandy B


ridge

El Core i7 soporta hasta cuatro ncleos. Los ncleos admiten la tecnologa Hyper-Threading, que
permite ejecutar dos subprocesos simultneamente en cada ncleo. El Core i7 tambin soporta
Turbo Boost, una tecnologa que acelera automticamente la ejecucin de instrucciones para
acomodar las cargas de energa.
Thread
Un objeto responsable de ejecutar instrucciones.

Cada ncleo tiene su propia cach L2. Hay un cach L3 adicional que es compartida entre todos

ncleos. El procesador Core i7 tambin soporta tres canales de memoria DDR3 que soportan ms
de
28 Gbps de ancho de banda y operan a 1333 MT/s.
Double Data Rate (DDR)
Un tipo de memoria RAM que transfiere dos fragmentos de datos en cada ciclo de reloj.

Otra diferencia clave entre los procesadores Core i7 y los procesadores anteriores es que en
los
procesadores Core i7, el FSB ha sido sustituido por una interfaz de enlace punto a punto
llamado
Interconnect
(QPI). QPI usa sealizacin diferencial de alta velocidad y admite velocidades de
Intel Quick Path
transferencia de hasta 6,4 GT/s tanto de entrada como de salida. Su ancho de banda mximo es
aproximadamente 2,5 veces ms rpido que el mejor desempeo de los FSB. QPI tambin ofrece
una mayor fiabilidad que los FSB.
Adems, el Core i7 soporta la Intel Virtualization Technology (VT-x), que optimiza la ejecucin
de
mquinas virtuales en una sola computadora fsica.
Mquina virtual
Un sistema operativo que se ejecuta dentro de un entorno de hardware simulado aislado.

Procesadores Xeon
Al igual que el Core i7, el procesador Xeon tiene tres memorias cach: los ncleos especficos de
cachs L1 y L2 y una cach compartida L3. La mayora de los procesadores Xeon soportan Boost
Hyper-Threading y Turbo Boost. Los procesadores Xeon ofrecen varias ventajas sobre el
procesador Core i7, incluyendo:
Fiabilidad 24x7.
El procesador Xeon est optimizado para funcionar continuamente sin reiniciar el
sistema.
Error Correction Code (ECC) de proteccin de memoria.
Deteccin y correccin de un gran porcentaje de errores de
memoria.
Mejora en la seguridad.
Varias caractersticas para mejorar la proteccin contra el malware
y realizar operaciones criptogrficas, como el cifrado.
Ms capacidad de memoria.
Los procesadores
Xeon de
de memoria
la serie 5500
soportan
el uso de energa
ms eficientemente
a travs
La capacidad
depende
del procesador
y el nmero
de CPUs instaladas.
de:
Integrated Power Gates.
Apagado automtico de los ncleos no
utilizados.
Automatizacin de los eventos de energa baja.

cumplir con las necesidades de carga de


trabajo.
Adems, puede comprar una placa madre que contenga varios procesadores
Xeon.
La Tabla 3-1 muestra las caractersticas de los diferentes procesadores Xeon. Todos los
procesadores de la tabla, excepto la E5502, E5504, E5506 y L5506, soportan Turbo
Boost.
Tabla 3-1: Caracte rs ticas de l proce s ador Xe on

Series Xeon E5-2600

Figura 3-6: Se rie s de l Proce s ador Xe on E52600

Los servidores Gen8 ProLiant disponen de la serie de procesadores Xeon E5-2600 (Figura 3-6) con
2/4/6/8 ncleos que ofrecen un rendimiento de hasta un 80% ms que sus predecesores.
Proporcionan ms ncleos, cach y capacidad de memoria, junto con vas de comunicacin ms
grandes y ms rpidas para mover los datos a mayor velocidad. Dos tecnologas clave que brindan
un gran valor adicional que aumenta el rendimiento:
Mayor rendimiento para cargas de trabajo elevadas - Tecnologa Intel Turbo Boost
aumenta automticamente la frecuencia del procesador para aprovechar la energa y
el margen trmico.

Hasta 2x en mejoras de rendimiento para operaciones de punto flotante - Intel Advanced


Vector Extensions proporciona instrucciones nuevas que pueden mejorar el rendimiento
de aplicaciones que se basan en clculos de punto flotante o vectores.
Thermal headroom
La diferencia entre la cantidad de calor producida por un sistema y la temperatura mxima de
funcionamiento.
Floating point operation
Un clculo que relaciona nmeros con un nmero variable de posiciones
decimales.
Clculo de vectores
Un clculo que implica uno o ms conjuntos de valores.

Adems, este procesador tambin cuenta con una memoria cach de 24 MB, 8, 0 GT/s QPI (dos
puertos) y 80 carriles PCI. Los procesadores de la serie Xeon E5-2600 proporcionan una solucin
escalable y una plataforma de energa eficiente. La tecnologa Intel Trusted Execution asegura que
los servidores solo arrancarn en estados identificados como buenos y verificados
criptogrficamente

Peripheral Component Interconnect (PCI)


Un bus compartido que se utiliza para la comunicacin entre
componentes.
Carriles
Una ruta de comunicacin. En general, entre ms carriles haya disponibles, los datos pueden ser transferidos ms rpido
entre los componentes.

Aprenda acerca de su procesador Intel


Si necesita obtener informacin acerca del procesador de un servidor y las funciones que ofrece,
puede descargar la Utilidad de identificacin de procesadores Intel. Hay versiones disponibles
para Windows y Linux, as como una versin de arranque.
La Utilidad de identificacin de procesadores Intel permite ver informacin detallada acerca de su
procesador y de las funciones que admite. La ficha Frecuency Test, que se muestra en la Figura
3-7, permite ver el reporte de la velocidad del CPU, la velocidad del System bus, el tamao de la
memoria cach L3, el nmero de Threads y el nmero de ncleos. Usando estos valores, se
pueden observar las velocidades a las que el procesador est funcionando en comparacin con la
velocidad a la que fue diseado el procesador para funcionar.

Figura 3-7: Te s t de fre cue


ncia

La configuracin de administracin de energa puede afectar la velocidad reportada del


procesador.
La pestaa CPU Technologies, que se muestra en la Figura 3-8, reporta las tecnologas
soportadas
por el procesador. Como se puede ver, el Core i5- 2450m CPU es un procesador de 64-bit y
es compatible con Intel VT y la tecnologa Hyper-Threading.

Figura 3-8: Te cnologas de la


CPU

La ficha CPUID Data, que se muestra en la Figura 3-9, proporciona informacin detallada sobre
el
tipo de procesador, familia, modelo, stepping y revisin. Tambin muestra el tamao de cada
cach, proporciona informacin sobre los tipos de paquetes, el procesador de grficos integrado y
el identificador de chipset.

Figura 3-9: CPUID Data

Cuando un modelo de CPU se introduce por primera vez, los valores de stepping y
revisin son de 0. El valor de stepping o revisin se incrementa cada vez que se realiza un
cambio en el proceso de fabricacin de la CPU, ya sea para resolver un problema o para hacer
una mejora. Los valores de Stepping se incrementan para cambios de mayor importancia. Los
valores de Revisin se incrementan para los cambios de menor importancia. Cuando un stepping
incrementa, el nmero de revisin se convierte en 0.
Tambin puede guardar una copia del informe.

AMD64 chipset
Un chipset AMD64 tiene una arquitectura ligeramente diferente de un chipset Intel, como se
muestra en la Figura 3-10. El procesador tiene un controlador de memoria integrado que se
utiliza para transferir datos hacia y desde la RAM. El procesador utiliza hasta tres buses
HyperTransport para comunicarse con los subsistemas de E/S y entre los procesadores. Un
enlace
HyperTransport soporta hasta 19,2 GB/s de banda ancha mxima por procesador.

Figura 3-10: Arquite ctura Opte


ron

Requerimientos de energa de la CPU


La mayora de las CPU requieren un voltaje mucho menor que el proporcionado por la fuente

alimentacin. Un mdulo regulador de voltaje (VRM) en la placa madre identifica la cantidad


de
energa que requiere un CPU y proporciona solamente el voltaje requerido. A veces se llama a
un
Las
CPUs
modernas
tambin incluyen
caractersticas
VRM
mdulo
de alimentacin
del procesador
(PPM). que ajustan dinmicamente la cantidad
de
energa consumida por la CPU de acuerdo al uso. Estos incluyen:
Intel SpeedStep.
Integrated Power Gates.
Estados de energa ms baja
automticos.
AMD PowerNow.
AMD Dual Dynamic Power
Management.
Caso: Stay
and Sleep
El CEO de Stay and Sleep quiere instalar una aplicacin de base de datos en una computadora
de escritorio. La aplicacin de base de datos se utiliza para dar seguimiento a las reservaciones
hechas por agentes a travs de un programa de reservaciones en lnea.
La base de datos tendr que manejar varias transacciones durante el horario laboral, pero no
muchas fuera de este horario.
Explique por qu la compra de un servidor para ejecutar una aplicacin de base de datos es la
mejor solucin.

Memoria
La memoria es un componente crtico en un servidor. Muchos de los problemas de rendimiento se
pueden atribuir a que la memoria es insuficiente. Los servidores modernos soportan memoria
DDR3. Los servidores anteriores soportan DDR o DDR2. Los tres son del tipo SDRAM.
Synchronous Dynamic Random Access Memory (SDRAM)
Es un tipo de memoria RAM que utiliza una seal de reloj para la
sincronizacin.
Dual in-line memory module (DIMM)
Una serie de chips de SDRAM en una placa de circuito que tiene distintos contactos elctricos por cada lado.

Las memorias DDR, DDR2 y DDR3 se empaquetan como un DIMM. Un DIMM DDR3 se muestra
en
la Figura 3-11. Un DIMM DDR3 puede estar compuesto por uno, dos o cuatro filas de 9 o 18
chips SDRAM. El nmero de filas determina la capacidad del mdulo DIMM. Un chip SDRAM
proporciona 64 bits de datos y 8 bits de ECC en paralelo al bus de memoria de la CPU.

Figura 3-11: DIMM DDR3

Configuraciones DIMM
Cada chip SDRAM en un DIMM ofrece 4 bits u 8 bits de una palabra de datos de 64-bit. Los
chips que proporcionan 4 bits se llaman x4 (por 4) y los chips que proporcionan 8 bits se llaman
x8. Ocho chips x8 o diecisis chips x4 forman una palabra de datos de 64 bits; por lo que, por lo
menos, ocho chips se encuentran a un lado o ambos de un DIMM. Sin embargo, un DIMM
estndar tiene espacio suficiente para almacenar un noveno chip de cada lado. El noveno chip
almacena 4 bits u 8 bits de ECC.
Un DIMM ECC con nueve chips DRAM, por un lado, es single-sided y un DIMM ECC con nueve
chips DRAM en cada lado es un double-sided (Figura 3-12). Un single-side x8 ECC DIMM y un
double-sidex4 ECC DIMM crean un solo bloque de 72 bits (64 bits plus 8 bits ECC). En ambos
casos, una sola seal de chip-set del controlador de memoria activa todos los chips en el DIMM.
En contraste, un DIMM x8 double-sided (ilustracin inferior) requiere dos seales chip-select
para acceder a dos bloques de 72- bit en dos conjuntos de chips de DRAM.
Seal chip-select
Una seal enviada a un chip especfico en un bus.

Junto con configuraciones single-sided y double-sided, los mdulos DIMM son clasificados por
rango. Un rango de memoria es un rea o bloque de 64-bits (72 bits para la memoria ECC)
creado mediante el uso de algunos o todos de los chips DRAM en un DIMM.

Figura 3-12: Lados de me moria y


rangos

Un DIMM single-rank ECC (x4 o x8) utiliza todos los chips DRAM para crear un solo bloque de
72
bits y todos los chips se activan por un chip-select (CS) sealados desde el controlador de
memoria (ver las dos ilustraciones de la parte superior en la Figura 3-12). Un dual-rank ECC
DIMM produce dos bloques de 72 bits de dos conjuntos de chips DRAM en el mdulo DIMM. Un
dual-rank ECC DIMM requiere de dos seales de chip-set. Las seales de chip-set se escalonan de
modo que ambos conjuntos de chips DRAM no compiten por el bus de memoria al mismo tiempo.
DIMMs Quad-rank DIMMs con ECC producen cuatro bloques de 72-bits de cuatro conjuntos de
chips DRAM en el DIMM. Los DIMMs Quad-rank con ECC requieren cuatro seales chip-set. Al
igual que los DIMM dual-rank, el controlador de memoria escalona las seales del chip-set.
Los rangos de memoria han adquirido mayor importancia debido al nuevo chipset y tecnologas de
memoria y mayor capacidad de memoria. Los DIMMs dual-rank mejoran la capacidad de la
memoria mediante la colocacin de dos DIMMs single-rank en un mdulo. El chipset considera
cada fila como una carga elctrica en el bus de memoria. A velocidades ms lentas del bus, el
nmero de cargas no degrada la integridad de seal del bus. Para las tecnologas de memoria ms
rpidas, el chipset
puede manejar slo un cierto nmero de rangos. Por ejemplo, si un bus de memoria tiene cuatro
ranuras DIMM, el chipset puede ser capaz de soportar slo dos DIMM dual-rank o cuatro
mdulos DIMM single-rank. Si se instalan dos mdulos DIMMs dual-rank, entonces los dos
ltimos slots deben permanecer vacos. Para compensar la reduccin en el nmero de slots, los
chipsets utilizan varios buses de memoria.
Si el nmero total de filas ocupadas en los slots DIMM excede el nmero mximo de cargas que el
chipset puede soportar, el servidor puede no iniciar correctamente o que no funcione con
fiabilidad. Algunos sistemas verifican la configuracin de la memoria durante el arranque para
detectar memoria no vlida en la carga del bus. Si el sistema detecta una configuracin de memoria
no vlida, se
detiene el proceso de arranque para evitar un funcionamiento no fiable.

Para evitar estos problemas relacionados con la memoria, HP recomienda a los clientes utilizar
solo
mdulos certificados HP DIMM, que estn disponibles en los kits opcionales de memoria para
cada servidor ProLiant.
Otra diferencia importante entre DIMMs single-rank y dual-rank es el costo. Los costos de
memoria
en general aumentan con la densidad DRAM. Por ejemplo, el costo de un chip DRAM avanzado
high- density generalmente es dos veces ms elevado que la de un chip de DRAM convencional.
Debido a la gran capacidad, los DIMMs single-rank son fabricados con chips DRAM higherdensity; por lo general, cuestan ms que los DIMMs dual-rank de capacidad similar.

Comparando DDR, DDR2 y DDR3


Algunas diferencias fundamentales que existen entre los tres tipos de memoria se resumen en la
Tabla
3-2.
Tabla 3-2: Tipos de me moria

DDR2 y DDR3 tienen sus muescas en forma diferente. No son intercambiables. Un DIMM
DDR2 slo puede ser utilizado en una ranura DDR2. Un DIMM DDR3 slo se puede emplear
en una ranura DDR3.
La especificacin original define la frecuencia DDR3 y las tasas de transferencia se muestran en
la
tabla. JEDEC ha extendido la especificacin DDR3 para definir las velocidades de memoria
adicionales de 1866 MHz y 2166 MHZ. Los servidores ProLiant G6 y G7 soportan un mximo
de velocidad de DIMM DDR3 de 1333 MHz. Sin embargo, los servidores Gen8 soportan

de memoria de hasta 1600 MHz y soportarn velocidades de hasta 1866 MHz una vez que
los
chipsets del procesador estn disponibles.

Joint Electron Device Engineering Council (JEDEC)


Organizacin responsable de la creacin y el mantenimiento de las normas relacionadas con la memoria. Su sitio web
es:
http://www.jedec.org.

Ahora vamos a echar un vistazo ms de cerca a las caractersticas de la memoria y su impacto en


el
rendimiento de la memoria y la eficiencia.

Velocidad de memoria y frecuencia


La frecuencia mxima a la que opera la memoria se seala en su nombre. Por ejemplo, DDR31333 est clasificado para funcionar a 1333 MHz. Este valor se conoce como el reloj DDR y es el
doble de la frecuencia de reloj real. Si quiere expresar la velocidad mxima en Mbps, debe
multiplicar la frecuencia por 8. Por ejemplo, la memoria DDR3-1333 tiene una velocidad de
transferencia mxima de 10.664 Mbps.
Estos son estimados mximos de transferencia de datos. No se toman en cuenta los ciclos
de reloj utilizados para enviar mensajes de control entre la memoria y el controlador de
memoria.

Latencia de memoria
Otro indicador importante del rendimiento de la memoria es la columna Address Strobe (CAS)
de latencia. Este indicador se abrevia a veces como CL. La latencia CAS es el nmero de ciclos
de reloj que un controlador de memoria debe esperar antes de recibir los datos solicitados desde
la DDR. Para calcular la latencia en nanosegundos, es necesario calcular primero el nmero de
nanosegundos en cada ciclo del reloj:
ciclo de reloj = 1/ vocidad de reloj real

A continuacin, se multiplica el resultado por la latencia


CAS.
1 ns = 0,000000001 segundos
As, por ejemplo, si un chip de memoria DDR3-800 tena una latencia CAS de 7, se calculara
la
latencia en nanosegundos como sigue:
ciclo de reloj = 1/400 = 2,5 ns
latencia = 2,5 ns * 7 = 17,5 ns

Banco intercalado
La SDRAM divide la memoria en dos a cuatro bancos para el acceso simultneo a ms datos.
Esta combinacin de la divisin de la memoria y el acceso simultneo a la memoria se

intercalacin. La intercalacin en dos sentidos es similar a la divisin de cada pgina en un


cuaderno
en dos partes y que tiene dos asistentes que recuperan una parte diferente de la pgina. A pesar de
que cada asistente debe hacer una pausa, las pausas se escalonan de modo que, por lo menos, un
asistente est trabajando en todo momento. Los dos asistentes recuperan los datos mucho ms
rpido que si un asistente lo hiciera de forma independiente, sobre todo porque el asistente no
accede a los datos cuando se est en pausa. Esto significa que mientras el procesador accede a un
banco de memoria, el otro banco est preparado para el acceso. El procesador puede iniciar una
solicitud de acceso a la memoria antes de que el acceso anterior se termine. Esta propuesta para la
recuperacin de los resultados de memoria est en continuo flujo de datos.

Prefetch
Un chip de memoria tiene dos reas de almacenamiento: la matriz de memoria, donde se
almacenan la mayora de los datos y el buffer de E/S, donde se almacenan datos en espera de la
transferencia al controlador de memoria. En un chip DDR, solo dos bits de datos se pueden
transferir desde la matriz de memoria a la memoria intermedia en cada ciclo de reloj. Por lo tanto,
si la velocidad del reloj externo real es 200 MHz, la ruta de datos interna tambin debe tener una
velocidad de reloj de 200
MHz.
Con DDR2, el ancho de ruta de datos interna se duplica, permitiendo 4 bits de datos para ser
transferidos por cada ciclo de reloj. La duplicacin del ancho de la ruta de datos interna permite
que la ruta de datos interna solo necesite la mitad de la frecuencia de la ruta de datos externa para
satisfacer la demanda. Como se muestra en la Figura 3-13, la tasa interna de un chip DDR2 de
datos solo debe ser de 100 MHz para soportar una velocidad de 200 MHz de reloj real.

Figura 3-13: Comparacin Pre fe


tch

Con DDR3, la ruta de datos se duplic de nuevo a 8 bits. Esto significa que con una ruta de
datos
interna de 100 MHz, un chip DDR3 puede soportar una velocidad de reloj real de 400 MHz y

Tipos de mdulos DIMM


DDR3 inicialmente soportaba dos tipos de memoria: DIMM -Unbuffered DIMMs-(UDIMM) y
Registered DIMMs (RDIMM). Los servidores ProLiant Gen8 son compatibles con un tercer tipo
de memoria DIMM llamada Load Reduced DIMM o LRDIMM. DDR2 soporta UDIMMs con
bfer completo de DIMMs (FBDIMMs).
Toda la memoria en un servidor debe ser del mismo tipo.
DIMMs sin bufer
Con UDIMM, todas las seales de direccin y de control, as como todas las lneas de datos, se
conectan directamente al controlador de memoria a travs del conector DIMM. Sin buffering, cada
UDIMM adicional que se instala en un canal de memoria aumenta la carga elctrica. Como
resultado, UDIMM est limitado a un mximo de dos UDIMMs dual-rank por canal de memoria.
En configuraciones de memoria ms pequeas, las UDIMMs ofrecen las ms altas velocidades de
memoria con las latencias ms bajas.
DIMMs con bufer completo
FBDIMM recibe todas las seales de memoria (direccin, control y datos) a travs de un chip
Advanced Memory Buffer (AMB) en cada DIMM. La arquitectura FBDIMM soporta ms
mdulos DIMM en cada canal de memoria comparado con los UDIMMs, pero los FBDIMMs
son ms costosos, utilizan ms energa y han incrementado la latencia. El mayor nmero de
canales de
memoria en arquitecturas de servidor que comienzan con los servidores ProLiant G6 y G7
eliminaron la necesidad de una solucin FBDIMM y, por esta razn, los FBDIMM no son parte
de la especificacin DDR3.
DIMMs registrados
Los RDIMM disminuyen la carga elctrica directa al tener un registro en el DIMM para regular las
seales de direccin y comandos entre la DRAM y el controlador de memoria. El registro de cada
DIMM soporta la carga elctrica del bus de direcciones a las DRAM. Esto reduce la carga total de
la porcin de direccin del canal de memoria. Los datos de un RDIMM todava fluyen en paralelo
como 72 bits (64 data y 8 ECC) a travs de una parte de datos del bus de memoria. Con los
RDIMMs, cada canal de memoria puede soportar hasta tres RDIMM dual-rank DDR3 RDIMMs
o dos quad-rank RDIMMs. Con RDIMM, el buffering parcial aumenta ligeramente el consumo
de energa y las latencias. La Tabla 3-3 contiene una comparacin entre RDIMMs y UDIMMs.
Tabla 3-3: Comparacin e ntre RDIMM y UDIMM

Caractersticas

RDIMM

UDIMM

DIMM tamaos disponibles

2GB, 4GB,
8GB, 16GB

1GB, 2GB

Versin de energa baja de los mdulos DIMM


disponibles
Soporte ECC

Soporte ECC avanzado

Paridad de direccin

Soporte Memory Mirroring and Lockstep Mode

Costo relativo

Alto

Bajo

Capacidad mxima en un servidor con 16 slots

256 GB

128 GB

Capacidad mxima en el servidor Gen8 con 24 slots

384 GB

128 GB

Paridad de direccin
Un mtodo de comprobacin de errores en el que el chip de registro calcula la paridad en las lneas de direcciones
DRAM y lo compara con el bit de paridad desde el controlador de memoria.
Mirroring de memoria
Un modo de proteccin de la memoria en la que el subsistema de memoria escribe datos idnticos a dos canales
simultneamente. Si la memoria de lectura de uno de los canales devuelve datos incorrectos debido a un error de
memoria incorregible, el sistema recupera automticamente los datos desde el otro canal.
Lockstep mode
Un modo de proteccin de la memoria en la que dos canales operan como un nico canal, cada operacin de escritura y
lectura mueve una palabra de datos de dos canales de ancho. Si hay tres canales, el tercer canal no se utiliza.

DIMMs de carga reducida


Los LRDIMMs regulan el bus de direccin de la memoria y el bus de datos al controlador de
memoria mediante la adicin de un chip de buffer de memoria completa al mdulo DIMM. A
diferencia de los FBDIMM, los LRDIMMs entregan datos al controlador de memoria en paralelo
en lugar de usar una conexin serial de alta velocidad.
Debido a que los LRDIMMs estn completamente regulados, tienen ventajas y desventajas cuando
se
utilizan en un servidor. Estos incluyen:
Soporte a la cantidad mxima de memoria por canal.
Puede instalar hasta tres quad-ranked LR DIMMs en un canal de memoria
individual.
El aumento de consumo de energa.
La adicin del chip regulador y el aumento de las tasas de datos ms alto
incrementan el consumo de energa de los DIMMs.
La latencia.
Para equivalencias de velocidades de memoria, los buffering requieren la adicin
de ciclos de reloj de la memoria de lectura y escritura. Esto aumenta la latencia de
los LRDIMMs relativos a RDIMMs simples y dobles.
El incremento de la sobrecarga de un LRDIMM se compensa, ya que los canales de memoria

llenan completamente. Los LRDIMMs operan a una velocidad mayor que RDIMM quad-rank.
Esta
mayor velocidad de funcionamiento permite a una LRDIMM tener una total disminucin de
latencia que la que tiene un quad-rank de un RDIMM.
Tabla 3-4 compara las caractersticas de funcionamiento de LRDIMM de bajo voltaje de 32 GB
con
las de un RDIMM equivalente.
Tabla 3-4: Caracte rs ticas de funcionamie nto de LRDIMM Quad-rank vs RDIMM

Los LRDIMMs permiten configurar sistemas de gran capacidad con memoria de datos ms
rpidos
que las tasas quad-rank de RDIMMs. Los servidores Gen8 ProLiant soportan LRDIMMs, as
como UDIMMs y RDIMMs, aunque no se pueden mezclar los tipos de DIMM dentro de un nico
servidor. Los servidores G6 y G7 no soportan LRDIMMs.
HyperCloud DIMM
HyperCloud DIMMs (HDIMMs) son DIMMs de alta capacidad que se utilizan en DL380p y
DL360p
de servidores Gen8. Una discusin detallada de HDIMMs est ms all del alcance de este curso.

HP SmartMemory
HP SmartMemory es una tecnologa introducida por los servidores ProLiant Gen8 que
desbloquea algunas funciones que solo estn disponibles con memorias HP-qualified. La nica
firma escrita a la memoria Serial Presence Detect (SPD) en cada DIMM verifica en los servidores
Gen8 que SmartMemory est instalada y haya pasado la rigurosa calificacin de HP y el proceso
de pruebas.
SmartMemory puede funcionar a bajo voltaje (1.35V) a 1333 MT/s con tres DIMM por canal
(3DPC), pero la memoria third-party debe ejecutarse a 1,5 V para lograr esa tasa. Esto equivale a
reducir energa hasta un 20% sin disminuir el rendimiento. Adems, la industria soporta UDIMM
en dos DIMMs por canal a 1066 MT/s. SmartMemory soporta dos DIMMs por canal a 1333
MT/s, que es aproximadamente 25% mayor el ancho de banda de lo soportado por UDIMM en

canal.
SmartMemory habilita funciones clave, tales como la unidad de historia de informacin completa,
para la notificacin proactiva a travs de HP Active Health. Active Health monitorea los cambios
en la configuracin del hardware del servidor para permitir el monitoreo del ciclo de vida del
estatus
de la memoria. Mientras la alerta Pre-Failure simplemente notifica al administrador de un
impedimento inminente, SmartMemory proporciona informacin precisa sobre los
acontecimientos relacionados con la memoria, tales como errores multibit o problemas de
Cuando se utiliza con un SIM HP, el firmware del Smart-capable habilita la prediccin de
configuracin.
fallas.
Antes de desarrollar problemas potenciales en uno de los DIMMs, HP SIM permite saber
con antelacin lo que pueda tener el DIMM para reemplazarlos antes de que falle, tal vez
mientras todava est bajo garanta.
HP Active Health
Un componente de la HP iLO Management Engine que ofrece un control continuo de monitoreo de los parmetros
del sistema.

HP System Insight Management (SIM)


Un conjunto de herramientas de administracin que permiten gestionar mltiples servidores desde una sola consola.

Arquitectura NUMA
Ahora que tiene una comprensin general de la memoria y procesadores, vamos a revisar cmo es
el
acceso a Non-Uniform (NUMA), la arquitectura del servidor y la memoria DDR3 trabajan en
conjunto para el manejo de la memoria y la latencia que limitan el rendimiento del sistema
bajo arquitecturas multiprocesador anteriores.
Los servidores basados en AMD Opteron han utilizado la arquitectura NUMA desde su creacin,
primero con memoria DDR1 y ms tarde con la DDR2. Los servidores basados en AMD ProLiant
G7 usan una arquitectura NUMA actualizada que soporta memoria DDR3. A partir de G6 y G7, los
servidores HP ProLiant basados en Intel comenzaron a incorporar la arquitectura NUMA, junto
con otras nuevas caractersticas. Todos los servidores ProLiant Gen8 utilizan arquitectura NUMA.

Arquitectura de acceso uniforme a memoria


La Figura 3-14 muestra la tpica arquitectura para un servidor de dos procesadores (2P) que utiliza
la arquitectura de memoria tradicional. Con este diseo general, conocido como memoria de
acceso uniforme, los controladores de memoria y los canales de memoria se encuentran en un
conjunto de chips sistema centralizado. Cada procesador utiliza la misma va para acceder a toda la
memoria del sistema, comunicndose con los controladores de memoria a travs de la parte frontal
del bus. Los controladores, luego de acceder a los canales de memoria DIMM, devuelven los datos
solicitados a los procesadores. La arquitectura admite dos funciones de controlador de memoria.
Cada una de
estas funciones administra dos canales de memoria de cuatro canales de memoria por sistema.
El sistema soporta huellas de memoria ms grandes que soportan hasta cuatro DDR2

canal.

Figura 3-14: Arquite ctura de me moria uniforme de dos proce s adore s


tradicionale s

Esta arquitectura proporciona a cada canal de memoria un ancho de banda mximo de 9,6 GB/s
para
los sistemas que soportan PC2- 6400 regulados completamente por DIMMs. Los canales de
memoria de los sistemas que utilizan DIMMs registrados pueden soportar un ancho de banda
mximo de 6,4
GB/s. Con cuatro canales de memoria por sistema, el ancho de banda de memoria mximo terico
de estos sistemas es de 38,4 GB/s y 25,6 GB/s, respectivamente. Hay, sin embargo, factores que
ancho de banda
mximo del bus frontal es un punto de rendimiento de cuello de
limitan el El
rendimiento
alcanzable:
botella.
Las huellas de memoria ms grandes requieren completamente ser reguladas por
DIMMs, lo que aumenta la latencia de la memoria y disminuye el volumen resultante y
el rendimiento.

Arquitectura DDR3 y NUMA


Aunque varan ligeramente en los detalles de implementacin, las arquitecturas Intel y AMD
NUMA comparten un concepto de diseo comn. Con NUMA, cada procesador en el sistema
tiene controladores de memoria y canales de memoria por separado. Adems, al tener ms
controladores de memoria y canales de memoria en el sistema, cada procesador accede a su
memoria conectada directamente. La memoria de acceso directo elimina el cuello de botella del
bus frontal y reduce la latencia. Un procesador accede a la memoria del sistema conectado a un
procesador diferente a travs de vnculos seriales de alta velocidad que conectan los componentes
del sistema primario. En sistemas Intel, QuickPath Interconnect (QPI) se utiliza como vnculo
serial de alta velocidad. Para sistemas AMD, la tecnologa HyperTransport realiza la misma
funcin. Comenzando con el HP

ProLiant G6, todos los servidores ProLiant de HP emplean memoria DDR3 para ayudar a
aumentar
el rendimiento de la memoria.
La Figura 3-15 ilustra la arquitectura NUMA para un servidor ProLiant tpico con dos
procesadores.

Figura 3-15: Arquite ctura ProLiant 2P


NUMA

La arquitectura NUMA resuelve los dos problemas que surgieron con el crecimiento de
complejidad
del sistema:
Elimina los cuellos de botella en el subsistema de memoria que limitan el sistema de
memoria.
Es compatible con las huellas de memoria ms grandes sin disminuir significativamente
el rendimiento de la memoria.
DDR3 se integra con la arquitectura NUMA para ofrecer un rendimiento de memoria
significativamente mejorada. Por ejemplo, cuando la arquitectura del procesador 2P basado en
Intel de servidores ProLiant G6 utiliza memoria DDR3 con seis canales, tiene un ancho de banda
de memoria mximo terico de 64 GB/s, un 65% mayor que el de la arquitectura antigua utilizada
por la memoria DDR2.
Para servidores ProLiant Gen8, el nmero de canales de memoria en los sistemas de 2P aumenta
a
cuatro por procesador. Las velocidades de memoria aumentan para soportar hasta 1600 MT/s
al principio y ms tarde 1866 MT/s. Cuando los sistemas Gen8 2P usan quad-rank LRDIMM,
la capacidad mxima de la memoria se incrementar a 768 GB. Este aumento de la capacidad
de memoria ocurre en ambos diseos de servidores Intel y AMD.

Soporte NUMA en sistemas de 4 procesadores


Para arquitecturas de servidor ProLiant 4P, Intel dise un enfoque ligeramente diferente
al subsistema de memoria que los sistemas AMD.
Cada enfoque de diseo tiene su propio conjunto de beneficios y ambos dependen de la
memoria
DDR3.

Arquitectura Intel 4P
La Figura 3-16 muestra la arquitectura del procesador y memoria para los servidores 4P HP
ProLiant
G7 que utilizan procesadores Intel Xeon 5600.

Figura 3-16: Arquite ctura ProLiant G7 Inte l 4way

Mientras que la arquitectura bsica NUMA es evidente en servidores 4P HP ProLiant G7, hay
claras
diferencias entre su diseo y el diseo de sistemas 2P. La diferencia ms significativa para el
servidor 4P es que posee buffers de memoria independientes entre la CPU y los canales de
memoria. Estos buffers utilizan una propiedad de alta velocidad del enlace serial para el transporte
de datos de la memoria entre s mismos y la CPU, mientras que proporciona una interfaz de bus de
memoria estndar para los DDR3 DIMMs. Con este enfoque, cada controlador de memoria soporta
dos
canales de memoria para dos DIMMs cada uno. Adems, la arquitectura 4P utiliza cuatro
controladores de memoria por CPU en lugar de tres. En conjunto, estas opciones de diseo
TB
permiten a los sistemas Intel 4P soportar hasta 64 DIMMs, o 2 TB de memoria usando DIMMs de
Terabyte
32 GB.
Con el almacenamiento en bfer de memoria utilizada en esta arquitectura, la memoria del
sistema
funciona a 1066 MT/s para todas las configuraciones de la memoria, incluyendo los
sistemas completamente ocupados.
Para los servidores ProLiant Gen8, esta arquitectura se mantiene relativamente sin cambios, a
pesar
de que la velocidad de la memoria se incrementa hasta 1333 MT/s.
Arquitectura AMD 4P
Los servidores ProLiant de HP basados en AMD han usado arquitectura NUMA desde su inicio.
Sin
embargo, los servidores ProLiant G7 son la primera generacin que utiliza memoria DDR3. La
Figura 3-17 muestra la arquitectura del procesador y la memoria de un procesador para un
servidor ProLiant G7 4P basado en AMD con tres zcalos DIMM por canal de memoria.

Figura 3-17: Arquite ctura ProLiant G7 AMD 4Way

Cada procesador tiene cuatro controladores de memoria y cada controlador de memoria tiene un
canal de soporte de dos o tres DIMMs DDR3, dependiendo del sistema. Los tres canales de
memoria DIMM estn configurados elctricamente como una T, con un DIMM instalado en el
centro de la T y los otros dos DIMMs en los extremos. Este diseo proporciona una mejor
integridad de seal, manteniendo las longitudes de los caminos elctricos a los DIMMs tan cerca
de la misma longitud como sea razonablemente posible. Con el fin de ayudar a mantener esta
simetra, se instala DIMMs
en ambos extremos de la T antes de instalar el tercer DIMM en el centro.
Esta arquitectura permite que el subsistema de memoria soporte DDR3 operando a 1333 MT/s
cuando los canales de memoria no estn totalmente ocupados. La ausencia de bfer de memoria
externa tambin se traduce en una menor latencia de la memoria total. Sin embargo, sin memoria
intermedia, la arquitectura solo es compatible con un mximo de 48 DIMMs, o 1 TB de memoria
del sistema.
Para servidores ProLiant Gen8, la arquitectura de AMD no cambia significativamente. Sin bfer
de
memoria, estos sistemas soportan memorias DDR3 operando a 1600 MT/s en configuraciones
de memoria ms pequeas. Con la disponibilidad de LR DIMMs capaces de soportar tres quadrank DIMMs por canal, el mximo de memoria se incrementar hasta 1,5 TB con 667 MT/s.

Impacto NUMA en el ancho de banda


Removiendo el bus frontal y moviendo los controladores de memoria en los procesadores, las
arquitecturas de los sistemas ms nuevos eliminan algunos de los cuellos de botella de memoria
anteriores. El ancho de banda de memoria mxima terica es inalcanzable en la prctica, ya que
representa un escenario ideal en el que todos los canales de memoria funcionen a pleno
rendimiento todo el tiempo. Usando arquitecturas NUMA, los servidores ProLiant 2P pueden
lograr mejorar el rendimiento de memoria relativa midiendo sus mximos tericos, tal como se
muestra en la Tabla 35.
Tabla 3-5: El re ndimie nto de me moria para s e rvidore s ProLiant 2P

Servidores
2P ProLiant G5
basado en Intel

Ancho de banda
terico mximo de la
memoria
25,6 Gbps (RDIMM)
38,4 Gbps (FBDIMM)

Medida de rendimiento mximo de


la
memoria
12 Gbps

2P ProLiant G6/G7
basado en Intel
ProLiant 2P Gen
8 basado en Intel

64 Gbps

40 Gbps

102,4 Gbps

88,6 Gbps

Configuracin de la memoria en un servidor HP ProLiant


En el diseo e implementacin de una configuracin de servidor, se debe configurar la memoria
para
lograr el mayor rendimiento posible. A continuacin, vamos a ver algunas de las mejores prcticas
y directrices de la herramienta de Configuracin de la memoria DDR3.

Mejores prcticas de configuracin de memoria


La memoria DDR3 ofrece un rendimiento mejorado sobre la memoria DDR2. Con las
arquitecturas
NUMA, la forma en que se instalan los DDR3 DIMM afecta al rendimiento.
Maximizar el rendimiento del
sistema
La clave para maximizar el rendimiento del sistema es ocupar muchos canales de memoria del
sistema como sea posible. Esto ayuda a asegurar que el ancho de banda de todos los canales de
memoria est disponible para el sistema. Con servidores 2P ProLiant G6 basados en la serie de
procesadores Intel Xeon 5500, se deben instalar un mnimo de seis mdulos DIMMs (uno en
cada canal de memoria) para asegurarse que el ancho de banda de la memoria de todos los
canales est disponible en el sistema.
Minimizando la latencia de
memoria
Se puede optimizar la latencia de memoria, particularmente la latencia cargada de la memoria,
para
la ejecucin de la mxima velocidad de datos. Para los sistemas que son capaces de soportar las
velocidades de datos ms altas, conseguir esta velocidad de la memoria depende del nmero de
los DIMMs instalados en cada canal, as como su rango.
Usando configuraciones de memoria
equilibrada
Para casi todos los entornos de aplicaciones, la configuracin ptima para la memoria DDR3 es
equilibrar la memoria instalada a travs de los canales de memoria y en los procesadores.
Equilibrar la memoria instalada a travs de los canales de memoria o en un procesador optimiza el
intercalado del rango y canal, y este intercalado asegura el rendimiento mximo de la memoria.
Equilibrar los procesos a travs de la memoria instalada asegura un rendimiento consistente
para
todos los subprocesos que se ejecutan en el servidor. Si ha instalado ms memoria en un
procesador, los subprocesos que se ejecutan en ese procesador alcanzarn un rendimiento
significativamente ms alto que sobre el otro procesador. Un desequilibrio de rendimiento

general del sistema, especialmente en entornos de


virtualizacin.

Herramienta de configuracin para memoria DDR3


La Herramienta de configuracin de la memoria DDR3 est disponible en:
http://h18004.www1.hp.com/products/servers/options/tool/hp_memtool.ht
ml
Al abrir la Herramienta de configuracin de la memoria DDR3, primero debe aceptar el acuerdo
de
licencia. Aparecer una pgina que explica los tipos de memoria DDR3. Haga clic en Next
para continuar.
A continuacin se le pedir que seleccione si tiene el modelo de build-to-order (BTO). Si es as,
haga clic en S. De lo contrario, haga clic en No. Si hace clic en No, se le pedir que seleccione
un servidor de la serie HP ProLiant, como se muestra en la Figura 3-18.

Figura 3-18: Se le ccione e l s e


rvidor

Seleccione una serie y, a continuacin, expanda la lista Select your ProLiant server. Elija
el
modelo de servidor de la lista. Posteriormente se le pedir que diga cuntos procesadores se
han instalado en el sistema y si la memoria est instalada en el servidor. Para fines de
demostracin, elegimos el nmero 2 y respondimos No, como se muestra en la Figura 3-19.

Figura 3-19: Configuracin de l s e


rvidor

Haga clic en Next para continuar. Introduzca la cantidad de memoria que necesita o arrastre el
deslizador para seleccionar el valor apropiado. Seleccione si desea optimizar el servidor para un
rendimiento, eficiencia de energa, bajo costo, o de uso general, tal como se muestra en la Figura
320.

Figura 3-20: Re que rimie ntos e s pe


cficos

Haga clic en Next para continuar. Se muestran opciones de configuracin, las que se
recomiendan
aparecen como Optimal, como se muestra en la Figura 3-21.

Figura 3-21: Opcione s de configuracin de me


moria

Haga clic en el botn Select para que la opcin visualice los nmeros de parte y en un diagrama
se
observe cmo los mdulos DIMMs deben instalarse. El diagrama de la seleccin anterior Option
#
1 se muestra en la Figura 3-22.

Figura 3-22: Lis ta de pie zas y diagrama de ins


talacin

Caso: Stay and Sleep


En su reunin con el CEO de Stay and Sleep, sabr que la compaa espera lanzar una
campaa de publicidad en televisin despus de lanzar el sitio web. El servidor de base de datos
y el servidor web necesitarn escalarse si la respuesta a la publicidad sobrecarga los
servidores.
Qu debe considerar ahora para elegir la memoria y permitir la escalabilidad en el futuro?

Buses de expansin
Los tipos ms comunes de las ranuras de expansin en una tarjeta madre de servidor son las
ranuras
de expansin PCIe. Algunos servidores tambin soportan ranuras de expansin PCI y PCI-X.
Estas ranuras de expansin se pueden utilizar para conectar adaptadores de grficos, adaptadores
de red, tarjetas y otros perifricos.
Ahora vamos a echar un vistazo a cada uno de estos
estndares.

PCI-X

PCI-X (tambin conocido como PCI extendido) es un bus compartido. Sin embargo, es de 64 bits
de
ancho en lugar de 32 bits. Est disponible con una velocidad de reloj de 66 MHz o de 133 MHz.
A
133
MHz, soporta transferencias de datos de hasta 1 Gbps.
PCIe
PCIe (tambin conocido como PCI-Express) es una tecnologa de conexin en serie que utiliza
una conexin de conmutacin punto a punto para facilitar la comunicacin directa entre los
dispositivos.
Una tarjeta PCIe tiene uno o ms carriles de 4-cables que se emplean para transmitir datos. El
nmero de carriles determina la anchura de la ranura o tarjeta. Cada carril admite velocidades de
transferencia de datos de 200 Mbps en cada direccin. Esto significa que una tarjeta de 16carriles PCIe puede tener una tasa de transferencia de datos de 6,4 Gbps en cada direccin. La
notacin que determina el nmero de carriles es x1, x2, x4, x8 y x16 (que se dice por 16).
Otra ventaja de PCIe es que puede suministrar hasta 75 W de potencia. Esto es
especialmente
importante para las tarjetas grficas de alta potencia.
Puede instalar una tarjeta PCI o PCI-X en una ranura PCIe mediante el uso de una tarjeta
adaptadora
de PCIe a PCI. Esto es importante si usted tiene un perifrico de versin anterior que tiene que
utilizar en un servidor nuevo que no tenga un slot PCI. Tambin puede instalar una tarjeta PCIe en
una ranura PCIe que es ms ancha (tiene ms carriles) que la tarjeta. Sin embargo, solo se
utilizarn los carriles de la tarjeta.
No se puede instalar una tarjeta PCIe en una ranura PCI o en una ranura PCIe con menos
carriles.
Hay tres diferentes generaciones de PCIe. Sus caractersticas se describen en la Tabla 36.
Tabla 3-6: Caracte rs ticas de PCIe

El ancho de banda para PCIe 3,0 es el doble que para PCIe 2,0, pero la tasa de transferencia
es

inferior al doble. La razn principal de esto es que PCIe 3,0 tiene una sobrecarga muy inferior
para
la codificacin de datos a transmitir.

Almacenamiento interno
Una de las principales funciones de un servidor es la de almacenar y proporcionar acceso a
los
datos. Por lo tanto, los dispositivos de almacenamiento en un servidor deben tener las
siguientes caractersticas:
Suficiente capacidad de almacenamiento.
Tiempos ptimos de acceso.
Redundancia para proteger los datos contra fallas de disco
duro.
Los servidores HP tienen un motor de procesamiento de matriz inteligente para permitir la
conexin
interna o externa Serial Attached SCSI (SAS) y Serial Advanced Technology Attachment (SATA)
de disco duro a travs de un bus PCIe.
Serial Advanced Technology Attachment (SATA)
Un estndar de interfaz que se desarroll a partir del estndar Integrated Device Electronics (IDE). Invoca la
comunicacin serial y ofrece velocidades de datos superiores a los fijados por IDE, pero inferiores a los admitidos por
SAS.
Serial Attached SCSI (SAS)
Una extensin de la tecnologa de interfaz SCSI que permite una mayor transferencia de datos y una mejor fiabilidad de
los discos duros de servidor que la proporcionada por SATA.
Small Computer System Interface (SCSI)
Un conjunto de normas que definen la conectividad paralela de interfaz para los dispositivos, incluyendo los dispositivos
de almacenamiento, impresoras y escneres.

Caractersticas de controlador de vectores inteligentes Smart Array


Un controlador Smart Array transforma las peticiones de lectura y escritura realizadas por
una aplicacin en instrucciones individuales requeridas por el disco duro o una matriz
RAID.
Dos controladores Smart Array se muestran en la Figura 323.

Figura 3-23: Controladore s HP Smart


Array

Almacenamiento en
cach
Un controlador Smart Array incluye un mdulo de memoria cach que mejora el rendimiento de
E/S
en comparacin con el que ofrece un controlador de disco duro estndar. Proporciona tanto
el almacenamiento en cach de lectura read-ahead como la escritura write-back.
Cach de lectura anticipada readahead
La familia de controladores HP Smart Array utiliza un algoritmo adaptable de lectura anticipada
que
se adelanta a las necesidades de datos para reducir el tiempo de espera. Se puede detectar la
actividad de lectura secuencial en los diferentes hilos de E/S y predecir cundo seguirn las
solicitudes de lectura para los datos secuenciales. El algoritmo entonces lee por adelantado las
unidades de disco. Cuando se produce la peticin de lectura, el controlador recupera los datos de
la memoria cach de alta velocidad en microsegundos en lugar de desde la unidad de disco en
milisegundos. Este esquema adaptable de lectura anticipada ofrece un rendimiento excelente para
las solicitudes de lectura secuenciales en bloques pequeos.
Datos secuenciales
Datos almacenados en sectores contiguos de un disco duro.

El controlador desactiva automticamente la lectura anticipada cuando detecta actividad no


secuencial de lectura. El cach controlador HP Smart Array de lectura anticipada elimina los
problemas con los esquemas de lectura anticipada que aumentan el rendimiento de lectura
secuencial pero que degradan el rendimiento de lectura aleatoria.
Lectura aleatoria
El proceso de leer datos de diferentes reas de la unidad.

Write-back caching
Los controladores Smart Array de HP utilizan un esquema de escritura write-back que permite a
las
aplicaciones host continuar con otras tareas sin esperar a que las operaciones de escritura en el
disco se completen. Un controlador sin un cach de escritura write-back devuelve un estado
completo al sistema operativo solo despus de que escribe los datos en las unidades. Debido a que
la escritura en un disco consume ms tiempo que escribir en la memoria cach, esto causa que las
aplicaciones tengan que esperar y el rendimiento se vera afectado.
Un controlador de almacenamiento en cach de escritura puede postear datos escritos a alta
velocidad y devolver de inmediato el estado de finalizacin al sistema operativo. En cuanto al
sistema operativo concierne, la operacin de escritura se completa en microsegundos en lugar de
milisegundos. El controlador entonces escribe los datos de su memoria cach de escritura en el
disco posteriormente, en el momento que sea ptimo para el controlador.
Una vez que el controlador localiza datos escritos en la memoria cach, las lecturas posteriores a
la

(acierto de cach de lectura). Escrituras posteriores a la misma ubicacin del disco sustituirn los
datos almacenados en cach. Por lo tanto, el almacenamiento en cach de escritura mejora el
ancho de banda y la latencia para aplicaciones que frecuentemente escriben y leen la misma rea
del disco.
Normalmente, la cach de escritura se llenar y permanecer llena la mayor parte del tiempo en
entornos de alta carga de trabajo. El controlador utiliza esta oportunidad para analizar los
comandos de escritura pendientes y mejorar su eficiencia. El controlador puede utilizar la escritura
coalescente para combinar escrituras pequeas en bloques lgicos adyacentes en una escritura ms
grande para una ejecucin ms rpida. El controlador tambin puede realizar la reordenacin de
comandos, cambiando el orden de ejecucin de las escrituras en la memoria cach para reducir la
latencia del disco en general. Con mayores cantidades de memoria cach de escritura, el
controlador Smart Array puede almacenar y analizar un mayor nmero de comandos de escritura
pendientes, lo que aumenta
las posibilidades de escritura coalescentes y reordenando comandos a la vez que ofrecen un
mejor rendimiento general.
La tecnologa ECC DRAM protege los datos mientras estn en cach. Los Smart Array de cach
respaldados por batera o los mecanismos de respaldo cache flash-backed protegen los datos de
la cach contra una cada del servidor y prdida de energa.
El controlador desactiva el almacenamiento en cach cuando el respaldo por batera o el
cache flash-back no est instalado. Puede anular este comportamiento, pero al hacerlo se abre
una ventana para la posible prdida de datos.

RAID
La tecnologa RAID combina varios discos fsicos en un disco lgico para mejorar la resistencia
y aumentar el rendimiento de almacenamiento informtico.
Hay varios niveles de RAID en el uso comn, cada uno con sus propias fortalezas y debilidades,
cada uno designado por un nmero. Algunos niveles RAID mejoran el rendimiento (striping),
algunos mejoran la resistencia (paridad) y algunos mejoran ambos. En esta seccin, analizaremos
cinco niveles RAID que son comnmente aplicados:
RAID 0
RAID 1
RAID 5
RAID 6
RAID 1
+0
Sin embargo, primero vamos a definir un par de
trminos.
RAID set
El trmino RAID set, tambin llamado matriz RAID, se utiliza para referirse a un conjunto
de

unidades que se combinan y se configuran para trabajar juntos como una unidad lgica con
una
configuracin RAID aplicada.
La Figura 3-24 muestra un conjunto RAID simple que contiene cinco discos que se han combinado
en
un nico disco lgico.

Figura 3-24: Conjunto RAID s


imple

Es una prctica comn, cuando se representa el almacenamiento en diagramas tcnicos y


arquitectnicos, dibujar unidades de disco y unidades lgicas como cilindros.
Los controladores RAID
Un controlador RAID es hardware dedicado que tiene discos fsicos y realiza funciones RAID en
estos discos. Estas funciones RAID incluyen: la creacin de discos lgicos (conocidos como
unidades lgicas y generalmente abreviado como LUN), el striping, mirroring, el clculo de la
paridad y la recuperacin de fallos. La Figura 3-25 muestra cmo un controlador RAID encaja en
la arquitectura.

Figura 3-25: Controlador RAID

Los controladores RAID internos, tales como los controladores RAID HP Smart Array, que se
instalan dentro de los servidores fsicos y controlan los dispositivos de disco fsico instalados en
el servidor, en particular con el controlador RAID instalado. Los controladores RAID internos se
colocan en el bus PCIe del servidor.
Un disco duro conectado a un controlador interno se conoce como almacenamiento de
conexin directa (DAS).
Striping
Striping es una tcnica utilizada por muchos algoritmos RAID para mejorar el rendimiento de
almacenamiento. En un nivel alto, este rendimiento mejorado se consigue mediante la suma del
rendimiento de todas las unidades del conjunto RAID (a veces referido como conjunto stripe).
Esto se muestra en la Figura 3-26.

Figura 3-26: Striping

El siguiente ejemplo resalta las ventajas de rendimiento del striping. Imagnese que usted est
guardando un archivo MP3 de 10 MB en el disco y que el disco puede escribir (guardar datos) a
1Mb/sec. Guardar el archivo MP3 tardar 10 segundos. Sin embargo, si tuviera cuatro de esas
unidades de disco y las hubiera creado en un conjunto de stripe, sera capaz de guardar el archivo
MP3 en 2,5 segundos. Esto es debido a que cada unidad tiene una capacidad de 1Mb/sec y crear
un conjunto de stripes combina las cuatro unidades en una nica unidad lgica con un
rendimiento de escritura de 4MB/seg.
Striping tambin permite una mayor capacidad. En el diagrama anterior, el disco lgico tiene
la
capacidad de los cuatro discos fsicos utilizados en el conjunto stripe.

Paridad
La paridad es una tcnica utilizada en algoritmos RAID para aumentar la capacidad de
recuperacin
de un conjunto RAID. Algunos algoritmos RAID reservan un porcentaje de la capacidad del
RAID para almacenar datos de paridad que permitan al conjunto RAID recuperarse de ciertas
condiciones de error, como una unidad que ha fallado.
La Figura 3-27 muestra cmo una sola unidad de disco se puede reservar en un conjunto RAID
para
los datos de paridad.

Figura 3-27: Unidad de


paridad

El conjunto RAID anterior tiene un solo disco de paridad, por lo que puede sufrir un fallo de un
disco
(cualquier unidad en el conjunto RAID) y an seguir funcionando.
La Figura 3-28 muestra los conjuntos RAID con una sola unidad de paridad y cmo se enfrentan a
una
y varias anomalas en los discos de datos.

Figura 3-28: Impacto de l fallo de una unidad e n un conjunto


RAID

En la ilustracin inferior, el conjunto RAID ha fallado (los datos se pierden) porque dos unidades
han fallado y solo hay una unidad de paridad. Si este conjunto RAID hubiera tenido dos unidades
de disco de paridad, hubiera sido capaz de sobrevivir a dos unidades de datos fallidas.
Ahora que hemos cubierto algunos conceptos que son fundamentales para RAID, vamos a echar
un
vistazo a algunas configuraciones RAID comunes.

RAID 0
En opinin de algunos puristas, RAID 0 no es RAID de verdad porque no proporciona la R
(Redundant ) en RAID. El incumplimiento de cualquier unidad en el conjunto RAID har que
todo el conjunto fracase y haya prdida de datos.
RAID 0 es, sin embargo, proporciona una mayor capacidad y un mejor rendimiento mediante
la
combinacin de varias unidades de disco en una nica unidad lgica.
A RAID 0 es tambin se le conoce como striping, o striping sin
paridad.
La Figura 3-29 muestra una escritura de datos del servidor (D1, D2, D3, D4 .). La unidad
lgica
que se compone de 4 unidades fsicas. Como se puede ver, los bloques de datos (D1, D2, D3 )
estn uniformemente distribuidos entre las 4 unidades en el conjunto stripe.

Figura 3-29: RAID 0

RAID 1
RAID 1 tambin se conoce como mirroring sin
striping.
Un conjunto RAID 1 contiene un mnimo de dos unidades. Como el trmino mirroring (espejo)
sugiere, la mitad del conjunto RAID se utiliza como una copia espejo de la otra mitad. Esto es casi
siempre implementado como una unidad de disco que es una copia espejo de la otra. Si alguna de
las unidades del conjunto RAID falla, la otra puede ser utilizada para dar servicio tanto a las

como a las escrituras.


RAID 1 se considera un nivel de RAID muy seguro, pero tiene un costo. El costo de RAID 1 es
que
siempre se debe emplear la mitad de la capacidad para protegerse contra fallas. Esto significa que
el costo por terabyte de almacenamiento ser el doble de la utilizada sin RAID. Por ejemplo, para
almacenar 250 GB de datos en un conjunto RAID 1, tendra que comprar dos unidades de 250 GB.
La Figura 3-30 muestra un RAID 1 creado a partir de dos unidades de 600 GB. Se puede ver que
la
unidad lgica resultante es tambin de 600 GB, exactamente la mitad de la capacidad total de
las unidades del conjunto RAID. Una unidad es una copia espejo de la otra.

Figura 3-30: RAID 1 Se t Mirror (e s pe


jo)

RAID 5
RAID 5 reserva el equivalente a un disco de espacio para los datos de paridad, de modo que un
conjunto RAID puede recuperarse de un fallo de un disco. No importa cuntos discos estn en el
conjunto RAID, solo el espacio de una sola unidad est reservado para la paridad y solo una
unidad puede fallar sin que el conjunto RAID falle y se pierdan datos.
RAID 5 tambin es conocido como nivel de bloque striping con paridad
distribuida.
Las configuraciones comunes de RAID 5
son:
RAID 5 (3 +1). Tres unidades con valor de capacidad para datos y un valor de unidad
de
capacidad para los datos de paridad.
RAID 5 (7+1). Siete unidades con valor de capacidad de datos y una unidad de valor
de capacidad para los datos de paridad.
Notacin RAID:
Generalmente, las configuraciones RAID se expresan como
sigue: RAID X (Y + Z)
X = Nivel RAID
Y = nmero de unidades de datos Z = nmero de unidades de
paridad

Por ejemplo, una configuracin RAID 5 con 7 unidades con valor de datos y una unidad de disco de paridad se expresara
de la siguiente manera:
RAID 5 (7 +1)

Aunque las anteriores son configuraciones populares de RAID 5, otras configuraciones tambin
son
posibles, incluyendo configuraciones tales como RAID 5 (2+1) y RAID 5 (15+1). Como
siempre, solo el fallo de un disco se puede tolerar antes de perder datos.
La Figura 3-31 muestra un conjunto RAID 5 (3
+1).

Figura 3-31: RAID 5 (3 +1)

Debido a RAID 5 puede tener diferentes configuraciones, cada configuracin tiene una sobrecarga
de
RAID diferente. Por ejemplo, un RAID 5 (3 +1) tiene una sobrecarga del 25% RAID (hay 4
unidades en el conjunto RAID y una se utiliza para la paridad. * 100 = 25. Por lo tanto, 25% de
la
capacidad del conjunto RAID se pierde en la paridad). En RAID 5 (7+1), esta sobrecarga se
reduce a 12,5%.
Normalmente, RAID 5 utiliza una operacin booleana lgica exclusiva OR (XOR)
para
crear la paridad y recuperar los datos de paridad.
XOR
Una operacin en la que los bits que son los mismos resultan en 0 y los bits que son diferentes resultan en 1. Por
ejemplo:
10110000 XOR 01000000 = 11110000

RAID 6
RAID 6 se muestra en la Figura 3-32, es muy similar a RAID 5 en que se realiza a nivel de
bloque
por striping para aumentar el rendimiento y capacidad, tambin utiliza la paridad para proteger
y recuperar datos. La principal diferencia entre RAID 5 y RAID 6 es que RAID 6 proporciona
dos conjuntos de paridad, por lo que puede recuperarse a partir de dos discos que han fallado.
RAID 6 tambin se conoce como nivel de bloque striping con paridad doble.

Configuraciones comunes de RAID 6


incluyen:
RAID 6 (6 +2).
RAID 6 (14
+2).
Al igual que con RAID 5, otras configuraciones de RAID 6 son posibles. Sin embargo, no
importa
cuntos discos formen un conjunto RAID 6, un mximo de dos unidades fallidas se pueden
tolerar antes de que se pierdan datos.

Figura 3-32: RAID 6

Los niveles de RAID ms comunes no dedican un disco de paridad. En su lugar, utilizan un


esquema
de paridad distribuido o de rotacin, como se muestra en la Figura 3-32.
RAID 1 +0
RAID 1 +0, a menudo referido como RAID 10, es un hbrido de RAID 1 (conjuntos de espejo)
y
RAID 0 (conjuntos de stripe) y trae los beneficios tanto de mirroring como de striping.
La Figura 3-33 muestra cmo se crea un conjunto RAID
10.

Figura 3-33: RAID 10

RAID 10 es una buena opcin en muchas situaciones, ya que proporciona una buena fiabilidad
(mirroring), as como rendimiento (striping). Una matriz RAID 10 puede recuperarse de un fallo
de varias unidades, siempre y cuando no haya dos unidades fallidas en el mismo par duplicado.
Por ejemplo, un array RAID con 4 unidades (el mnimo) puede recuperarse del fallo de dos
unidades en diferentes espejos. Sin embargo, la desventaja de RAID 10 es su costo. Al igual que
con RAID 1, el
50% de la capacidad tiene que ser reservada para la duplicacin.
Hay otras configuraciones posibles de RAID, pero las ms comunes son las aqu
mencionadas.
Caso: Stay and Sleep
El CEO est preocupado por la prdida de datos de las reservaciones almacenadas en la base
de datos. Discuta las opciones RAID disponibles y su impacto en la resistencia, rendimiento y
costo.

Familia de servidores ProLiant


La familia HP ProLiant cuenta con muchas ventajas innovadoras. Cuenta con procesadores Intel
y
AMD basados en servidores que estn diseados para una amplia gama de usos. HP posiciona
los servidores ProLiant en dos criterios, de lnea y en serie, para ayudar a los clientes a elegir el
servidor que mejor se adapte a sus necesidades.

Lnea
Los servidores de la familia ProLiant incluyen cuatro lneas- ProLiant ML, DL, SL y
BL. El prefijo ML, DL, SL, BL indica el tipo de entorno para el cual el servidor es
ms adecuado.
Serie
Las lneas ProLiant ML y DL se dividen en cuatro series escaladas en trminos de
disponibilidad y rendimiento- serie 100, serie 300, serie 500, serie 700 y la serie 900.
La lnea DL tambin ofrece servidores multinodo, como el servidor HP ProLiant
DL2000.
Usted aprendi acerca de las diferentes lneas de servidores en el Captulo 2. Ahora, vamos a ver
las
convenciones de numeracin para los servidores de la serie G-7 y Gen8.

Serie G7 ProLiant
Las lneas ProLiant ML, DL y SL se dividen en series. Cada serie se define por el nivel
de rendimiento y la disponibilidad del servidor.
Serie 100 (1P y 2P)
La serie 100 ofrece un servidor asequible optimizado
para:
Soluciones en clster para aplicaciones de alto rendimiento de computacin tcnica
que
apoyan las cargas de trabajo exigentes.
De nivel de entrada, servidores de propsito general.
Serie 300 (1P y 2P)
Los servidores de la serie 300 son los ms adecuados para aplicaciones tales
como:
Servidores de archivos/impresin y de dominio.
Funciones de servidor web.
Pequeas bases de datos y aplicaciones de
infraestructura.
Serie 500 (4P)
Una mejor disponibilidad y rendimiento hacen los servidores de la serie 500 ideales
para:
Aplicaciones web complejas.
Grandes bases de datos.
Aplicaciones crticas de servidor de archivos.
Aplicacin multitareas y consolidacin de
servidores.
Serie 700 (hasta 8P)

Los servidores escalables de la serie ProLiant 700 soportan hasta ocho procesadores con
capacidad
de procesamiento quad-core. Ofrecen una gran flexibilidad, escalabilidad y rendimiento para
los clientes con bases de datos de clase empresarial en crecimiento y ambientes de
consolidacin y virtualizacin. Estos son excelentes en el funcionamiento de los siguientes
Computacin de alto rendimiento (HPC).
tipos de aplicaciones:
Automatizacin de diseo electrnico
(EDA)/Semiconductor.
Financiero.
Aplicaciones de bases de datos grandes.
Planificacin de recursos empresariales (ERP) y de gestin de recursos de
clientes
(CRM).
Petroqumico.
Ciencias de la vida y la ciencia de los materiales.
Serie 900Renderizacin
(4P o 8P) de vdeo.
La serie ProLiant 900 es un ejemplo de un caballo de batalla escalable x86 ya que est diseado
para
un rendimiento superior y una mejor eficiencia de los servidores y su utilizacin. Es la eleccin
ideal para entornos de clase empresarial de base de datos, consolidacin y virtualizacin que
necesita: Excelente rendimiento, flexibilidad y escalabilidad.
Fcil integracin y gestin, con todas las herramientas conocidas lderes del
sector
ProLiant.
Servidor ProLiant DL2000 Multi Nodo (1P y 2P)
El servidor DL2000 multinodo fue diseado para duplicar la densidad para maximizar el espacio
del
centro de datos, aumentar la eficiencia mientras reduce el consumo de energa y ofrecer
configuraciones flexibles que se ajusten a los actuales estndares de los racks de estndar
La solucin DL2000 consta de hasta cuatro servidores independientes DL170e G6 en el chasis 2U
industrial.
HP ProLiant G6 E2000. Los servidores comparten fuentes de alimentacin y ventiladores,
proporcionando mayor potencia y eficiencia de refrigeracin. El servidor DL170e G6 est
optimizado para una mayor eficiencia, densidad y flexibilidad. Un nodo de servidor puede
ser
atendido individualmente sin afectar a la operacin de los nodos de servidor que comparten
el mismo chasis.
Sus caractersticas
incluyen:
Diseo flexible para soluciones integradas.
Eficiencia 4-en-1.
El doble de densidad en un diseo estndar de la
industria.

Otras convenciones de numeracin en modelos


ProLiant
La serie BL sigue una lgica similar con el modelo de numeracin dentro de una clase, donde
la
numeracin refleja las caractersticas de escalabilidad en rendimiento.
Las convenciones de nombres para servidores ProLiant indican si el servidor utiliza
procesadores
Intel o AMD. Los servidores con un cero como ltimo nmero en el nombre (xx0) estn basados
en procesadores Intel. Los servidores con un cinco como ltimo nmero en el nombre (xx5)
estn basados en los procesadores AMD.

Familia de servidores Gen8 ProLiant


Con los servidores ProLiant Gen8, HP est realineando la estrategia de nombres para la
plataforma de servidores ProLiant en torno a tres grandes reas, como se muestra en la Figura 334.

Figura 3-34: Cate goras Ge


n8

Estas categoras se describen como


sigue:
Mainstream y SMB
En el rea mainstream, las familias ProLiant DL500 y DL900 representan la cartera
escalable x86 de servidores montados en racks. La familia ProLiant DL300 representa la
familia de procesadores duales de HP de desempeo y orientados a servidores de
montaje en rack.
Blades
Los blades ProLiant incluyen servidores BL600, que representan el portafolio escalable
de HP de servidores blade y servidores BL400, que representan a la familia con dos
procesadores de servidores blade.
Hyperscale
Los servidores ProLiant 200 estn orientados a la ejecucin de soluciones hiperescala.
La serie ProLiant 100 est ms orientada a soluciones de valor hiperescala.
Al igual que con los servidores G-7, un 5 en el ltimo dgito del nmero de modelo indica
un

Você também pode gostar