Escolar Documentos
Profissional Documentos
Cultura Documentos
Introduccin
En el ltimo captulo, aprendi acerca de los componentes de un centro de datos o data center.
Por
supuesto, los componentes ms crticos en un data center son los servidores. Los servidores
difieren en aspectos muy importantes a las PCs de escritorio. En este captulo, veremos la
arquitectura de un servidor para ilustrar cmo un servidor est diseado y rene requisitos de
Comenzaremos
carga de trabajo.con una breve discusin sobre cmo las cargas de trabajo de servidor difieren de
las
cargas de trabajo de las PC de escritorio. A continuacin, nos adentraremos en las arquitecturas
de procesador y memoria, centrndonos en los procesadores Intel Xeon y AMD Opteron. A partir
de ah, nos fijaremos en otros componentes clave de servidor (buses de expansin) y
terminaremos con una mirada a la serie de productos diversos de las familias de productos de G7
Matriz
y Gen8redundante
ProLiant.de discos independientes (RAID)
Un conjunto de discos fsicos que se consideran como un nico volumen lgico por el sistema operativo.
Objetivos
En este captulo aprender a:
Describir las tecnologas del procesador.
Describir las tecnologas de memoria.
Describir las arquitecturas comunes de sistema del
servidor.
Describir el papel de un controlador Smart Array.
Describir las caractersticas de las implementaciones RAID.
Describir las caractersticas de la serie de productos ProLiant G7 y
Gen8.
Como se puede ver, un servidor de archivos realiza una gran cantidad de entradas/salidas (E/S) en
la
red as como almacenamiento de entrada/ salida para cada solicitud. Si se multiplica esto por el
nmero de peticiones que el servidor debe procesar, se puede ver que un servidor de archivos
ocupado necesita ser optimizado para la red y el acceso de almacenamiento. Esto no significa que
el procesador no sea importante. El procesador trabaja para ayudar a que el sistema operativo
tome decisiones sobre la autorizacin y determinar si el archivo se ha procesado. Si se utiliza un
cifrado, el procesador tambin tiene que realizar los clculos necesarios de cifrado y descifrado
Arquitecturas de CPU
Instruccin
Una operacin programtica. Instrucciones comunes incluyen los clculos y valores que se mueven entre posiciones de
memoria.
Todos los procesadores en este curso son procesadores x64. A veces se puede ver el
trmino EM64T (Extended Memory 64 Technology) que se utiliza para referirse a un procesador
de 64-bit Intel y AMD64 para referirse a un procesador de 64-bit AMD. Los equipos heredados
se emplean en procesadores de 32 bits. Una limitacin de un procesador de 32-bit es que slo
puede utilizar 4 GB de RAM.
Tanto AMD Opteron como Intel Xeon se emplean en servidores. Para entender las ventajas que
ofrece un procesador Xeon, vamos a echar un breve vistazo a la historia de las arquitecturas Intel
y sus caractersticas, tambin vamos a ver la arquitectura de un procesador AMD Opteron.
Comenzando con el procesador Intel Core 2 Duo, hasta el procesador Core i7, toda
comunicacin
entre la CPU y los componentes externos, como la Memory Controller Hub (MCH), se
produce a travs del bus frontal (FSB) de la unidad.
El SMI tiene una interfaz Direct Media (DMI), que es una serie dedicada de cuatro enlaces para
el
controlador hub de entrada/salida (ICH). El DMI soporta 2,5 GT/s.
GT/s
Gigatransfers por segundo.
El ICH se comunica con los controladores de unidades de disco duro, incluyendo SATA e IDE,
as
como otros perifricos. Tambin es responsable de la gestin de los casos de restauracin y
eventos de ciclado de energa.
General Purpose I/O (GPIO)
Se utiliza para la personalizacin del sistema, interruptores y eventos de
activacin.
System Management Bus (SMBus)
Un bus que se utiliza para dispositivos de bajo ancho de banda, tales como switches on/off, sensores de
voltaje y controladores de ventilador.
Comprender el chipset
El procesador es un chip en un chipset que incluye tambin chips Northbridge y Southbridge. El
chip
Northbridge es responsable del acceso a la memoria y vdeo AGP. El chip Southbridge
es responsable de los buses perifricos.
Accelerated Graphics Port (AGP)
Un bus de punto a punto que se utiliza para conectar una tarjeta de vdeo.
El Core i7 soporta hasta cuatro ncleos. Los ncleos admiten la tecnologa Hyper-Threading, que
permite ejecutar dos subprocesos simultneamente en cada ncleo. El Core i7 tambin soporta
Turbo Boost, una tecnologa que acelera automticamente la ejecucin de instrucciones para
acomodar las cargas de energa.
Thread
Un objeto responsable de ejecutar instrucciones.
Cada ncleo tiene su propia cach L2. Hay un cach L3 adicional que es compartida entre todos
ncleos. El procesador Core i7 tambin soporta tres canales de memoria DDR3 que soportan ms
de
28 Gbps de ancho de banda y operan a 1333 MT/s.
Double Data Rate (DDR)
Un tipo de memoria RAM que transfiere dos fragmentos de datos en cada ciclo de reloj.
Otra diferencia clave entre los procesadores Core i7 y los procesadores anteriores es que en
los
procesadores Core i7, el FSB ha sido sustituido por una interfaz de enlace punto a punto
llamado
Interconnect
(QPI). QPI usa sealizacin diferencial de alta velocidad y admite velocidades de
Intel Quick Path
transferencia de hasta 6,4 GT/s tanto de entrada como de salida. Su ancho de banda mximo es
aproximadamente 2,5 veces ms rpido que el mejor desempeo de los FSB. QPI tambin ofrece
una mayor fiabilidad que los FSB.
Adems, el Core i7 soporta la Intel Virtualization Technology (VT-x), que optimiza la ejecucin
de
mquinas virtuales en una sola computadora fsica.
Mquina virtual
Un sistema operativo que se ejecuta dentro de un entorno de hardware simulado aislado.
Procesadores Xeon
Al igual que el Core i7, el procesador Xeon tiene tres memorias cach: los ncleos especficos de
cachs L1 y L2 y una cach compartida L3. La mayora de los procesadores Xeon soportan Boost
Hyper-Threading y Turbo Boost. Los procesadores Xeon ofrecen varias ventajas sobre el
procesador Core i7, incluyendo:
Fiabilidad 24x7.
El procesador Xeon est optimizado para funcionar continuamente sin reiniciar el
sistema.
Error Correction Code (ECC) de proteccin de memoria.
Deteccin y correccin de un gran porcentaje de errores de
memoria.
Mejora en la seguridad.
Varias caractersticas para mejorar la proteccin contra el malware
y realizar operaciones criptogrficas, como el cifrado.
Ms capacidad de memoria.
Los procesadores
Xeon de
de memoria
la serie 5500
soportan
el uso de energa
ms eficientemente
a travs
La capacidad
depende
del procesador
y el nmero
de CPUs instaladas.
de:
Integrated Power Gates.
Apagado automtico de los ncleos no
utilizados.
Automatizacin de los eventos de energa baja.
Los servidores Gen8 ProLiant disponen de la serie de procesadores Xeon E5-2600 (Figura 3-6) con
2/4/6/8 ncleos que ofrecen un rendimiento de hasta un 80% ms que sus predecesores.
Proporcionan ms ncleos, cach y capacidad de memoria, junto con vas de comunicacin ms
grandes y ms rpidas para mover los datos a mayor velocidad. Dos tecnologas clave que brindan
un gran valor adicional que aumenta el rendimiento:
Mayor rendimiento para cargas de trabajo elevadas - Tecnologa Intel Turbo Boost
aumenta automticamente la frecuencia del procesador para aprovechar la energa y
el margen trmico.
Adems, este procesador tambin cuenta con una memoria cach de 24 MB, 8, 0 GT/s QPI (dos
puertos) y 80 carriles PCI. Los procesadores de la serie Xeon E5-2600 proporcionan una solucin
escalable y una plataforma de energa eficiente. La tecnologa Intel Trusted Execution asegura que
los servidores solo arrancarn en estados identificados como buenos y verificados
criptogrficamente
La ficha CPUID Data, que se muestra en la Figura 3-9, proporciona informacin detallada sobre
el
tipo de procesador, familia, modelo, stepping y revisin. Tambin muestra el tamao de cada
cach, proporciona informacin sobre los tipos de paquetes, el procesador de grficos integrado y
el identificador de chipset.
Cuando un modelo de CPU se introduce por primera vez, los valores de stepping y
revisin son de 0. El valor de stepping o revisin se incrementa cada vez que se realiza un
cambio en el proceso de fabricacin de la CPU, ya sea para resolver un problema o para hacer
una mejora. Los valores de Stepping se incrementan para cambios de mayor importancia. Los
valores de Revisin se incrementan para los cambios de menor importancia. Cuando un stepping
incrementa, el nmero de revisin se convierte en 0.
Tambin puede guardar una copia del informe.
AMD64 chipset
Un chipset AMD64 tiene una arquitectura ligeramente diferente de un chipset Intel, como se
muestra en la Figura 3-10. El procesador tiene un controlador de memoria integrado que se
utiliza para transferir datos hacia y desde la RAM. El procesador utiliza hasta tres buses
HyperTransport para comunicarse con los subsistemas de E/S y entre los procesadores. Un
enlace
HyperTransport soporta hasta 19,2 GB/s de banda ancha mxima por procesador.
Memoria
La memoria es un componente crtico en un servidor. Muchos de los problemas de rendimiento se
pueden atribuir a que la memoria es insuficiente. Los servidores modernos soportan memoria
DDR3. Los servidores anteriores soportan DDR o DDR2. Los tres son del tipo SDRAM.
Synchronous Dynamic Random Access Memory (SDRAM)
Es un tipo de memoria RAM que utiliza una seal de reloj para la
sincronizacin.
Dual in-line memory module (DIMM)
Una serie de chips de SDRAM en una placa de circuito que tiene distintos contactos elctricos por cada lado.
Las memorias DDR, DDR2 y DDR3 se empaquetan como un DIMM. Un DIMM DDR3 se muestra
en
la Figura 3-11. Un DIMM DDR3 puede estar compuesto por uno, dos o cuatro filas de 9 o 18
chips SDRAM. El nmero de filas determina la capacidad del mdulo DIMM. Un chip SDRAM
proporciona 64 bits de datos y 8 bits de ECC en paralelo al bus de memoria de la CPU.
Configuraciones DIMM
Cada chip SDRAM en un DIMM ofrece 4 bits u 8 bits de una palabra de datos de 64-bit. Los
chips que proporcionan 4 bits se llaman x4 (por 4) y los chips que proporcionan 8 bits se llaman
x8. Ocho chips x8 o diecisis chips x4 forman una palabra de datos de 64 bits; por lo que, por lo
menos, ocho chips se encuentran a un lado o ambos de un DIMM. Sin embargo, un DIMM
estndar tiene espacio suficiente para almacenar un noveno chip de cada lado. El noveno chip
almacena 4 bits u 8 bits de ECC.
Un DIMM ECC con nueve chips DRAM, por un lado, es single-sided y un DIMM ECC con nueve
chips DRAM en cada lado es un double-sided (Figura 3-12). Un single-side x8 ECC DIMM y un
double-sidex4 ECC DIMM crean un solo bloque de 72 bits (64 bits plus 8 bits ECC). En ambos
casos, una sola seal de chip-set del controlador de memoria activa todos los chips en el DIMM.
En contraste, un DIMM x8 double-sided (ilustracin inferior) requiere dos seales chip-select
para acceder a dos bloques de 72- bit en dos conjuntos de chips de DRAM.
Seal chip-select
Una seal enviada a un chip especfico en un bus.
Junto con configuraciones single-sided y double-sided, los mdulos DIMM son clasificados por
rango. Un rango de memoria es un rea o bloque de 64-bits (72 bits para la memoria ECC)
creado mediante el uso de algunos o todos de los chips DRAM en un DIMM.
Un DIMM single-rank ECC (x4 o x8) utiliza todos los chips DRAM para crear un solo bloque de
72
bits y todos los chips se activan por un chip-select (CS) sealados desde el controlador de
memoria (ver las dos ilustraciones de la parte superior en la Figura 3-12). Un dual-rank ECC
DIMM produce dos bloques de 72 bits de dos conjuntos de chips DRAM en el mdulo DIMM. Un
dual-rank ECC DIMM requiere de dos seales de chip-set. Las seales de chip-set se escalonan de
modo que ambos conjuntos de chips DRAM no compiten por el bus de memoria al mismo tiempo.
DIMMs Quad-rank DIMMs con ECC producen cuatro bloques de 72-bits de cuatro conjuntos de
chips DRAM en el DIMM. Los DIMMs Quad-rank con ECC requieren cuatro seales chip-set. Al
igual que los DIMM dual-rank, el controlador de memoria escalona las seales del chip-set.
Los rangos de memoria han adquirido mayor importancia debido al nuevo chipset y tecnologas de
memoria y mayor capacidad de memoria. Los DIMMs dual-rank mejoran la capacidad de la
memoria mediante la colocacin de dos DIMMs single-rank en un mdulo. El chipset considera
cada fila como una carga elctrica en el bus de memoria. A velocidades ms lentas del bus, el
nmero de cargas no degrada la integridad de seal del bus. Para las tecnologas de memoria ms
rpidas, el chipset
puede manejar slo un cierto nmero de rangos. Por ejemplo, si un bus de memoria tiene cuatro
ranuras DIMM, el chipset puede ser capaz de soportar slo dos DIMM dual-rank o cuatro
mdulos DIMM single-rank. Si se instalan dos mdulos DIMMs dual-rank, entonces los dos
ltimos slots deben permanecer vacos. Para compensar la reduccin en el nmero de slots, los
chipsets utilizan varios buses de memoria.
Si el nmero total de filas ocupadas en los slots DIMM excede el nmero mximo de cargas que el
chipset puede soportar, el servidor puede no iniciar correctamente o que no funcione con
fiabilidad. Algunos sistemas verifican la configuracin de la memoria durante el arranque para
detectar memoria no vlida en la carga del bus. Si el sistema detecta una configuracin de memoria
no vlida, se
detiene el proceso de arranque para evitar un funcionamiento no fiable.
Para evitar estos problemas relacionados con la memoria, HP recomienda a los clientes utilizar
solo
mdulos certificados HP DIMM, que estn disponibles en los kits opcionales de memoria para
cada servidor ProLiant.
Otra diferencia importante entre DIMMs single-rank y dual-rank es el costo. Los costos de
memoria
en general aumentan con la densidad DRAM. Por ejemplo, el costo de un chip DRAM avanzado
high- density generalmente es dos veces ms elevado que la de un chip de DRAM convencional.
Debido a la gran capacidad, los DIMMs single-rank son fabricados con chips DRAM higherdensity; por lo general, cuestan ms que los DIMMs dual-rank de capacidad similar.
DDR2 y DDR3 tienen sus muescas en forma diferente. No son intercambiables. Un DIMM
DDR2 slo puede ser utilizado en una ranura DDR2. Un DIMM DDR3 slo se puede emplear
en una ranura DDR3.
La especificacin original define la frecuencia DDR3 y las tasas de transferencia se muestran en
la
tabla. JEDEC ha extendido la especificacin DDR3 para definir las velocidades de memoria
adicionales de 1866 MHz y 2166 MHZ. Los servidores ProLiant G6 y G7 soportan un mximo
de velocidad de DIMM DDR3 de 1333 MHz. Sin embargo, los servidores Gen8 soportan
de memoria de hasta 1600 MHz y soportarn velocidades de hasta 1866 MHz una vez que
los
chipsets del procesador estn disponibles.
Latencia de memoria
Otro indicador importante del rendimiento de la memoria es la columna Address Strobe (CAS)
de latencia. Este indicador se abrevia a veces como CL. La latencia CAS es el nmero de ciclos
de reloj que un controlador de memoria debe esperar antes de recibir los datos solicitados desde
la DDR. Para calcular la latencia en nanosegundos, es necesario calcular primero el nmero de
nanosegundos en cada ciclo del reloj:
ciclo de reloj = 1/ vocidad de reloj real
Banco intercalado
La SDRAM divide la memoria en dos a cuatro bancos para el acceso simultneo a ms datos.
Esta combinacin de la divisin de la memoria y el acceso simultneo a la memoria se
Prefetch
Un chip de memoria tiene dos reas de almacenamiento: la matriz de memoria, donde se
almacenan la mayora de los datos y el buffer de E/S, donde se almacenan datos en espera de la
transferencia al controlador de memoria. En un chip DDR, solo dos bits de datos se pueden
transferir desde la matriz de memoria a la memoria intermedia en cada ciclo de reloj. Por lo tanto,
si la velocidad del reloj externo real es 200 MHz, la ruta de datos interna tambin debe tener una
velocidad de reloj de 200
MHz.
Con DDR2, el ancho de ruta de datos interna se duplica, permitiendo 4 bits de datos para ser
transferidos por cada ciclo de reloj. La duplicacin del ancho de la ruta de datos interna permite
que la ruta de datos interna solo necesite la mitad de la frecuencia de la ruta de datos externa para
satisfacer la demanda. Como se muestra en la Figura 3-13, la tasa interna de un chip DDR2 de
datos solo debe ser de 100 MHz para soportar una velocidad de 200 MHz de reloj real.
Con DDR3, la ruta de datos se duplic de nuevo a 8 bits. Esto significa que con una ruta de
datos
interna de 100 MHz, un chip DDR3 puede soportar una velocidad de reloj real de 400 MHz y
Caractersticas
RDIMM
UDIMM
2GB, 4GB,
8GB, 16GB
1GB, 2GB
Paridad de direccin
Costo relativo
Alto
Bajo
256 GB
128 GB
384 GB
128 GB
Paridad de direccin
Un mtodo de comprobacin de errores en el que el chip de registro calcula la paridad en las lneas de direcciones
DRAM y lo compara con el bit de paridad desde el controlador de memoria.
Mirroring de memoria
Un modo de proteccin de la memoria en la que el subsistema de memoria escribe datos idnticos a dos canales
simultneamente. Si la memoria de lectura de uno de los canales devuelve datos incorrectos debido a un error de
memoria incorregible, el sistema recupera automticamente los datos desde el otro canal.
Lockstep mode
Un modo de proteccin de la memoria en la que dos canales operan como un nico canal, cada operacin de escritura y
lectura mueve una palabra de datos de dos canales de ancho. Si hay tres canales, el tercer canal no se utiliza.
llenan completamente. Los LRDIMMs operan a una velocidad mayor que RDIMM quad-rank.
Esta
mayor velocidad de funcionamiento permite a una LRDIMM tener una total disminucin de
latencia que la que tiene un quad-rank de un RDIMM.
Tabla 3-4 compara las caractersticas de funcionamiento de LRDIMM de bajo voltaje de 32 GB
con
las de un RDIMM equivalente.
Tabla 3-4: Caracte rs ticas de funcionamie nto de LRDIMM Quad-rank vs RDIMM
Los LRDIMMs permiten configurar sistemas de gran capacidad con memoria de datos ms
rpidos
que las tasas quad-rank de RDIMMs. Los servidores Gen8 ProLiant soportan LRDIMMs, as
como UDIMMs y RDIMMs, aunque no se pueden mezclar los tipos de DIMM dentro de un nico
servidor. Los servidores G6 y G7 no soportan LRDIMMs.
HyperCloud DIMM
HyperCloud DIMMs (HDIMMs) son DIMMs de alta capacidad que se utilizan en DL380p y
DL360p
de servidores Gen8. Una discusin detallada de HDIMMs est ms all del alcance de este curso.
HP SmartMemory
HP SmartMemory es una tecnologa introducida por los servidores ProLiant Gen8 que
desbloquea algunas funciones que solo estn disponibles con memorias HP-qualified. La nica
firma escrita a la memoria Serial Presence Detect (SPD) en cada DIMM verifica en los servidores
Gen8 que SmartMemory est instalada y haya pasado la rigurosa calificacin de HP y el proceso
de pruebas.
SmartMemory puede funcionar a bajo voltaje (1.35V) a 1333 MT/s con tres DIMM por canal
(3DPC), pero la memoria third-party debe ejecutarse a 1,5 V para lograr esa tasa. Esto equivale a
reducir energa hasta un 20% sin disminuir el rendimiento. Adems, la industria soporta UDIMM
en dos DIMMs por canal a 1066 MT/s. SmartMemory soporta dos DIMMs por canal a 1333
MT/s, que es aproximadamente 25% mayor el ancho de banda de lo soportado por UDIMM en
canal.
SmartMemory habilita funciones clave, tales como la unidad de historia de informacin completa,
para la notificacin proactiva a travs de HP Active Health. Active Health monitorea los cambios
en la configuracin del hardware del servidor para permitir el monitoreo del ciclo de vida del
estatus
de la memoria. Mientras la alerta Pre-Failure simplemente notifica al administrador de un
impedimento inminente, SmartMemory proporciona informacin precisa sobre los
acontecimientos relacionados con la memoria, tales como errores multibit o problemas de
Cuando se utiliza con un SIM HP, el firmware del Smart-capable habilita la prediccin de
configuracin.
fallas.
Antes de desarrollar problemas potenciales en uno de los DIMMs, HP SIM permite saber
con antelacin lo que pueda tener el DIMM para reemplazarlos antes de que falle, tal vez
mientras todava est bajo garanta.
HP Active Health
Un componente de la HP iLO Management Engine que ofrece un control continuo de monitoreo de los parmetros
del sistema.
Arquitectura NUMA
Ahora que tiene una comprensin general de la memoria y procesadores, vamos a revisar cmo es
el
acceso a Non-Uniform (NUMA), la arquitectura del servidor y la memoria DDR3 trabajan en
conjunto para el manejo de la memoria y la latencia que limitan el rendimiento del sistema
bajo arquitecturas multiprocesador anteriores.
Los servidores basados en AMD Opteron han utilizado la arquitectura NUMA desde su creacin,
primero con memoria DDR1 y ms tarde con la DDR2. Los servidores basados en AMD ProLiant
G7 usan una arquitectura NUMA actualizada que soporta memoria DDR3. A partir de G6 y G7, los
servidores HP ProLiant basados en Intel comenzaron a incorporar la arquitectura NUMA, junto
con otras nuevas caractersticas. Todos los servidores ProLiant Gen8 utilizan arquitectura NUMA.
canal.
Esta arquitectura proporciona a cada canal de memoria un ancho de banda mximo de 9,6 GB/s
para
los sistemas que soportan PC2- 6400 regulados completamente por DIMMs. Los canales de
memoria de los sistemas que utilizan DIMMs registrados pueden soportar un ancho de banda
mximo de 6,4
GB/s. Con cuatro canales de memoria por sistema, el ancho de banda de memoria mximo terico
de estos sistemas es de 38,4 GB/s y 25,6 GB/s, respectivamente. Hay, sin embargo, factores que
ancho de banda
mximo del bus frontal es un punto de rendimiento de cuello de
limitan el El
rendimiento
alcanzable:
botella.
Las huellas de memoria ms grandes requieren completamente ser reguladas por
DIMMs, lo que aumenta la latencia de la memoria y disminuye el volumen resultante y
el rendimiento.
ProLiant G6, todos los servidores ProLiant de HP emplean memoria DDR3 para ayudar a
aumentar
el rendimiento de la memoria.
La Figura 3-15 ilustra la arquitectura NUMA para un servidor ProLiant tpico con dos
procesadores.
La arquitectura NUMA resuelve los dos problemas que surgieron con el crecimiento de
complejidad
del sistema:
Elimina los cuellos de botella en el subsistema de memoria que limitan el sistema de
memoria.
Es compatible con las huellas de memoria ms grandes sin disminuir significativamente
el rendimiento de la memoria.
DDR3 se integra con la arquitectura NUMA para ofrecer un rendimiento de memoria
significativamente mejorada. Por ejemplo, cuando la arquitectura del procesador 2P basado en
Intel de servidores ProLiant G6 utiliza memoria DDR3 con seis canales, tiene un ancho de banda
de memoria mximo terico de 64 GB/s, un 65% mayor que el de la arquitectura antigua utilizada
por la memoria DDR2.
Para servidores ProLiant Gen8, el nmero de canales de memoria en los sistemas de 2P aumenta
a
cuatro por procesador. Las velocidades de memoria aumentan para soportar hasta 1600 MT/s
al principio y ms tarde 1866 MT/s. Cuando los sistemas Gen8 2P usan quad-rank LRDIMM,
la capacidad mxima de la memoria se incrementar a 768 GB. Este aumento de la capacidad
de memoria ocurre en ambos diseos de servidores Intel y AMD.
Arquitectura Intel 4P
La Figura 3-16 muestra la arquitectura del procesador y memoria para los servidores 4P HP
ProLiant
G7 que utilizan procesadores Intel Xeon 5600.
Mientras que la arquitectura bsica NUMA es evidente en servidores 4P HP ProLiant G7, hay
claras
diferencias entre su diseo y el diseo de sistemas 2P. La diferencia ms significativa para el
servidor 4P es que posee buffers de memoria independientes entre la CPU y los canales de
memoria. Estos buffers utilizan una propiedad de alta velocidad del enlace serial para el transporte
de datos de la memoria entre s mismos y la CPU, mientras que proporciona una interfaz de bus de
memoria estndar para los DDR3 DIMMs. Con este enfoque, cada controlador de memoria soporta
dos
canales de memoria para dos DIMMs cada uno. Adems, la arquitectura 4P utiliza cuatro
controladores de memoria por CPU en lugar de tres. En conjunto, estas opciones de diseo
TB
permiten a los sistemas Intel 4P soportar hasta 64 DIMMs, o 2 TB de memoria usando DIMMs de
Terabyte
32 GB.
Con el almacenamiento en bfer de memoria utilizada en esta arquitectura, la memoria del
sistema
funciona a 1066 MT/s para todas las configuraciones de la memoria, incluyendo los
sistemas completamente ocupados.
Para los servidores ProLiant Gen8, esta arquitectura se mantiene relativamente sin cambios, a
pesar
de que la velocidad de la memoria se incrementa hasta 1333 MT/s.
Arquitectura AMD 4P
Los servidores ProLiant de HP basados en AMD han usado arquitectura NUMA desde su inicio.
Sin
embargo, los servidores ProLiant G7 son la primera generacin que utiliza memoria DDR3. La
Figura 3-17 muestra la arquitectura del procesador y la memoria de un procesador para un
servidor ProLiant G7 4P basado en AMD con tres zcalos DIMM por canal de memoria.
Cada procesador tiene cuatro controladores de memoria y cada controlador de memoria tiene un
canal de soporte de dos o tres DIMMs DDR3, dependiendo del sistema. Los tres canales de
memoria DIMM estn configurados elctricamente como una T, con un DIMM instalado en el
centro de la T y los otros dos DIMMs en los extremos. Este diseo proporciona una mejor
integridad de seal, manteniendo las longitudes de los caminos elctricos a los DIMMs tan cerca
de la misma longitud como sea razonablemente posible. Con el fin de ayudar a mantener esta
simetra, se instala DIMMs
en ambos extremos de la T antes de instalar el tercer DIMM en el centro.
Esta arquitectura permite que el subsistema de memoria soporte DDR3 operando a 1333 MT/s
cuando los canales de memoria no estn totalmente ocupados. La ausencia de bfer de memoria
externa tambin se traduce en una menor latencia de la memoria total. Sin embargo, sin memoria
intermedia, la arquitectura solo es compatible con un mximo de 48 DIMMs, o 1 TB de memoria
del sistema.
Para servidores ProLiant Gen8, la arquitectura de AMD no cambia significativamente. Sin bfer
de
memoria, estos sistemas soportan memorias DDR3 operando a 1600 MT/s en configuraciones
de memoria ms pequeas. Con la disponibilidad de LR DIMMs capaces de soportar tres quadrank DIMMs por canal, el mximo de memoria se incrementar hasta 1,5 TB con 667 MT/s.
Servidores
2P ProLiant G5
basado en Intel
Ancho de banda
terico mximo de la
memoria
25,6 Gbps (RDIMM)
38,4 Gbps (FBDIMM)
2P ProLiant G6/G7
basado en Intel
ProLiant 2P Gen
8 basado en Intel
64 Gbps
40 Gbps
102,4 Gbps
88,6 Gbps
Seleccione una serie y, a continuacin, expanda la lista Select your ProLiant server. Elija
el
modelo de servidor de la lista. Posteriormente se le pedir que diga cuntos procesadores se
han instalado en el sistema y si la memoria est instalada en el servidor. Para fines de
demostracin, elegimos el nmero 2 y respondimos No, como se muestra en la Figura 3-19.
Haga clic en Next para continuar. Introduzca la cantidad de memoria que necesita o arrastre el
deslizador para seleccionar el valor apropiado. Seleccione si desea optimizar el servidor para un
rendimiento, eficiencia de energa, bajo costo, o de uso general, tal como se muestra en la Figura
320.
Haga clic en Next para continuar. Se muestran opciones de configuracin, las que se
recomiendan
aparecen como Optimal, como se muestra en la Figura 3-21.
Haga clic en el botn Select para que la opcin visualice los nmeros de parte y en un diagrama
se
observe cmo los mdulos DIMMs deben instalarse. El diagrama de la seleccin anterior Option
#
1 se muestra en la Figura 3-22.
Buses de expansin
Los tipos ms comunes de las ranuras de expansin en una tarjeta madre de servidor son las
ranuras
de expansin PCIe. Algunos servidores tambin soportan ranuras de expansin PCI y PCI-X.
Estas ranuras de expansin se pueden utilizar para conectar adaptadores de grficos, adaptadores
de red, tarjetas y otros perifricos.
Ahora vamos a echar un vistazo a cada uno de estos
estndares.
PCI-X
PCI-X (tambin conocido como PCI extendido) es un bus compartido. Sin embargo, es de 64 bits
de
ancho en lugar de 32 bits. Est disponible con una velocidad de reloj de 66 MHz o de 133 MHz.
A
133
MHz, soporta transferencias de datos de hasta 1 Gbps.
PCIe
PCIe (tambin conocido como PCI-Express) es una tecnologa de conexin en serie que utiliza
una conexin de conmutacin punto a punto para facilitar la comunicacin directa entre los
dispositivos.
Una tarjeta PCIe tiene uno o ms carriles de 4-cables que se emplean para transmitir datos. El
nmero de carriles determina la anchura de la ranura o tarjeta. Cada carril admite velocidades de
transferencia de datos de 200 Mbps en cada direccin. Esto significa que una tarjeta de 16carriles PCIe puede tener una tasa de transferencia de datos de 6,4 Gbps en cada direccin. La
notacin que determina el nmero de carriles es x1, x2, x4, x8 y x16 (que se dice por 16).
Otra ventaja de PCIe es que puede suministrar hasta 75 W de potencia. Esto es
especialmente
importante para las tarjetas grficas de alta potencia.
Puede instalar una tarjeta PCI o PCI-X en una ranura PCIe mediante el uso de una tarjeta
adaptadora
de PCIe a PCI. Esto es importante si usted tiene un perifrico de versin anterior que tiene que
utilizar en un servidor nuevo que no tenga un slot PCI. Tambin puede instalar una tarjeta PCIe en
una ranura PCIe que es ms ancha (tiene ms carriles) que la tarjeta. Sin embargo, solo se
utilizarn los carriles de la tarjeta.
No se puede instalar una tarjeta PCIe en una ranura PCI o en una ranura PCIe con menos
carriles.
Hay tres diferentes generaciones de PCIe. Sus caractersticas se describen en la Tabla 36.
Tabla 3-6: Caracte rs ticas de PCIe
El ancho de banda para PCIe 3,0 es el doble que para PCIe 2,0, pero la tasa de transferencia
es
inferior al doble. La razn principal de esto es que PCIe 3,0 tiene una sobrecarga muy inferior
para
la codificacin de datos a transmitir.
Almacenamiento interno
Una de las principales funciones de un servidor es la de almacenar y proporcionar acceso a
los
datos. Por lo tanto, los dispositivos de almacenamiento en un servidor deben tener las
siguientes caractersticas:
Suficiente capacidad de almacenamiento.
Tiempos ptimos de acceso.
Redundancia para proteger los datos contra fallas de disco
duro.
Los servidores HP tienen un motor de procesamiento de matriz inteligente para permitir la
conexin
interna o externa Serial Attached SCSI (SAS) y Serial Advanced Technology Attachment (SATA)
de disco duro a travs de un bus PCIe.
Serial Advanced Technology Attachment (SATA)
Un estndar de interfaz que se desarroll a partir del estndar Integrated Device Electronics (IDE). Invoca la
comunicacin serial y ofrece velocidades de datos superiores a los fijados por IDE, pero inferiores a los admitidos por
SAS.
Serial Attached SCSI (SAS)
Una extensin de la tecnologa de interfaz SCSI que permite una mayor transferencia de datos y una mejor fiabilidad de
los discos duros de servidor que la proporcionada por SATA.
Small Computer System Interface (SCSI)
Un conjunto de normas que definen la conectividad paralela de interfaz para los dispositivos, incluyendo los dispositivos
de almacenamiento, impresoras y escneres.
Almacenamiento en
cach
Un controlador Smart Array incluye un mdulo de memoria cach que mejora el rendimiento de
E/S
en comparacin con el que ofrece un controlador de disco duro estndar. Proporciona tanto
el almacenamiento en cach de lectura read-ahead como la escritura write-back.
Cach de lectura anticipada readahead
La familia de controladores HP Smart Array utiliza un algoritmo adaptable de lectura anticipada
que
se adelanta a las necesidades de datos para reducir el tiempo de espera. Se puede detectar la
actividad de lectura secuencial en los diferentes hilos de E/S y predecir cundo seguirn las
solicitudes de lectura para los datos secuenciales. El algoritmo entonces lee por adelantado las
unidades de disco. Cuando se produce la peticin de lectura, el controlador recupera los datos de
la memoria cach de alta velocidad en microsegundos en lugar de desde la unidad de disco en
milisegundos. Este esquema adaptable de lectura anticipada ofrece un rendimiento excelente para
las solicitudes de lectura secuenciales en bloques pequeos.
Datos secuenciales
Datos almacenados en sectores contiguos de un disco duro.
Write-back caching
Los controladores Smart Array de HP utilizan un esquema de escritura write-back que permite a
las
aplicaciones host continuar con otras tareas sin esperar a que las operaciones de escritura en el
disco se completen. Un controlador sin un cach de escritura write-back devuelve un estado
completo al sistema operativo solo despus de que escribe los datos en las unidades. Debido a que
la escritura en un disco consume ms tiempo que escribir en la memoria cach, esto causa que las
aplicaciones tengan que esperar y el rendimiento se vera afectado.
Un controlador de almacenamiento en cach de escritura puede postear datos escritos a alta
velocidad y devolver de inmediato el estado de finalizacin al sistema operativo. En cuanto al
sistema operativo concierne, la operacin de escritura se completa en microsegundos en lugar de
milisegundos. El controlador entonces escribe los datos de su memoria cach de escritura en el
disco posteriormente, en el momento que sea ptimo para el controlador.
Una vez que el controlador localiza datos escritos en la memoria cach, las lecturas posteriores a
la
(acierto de cach de lectura). Escrituras posteriores a la misma ubicacin del disco sustituirn los
datos almacenados en cach. Por lo tanto, el almacenamiento en cach de escritura mejora el
ancho de banda y la latencia para aplicaciones que frecuentemente escriben y leen la misma rea
del disco.
Normalmente, la cach de escritura se llenar y permanecer llena la mayor parte del tiempo en
entornos de alta carga de trabajo. El controlador utiliza esta oportunidad para analizar los
comandos de escritura pendientes y mejorar su eficiencia. El controlador puede utilizar la escritura
coalescente para combinar escrituras pequeas en bloques lgicos adyacentes en una escritura ms
grande para una ejecucin ms rpida. El controlador tambin puede realizar la reordenacin de
comandos, cambiando el orden de ejecucin de las escrituras en la memoria cach para reducir la
latencia del disco en general. Con mayores cantidades de memoria cach de escritura, el
controlador Smart Array puede almacenar y analizar un mayor nmero de comandos de escritura
pendientes, lo que aumenta
las posibilidades de escritura coalescentes y reordenando comandos a la vez que ofrecen un
mejor rendimiento general.
La tecnologa ECC DRAM protege los datos mientras estn en cach. Los Smart Array de cach
respaldados por batera o los mecanismos de respaldo cache flash-backed protegen los datos de
la cach contra una cada del servidor y prdida de energa.
El controlador desactiva el almacenamiento en cach cuando el respaldo por batera o el
cache flash-back no est instalado. Puede anular este comportamiento, pero al hacerlo se abre
una ventana para la posible prdida de datos.
RAID
La tecnologa RAID combina varios discos fsicos en un disco lgico para mejorar la resistencia
y aumentar el rendimiento de almacenamiento informtico.
Hay varios niveles de RAID en el uso comn, cada uno con sus propias fortalezas y debilidades,
cada uno designado por un nmero. Algunos niveles RAID mejoran el rendimiento (striping),
algunos mejoran la resistencia (paridad) y algunos mejoran ambos. En esta seccin, analizaremos
cinco niveles RAID que son comnmente aplicados:
RAID 0
RAID 1
RAID 5
RAID 6
RAID 1
+0
Sin embargo, primero vamos a definir un par de
trminos.
RAID set
El trmino RAID set, tambin llamado matriz RAID, se utiliza para referirse a un conjunto
de
unidades que se combinan y se configuran para trabajar juntos como una unidad lgica con
una
configuracin RAID aplicada.
La Figura 3-24 muestra un conjunto RAID simple que contiene cinco discos que se han combinado
en
un nico disco lgico.
Los controladores RAID internos, tales como los controladores RAID HP Smart Array, que se
instalan dentro de los servidores fsicos y controlan los dispositivos de disco fsico instalados en
el servidor, en particular con el controlador RAID instalado. Los controladores RAID internos se
colocan en el bus PCIe del servidor.
Un disco duro conectado a un controlador interno se conoce como almacenamiento de
conexin directa (DAS).
Striping
Striping es una tcnica utilizada por muchos algoritmos RAID para mejorar el rendimiento de
almacenamiento. En un nivel alto, este rendimiento mejorado se consigue mediante la suma del
rendimiento de todas las unidades del conjunto RAID (a veces referido como conjunto stripe).
Esto se muestra en la Figura 3-26.
El siguiente ejemplo resalta las ventajas de rendimiento del striping. Imagnese que usted est
guardando un archivo MP3 de 10 MB en el disco y que el disco puede escribir (guardar datos) a
1Mb/sec. Guardar el archivo MP3 tardar 10 segundos. Sin embargo, si tuviera cuatro de esas
unidades de disco y las hubiera creado en un conjunto de stripe, sera capaz de guardar el archivo
MP3 en 2,5 segundos. Esto es debido a que cada unidad tiene una capacidad de 1Mb/sec y crear
un conjunto de stripes combina las cuatro unidades en una nica unidad lgica con un
rendimiento de escritura de 4MB/seg.
Striping tambin permite una mayor capacidad. En el diagrama anterior, el disco lgico tiene
la
capacidad de los cuatro discos fsicos utilizados en el conjunto stripe.
Paridad
La paridad es una tcnica utilizada en algoritmos RAID para aumentar la capacidad de
recuperacin
de un conjunto RAID. Algunos algoritmos RAID reservan un porcentaje de la capacidad del
RAID para almacenar datos de paridad que permitan al conjunto RAID recuperarse de ciertas
condiciones de error, como una unidad que ha fallado.
La Figura 3-27 muestra cmo una sola unidad de disco se puede reservar en un conjunto RAID
para
los datos de paridad.
El conjunto RAID anterior tiene un solo disco de paridad, por lo que puede sufrir un fallo de un
disco
(cualquier unidad en el conjunto RAID) y an seguir funcionando.
La Figura 3-28 muestra los conjuntos RAID con una sola unidad de paridad y cmo se enfrentan a
una
y varias anomalas en los discos de datos.
En la ilustracin inferior, el conjunto RAID ha fallado (los datos se pierden) porque dos unidades
han fallado y solo hay una unidad de paridad. Si este conjunto RAID hubiera tenido dos unidades
de disco de paridad, hubiera sido capaz de sobrevivir a dos unidades de datos fallidas.
Ahora que hemos cubierto algunos conceptos que son fundamentales para RAID, vamos a echar
un
vistazo a algunas configuraciones RAID comunes.
RAID 0
En opinin de algunos puristas, RAID 0 no es RAID de verdad porque no proporciona la R
(Redundant ) en RAID. El incumplimiento de cualquier unidad en el conjunto RAID har que
todo el conjunto fracase y haya prdida de datos.
RAID 0 es, sin embargo, proporciona una mayor capacidad y un mejor rendimiento mediante
la
combinacin de varias unidades de disco en una nica unidad lgica.
A RAID 0 es tambin se le conoce como striping, o striping sin
paridad.
La Figura 3-29 muestra una escritura de datos del servidor (D1, D2, D3, D4 .). La unidad
lgica
que se compone de 4 unidades fsicas. Como se puede ver, los bloques de datos (D1, D2, D3 )
estn uniformemente distribuidos entre las 4 unidades en el conjunto stripe.
RAID 1
RAID 1 tambin se conoce como mirroring sin
striping.
Un conjunto RAID 1 contiene un mnimo de dos unidades. Como el trmino mirroring (espejo)
sugiere, la mitad del conjunto RAID se utiliza como una copia espejo de la otra mitad. Esto es casi
siempre implementado como una unidad de disco que es una copia espejo de la otra. Si alguna de
las unidades del conjunto RAID falla, la otra puede ser utilizada para dar servicio tanto a las
RAID 5
RAID 5 reserva el equivalente a un disco de espacio para los datos de paridad, de modo que un
conjunto RAID puede recuperarse de un fallo de un disco. No importa cuntos discos estn en el
conjunto RAID, solo el espacio de una sola unidad est reservado para la paridad y solo una
unidad puede fallar sin que el conjunto RAID falle y se pierdan datos.
RAID 5 tambin es conocido como nivel de bloque striping con paridad
distribuida.
Las configuraciones comunes de RAID 5
son:
RAID 5 (3 +1). Tres unidades con valor de capacidad para datos y un valor de unidad
de
capacidad para los datos de paridad.
RAID 5 (7+1). Siete unidades con valor de capacidad de datos y una unidad de valor
de capacidad para los datos de paridad.
Notacin RAID:
Generalmente, las configuraciones RAID se expresan como
sigue: RAID X (Y + Z)
X = Nivel RAID
Y = nmero de unidades de datos Z = nmero de unidades de
paridad
Por ejemplo, una configuracin RAID 5 con 7 unidades con valor de datos y una unidad de disco de paridad se expresara
de la siguiente manera:
RAID 5 (7 +1)
Aunque las anteriores son configuraciones populares de RAID 5, otras configuraciones tambin
son
posibles, incluyendo configuraciones tales como RAID 5 (2+1) y RAID 5 (15+1). Como
siempre, solo el fallo de un disco se puede tolerar antes de perder datos.
La Figura 3-31 muestra un conjunto RAID 5 (3
+1).
Debido a RAID 5 puede tener diferentes configuraciones, cada configuracin tiene una sobrecarga
de
RAID diferente. Por ejemplo, un RAID 5 (3 +1) tiene una sobrecarga del 25% RAID (hay 4
unidades en el conjunto RAID y una se utiliza para la paridad. * 100 = 25. Por lo tanto, 25% de
la
capacidad del conjunto RAID se pierde en la paridad). En RAID 5 (7+1), esta sobrecarga se
reduce a 12,5%.
Normalmente, RAID 5 utiliza una operacin booleana lgica exclusiva OR (XOR)
para
crear la paridad y recuperar los datos de paridad.
XOR
Una operacin en la que los bits que son los mismos resultan en 0 y los bits que son diferentes resultan en 1. Por
ejemplo:
10110000 XOR 01000000 = 11110000
RAID 6
RAID 6 se muestra en la Figura 3-32, es muy similar a RAID 5 en que se realiza a nivel de
bloque
por striping para aumentar el rendimiento y capacidad, tambin utiliza la paridad para proteger
y recuperar datos. La principal diferencia entre RAID 5 y RAID 6 es que RAID 6 proporciona
dos conjuntos de paridad, por lo que puede recuperarse a partir de dos discos que han fallado.
RAID 6 tambin se conoce como nivel de bloque striping con paridad doble.
RAID 10 es una buena opcin en muchas situaciones, ya que proporciona una buena fiabilidad
(mirroring), as como rendimiento (striping). Una matriz RAID 10 puede recuperarse de un fallo
de varias unidades, siempre y cuando no haya dos unidades fallidas en el mismo par duplicado.
Por ejemplo, un array RAID con 4 unidades (el mnimo) puede recuperarse del fallo de dos
unidades en diferentes espejos. Sin embargo, la desventaja de RAID 10 es su costo. Al igual que
con RAID 1, el
50% de la capacidad tiene que ser reservada para la duplicacin.
Hay otras configuraciones posibles de RAID, pero las ms comunes son las aqu
mencionadas.
Caso: Stay and Sleep
El CEO est preocupado por la prdida de datos de las reservaciones almacenadas en la base
de datos. Discuta las opciones RAID disponibles y su impacto en la resistencia, rendimiento y
costo.
Lnea
Los servidores de la familia ProLiant incluyen cuatro lneas- ProLiant ML, DL, SL y
BL. El prefijo ML, DL, SL, BL indica el tipo de entorno para el cual el servidor es
ms adecuado.
Serie
Las lneas ProLiant ML y DL se dividen en cuatro series escaladas en trminos de
disponibilidad y rendimiento- serie 100, serie 300, serie 500, serie 700 y la serie 900.
La lnea DL tambin ofrece servidores multinodo, como el servidor HP ProLiant
DL2000.
Usted aprendi acerca de las diferentes lneas de servidores en el Captulo 2. Ahora, vamos a ver
las
convenciones de numeracin para los servidores de la serie G-7 y Gen8.
Serie G7 ProLiant
Las lneas ProLiant ML, DL y SL se dividen en series. Cada serie se define por el nivel
de rendimiento y la disponibilidad del servidor.
Serie 100 (1P y 2P)
La serie 100 ofrece un servidor asequible optimizado
para:
Soluciones en clster para aplicaciones de alto rendimiento de computacin tcnica
que
apoyan las cargas de trabajo exigentes.
De nivel de entrada, servidores de propsito general.
Serie 300 (1P y 2P)
Los servidores de la serie 300 son los ms adecuados para aplicaciones tales
como:
Servidores de archivos/impresin y de dominio.
Funciones de servidor web.
Pequeas bases de datos y aplicaciones de
infraestructura.
Serie 500 (4P)
Una mejor disponibilidad y rendimiento hacen los servidores de la serie 500 ideales
para:
Aplicaciones web complejas.
Grandes bases de datos.
Aplicaciones crticas de servidor de archivos.
Aplicacin multitareas y consolidacin de
servidores.
Serie 700 (hasta 8P)
Los servidores escalables de la serie ProLiant 700 soportan hasta ocho procesadores con
capacidad
de procesamiento quad-core. Ofrecen una gran flexibilidad, escalabilidad y rendimiento para
los clientes con bases de datos de clase empresarial en crecimiento y ambientes de
consolidacin y virtualizacin. Estos son excelentes en el funcionamiento de los siguientes
Computacin de alto rendimiento (HPC).
tipos de aplicaciones:
Automatizacin de diseo electrnico
(EDA)/Semiconductor.
Financiero.
Aplicaciones de bases de datos grandes.
Planificacin de recursos empresariales (ERP) y de gestin de recursos de
clientes
(CRM).
Petroqumico.
Ciencias de la vida y la ciencia de los materiales.
Serie 900Renderizacin
(4P o 8P) de vdeo.
La serie ProLiant 900 es un ejemplo de un caballo de batalla escalable x86 ya que est diseado
para
un rendimiento superior y una mejor eficiencia de los servidores y su utilizacin. Es la eleccin
ideal para entornos de clase empresarial de base de datos, consolidacin y virtualizacin que
necesita: Excelente rendimiento, flexibilidad y escalabilidad.
Fcil integracin y gestin, con todas las herramientas conocidas lderes del
sector
ProLiant.
Servidor ProLiant DL2000 Multi Nodo (1P y 2P)
El servidor DL2000 multinodo fue diseado para duplicar la densidad para maximizar el espacio
del
centro de datos, aumentar la eficiencia mientras reduce el consumo de energa y ofrecer
configuraciones flexibles que se ajusten a los actuales estndares de los racks de estndar
La solucin DL2000 consta de hasta cuatro servidores independientes DL170e G6 en el chasis 2U
industrial.
HP ProLiant G6 E2000. Los servidores comparten fuentes de alimentacin y ventiladores,
proporcionando mayor potencia y eficiencia de refrigeracin. El servidor DL170e G6 est
optimizado para una mayor eficiencia, densidad y flexibilidad. Un nodo de servidor puede
ser
atendido individualmente sin afectar a la operacin de los nodos de servidor que comparten
el mismo chasis.
Sus caractersticas
incluyen:
Diseo flexible para soluciones integradas.
Eficiencia 4-en-1.
El doble de densidad en un diseo estndar de la
industria.