Você está na página 1de 4

Data center Google

En el caso particular del gigante Google, Qu infraestructura sostiene el buscador


ms popular del mundo? Qu hace que funcionen sus servicios al 99,9% de
fiabilidad?
Caractersticas de hardware

Google hace sus propios servidores a medida desde hace unos cuantos aos y
monta sus datacenters.
Se ha convertido en uno de los mayores fabricantes de hardware del mundo,
gracias a que manufactura sus propios equipos. Al hacer que su propio personal
construyera las cosas y eliminara componentes innecesarios, Google logr construir
un lote de servidores con un costo de alrededor de 1,500 USD cada uno, en lugar
del costo estndar (de entonces) de 5,000 USD cada uno.
El mismo principio aplica para su equipo de redes, el cual, en parte, se empez a
construir hace algunos aos. Hasta ahora hay slo un rea en la que Google an
no ha incursionado: el diseo de sus propios chips.
Fibra optica
Caractersticas de software

Funcionan con una distribucin de Linux totalmente personalizada por Google.


Jeff Dean-2009: habla de Spanner, que es el sistema de almacenamiento y
computacin para sistemas distribuidos y est preparado para aguantar hasta 10
millones de servidores a nivel global.
Crearon el Sistema de Archivo de Google (Google File System), que distribuye
archivos entre varias mquinas sin ninguna complicacin. MapReduce, un sistema
de Google para desarrollar aplicaciones basadas en la Nube, result ser tan
eficiente que ahora hay una versin de cdigo abierto llamada Hadoop, que se ha
convertido en un estndar de la industria.
Sistema de enfriamiento

Los equipos de cmputo generan volmenes prodigiosos de calor, y lo que


normalmente se hace en los centros de datos es enfriarlas con gigantescos
sistemas de aire acondicionado tambin llamados CRACs, para descender hasta
temperaturas propias del rtico. Esto requiere cantidades enormes de energa; los
centros de datos consumen hasta 1.5 por ciento de toda la electricidad del planeta.
Google se dio cuenta de que el as llamado "pasillo fro" frente a las mquinas poda
mantenerse a una temperatura relativamente templada unos 26C o algo as, de
manera que los trabajadores podan usar shorts y T-shirts en lugar de ponerse
suteres. El "pasillo caliente", que es el estrecho espacio detrs de los servidores,
de donde sale la mayor cantidad de calor, poda estar a una temperatura de
alrededor de 48C. Todo ese calor sera absorbido por bobinas llenas de agua que
se bombeara fuera del edificio y se enfriara, para despus hacerla circular de
nuevo al interior. As que a la larga lista de logros de Google debe agregarse el
haber podido superar su necesidad de CRAC.
Google tambin encontr formas ahorrativas para enfriar el agua. Muchos centros
de datos dependan de refrigeradores con un alto consumo de energa, pero lo que
los grandes centros de datos de Google suelen usar son unas torres gigantes donde
el agua caliente pasa por una especie de grandes radiadores. Una parte del agua
se evapora, el resto alcanza una temperatura ambiente o inferior a la ambiental para
cuando llega al fondo. En sus instalaciones de Blgica, Google usa agua reciclada
del canal industrial para la refrigeracin; en Finlandia se usa agua de mar.

Sisema de alimentacin

Los voluminosos sistemas de suministro ininterrumpido de energa que protegan


los servidores de la mayora de los centros de datos en caso de cortes de
electricidad. No solo tenan fugas de electricidad, sino que tambin necesitaban sus
propios sistemas de enfriamiento. Pero como Google dise los racks donde coloc
sus equipos, se reserv un espacio para bateras de repuesto al lado de cada
servidor, eliminando al mismo tiempo las grandes unidades SAI (sistema de
alimentacin ininterrumpida). De acuerdo con Joe Kava, ese mtodo ayud a reducir
la prdida de electricidad en un 15%.
Todas estas innovaciones dieron como resultado ahorros de energa sin
precedentes para Google. La medicin estndar de la eficiencia de los centros de
datos se denomina efectividad del uso de energa, o PUE (por power usage
effectiveness). 1.0 es una cifra perfecta, porque quiere decir que toda la energa que
se ha necesitado en las instalaciones se ha aprovechado. Los expertos
consideraban que un 2.0 que indica que la mitad de la energa se desperdicia era
una cifra razonable para un centro de datos. Google estaba logrando un inusitado
1.2.
Capacidad de procesamiento

Esta infraestructura multimillonaria le permite a la compaa indexar 20 mil millones


de pginas web diariamente. Manejar ms de tres mil millones de bsquedas
diarias. Conducir millones de subastas de anuncios publicitarios en tiempo real.
Ofrecerles almacenamiento gratuito de correo electrnico a los 425 millones de
usuarios de Gmail. Permitir que los usuarios de YouTube vean millones de videos
todos los das. Proponer resultados de bsqueda incluso antes de que el usuario
haya terminado de escribir la frase.
Seguridad fsica

El personal de Google que no est autorizado no puede entrar. Las medidas de


seguridad son una de las cosas que Google se toma muy en serio y no hay rincn
que no est debidamente vigilado mediante todos los mtodos posibles: cmaras,
detectores de calor, escners de iris, etc.
En caso de incendio o de cualquier otra interrupcin, transferimos los datos
automticamente a otro centro de datos para que los usuarios puedan seguir
trabajando de forma ininterrumpida.
Nuestros generadores de emergencia seguirn alimentando nuestros centros de
datos incluso en caso de fallo del suministro elctrico.
Realizamos un seguimiento riguroso del estado de cada disco duro en nuestros
centros de datos. Destruimos los discos duros antes de desecharlos mediante un
proceso meticuloso de varios pasos para evitar el acceso a los datos
En los centros de datos, disponemos de controles de acceso, guardias de
seguridad, vigilancia por vdeo y una cerca de seguridad para proteger fsicamente
las instalaciones en todo momento.
Seguridad lgica
Son las 3:00 a.m. de una fra madrugada invernal, y un pequeo ejrcito de ingenieros
empieza a atacar Google. Primero tiran la red corporativa que le da servicio al campus de
Mountain View, California. Despus el grupo intenta causar estragos en varios centros de
datos de Google, provocando fugas en las tuberas de agua y organizando protestas justo
afuera de las instalaciones, solo para distraer la atencin y facilitar el ingreso de varios
intrusos cuya misin es llegar hasta los servidores y robar discos con informacin. Alteran
varios servicios, entre ellos la red de anuncios de la compaa. Hacen que un centro de
datos ubicado en los Pases Bajos quede fuera de lnea. Y despus viene el tiro de gracia:
cortan la mayora de la conexin va fibra ptica con Asia.
Resulta que este es un trabajo interno. Los atacantes se encuentran en una sala de juntas
en las afueras del campus, y son gente de Google: forman parte del Equipo de Ingeniera
de Confiabilidad de Sitios, o Site Reliability Engineering (SRE), que es la gente que tiene
una responsabilidad de mxima importancia: mantener funcionando a Google y todos sus
servicios.
Al entrar al SRE, a los miembros de este equipo SEAL de geeks se les dan chamarras de
piel con parches que tienen una insignia de tipo militar. Cada ao, los SRE emprenden esta
guerra simulada contra la infraestructura de Google, llamada DiRT (Disaster Recovery
Testing, o Prueba de Recuperacin en Caso de Desastre). Puede que los ataques sean
falsos, pero son prcticamente imposibles de distinguir de lo que ocurrira en la realidad, y
los lderes a cargo de resolver los "incidentes" deben seguir una serie de procedimientos
de respuesta como si de verdad estuvieran sucediendo. En algunos casos, incluso se
afectan de verdad algunos servicios. Si los equipos a cargo de cada rea no pueden arreglar
las cosas para que todo siga funcionando con normalidad, los ataques deben detenerse
para evitar afectar a los usuarios reales.

En lugar de almacenar los datos de todos los usuarios en un nico equipo o conjunto
de equipos, distribuimos todos los datos (incluso los nuestros) en muchos
ordenadores situados en ubicaciones diferentes. A continuacin, dividimos y
replicamos los datos en varios sistemas para evitar un nico punto de fallo.
Asignamos nombres aleatorios a los fragmentos de datos como medida de
seguridad adicional para que resulten imposibles de leer al ojo humano.
Tipo de personal
En esta descargue una pgina para ensearla

Productos o servicios
Aqu descargue otra pgina

Ubicacin

Infraestructura

Los servidores que albergan los centros de datos de Google estn concentrados en
containers. Si, como los que transportan barcos y camiones de un lado a otro del
mundo. Cada container puede contener 1160 servidores. Los containers se apilan
de dos en dos y son totalmente independientes.
Streetview, video

Ya lo descargue

Você também pode gostar