Você está na página 1de 25

Virtualização

1 - Virtualização para facilitar o gerenciamento

O atual desafio enfrentado pela indústria de tecnologia da informação (TI) é o de continuar


produzindo sistemas menores, mais leves e mais rápidos e, ao mesmo tempo, encontrar melhores
meios de gerenciar as complexidades das tecnologias computacionais. A indústria direciona um
grande esforço à segurança e ao gerenciamento de informações e de dispositivos para a
produção de sistemas mais flexíveis, de modo a torná-los disponíveis aos usuários a qualquer
tempo, em qualquer lugar. O conceito de Virtualização de plataforma abre espaço para futuros
dispositivos poderosos, autônomos e confiáveis.

A Virtualização de plataformas pode ser definida como a criação de um sistema computacional


logicamente segmentado, que funciona em uma base real. As plataformas virtuais são vistas pelo
usuário e funcionam como se fossem computadores físicos. Uma vez que são abstratas e
divididas, a partir de bases ocultas e delas mesmas, as plataformas virtuais são facilmente
transportáveis e robustas para simplificar a complexidade e, dessa forma, aumentam a segurança.

A Virtualização é uma forma de criar sistemas menos complexos, que dividem os subconjuntos
de sistemas em dispositivos mais gerenciáveis. Além disso, essa medida pode proporcionar mais
segurança ao sistema, à rede e aos aplicativos, pois isola subsistemas potencialmente
vulneráveis de sistemas subjacentes e de outras plataformas virtuais.

O conceito de Virtualização inclui todas as camadas da plataforma – desde aplicativos e sistemas


operacionais a componentes, processadores e interconexões da plataforma. Porém, vamos nos
ater aos dispositivos de armazenamento e aos servidores, pois é nesse ambiente em que o
mercado de Virtualização atua.

A maior utilização: storage

A Virtualização do armazenamento é o processo de consolidar vários dispositivos físicos de


diversos fabricantes e reorganizá-los em agrupamentos virtuais e lógicos, ou em unidades de
armazenamento. Essas unidades são apresentadas ao sistema operacional para utilização pelos
aplicativos e usuários finais adequados.

Apesar do recente aumento de interesse, a Virtualização do armazenamento não é novidade,


tanto no conceito quanto na prática. Definida há quase 20 anos na computação em mainframes, a
tecnologia está descobrindo uma nova oportunidade e importância com a emergência das redes
SANs (Storage Area Networks).

Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os benefícios
imediatos desse processo, que podem ser obtidos também na predominante arquitetura de
armazenamento de dispositivos conectados diretamente – DAS (Direct Attached Storage).

Seja em mainframe, seja em ambientes de sistema aberto, as tecnologias de Virtualização são


utilizadas para simplificar e centralizar o gerenciamento e para fornecer a flexibilidade no
atendimento à demanda dos atuais requisitos de dados.

A Virtualização elimina as restrições físicas, ao criar uma camada de abstração acima do


armazenamento físico em si, que é acessível como um agrupamento lógico de storage e que pode
ser alocado quando e onde for necessário. Essa camada oferece a capacidade de combinar
dispositivos físicos heterogêneos em entidades virtuais projetadas para atender os requisitos
individuais dos aplicativos.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos
físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica,
enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na
medida em que o novo hardware se torna disponível ou que as características do aplicativo se
modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos
dados no dispositivo lógico.

Conceito de Storage

Todas as empresas precisam armazenar informações e para isso utilizam um dispositivo ou um


suporte que pode retê-lo durante tempo prolongado, para ser recuperado no momento necessário.
Esse dispositivo é chamado de storage.

O armazenamento em rede permite a conectividade entre quaisquer servidores e dispositivos de


armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus
dados. O armazenamento em rede pode diminuir os custos do processamento de informações,
com o aumento do compartilhamento de dispositivos e de capacidade, assim como por meio de
comunicações mais eficientes.

Dessa forma, é criado o ambiente para a verdadeira computação global – a capacidade de


processar as mesmas informações em qualquer momento, a partir de qualquer central de dados
no mundo, com os dados e a execução de aplicativos primários migrando para locais ideais,
conforme a necessidade.
As configurações mais comuns são as já mencionadas redes SAN, dedicadas de
armazenamento, tipicamente construídas em torno de tecnologia de fiber channel, que conectam
os dispositivos de storage a um conjunto heterogêneo de servidores, sobre uma base múltipla.
Uma configuração SAN abriga, além de subsistemas de disco, switches, hubs e bridges.

Já as redes NAS (Networked Attached Storage) configuram-se com um local de armazenamento,


em que os dados são transferidos usando protocolos como TCP/IP. Uma NAS une os servidores
aos subsistemas de storage. Com ela, os sistemas de arquivos, em lugar dos volumes de
informação sem processar (raw), estão disponíveis na rede. O administrador de arquivos (file
system) maneja e administra a colocação real dos dados.

Necessidade recente

É uma realidade nas empresas o crescente volume de informações geradas por novas
aplicações, que exigem maior capacidade para suportar diferentes naturezas – dados, voz e
imagem. Esse fato, associado aos sistemas legados, passa a ser um problema na maior parte das
organizações.

A série de mainframes da IBM teve grande sucesso justamente por oferecer um caminho
contínuo de evolução, sem obrigar ninguém a abandonar legados de hardware ou de software.
Porém, o alto custo de hardware dos mainframes encorajou a migração para os
microcomputadores. Essa foi a chance de começar tudo do zero, eliminando o legado de
programas em COBOL, PL/1 e outros específicos do mundo do mainframe.
Porém, poucos contavam que a microinformática acabaria formando também seu legado, muito
maior e bem mais heterogêneo do que o dos mainframes. E isso reuniu equipamentos de
diferentes fabricantes, com variadas aplicações, dificilmente integrados. O legado é ruim, pois
atrasa a evolução tecnológica, demandando recursos que poderiam ser aplicados em uma
arquitetura mais moderna. Além disso, tende a manter o uso de tecnologias obsoletas, inclusive
hardware.

Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no tratamento dos
legados. Geralmente, a Virtualização é assistida por hardware. Embora esse recurso exista desde
os mainframes, não é útil apenas para legados, mas auxilia bastante no teste de novas
tecnologias. O simples fato de o Microsoft Windows rodar programas MS-DOS não deixa de ser
uma espécie de Virtualização, pois cada sessão DOS é um processador de 16 bits virtual.

Orçamento apertado
Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus padrões
de gastos, é especialmente importante usar todos os recursos tecnológicos em sua total
capacidade. Segundo o Gartner Group, cada dólar investido em storage exige US$ 5 de recursos
de TI para administrá-lo. Na medida em que os ambientes continuam a evoluir e tornam-se cada
vez mais complexos, aumenta a necessidade de minimizar os crescentes custos de administrar
quantidades de dados cada vez maiores.

As tecnologias implementadas no ambiente de TI devem garantir uma estratégia de


gerenciamento simplificada e centralizada, com o objetivo de aumentar a eficiência dos
profissionais e reduzir custos. Geralmente, os usuários finais não estão interessados nos aspectos
físicos dos recursos de armazenamento de seus aplicativos e sim em tempo de resposta,
resultados, capacidade suficiente para armazenamento de dados na medida em que a quantidade
aumenta e ocorre redução ou eliminação do tempo de desativação. Em resumo, os usuários se
preocupam com a disponibilidade e o acesso aos seus dados, e não com os aspectos físicos do
armazenamento. A Virtualização proporciona vários meios de acessar, gerenciar e utilizar os
recursos de storage existentes.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos
físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica,
enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na
medida em que o novo hardware se torna disponível ou que as características do aplicativo se
modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos
dados no dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento que
têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em
armazenamento e em hospedagem.

As soluções baseadas em hospedagem permitem que os discos sejam representados como um


agrupamento virtual para um único servidor host. Isso possibilita que o pessoal de TI tenha mais
flexibilidade em habilitá-los para torná-los completamente independentes dos fabricantes de
soluções de armazenamento. Embora os dados estejam concentrados para acesso apenas por
meio de um único servidor, esse pode tornar-se altamente disponível, garantindo que os dados
sejam utilizados. A desvantagem em potencial dessa solução surge quando vários servidores
exigem o acesso compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou
outros métodos de Virtualização de armazenamento podem ser considerados.

Emulação e Virtualização

Emulação é a recriação de um ambiente de trabalho sem qualquer relação necessária com o


ambiente-anfitrião e sem auxílio de hardware, enquanto a Virtualização permite criar diversas
máquinas virtuais. Uma utilidade menos óbvia da Virtualização e da emulação é o
desenvolvimento de software. Os jogos de 8 bits eram desenvolvidos em computadores robustos,
pois isso tornava fácil acompanhar o funcionamento, instrução por instrução. Desenvolver
diretamente na plataforma desejada era quase impossível.

Mas isso é passado. Há muito tempo, os microcomputadores representam uma plataforma


auto-suficiente e de baixo custo para desenvolvimento. E agora chegamos ao ponto em que um
micro pode simular a si mesmo com velocidade suficiente para uso normal. Hoje, as ferramentas
de desenvolvimento podem subir mais um degrau de qualidade e complexidade.

Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais perseguidos da
indústria da tecnologia: um emulador quase universal que permite rodar softwares desenvolvidos
para uma determinada plataforma, em qualquer outra, praticamente sem quedas no desempenho.
Isso inclui Macs, PCs e diversos tipos de mainframes e servidores.

Segundo executivos da empresa, um emulador universal de computadores está para a


informática como a transformação de metais em ouro estava para a alquimia. Muitos tentaram,
todos falharam. Eles explicam que, embora vários esquemas limitados de emulação tenham sido
bem-sucedidos – a transição da Apple para a plataforma PowerPC, ou a “transmutação de código”
da arquitetura x86 feita pela Transmeta –, ninguém jamais havia desenvolvido um emulador para
processadores e sistemas operacionais múltiplos.

O software foi desenvolvido inicialmente na Universidade Manchester (Reino Unido) pelo


professor de ciência da computação Alasdair Rawsthorne. Uma das mais importantes inovações é
a “representação intermediária”, uma espécie de linguagem comum que dá ao software a
flexibilidade para fazer a tradução de uma plataforma para outra.

2 - O mercado atual de virtualização e as perspectivas para os próximos anos

Uma das conseqüências dos incidentes terroristas de 11 de setembro de 2001, em Nova York
(EUA), foi a mudança de visão por parte das empresas sobre suas estratégias de proteção de
dados. As companhias estavam desprevenidas e não contavam com a perda de valiosas
informações de negócios e com a ameaça contra sua própria sobrevivência. E como ninguém
deseja correr riscos, o tema continuidade de negócios passou a merecer atenção especial dos
gestores de tecnologia.

Manter um Business Continuity Plan passou a ser algo fundamental, de fato. Algumas empresas
optam por uma estratégia definida por áreas para garantir recuperação total de seus dados
estratégicos diante de qualquer contratempo. Para algumas organizações, a continuidade de
negócios é vista como um organismo. O gerenciamento de riscos e os processos apontam o que
é preciso para o prosseguimento das operações e isso é feito gerando avaliações e revisões que
atualizam o plano de continuidade conforme as necessidades atuais do negócio, que podem
mudar de ano para ano.

A necessidade de continuidade, associada às novas regulamentações exigidas principalmente


das instituições financeiras, como Sarbanes-Oxley e Basiléia 2, reforça a necessidade de gestão
de risco, tornando-a mais eficiente e transparente. E nessa transparência entra o processo de
armazenamento, que deve manter acessíveis os dados da empresa. Mas como os dados não
estão armazenados de forma linear no mesmo lugar, é preciso ter um mecanismo para
encontrá-los, em caso de necessidade. E, por vezes, não é possível esperar vários dias para
localizá-los. Então, entra em cena a solução de Virtualização, que proporciona uma visão holística
do armazenamento. Portanto, trata-se de uma decisão fundamental para as empresas, tão
importante que os fornecedores, antes concorrentes, se unem para oferecer soluções completas
para atender necessidades de transparência, continuidade de negócios e aumento das
informações, em forma de parcerias, fusões ou aquisições.

Tudo sob demanda

A evolução dos processos corporativos conduz necessariamente a uma reorganização física e


lógica dos recursos dos sistemas de informação. Por exemplo, no caso da IBM, o e-business dá
lugar ao e-business on demand. Na HP, ao adaptative enterprise, na Sun, ao N1 (NetworkOne),
enquanto na Computer Associates, a expressão usada é on demand computing. Trata-se de
termos, simultaneamente, de marketing, técnicos e estratégicos, mas com algo em comum.

O ponto de união entre eles é dispor de recursos tecnológicos, de acordo com a necessidade da
empresa, alinhando os sistemas de informação à visão estratégica das companhias. Para trazer
esses conceitos à realidade, as empresas são convidadas a abandonar as infra-estruturas
verticais (preconizadas por todos esses fornecedores durante muito tempo), organizadas por silos
(aplicação com os seus servidores e o seu armazenamento) mais ou menos independentes. A
idéia é passar para infra-estruturas baseadas em recursos virtualizados, que podem ser
partilhados por todos os serviços e aplicações.

De igual modo, as soluções de administração devem poder otimizar de forma dinâmica a


utilização desses recursos, realocar instantaneamente aqueles que são subutilizados, inserir
automaticamente um servidor suplementar numa família de servidores e apresentar as aplicações
como serviços. Em outras palavras, não se trata de uma mudança rápida. Além dos tradicionais
softwares de administração (sistemas e redes, entre outros), um ambiente sob demanda passa
pela implementação de ferramentas que assegurem um melhor conhecimento da relação entre a
atividade da empresa e a sua infra-estrutura de informática.

Essas soluções têm como alvo a definição dos processos críticos das empresas, a visualização
dos componentes implicados (aplicações, middlewares, servidores, armazenamento e rede), a
detecção pró-ativa dos problemas de funcionamento, a correlação dos diferentes alertas e a
automatização das correções necessárias, de acordo com uma base de conhecimento. No
entanto, o campo de ação desses softwares é limitado com freqüência pela sua incapacidade de
gerir diretamente os recursos.

Novos investimentos

Em pesquisa da IDC, em 2007, com 782 empresas brasileiras, o nível de satisfação com a base
instalada de hardware e software de segurança, sistemas de storage e softwares de
gerenciamento de sistemas mostrou-se como um dos mais baixos na pesquisa. Esse resultado
reflete novos investimentos em capacidade de TI, que acabam por gerar uma série de pequenas
ilhas de sistemas, difíceis de controlar, gerenciar e proteger.

Quanto aos desafios e preocupações atuais dos CIOs em relação à infra-estrutura de TI, a IDC
observou que há uma apreensão crescente com a escalabilidade e com os custos de
gerenciamento e manutenção para garantir alta disponibilidade, performance e agilidade dos
equipamentos, aumentar o controle sobre a infra-estrutura sem, no entanto, ampliar a equipe de
manutenção e gerenciamento e os custos.

Além disso, é preciso crescer a segurança dos dados críticos sem elevar os custos das
informações armazenadas e, finalmente, ter como parceiro um Full Service Provider de
infra-estrutura, ou seja, aquele fornecedor capaz de prover soluções de hardware, software e
serviços.

Em relação ao storage, a IDC divulgou, no começo de 2007, sua previsão para o ano: a
infra-estrutura de TI na América Latina estaria caminhando para o modelo de Dynamic IT: 2007
seria o ano de educação quanto à virtualização, não apenas na América Latina como em todo o
mundo. De acordo com a IDC, aprender a aplicar melhor sua infra-estrutura de hardware, software
e serviços seria a meta das empresas da região em 2007.

300 campos de futebol

Uma das empresas que está investindo em virtualização é a própria IBM. A companhia trocou,
em 2007, 4 mil servidores de pequeno porte por 30 mainframes Linux, rodando máquinas virtuais.
Com a mudança, economizou 250 milhões de dólares em despesas de manutenção e de
consumo de energia. Os servidores físicos que serão substituídos por máquinas virtuais estão
localizados em seis data centers em vários países.
Os equipamentos usados ocupam um espaço de quase 2,5 milhões de metros quadrados, o que
equivale a 300 campos de futebol, somadas as áreas de todos os terrenos. Essa iniciativa faz
parte do plano da IBM de dobrar sua capacidade de armazenar dados até 2010, mas sem usar
mais energia elétrica, nem aumentar a emissão de carbono na atmosfera. Com os novos espaços,
a empresa quer melhorar a logística dos prédios, alterando inclusive sistemas de iluminação e de
ar condicionado.

A Virtualização chegou à indústria de chips. Hoje, um software tem múltiplos recursos para rodar
em diferentes sistemas operacionais em uma plataforma única. A nova tecnologia de
processadores, já em desenvolvimento, vai tornar esse processo mais simples. O processador
para desktop Intel® Core™ 2 Duo, por exemplo, suporta recursos para melhoria da segurança,
virtualização e computação de 64 bits.

4 - A evolução

O que há em software e hardware para a simplificação da infraestrutura das empresas

Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo


soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em
hospedagem. As primeiras tecnologias de Virtualização que surgiram foram soluções com base
em armazenamento. Elas permitem que vários servidores compartilhem o acesso a dados em um
único array, variável que armazena um conjunto de valores do mesmo tipo. O lado negativo, no
entanto, é que esses servidores não podem acessar os dados além de seu próprio array.

Além disso, os usuários estão arriscados a ficar limitados a soluções que dependam dos
fabricantes, com base nas restrições de compatibilidade de hardware do array mais amplo ou dos
servidores diretamente conectados. A Virtualização com base no armazenamento pode então ser
mais dispendiosa do que outras alternativas de menor prioridade.

Já as soluções baseadas em hospedagem permitem aos discos alocados nos vários arrays, de
diversos fabricantes, apresentarem-se como um agrupamento virtual para um único servidor host.
Isso possibilita mais flexibilidade para habilitá-los a ser completamente independentes dos
fabricantes de soluções de armazenamento, embora ainda desfrutem dos benefícios da
administração de armazenamento centralizada a partir de um único console.

Embora os dados estejam concentrados para acesso apenas por meio de um único servidor,
esse pode se tornar altamente disponível, garantindo a utilização dos dados. A desvantagem em
potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos
mesmos dados. Assim, podem ser considerados a duplicação dos dados ou outros métodos de
Virtualização de armazenamento.

A arquitetura in-band insere o dispositivo de Virtualização na rede de dados entre o host e o


array. Esses dispositivos oferecem volume de gerenciamento e outras funcionalidades
complementares como movimento de dados e serviço de cópias. Ele faz a substituição dos
controladores de storage para os dispositivos que estão sendo virtualizados.

A primeira vantagem dessa abordagem é a simplicidade. Um novo dispositivo próprio pode ser
desenvolvido para atuar como um ponto central de gerenciamento para múltiplos sistemas
conectados. A recente aparição em larga escala de arrays monolíticos de alta performance em
dispositivos in-band de virtualização evidencia essa vantagem.

Em um dado momento, para grandes ambientes, até mesmo a estratégia de escalabilidade pode
se provar insuficiente e será necessário desenvolver um novo dispositivo in-band. Cada um
desses dispositivos tem responsabilidade de domínios de virtualização separados, resultando na
necessidade de gerenciar ilhas independentes de Virtualização. A conseqüência disso pode
potencializar e “pesar” nos benefícios originais de redução da complexidade e da simplificação do
gerenciamento proporcionados pela Virtualização.

Arquitetura Out-of-Band

A abordagem out-of-band foi desenvolvida para evitar os desafios de performance inerentes à


arquitetura in-band, separando o gerenciamento da informação do data flow. Na arquitetura
out-band, um pedaço separado do hardware, chamado de servidor de metadado, que contém
informação sobre as relações lógicas e físicas da Virtualização do storage, comunica-se com cada
servidor. Essa comunicação é dada em uma rede separada independente da Fibre Channel,
usada no tráfego de dados.

Como as demandas do host para a Virtualização do storage vão direto para o dispositivo para o
qual ele é destinado, a performance fica livre da latência adicional ou de problemas de banda. Ou
seja, a abordagem out-of-band é teoricamente mais desejável para aplicações de alta
performance. Ela também evita problemas com a integridade do dado, inerente à in-band. As
diferentes versões do dado sempre causam problemas para a rede. Mas quando o dado é
eficientemente armazenado no array, o host recebe a informação que o trabalho já está completo.

Esse tipo de abordagem out-of-band introduz algum nível de flexibilidade no sistema baseado em
host. Há, entretanto, uma abordagem mais refinada do out-of-band para solucionar esse desafio
de gerenciamento e flexibilidade. Essa abordagem foi alavancada pelos switches inteligentes de
SAN (Storage Area Networks), como uma plataforma para o desenvolvimento da rede baseada na
Virtualização do storage.

A abordagem do switch baseado no out-of-band é também mais acessível à estratégia de


escalabilidade. A maioria dos processos de entrada e saída é gerenciada diretamente pelo
processador no switch inteligente, incrementando a escalabilidade. Podem ser acrescentados,
conforme a necessidade, mais processadores. Isso pode ser concluído adicionando outro switch
no sistema ou outro processador blade.

Em resumo, teoricamente essa arquitetura é capaz de escalar um grande número de


configurações e possui escalabilidade necessária para estender os benefícios da Virtualização do
storage a grandes data centers.

Fornecedores aprimoram produtos

A baixa utilização dos sofisticados ambientes de armazenamento de dados, que cresceram nas
corporações nos últimos anos, não é uma surpresa nos departamentos de Tecnologia da
Informação. Baseados em múltiplas plataformas, de diferentes fornecedores, esses sistemas
acabam dando muito trabalho aos gestores, quando gerenciam e planejam as novas
necessidades de armazenamento.

Esse problema recorrente tem sido a justificativa de empresas do mundo inteiro para aderirem às
novidades sobre Virtualização dos sistemas de armazenamento de dados que chega ao País. Os
fornecedores de soluções de Virtualização, como EMC, Hitachi, Storagetek, HP e IBM acreditam
que seus produtos precisam ter o objetivo de superar dificuldades de gerenciamento de ambientes
heterogêneos de storage e reduzir a escalada de custos.

Não é uma simples questão de marketing. Para os fornecedores, a Virtualização é hoje uma
decisão estratégica. Há motivações para isso: o volume de dados está em explosão – segundo
analistas, cresce até 400% ao ano com a utilização de novas aplicações nas áreas de comércio
eletrônico, gestão da cadeia de fornecedores, mensagens eletrônicas, entre outras. Além disso,
muitas empresas investiram excessivamente em múltiplas arquiteturas de storage para suportar
essa gama variada de aplicações, acessada em diferentes bases de dados.
É uma exigência dos clientes que a EMC, fabricante norte-americana de sistema de storage, está
procurando atender uma plataforma de Virtualização em rede SAN. O sistema integra hardware e
software na arquitetura out-of-band, que coloca a inteligência de Virtualização na rede de
armazenamento – e não nos dispositivos ou arrays – para eliminar impactos sobre a performance
do servidor ou da aplicação.

Ao contrário da EMC, que investiu no out-band, a Hitachi Data Systems investiu na arquitetura
in-band para virtualização do ambiente de armazenamento multifornecedor. A filial brasileira tem
projetos que combinam hardware e software e trazem a virtualização para a controladora de
storage, evitando sobrecarga da rede, servidores ou switches, permitindo acessar os dados em
diferentes equipamentos de storage por meio de um único ponto de contato.

A HP incluiu em seu portfólio pelo menos cinco linhas de soluções: Virtualização via software no
servidor; interna no disk array, em arquitetura in-band; em rede SAN de alta performance; e por
meio de grid computing. Com presença muito forte no segmento high end, a HP investe forte
também no segmento das pequenas e médias empresas com a família de sistemas EVA.

É uma solução de disk array virtual que pode atingir capacidades acima de 8 terabytes. O
sistema faz a Virtualização dos discos, ou seja, a agregação das informações no storage. Impõe
facilidades de criar caminhos de acesso aos dados e favorece o crescimento dinâmico dos
volumes armazenados sem prejudicar as aplicações, além de implementar o espelhamento
remoto.

No caso da IBM, a linha de Virtualização da empresa não se prendeu às nomenclaturas in-band


ou out-of-band. São dois produtos, o SAN File Systems e o SAN Volume Controller, que
trabalham em uma camada entre os servidores de aplicação e a SAN, dentro dos conceitos de
Virtualização de arquivos e lógica.

Vários sistemas operacionais na mesma


máquina

Conhecida como Vanderpool, a tecnologia de Virtualização da Intel permite que um único


processador funcione como vários deles, trabalhando em paralelo, de modo a permitir que
diversos sistemas operacionais sejam executados ao mesmo tempo em uma mesma máquina.
Trata-se dos processadores Pentium 4 – 672 e 662 – com suporte à sua tecnologia de
Virtualização (VT).
Com a técnica de Virtualização, um único processador pode funcionar como se fossem vários
trabalhando em paralelo. Diferente de multitarefa ou Hyper-Threading, lançada em 2002 pela Intel,
pois no primeiro caso, existe um único sistema operacional e vários programas trabalhando em
paralelo. Já a tecnologia Hyper-Threading simula dois processadores lógicos em um único
processador físico e distribui as tarefas entre eles usando o conceito SMP (multiprocessamento
simétrico). Na tecnologia Hyper-Threading os processadores lógicos não podem ser usados de
forma separada.

Já na Virtualização, são vários sistemas operacionais trabalhando em paralelo, cada um com


diversos programas em execução. Cada sistema operacional roda em um “processador virtual” ou
“máquina virtual”. Se um processador tem suporte a ambas as tecnologias, Hyper-Threading e
Virtualização, cada processador virtual aparecerá para o sistema operacional como se fossem
dois processadores disponíveis no micro para multiprocessamento simétrico.

Existe uma vantagem em implementar essa tecnologia no processador. O processador com


tecnologia de Virtualização possui algumas novas instruções para controlar a Virtualização. Com
essas instruções, o controle do software (chamado VMM, Virtual Machine Monitor) pode ser mais
simples, o que resulta em um melhor desempenho se comparado a soluções baseadas apenas
em software.

A tecnologia de Virtualização da Intel necessita de um computador com um único processador,


chipset, BIOS, Virtual Machine Monitor (VMM) e em alguns casos, software de plataforma
habilitado para ela. Funcionalidades, desempenho e outros benefícios irão variar de acordo com
as configurações de hardware e software.

5 - Solução completa (Intel + Vmware)

A parceria da Intel com a VMware, incluindo os investimentos feitos pela Intel Capital e a oferta do
Intel Virtualize ASAP.

VMWare é um software/máquina virtual que permite a instalação e utilização de um sistema


operacional dentro de outro, e que dá suporte real a softwares de outros sistemas. O nome faz
uma brincadeira verbal com Virtual Machine (máquina virtual), nome técnico dado a um sistema
operacional rodando sob o VMware.

Ao usar software de virtualização, como o VMware, um ou mais sistemas operacionais podem


funcionar simultaneamente num ambiente isolado, como se fossem computadores completos
(virtuais), rodando dentro de um computador físico que pode comportar um sistema operacional
totalmente distinto.

Do ponto de vista do usuário e do software, nem sequer se nota a diferença entre a máquina real
e a virtual. É muito usado em centros de dados, pois permite criar redundância e segurança
adicional, sem recorrer a tantas máquinas físicas, bem como distribuindo e aproveitando melhor
os recursos das máquinas hospedeiras.

A empresa desenvolvedora do VMware, a VMware Inc., localiza-se em Palo Alto, Califórnia,


Estados Unidos e é uma subsidiária da EMC Corporation.

Versões do produto

VMware Workstation: Esta versão é voltada ao uso no desktop, em ambientes de


desenvolvimento. Atualmente está na versão 5.5.3, e roda em CPU’s Intel e AMD de 32 e 64 bits.
Permite rodar vários “computadores virtuais” dentro de um sistema operacional (que pode ser o
Windows ou o Linux). Cada um desses computadores pode rodar seu próprio sistema
operacional. O computador simulado pode ter uma quantidade de RAM definida (até 3600 MB no
VMware 5.5.3; até 8GB, desconsiderando limitações do hardware, no VMware 6.0) e um disco
virtual delimitado (até 950 GB). Ele pode “simular” um drive de CD-ROM, placas de rede (até três
no VMware 5.5.3; até dez no VMware 6.0 beta), discos rígidos e portas USB (USB 1.1 na versão
5.5.3; USB 2.0 na versão 6.0).

Essa versão possibilita “unir” várias máquinas virtuais, e permite que todas elas sejam iniciadas
ou desligadas com um mesmo comando. Também é possível definir redes internas.

O VMware Workstation também suporta três modos de rede: bridged (quando a máquina virtual é
vista como um outro computador na rede, com IP obtido via DHCP); NAT (em que a máquina
virtual se conecta ao computador host, que por sua vez se conecta à rede); e Host-Only (a
máquina virtual apenas se conecta ao host).

Essa versão do software também permite criar registros instantâneos (snapshots) de uma
máquina virtual num dado momento. Assim, é possível testar configurações, e, se não der certo,
pode-se reverter.

VMware Server:
Voltado ao uso em servidores de pequeno e médio porte. Tornou-se gratuito desde 12 de junho
de 2006. É um produto de “entrada” para o mercado. Conta com boa parte dos recursos da versão
Workstation, e adiciona recursos úteis ao seu uso em servidores, como o gerenciamento remoto
(usando uma versão modificada do VNC). O resultado imediato é uma perda de desempenho na
interface gráfica, porém isso não é problema para servidores que rodam “headless”, ou seja, sem
monitor ou interface gráfica.

VMware ESX Server:

Voltado para uso em servidores de grande porte. Trata-se de um sistema operacional dedicado,
que usa um kernel proprietário, baseado no SimOS. O Red Hat Linux é usado para prover os
diversos serviços, como gerenciamento remoto. Por rodar em um nível mais próximo do hardware,
elimina-se o overhead de ter um sistema base, e aumenta-se a segurança. Por isso, é usado em
servidores de grande porte.

VMware Player:

Executa máquinas virtuais prontas. Oficialmente, não é possível criar máquinas virtuais novas,
mas é possível contornar essa limitação de três formas:

1) Instalar uma versão de avaliação do VMware Workstation e criando máquinas virtuais novas.

2) Usar appliances (máquinas virtuais fornecidas pela comunidade, que operam como soluções
prontas, em que basta apenas rodar).

3) Usar sites não oficiais, como o EasyVMX.

VMware Fusion:

Uma versão experimental para o Mac OS X rodando em Macintosh com CPU Intel.

Outros produtos são: VMware P2V, ferramenta para migrar servidores físicos para máquinas
virtuais; VMware VirtualCenter, ferramenta para centralizar o gerenciamento de instalações do
VMware; e VMotion, ferramenta para transferir máquinas virtuais entre servidores, de forma tão
transparente quanto possível, resultando no mínimo de downtime (tempo com o servidor fora do
ar).

Não é um emulador

Ao contrário do que se costuma divulgar, o VMware não é um emulador. Ele vai a um nível mais
baixo, em que o processador chega por vezes a executar diretamente o código da máquina
virtual. Quando isso não é possível, o código é convertido para que o processador não precise
trocar para o modo real, o que seria uma perda de tempo.

O VMware é útil para ambientes de desenvolvimento, em que é necessário testar uma aplicação
em várias plataformas. Muitas empresas têm produtos multiplataforma, que precisam ser testados
em Windows e em diversas distribuições do Linux.

Outra utilidade diz respeito aos ambientes de suporte, em que é preciso dar suporte a diversas
aplicações e sistemas operacionais. Um técnico de suporte pode rapidamente usar uma máquina
virtual para abrir um ambiente Linux ou Windows.

O VMware também é utilizado na migração e consolidação de servidores antigos. É muito comum


que redes, com diversos servidores antigos, demandem um custo de manutenção maior. Com o
VMware eles podem ser concetrados em uma só máquina.

Para a manutenção de aplicações antigas e teste de sistemas novos, o VM pode ser usado para
testar sistemas operacionais e esse é um dos usos mais comuns do produto. Por exemplo, é
possível usá-lo para executar o Windows dentro do Linux ou o oposto.

Ele também costuma ser usado para manter a compatibilidade de hardware, ou seja, alguns
hardwares não têm drivers para o Linux ou para versões mais recentes do Windows. Nesse caso,
é possível usar hardwares (ligados pela porta paralela ou USB) com uma máquina virtual.

Ele ainda se presta a simulação de instalações complexas de rede e para apresentação de


demonstrações de sistemas completos prontos para usar, tipicamente referidas como VMware
appliances.
Num ambiente protegido, é típico usar balanceador de carga, vários firewalls e quatro servidores
físicos para alojar com segurança um único site que use servidor web e base de dados. Com
máquinas virtuais, é possível criar redundância contra falhas e segurança adicional contra intrusão
sem recorrer a tantas máquinas físicas e distribuindo e aproveitando melhor os recursos das
máquinas hospedeiras.

Apesar de tantas vantagens e usos, alguns analistas apontam certas limitações do VMware. Ele
não funciona em sistemas operacionais muito antigos (como o caso das distribuições Linux
baseadas em kernel 2.0 ou 2.2). O VMware Workstation requer uma correção para rodar no Linux
com kernels 2.6 mais recentes. Há apenas suporte experimental à aceleração 3D, tornando o
VMware inviável para o uso de jogos. E, finalmente, existem alguns problemas com o uso de
placas de rede sem fio (Wireless), sendo necessário usar o modo NAT.

Aquisição pela EMC

A EMC Corporation, líder mundial em armazenamento e gerenciamento de informações, é a


detentora da VMware, Inc. – companhia líder mundial em software de computação virtual baseada
na plataforma Intel, com sede em Palo Alto (EUA). A aquisição teve papel fundamental na
estratégia da EMC de ajudar os clientes a reduzir custos e a simplificar operações. Com a
aquisição, a EMC planejava implementar tecnologias de Virtualização em suas infra-estruturas de
TI heterogêneas, para criar um conjunto único de recursos de storage e computação.

A EMC espera que a sua inovação em Virtualização de storage e a liderança da VMware em


Virtualização de servidor sirvam como base para soluções de gerenciamento do ciclo de vida da
informação da próxima geração. Essa “infraestrutura de informação virtual” possibilitará que as
organizações configurem e reconfigurem dinamicamente seus ambientes de computação e
armazenamento de dados, sem tempo inativo na medida da dinâmica dos seus negócios.

O software VMware é usado por organizações em todo o mundo para consolidar servidores
subutilizados, reduzir o tempo de provisionamento de servidor de semanas para dezenas de
segundos, mover dinamicamente cargas de trabalho de aplicação entre servidores e estações de
trabalho sem interrupção do serviço, e eliminar o tempo de inatividade para manutenção,
implementação ou migração de hardware.

Aporte da Intel

Em meados de 2007, a VMware, Inc. anunciou que recebeu aporte de capital no valor de 218,5
milhões de dólares da Intel Capital, braço de investimento da Intel Corporation. Quando foi
divulgada, a operação ainda passaria pelos órgãos regulatórios, mas a estimativa era que, com a
movimentação, a Intel Capital passasse a deter 2,5% de todas as ações comuns da VMware. Na
época do anúncio mundial, informou-se que um executivo da Intel seria nomeado para o conselho
da VMware. O objetivo da Intel, com o aporte, foi aumentar a adoção de tecnologia VMware na
arquitetura Intel, melhorando a virtualização para os clientes.

Além disso, a VMware e a Intel iniciaram um acordo de parceria e de colaboração, que expressa
a intenção de ambas as companhias em desenvolver esforços conjuntos em iniciativas de
desenvolvimento, de marketing e industriais.

6 - Simplificando e otimizando o datacenter

As vantagens de otimizar o datacenter com a virtualização, tipos de projetos disponíveis e


redução de custos.

O crescimento do uso da Virtualização é particularmente forte no espaço dos servidores


empregados em grande volume, como nos datacenters. A capacidade de executar várias
aplicações em um mesmo servidor, por exemplo, bancos de dados, sistemas de ERP ou CRM,
está impulsionando a adoção de servidores virtuais e deve continuar a influenciar futuras
instalações de hardware.

A Virtualização do servidor está transformando a maneira como as principais empresas de TI


fornecem e gerenciam seus sistemas e aplicativos, ajudando-as a consolidar sua infraestrutura,
otimizar a utilização, reduzir os custos totais e melhorar a agilidade empresarial.

Com um software de Virtualização de servidor, é possível consolidar vários sistemas operacionais


e pilhas de software em uma única plataforma e alocar dinamicamente os recursos dessa
plataforma para atender exigências específicas da empresa e dos aplicativos.

Os principais benefícios das soluções atuais do software de Virtualização do servidor abrangem


diversos aspectos, entre eles a consolidação flexível do servidor. Por meio da Virtualização, é
possível, de modo rápido e fácil, consolidar diversos sistemas operacionais e aplicativos. O
aumento da disponibilidade e da segurança é outro item importante, pois as falhas do software e
os ataques digitais são isolados dentro de cada partição virtual, e as partições de superação de
falhas oferecem uma abordagem fácil e econômica para ajustar a disponibilidade.

A Virtualização de servidor também oferece simplificação das migrações de sistemas


operacionais e hardware, pois permite a migração dos aplicativos legados e suas versões atuais
do sistema operacional, sem mudar para partições virtuais, além de permitir a dinamização de
teste e desenvolvimento. Além disso, promove mais agilidade à empresa, pois é possível fornecer
ou redimensionar uma partição virtual em minutos, para acomodar novos aplicativos, aumentando
as cargas de trabalho e a manutenção do sistema.
Desafio e investimentos

Atualmente, um objetivo imprescindível em qualquer estratégia de TI é consolidar múltiplas


funções essenciais às empresas. Normalmente, essas funções encontram-se dispersas por
diversos servidores físicos, muitas vezes com diferentes sistemas operacionais. Com a
consolidação, é possível otimizar os recursos, reduzir drasticamente custos e aumentar
consideravelmente os níveis de serviço disponibilizados aos demais departamentos de uma
organização.

Esse objetivo leva os fornecedores a apostarem nesse tipo de solução, investindo em


certificações que permitam a apresentação no mercado das habilitações necessárias para dar
suporte a soluções personalizadas, de acordo com as necessidades de cada cliente. Este alinha a
sua estratégia de consolidação de servidores pela implementação de servidores virtuais e em
geral consegue a redução do TCO.

Os objetivos desse tipo de projeto é aumentar a eficiência e a capacidade de colocar rapidamente


em funcionamento novos sistemas que endereçam novas exigências. Assim, é possível garantir o
mínimo impacto na estrutura de funcionamento da organização, de modo a assegurar uma
operação ininterrupta, com total redundância de recursos de hardware e software. Nessas
soluções, a busca se dá também pela escalabilidade, tornando viável a adição de processadores,
memória, storage, ligações de fibra e rede, já que esses são passíveis de ser totalmente
virtualizados na infra-estrutura e partilhados pelas instâncias lógicas de sistemas MS Windows e
Linux.

Embora sejam grandes as vantagens proporcionadas por esses sistemas, não existem dados que
mostrem a adoção de Virtualização no Brasil, mas estima-se que a utilização seja baixa, pois o
País ainda investe pouco em inovação tecnológica, em comparação aos Estados Unidos e a
países do continente europeu.

Em média, os empresários que trabalham com pesquisa e desenvolvimento não aplicam mais do
que 0,64% de seu faturamento em inovação, seja na melhoria de seus produtos, seja na compra
de equipamentos, segundo dados da Associação Nacional de Pesquisa, Desenvolvimento e
Engenharia das Empresas Inovadoras (Anpei). Apenas 30% de todas as empresas brasileiras
fazem algum tipo de inovação, sendo os setores de informática, eletrônico e químico os que mais
inovam.
Para que a inovação seja priorizada nas empresas brasileiras é preciso ampliar ainda mais os
incentivos fiscais e as subvenções econômicas. A Lei de Inovação já representa um grande
avanço no setor, pois permite às corporações inovadoras abaterem no Imposto de Renda, por
exemplo, 160% do total investido em P&D, podendo chegar a 200%, caso apresentem em seus
quadros mestres e doutores, além de produtos patenteados. Hoje, as companhias com mais de
500 funcionários são as que apresentam as maiores taxas de investimento em P&D.

Virtualização avançada

A IBM anunciou um produto que designa como “propulsor de virtualização”, um software que
permitirá aos usuários operar até dez servidores com um único microprocessador. O software
será incorporado aos seus servidores não-mainframe permitindo que eles se clonem, o que
possibilitaria aos usuários dividir servidores e outros sistemas em unidades distintas, mais ou
menos como acontece com um computador mainframe.

A tecnologia funciona com o sistema operacional Unix ou outros sistemas não relacionados a
mainframes. Um servidor normalmente dispõe de um ou mais microprocessadores, que operam
como o cérebro do computador. Um sistema com quatro processadores e usando essa tecnologia
de software teria poder equivalente ao de 40 processadores, usando um ou múltiplos sistemas
operacionais ou versões deles ao mesmo tempo, segundo a IBM.

Em suma, a demanda por potência e storage continua crescendo exponencialmente. Nos


mercados de servidores e armazenamento, as mudanças nas dinâmicas do mercado causarão
alterações grandes nas empresas usuárias e nos fornecedores. As aplicações de hoje fazem com
que a disponibilidade 24 por 7 e a continuidade dos negócios sejam críticas para as corporações.
A pressão para cumprir a disponibilidade e o desempenho, reduzir custos, melhorar serviços e
minimizar riscos nunca foi tão alta.

Segundo o Gartner, os mercados de servidores e de armazenamento enfrentarão mudanças


dramáticas nos próximos anos. Os paradigmas tradicionais de computação sofrerão ameaças
invasivas, na medida em que Linux e MS Windows tornarem-se fatores mais significativos nas
aplicações de missão crítica de toda a empresa.

Enquanto isso, grupos expansivos de dados dinâmicos e estáticos gerarão novos desafios na
administração do armazenamento. A visualização e a segmentação tornaram-se componentes
críticos numa arquitetura simétrica para servidores e armazenamento. A seleção da plataforma de
servidores continua sendo um aspecto vital para muitas soluções comerciais viáveis e os usuários
precisam equilibrar o risco de prender-se a um fornecedor contra os benefícios potenciais das
novas tecnologias.

Porém, antes de empregar qualquer tecnologia, as corporações precisam avaliar a possibilidade


de gerenciamento da solução de Virtualização, o efeito (positivo e negativo) nos processos atuais
e a velocidade do retorno sobre o investimento. Além disso, têm de analisar estratégia de longo
prazo de saída/migração e também de automação e Virtualização numa escala mais ampla, o
efeito nos custos de aplicação do software (baseado no licenciamento e no preço que não são
muito favoráveis à Virtualização e à consolidação).

Virtualização e ciclo de vida da informação

Paralelamente à Virtualização, uma boa opção para melhorar o uso do storage é a


implementação da gestão do ciclo de vida da informação armazenada nos dispositivos da
empresa. Estudos mostram que os dados da maioria das aplicações não têm necessidade de
estar disponíveis para acesso on-line na medida em que o tempo passa.

Um exemplo disso são as mensagens no correio eletrônico. Normalmente, após 45 dias do


recebimento, elas não precisam consumir espaço em disco mais rápido e, conseqüentemente,
mais caro. Por isso, no lugar de comprar discos, pode ser uma boa alternativa migrar
automaticamente as informações usadas com menos freqüência para unidades de fita ou discos
mais lentos, reduzindo sensivelmente os novos investimentos em storage.

A lista do potencial desperdício em storage é tão grande que torna possível misturar todas essas
soluções e reduzir muito a necessidade de novos investimentos nessa área. Talvez essa seja a
maior justificativa para o fato de os próprios fabricantes de discos estarem discursando que seus
produtos se tornaram commodities e que o diferencial da área está na oferta de softwares e
serviços.

Adoção crescente
A Forrester indica em seu relatório que essa evolução pode ser atribuída a dois fatores principais:
mais disponibilidade de tecnologias sobre o tema, e maior esforço dos fornecedores do setor. De
acordo com o instituto de pesquisas, a Virtualização de servidores tornou-se mainstream nos
servidores x86 em diversas empresas, ao contrário de ser uma tecnologia de nicho em Unix. O
levantamento destaca a competição do líder VMware com a solução da Microsoft Virtual Server e
o produto open source Xen.

As estatísticas apontam que 53% dos entrevistados preferiram o VMware, solução adquirida pela
EMC, como único fornecedor que eles levam em consideração para virtualizar servidores Intel,
contra 11% que opta pela HP e 9% pela Microsoft.

3 - As vantagens Tecnologias de Virtualização

As vantagens

A aposta nas soluções de Virtualização deriva da necessidade dos gestores de Tecnologias de


Informação em dar resposta eficaz ao aumento e à diversificação dos ambientes computacionais
dentro das organizações. Além disso, a adequada gestão do custo total de propriedade é cada
vez mais relevante, bem como a capacidade de solucionar as crescentes dificuldades de
manutenção e de gestão desses mesmos ambientes.

A Virtualização de infra-estruturas proporciona abstração entre os diferentes meios de


computação como processamento, armazenamento de dados, rede e software. Ao implementar
esse conceito, são eliminadas todas as restrições físicas e todos os meios ficam acessíveis como
“agrupamentos lógicos”, que podem ser utilizados em qualquer hora e local. Além de muitas
outras vantagens, as soluções de Virtualização garantem maior capacidade de adaptação às
constantes mudanças dos ambientes empresariais, mais eficiência e flexibilidade aos recursos de
TI e redução dos custos associados.

A aplicação de software de armazenamento inteligente na camada de Virtualização proporciona


um meio de resolver os desafios funcionais de armazenamento, sem comprometer a necessidade
de disponibilidade dos dados. Ela permite um nível sem precedentes de flexibilidade na utilização
de recursos de armazenamento, a fim de atender exigências referentes aos aplicativos e aos
usuários finais.

Os dispositivos de armazenamento virtual não estão restritos às limitações de capacidade,


velocidade ou confiabilidade dos dispositivos físicos que os incluem. O provisionamento consiste
em fornecer aos usuários ou aplicações a quantidade e o melhor tipo de armazenamento, no
momento certo. A Virtualização torna muito mais fácil esse processo. Somada à administração
centralizada, permite que modificações na camada de armazenamento físico sejam efetuadas
sem a interrupção do acesso aos dados, a fim de fornecer, continuamente, a melhor qualidade de
serviços de armazenamento em tempo real.

Especialistas do mercado acreditam que a Virtualização deve revolucionar a forma de gerenciar


os aplicativos, a segurança e o armazenamento nas empresas, convergindo os sistemas para um
único ponto, facilitando a manutenção e o controle da rede. Portanto, os seus benefícios passam
pela gestão centralizada de todo storage, melhor acesso de usuários e aplicações, redução de
custos de treinamento, facilidade de administração, redução de custos de storage físico,
eliminação do downtime, mais escalabilidade e alocação de capacidade sob demanda.

Custos sob controle

O custo de gerenciar o armazenamento é significativo e, com o decorrer do tempo, excede o


preço de compra do hardware. Um meio de monitorar esses custos é avaliar a quantidade de
armazenamento gerenciada por administradores. As organizações eficientes podem ter um
administrador por terabyte de armazenamento, enquanto outras, com ambientes mais difíceis,
podem ter uma proporção muito menor de profissionais dedicados ao armazenamento.

A Virtualização do armazenamento pode simplificar o gerenciamento de recursos em ambientes


heterogêneos, reduzindo, definitivamente, o custo real de storage. Além disso, o gerenciamento
torna-se muito mais fácil para o administrador, visto estar centralizado. Ele pode aprender e
implementar uma ferramenta para gerenciar completos agrupamentos de armazenamento.

Trata-se também de um meio de redução de custos pela melhor utilização e consolidação do


hardware. A consolidação é o ato de combinar recursos de armazenamento em um agrupamento
virtual, acessível a muitos aplicativos ou, em ambientes de SANs (Storage Area Networks) ou
clusters, a muitos servidores.

Antes mesmo da necessidade de acrescentar recursos, a Virtualização permite a consolidação


proativa de todos os dispositivos de armazenamento. Como parte integrante de uma unidade
virtual, os recursos podem se tornar disponíveis para aplicativos e servidores que, anteriormente,
não tinham acesso a eles. Isso se aplica particularmente bem aos ambientes de SANs, mas não
é, de modo algum, exclusivo deles.

O fornecimento e a consolidação inteligente, como resultados da Virtualização do


armazenamento, ajudarão a controlar os custos de TI e a reduzir a sobrecarga, permitindo o
efetivo gerenciamento de armazenamento de dados, com menor necessidade de intervenção
humana.
Armazenamento virtual precisa de gerenciamento

Na medida em que os equipamentos de armazenamento ficam mais baratos, a infra-estrutura


torna-se mais complexa de gerenciar. O crescimento excessivo e dinâmico das informações e das
aplicações dificulta a definição e o acompanhamento da política de gerenciamento. Existe uma
lacuna entre as operações de armazenamento e o gerenciamento dos dados.

Estimativas sugerem que 75% das informações na rede ou em ambientes distribuídos não são
efetivamente administrados, significando que não estão armazenados adequadamente ou de
forma a serem recuperados facilmente. Hoje, uma rede típica de storage (Unix, Win2k e Linux)
tem cerca de 2 a 5 terabytes de armazenamento de discos, enquanto a capacidade de
gerenciamento de cada storage é de 400 GB a 500 GB, de acordo com o Manifesto de Storage,
produzido pela Horison Information Strategies, uma consultoria especializada em estratégias e
desenvolvimento de negócios para empresas de storage.

Mesmo sem sistemas formalizados, toda empresa faz alguma espécie de organização dos dados
quando existem informações importantes. Algumas plataformas de sistemas operacionais
oferecem ferramentas de gerenciamento de storage, mas em geral é necessária a utilização de
programas internos para administrar os dados. Enquanto isso, fabricantes investem cada vez mais
em software e conceitos de gerenciamento.

Foi-se a época em que as empresas compravam equipamentos com capacidade superior,


prevendo necessidades futuras. Como não se pode gerenciar o que não se conhece, o primeiro
erro das organizações antes de comprar um produto de armazenagem é não parar para refletir
sobre o volume das informações que possui.
O gerenciamento da rede de storage acontece com soluções de SRM (storage resource
management), que mostram o comportamento de cada dispositivo conectado na rede, quanto de
dado e de que tipo está guardando, qual a origem das informações, qual o espaço livre e se há
algum problema nos discos.

É possível criar regras para cada tipo de arquivo e fazer com que seja transferido
automaticamente para o disco certo. Com um software para esse fim, a empresa pode bloquear
arquivos MP3, ou mandar uma mensagem para alertar o usuário que está sendo monitorado. O
conceito vale para pequenas e médias empresas, cada qual na proporção do volume dos seus
dados.
Mas isso ainda não é suficiente para grandes volumes de informação. Com um crescimento de
dados de 34% ao ano, dois velhos conceitos da época dos mainframes estão ressurgindo: o
Information Lifecycle Management (ILM) e o Hierarchical Storage Management (HSM). O primeiro
nada mais é do que classificar os dados armazenados em uma empresa, conforme a
periodicidade em que são acessados e a data do armazenamento. E o segundo refere-se à
hierarquização da informação, como veremos a seguir.

Prioridade da informação

Alguns especialistas de mercado sugerem que um dado não pode ser administrado apenas pelo
tempo de vida. Deve ser classificado pela sua importância e hierarquia dentro dos negócios, com
o conceito da hierarquização das informações (HSM). Ele estabelece limites para cada usuário
armazenar arquivos, variando conforme a atividade e o cargo de cada um.
O HSM pode ser usado não só nos dados, mas também nas aplicações, como e-mail e banco de
dados, a partir de uma classificação detalhada. Apesar dos discursos otimistas dos fornecedores,
apenas agora os clientes começam a implementar o HSM.

Várias regras podem ser definidas. Arquivos de imagem e aqueles não acessados há mais de
cinco anos, por exemplo, podem ser direcionados para fitas para armazenamento fora do
equipamento, bem como arquivos do presidente, no storage caro. Em geral, nenhum usuário quer
apagar seu e-mail e aí todos ficam com o storage caro (saturado). O software faz
automaticamente as mudanças de acordo com as regras criadas: informações com mais de dois
anos vão para um storage secundário, por exemplo. Para o usuário, tudo isso é transparente.

Classificar as informações é a maior dificuldade das empresas, já que para cada departamento e
para cada pessoa, todos os arquivos são importantes. O início do projeto de gerenciamento é
entender como funciona o negócio e quais são as informações fundamentais. Os consultores da
área precisam realizar diversas entrevistas com nível gerencial para perceberem o que é cada
área da companhia e de que tipo de informações os usuários realmente necessitam. O trabalho
também deve incluir a participação do departamento judiciário, pois alguns documentos têm de
ser guardados por questões legais.

O fim da Torre de Babel

Normalmente, uma empresa tem várias marcas de storage na rede, mas um não fala com o outro
– se existem três discos de 1 GB cada, a companhia tem três discos de 1 GB cada, e não um total
de 3 GB. Isso muitas vezes faz com que um disco fique saturado, enquanto outro está com baixo
uso. A administração de dados fica mais complicada.
Os fabricantes não têm ferramentas que gerenciem os equipamentos da concorrência. Isso
acontece porque as fornecedoras não trocam instruções que permitem gerenciar completamente
o produto de outro desenvolvedor – ou API (application program interface), um conjunto de
rotinas, protocolos e ferramentas para a construção do software.

Fabricantes falam de Virtualização, mas cada empresa tem um conceito e o básico diz que,
independentemente do servidor e de qual sistema operacional, ele terá acesso ao dado. Antes
disso, cada sistema operacional tinha de acessar a informação pela sua porta proprietária. Por
vezes, a empresa tem uma cópia da mesma informação porque ela precisa ser acessada por
diferentes plataformas.

Com a Virtualização, os clientes podem criar camadas de armazenamento entre sistemas de


diferentes fabricantes, possibilitando uma visão unificada e consolidada da capacidade total de
storage. Em vez de acessar a informação diretamente da base, acessa pelo servidor de
Virtualização.

Gerenciamento de dados envolve ainda backup, restore e business continuity e as empresas que
ainda não fazem gerenciamento dos dados estão perdendo dinheiro. Uma administração malfeita
gasta horas de trabalho do profissional, além do risco de perder a informação para sempre.
Softwares de gerenciamento resolvem esse problema: eles automatizam a operação de backup e
diminuem a necessidade de manutenção.

Portanto, ambientes de armazenamento consolidados possuem menos elementos a gerenciar, o


que pode aumentar a utilização de recursos e simplificar o gerenciamento do armazenamento.
Além disso, podem oferecer a capacidade de compartilhar servidores de armazenamento a
grandes distâncias e de proporcionar economia na escala de propriedade de servidores de
armazenamento em disco.

Com uma estrutura virtualizada, pessoas, processos e tecnologia concentram-se em níveis de


serviço, a capacidade é alocada dinamicamente, a infra-estrutura inteira é simplificada e
flexibilizada, além de permitir um modelo utilitário ou pay-per-use para serviços de TI.

Você também pode gostar