Você está na página 1de 19

Módulo 1 - Virtualização para facilitar o gerenciamento

O atual desafio enfrentado pela indústria de tecnologia da informação (TI) é o de continuar

produzindo sistemas menores, mais leves e mais rápidos e, ao mesmo tempo, encontrar melhores meios de gerenciar as complexidades das tecnologias computacionais. A indústria direciona um grande esforço à segurança e ao gerenciamento de informações e de dispositivos para a produção de sistemas mais flexíveis, de modo a torná-los disponíveis aos usuários a qualquer tempo, em qualquer lugar. O conceito de Virtualização de plataforma abre espaço para futuros dispositivos poderosos, autônomos e confiáveis.

A Virtualização de plataformas pode ser definida como a criação de um sistema

computacional logicamente segmentado, que funciona em uma base real. As plataformas virtuais são vistas pelo usuário e funcionam como se fossem computadores físicos. Uma vez que são abstratas e divididas, a partir de bases ocultas e delas mesmas, as plataformas virtuais são facilmente transportáveis e robustas para simplificar a complexidade e, dessa forma, aumentam a segurança.

A Virtualização é uma forma de criar sistemas menos complexos, que dividem os

subconjuntos de sistemas em dispositivos mais gerenciáveis. Além disso, essa medida pode proporcionar mais segurança ao sistema, à rede e aos aplicativos, pois isola subsistemas potencialmente vulneráveis de sistemas subjacentes e de outras plataformas virtuais.

O conceito de Virtualização inclui todas as camadas da plataforma – desde aplicativos e

sistemas operacionais a componentes, processadores e interconexões da plataforma. Porém, vamos nos ater aos dispositivos de armazenamento e aos servidores, pois é nesse ambiente em que o mercado de Virtualização atua.

A maior utilização: storage

A Virtualização do armazenamento é o processo de consolidar vários dispositivos físicos de

diversos fabricantes e reorganizá-los em agrupamentos virtuais e lógicos, ou em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional para utilização pelos aplicativos e usuários finais adequados. Apesar do recente aumento de interesse, a Virtualização do armazenamento não é novidade, tanto no conceito quanto na prática. Definida há quase 20 anos na computação em mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a emergência das redes SANs (Storage Area Networks).

Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os benefícios imediatos desse processo, que podem ser obtidos também na predominante arquitetura de armazenamento de dispositivos conectados diretamente – DAS (Direct Attached Storage). Seja em mainframe, seja em ambientes de sistema aberto, as tecnologias de Virtualização são utilizadas para simplificar e centralizar o gerenciamento e para fornecer a flexibilidade no atendimento à demanda dos atuais requisitos de dados.

A Virtualização elimina as restrições físicas, ao criar uma camada de abstração acima do

armazenamento físico em si, que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais projetadas para atender os

requisitos individuais dos aplicativos. Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão

critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico.

Conceito de Storage

Todas as empresas precisam armazenar informações e para isso utilizam um dispositivo ou um suporte que pode retê-lo durante tempo prolongado, para ser recuperado no momento necessário. Esse dispositivo é chamado de storage.

O armazenamento em rede permite a conectividade entre quaisquer servidores e

dispositivos de armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus dados. O armazenamento em rede pode diminuir os custos do processamento de informações, com o aumento do compartilhamento de dispositivos e de capacidade, assim como por meio de comunicações mais eficientes.

Dessa forma, é criado o ambiente para a verdadeira computação global – a capacidade de processar as mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo, com os dados e a execução de aplicativos primários migrando para locais ideais, conforme a necessidade. As configurações mais comuns são as já mencionadas redes SAN, dedicadas de armazenamento, tipicamente construídas em torno de tecnologia de fiber channel, que conectam os dispositivos de storage a um conjunto heterogêneo de servidores, sobre uma

base múltipla. Uma configuração SAN abriga, além de subsistemas de disco, switches, hubs

e bridges.

Já as redes NAS (Networked Attached Storage) configuram-se com um local de armazenamento, em que os dados são transferidos usando protocolos como TCP/IP. Uma NAS une os servidores aos subsistemas de storage. Com ela, os sistemas de arquivos, em lugar dos volumes de informação sem processar (raw), estão disponíveis na rede. O administrador de arquivos (file system) maneja e administra a colocação real dos dados.

Necessidade recente

É uma realidade nas empresas o crescente volume de informações geradas por novas

aplicações, que exigem maior capacidade para suportar diferentes naturezas – dados, voz e imagem. Esse fato, associado aos sistemas legados, passa a ser um problema na maior

parte das organizações.

A série de mainframes da IBM teve grande sucesso justamente por oferecer um caminho

contínuo de evolução, sem obrigar ninguém a abandonar legados de hardware ou de software. Porém, o alto custo de hardware dos mainframes encorajou a migração para os microcomputadores. Essa foi a chance de começar tudo do zero, eliminando o legado de programas em COBOL, PL/1 e outros específicos do mundo do mainframe. Porém, poucos contavam que a microinformática acabaria formando também seu legado, muito maior e bem mais heterogêneo do que o dos mainframes. E isso reuniu equipamentos de diferentes fabricantes, com variadas aplicações, dificilmente integrados. O legado é ruim, pois atrasa a evolução tecnológica, demandando recursos que poderiam ser aplicados em uma arquitetura mais moderna. Além disso, tende a manter o uso de tecnologias obsoletas, inclusive hardware.

Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no tratamento dos legados. Geralmente, a Virtualização é assistida por hardware. Embora esse recurso exista desde os mainframes, não é útil apenas para legados, mas auxilia bastante no teste de novas tecnologias. O simples fato de o Microsoft Windows rodar programas MS-DOS não deixa de ser uma espécie de Virtualização, pois cada sessão DOS é um processador de 16 bits virtual.

Orçamento apertado

Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus padrões de gastos, é especialmente importante usar todos os recursos tecnológicos em sua total capacidade. Segundo o Gartner Group, cada dólar investido em storage exige US$ 5 de recursos de TI para administrá-lo. Na medida em que os ambientes continuam a evoluir e tornam-se cada vez mais complexos, aumenta a necessidade de minimizar os crescentes custos de administrar quantidades de dados cada vez maiores.

As tecnologias implementadas no ambiente de TI devem garantir uma estratégia de gerenciamento simplificada e centralizada, com o objetivo de aumentar a eficiência dos profissionais e reduzir custos. Geralmente, os usuários finais não estão interessados nos aspectos físicos dos recursos de armazenamento de seus aplicativos e sim em tempo de resposta, resultados, capacidade suficiente para armazenamento de dados na medida em que a quantidade aumenta e ocorre redução ou eliminação do tempo de desativação. Em resumo, os usuários se preocupam com a disponibilidade e o acesso aos seus dados, e não com os aspectos físicos do armazenamento. A Virtualização proporciona vários meios de acessar, gerenciar e utilizar os recursos de storage existentes.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em hospedagem.

As soluções baseadas em hospedagem permitem que os discos sejam representados como um agrupamento virtual para um único servidor host. Isso possibilita que o pessoal de TI tenha mais flexibilidade em habilitá-los para torná-los completamente independentes dos fabricantes de soluções de armazenamento. Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, esse pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem em potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou outros métodos de Virtualização de armazenamento podem ser considerados.

Emulação e Virtualização

Emulação é a recriação de um ambiente de trabalho sem qualquer relação necessária com o ambiente-anfitrião e sem auxílio de hardware, enquanto a Virtualização permite criar diversas máquinas virtuais. Uma utilidade menos óbvia da Virtualização e da emulação é o desenvolvimento de software. Os jogos de 8 bits eram desenvolvidos em computadores

robustos, pois isso tornava fácil acompanhar o funcionamento, instrução por instrução. Desenvolver diretamente na plataforma desejada era quase impossível.

Mas isso é passado. Há muito tempo, os microcomputadores representam uma plataforma auto-suficiente e de baixo custo para desenvolvimento. E agora chegamos ao ponto em que um micro pode simular a si mesmo com velocidade suficiente para uso normal. Hoje, as ferramentas de desenvolvimento podem subir mais um degrau de qualidade e complexidade.

Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais perseguidos da indústria da tecnologia: um emulador quase universal que permite rodar softwares desenvolvidos para uma determinada plataforma, em qualquer outra, praticamente sem quedas no desempenho. Isso inclui Macs, PCs e diversos tipos de mainframes e servidores.

Segundo executivos da empresa, um emulador universal de computadores está para a informática como a transformação de metais em ouro estava para a alquimia. Muitos tentaram, todos falharam. Eles explicam que, embora vários esquemas limitados de emulação tenham sido bem-sucedidos – a transição da Apple para a plataforma PowerPC, ou a “transmutação de código” da arquitetura x86 feita pela Transmeta –, ninguém jamais havia desenvolvido um emulador para processadores e sistemas operacionais múltiplos.

O software foi desenvolvido inicialmente na Universidade Manchester (Reino Unido) pelo

professor de ciência da computação Alasdair Rawsthorne. Uma das mais importantes inovações é a “representação intermediária”, uma espécie de linguagem comum que dá ao software a flexibilidade para fazer a tradução de uma plataforma para outra.

Módulo 2 - Impactos no mercado

O mercado atual de virtualização e as perspectivas para os próximos anos

Uma das conseqüências dos incidentes terroristas de 11 de setembro de 2001, em Nova York (EUA), foi a mudança de visão por parte das empresas sobre suas estratégias de proteção de dados. As companhias estavam desprevenidas e não contavam com a perda de valiosas informações de negócios e com a ameaça contra sua própria sobrevivência. E como ninguém deseja correr riscos, o tema continuidade de negócios passou a merecer atenção especial dos gestores de tecnologia.

Manter um Business Continuity Plan passou a ser algo fundamental, de fato. Algumas empresas optam por uma estratégia definida por áreas para garantir recuperação total de seus dados estratégicos diante de qualquer contratempo. Para algumas organizações, a continuidade de negócios é vista como um organismo. O gerenciamento de riscos e os processos apontam o que é preciso para o prosseguimento das operações e isso é feito gerando avaliações e revisões que atualizam o plano de continuidade conforme as necessidades atuais do negócio, que podem mudar de ano para ano.

A necessidade de continuidade, associada às novas regulamentações exigidas

principalmente das instituições financeiras, como Sarbanes-Oxley e Basiléia 2, reforça a

necessidade de gestão de risco, tornando-a mais eficiente e transparente. E nessa transparência entra o processo de armazenamento, que deve manter acessíveis os dados da

empresa. Mas como os dados não estão armazenados de forma linear no mesmo lugar, é preciso ter um mecanismo para encontrá-los, em caso de necessidade. E, por vezes, não é possível esperar vários dias para localizá-los. Então, entra em cena a solução de Virtualização, que proporciona uma visão holística do armazenamento. Portanto, trata-se de uma decisão fundamental para as empresas, tão importante que os fornecedores, antes concorrentes, se unem para oferecer soluções completas para atender necessidades de transparência, continuidade de negócios e aumento das informações, em forma de parcerias, fusões ou aquisições.

Tudo sob demanda

A

evolução dos processos corporativos conduz necessariamente a uma reorganização física

e

lógica dos recursos dos sistemas de informação. Por exemplo, no caso da IBM, o e-

business dá lugar ao e-business on demand. Na HP, ao adaptative enterprise, na Sun, ao N1

(NetworkOne), enquanto na Computer Associates, a expressão usada é on demand computing. Trata-se de termos, simultaneamente, de marketing, técnicos e estratégicos, mas com algo em comum.

O ponto de união entre eles é dispor de recursos tecnológicos, de acordo com a necessidade

da empresa, alinhando os sistemas de informação à visão estratégica das companhias. Para

trazer esses conceitos à realidade, as empresas são convidadas a abandonar as infra- estruturas verticais (preconizadas por todos esses fornecedores durante muito tempo), organizadas por silos (aplicação com os seus servidores e o seu armazenamento) mais ou menos independentes. A idéia é passar para infra-estruturas baseadas em recursos virtualizados, que podem ser partilhados por todos os serviços e aplicações.

De igual modo, as soluções de administração devem poder otimizar de forma dinâmica a utilização desses recursos, realocar instantaneamente aqueles que são subutilizados, inserir automaticamente um servidor suplementar numa família de servidores e apresentar as aplicações como serviços. Em outras palavras, não se trata de uma mudança rápida. Além dos tradicionais softwares de administração (sistemas e redes, entre outros), um ambiente sob demanda passa pela implementação de ferramentas que assegurem um melhor conhecimento da relação entre a atividade da empresa e a sua infra-estrutura de informática.

Essas soluções têm como alvo a definição dos processos críticos das empresas, a visualização dos componentes implicados (aplicações, middlewares, servidores, armazenamento e rede), a detecção pró-ativa dos problemas de funcionamento, a correlação dos diferentes alertas e a automatização das correções necessárias, de acordo com uma base de conhecimento. No entanto, o campo de ação desses softwares é limitado com freqüência pela sua incapacidade de gerir diretamente os recursos.

Novos investimentos

Em pesquisa da IDC, em 2007, com 782 empresas brasileiras, o nível de satisfação com a base instalada de hardware e software de segurança, sistemas de storage e softwares de gerenciamento de sistemas mostrou-se como um dos mais baixos na pesquisa. Esse resultado reflete novos investimentos em capacidade de TI, que acabam por gerar uma série de pequenas ilhas de sistemas, difíceis de controlar, gerenciar e proteger.

Quanto aos desafios e preocupações atuais dos CIOs em relação à infra-estrutura de TI, a IDC observou que há uma apreensão crescente com a escalabilidade e com os custos de

gerenciamento e manutenção para garantir alta disponibilidade, performance e agilidade dos equipamentos, aumentar o controle sobre a infra-estrutura sem, no entanto, ampliar a equipe de manutenção e gerenciamento e os custos.

Além disso, é preciso crescer a segurança dos dados críticos sem elevar os custos das informações armazenadas e, finalmente, ter como parceiro um Full Service Provider de

infra-estrutura, ou seja, aquele fornecedor capaz de prover soluções de hardware, software

e serviços.

Em relação ao storage, a IDC divulgou, no começo de 2007, sua previsão para o ano: a infra-estrutura de TI na América Latina estaria caminhando para o modelo de Dynamic IT:

2007 seria o ano de educação quanto à virtualização, não apenas na América Latina como em todo o mundo. De acordo com a IDC, aprender a aplicar melhor sua infra-estrutura de hardware, software e serviços seria a meta das empresas da região em 2007.

300 campos de futebol

Uma das empresas que está investindo em virtualização é a própria IBM. A companhia trocou, em 2007, 4 mil servidores de pequeno porte por 30 mainframes Linux, rodando máquinas virtuais. Com a mudança, economizou 250 milhões de dólares em despesas de manutenção e de consumo de energia. Os servidores físicos que serão substituídos por máquinas virtuais estão localizados em seis data centers em vários países.

Os equipamentos usados ocupam um espaço de quase 2,5 milhões de metros quadrados, o que equivale a 300 campos de futebol, somadas as áreas de todos os terrenos. Essa iniciativa faz parte do plano da IBM de dobrar sua capacidade de armazenar dados até 2010, mas sem usar mais energia elétrica, nem aumentar a emissão de carbono na atmosfera. Com os novos espaços, a empresa quer melhorar a logística dos prédios, alterando inclusive sistemas de iluminação e de ar condicionado.

A Virtualização chegou à indústria de chips. Hoje, um software tem múltiplos recursos para

rodar em diferentes sistemas operacionais em uma plataforma única. A nova tecnologia de processadores, já em desenvolvimento, vai tornar esse processo mais simples. O processador para desktop Intel® Core™ 2 Duo, por exemplo, suporta recursos para melhoria da segurança, virtualização e computação de 64 bits.

Módulo 3 - O que as soluções existentes podem fazer por empresas de grande porte e casos de quem já as está usando As vantagens

A aposta nas soluções de Virtualização deriva da necessidade dos gestores de Tecnologias

de Informação em dar resposta eficaz ao aumento e à diversificação dos ambientes computacionais dentro das organizações. Além disso, a adequada gestão do custo total de propriedade é cada vez mais relevante, bem como a capacidade de solucionar as crescentes dificuldades de manutenção e de gestão desses mesmos ambientes.

A Virtualização de infra-estruturas proporciona abstração entre os diferentes meios de

computação como processamento, armazenamento de dados, rede e software. Ao implementar esse conceito, são eliminadas todas as restrições físicas e todos os meios ficam acessíveis como “agrupamentos lógicos”, que podem ser utilizados em qualquer hora e local. Além de muitas outras vantagens, as soluções de Virtualização garantem maior

capacidade de adaptação às constantes mudanças dos ambientes empresariais, mais eficiência e flexibilidade aos recursos de TI e redução dos custos associados.

A aplicação de software de armazenamento inteligente na camada de Virtualização

proporciona um meio de resolver os desafios funcionais de armazenamento, sem comprometer a necessidade de disponibilidade dos dados. Ela permite um nível sem precedentes de flexibilidade na utilização de recursos de armazenamento, a fim de atender exigências referentes aos aplicativos e aos usuários finais.

Os dispositivos de armazenamento virtual não estão restritos às limitações de capacidade, velocidade ou confiabilidade dos dispositivos físicos que os incluem. O provisionamento consiste em fornecer aos usuários ou aplicações a quantidade e o melhor tipo de armazenamento, no momento certo. A Virtualização torna muito mais fácil esse processo. Somada à administração centralizada, permite que modificações na camada de armazenamento físico sejam efetuadas sem a interrupção do acesso aos dados, a fim de fornecer, continuamente, a melhor qualidade de serviços de armazenamento em tempo real.

Especialistas do mercado acreditam que a Virtualização deve revolucionar a forma de gerenciar os aplicativos, a segurança e o armazenamento nas empresas, convergindo os sistemas para um único ponto, facilitando a manutenção e o controle da rede. Portanto, os

seus benefícios passam pela gestão centralizada de todo storage, melhor acesso de usuários

e aplicações, redução de custos de treinamento, facilidade de administração, redução de custos de storage físico, eliminação do downtime, mais escalabilidade e alocação de capacidade sob demanda.

Custos sob controle

O custo de gerenciar o armazenamento é significativo e, com o decorrer do tempo, excede o

preço de compra do hardware. Um meio de monitorar esses custos é avaliar a quantidade de armazenamento gerenciada por administradores. As organizações eficientes podem ter

um administrador por terabyte de armazenamento, enquanto outras, com ambientes mais difíceis, podem ter uma proporção muito menor de profissionais dedicados ao armazenamento.

A Virtualização do armazenamento pode simplificar o gerenciamento de recursos em

ambientes heterogêneos, reduzindo, definitivamente, o custo real de storage. Além disso, o gerenciamento torna-se muito mais fácil para o administrador, visto estar centralizado. Ele pode aprender e implementar uma ferramenta para gerenciar completos agrupamentos de armazenamento.

Trata-se também de um meio de redução de custos pela melhor utilização e consolidação do hardware. A consolidação é o ato de combinar recursos de armazenamento em um agrupamento virtual, acessível a muitos aplicativos ou, em ambientes de SANs (Storage Area Networks) ou clusters, a muitos servidores.

Antes mesmo da necessidade de acrescentar recursos, a Virtualização permite a consolidação proativa de todos os dispositivos de armazenamento. Como parte integrante de uma unidade virtual, os recursos podem se tornar disponíveis para aplicativos e servidores que, anteriormente, não tinham acesso a eles. Isso se aplica particularmente bem aos ambientes de SANs, mas não é, de modo algum, exclusivo deles.

O fornecimento e a consolidação inteligente, como resultados da Virtualização do

armazenamento, ajudarão a controlar os custos de TI e a reduzir a sobrecarga, permitindo o

efetivo gerenciamento de armazenamento de dados, com menor necessidade de intervenção humana.

Armazenamento virtual precisa de gerenciamento

Na medida em que os equipamentos de armazenamento ficam mais baratos, a infra- estrutura torna-se mais complexa de gerenciar. O crescimento excessivo e dinâmico das informações e das aplicações dificulta a definição e o acompanhamento da política de gerenciamento. Existe uma lacuna entre as operações de armazenamento e o gerenciamento dos dados.

Estimativas sugerem que 75% das informações na rede ou em ambientes distribuídos não são efetivamente administrados, significando que não estão armazenados adequadamente ou de forma a serem recuperados facilmente. Hoje, uma rede típica de storage (Unix, Win2k

e Linux) tem cerca de 2 a 5 terabytes de armazenamento de discos, enquanto a capacidade

de gerenciamento de cada storage é de 400 GB a 500 GB, de acordo com o Manifesto de Storage, produzido pela Horison Information Strategies, uma consultoria especializada em estratégias e desenvolvimento de negócios para empresas de storage.

Mesmo sem sistemas formalizados, toda empresa faz alguma espécie de organização dos dados quando existem informações importantes. Algumas plataformas de sistemas operacionais oferecem ferramentas de gerenciamento de storage, mas em geral é necessária a utilização de programas internos para administrar os dados. Enquanto isso, fabricantes investem cada vez mais em software e conceitos de gerenciamento.

Foi-se a época em que as empresas compravam equipamentos com capacidade superior,

prevendo necessidades futuras. Como não se pode gerenciar o que não se conhece, o primeiro erro das organizações antes de comprar um produto de armazenagem é não parar para refletir sobre o volume das informações que possui.

O gerenciamento da rede de storage acontece com soluções de SRM (storage resource

management), que mostram o comportamento de cada dispositivo conectado na rede, quanto de dado e de que tipo está guardando, qual a origem das informações, qual o espaço livre e se há algum problema nos discos.

É possível criar regras para cada tipo de arquivo e fazer com que seja transferido

automaticamente para o disco certo. Com um software para esse fim, a empresa pode bloquear arquivos MP3, ou mandar uma mensagem para alertar o usuário que está sendo monitorado. O conceito vale para pequenas e médias empresas, cada qual na proporção do volume dos seus dados.

Mas isso ainda não é suficiente para grandes volumes de informação. Com um crescimento de dados de 34% ao ano, dois velhos conceitos da época dos mainframes estão ressurgindo: o Information Lifecycle Management (ILM) e o Hierarchical Storage Management (HSM). O primeiro nada mais é do que classificar os dados armazenados em uma empresa, conforme a periodicidade em que são acessados e a data do armazenamento. E o segundo refere-se à hierarquização da informação, como veremos a seguir.

Prioridade da informação

Alguns especialistas de mercado sugerem que um dado não pode ser administrado apenas pelo tempo de vida. Deve ser classificado pela sua importância e hierarquia dentro dos negócios, com o conceito da hierarquização das informações (HSM). Ele estabelece limites para cada usuário armazenar arquivos, variando conforme a atividade e o cargo de cada um. O HSM pode ser usado não só nos dados, mas também nas aplicações, como e-mail e banco de dados, a partir de uma classificação detalhada. Apesar dos discursos otimistas dos fornecedores, apenas agora os clientes começam a implementar o HSM.

Várias regras podem ser definidas. Arquivos de imagem e aqueles não acessados há mais de cinco anos, por exemplo, podem ser direcionados para fitas para armazenamento fora do equipamento, bem como arquivos do presidente, no storage caro. Em geral, nenhum usuário quer apagar seu e-mail e aí todos ficam com o storage caro (saturado). O software faz automaticamente as mudanças de acordo com as regras criadas: informações com mais de dois anos vão para um storage secundário, por exemplo. Para o usuário, tudo isso é transparente.

Classificar as informações é a maior dificuldade das empresas, já que para cada departamento e para cada pessoa, todos os arquivos são importantes. O início do projeto de gerenciamento é entender como funciona o negócio e quais são as informações fundamentais. Os consultores da área precisam realizar diversas entrevistas com nível gerencial para perceberem o que é cada área da companhia e de que tipo de informações os usuários realmente necessitam. O trabalho também deve incluir a participação do departamento judiciário, pois alguns documentos têm de ser guardados por questões legais.

O fim da Torre de Babel

Normalmente, uma empresa tem várias marcas de storage na rede, mas um não fala com o outro – se existem três discos de 1 GB cada, a companhia tem três discos de 1 GB cada, e não um total de 3 GB. Isso muitas vezes faz com que um disco fique saturado, enquanto outro está com baixo uso. A administração de dados fica mais complicada. Os fabricantes não têm ferramentas que gerenciem os equipamentos da concorrência. Isso acontece porque as fornecedoras não trocam instruções que permitem gerenciar completamente o produto de outro desenvolvedor – ou API (application program interface), um conjunto de rotinas, protocolos e ferramentas para a construção do software.

Fabricantes falam de Virtualização, mas cada empresa tem um conceito e o básico diz que, independentemente do servidor e de qual sistema operacional, ele terá acesso ao dado. Antes disso, cada sistema operacional tinha de acessar a informação pela sua porta proprietária. Por vezes, a empresa tem uma cópia da mesma informação porque ela precisa ser acessada por diferentes plataformas.

Com a Virtualização, os clientes podem criar camadas de armazenamento entre sistemas de diferentes fabricantes, possibilitando uma visão unificada e consolidada da capacidade total de storage. Em vez de acessar a informação diretamente da base, acessa pelo servidor de Virtualização.

Gerenciamento de dados envolve ainda backup, restore e business continuity e as empresas que ainda não fazem gerenciamento dos dados estão perdendo dinheiro. Uma administração malfeita gasta horas de trabalho do profissional, além do risco de perder a informação para

sempre. Softwares de gerenciamento resolvem esse problema: eles automatizam a operação de backup e diminuem a necessidade de manutenção.

Portanto, ambientes de armazenamento consolidados possuem menos elementos a gerenciar, o que pode aumentar a utilização de recursos e simplificar o gerenciamento do armazenamento. Além disso, podem oferecer a capacidade de compartilhar servidores de armazenamento a grandes distâncias e de proporcionar economia na escala de propriedade de servidores de armazenamento em disco.

Com uma estrutura virtualizada, pessoas, processos e tecnologia concentram-se em níveis de serviço, a capacidade é alocada dinamicamente, a infra-estrutura inteira é simplificada e flexibilizada, além de permitir um modelo utilitário ou pay-per-use para serviços de TI.

Módulo 4 - A evolução

O que há em software e hardware para a simplificação da infraestrutura das empresas

Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em hospedagem. As primeiras tecnologias de Virtualização que surgiram foram soluções com base em armazenamento. Elas permitem que vários servidores compartilhem o acesso

a dados em um único array, variável que armazena um conjunto de valores do mesmo tipo.

O lado negativo, no entanto, é que esses servidores não podem acessar os dados além de

seu próprio array.

Além disso, os usuários estão arriscados a ficar limitados a soluções que dependam dos fabricantes, com base nas restrições de compatibilidade de hardware do array mais amplo ou dos servidores diretamente conectados. A Virtualização com base no armazenamento pode então ser mais dispendiosa do que outras alternativas de menor prioridade.

Já as soluções baseadas em hospedagem permitem aos discos alocados nos vários arrays, de diversos fabricantes, apresentarem-se como um agrupamento virtual para um único servidor host. Isso possibilita mais flexibilidade para habilitá-los a ser completamente independentes dos fabricantes de soluções de armazenamento, embora ainda desfrutem dos benefícios da administração de armazenamento centralizada a partir de um único console.

Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, esse pode se tornar altamente disponível, garantindo a utilização dos dados. A desvantagem em potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Assim, podem ser considerados a duplicação dos dados ou outros métodos de Virtualização de armazenamento.

A arquitetura in-band insere o dispositivo de Virtualização na rede de dados entre o host e o

array. Esses dispositivos oferecem volume de gerenciamento e outras funcionalidades complementares como movimento de dados e serviço de cópias. Ele faz a substituição dos controladores de storage para os dispositivos que estão sendo virtualizados.

A primeira vantagem dessa abordagem é a simplicidade. Um novo dispositivo próprio pode

ser desenvolvido para atuar como um ponto central de gerenciamento para múltiplos sistemas conectados. A recente aparição em larga escala de arrays monolíticos de alta performance em dispositivos in-band de virtualização evidencia essa vantagem.

Em um dado momento, para grandes ambientes, até mesmo a estratégia de escalabilidade pode se provar insuficiente e será necessário desenvolver um novo dispositivo in-band. Cada um desses dispositivos tem responsabilidade de domínios de virtualização separados, resultando na necessidade de gerenciar ilhas independentes de Virtualização. A conseqüência disso pode potencializar e “pesar” nos benefícios originais de redução da complexidade e da simplificação do gerenciamento proporcionados pela Virtualização.

Arquitetura Out-of-Band

A abordagem out-of-band foi desenvolvida para evitar os desafios de performance inerentes

à arquitetura in-band, separando o gerenciamento da informação do data flow. Na

arquitetura out-band, um pedaço separado do hardware, chamado de servidor de metadado, que contém informação sobre as relações lógicas e físicas da Virtualização do storage, comunica-se com cada servidor. Essa comunicação é dada em uma rede separada independente da Fibre Channel, usada no tráfego de dados.

Como as demandas do host para a Virtualização do storage vão direto para o dispositivo para o qual ele é destinado, a performance fica livre da latência adicional ou de problemas de banda. Ou seja, a abordagem out-of-band é teoricamente mais desejável para aplicações de alta performance. Ela também evita problemas com a integridade do dado, inerente à in- band. As diferentes versões do dado sempre causam problemas para a rede. Mas quando o dado é eficientemente armazenado no array, o host recebe a informação que o trabalho já está completo.

Esse tipo de abordagem out-of-band introduz algum nível de flexibilidade no sistema baseado em host. Há, entretanto, uma abordagem mais refinada do out-of-band para solucionar esse desafio de gerenciamento e flexibilidade. Essa abordagem foi alavancada pelos switches inteligentes de SAN (Storage Area Networks), como uma plataforma para o desenvolvimento da rede baseada na Virtualização do storage.

A abordagem do switch baseado no out-of-band é também mais acessível à estratégia de

escalabilidade. A maioria dos processos de entrada e saída é gerenciada diretamente pelo

processador no switch inteligente, incrementando a escalabilidade. Podem ser acrescentados, conforme a necessidade, mais processadores. Isso pode ser concluído adicionando outro switch no sistema ou outro processador blade.

Em resumo, teoricamente essa arquitetura é capaz de escalar um grande número de configurações e possui escalabilidade necessária para estender os benefícios da Virtualização do storage a grandes data centers.

Fornecedores aprimoram produtos

A baixa utilização dos sofisticados ambientes de armazenamento de dados, que cresceram

nas corporações nos últimos anos, não é uma surpresa nos departamentos de Tecnologia da Informação. Baseados em múltiplas plataformas, de diferentes fornecedores, esses sistemas

acabam dando muito trabalho aos gestores, quando gerenciam e planejam as novas necessidades de armazenamento.

Esse problema recorrente tem sido a justificativa de empresas do mundo inteiro para aderirem às novidades sobre Virtualização dos sistemas de armazenamento de dados que chega ao País. Os fornecedores de soluções de Virtualização, como EMC, Hitachi, Storagetek, HP e IBM acreditam que seus produtos precisam ter o objetivo de superar dificuldades de gerenciamento de ambientes heterogêneos de storage e reduzir a escalada de custos.

Não é uma simples questão de marketing. Para os fornecedores, a Virtualização é hoje uma decisão estratégica. Há motivações para isso: o volume de dados está em explosão – segundo analistas, cresce até 400% ao ano com a utilização de novas aplicações nas áreas de comércio eletrônico, gestão da cadeia de fornecedores, mensagens eletrônicas, entre outras. Além disso, muitas empresas investiram excessivamente em múltiplas arquiteturas de storage para suportar essa gama variada de aplicações, acessada em diferentes bases de dados.

É uma exigência dos clientes que a EMC, fabricante norte-americana de sistema de storage,

está procurando atender uma plataforma de Virtualização em rede SAN. O sistema integra hardware e software na arquitetura out-of-band, que coloca a inteligência de Virtualização na rede de armazenamento – e não nos dispositivos ou arrays – para eliminar impactos sobre a performance do servidor ou da aplicação.

Ao contrário da EMC, que investiu no out-band, a Hitachi Data Systems investiu na arquitetura in-band para virtualização do ambiente de armazenamento multifornecedor. A filial brasileira tem projetos que combinam hardware e software e trazem a virtualização para a controladora de storage, evitando sobrecarga da rede, servidores ou switches, permitindo acessar os dados em diferentes equipamentos de storage por meio de um único ponto de contato.

A HP incluiu em seu portfólio pelo menos cinco linhas de soluções: Virtualização via software no servidor; interna no disk array, em arquitetura in-band; em rede SAN de alta performance; e por meio de grid computing. Com presença muito forte no segmento high end, a HP investe forte também no segmento das pequenas e médias empresas com a família de sistemas EVA.

É uma solução de disk array virtual que pode atingir capacidades acima de 8 terabytes. O

sistema faz a Virtualização dos discos, ou seja, a agregação das informações no storage. Impõe facilidades de criar caminhos de acesso aos dados e favorece o crescimento dinâmico dos volumes armazenados sem prejudicar as aplicações, além de implementar o espelhamento remoto.

No caso da IBM, a linha de Virtualização da empresa não se prendeu às nomenclaturas in- band ou out-of-band. São dois produtos, o SAN File Systems e o SAN Volume Controller, que trabalham em uma camada entre os servidores de aplicação e a SAN, dentro dos conceitos de Virtualização de arquivos e lógica.

Vários sistemas operacionais na mesma máquina

Conhecida como Vanderpool, a tecnologia de Virtualização da Intel permite que um único processador funcione como vários deles, trabalhando em paralelo, de modo a permitir que diversos sistemas operacionais sejam executados ao mesmo tempo em uma mesma máquina. Trata-se dos processadores Pentium 4 – 672 e 662 – com suporte à sua tecnologia de Virtualização (VT).

Com a técnica de Virtualização, um único processador pode funcionar como se fossem vários trabalhando em paralelo. Diferente de multitarefa ou Hyper-Threading, lançada em 2002 pela Intel, pois no primeiro caso, existe um único sistema operacional e vários programas trabalhando em paralelo. Já a tecnologia Hyper-Threading simula dois processadores lógicos em um único processador físico e distribui as tarefas entre eles usando o conceito SMP (multiprocessamento simétrico). Na tecnologia Hyper-Threading os processadores lógicos não podem ser usados de forma separada.

Já na Virtualização, são vários sistemas operacionais trabalhando em paralelo, cada um com diversos programas em execução. Cada sistema operacional roda em um “processador virtual” ou “máquina virtual”. Se um processador tem suporte a ambas as tecnologias, Hyper-Threading e Virtualização, cada processador virtual aparecerá para o sistema operacional como se fossem dois processadores disponíveis no micro para multiprocessamento simétrico.

Existe uma vantagem em implementar essa tecnologia no processador. O processador com tecnologia de Virtualização possui algumas novas instruções para controlar a Virtualização. Com essas instruções, o controle do software (chamado VMM, Virtual Machine Monitor) pode ser mais simples, o que resulta em um melhor desempenho se comparado a soluções baseadas apenas em software.

A tecnologia de Virtualização da Intel necessita de um computador com um único processador, chipset, BIOS, Virtual Machine Monitor (VMM) e em alguns casos, software de plataforma habilitado para ela. Funcionalidades, desempenho e outros benefícios irão variar de acordo com as configurações de hardware e software.

Módulo 5 - Solução completa (Intel + Vmware)

A parceria da Intel com a VMware, incluindo os investimentos feitos pela Intel Capital e a oferta do Intel Virtualize ASAP.

VMWare é um software/máquina virtual que permite a instalação e utilização de um sistema operacional dentro de outro, e que dá suporte real a softwares de outros sistemas. O nome faz uma brincadeira verbal com Virtual Machine (máquina virtual), nome técnico dado a um sistema operacional rodando sob o VMware.

Ao usar software de virtualização, como o VMware, um ou mais sistemas operacionais podem funcionar simultaneamente num ambiente isolado, como se fossem computadores completos (virtuais), rodando dentro de um computador físico que pode comportar um sistema operacional totalmente distinto.

Do ponto de vista do usuário e do software, nem sequer se nota a diferença entre a máquina real e a virtual. É muito usado em centros de dados, pois permite criar

redundância e segurança adicional, sem recorrer a tantas máquinas físicas, bem como distribuindo e aproveitando melhor os recursos das máquinas hospedeiras.

A empresa desenvolvedora do VMware, a VMware Inc., localiza-se em Palo Alto, Califórnia,

Estados Unidos e é uma subsidiária da EMC Corporation.

Versões do produto

VMware Workstation: Esta versão é voltada ao uso no desktop, em ambientes de desenvolvimento. Atualmente está na versão 5.5.3, e roda em CPU’s Intel e AMD de 32 e 64 bits. Permite rodar vários “computadores virtuais” dentro de um sistema operacional (que pode ser o Windows ou o Linux). Cada um desses computadores pode rodar seu próprio sistema operacional. O computador simulado pode ter uma quantidade de RAM definida (até 3600 MB no VMware 5.5.3; até 8GB, desconsiderando limitações do hardware, no VMware 6.0) e um disco virtual delimitado (até 950 GB). Ele pode “simular” um drive de CD-ROM, placas de rede (até três no VMware 5.5.3; até dez no VMware 6.0 beta), discos rígidos e portas USB (USB 1.1 na versão 5.5.3; USB 2.0 na versão 6.0).

Essa versão possibilita “unir” várias máquinas virtuais, e permite que todas elas sejam iniciadas ou desligadas com um mesmo comando. Também é possível definir redes internas.

O VMware Workstation também suporta três modos de rede: bridged (quando a máquina

virtual é vista como um outro computador na rede, com IP obtido via DHCP); NAT (em que

a máquina virtual se conecta ao computador host, que por sua vez se conecta à rede); e Host-Only (a máquina virtual apenas se conecta ao host).

Essa versão do software também permite criar registros instantâneos (snapshots) de uma máquina virtual num dado momento. Assim, é possível testar configurações, e, se não der certo, pode-se reverter.

VMware Server:

Voltado ao uso em servidores de pequeno e médio porte. Tornou-se gratuito desde 12 de junho de 2006. É um produto de “entrada” para o mercado. Conta com boa parte dos recursos da versão Workstation, e adiciona recursos úteis ao seu uso em servidores, como o gerenciamento remoto (usando uma versão modificada do VNC). O resultado imediato é uma perda de desempenho na interface gráfica, porém isso não é problema para servidores que rodam “headless”, ou seja, sem monitor ou interface gráfica.

VMware ESX Server:

Voltado para uso em servidores de grande porte. Trata-se de um sistema operacional dedicado, que usa um kernel proprietário, baseado no SimOS. O Red Hat Linux é usado para prover os diversos serviços, como gerenciamento remoto. Por rodar em um nível mais próximo do hardware, elimina-se o overhead de ter um sistema base, e aumenta-se a segurança. Por isso, é usado em servidores de grande porte.

VMware Player:

Executa máquinas virtuais prontas. Oficialmente, não é possível criar máquinas virtuais novas, mas é possível contornar essa limitação de três formas:

1) Instalar uma versão de avaliação do VMware Workstation e criando máquinas virtuais novas.

2) Usar appliances (máquinas virtuais fornecidas pela comunidade, que operam como soluções prontas, em que basta apenas rodar).

3) Usar sites não oficiais, como o EasyVMX.

VMware Fusion:

Uma versão experimental para o Mac OS X rodando em Macintosh com CPU Intel.

Outros produtos são: VMware P2V, ferramenta para migrar servidores físicos para máquinas virtuais; VMware VirtualCenter, ferramenta para centralizar o gerenciamento de instalações do VMware; e VMotion, ferramenta para transferir máquinas virtuais entre servidores, de forma tão transparente quanto possível, resultando no mínimo de downtime (tempo com o servidor fora do ar).

Não é um emulador

Ao contrário do que se costuma divulgar, o VMware não é um emulador. Ele vai a um nível mais baixo, em que o processador chega por vezes a executar diretamente o código da máquina virtual. Quando isso não é possível, o código é convertido para que o processador não precise trocar para o modo real, o que seria uma perda de tempo.

O VMware é útil para ambientes de desenvolvimento, em que é necessário testar uma aplicação em várias plataformas. Muitas empresas têm produtos multiplataforma, que precisam ser testados em Windows e em diversas distribuições do Linux.

Outra utilidade diz respeito aos ambientes de suporte, em que é preciso dar suporte a diversas aplicações e sistemas operacionais. Um técnico de suporte pode rapidamente usar uma máquina virtual para abrir um ambiente Linux ou Windows.

O VMware também é utilizado na migração e consolidação de servidores antigos. É muito comum que redes, com diversos servidores antigos, demandem um custo de manutenção maior. Com o VMware eles podem ser concetrados em uma só máquina.

Para a manutenção de aplicações antigas e teste de sistemas novos, o VM pode ser usado para testar sistemas operacionais e esse é um dos usos mais comuns do produto. Por exemplo, é possível usá-lo para executar o Windows dentro do Linux ou o oposto.

Ele também costuma ser usado para manter a compatibilidade de hardware, ou seja, alguns hardwares não têm drivers para o Linux ou para versões mais recentes do Windows. Nesse caso, é possível usar hardwares (ligados pela porta paralela ou USB) com uma máquina virtual.

Ele ainda se presta a simulação de instalações complexas de rede e para apresentação de demonstrações de sistemas completos prontos para usar, tipicamente referidas como VMware appliances.

Num ambiente protegido, é típico usar balanceador de carga, vários firewalls e quatro servidores físicos para alojar com segurança um único site que use servidor web e base de dados. Com máquinas virtuais, é possível criar redundância contra falhas e segurança adicional contra intrusão sem recorrer a tantas máquinas físicas e distribuindo e aproveitando melhor os recursos das máquinas hospedeiras.

Apesar de tantas vantagens e usos, alguns analistas apontam certas limitações do VMware. Ele não funciona em sistemas operacionais muito antigos (como o caso das distribuições Linux baseadas em kernel 2.0 ou 2.2). O VMware Workstation requer uma correção para rodar no Linux com kernels 2.6 mais recentes. Há apenas suporte experimental à aceleração 3D, tornando o VMware inviável para o uso de jogos. E, finalmente, existem alguns problemas com o uso de placas de rede sem fio (Wireless), sendo necessário usar o modo NAT.

Aquisição pela EMC

A EMC Corporation, líder mundial em armazenamento e gerenciamento de informações, é a

detentora da VMware, Inc. – companhia líder mundial em software de computação virtual baseada na plataforma Intel, com sede em Palo Alto (EUA). A aquisição teve papel fundamental na estratégia da EMC de ajudar os clientes a reduzir custos e a simplificar operações. Com a aquisição, a EMC planejava implementar tecnologias de Virtualização em suas infra-estruturas de TI heterogêneas, para criar um conjunto único de recursos de storage e computação.

A EMC espera que a sua inovação em Virtualização de storage e a liderança da VMware em

Virtualização de servidor sirvam como base para soluções de gerenciamento do ciclo de vida da informação da próxima geração. Essa “infraestrutura de informação virtual” possibilitará que as organizações configurem e reconfigurem dinamicamente seus ambientes de computação e armazenamento de dados, sem tempo inativo na medida da dinâmica dos seus negócios.

O software VMware é usado por organizações em todo o mundo para consolidar servidores

subutilizados, reduzir o tempo de provisionamento de servidor de semanas para dezenas de segundos, mover dinamicamente cargas de trabalho de aplicação entre servidores e estações de trabalho sem interrupção do serviço, e eliminar o tempo de inatividade para manutenção, implementação ou migração de hardware.

Aporte da Intel

Em meados de 2007, a VMware, Inc. anunciou que recebeu aporte de capital no valor de 218,5 milhões de dólares da Intel Capital, braço de investimento da Intel Corporation. Quando foi divulgada, a operação ainda passaria pelos órgãos regulatórios, mas a estimativa era que, com a movimentação, a Intel Capital passasse a deter 2,5% de todas as ações comuns da VMware. Na época do anúncio mundial, informou-se que um executivo da Intel seria nomeado para o conselho da VMware. O objetivo da Intel, com o aporte, foi aumentar a adoção de tecnologia VMware na arquitetura Intel, melhorando a virtualização para os clientes.

Além disso, a VMware e a Intel iniciaram um acordo de parceria e de colaboração, que expressa a intenção de ambas as companhias em desenvolver esforços conjuntos em iniciativas de desenvolvimento, de marketing e industriais.

Módulo 6 - Simplificando e otimizando o datacenter

As vantagens de otimizar o datacenter com a virtualização, tipos de projetos disponíveis e redução de custos.

O crescimento do uso da Virtualização é particularmente forte no espaço dos servidores

empregados em grande volume, como nos datacenters. A capacidade de executar várias aplicações em um mesmo servidor, por exemplo, bancos de dados, sistemas de ERP ou CRM, está impulsionando a adoção de servidores virtuais e deve continuar a influenciar futuras instalações de hardware.

A Virtualização do servidor está transformando a maneira como as principais empresas de

TI fornecem e gerenciam seus sistemas e aplicativos, ajudando-as a consolidar sua infraestrutura, otimizar a utilização, reduzir os custos totais e melhorar a agilidade empresarial.

Com um software de Virtualização de servidor, é possível consolidar vários sistemas operacionais e pilhas de software em uma única plataforma e alocar dinamicamente os recursos dessa plataforma para atender exigências específicas da empresa e dos aplicativos.

Os principais benefícios das soluções atuais do software de Virtualização do servidor abrangem diversos aspectos, entre eles a consolidação flexível do servidor. Por meio da Virtualização, é possível, de modo rápido e fácil, consolidar diversos sistemas operacionais e aplicativos. O aumento da disponibilidade e da segurança é outro item importante, pois as falhas do software e os ataques digitais são isolados dentro de cada partição virtual, e as partições de superação de falhas oferecem uma abordagem fácil e econômica para ajustar a disponibilidade.

A Virtualização de servidor também oferece simplificação das migrações de sistemas

operacionais e hardware, pois permite a migração dos aplicativos legados e suas versões atuais do sistema operacional, sem mudar para partições virtuais, além de permitir a dinamização de teste e desenvolvimento. Além disso, promove mais agilidade à empresa, pois é possível fornecer ou redimensionar uma partição virtual em minutos, para acomodar novos aplicativos, aumentando as cargas de trabalho e a manutenção do sistema.

Desafio e investimentos

Atualmente, um objetivo imprescindível em qualquer estratégia de TI é consolidar múltiplas funções essenciais às empresas. Normalmente, essas funções encontram-se dispersas por diversos servidores físicos, muitas vezes com diferentes sistemas operacionais. Com a consolidação, é possível otimizar os recursos, reduzir drasticamente custos e aumentar consideravelmente os níveis de serviço disponibilizados aos demais departamentos de uma organização.

Esse objetivo leva os fornecedores a apostarem nesse tipo de solução, investindo em certificações que permitam a apresentação no mercado das habilitações necessárias para dar suporte a soluções personalizadas, de acordo com as necessidades de cada cliente. Este alinha a sua estratégia de consolidação de servidores pela implementação de servidores virtuais e em geral consegue a redução do TCO.

Os objetivos desse tipo de projeto é aumentar a eficiência e a capacidade de colocar rapidamente em funcionamento novos sistemas que endereçam novas exigências. Assim, é

possível garantir o mínimo impacto na estrutura de funcionamento da organização, de modo

a assegurar uma operação ininterrupta, com total redundância de recursos de hardware e

software. Nessas soluções, a busca se dá também pela escalabilidade, tornando viável a adição de processadores, memória, storage, ligações de fibra e rede, já que esses são passíveis de ser totalmente virtualizados na infra-estrutura e partilhados pelas instâncias lógicas de sistemas MS Windows e Linux.

Embora sejam grandes as vantagens proporcionadas por esses sistemas, não existem dados que mostrem a adoção de Virtualização no Brasil, mas estima-se que a utilização seja baixa, pois o País ainda investe pouco em inovação tecnológica, em comparação aos Estados Unidos e a países do continente europeu.

Em média, os empresários que trabalham com pesquisa e desenvolvimento não aplicam mais do que 0,64% de seu faturamento em inovação, seja na melhoria de seus produtos, seja na compra de equipamentos, segundo dados da Associação Nacional de Pesquisa, Desenvolvimento e Engenharia das Empresas Inovadoras (Anpei). Apenas 30% de todas as empresas brasileiras fazem algum tipo de inovação, sendo os setores de informática, eletrônico e químico os que mais inovam.

Para que a inovação seja priorizada nas empresas brasileiras é preciso ampliar ainda mais os incentivos fiscais e as subvenções econômicas. A Lei de Inovação já representa um grande avanço no setor, pois permite às corporações inovadoras abaterem no Imposto de Renda, por exemplo, 160% do total investido em P&D, podendo chegar a 200%, caso apresentem em seus quadros mestres e doutores, além de produtos patenteados. Hoje, as companhias com mais de 500 funcionários são as que apresentam as maiores taxas de investimento em P&D.

Virtualização avançada

A IBM anunciou um produto que designa como “propulsor de virtualização”, um software

que permitirá aos usuários operar até dez servidores com um único microprocessador. O software será incorporado aos seus servidores não-mainframe permitindo que eles se clonem, o que possibilitaria aos usuários dividir servidores e outros sistemas em unidades distintas, mais ou menos como acontece com um computador mainframe.

A tecnologia funciona com o sistema operacional Unix ou outros sistemas não relacionados a

mainframes. Um servidor normalmente dispõe de um ou mais microprocessadores, que operam como o cérebro do computador. Um sistema com quatro processadores e usando essa tecnologia de software teria poder equivalente ao de 40 processadores, usando um ou múltiplos sistemas operacionais ou versões deles ao mesmo tempo, segundo a IBM.

Em suma, a demanda por potência e storage continua crescendo exponencialmente. Nos mercados de servidores e armazenamento, as mudanças nas dinâmicas do mercado causarão alterações grandes nas empresas usuárias e nos fornecedores. As aplicações de hoje fazem com que a disponibilidade 24 por 7 e a continuidade dos negócios sejam críticas para as corporações. A pressão para cumprir a disponibilidade e o desempenho, reduzir custos, melhorar serviços e minimizar riscos nunca foi tão alta.

Segundo o Gartner, os mercados de servidores e de armazenamento enfrentarão mudanças dramáticas nos próximos anos. Os paradigmas tradicionais de computação sofrerão

ameaças invasivas, na medida em que Linux e MS Windows tornarem-se fatores mais significativos nas aplicações de missão crítica de toda a empresa.

Enquanto isso, grupos expansivos de dados dinâmicos e estáticos gerarão novos desafios na administração do armazenamento. A visualização e a segmentação tornaram-se componentes críticos numa arquitetura simétrica para servidores e armazenamento. A seleção da plataforma de servidores continua sendo um aspecto vital para muitas soluções comerciais viáveis e os usuários precisam equilibrar o risco de prender-se a um fornecedor contra os benefícios potenciais das novas tecnologias.

Porém, antes de empregar qualquer tecnologia, as corporações precisam avaliar a possibilidade de gerenciamento da solução de Virtualização, o efeito (positivo e negativo) nos processos atuais e a velocidade do retorno sobre o investimento. Além disso, têm de analisar estratégia de longo prazo de saída/migração e também de automação e Virtualização numa escala mais ampla, o efeito nos custos de aplicação do software (baseado no licenciamento e no preço que não são muito favoráveis à Virtualização e à consolidação).

Virtualização e ciclo de vida da informação

Paralelamente à Virtualização, uma boa opção para melhorar o uso do storage é a implementação da gestão do ciclo de vida da informação armazenada nos dispositivos da empresa. Estudos mostram que os dados da maioria das aplicações não têm necessidade de estar disponíveis para acesso on-line na medida em que o tempo passa.

Um exemplo disso são as mensagens no correio eletrônico. Normalmente, após 45 dias do recebimento, elas não precisam consumir espaço em disco mais rápido e, conseqüentemente, mais caro. Por isso, no lugar de comprar discos, pode ser uma boa alternativa migrar automaticamente as informações usadas com menos freqüência para unidades de fita ou discos mais lentos, reduzindo sensivelmente os novos investimentos em storage.

A lista do potencial desperdício em storage é tão grande que torna possível misturar todas

essas soluções e reduzir muito a necessidade de novos investimentos nessa área. Talvez essa seja a maior justificativa para o fato de os próprios fabricantes de discos estarem discursando que seus produtos se tornaram commodities e que o diferencial da área está na oferta de softwares e serviços.

Adoção crescente

A Forrester indica em seu relatório que essa evolução pode ser atribuída a dois fatores

principais: mais disponibilidade de tecnologias sobre o tema, e maior esforço dos fornecedores do setor. De acordo com o instituto de pesquisas, a Virtualização de servidores tornou-se mainstream nos servidores x86 em diversas empresas, ao contrário de ser uma tecnologia de nicho em Unix. O levantamento destaca a competição do líder VMware com a solução da Microsoft Virtual Server e o produto open source Xen.

As estatísticas apontam que 53% dos entrevistados preferiram o VMware, solução adquirida pela EMC, como único fornecedor que eles levam em consideração para virtualizar servidores Intel, contra 11% que opta pela HP e 9% pela Microsoft.