Escolar Documentos
Profissional Documentos
Cultura Documentos
Courses Virtualização
Courses Virtualização
A Virtualização é uma forma de criar sistemas menos complexos, que dividem os subconjuntos
de sistemas em dispositivos mais gerenciáveis. Além disso, essa medida pode proporcionar mais
segurança ao sistema, à rede e aos aplicativos, pois isola subsistemas potencialmente
vulneráveis de sistemas subjacentes e de outras plataformas virtuais.
Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os benefícios
imediatos desse processo, que podem ser obtidos também na predominante arquitetura de
armazenamento de dispositivos conectados diretamente – DAS (Direct Attached Storage).
Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos
físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica,
enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na
medida em que o novo hardware se torna disponível ou que as características do aplicativo se
modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos
dados no dispositivo lógico.
Conceito de Storage
Necessidade recente
É uma realidade nas empresas o crescente volume de informações geradas por novas
aplicações, que exigem maior capacidade para suportar diferentes naturezas – dados, voz e
imagem. Esse fato, associado aos sistemas legados, passa a ser um problema na maior parte das
organizações.
A série de mainframes da IBM teve grande sucesso justamente por oferecer um caminho
contínuo de evolução, sem obrigar ninguém a abandonar legados de hardware ou de software.
Porém, o alto custo de hardware dos mainframes encorajou a migração para os
microcomputadores. Essa foi a chance de começar tudo do zero, eliminando o legado de
programas em COBOL, PL/1 e outros específicos do mundo do mainframe.
Porém, poucos contavam que a microinformática acabaria formando também seu legado, muito
maior e bem mais heterogêneo do que o dos mainframes. E isso reuniu equipamentos de
diferentes fabricantes, com variadas aplicações, dificilmente integrados. O legado é ruim, pois
atrasa a evolução tecnológica, demandando recursos que poderiam ser aplicados em uma
arquitetura mais moderna. Além disso, tende a manter o uso de tecnologias obsoletas, inclusive
hardware.
Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no tratamento dos
legados. Geralmente, a Virtualização é assistida por hardware. Embora esse recurso exista desde
os mainframes, não é útil apenas para legados, mas auxilia bastante no teste de novas
tecnologias. O simples fato de o Microsoft Windows rodar programas MS-DOS não deixa de ser
uma espécie de Virtualização, pois cada sessão DOS é um processador de 16 bits virtual.
Orçamento apertado
Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus padrões
de gastos, é especialmente importante usar todos os recursos tecnológicos em sua total
capacidade. Segundo o Gartner Group, cada dólar investido em storage exige US$ 5 de recursos
de TI para administrá-lo. Na medida em que os ambientes continuam a evoluir e tornam-se cada
vez mais complexos, aumenta a necessidade de minimizar os crescentes custos de administrar
quantidades de dados cada vez maiores.
Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos
físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica,
enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na
medida em que o novo hardware se torna disponível ou que as características do aplicativo se
modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos
dados no dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento que
têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em
armazenamento e em hospedagem.
Emulação e Virtualização
Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais perseguidos da
indústria da tecnologia: um emulador quase universal que permite rodar softwares desenvolvidos
para uma determinada plataforma, em qualquer outra, praticamente sem quedas no desempenho.
Isso inclui Macs, PCs e diversos tipos de mainframes e servidores.
Uma das conseqüências dos incidentes terroristas de 11 de setembro de 2001, em Nova York
(EUA), foi a mudança de visão por parte das empresas sobre suas estratégias de proteção de
dados. As companhias estavam desprevenidas e não contavam com a perda de valiosas
informações de negócios e com a ameaça contra sua própria sobrevivência. E como ninguém
deseja correr riscos, o tema continuidade de negócios passou a merecer atenção especial dos
gestores de tecnologia.
Manter um Business Continuity Plan passou a ser algo fundamental, de fato. Algumas empresas
optam por uma estratégia definida por áreas para garantir recuperação total de seus dados
estratégicos diante de qualquer contratempo. Para algumas organizações, a continuidade de
negócios é vista como um organismo. O gerenciamento de riscos e os processos apontam o que
é preciso para o prosseguimento das operações e isso é feito gerando avaliações e revisões que
atualizam o plano de continuidade conforme as necessidades atuais do negócio, que podem
mudar de ano para ano.
O ponto de união entre eles é dispor de recursos tecnológicos, de acordo com a necessidade da
empresa, alinhando os sistemas de informação à visão estratégica das companhias. Para trazer
esses conceitos à realidade, as empresas são convidadas a abandonar as infra-estruturas
verticais (preconizadas por todos esses fornecedores durante muito tempo), organizadas por silos
(aplicação com os seus servidores e o seu armazenamento) mais ou menos independentes. A
idéia é passar para infra-estruturas baseadas em recursos virtualizados, que podem ser
partilhados por todos os serviços e aplicações.
Essas soluções têm como alvo a definição dos processos críticos das empresas, a visualização
dos componentes implicados (aplicações, middlewares, servidores, armazenamento e rede), a
detecção pró-ativa dos problemas de funcionamento, a correlação dos diferentes alertas e a
automatização das correções necessárias, de acordo com uma base de conhecimento. No
entanto, o campo de ação desses softwares é limitado com freqüência pela sua incapacidade de
gerir diretamente os recursos.
Novos investimentos
Em pesquisa da IDC, em 2007, com 782 empresas brasileiras, o nível de satisfação com a base
instalada de hardware e software de segurança, sistemas de storage e softwares de
gerenciamento de sistemas mostrou-se como um dos mais baixos na pesquisa. Esse resultado
reflete novos investimentos em capacidade de TI, que acabam por gerar uma série de pequenas
ilhas de sistemas, difíceis de controlar, gerenciar e proteger.
Quanto aos desafios e preocupações atuais dos CIOs em relação à infra-estrutura de TI, a IDC
observou que há uma apreensão crescente com a escalabilidade e com os custos de
gerenciamento e manutenção para garantir alta disponibilidade, performance e agilidade dos
equipamentos, aumentar o controle sobre a infra-estrutura sem, no entanto, ampliar a equipe de
manutenção e gerenciamento e os custos.
Além disso, é preciso crescer a segurança dos dados críticos sem elevar os custos das
informações armazenadas e, finalmente, ter como parceiro um Full Service Provider de
infra-estrutura, ou seja, aquele fornecedor capaz de prover soluções de hardware, software e
serviços.
Em relação ao storage, a IDC divulgou, no começo de 2007, sua previsão para o ano: a
infra-estrutura de TI na América Latina estaria caminhando para o modelo de Dynamic IT: 2007
seria o ano de educação quanto à virtualização, não apenas na América Latina como em todo o
mundo. De acordo com a IDC, aprender a aplicar melhor sua infra-estrutura de hardware, software
e serviços seria a meta das empresas da região em 2007.
Uma das empresas que está investindo em virtualização é a própria IBM. A companhia trocou,
em 2007, 4 mil servidores de pequeno porte por 30 mainframes Linux, rodando máquinas virtuais.
Com a mudança, economizou 250 milhões de dólares em despesas de manutenção e de
consumo de energia. Os servidores físicos que serão substituídos por máquinas virtuais estão
localizados em seis data centers em vários países.
Os equipamentos usados ocupam um espaço de quase 2,5 milhões de metros quadrados, o que
equivale a 300 campos de futebol, somadas as áreas de todos os terrenos. Essa iniciativa faz
parte do plano da IBM de dobrar sua capacidade de armazenar dados até 2010, mas sem usar
mais energia elétrica, nem aumentar a emissão de carbono na atmosfera. Com os novos espaços,
a empresa quer melhorar a logística dos prédios, alterando inclusive sistemas de iluminação e de
ar condicionado.
A Virtualização chegou à indústria de chips. Hoje, um software tem múltiplos recursos para rodar
em diferentes sistemas operacionais em uma plataforma única. A nova tecnologia de
processadores, já em desenvolvimento, vai tornar esse processo mais simples. O processador
para desktop Intel® Core™ 2 Duo, por exemplo, suporta recursos para melhoria da segurança,
virtualização e computação de 64 bits.
4 - A evolução
Além disso, os usuários estão arriscados a ficar limitados a soluções que dependam dos
fabricantes, com base nas restrições de compatibilidade de hardware do array mais amplo ou dos
servidores diretamente conectados. A Virtualização com base no armazenamento pode então ser
mais dispendiosa do que outras alternativas de menor prioridade.
Já as soluções baseadas em hospedagem permitem aos discos alocados nos vários arrays, de
diversos fabricantes, apresentarem-se como um agrupamento virtual para um único servidor host.
Isso possibilita mais flexibilidade para habilitá-los a ser completamente independentes dos
fabricantes de soluções de armazenamento, embora ainda desfrutem dos benefícios da
administração de armazenamento centralizada a partir de um único console.
Embora os dados estejam concentrados para acesso apenas por meio de um único servidor,
esse pode se tornar altamente disponível, garantindo a utilização dos dados. A desvantagem em
potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos
mesmos dados. Assim, podem ser considerados a duplicação dos dados ou outros métodos de
Virtualização de armazenamento.
A primeira vantagem dessa abordagem é a simplicidade. Um novo dispositivo próprio pode ser
desenvolvido para atuar como um ponto central de gerenciamento para múltiplos sistemas
conectados. A recente aparição em larga escala de arrays monolíticos de alta performance em
dispositivos in-band de virtualização evidencia essa vantagem.
Em um dado momento, para grandes ambientes, até mesmo a estratégia de escalabilidade pode
se provar insuficiente e será necessário desenvolver um novo dispositivo in-band. Cada um
desses dispositivos tem responsabilidade de domínios de virtualização separados, resultando na
necessidade de gerenciar ilhas independentes de Virtualização. A conseqüência disso pode
potencializar e “pesar” nos benefícios originais de redução da complexidade e da simplificação do
gerenciamento proporcionados pela Virtualização.
Arquitetura Out-of-Band
Como as demandas do host para a Virtualização do storage vão direto para o dispositivo para o
qual ele é destinado, a performance fica livre da latência adicional ou de problemas de banda. Ou
seja, a abordagem out-of-band é teoricamente mais desejável para aplicações de alta
performance. Ela também evita problemas com a integridade do dado, inerente à in-band. As
diferentes versões do dado sempre causam problemas para a rede. Mas quando o dado é
eficientemente armazenado no array, o host recebe a informação que o trabalho já está completo.
Esse tipo de abordagem out-of-band introduz algum nível de flexibilidade no sistema baseado em
host. Há, entretanto, uma abordagem mais refinada do out-of-band para solucionar esse desafio
de gerenciamento e flexibilidade. Essa abordagem foi alavancada pelos switches inteligentes de
SAN (Storage Area Networks), como uma plataforma para o desenvolvimento da rede baseada na
Virtualização do storage.
A baixa utilização dos sofisticados ambientes de armazenamento de dados, que cresceram nas
corporações nos últimos anos, não é uma surpresa nos departamentos de Tecnologia da
Informação. Baseados em múltiplas plataformas, de diferentes fornecedores, esses sistemas
acabam dando muito trabalho aos gestores, quando gerenciam e planejam as novas
necessidades de armazenamento.
Esse problema recorrente tem sido a justificativa de empresas do mundo inteiro para aderirem às
novidades sobre Virtualização dos sistemas de armazenamento de dados que chega ao País. Os
fornecedores de soluções de Virtualização, como EMC, Hitachi, Storagetek, HP e IBM acreditam
que seus produtos precisam ter o objetivo de superar dificuldades de gerenciamento de ambientes
heterogêneos de storage e reduzir a escalada de custos.
Não é uma simples questão de marketing. Para os fornecedores, a Virtualização é hoje uma
decisão estratégica. Há motivações para isso: o volume de dados está em explosão – segundo
analistas, cresce até 400% ao ano com a utilização de novas aplicações nas áreas de comércio
eletrônico, gestão da cadeia de fornecedores, mensagens eletrônicas, entre outras. Além disso,
muitas empresas investiram excessivamente em múltiplas arquiteturas de storage para suportar
essa gama variada de aplicações, acessada em diferentes bases de dados.
É uma exigência dos clientes que a EMC, fabricante norte-americana de sistema de storage, está
procurando atender uma plataforma de Virtualização em rede SAN. O sistema integra hardware e
software na arquitetura out-of-band, que coloca a inteligência de Virtualização na rede de
armazenamento – e não nos dispositivos ou arrays – para eliminar impactos sobre a performance
do servidor ou da aplicação.
Ao contrário da EMC, que investiu no out-band, a Hitachi Data Systems investiu na arquitetura
in-band para virtualização do ambiente de armazenamento multifornecedor. A filial brasileira tem
projetos que combinam hardware e software e trazem a virtualização para a controladora de
storage, evitando sobrecarga da rede, servidores ou switches, permitindo acessar os dados em
diferentes equipamentos de storage por meio de um único ponto de contato.
A HP incluiu em seu portfólio pelo menos cinco linhas de soluções: Virtualização via software no
servidor; interna no disk array, em arquitetura in-band; em rede SAN de alta performance; e por
meio de grid computing. Com presença muito forte no segmento high end, a HP investe forte
também no segmento das pequenas e médias empresas com a família de sistemas EVA.
É uma solução de disk array virtual que pode atingir capacidades acima de 8 terabytes. O
sistema faz a Virtualização dos discos, ou seja, a agregação das informações no storage. Impõe
facilidades de criar caminhos de acesso aos dados e favorece o crescimento dinâmico dos
volumes armazenados sem prejudicar as aplicações, além de implementar o espelhamento
remoto.
A parceria da Intel com a VMware, incluindo os investimentos feitos pela Intel Capital e a oferta do
Intel Virtualize ASAP.
Do ponto de vista do usuário e do software, nem sequer se nota a diferença entre a máquina real
e a virtual. É muito usado em centros de dados, pois permite criar redundância e segurança
adicional, sem recorrer a tantas máquinas físicas, bem como distribuindo e aproveitando melhor
os recursos das máquinas hospedeiras.
Versões do produto
Essa versão possibilita “unir” várias máquinas virtuais, e permite que todas elas sejam iniciadas
ou desligadas com um mesmo comando. Também é possível definir redes internas.
O VMware Workstation também suporta três modos de rede: bridged (quando a máquina virtual é
vista como um outro computador na rede, com IP obtido via DHCP); NAT (em que a máquina
virtual se conecta ao computador host, que por sua vez se conecta à rede); e Host-Only (a
máquina virtual apenas se conecta ao host).
Essa versão do software também permite criar registros instantâneos (snapshots) de uma
máquina virtual num dado momento. Assim, é possível testar configurações, e, se não der certo,
pode-se reverter.
VMware Server:
Voltado ao uso em servidores de pequeno e médio porte. Tornou-se gratuito desde 12 de junho
de 2006. É um produto de “entrada” para o mercado. Conta com boa parte dos recursos da versão
Workstation, e adiciona recursos úteis ao seu uso em servidores, como o gerenciamento remoto
(usando uma versão modificada do VNC). O resultado imediato é uma perda de desempenho na
interface gráfica, porém isso não é problema para servidores que rodam “headless”, ou seja, sem
monitor ou interface gráfica.
Voltado para uso em servidores de grande porte. Trata-se de um sistema operacional dedicado,
que usa um kernel proprietário, baseado no SimOS. O Red Hat Linux é usado para prover os
diversos serviços, como gerenciamento remoto. Por rodar em um nível mais próximo do hardware,
elimina-se o overhead de ter um sistema base, e aumenta-se a segurança. Por isso, é usado em
servidores de grande porte.
VMware Player:
Executa máquinas virtuais prontas. Oficialmente, não é possível criar máquinas virtuais novas,
mas é possível contornar essa limitação de três formas:
1) Instalar uma versão de avaliação do VMware Workstation e criando máquinas virtuais novas.
2) Usar appliances (máquinas virtuais fornecidas pela comunidade, que operam como soluções
prontas, em que basta apenas rodar).
VMware Fusion:
Uma versão experimental para o Mac OS X rodando em Macintosh com CPU Intel.
Outros produtos são: VMware P2V, ferramenta para migrar servidores físicos para máquinas
virtuais; VMware VirtualCenter, ferramenta para centralizar o gerenciamento de instalações do
VMware; e VMotion, ferramenta para transferir máquinas virtuais entre servidores, de forma tão
transparente quanto possível, resultando no mínimo de downtime (tempo com o servidor fora do
ar).
Não é um emulador
Ao contrário do que se costuma divulgar, o VMware não é um emulador. Ele vai a um nível mais
baixo, em que o processador chega por vezes a executar diretamente o código da máquina
virtual. Quando isso não é possível, o código é convertido para que o processador não precise
trocar para o modo real, o que seria uma perda de tempo.
O VMware é útil para ambientes de desenvolvimento, em que é necessário testar uma aplicação
em várias plataformas. Muitas empresas têm produtos multiplataforma, que precisam ser testados
em Windows e em diversas distribuições do Linux.
Outra utilidade diz respeito aos ambientes de suporte, em que é preciso dar suporte a diversas
aplicações e sistemas operacionais. Um técnico de suporte pode rapidamente usar uma máquina
virtual para abrir um ambiente Linux ou Windows.
Para a manutenção de aplicações antigas e teste de sistemas novos, o VM pode ser usado para
testar sistemas operacionais e esse é um dos usos mais comuns do produto. Por exemplo, é
possível usá-lo para executar o Windows dentro do Linux ou o oposto.
Ele também costuma ser usado para manter a compatibilidade de hardware, ou seja, alguns
hardwares não têm drivers para o Linux ou para versões mais recentes do Windows. Nesse caso,
é possível usar hardwares (ligados pela porta paralela ou USB) com uma máquina virtual.
Apesar de tantas vantagens e usos, alguns analistas apontam certas limitações do VMware. Ele
não funciona em sistemas operacionais muito antigos (como o caso das distribuições Linux
baseadas em kernel 2.0 ou 2.2). O VMware Workstation requer uma correção para rodar no Linux
com kernels 2.6 mais recentes. Há apenas suporte experimental à aceleração 3D, tornando o
VMware inviável para o uso de jogos. E, finalmente, existem alguns problemas com o uso de
placas de rede sem fio (Wireless), sendo necessário usar o modo NAT.
O software VMware é usado por organizações em todo o mundo para consolidar servidores
subutilizados, reduzir o tempo de provisionamento de servidor de semanas para dezenas de
segundos, mover dinamicamente cargas de trabalho de aplicação entre servidores e estações de
trabalho sem interrupção do serviço, e eliminar o tempo de inatividade para manutenção,
implementação ou migração de hardware.
Aporte da Intel
Em meados de 2007, a VMware, Inc. anunciou que recebeu aporte de capital no valor de 218,5
milhões de dólares da Intel Capital, braço de investimento da Intel Corporation. Quando foi
divulgada, a operação ainda passaria pelos órgãos regulatórios, mas a estimativa era que, com a
movimentação, a Intel Capital passasse a deter 2,5% de todas as ações comuns da VMware. Na
época do anúncio mundial, informou-se que um executivo da Intel seria nomeado para o conselho
da VMware. O objetivo da Intel, com o aporte, foi aumentar a adoção de tecnologia VMware na
arquitetura Intel, melhorando a virtualização para os clientes.
Além disso, a VMware e a Intel iniciaram um acordo de parceria e de colaboração, que expressa
a intenção de ambas as companhias em desenvolver esforços conjuntos em iniciativas de
desenvolvimento, de marketing e industriais.
Embora sejam grandes as vantagens proporcionadas por esses sistemas, não existem dados que
mostrem a adoção de Virtualização no Brasil, mas estima-se que a utilização seja baixa, pois o
País ainda investe pouco em inovação tecnológica, em comparação aos Estados Unidos e a
países do continente europeu.
Em média, os empresários que trabalham com pesquisa e desenvolvimento não aplicam mais do
que 0,64% de seu faturamento em inovação, seja na melhoria de seus produtos, seja na compra
de equipamentos, segundo dados da Associação Nacional de Pesquisa, Desenvolvimento e
Engenharia das Empresas Inovadoras (Anpei). Apenas 30% de todas as empresas brasileiras
fazem algum tipo de inovação, sendo os setores de informática, eletrônico e químico os que mais
inovam.
Para que a inovação seja priorizada nas empresas brasileiras é preciso ampliar ainda mais os
incentivos fiscais e as subvenções econômicas. A Lei de Inovação já representa um grande
avanço no setor, pois permite às corporações inovadoras abaterem no Imposto de Renda, por
exemplo, 160% do total investido em P&D, podendo chegar a 200%, caso apresentem em seus
quadros mestres e doutores, além de produtos patenteados. Hoje, as companhias com mais de
500 funcionários são as que apresentam as maiores taxas de investimento em P&D.
Virtualização avançada
A IBM anunciou um produto que designa como “propulsor de virtualização”, um software que
permitirá aos usuários operar até dez servidores com um único microprocessador. O software
será incorporado aos seus servidores não-mainframe permitindo que eles se clonem, o que
possibilitaria aos usuários dividir servidores e outros sistemas em unidades distintas, mais ou
menos como acontece com um computador mainframe.
A tecnologia funciona com o sistema operacional Unix ou outros sistemas não relacionados a
mainframes. Um servidor normalmente dispõe de um ou mais microprocessadores, que operam
como o cérebro do computador. Um sistema com quatro processadores e usando essa tecnologia
de software teria poder equivalente ao de 40 processadores, usando um ou múltiplos sistemas
operacionais ou versões deles ao mesmo tempo, segundo a IBM.
Enquanto isso, grupos expansivos de dados dinâmicos e estáticos gerarão novos desafios na
administração do armazenamento. A visualização e a segmentação tornaram-se componentes
críticos numa arquitetura simétrica para servidores e armazenamento. A seleção da plataforma de
servidores continua sendo um aspecto vital para muitas soluções comerciais viáveis e os usuários
precisam equilibrar o risco de prender-se a um fornecedor contra os benefícios potenciais das
novas tecnologias.
A lista do potencial desperdício em storage é tão grande que torna possível misturar todas essas
soluções e reduzir muito a necessidade de novos investimentos nessa área. Talvez essa seja a
maior justificativa para o fato de os próprios fabricantes de discos estarem discursando que seus
produtos se tornaram commodities e que o diferencial da área está na oferta de softwares e
serviços.
Adoção crescente
A Forrester indica em seu relatório que essa evolução pode ser atribuída a dois fatores principais:
mais disponibilidade de tecnologias sobre o tema, e maior esforço dos fornecedores do setor. De
acordo com o instituto de pesquisas, a Virtualização de servidores tornou-se mainstream nos
servidores x86 em diversas empresas, ao contrário de ser uma tecnologia de nicho em Unix. O
levantamento destaca a competição do líder VMware com a solução da Microsoft Virtual Server e
o produto open source Xen.
As estatísticas apontam que 53% dos entrevistados preferiram o VMware, solução adquirida pela
EMC, como único fornecedor que eles levam em consideração para virtualizar servidores Intel,
contra 11% que opta pela HP e 9% pela Microsoft.
As vantagens
Estimativas sugerem que 75% das informações na rede ou em ambientes distribuídos não são
efetivamente administrados, significando que não estão armazenados adequadamente ou de
forma a serem recuperados facilmente. Hoje, uma rede típica de storage (Unix, Win2k e Linux)
tem cerca de 2 a 5 terabytes de armazenamento de discos, enquanto a capacidade de
gerenciamento de cada storage é de 400 GB a 500 GB, de acordo com o Manifesto de Storage,
produzido pela Horison Information Strategies, uma consultoria especializada em estratégias e
desenvolvimento de negócios para empresas de storage.
Mesmo sem sistemas formalizados, toda empresa faz alguma espécie de organização dos dados
quando existem informações importantes. Algumas plataformas de sistemas operacionais
oferecem ferramentas de gerenciamento de storage, mas em geral é necessária a utilização de
programas internos para administrar os dados. Enquanto isso, fabricantes investem cada vez mais
em software e conceitos de gerenciamento.
É possível criar regras para cada tipo de arquivo e fazer com que seja transferido
automaticamente para o disco certo. Com um software para esse fim, a empresa pode bloquear
arquivos MP3, ou mandar uma mensagem para alertar o usuário que está sendo monitorado. O
conceito vale para pequenas e médias empresas, cada qual na proporção do volume dos seus
dados.
Mas isso ainda não é suficiente para grandes volumes de informação. Com um crescimento de
dados de 34% ao ano, dois velhos conceitos da época dos mainframes estão ressurgindo: o
Information Lifecycle Management (ILM) e o Hierarchical Storage Management (HSM). O primeiro
nada mais é do que classificar os dados armazenados em uma empresa, conforme a
periodicidade em que são acessados e a data do armazenamento. E o segundo refere-se à
hierarquização da informação, como veremos a seguir.
Prioridade da informação
Alguns especialistas de mercado sugerem que um dado não pode ser administrado apenas pelo
tempo de vida. Deve ser classificado pela sua importância e hierarquia dentro dos negócios, com
o conceito da hierarquização das informações (HSM). Ele estabelece limites para cada usuário
armazenar arquivos, variando conforme a atividade e o cargo de cada um.
O HSM pode ser usado não só nos dados, mas também nas aplicações, como e-mail e banco de
dados, a partir de uma classificação detalhada. Apesar dos discursos otimistas dos fornecedores,
apenas agora os clientes começam a implementar o HSM.
Várias regras podem ser definidas. Arquivos de imagem e aqueles não acessados há mais de
cinco anos, por exemplo, podem ser direcionados para fitas para armazenamento fora do
equipamento, bem como arquivos do presidente, no storage caro. Em geral, nenhum usuário quer
apagar seu e-mail e aí todos ficam com o storage caro (saturado). O software faz
automaticamente as mudanças de acordo com as regras criadas: informações com mais de dois
anos vão para um storage secundário, por exemplo. Para o usuário, tudo isso é transparente.
Classificar as informações é a maior dificuldade das empresas, já que para cada departamento e
para cada pessoa, todos os arquivos são importantes. O início do projeto de gerenciamento é
entender como funciona o negócio e quais são as informações fundamentais. Os consultores da
área precisam realizar diversas entrevistas com nível gerencial para perceberem o que é cada
área da companhia e de que tipo de informações os usuários realmente necessitam. O trabalho
também deve incluir a participação do departamento judiciário, pois alguns documentos têm de
ser guardados por questões legais.
Normalmente, uma empresa tem várias marcas de storage na rede, mas um não fala com o outro
– se existem três discos de 1 GB cada, a companhia tem três discos de 1 GB cada, e não um total
de 3 GB. Isso muitas vezes faz com que um disco fique saturado, enquanto outro está com baixo
uso. A administração de dados fica mais complicada.
Os fabricantes não têm ferramentas que gerenciem os equipamentos da concorrência. Isso
acontece porque as fornecedoras não trocam instruções que permitem gerenciar completamente
o produto de outro desenvolvedor – ou API (application program interface), um conjunto de
rotinas, protocolos e ferramentas para a construção do software.
Fabricantes falam de Virtualização, mas cada empresa tem um conceito e o básico diz que,
independentemente do servidor e de qual sistema operacional, ele terá acesso ao dado. Antes
disso, cada sistema operacional tinha de acessar a informação pela sua porta proprietária. Por
vezes, a empresa tem uma cópia da mesma informação porque ela precisa ser acessada por
diferentes plataformas.
Gerenciamento de dados envolve ainda backup, restore e business continuity e as empresas que
ainda não fazem gerenciamento dos dados estão perdendo dinheiro. Uma administração malfeita
gasta horas de trabalho do profissional, além do risco de perder a informação para sempre.
Softwares de gerenciamento resolvem esse problema: eles automatizam a operação de backup e
diminuem a necessidade de manutenção.