Escolar Documentos
Profissional Documentos
Cultura Documentos
Storage
Storage
1 - Introdução ao Storage
O aumento do volume de informações que circula nas empresas passou a ser crítico em qualquer
corporação e com ele a importância de contar com ferramentas de armazenamento de dados
cresceu. Atualmente, o desafio não é só dimensionar a necessidade de espaço, em função dos
terabytes a serem preservados, mas gerenciar esse processo de forma eficiente para garantir
acesso rápido e inteligente aos dados armazenados. Com isso, o conceito do gerenciamento dos
dados vem evoluindo a cada dia, com o surgimento de novas soluções, estratégias e tendências.
Não tardou a surgir, contudo, a necessidade desses aplicativos compartilharem dados. Conforme
a capacidade dos sistemas de disk array (módulos de armazenamento de discos) foi crescendo,
um único disk array pôde suprir as necessidades de armazenamento de vários servidores. Assim,
nasceu o storage em rede. Hoje, o storage – armazenamento de dados – vai além do seu
conceito. Entre as novas modalidades atreladas ao tema estão a virtualização de dados e o
gerenciamento do ciclo de vida da informação, por exemplo.
Mas o que é virtualização de storage? Nada mais do que o processo de consolidar vários
dispositivos físicos, de diversos fabricantes e reorganizá-los em agrupamentos virtuais, lógicos ou
em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional (OS)
para utilização por aplicativos ou pelos usuários finais apropriados.
Apesar de soar como um recurso atual, a virtualização do armazenamento não é novidade, tanto
no conceito como na prática. Definida há quase 20 anos, na computação em mainframes, a
tecnologia está se consolidando com o avanço das SANs (Storage Área Networks), que serão
tratadas mais detalhadamente nos próximos módulos.
Virtualização
Assim como no universo dos discos, a virtualização contribui para organizar o modelo de
aplicações na área de armazenamento. O grande drama enfrentado no passado pelas empresas
era a falta de interoperabilidade que existia entre as aplicações, visto que elas aconteciam de
forma isolada – em cada departamento – e utilizando software de fabricantes diferentes e muitas
vezes proprietários.
Elo de integração
Mas a virtualização veio resolver esse problema, transformando-se em um elo de integração. Isso
porque ela possibilita que soluções de diferentes fabricantes possam conversar entre si e realizar
funções de provisionamento dinâmico. Esse recurso permite que as empresas criem “pools” de
armazenamento, obtendo uma visão unificada e consolidada da capacidade total de storage. De
um lado, a tecnologia dobra a capacidade de utilização do armazenamento nas empresas e, de
outro, o provisionamento dinâmico possibilita que a alocação de mais espaço por uma aplicação
ou servidor seja feita automaticamente.
Mas não basta só virtualizar, é preciso gerenciar. Segundo o instituto de análise Gartner Group,
para cada dólar investido na compra de soluções tecnológicas, cinco são gastos para controlar e
manter o ambiente. Investimentos no gerenciamento da informação é prioridade para as
empresas que adotam o Storage Resource Management (SRM), permitindo administrar as
diversas plataformas de armazenamento.
O SRM abrange desde relatórios para classificar os dados e políticas de alocação, até o
gerenciamento baseado na aplicação e monitoração do desempenho. Com a classificação de
dados, é mais fácil detectar arquivos que não são acessados normalmente e realocá-los em fita,
por exemplo, livrando-os de ocupar centenas de gigabytes em dispositivos mais caros.
Os CIOs (Chief Information Officers), ainda segundo o estudo do Gartner Group, apontam que
cerca de 40% das informações armazenadas pelo usuário final não interessam às empresas. Uma
boa solução de SRM, dizem os especialistas, incorpora múltiplas visões, assim como gerencia a
capacidade física e lógica de storage, tornando o ambiente de armazenamento muito mais eficaz.
A tendência é contar com mais serviços de integração para que os usuários não tenham de
gerenciar ambientes estanques de software de diferentes fornecedores.
No controle total
O primeiro passo para atingir a plena capacidade de controle é construir uma rede de
armazenamento inteligente, que permita acesso ao transporte de dados e faça a informação se
mover de um lado para o outro. Os passos seguintes são classificar os dados segundo regras de
negócios e partir para a automatização, usando ferramentas que facilitem a identificação de dados
e utilizando a rede implementada na primeira etapa. Com plataformas de conteúdo fixo, é
necessário que estas sejam acessadas por aplicações, independente de estarem em fita ou em
disco.
Para obter acesso livre e interoperabilidade global entre as aplicações, o que irá proporcionar
gerenciamento completo das informações, é necessária a construção de uma rede de
armazenamento inteligente. Com um conjunto de software para gerenciamento de storage, é
possível identificar as informações que estão sem acesso e solucionar o problema. Em cima
dessa estrutura são feitas várias evoluções, como ligação online entre os storages de produção e
de backup.
Tecnologias emergentes
Os nomes ainda variam – alguns fornecedores chamam de hierarquização, outros preferem mais
um acrônimo de três letras, o ILM (Information Lifecycle Management – gerenciamento do ciclo de
vida da informação) –, mas o conceito é um só. Identificar cada informação, avaliar o quanto é
crítica para o negócio e a necessidade de acesso rápido a ela e, finalmente, rever a infra-estrutura
de storage, de forma a permitir a alocação apenas dos dados mais importantes em mídias de alta
performance e, portanto, mais caras, deixando o restante em equipamentos mais econômicos.
Tudo isso feito de maneira dinâmica, automática e transparente para o usuário.
Já a SAN (Storage Area Network), rede de armazenamento, pode ser utilizada para conectar
múltiplos servidores e é indicada para organizações com necessidade de storage de larga escala
e um arsenal complexo de dispositivos de armazenamento. O ILM, gestão do ciclo de vida da
informação, é um recurso que contribui para o gerenciamento de storage de forma inteligente e é
fundamental para a demanda atual. Estudos mostram que os dados da maioria das aplicações
não precisam necessariamente estar disponíveis para acesso online, na medida em que o tempo
passa.
Exemplo disso são as mensagens arquivadas na caixa postal do correio eletrônico. Normalmente,
após 45 dias do recebimento, essa mensagem, bem como seus anexos, não precisam consumir
espaço em um disco mais rápido e, conseqüentemente, mais caro. Assim, caso a empresa
necessite comprar discos, a adoção da gestão das informações permite a aquisição de discos
mais lentos (e mais baratos), que vão receber automaticamente as informações utilizadas com
menos freqüência, reduzindo sensivelmente os novos investimentos em storage.
Entre os protocolos de comunicação figuram o FC (Fibre Channel) – uma das tecnologias mais
comercializadas para transmitir dados entre dispositivos de computador, adequada para conectar
servidores de computadores a dispositivos de armazenamento compartilhado. E o novíssimo
iSCSI (Small Computer System Interface) – protocolo emergente que oferece I/O por Ethernet e
redes IP e que tem as mesmas vantagens da SAN, mas usa protocolos de networking.
Esse protocolo é hoje apontado como a tecnologia que mais vai ajudar o desenvolvimento do
mercado de SAN. O FC/IP (Fibre Channel over IP) – junto com o iSCSI, é também uma das
principais abordagens da transmissão de dados de armazenamento via redes IP. Também fazem
parte desse pacote de tecnologias emergentes as soluções de Disaster Recovery (Prevenção de
desstres). Visto que o armazenamento ocupa papel fundamental na estratégia de recuperação
dos negócios.
A minimização dos prejuízos provocados por um eventual desastre que se abata sobre os
sistemas de informação corporativos depende bastante das opções estratégicas e das soluções
adotadas pela organização na área de armazenamento. As soluções centram-se cada vez mais
na continuidade do negócio e na preservação dos sistemas. A velocidade da recuperação de
dados terá de ser entendida por toda a estratégia de TI da corporação e como elemento central do
próprio negócio.
2 - Recursos físicos
Não faz muito tempo, era possível armazenar dados em simples disquetes. Depois, com a
facilidade cada vez maior de acesso às informações, o volume de dados corporativos cresceu e
tornou-se estratégico para o sucesso dos negócios. Assim, o armazenamento transformou-se em
procedimento imprescindível para o gerenciamento e a disponibilidade inteligente das informações
dentro da organização. Para essa operação, no entanto, são necessários diversos tipos de mídia,
ou seja, dispositivos de armazenamento. Estes podem ser divididos em três grupos de unidades:
magnéticas, ópticas e ópticas e magnéticas.
As fitas magnéticas foram muito úteis no início da década de 60, quando os computadores eram
comercializados com unidades de fitas cassete. Hoje, apesar de terem acesso muito lento, elas
ainda são utilizadas em alguns casos para fazer o backup de informações que não precisam ser
acessadas freqüentemente. As unidades de fita de cartucho de ¼ polegada, conhecidas como
QIC (quarter-inch cartridge), funcionam para realizar backups de muitos discos rígidos.
As fitas DAT formam a segunda geração das fitas magnéticas. Menores, mais fáceis de
armazenar e mais seguras, permitem um armazenamento maior de dados. Sua grande
capacidade (2 GB a 4 GB) torna essas mídias ótimas para backup de grandes volumes de dados.
Sua aparência assemelha-se à de uma fita de vídeo, em tamanho menor.
Mídias removíveis
As mídias que serão tratadas a seguir são definidas por muitos como discos rígidos. Mas, apesar
disso, diferentemente dos outros discos, são removíveis e podem ser transportadas. Elas são
úteis para fazer backup ou transportar grande quantidade de dados, uma vez que os disquetes
possuem pouca capacidade e os discos rígidos não podem ser transportados. A desvantagem é
que o acesso torna-se um pouco lento.
O Jaz é uma dessas mídias. Sua capacidade chega a 2 GB e a taxa de transferência média é de
2 MB por segundo. Assim, esse dispositivo é uma boa opção para fazer backup de discos rígidos
e não é muito utilizado para transporte de dados, mesmo porque ele exige interface SCSI (Small
Computer System Interface).
E ainda o velho e bom conhecido disquete, denominado como mídia flexível, o qual foi criado na
década de 70 e tornou-se o mais popular meio de armazenagem de dados em pequenas
quantidades. Hoje, com a avalanche de dados, ele passou a ser substituído por outras mídias
como, por exemplo, o CD (Compact Disk).
Os discos rígidos, também conhecidos como hard-disk (HD) ou winchester, estão presentes em
praticamente todos os computadores e são o meio mais rápido e com maior espaço para
armazenar as informações. O HD é um conjunto de discos de alumínio, que utiliza a leitura e a
gravação magnéticas. Fabricado dentro de uma caixa de metal blindada a vácuo, possui, assim
como os disquetes, divisão em trilhas e setores. Cada disco possui duas faces, cada face tendo
sua cabeça de leitura/gravação exclusiva.
Unidades Ópticas
Uma unidade óptica é gravada utilizando um laser de alta potência. Com o laser, são feitos furos
(pits) em um disco matriz. As áreas não furadas entre os pits, são os chamados lands (espaços).
Como os pits têm refletividade diferente dos lands, representa uma informação digital (0 e 1).
Para fazer a leitura de um CD-ROM (Compact Disk – Read Only Memory), um laser na cabeça de
leitura óptica do drive projeta um feixe de luz que penetra na camada de plástico protetora do
disco e colide com o alumínio reflexivo. Ao colidir com um espaço (land), a luz é refletida de volta
e é registrada como presença de luz (bit 1) e as cavidades (pits) que não refletem a luz são
registradas como ausência de luz (bit 0).
As unidades ópticas, no entanto, não sofrem alteração se expostas aos meios magnéticos.
Podemos dividir as unidades ópticas em CDs e em DVDs. Os CDs são o tipo mais popular de
unidade óptica e muito usados atualmente, principalmente para multimídia. Eles têm capacidade
de 650 MB (aproximadamente 500 disquetes), o que faz com que sejam usados para jogos ou
instalação de programas.
O CD-ROM é o tipo do CD que só serve para leitura. Ele já vem gravado de fábrica e a única
coisa a fazer com ele é utilizá-lo para a leitura de suas informações. Já o CD-R (Compact Disk
Recordable) foi criado em função da necessidade de armazenar grandes quantidades de dados,
que não cabem nos disquetes. Ele é virgem e por meio de uma gravadora de CDs é possível
gravar suas informações. Porém, ele só pode ser gravado uma única vez.
Ele também é conhecido como Worm (Write Once Ready Many) e é muito usado na gravação de
programas piratas. Uma das aplicações atuais e mais utilizadas do CD-Rmais é quando as
informações precisam ser guardadas para efeito legal. Isto porque esse recurso não permite a
alteração do que ali estiver gravado, garantindo a autenticidade das informações.
Existe ainda o CD-RW (Compact Disk Rewriteable), semelhante ao CD-R, pois possui a
vantagem de poder ser gravado e regravado diversas vezes. Porém, seu custo ainda é alto.
Usando o mesmo princípio dos CDs, o DVD (Digital Versatile Disk) possui uma capacidade muito
maior de armazenamento, podendo chegar a 17 GB e uma qualidade de gravação ainda maior.
Hoje, o DVD-Rom tem sido muito utilizado para a gravação de filmes que podem ser vistos pelo
computador ou por um aparelho específico de DVD. Eles dividem-se, seguindo o mesmo princípio
dos CDs, em DVD-R e DVD-RW.
Dispositivos físicos
Entre os meios físicos disponíveis no mundo do storage, destacam-se ainda o Direct Attached
Storage (DAS), os discos Redundant Array of Independent Disks (RAID), o ATA (Advanced
Technology Attachment) e a arquitetura Blade Server. E também as interfaces iSCSI (Internet
Samall Computer System Interface) e ISCSI (Small Computer System Interface).
O Direct Attached Storage são drives integrados ao gabinete do computador conectados à CPU
via PCI ou outro periférico. É diferente da NAS (Network Attached Storage) e da SAN (Storage
Area Network), unidades externas conectadas às workstations e servidores rodando em rede.
Com o DAS, cada servidor é dedicado ao storage.
Para ficar claro, vale definir o NAS, que de forma sintética pode ser descrito como
armazenamento conectado à rede que fornece acesso a arquivos para usuários conectados,
utilizando protocolos de transporte em Ethernet e TCP/IP. Já as SANs, permitem que diversos
servidores compartilhem espaço em disco, a partir de um ou mais disk array (matriz para discos
de storage). As SANs fornecem aos servidores o acesso ao armazenamento em bloco, usando o
protocolo Fibre Channel.
Uma pequena iSCSI pode ser construída no topo das redes existentes e usar inclusive Windows
ou servidores Linux como arrays remotos de armazenamento. Grandes redes também podem se
beneficiar do recurso, desde, é claro, que a iSCSI colocou a SAN dentro do mundo dos custos
mais acessíveis.
Já a interface de hardware SCSI possibilita a conexão de até 15 periféricos em uma única placa
que se interliga à placa mãe, usando PCI (Peripheral Component Interconect – interconector de
componentes periféricos). Os periféricos SCSI são interligados e todos têm uma segunda porta
para a conexão com o próximo equipamento em linha. O host SCSI adaptadores estão também
disponíveis com dois controladores, suportando 30 periféricos.
O que é RAID?
Fundamental para os sistemas físicos de storage, o RAID (Redundant Array of Independent Disks
– matriz redundante de discos independentes) é um subsistema de disco que provê tolerância a
falhas. Trata-se de uma tecnologia que combina vários discos rígidos (HD) para formar uma única
unidade lógica, onde os mesmos dados são armazenados em todos (redundância).
Em outras palavras, é um conjunto de HDs que funciona como se fosse um só. Isso permite ter
uma tolerância alta contra falhas, pois se um disco tiver problemas, os demais continuam
funcionando, disponibilizando os dados. O RAID surgiu há mais de 15 anos, resultado de
pesquisas realizadas na Universidade de Berkesley, na Califórnia, Estados Unidos.
Para que o RAID seja formado, é preciso utilizar, pelo menos, 2 HDs. O sistema operacional,
nesse caso, enxergará os discos como uma unidade lógica única. Quando há gravação de dados,
os mesmos se repartem entre os discos do RAID (dependendo do nível). Com isso, além de
garantir a disponibilidade dos dados em caso de falha de um disco, é possível também equilibrar o
acesso às informações, de forma que não haja gargalos.
Além do RAID, o ATA (Advanced Technology Attachment) é considerado um dos discos mais
baratos do mercado. É o nome oficial que um grupo do American National Standard Institute
utiliza para o que a indústria de computadores chama de eletrônica integrada do drive (IDE –
integrated drive eletronics).
As opções, dependendo do perfil do cliente, passam também pelas NAS. As vantagens de seu
uso incluem armazenamento compartilhado, habilidade de adotar diferentes protocolos de
arquivos para diferentes ambientes de usuários e redução de custos administrativos, resultando
em menor custo total de propriedade.
*Blade Server* - Outro recurso físico bastante usado em data centers são os Blade Servers. Uma
arquitetura de múltiplos servidores em um único chassi, que economiza espaço e aprimora o
gerenciamento. Em rack ou gabinetes individuais, os chassis permitem melhor suporte. Cada
blade tem seus próprios CPU, memória e disco rígido, permitindo também bons recursos de
redundância.
A indústria está oferecendo cada vez mais servidores blade. A participação desse segmento de
servidores no mercado mais do que dobrou em 2004, alcançando 450 mil unidades, 7% do
mercado, com previsão de chegar a 40% até 2006, segundo o instituto de pesquisa IDC. O rápido
avanço dos sistemas de gerenciamento, tecnologia de cluster e a contínua desagregação dos
servidores em pequenos equipamentos e componentes permite prever o crescimento dos
servidores blades e sistemas modulares.
*Protocolos* - Para que os dados passem ou sejam transmitidos de um meio para outro, ou seja,
trafeguem, eles necessitam de interfaces, que foram tratadas anteriormente, e também de
protocolos. Portanto, o seu armazenamento nos meios físicos terá de contar com a atuação de
protocolos como IP, Fiber Chanel, Gigabit Ethernet, entre outros.
Com a popularização do protocolo Fibre Channel, produtos como SAN e NAS ganharam
aceitação entre os diretores de TI, porque oferecem melhor performance e armazenamento, além
de uma maior escalabilidade, fazendo com que os produtos DAS diminuíssem sua presença no
mercado. Enquanto em 1998 o DAS tinha 88% de participação, no ano passado essa
porcentagem caiu para 56%, de acordo com a IDC. Até 2006, a previsão dos especialistas é uma
queda para 26%.
O protocolo Fibre Channel (FC) é uma das tecnologias mais comercializadas para transmitir
dados entre dispositivos de computador e adequada para conectar servidores de computadores a
dispositivos de armazenamento compartilhado. É o protocolo de alta velocidade usado para
desenvolver as chamadas SANs. Embora possa ser usado de forma geral na rede, carregando
ATM, IP e outros protocolos, o FC no início suportava tráfego de dados SCSI dos servidores para
os disk arrays, serializando comandos.
Hoje, o FC apenas suporta conexões de fibra single e multimodo, além de cabo coaxial. Pode ser
configurado ponto a ponto, via switch, com ou sem hub e conectar-se até 127 nós. Suporta
transmitir até 2.12 GB em cada direção e usa o protocolo Gigabit Ehternet. O FC está evoluindo
para o FC/IP (Fibre Channel over IP) que, junto com o iSCSI, é uma das principais abordagens da
transmissão de dados de armazenamento via redes IP.
O protocolo IP Storage - O IP Storage pode ser usado para desenvolver uma SAN, junto com o
Gigabit Ethernet.
Tradicionalmente, as SANs eram desenvolvidas usando o transporte Fibre Channel porque esse
procedimento provia velocidade aos gigabits comparados de 10 Mbps Ethernet a 100 Mbps
Ethernet, usados para construir redes de mensagens. Os equipamentos com FC são mais caros e
a interoperabilidade entre diferentes fornecedores não é totalmente padronizada.
3 - Virtualização
Essa modalidade nada mais é do que o processo que permite consolidar vários dispositivos
físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais, lógicos ou unidades de
armazenamento. Essas unidades são apresentadas ao sistema operacional (SO) para utilização
pelos aplicativos e usuários finais determinados. Apesar do crescente interesse na virtualização
do armazenamento, o conceito não é novo. Definido há quase 20 anos, na computação dos
mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a
emergência das SANs (Storage Area Networks), dispositivos de armazenamento de dados em
rede.
A área é tão importante no mercado de storage que, em 2007, duas grandes empresas
anunciaram investimentos nessa tecnologia: Sun Microsystems e Dell. A Sun anunciou sua
entrada no mercado de virtualização no final de 2007 com a plataforma batizada de xVM
composta inicialmente de um servidor e do sistema de gerenciamento Ops Center. Já a Dell
apostou na compra da EqualLogic, fornecedora de storage area network (SAN) por US$ 1,4 bilhão
em novembro de 2007. A compra é considerada como um impulso para os esforços da Dell em
oferecer virtualização aos seus clientes.
Esse recurso elimina as restrições físicas, ao criar uma camada acima do armazenamento físico,
que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde
for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos
em entidades virtuais projetadas para atender aos requisitos individuais dos aplicativos.
Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos
físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, sem
modificar a implementação do hardware. Na medida em que o novo hardware se torna disponível
ou que as características do aplicativo se modificam, as alterações na camada física podem ser
realizadas sem interromper o acesso aos dados no dispositivo lógico. As tecnologias de
virtualização de armazenamento estão evoluindo, incluindo soluções de banda interna e externa
(in-band e out-band), com base em storage e em hospedagem.
Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, este
pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem
surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Nesse caso,
a duplicação dos dados ou outros métodos de virtualização de armazenamento podem atrapalhar
a aplicação.
Redes virtuais
Um dos benefícios da tecnologia iSCSI (internet small computer system interface) – é usar
protocolo emergente que oferece I/O por Ethernet e redes IP com as mesmas vantagens da SAN,
que usa protocolos da infra-estrutura de rede. Entretanto, esse benefício é facilmente
ultrapassado. Se a rede tem ainda switches gigabit de reserva, o benefício da iSCSI é imediato.
Mas muitas redes são superdimensionadas, envolvendo a interface SCSI e o transporte de
grandes quantidades de dados. O cliente não vai precisar gastar muito em upgrades para
administrar o tráfico adicional.
O uso da infra-estrutura existente é muito importante. Fazer upgrade de uma rede é menos caro
que desenvolver uma e fazer uma SAN valer a pena para uma pequena rede que não justifica o
alto preço do Fibre Channel (FC). O mercado vai puxar para baixo os custos de uma iSCSI, ao
ponto de substituir as FC na tecnologia SAN. A tendência é os fabricantes oferecerem servidores
com bandas para a tecnologia iSCSI, assim como fizeram com o FC, oferecendo 1 U e servidores
blade integrados com portas iSCSI.
Um servidor departamental pode contar com apenas um link de 100 Mbps Ethernet para o
storage e tráfico de aplicações, mas um servidor de banco de dados pode facilmente requerer
uma conexão Gigabit Ethernet apenas para o tráfico de storage. E se há muitos desses
servidores, o custo da iSCSI pode aproximar-se da FC. Uma rede IP e Ethernet, portanto, tem a
vantagem de ser reutilizada se no futuro o projeto de SAN for abandonado. Os custos podem ser
ainda maiores se o tráfico de storage ficar em cima da WAN (rede que interliga dispositivos em
locais remotos). Entretanto, a iSCSI ainda integra as duas alternativas.
A virtualização pode ser executada em blocos ou em níveis de arquivo. Nas redes de storage, os
blocos são associados às SANs Fibre Channel e os arquivos de storage às Network-Attached
Storage (NAS). Em uma típica virtualização em bloco, os dados são mapeados em um ou mais
discos. O bloco requerido pode ser distribuído em múltiplos arrays de storage, mas parece para o
usuário residir em um único drive.
Na vitualização de arquivo, múltiplos objetos podem parecer como apenas um arquivo. Esse tipo
de virtualização provê um nível de abstração entre os arquivos e sua localização física. Nessa
abordagem, um espaço comum é criado, que permite ao usuário acessar diferentes arquivos sem
alterar o nome de sua raiz. O nome do espaço de arquivo aparece ao usuário como um único e
grande arquivo de sistema.
O arquivo também pode ser virtualizado. Quando aplicado à estrutura de blocos de storage é
convertido em objetos ou arquivos. Estes podem residir em servidores ou em sistemas NAS
(Network Attached Storage). A vistualização de sistemas de arquivo e o metadado dos sistemas
de arquivo individual podem ser combinados para formar uma extensão virtual desse sistema.
Desafios lógicos
A virtualização pode também ser implementada em diferentes dispositivos, como arrays, usando
software de virtualização residente neste dispositivo. Esse software permite o desenvolvimento de
pools de storage em múltiplos arrays.
Com o storage baseado na virtualização, as unidades lógicas são mapeadas nos dispositivos
físicos via algorítimos ou usando uma abordagem baseada em tabelas. Basicamente, volumes
tornam-se independentes dos dispositivos onde residem. Dependendo da solução usada, o
storage baseado na virtualização pode incluir RAID, espelhamento disco a disco e replicação de
dados.
Dispositivos como bibilioteca de fitas podem também ser virtualizados. Na virtualização das fitas,
os discos de storage são feitos para parecerem drives de fita. Os discos tipicamente front end de
biblioteca de fitas permitem uma função de cache para que os dados possam ser acessados mais
rapidamente. Quando o dado não é mais acessado freqüentemente pelos usuários, ele pode ser
transferido para a fita. Entretanto, o administrador deve certificar-se de que existe uma quantidade
suficiente de fitas para receber os dados sem comprometer a performance. Algumas soluções de
virtualização de fitas são também restritas a bibliotecas proprietárias.
Enquanto a virtualização cai como uma luva para as corporações que querem otimizar a
utilização de storage, alavancar o gerenciamento, provisionar e administrar sistemas de
armazenamento e reduzir os custos, existem alguns obstáculos a serem ultrapassados. O
primeiro inibidor dessa modalidade é a inexistência de padrões para a tecnologia com a falta de
interoperabilidade entre os produtos voltados para a virtualização.
Ainda há muita confusão gerada pela virtualização e o que ela pode trazer. Os potenciais
usuários têm sido hesitantes em investir em produtos. Apesar da existência de múltiplas
abordagens, a virtualização provê flexibilidade mas pode também causar problemas durante seu
uso se a corporação escolher uma solução que, mais tarde, torne-se obsoleta. Mas o mercado
não tem dúvidas de que uma verdadeira política baseada na automação do storage requer a
maximização do uso da virtualização.
Iniciativas de interoperabilidade
Estas API, ainda em estudo, formarão um padrão para todos os switches inteligentes
denominado Fabric Application Interface Standard (FAIS -Padrão para Interfaces de Aplicações
em Fabric = rede) e já contam com um comitê do American National Standards Institute (ANSI –
Instituto Americano de Padrões Nacionais), o denominado T11.5, parte do subgrupo de comitês
que desenvolvem os padrões para Fibre Channel.
O padrão FAIS está sendo adotado com suporte aos principais dispositivos de armazenamento
do mercado, de diferentes fornecedores (EMC, HDS, HPQ, IBM), aos principais sistemas
operacionais (Windows, Linux, Solaris, AIX, HP-UX e VMware) e funciona com os switches
inteligentes da Cisco, Brocade e McData. Outro ponto importante do padrão FAIS é que tanto os
switches e dispositivos de armazenamento quanto as próprias aplicações podem ter fornecedores
distintos e, por ser um padrão baseado em uma API aberta, a interoperabilidade entre os distintos
softwares e hardwares está assegurada.
Para o usuário, isso significa proteção ao seu investimento, independência de fornecedor,
múltiplas alternativas de hardware e software e a possibilidade de implementar a virtualização de
forma gradual, adequada às necessidades da empresa.
4 - Gerenciamento
Parte dos gastos é atribuída pela IDC ao desejo das corporações de controlar o uso do
armazenamento dos funcionários. Além disso, as empresas adotam as soluções como meio de
reduzir custos, melhorar a eficiência e utilizar melhor as ferramentas de armazenamento. Os
software de gerenciamento de storage permite simplificação e automatização para redes
complexas como as SANs (Storage Area Networks).
Apesar disso, o mercado brasileiro não tem o hábito de investir nesse nicho de gerenciamento,
priorizando investimentos em outras áreas. Mesmo havendo otimização de pessoas e
infra-estrutura, os benefícios não são vistos imediatamente, por isso o software de gerenciamento
de storage é muitas vezes deixado em segundo plano. Em muitas companhias, os executivos de
tecnologia e administradores de dados estão encarando uma explosão de dados em suas redes e
a necessidade premente de administrá-los.
Com um ambiente de tecnologia cada vez mais complexo e uma situação econômica e de
negócios em constante modificação, as organizações de TI estão sobrecarregando seus
profissionais. Empregar estruturas de gerenciamento de rede de armazenamento alivia a carga da
interoperabilidade e a complexidade de gerenciar redes de vários fabricantes.
Amadurecimento do mercado
Fornecedores como IBM, Veritas, EMC, HP, StorageTek e Computer Associates estão
empenhados em fornecer uma única interface de gerenciamento para as complexas tarefas
envolvidas no controle de um crescente número de redes de armazenamento. Dessa forma,
diminui a carga dos administradores, liberando tempo para que eles possam trabalhar
estrategicamente.
Não faz muito tempo, as decisões sobre armazenamento e operações em rede eram simples.
Havia poucas opções, um número menor de fabricantes e poucas tecnologias para escolher.
Atualmente, existem mais fabricantes, mais metodologias de armazenamento conectadas em rede
e novas tecnologias. Hoje, há muitos meios para utilização de redes de armazenamento.
Por exemplo, uma SAN (Storage Area Network) típica consiste na rede de dispositivos de alto
desempenho, mas complexos, que compõem o caminho dos dados. Um grupo de dispositivos
altamente inteligentes, incluindo HBAs (adaptadores de barramento host), comutadores e vetores
de armazenamento compõem as atuais redes de armazenamento. Para ter controle desses
dispositivos são necessários os softwares de gerenciamento.
Existem muitos fabricantes que fornecem soluções de NAS (Network Attached Storage) e SAN
para as redes de armazenamento, mas poucos oferecem uma solução completa do controle
desses dados, fazendo da interoperabilidade e do efetivo gerenciamento das redes de
armazenamento um desafio.
Gerenciamento básico
Diz-se que um gerenciamento é avançado, quando ele proporciona o controle de uma forma
inteligente. Uma vez que os administradores se beneficiam dos recursos de visualização e
elaboração de relatórios em uma estrutura de gerenciamento, eles podem começar a utilizar mais
recursos, como segurança, fornecimento de armazenamento e gerenciamento pró-ativos.
Garantir que os aplicativos tenham os recursos de armazenamento de que necessitam significa
fornecer storage seguro, desde vetores à dispositivos de backup e aos hosts dentro da rede de
armazenamento. Uma boa estrutura avançada de gerenciamento de storage oferece
armazenamento integrado, dividindo por zonas desde os vetores de armazenamento aos hosts,
por meio de assistentes fáceis de usar.
Associação completa
O custo dessas tecnologias não se refere apenas ao de hardware – não se trata do custo de um
servidor ou de um vetor de armazenamento considerado a partir de diferentes fabricantes ou
mesmo de uma topologia diferente. O componente mais importante na “relação custo e risco” é o
custo de precisar treinar novamente pessoas e reequipar com ferramentas apropriadas todos os
processos estabelecidos.
É fundamental que os gerentes otimizem o uso de sua fonte de maiores custos: as pessoas.
Administradores altamente treinados precisam trabalhar estrategicamente para projetar as
melhores práticas que possam ser implementadas consistentemente em toda a organização, por
funcionários menos habilitados. O único meio de conseguir isso de modo efetivo e eficiente é
capacitando aplicativos projetados para reduzir a carga e simplificar ambientes complexos.
A verdade é que, seja em razão dos benefícios efetivos trazidos pelo gerenciamento do ciclo de
vida da informação ou pelo bombardeio sobre o assunto vindo de fornecedores e consultores, é
cada vez mais difícil encontrar um profissional de TI que não esteja pensando, em algum nível,
sobre o ILM.
Para o gerenciamento dos dados, são utilizados softwares de HSM (Hierarchical Storage
Management) e SMS (Storage Management Systems), além de equipamentos baseados no
conceito de virtualização. Essas ações trazem facilidades à administração do ambiente. A
tendência é chegar ao estágio de gerenciar todo o storage de forma centralizada, com visão
única.
Redução de custos
Sobre a possível revolução causada pela utilização dos conceitos de ILM, a redução de custos é
um grande apelo, pois é possível utilizar mais espaço do que está disponível. É necessária uma
análise cuidadosa das necessidades do cliente para que se coloque o dado no meio mais
adequado de armazenamento, uma vez que existem muitas questões em jogo, como tempo de
resposta, softwares de replicação, criticidade da informação e arquitetura da solução, por
exemplo, segundo os especialistas de TI.
Para evitar a duplicação de informações e garantir a segurança dos dados é preciso adotar, por
exemplo, ferramentas de automação de backup que permitem a sincronização agendada dos sites
remotos ao banco de dados principal com cópia apenas das informações efetivamente
modificadas. Um dos principais desafios é oferecer ao usuário a possibilidade de acessar
informações quando ele precisa e garantir que essa informação seja única.
Fugindo aos olhares utópicos dos analistas ou dos fornecedores, fica claro que a proposta do ILM
é válida e interessante e que atinge algumas das principais preocupações dos usuários:
otimização das operações e redução de custos. Por outro lado, é fácil entender que a
disseminação desse tipo de arquitetura de armazenamento segue um ritmo muito mais lento do
que o previsto por especialistas e que a imaturidade da maior parte das soluções ainda faz com
que os CIOs atuem com cautela no momento de começar uma iniciativa do gênero.
Desafios
Uma SAN típica consiste de dispositivos de alto desempenho, mas complexos, que compõem o
caminho dos dados. Um grupo de dispositivos altamente inteligentes, incluindo HBAs
(adaptadores de barramento host), comutadores e vetores de armazenamento compõem as atuais
redes de armazenamento. E esses dispositivos precisam de muito gerenciamento.
Existem muitos fornecedores de soluções de NAS e SAN para as redes de armazenamento, mas
nenhum deles oferece uma completa solução de caminho de dados, fazendo da interoperabilidade
e do efetivo gerenciamento das redes de armazenamento um verdadeiro desafio.
Gasta-se muito mais para gerenciar o que o CIO comprou do que o valor da compra. O ponto
central é conhecer as necessidades corporativas em vez de investir em aquisição de hardware
ininterruptamente, como é prática comum em muitas empresas. Daí a importância do
gerenciamento de recursos de storage.
É necessário classificar dados. Existem arquivos que não são acessados normalmente e que
poderiam ser alocados em fita, no lugar de ocupar, por exemplo, 500 GB em disco. Os
fornecedores recomendam uma análise do histórico da empresa para saber qual orçamento para
storage será necessário no próximo ano. Outro ponto a ser considerado é a definição de centros
de custo dentro da empresa.
Investir no gerenciamento do storage, segundo os executivos de TI, é uma das melhores opções
para reduzir os custos de armazenamento. Entre as escolhas estão sistemas de virtualização que
permitem que hardwares de diferentes fabricantes possam coexistir na mesma instalação, e
funções de provisionamento dinâmico, para utilizar os recursos disponíveis segundo as
necessidades da empresa.
A missão de executar uma política de gerenciamento de storage varia de acordo com a carteira
de fornecedores de cada companhia.
Quando a empresa adquire toda a solução de um mesmo fornecedor, o trabalho torna-se mais
fácil. Em contrapartida, ela fica amarrada a uma só solução e com pouca margem de manobra na
eventualidade de o provedor de TI aumentar seus preços ou sair do mercado.
Será, portanto, uma decisão de negócios. Não é por outro motivo que estabelecer uma política de
gestão dos recursos de storage torna-se um item obrigatório na agenda de médias e grandes
empresas. A era da improvisação em armazenamento de dados começa a ficar para trás.
Também não é por outro motivo que os fornecedores começam a colocar seu foco nos serviços,
para ajudar os clientes a definirem estratégias e políticas de storage mais adequadas ao seu
negócio.
5 - Mercado
O mercado mundial de software para armazenamento atingiu seu 15º trimestre consecutivo de
crescimento, chegando a US$ 2,8 bilhões no período encerrado em junho de 2007. Segundo
pesquisa da IDC, o resultado representa elevação de 10,4% no ano. Entre as áreas em expansão
constatadas pela IDC estão também aquelas relacionadas à compliance, legislação, e HSM -
hierarchical storage management -, esta última divisão que apresentou elevação de 14,9%.
A líder de mercado no período foi a EMC, com receitas de US$ 685 milhões e 24,6% de
participação. Em termos de faturamento, a companhia apresentou elevação de 4,8%, mas em
participação de mercado registrou baixa de 1,4 ponto percentual.
A segunda colocada nesse mercado foi a Symantec, com US$ 488 milhões em receitas e 17,5%
de participação. A IBM ocupou a terceira colocação, com US$ 362 milhões em faturamento e 13%
do mercado. A Network Appliance, Hewlett-Packard e CA ocuparam as posições seguintes, com
10,7%, 4,7% e 4,6% do mercado, respectivamente.
A pressão na área regulatória, a exigência da guarda de dados e documentos para fins legais,
planos de contingência e a popularização da multimídia são alguns dos segmentos que
impulsionam os investimentos em storage. A primeira onda do mercado de armazenamento de
dados foi tornar o storage independente do servidor e fazer aquisições em separado, momento
em que surge o Fibre Channel. Hoje, a tendência é a utilização de redes de armazenamento de
dados ser mais aberta e inteligente, com SAN (Storage Area Network) e NAS (Network Attached
Storage), só que apoiadas em softwares para adequarem-se melhor à arquitetura. Atualmente, os
sistemas de arquivos podem ser distribuídos pelas SANs e múltiplas máquinas, controladas por
um servidor.
Outra forte tendência do mercado é aliar o storage com a segurança. A aquisição da Veritas pela
Symantec comprova que há uma interseção entre as áreas de segurança e armazenamento nas
empresas. A aquisição envolveu valores de US$ 13,5 bilhões. Para a Symantec a estratégia, além
de combinar segurança e storage, é expandir seus negócios e sua presença geográfica.
A estratégia da EMC para o segmento de pequenas e médias empresas foi o lançamento dos
pacotes Express Solutions. Eles prometem facilidade de implementação e flexibilidade para
crescimento. Os lançamentos fazem parte do conceito "Simplificando o Storage", que abrange
uma gama de sistemas, software e serviços. As novas soluções incluem produtos para
armazenamento em rede; backup e recuperação de dados; archiving; e proteção dos negócios,
com backup remoto dos dados.
Os clientes hoje exigem que o gerenciamento vá além das tradicionais soluções de backup e
recuperação de dados. Informação é a moeda da economia do e-business, e o planejamento para
armazenar esses dados precisa abranger a confiabilidade, a escalabilidade da solução e
planejamento e a recuperação de desastres.
Também no segmento de discos externos, a IBM lançou o dispositivo de disco IBM TotalStorage
DS8000 e sua versão "baby", IBM TotalStorage DS6000. Sua arquitetura permite o
endereçamento de até 96 Petabytes (PB), capacidade suficiente para armazenar toda a literatura
do Congresso Americano por 2,4 mil vezes. Em processamento, atinge mais de 3 milhões de
operações por segundo (IOPs).
Tecnologia Worm
Já vai longe o tempo em que a IBM anunciou seu primeiro drive de fita magnética em 1950,
lançando o conceito de armazenamento de dados no mercado. Apesar dos discos, as fitas
continuam firmes até hoje, crescendo exponencialmente em capacidade e ultrapassando limites.
Quem também aposta no Worm é a IBM, que incluiu a tecnologia na unidade de fitas modelo
3592. A nova tecnologia possibilita a armazenagem de grandes quantidades de registros
eletrônicos, com segurança, por um longo tempo, visando o cumprimento de requisitos
regulatórios e de auditoria interna. Os novos cartuchos de fitas com tecnologia Worm para IBM
TotalStorage são voltados para clientes que precisam armazenar grandes volumes de dados por
longo tempo e devem garantir a integridade e disponibilidade dessas informações.
A integradora Unitech, que representa a provedora de soluções de storage Adic no Brasil, lança a
terceira geração de unidades de fita Ultrium, chamada de Linear Tape-Open (LTO). Entre os
destaques da nova solução estão capacidades de armazenamento de até 10 Pentabytes (PB),
assim como transferência de informações com velocidade de até 50 TB por hora.
Fusões e parcerias
A aquisição da Veritas Software pela Symantec por US$ 13,5 bilhões fortalece o direcionamento
da Symantec para oferta de um grupo "holístico" de produtos, integrando soluções de segurança e
backup de dados. A fusão mexeu com o mercado de storage e não é para menos, já que o
negócio envolve uma das maiores empresas de segurança do mundo absorvendo outra de igual
representatividade em sua área de atuação.
Segundo a IDC, o mercado de segurança é, de longe, o mais promissor em todo setor TI,
aparecendo como prioridade de investimentos em qualquer pesquisa de mercado. Para o instituto,
as empresas tendem a investir em soluções completas, ao invés de apostar em produtos
específicos.
Para o lançamento de produtos na área de SANs também foi anunciada uma série de parcerias.A
Brocade, especializada em infra-estrutura para redes SAN (Storage Area Network), e a EMC
anunciaram o lançamento do EMC Connectrix DS-4100B. De acordo com as parceiras, os
diferenciais do produto são taxa de transferência de dados de 4 GB por segundo e escalabilidade
de portas sob demanda, proteção sobre o investimento e compatibilidade com ambientes de
storage preexistentes.
Para oferecer um portfólio mais completo, a IBM anunciou uma parceria com a Network
Appliance pela qual a Big Blue revende a linha da Network Appliance de produtos de storage,
concorrendo com a EMC. A NetApp vai utilizar o software Tivoli, da IBM, para a gestão de
armazenamento e recomendará os sistemas de fita da IBM aos seus clientes. A IBM também
comercializará a linha completa da NetApp.
Com foco nesse mercado, a IBM está disponibilizando mundialmente novas versões de seu
software de virtualização do ambiente de armazenamento, o IBM TotalStorage SAN Volume
Controller. A novidade é que o produto suporta uma maior variedade de dispositivos de
armazenamento de outros fornecedores, como EMC, incluindo o Symmetrix e o CLARiiON e HDS,
e já está disponível na web para upgrades dos usuários atuais.
A vantagem, segundo as companhias, é que os clientes EMC agora podem tirar proveito do
Universal Storage Platform, que aumenta a vida útil dos equipamentos de armazenamento
instalados, reduz os custos operacionais e de licenciamento de software e oferece uma
funcionalidade superior de software, como cópia remota assíncrona e particionamento lógico, um
recurso que não existe nos produtos EMC.
Uma das soluções da Veritas para virtualização chama-se Storage Foundation for Windows, um
software de gerenciamento e virtualização que se integra às plataformas Windows para gerenciar
com flexibilidade e de forma simplificada o armazenamento de dados nestes ambientes. O Veritas
Storage Foundation 4.0 for Windows inclui o gerenciamento e a virtualização de volumes, além
disso agrega funcionalidades para o Windows Server e Windows Storage Server.
Para esse mercado, a HP anunciou o aprofundamento de sua aliança com a Veritas, fornecedora
preferencial para soluções de gerenciamento de volumes e sistemas de arquivos para ambientes
de alta disponibilidade HP-UX 11i.
Storage online
Para a IDC, o backup online se tornou uma abordagem atraente para muitos consumidores, com
o advento de acesso de banda larga mais barata, maior nível de conforto aos usuários e a
crescente necessidade de negócios para segundos sites para propostas de proteção de dados
remotos.
A consultoria estima que a receita para o mercado emergente de storage online vai alcançar 715
milhões de dólares até 2011, representando 33,3% de crescimento entre 2006 e 2011. Cerca de
metade dos gastos deste mercado serão feitos primeiro na América do Norte, mas outras regiões
vão aumentar sua participação até 2011, segundo a companhia. A IDC também prevê que a
adoção de consumidores e pequenos negociantes vai dominar o mercado por vários anos com
adoções lentas de corporações de médio porte e empresas, o que vai fazer o faturamento crescer
lentamente até 2010.
Até lá, para a consultoria, práticas de serviços vão começar a se padronizar, a competição vai
impedir o aumento de preços, fornecedores vão consolidar e backups online vão ter se tornado
uma característica comum em alguns serviços online. A consultoria diz que o armazenamento
online começa sua transformação por uma opção de backup simplificada para consumidores e
pequenos negócios para uma oferta que pode capacitar grandes negócios a sustentar operações
de disaster recovery, regulamentações de compliance e ajudar a frear custos de infra-estrutura de
armazenamento.
6 - Implementação
Logo depois, os usuários sentiram a necessidade de compartilhar esses dados por meio de
aplicativos. Assim, conforme a capacidade dos sistemas de disk array (matriz para discos) foi
crescendo, um único array podia suprir as necessidades de armazenamento de vários servidores.
Desse modo, nasceu o storage em rede.
O primeiro requisito – o compartilhamento de dados entre servidores – foi resolvido pelo NAS
(Network Attached Storage). Um dispositivo NAS fornece acesso a arquivos para os clientes
conectados, utilizando protocolos de transporte em Ethernet e TCP/IP. As SANs (Storage Area
Networks) permitem que diversos servidores compartilhem espaço em disco, a partir de um ou
mais disk arrays. As SANs fornecem aos servidores o acesso ao armazenamento em bloco,
utilizando a tecnologia de Fibre Channel.
Além disso, os protocolos de acesso a arquivos do NAS são muito genéricos e ricos em
funcionalidade. E também conectam-se a redes com base em TCP/IP, que são projetadas para
trabalhar com topologias de interconexão muito generalizadas.
O desempenho do acesso aos dados brutos pelo dispositivo NAS, portanto, tende a ser menor do
que o de outros dispositivos SAN semelhantes, e a utilização do processador do servidor e do
cliente para o acesso a dados tende a ser maior.
Em síntese, atualmente, o equilíbrio entre as vantagens e desvantagens é o seguinte:
• Escolha SAN para obter o maior desempenho ‘bruto’ de entrada e de saída de dados entre o
cliente e o servidor. Esteja preparado para desenvolver algum projeto e gerenciamento
operacional adicional, a fim de fazer com que os servidores cooperem (ou, pelo menos, não
interfiram) entre si.
• Se todo o armazenamento online for acessível por todos os computadores, então nenhum
armazenamento temporário extra é necessário para organizar os dados que são protegidos por
um computador e utilizados por outros. Isso pode representar uma substancial economia de
custos, em termos de capital.
• Da mesma forma, se os drives de fita e manipuladores de mídia robotizados puderem ser
acessados diretamente por todos os computadores, será necessário um número menor desses
dispositivos caros e que não são utilizados com tanta freqüência, em toda a empresa. Isso
também reduz o custo total de capital corporativo, relacionado ao processamento de informações,
sem diminuir a qualidade do serviço fornecido.
A implementação do software
Hoje, a maior parte das implementações de armazenamento em rede está concentrada nas
interconexões (como Fibre Channel), que permitem a conectividade universal entre os dispositivos
de armazenamento e os computadores que se conectam a elas.
Compartilhamento de drives de fita: um tape drive conectado à SAN pode ser compartilhado entre
servidores, porque esses dispositivos são caros e, na verdade, ficam em uso apenas durante a
realização de backups.
Se um tape drive estiver conectado a computadores por meio de uma SAN, computadores
diferentes poderão utilizá-lo em diversos momentos. Todos os computadores terão seu backup
efetuado. O investimento em drives de fita é utilizado de modo eficiente, e os gastos de capital
permanecem baixos.
Um típico subsistema de Raid corporativo faz com que a capacidade de armazenamento online
de um ou mais disk arrays pareça ser a de um ou mais discos muito grandes, rápidos e confiáveis.
Um subsistema de Raid é como diversos discos virtuais, do ponto de vista dos servidores host.
É bastante razoável que diferentes servidores sejam capazes de acessar esses discos virtuais
em diferentes momentos. Por exemplo, um servidor pode coletar os registros diários de
transações de uma companhia, feitos em disco, e enviá-los para outro servidor, no final do dia,
para resumo, análise ou backup.
Substituição de aplicativos com problemas: uma vez que as SANs conectam todos os dispositivos
de armazenamento de uma organização a todos os seus servidores, é possível criar ambientes de
computação altamente disponíveis, nos quais um computador substituto possa entrar em
operação em substituição a um que venha a falhar, reiniciar seus aplicativos, e reiniciar o
processamento de seus dados.
Afinal, esses equipamentos são computadores, e por isso devem ter condições de reconhecer os
sintomas de um defeito e ativar outro computador em seu lugar, automaticamente. O ideal seria
que o mesmo acontecesse de modo transparente para aplicativos, uma vez que não é prático
reescrever todos os aplicativos da noite para ao dia, a fim de tirar vantagem dos ambientes de
computação altamente disponíveis.
Em vez disso, pode-se conectar outro servidor que tenha a potência adicional necessária à SAN,
deixando o sistema original no local. Ambos os servidores podem executar cópias ou instâncias
separadas do aplicativo, processando a mesma cópia dos dados. Podem ser acrescentados mais
servidores, na medida em que aumentam os requisitos de capacidade do aplicativo.
Construir uma SAN proporciona benefícios tangíveis para a empresa, ao permitir o aumento do
compartilhamento de dados, a utilização de equipamentos e o gerenciamento centralizado de
recursos de storage. Isso deve ser equilibrado por uma abordagem racional de segurança de
dados para permitir que os benefícios da SAN não comprometam a integridade do patrimônio
corporativo mais importante, que são os dados.
Uma questão comum relativa à segurança de dados, nos atuais ambientes de SAN, são os
inflexíveis e incompatíveis mecanismos de zoneamento nos atuais switches e HBAs (adaptadores
de barramento por host). Dependendo da implementação de zoneamento do fabricante e do
conhecimento do cliente sobre o software, o esquema de proteção de dados pode não ser válido.
Isso, é claro, se a SAN for reconfigurada (ou seja, mover um host ou um dispositivo de
armazenamento de uma porta de comutador para outra) ou acrescentar novos hosts (ou seja,
novos hosts Microsoft Windows escrevendo etiquetas para LUNs – Logical Unit Number
atualmente sendo utilizados por um host Unix). O software pode ajudar a aliviar esse problema,
controlando o acesso a ferramentas de zoneamento que gerenciam comutadores e HBAs e
fornecendo acesso a listas de controle por LUN, que protegem os dados existentes.
Conectividade
Hoje, não bastam apenas sistemas de armazenamento. A necessidade dos dados intactos e
seguros é tão grande que contar com backup corporativo é fundamental. Atualmente, os sistemas
corporativos requerem soluções de backup cada vez mais velozes, flexíveis e confiáveis,
preparadas para atender uma multiplicidade igualmente maior de plataformas.
A adoção dessas soluções depende de um correto planejamento tecnológico que deve ser
adaptado ao foco do negócio, integrando de forma inteligente os novos hardwares e softwares e
que ofereçam meios para gerenciar constantemente esses componentes.
O maior desafio, porém, é desenvolver tal infra-estrutura para operar sobre padrões abertos e
independentes de plataformas de hardware de storage. Mas, para isso, é preciso contar com uma
equipe que compreenda a arquitetura de backup.
Existem diversos casos de implementações de backup que não conseguem suportar o alto
crescimento do volume de dados que, após um curto intervalo de tempo, requer um custoso
processo de reengenharia.
Nessas situações, normalmente, cometem-se erros que poderiam ter sido evitados como o
subdimensionamento de dispositivos de backup, utilização de softwares com falta de
funcionalidades e a falta de planejamento na utilização de redes de dados, incluindo a má
implementação de redes privativas de SAN.
A infra-estrutura de hardware e software de backup precisa ser flexível para suportar a maior
gama possível de sistemas operacionais (em especial Linux, Unix e NT) e poder utilizar as
interfaces e utilitários de backup e restores nativos das principais aplicações de mercado.
Nesse levantamento, deve ser abordado todo o parque de servidores (que serão os clientes do
backup/restore) e de todos os sistemas operacionais, bancos de dados e aplicativos envolvidos e
da rede de interligação dos mesmos. Isso é informação básica para a construção dos domínios de
storage, reunindo grupos de clientes com master e mídia servers.
Também deve ser feita a coleta de informações junto ao cliente em relação ao Service Level
Agreement (acordo de qualidade de serviço), exigido para cada aplicação/banco de dados
envolvido no processo de backup/recovery, e a respectiva janela de backup. É solicitado ao
cliente informar quais serviços estão em processo crítico de continuidade dos negócios e
requerem infra-estrutra para disaster recovery.
Por fim, deve ser avaliada a configuração dos módulos de software para os sistemas
operacionais, aplicativos e bancos de dados envolvidos, além da configuração de ambientes de
cluster e infra-estrutura de point-in-time copy e disaster recovery, conforme informado pelo cliente,
além dos níveis de serviço e janela máxima de backup.
Assim, será possível ter uma solução completa e consistente de forma a garantir escalabilidade,
proteção de investimento e minimizar o tempo de interrupção das operações do data center, não
gerando impacto negativo nos negócios da corporação.
O termo backup está diretamente associado à segurança de dados e deve receber uma atenção
especial do administrador de rede. Qualquer descuido pode ser fatal para os dados mais
importantes de uma empresa. Manter mídias de backup em locais inadequados e sujeitos à
umidade, influência de campos magnéticos e alta temperatura pode danificá-las.
Utilizar um mesmo local de armazenamento tanto para pastas e arquivos de backup quanto para
todos os dados em uso é outro fator de risco de perda de dados se algum simples problema
acontecer. Um deles poderia ser, por exemplo, um dano físico no disco rígido, onde estão
guardados os dados e o backup, juntos.
Outra falha está em deixar as rotinas de backup acontecerem sem qualquer tipo de
gerenciamento e sem observar procedimentos específicos de segurança. É necessária uma
atenção especial para essa questão, evitando que o backup seja esquecido ou que a mídia não
seja trocada e até mesmo que a política de segurança da empresa seja ignorada.
Torna-se imprescindível elaborar um conjunto de procedimentos chamados de política de backup
(ou backup off site), que consiste na retirada periódica da mídia de armazenamento do local onde
o backup é gerado.
Essa mídia é levada geralmente para fora do local. Com isso, mesmo no caso de um acidente
(incêndio, explosão etc), os dados estarão resguardados em local seguro.
Porém, considerando que a demanda por backup de dados é universal, é importante oferecer
funcionalidade e confiabilidade juntamente com uma interface apropriada para administradores
com variados níveis de experiência.
Um bom produto, portanto, deve ser capaz de lidar com a diversidade de marcas e padrões
normalmente encontrados em um ambiente de rede heterogêneo.
Nenhum sistema de armazenamento está completo sem uma solução adequada de cópias de
segurança. Assegurar a integridade dos dados é um dos maiores desafios da área de Tecnologia
da Informação (TI) da empresa, principalmente porque soluções como espelhamento remoto e
cópia de dados não conseguem garantir essa integridade em situações de erros humanos,
sabotagens ou mesmo desastres de proporções não previstas. Em muitos desses casos, somente
uma cópia tipo backup pode resolver a situação.
7 - Resultados
A maior preocupação de um administrador de TI hoje é maximizar a utilização dos recursos que já
possui, inclusive os servidores de storage. O desafio das empresas é conseguir migrar para
modelos mais adequados à companhia sem ter que comprar hardware novo antes de uma
expansão planejada.
Afinal, a computação, como um serviço essencial, significa contar com servidores no data center
que sejam provisionados quando preciso e não ter a necessidade de comprar uma arquitetura de
servidores específica de uma determinada empresa
Por isso, o armazenamento está caminhando em dois sentidos simultâneos: nova centralização,
eliminando as ilhas existentes, e externalização, separando o armazenamento da ligação física
("bus attached") com os servidores. Essas tendências são o que chamamos de modelo de
computação "information centric".
Nesse modelo, os negócios são construídos em torno de suas informações, visto como o ativo
mais estratégico. É uma mudança significativa do modelo "server centric", em que o processador
é a peça-chave da computação e o limitador da capacidade de acesso às informações.
Caminhos do armazenamento
Nesse cenário, o "controlador de políticas" atribuiria aplicações aos servidores tendo como base
critérios pré-definidos e gerenciaria os problemas ou as necessidades de novas aplicações
baseando-se nos conceitos de prioridade e performance. Estamos, é claro, olhando o nível mais
alto do data center e assegurando que os ativos de TI estejam alinhados com as necessidades do
negócio.
Hoje, para gerenciar de modo centralizado o data center, é preciso criar uma complexa
arquitetura multicamada, usando as plataformas de cluster separadas para gerenciar cada tipo de
hardware. É muito difícil criar uma relação entre todas essas plataformas para obter uma visão
clara e abrangente de todo o data center. As maiores dificuldades dos clientes dizem respeito à
simplificação desse ambiente.
E se ocorrer uma fusão, a criação de filiais ou alguma grande reestruturação? A empresa vai
reconstruir toda sua arquitetura de armazenamento? Ou introduzir um novo sistema de
gerenciamento que exija um novo treinamento de todos os funcionários de sua organização?
Recuperação de dados
As redes SAN são consideradas as mais modernas e rápidas disponíveis no mercado. São redes
flexíveis que utilizam interfaces fiber-channel e switches especiais de alta velocidade para
comunicação entre os servidores e os subsistemas de armazenamento. Sua implementação
permite a comunicação de diversos servidores com diversos subsistemas de armazenamento,
incluindo dispositivos de fita magnética. A arquitetura SAN facilita a administração, aumenta as
possibilidades de compartilhamento de recursos de armazenamento disponíveis e é adequada
para aplicações que demandem muitos recursos de I/O e atividade de consolidação de storage.
Toda e qualquer aplicação que necessite trafegar dados pela rede ganha em performance com
esse conceito. Como "subnets", uma SAN agrega largura de banda (bandwith) sem demandar
carga adicional nas redes básicas. Além disso, o gerenciamento torna-se mais fácil. Não há mais
necessidade de buscar informações em dezenas de servidores, pois elas estarão centralizadas
em um único ponto.
O custo de armazenamento de e-mails pode ser reduzido em até 80% com o uso de soluções de
gerenciamento, segundo os fabricantes, por isso mais empresas buscam soluções de ILM
(Information Lyfeclycle Management) para bancos de dados, ERP, CRM, correio eletrônico e
e-mail.
Por isso, além da virtualização, uma grande onda para melhorar a utilização do storage é a
implementação do ILM armazenada nos dispositivos da empresa. Estudos mostram que os dados
da maioria das aplicações deixam de ter a necessidade de estar disponíveis para acesso online
na medida em que o tempo passa. Um exemplo disso são as mensagens arquivadas na caixa
postal no correio eletrônico.
Normalmente, após 45 dias do recebimento, a mensagem de e-mail e seus anexos não precisam
consumir espaço em um disco mais rápido e, conseqüentemente, mais caro. Por isso, se a
empresa estiver precisando comprar discos, possivelmente implementar a gestão das
informações é uma boa alternativa. Dessa forma, irá proporcionar a compra de discos mais lentos
(e mais baratos) e migrar automaticamente as informações utilizadas com menos freqüência para
eles, reduzindo sensivelmente os novos investimentos em storage.
As empresas requerem cada vez mais o gerenciamento que garanta bons níveis de performance
e proteção, para suportar falhas durante o armazenamento (storage media) e elaborar
procedimentos completos em caso de problemas mais graves (disaster recovery). Parcerias com
fabricantes de software, soluções de grid storage e integração de produtos para criação de
soluções mais completas são o foco do mercado.
O ILM permite identificar cada informação, avaliar sua criticidade para o negócio e a necessidade
de acesso rápido a ela e, finalmente, rever a infra-estrutura de storage, de forma a permitir a
alocação apenas dos dados mais importantes em mídias de alta performance e, portanto, mais
caras, deixando o restante em equipamentos mais econômicos. Tudo isso feito de maneira
dinâmica, automática e transparente para o usuário.
Avaliação da infra-estrutura
É importante ainda lembrar que, se parte do conteúdo do arquivo morto é descartável, muitas
informações têm de ser guardadas por tempo determinado de acordo com leis ou regras setoriais,
sendo que possíveis alterações podem acarretar em sérios problemas para a companhia.
A seguir, conforme regras definidas pelos usuários, as informações são encaminhadas para
dispositivos mais baratos, que permitem acesso direto a elas, porém, com certa demora – os
fornecedores alertam que essa diferença pode ser de segundos. Finalmente, dados considerados
históricos vão para mídias com custo ainda mais reduzido e cujo tempo de acesso é um pouco
maior.
Apesar de ser um dos tipos de dados no qual a implementação do conceito de ILM é mais
complexa – por tratar-se de informações semi-estruturadas –, o alto volume de mensagens
eletrônicas que invade os servidores corporativos diariamente e a dificuldade dos usuários lidarem
com ela resultam em custos altíssimos para a companhia. E isso está motivando os CIOs a
encontrarem formas automatizadas de organizá-las e armazená-las.
A chave para as ilhas de storage se interconectarem com os outros aplicativos da empresa, como
ERP, CRM e outras aplicações, está na interoperabilidade entre os protocolos dos fabricantes.
Com a popularização das redes de storage, tornou-se interesse de todo o mercado a
padronização dos protocolos.
Um movimento importante nesse sentido foi a criação da SNIA (Storage Networking Industry
Association) associação que reúne 300 fabricantes mundialmente. A iniciativa Storage
Management Iniciative Specification (SMIS) testa e divulga especificações, realiza testes de
compatibilidade e interoperabilidade nas redes SAN e NAS, tornando os usuários mais
independentes de marcas e fabricantes.
O principal objetivo agora é fornecer especificações para o protocolo iSCSI preparando o terreno
para a próxima onda das redes globais nos grandes data centers.
8 - Tendências
Proteger e garantir a segurança dos dados é o maior desafio das empresas no futuro, de acordo
com uma pesquisa divulgada pela CompTIA, uma associação do mercado de TI. A segurança foi
citada como a principal preocupação por um terço dos 660 executivos entrevistados ligados a
área de storage. Gerenciamento e administração de dados ficaram com o segundo lugar, sendo
mencionados por 17% dos participantes do estudo, seguidos por aceleração de acesso a dados
armazenados (10%). Apenas 6% dos participantes disseram que o atendimento a regras impostas
pelo governo é a principal preocupação.
A rota tomada por empresas como a EMC, Cisco, Brocade e McData segue os princípios de
implementar uma infra-estrutura de virtualização escalável e interoperável. Um passo importante
foi a união dessas empresas para o desenvolvimento conjunto de interfaces de programação de
aplicações APIs (Application Program Interfaces). Em um futuro próximo, essas interfaces vão
permitir que as redes locais (LANs), de longa distância (WANs) e redes de armazenamento (SAN
e NAS) troquem dados sem problemas de interoperabilidade.
Qualquer que seja o modelo de arquitetura de rede: SAN, NAS ou combinação de ambas, a
interligação entre a rede principal e backup pode ser feita por meio da solução de
telecomunicações de storage sobre redes ópticas, que se baseia em tecnologias de transmissão
óptica Synchronous Digital Hierarchy (SDH). Na cadeia de fornecimento dessa solução, estão as
empresas de storage, operadoras e fornecedores de equipamentos de telecomunicações.
Redes IP
A popularização das redes IP acontece, no storage, com a utilização de plataformas iSCSI. Para
decolar, o mercado aguarda o desenvolvimento de padrões que estão em curso com iniciativas
como a SNIA (Storage Networking Industry Association),que conta com um time de 400
profissionais, dos quais cem fazem parte das grandes companhias de storage.
A grande aposta tem sido a Storage Management Initiative (SMI), dentro da SNIA, que une os
fornecedores em torno da unificação do processo de gerenciamento. Uma das etapas da SMI tem
sido, justamente, fazer intercâmbio de APIs rumo à interoperabilidade baseada em padrões.
Com a popularização das redes SAN (Storage Area Network), uma das apostas da indústria é a
queda de preços para atingir novos mercados como as pequenas e médias empresas. As
pressões sobre os últimos cinco anos – na direção das SAN e NAS, que ampliou a adoção das
redes de armazenamento de dados – deve continuar ampliando a venda e oferta de produtos de
gerenciamento com o conceito ILM (Information Lifecycle Management) mais ágeis e mais
baratos, enquanto o iSCSI continua a ganhar mercado.
Nos últimos anos, muitos fabricantes já adaptaram seus produtos para suportar as IP SANs
(redes de armazenamento que utilizam o protocolo IP), usando o protocolo iSCSI em conjunto
com o FC-IP (Fibre Channel sobre TCP/IP) ou iFCP (Internet Fibre Channel Protocol).
Especialistas não acham que a iSCSI vá matar o mercado das SANs, já que o FC e iSCSI
endereçam diferentes necessidades. Clientes que não querem uma FC dedicada e contam com
grandes volumes de storage devem voltar-se para a iSCSI.
O objetivo principal é garantir uma total utilização da infra-estrutura, diminuindo sua ociosidade e
tornando mais fácil a implementação do ILM (Information Lifecycle Management) em todas as
aplicações, independente de compreenderem a infra-estrutura. Alguns requisitos são essenciais
para implementar a virtualização: escalabilidade, gerência ponto-a-ponto, interoperabilidade e
aderência a padrões da indústria.
Grid computing
A indústria também aposta no grid computing, arquitetura que adiciona uma camada à SAN, que
virtualiza dados em múltiplos arrays. Mas não basta a utilização da tecnologia de integração de
discos e a virtualização, se a rede ficar muito lenta. Para superar esse obstáculo, a indústria
aponta para o chamado “object storage”, que essencialmente utiliza metadados e endereçamento
virtual para otimizar as redes.
O object storage usa controladores de metadados para atuar como uma ponte entre o dispositivo
de storage e o servidor em que estão armazenados os dados. Dessa forma, pode fornecer a
informação solicitada pelo aplicativo de maneira eficiente e sem congestionar a rede.
Armazenamento físico
Na futurologia dos discos, diversos institutos de pesquisa apontam para diferentes tecnologias,
sempre buscando ampliar a capacidade de armazenamento. As linhas de desenvolvimento vão na
direção dos discos ópticos, nanotecnologia e chips baseados em polímeros.
Os desenvolvedores da tecnologia ainda destacam que os discos MODS não serão os primeiros
a desafiar a dominação dos DVDs, no mercado audiovisual, já que os discos BluRay também têm
capacidade cinco vezes superior aos discos convencionais (cerca de 25 GB por face).
O grupo também está trabalhando para descobrir um formato que tornaria o disco compatível
com aparelhos reprodutores de CD e DVD já existentes. Um dos pesquisadores, Dr. Török,
destacou que acredita que os primeiros discos comerciais desse tipo estarão disponíveis entre os
anos de 2010 e 2015.
Outra linha de pesquisa é com chips de memória com filme plástico e silício, que poderia baratear
o armazenamento do futuro. Essa linha de pesquisa reúne a HP e a Princeton University, dos
Estados Unidos. Segundo a revista Nature, a passagem da eletricidade sobre o dispositivo de
filme plástico funde o polímero, mudando sua condutividade e permitindo que camadas de
memória possam ser sobrepostas.
A tecnologia seria mais barata, porque não envolve transistores. Intel e AMD prevêem produzir
memórias baseadas nesses polímeros, mas as pesquisas ainda são preliminares porque os
pesquisadores ainda estão testando a velocidade do registro e leitura do dado. O dispositivo
chamado PEDOT pode conter 1 Megabit de dados em um milímetro. Um centímetro cúbico
poderia armazenar 1 GB de dados.
Para atender essa necessidade, a computação molecular começa a tomar forma. Empresas e
institutos de pesquisa desenvolvem os nanorobôs, com a manipulação de proteínas sintéticas que
se aproximam da estrutura do DNA.
A meta é explorar essas propriedades para ganhar controle das estruturas e dispositivos ao nível
atômico, molecular e supramolecular e aprender a fabricar e a usar eficientemente esses
dispositivos para novos chips e sistemas que futuramente vão armazenar grandes volumes de
dados. Essa tecnologia aponta para grandes promessas no campo do armazenamento de dados.
Pequenas depressões criam uma força atômica microscópica em um polímero que recebe os bits
de dados armazenados. O polímero pode ser reusado milhões de vezes, ultrapassando os meios
magnéticos de gravação. No conceito millipede, um array opera de maneira paralela, onde cada
dado é lido, escrito ou apagado, em sua própria área de armazenamento.
O Bell Labs, em conjunto com a Lucent e a Imation, tem uma linha de desenvolvimento de
sistemas holográficos de storage, reposicionando wafers de silício separados por nanomilímetros
para conter os dados.
No mercado de discos multimídia, o dispositivo de 1,8 polegadas deve ir além dos equipamentos
de MP3, integrando notebooks, PDAs e equipamentos embarcados (computadores de
automóveis). Estes equipados com sistemas de localização que acessam grandes bases de
dados, poderão armazenar informações e imagens 3D em discos compactos mínimos.