Você está na página 1de 37

Storage

1 - Introdução ao Storage

O aumento do volume de informações que circula nas empresas passou a ser crítico em qualquer
corporação e com ele a importância de contar com ferramentas de armazenamento de dados
cresceu. Atualmente, o desafio não é só dimensionar a necessidade de espaço, em função dos
terabytes a serem preservados, mas gerenciar esse processo de forma eficiente para garantir
acesso rápido e inteligente aos dados armazenados. Com isso, o conceito do gerenciamento dos
dados vem evoluindo a cada dia, com o surgimento de novas soluções, estratégias e tendências.

Isso porque, antigamente, o computador era conectado diretamente ao seu setor de


armazenamento, e nenhum outro PC podia acessar os dados guardados. Os aplicativos eram
executados em um mainframe. Na medida em que a computação cliente-servidor foi
desenvolvida, os aplicativos passaram a ser executados em servidores dedicados, cada qual com
seu próprio sistema de armazenamento.

Não tardou a surgir, contudo, a necessidade desses aplicativos compartilharem dados. Conforme
a capacidade dos sistemas de disk array (módulos de armazenamento de discos) foi crescendo,
um único disk array pôde suprir as necessidades de armazenamento de vários servidores. Assim,
nasceu o storage em rede. Hoje, o storage – armazenamento de dados – vai além do seu
conceito. Entre as novas modalidades atreladas ao tema estão a virtualização de dados e o
gerenciamento do ciclo de vida da informação, por exemplo.

Mas o que é virtualização de storage? Nada mais do que o processo de consolidar vários
dispositivos físicos, de diversos fabricantes e reorganizá-los em agrupamentos virtuais, lógicos ou
em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional (OS)
para utilização por aplicativos ou pelos usuários finais apropriados.
Apesar de soar como um recurso atual, a virtualização do armazenamento não é novidade, tanto
no conceito como na prática. Definida há quase 20 anos, na computação em mainframes, a
tecnologia está se consolidando com o avanço das SANs (Storage Área Networks), que serão
tratadas mais detalhadamente nos próximos módulos.

Já o gerenciamento do ciclo de vida da informação ou ILM - Information Lifecycle Management -


permite diagnosticar quais informações realmente demandam acesso mais ou menos rápido, além
de classificar o grau de importância estratégica desse dado ou informação para a corporação.
Assim, o modelo de armazenamento pode ser redimensionado, representando acesso mais
inteligente, rápido e com menor custo. Esse conceito está integrado ao que se convenciona
chamar de Storage Resource Management (SRM).

Virtualização

O armazenamento de informação sempre foi parte da infra-estrutura tecnológica de qualquer


empresa ou de qualquer usuário. Armazenar informação é fundamental no ambiente tecnológico,
independente da arquitetura utilizada. Pela falta de um modelo de padronização na área de
storage, as empresas investiram, ao longo do tempo, em ilhas de storage, com diversas marcas
para suportar diferentes aplicações. Hoje, o que se observa é uma verdadeira “Torre de Babel”
nessa área, com sistemas que não se comunicam por terem arquiteturas proprietárias.
Essa diversidade acontece tanto em relação ao uso de recursos físicos de armazenagem (como
os discos) até as aplicações. No caso dos discos, isso aconteceu principalmente porque eles
foram adquiridos para suportar a demanda cada vez maior de armazenamento em função do uso
de aplicações como Customer Relationship Management (CRM), Enterprise Resource Planning
(ERP), Business Intelligence (BI) e até correio eletrônico. Em cada época um fornecedor possuía
o melhor preço ou a melhor tecnologia para complementar essas soluções.

Atualmente, os discos, transformados em commodities, podem ser melhor aproveitados e


facilitam a composição de uma estratégia de armazenamento de dados de uma forma inteligente.
A virtualização de storage, por exemplo, garante que todos os discos, até então incomunicáveis,
possam fazer parte de um único sistema de armazenamento. Dessa forma, a corporação
consegue gerenciar de maneira simples os dados armazenados. Além dessas facilidades, a
modernização dos recursos para armazenamento possibilitou uma economia considerável para os
usuários que agora têm como utilizar os discos para todas as aplicações, com livre escolha de
fabricantes.

Assim como no universo dos discos, a virtualização contribui para organizar o modelo de
aplicações na área de armazenamento. O grande drama enfrentado no passado pelas empresas
era a falta de interoperabilidade que existia entre as aplicações, visto que elas aconteciam de
forma isolada – em cada departamento – e utilizando software de fabricantes diferentes e muitas
vezes proprietários.

Elo de integração

Mas a virtualização veio resolver esse problema, transformando-se em um elo de integração. Isso
porque ela possibilita que soluções de diferentes fabricantes possam conversar entre si e realizar
funções de provisionamento dinâmico. Esse recurso permite que as empresas criem “pools” de
armazenamento, obtendo uma visão unificada e consolidada da capacidade total de storage. De
um lado, a tecnologia dobra a capacidade de utilização do armazenamento nas empresas e, de
outro, o provisionamento dinâmico possibilita que a alocação de mais espaço por uma aplicação
ou servidor seja feita automaticamente.

Mas não basta só virtualizar, é preciso gerenciar. Segundo o instituto de análise Gartner Group,
para cada dólar investido na compra de soluções tecnológicas, cinco são gastos para controlar e
manter o ambiente. Investimentos no gerenciamento da informação é prioridade para as
empresas que adotam o Storage Resource Management (SRM), permitindo administrar as
diversas plataformas de armazenamento.

O SRM abrange desde relatórios para classificar os dados e políticas de alocação, até o
gerenciamento baseado na aplicação e monitoração do desempenho. Com a classificação de
dados, é mais fácil detectar arquivos que não são acessados normalmente e realocá-los em fita,
por exemplo, livrando-os de ocupar centenas de gigabytes em dispositivos mais caros.

Os CIOs (Chief Information Officers), ainda segundo o estudo do Gartner Group, apontam que
cerca de 40% das informações armazenadas pelo usuário final não interessam às empresas. Uma
boa solução de SRM, dizem os especialistas, incorpora múltiplas visões, assim como gerencia a
capacidade física e lógica de storage, tornando o ambiente de armazenamento muito mais eficaz.
A tendência é contar com mais serviços de integração para que os usuários não tenham de
gerenciar ambientes estanques de software de diferentes fornecedores.

No controle total

O primeiro passo para atingir a plena capacidade de controle é construir uma rede de
armazenamento inteligente, que permita acesso ao transporte de dados e faça a informação se
mover de um lado para o outro. Os passos seguintes são classificar os dados segundo regras de
negócios e partir para a automatização, usando ferramentas que facilitem a identificação de dados
e utilizando a rede implementada na primeira etapa. Com plataformas de conteúdo fixo, é
necessário que estas sejam acessadas por aplicações, independente de estarem em fita ou em
disco.

Para obter acesso livre e interoperabilidade global entre as aplicações, o que irá proporcionar
gerenciamento completo das informações, é necessária a construção de uma rede de
armazenamento inteligente. Com um conjunto de software para gerenciamento de storage, é
possível identificar as informações que estão sem acesso e solucionar o problema. Em cima
dessa estrutura são feitas várias evoluções, como ligação online entre os storages de produção e
de backup.

Na hora de escolher a melhor solução, principalmente se a intenção é fazer o gerenciamento do


ambiente de storage, o administrador da rede vai ter de “juntar pedaços”. Não há ainda fornecedor
que disponha de uma solução completa, abrangendo todas as nuances tecnológicas. Para que o
gerenciamento seja aperfeiçoado e também entendido em todos os departamentos da empresa e
funcione de maneira linear, é importante que seja implementada uma política de gestão dos
recursos de storage.

Contudo, ela depende de uma boa capacidade de negociação e de um profundo conhecimento


da infra-estrutura existente e das necessidades da empresa. Até porque, as informações
transformam-se rapidamente em terabytes, acessadas, simultaneamente, por centenas, quando
não, milhares de usuários que criam e acessam dados ao mesmo tempo e com as mais diferentes
finalidades.

Tecnologias emergentes

Com o objetivo de minimizar o caos do gerenciamento das informações corporativas e, ao


mesmo tempo, ajudar as organizações a reduzir significativamente os gastos com
armazenamento, os fornecedores de storage começam a oferecer soluções para a nova onda
desse mercado: a organização das informações tendo como base sua importância para os
negócios, em determinado momento.

Os nomes ainda variam – alguns fornecedores chamam de hierarquização, outros preferem mais
um acrônimo de três letras, o ILM (Information Lifecycle Management – gerenciamento do ciclo de
vida da informação) –, mas o conceito é um só. Identificar cada informação, avaliar o quanto é
crítica para o negócio e a necessidade de acesso rápido a ela e, finalmente, rever a infra-estrutura
de storage, de forma a permitir a alocação apenas dos dados mais importantes em mídias de alta
performance e, portanto, mais caras, deixando o restante em equipamentos mais econômicos.
Tudo isso feito de maneira dinâmica, automática e transparente para o usuário.

Entre as tecnologias emergentes na área de storage, portanto, estão a virtualização, já citada


anteriormente, a Internet SCSI e o ILM (Information Lifecycle Management). Ao lado de
tecnologias já consolidadas como o NAS (Network Attached Storage) armazenamento conectado
à rede. As vantagens de seu uso incluem armazenamento compartilhado, habilidade de adotar
diferentes protocolos de arquivos para diferentes ambientes e redução de custos administrativos,
resultando em menor custo total de propriedade.

Já a SAN (Storage Area Network), rede de armazenamento, pode ser utilizada para conectar
múltiplos servidores e é indicada para organizações com necessidade de storage de larga escala
e um arsenal complexo de dispositivos de armazenamento. O ILM, gestão do ciclo de vida da
informação, é um recurso que contribui para o gerenciamento de storage de forma inteligente e é
fundamental para a demanda atual. Estudos mostram que os dados da maioria das aplicações
não precisam necessariamente estar disponíveis para acesso online, na medida em que o tempo
passa.

Exemplo disso são as mensagens arquivadas na caixa postal do correio eletrônico. Normalmente,
após 45 dias do recebimento, essa mensagem, bem como seus anexos, não precisam consumir
espaço em um disco mais rápido e, conseqüentemente, mais caro. Assim, caso a empresa
necessite comprar discos, a adoção da gestão das informações permite a aquisição de discos
mais lentos (e mais baratos), que vão receber automaticamente as informações utilizadas com
menos freqüência, reduzindo sensivelmente os novos investimentos em storage.

Entre os protocolos de comunicação figuram o FC (Fibre Channel) – uma das tecnologias mais
comercializadas para transmitir dados entre dispositivos de computador, adequada para conectar
servidores de computadores a dispositivos de armazenamento compartilhado. E o novíssimo
iSCSI (Small Computer System Interface) – protocolo emergente que oferece I/O por Ethernet e
redes IP e que tem as mesmas vantagens da SAN, mas usa protocolos de networking.

Esse protocolo é hoje apontado como a tecnologia que mais vai ajudar o desenvolvimento do
mercado de SAN. O FC/IP (Fibre Channel over IP) – junto com o iSCSI, é também uma das
principais abordagens da transmissão de dados de armazenamento via redes IP. Também fazem
parte desse pacote de tecnologias emergentes as soluções de Disaster Recovery (Prevenção de
desstres). Visto que o armazenamento ocupa papel fundamental na estratégia de recuperação
dos negócios.

A minimização dos prejuízos provocados por um eventual desastre que se abata sobre os
sistemas de informação corporativos depende bastante das opções estratégicas e das soluções
adotadas pela organização na área de armazenamento. As soluções centram-se cada vez mais
na continuidade do negócio e na preservação dos sistemas. A velocidade da recuperação de
dados terá de ser entendida por toda a estratégia de TI da corporação e como elemento central do
próprio negócio.

2 - Recursos físicos

Não faz muito tempo, era possível armazenar dados em simples disquetes. Depois, com a
facilidade cada vez maior de acesso às informações, o volume de dados corporativos cresceu e
tornou-se estratégico para o sucesso dos negócios. Assim, o armazenamento transformou-se em
procedimento imprescindível para o gerenciamento e a disponibilidade inteligente das informações
dentro da organização. Para essa operação, no entanto, são necessários diversos tipos de mídia,
ou seja, dispositivos de armazenamento. Estes podem ser divididos em três grupos de unidades:
magnéticas, ópticas e ópticas e magnéticas.

As fitas magnéticas foram muito úteis no início da década de 60, quando os computadores eram
comercializados com unidades de fitas cassete. Hoje, apesar de terem acesso muito lento, elas
ainda são utilizadas em alguns casos para fazer o backup de informações que não precisam ser
acessadas freqüentemente. As unidades de fita de cartucho de ¼ polegada, conhecidas como
QIC (quarter-inch cartridge), funcionam para realizar backups de muitos discos rígidos.

Já as fitas streamer foram as primeiras memórias secundárias, usadas para armazenamento de


backups. A aparência desse tipo de fita magnética é similar à das usadas em gravadores antigos.
Ela é feita de material plástico e coberta por uma substância magnetizável. Os dados são
gravados nos chamados registros físicos dessa mídia. Cada um deles é gravado em trilhas
paralelas, que são divididas em frames (quadros). Cada frame é o espaço para armazenar 1 byte.
O espaço entre um registro e outro é chamado de gap.

As fitas DAT formam a segunda geração das fitas magnéticas. Menores, mais fáceis de
armazenar e mais seguras, permitem um armazenamento maior de dados. Sua grande
capacidade (2 GB a 4 GB) torna essas mídias ótimas para backup de grandes volumes de dados.
Sua aparência assemelha-se à de uma fita de vídeo, em tamanho menor.

Mídias removíveis

As mídias que serão tratadas a seguir são definidas por muitos como discos rígidos. Mas, apesar
disso, diferentemente dos outros discos, são removíveis e podem ser transportadas. Elas são
úteis para fazer backup ou transportar grande quantidade de dados, uma vez que os disquetes
possuem pouca capacidade e os discos rígidos não podem ser transportados. A desvantagem é
que o acesso torna-se um pouco lento.

O Jaz é uma dessas mídias. Sua capacidade chega a 2 GB e a taxa de transferência média é de
2 MB por segundo. Assim, esse dispositivo é uma boa opção para fazer backup de discos rígidos
e não é muito utilizado para transporte de dados, mesmo porque ele exige interface SCSI (Small
Computer System Interface).

Com a necessidade de dispositivos de fácil transporte e com alta capacidade de armazenamento,


os “zipdisks” e os “superdisks”, por exemplo, surgem como boa opção, cada vez mais difundida.
Existem versões com capacidade para 100 MB (mais utilizado) e 250 MB (com mais recursos,
porém pouco difundido).

E ainda o velho e bom conhecido disquete, denominado como mídia flexível, o qual foi criado na
década de 70 e tornou-se o mais popular meio de armazenagem de dados em pequenas
quantidades. Hoje, com a avalanche de dados, ele passou a ser substituído por outras mídias
como, por exemplo, o CD (Compact Disk).

Os discos rígidos, também conhecidos como hard-disk (HD) ou winchester, estão presentes em
praticamente todos os computadores e são o meio mais rápido e com maior espaço para
armazenar as informações. O HD é um conjunto de discos de alumínio, que utiliza a leitura e a
gravação magnéticas. Fabricado dentro de uma caixa de metal blindada a vácuo, possui, assim
como os disquetes, divisão em trilhas e setores. Cada disco possui duas faces, cada face tendo
sua cabeça de leitura/gravação exclusiva.

Unidades Ópticas

Uma unidade óptica é gravada utilizando um laser de alta potência. Com o laser, são feitos furos
(pits) em um disco matriz. As áreas não furadas entre os pits, são os chamados lands (espaços).
Como os pits têm refletividade diferente dos lands, representa uma informação digital (0 e 1).

Para fazer a leitura de um CD-ROM (Compact Disk – Read Only Memory), um laser na cabeça de
leitura óptica do drive projeta um feixe de luz que penetra na camada de plástico protetora do
disco e colide com o alumínio reflexivo. Ao colidir com um espaço (land), a luz é refletida de volta
e é registrada como presença de luz (bit 1) e as cavidades (pits) que não refletem a luz são
registradas como ausência de luz (bit 0).

As unidades ópticas, no entanto, não sofrem alteração se expostas aos meios magnéticos.
Podemos dividir as unidades ópticas em CDs e em DVDs. Os CDs são o tipo mais popular de
unidade óptica e muito usados atualmente, principalmente para multimídia. Eles têm capacidade
de 650 MB (aproximadamente 500 disquetes), o que faz com que sejam usados para jogos ou
instalação de programas.

O CD-ROM é o tipo do CD que só serve para leitura. Ele já vem gravado de fábrica e a única
coisa a fazer com ele é utilizá-lo para a leitura de suas informações. Já o CD-R (Compact Disk
Recordable) foi criado em função da necessidade de armazenar grandes quantidades de dados,
que não cabem nos disquetes. Ele é virgem e por meio de uma gravadora de CDs é possível
gravar suas informações. Porém, ele só pode ser gravado uma única vez.

Ele também é conhecido como Worm (Write Once Ready Many) e é muito usado na gravação de
programas piratas. Uma das aplicações atuais e mais utilizadas do CD-Rmais é quando as
informações precisam ser guardadas para efeito legal. Isto porque esse recurso não permite a
alteração do que ali estiver gravado, garantindo a autenticidade das informações.

Existe ainda o CD-RW (Compact Disk Rewriteable), semelhante ao CD-R, pois possui a
vantagem de poder ser gravado e regravado diversas vezes. Porém, seu custo ainda é alto.

Usando o mesmo princípio dos CDs, o DVD (Digital Versatile Disk) possui uma capacidade muito
maior de armazenamento, podendo chegar a 17 GB e uma qualidade de gravação ainda maior.
Hoje, o DVD-Rom tem sido muito utilizado para a gravação de filmes que podem ser vistos pelo
computador ou por um aparelho específico de DVD. Eles dividem-se, seguindo o mesmo princípio
dos CDs, em DVD-R e DVD-RW.

As unidades ópticas-magnéticas são um novo tipo de tecnologia para o armazenamento de


dados e que pode vir a desbancar até mesmo os CDs – são os MO (Magneto-Optical) disk. É uma
tecnologia híbrida que combina os princípios magnéticos dos discos e os princípios ópticos dos
CDs. Podem chegar a armazenar até 2 GB. Essa tecnologia combina gravação mais confiável e
rápida a laser, com a possibilidade de regravar várias vezes os dados no disco, permitida pela
unidade magnética. Os discos também têm aproximadamente o tamanho de 3,5 polegadas.

Dispositivos físicos

Entre os meios físicos disponíveis no mundo do storage, destacam-se ainda o Direct Attached
Storage (DAS), os discos Redundant Array of Independent Disks (RAID), o ATA (Advanced
Technology Attachment) e a arquitetura Blade Server. E também as interfaces iSCSI (Internet
Samall Computer System Interface) e ISCSI (Small Computer System Interface).

O Direct Attached Storage são drives integrados ao gabinete do computador conectados à CPU
via PCI ou outro periférico. É diferente da NAS (Network Attached Storage) e da SAN (Storage
Area Network), unidades externas conectadas às workstations e servidores rodando em rede.
Com o DAS, cada servidor é dedicado ao storage.

Para ficar claro, vale definir o NAS, que de forma sintética pode ser descrito como
armazenamento conectado à rede que fornece acesso a arquivos para usuários conectados,
utilizando protocolos de transporte em Ethernet e TCP/IP. Já as SANs, permitem que diversos
servidores compartilhem espaço em disco, a partir de um ou mais disk array (matriz para discos
de storage). As SANs fornecem aos servidores o acesso ao armazenamento em bloco, usando o
protocolo Fibre Channel.

No meio físico, as interfaces desempenham um papel importantíssimo para facilitar ou mesmo


propiciar a interoperabilidade – integração harmoniosa entre hardware e softwares de forma a
facilitar a comunicação entre eles.
Nesse contexto temos a interface iSCSI, que roda em redes padrão TCP/IP.

Uma pequena iSCSI pode ser construída no topo das redes existentes e usar inclusive Windows
ou servidores Linux como arrays remotos de armazenamento. Grandes redes também podem se
beneficiar do recurso, desde, é claro, que a iSCSI colocou a SAN dentro do mundo dos custos
mais acessíveis.

Já a interface de hardware SCSI possibilita a conexão de até 15 periféricos em uma única placa
que se interliga à placa mãe, usando PCI (Peripheral Component Interconect – interconector de
componentes periféricos). Os periféricos SCSI são interligados e todos têm uma segunda porta
para a conexão com o próximo equipamento em linha. O host SCSI adaptadores estão também
disponíveis com dois controladores, suportando 30 periféricos.

O que é RAID?

Fundamental para os sistemas físicos de storage, o RAID (Redundant Array of Independent Disks
– matriz redundante de discos independentes) é um subsistema de disco que provê tolerância a
falhas. Trata-se de uma tecnologia que combina vários discos rígidos (HD) para formar uma única
unidade lógica, onde os mesmos dados são armazenados em todos (redundância).

Em outras palavras, é um conjunto de HDs que funciona como se fosse um só. Isso permite ter
uma tolerância alta contra falhas, pois se um disco tiver problemas, os demais continuam
funcionando, disponibilizando os dados. O RAID surgiu há mais de 15 anos, resultado de
pesquisas realizadas na Universidade de Berkesley, na Califórnia, Estados Unidos.

Para que o RAID seja formado, é preciso utilizar, pelo menos, 2 HDs. O sistema operacional,
nesse caso, enxergará os discos como uma unidade lógica única. Quando há gravação de dados,
os mesmos se repartem entre os discos do RAID (dependendo do nível). Com isso, além de
garantir a disponibilidade dos dados em caso de falha de um disco, é possível também equilibrar o
acesso às informações, de forma que não haja gargalos.

Além do RAID, o ATA (Advanced Technology Attachment) é considerado um dos discos mais
baratos do mercado. É o nome oficial que um grupo do American National Standard Institute
utiliza para o que a indústria de computadores chama de eletrônica integrada do drive (IDE –
integrated drive eletronics).

As opções, dependendo do perfil do cliente, passam também pelas NAS. As vantagens de seu
uso incluem armazenamento compartilhado, habilidade de adotar diferentes protocolos de
arquivos para diferentes ambientes de usuários e redução de custos administrativos, resultando
em menor custo total de propriedade.

*Blade Server* - Outro recurso físico bastante usado em data centers são os Blade Servers. Uma
arquitetura de múltiplos servidores em um único chassi, que economiza espaço e aprimora o
gerenciamento. Em rack ou gabinetes individuais, os chassis permitem melhor suporte. Cada
blade tem seus próprios CPU, memória e disco rígido, permitindo também bons recursos de
redundância.

A indústria está oferecendo cada vez mais servidores blade. A participação desse segmento de
servidores no mercado mais do que dobrou em 2004, alcançando 450 mil unidades, 7% do
mercado, com previsão de chegar a 40% até 2006, segundo o instituto de pesquisa IDC. O rápido
avanço dos sistemas de gerenciamento, tecnologia de cluster e a contínua desagregação dos
servidores em pequenos equipamentos e componentes permite prever o crescimento dos
servidores blades e sistemas modulares.

*Protocolos* - Para que os dados passem ou sejam transmitidos de um meio para outro, ou seja,
trafeguem, eles necessitam de interfaces, que foram tratadas anteriormente, e também de
protocolos. Portanto, o seu armazenamento nos meios físicos terá de contar com a atuação de
protocolos como IP, Fiber Chanel, Gigabit Ethernet, entre outros.

Com a popularização do protocolo Fibre Channel, produtos como SAN e NAS ganharam
aceitação entre os diretores de TI, porque oferecem melhor performance e armazenamento, além
de uma maior escalabilidade, fazendo com que os produtos DAS diminuíssem sua presença no
mercado. Enquanto em 1998 o DAS tinha 88% de participação, no ano passado essa
porcentagem caiu para 56%, de acordo com a IDC. Até 2006, a previsão dos especialistas é uma
queda para 26%.

O protocolo Fibre Channel (FC) é uma das tecnologias mais comercializadas para transmitir
dados entre dispositivos de computador e adequada para conectar servidores de computadores a
dispositivos de armazenamento compartilhado. É o protocolo de alta velocidade usado para
desenvolver as chamadas SANs. Embora possa ser usado de forma geral na rede, carregando
ATM, IP e outros protocolos, o FC no início suportava tráfego de dados SCSI dos servidores para
os disk arrays, serializando comandos.

Hoje, o FC apenas suporta conexões de fibra single e multimodo, além de cabo coaxial. Pode ser
configurado ponto a ponto, via switch, com ou sem hub e conectar-se até 127 nós. Suporta
transmitir até 2.12 GB em cada direção e usa o protocolo Gigabit Ehternet. O FC está evoluindo
para o FC/IP (Fibre Channel over IP) que, junto com o iSCSI, é uma das principais abordagens da
transmissão de dados de armazenamento via redes IP.

O protocolo IP Storage - O IP Storage pode ser usado para desenvolver uma SAN, junto com o
Gigabit Ethernet.

Tradicionalmente, as SANs eram desenvolvidas usando o transporte Fibre Channel porque esse
procedimento provia velocidade aos gigabits comparados de 10 Mbps Ethernet a 100 Mbps
Ethernet, usados para construir redes de mensagens. Os equipamentos com FC são mais caros e
a interoperabilidade entre diferentes fornecedores não é totalmente padronizada.

O IP tornou-se mais comum e, consequentemente, o ambiente IP Storage popularizou-se em


SANs, estendendo a tecnologia. As SANs consolidaram-se como uma tecnologia promissora,
simples e de fácil gerenciamento em um grande e complexo sistema de storage. Mas aí vem o
alto custo: a primeira geração das SANs depende de redes FC, que requerem novos cabos,
aprender novas ferramentas e switches especializados. Infelizmente isso tornou as SANs difíceis
de justificar, a não ser para grandes instalações de storage.

3 - Virtualização

A virtualização de storage – armazenamento em rede, de forma que os dados guardados possam


ser compartilhados – é um conceito usado para definir uma infra-estrutura inteligente. Nela,
dispositivos diversos, com características, funcionalidades, performance, níveis de serviço e até
mídia física diferenciadas são apresentados ao servidor e às aplicações como se fossem virtuais.
Assim, simplifica-se o gerenciamento e diminui-se a complexidade da alocação e de configuração.

Essa modalidade nada mais é do que o processo que permite consolidar vários dispositivos
físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais, lógicos ou unidades de
armazenamento. Essas unidades são apresentadas ao sistema operacional (SO) para utilização
pelos aplicativos e usuários finais determinados. Apesar do crescente interesse na virtualização
do armazenamento, o conceito não é novo. Definido há quase 20 anos, na computação dos
mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a
emergência das SANs (Storage Area Networks), dispositivos de armazenamento de dados em
rede.

A área é tão importante no mercado de storage que, em 2007, duas grandes empresas
anunciaram investimentos nessa tecnologia: Sun Microsystems e Dell. A Sun anunciou sua
entrada no mercado de virtualização no final de 2007 com a plataforma batizada de xVM
composta inicialmente de um servidor e do sistema de gerenciamento Ops Center. Já a Dell
apostou na compra da EqualLogic, fornecedora de storage area network (SAN) por US$ 1,4 bilhão
em novembro de 2007. A compra é considerada como um impulso para os esforços da Dell em
oferecer virtualização aos seus clientes.

A virtualização permite o uso da infra-estrutura, diminuindo sua ociosidade e tornando possível a


implementação da Information Lifecycle Management (ILM) em todas as aplicações, independente
da infra-estrutura. Alguns requisitos são essenciais para implementá-la: escalabilidade, gerência
ponto-a-ponto, interoperabilidade, aderência a padrões da indústria e a tão sonhada redução do
custo total do armazenamento, proporcionando economia real perante as soluções existentes.

Além do compartilhamento das SANs, os benefícios da virtualização também são observados na


arquitetura de armazenamento de dispositivos conectados fora da rede – Direct Attached Storage
(DAS). Seja em mainframe ou em ambientes de sistema aberto, as tecnologias de virtualização
são utilizadas para simplificar e centralizar o gerenciamento e fornecer a flexibilidade no
atendimento à demanda do acesso aos dados, onde quer que estejam.

Esse recurso elimina as restrições físicas, ao criar uma camada acima do armazenamento físico,
que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde
for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos
em entidades virtuais projetadas para atender aos requisitos individuais dos aplicativos.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos
físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, sem
modificar a implementação do hardware. Na medida em que o novo hardware se torna disponível
ou que as características do aplicativo se modificam, as alterações na camada física podem ser
realizadas sem interromper o acesso aos dados no dispositivo lógico. As tecnologias de
virtualização de armazenamento estão evoluindo, incluindo soluções de banda interna e externa
(in-band e out-band), com base em storage e em hospedagem.

Soluções de armazenamento e hospedagem

As soluções com base em armazenamento foram as primeiras tecnologias de virtualização e


permitem que vários servidores compartilhem o acesso a dados em um único (e grande) array
(matriz) individual. O lado negativo é que esses servidores não podem acessar os dados além de
seu próprio array. Além disso, os usuários correm o risco de ficar limitados a soluções que
dependem dos fabricantes, com base nas restrições de compatibilidade de hardware do array
mais amplo ou dos servidores diretamente conectados. A virtualização com base no
armazenamento pode, então, ser mais dispendiosa do que outras alternativas.

As soluções baseadas em hospedagem possibilitam os discos dentro de vários arrays, e de


diversos fabricantes, sejam representados como um agrupamento virtual para um único servidor
host. Isso permite que os profissionais da tecnologia da informação, por exemplo, tenham maior
flexibilidade de habilitá-los como independentes dos fabricantes de soluções de armazenamento,
embora ainda desfrutem dos benefícios da administração de storage centralizada a partir de um
único console.

Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, este
pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem
surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Nesse caso,
a duplicação dos dados ou outros métodos de virtualização de armazenamento podem atrapalhar
a aplicação.

Um desafio na evolução da virtualização do armazenamento era garantir que os discos de vários


arrays e de diversos fabricantes fossem representados virtualmente para mais de um servidor.
Essa possibilidade, no entanto, pode ser obtida com uma solução de banda interna (in-band)
chamada de virtualização simétrica. Assim como as soluções com base em host, esse tipo de
virtualização também é independente do fabricante e pode ser utilizado nas SANs e nas redes
locais. No entanto, nessas circunstâncias, é fundamental que o dispositivo de banda interna tenha
a escalabilidade para atender as crescentes exigências do gerenciamento de aplicativos e de
armazenamento.

Já as soluções out-of-band fornecem a capacidade de virtualização simétrica, mas movem o


dispositivo de armazenamento para fora do caminho de dados. Essa modalidade também está
melhor posicionada para utilizar a capacidade de conexão rápida de um switch SAN. Mas para
conseguir esses benefícios, é necessário que o software seja executado nos próprios servidores
de aplicativos, para a comunicação do dispositivo virtual. Isso pode aumentar a utilização da CPU
e tornará as atualizações de sistemas operacionais mais precárias quando essas soluções
estiverem instaladas.

Todas as diferentes tecnologias de virtualização são úteis, e a escolha depende do ambiente de


TI e dos requisitos corporativos específicos do usuário final. Ao selecionar uma solução, é
importante entender o fluxo de dados de um usuário, para garantir que as atuais necessidades de
negócios sejam supridas, enquanto é mantida uma capacidade de adaptação às novas exigências
que surgirão na medida em que as tecnologias continuam a evoluir e se modificar. É fundamental
haver uma camada de virtualização de armazenamento que ofereça compatibilidade, em vez de
limitações.
Uma vez que os dados não estão associados a dispositivos específicos de hardware, a
virtualização permite um nível sem precedentes de flexibilidade no uso de recursos de storage, a
fim de atender as exigências referentes aos aplicativos e aos usuários finais. Os dispositivos de
armazenamento virtual não estão restritos pelas limitações de capacidade, velocidade ou
confiabilidade dos dispositivos físicos que os incluem. A aplicação de software de armazenamento
inteligente na camada de virtualização proporciona um meio de resolver os desafios funcionais de
storage, sem comprometer a necessidade de disponibilidade dos dados.

O provisionamento consiste em fornecer aos usuários ou aplicações a quantidade e o melhor tipo


de armazenamento, no momento certo. A virtualização torna muito mais fácil esse processo.
Somada à administração centralizada, permite que modificações na camada de armazenamento
físico sejam efetuadas sem a interrupção do acesso aos dados, a fim de fornecer, continuamente,
a melhor qualidade de serviços de armazenamento em tempo real. Dessa forma o usuário acessa
com mais rapidez os dados de que necessita.

Redes virtuais

Um dos benefícios da tecnologia iSCSI (internet small computer system interface) – é usar
protocolo emergente que oferece I/O por Ethernet e redes IP com as mesmas vantagens da SAN,
que usa protocolos da infra-estrutura de rede. Entretanto, esse benefício é facilmente
ultrapassado. Se a rede tem ainda switches gigabit de reserva, o benefício da iSCSI é imediato.
Mas muitas redes são superdimensionadas, envolvendo a interface SCSI e o transporte de
grandes quantidades de dados. O cliente não vai precisar gastar muito em upgrades para
administrar o tráfico adicional.

O uso da infra-estrutura existente é muito importante. Fazer upgrade de uma rede é menos caro
que desenvolver uma e fazer uma SAN valer a pena para uma pequena rede que não justifica o
alto preço do Fibre Channel (FC). O mercado vai puxar para baixo os custos de uma iSCSI, ao
ponto de substituir as FC na tecnologia SAN. A tendência é os fabricantes oferecerem servidores
com bandas para a tecnologia iSCSI, assim como fizeram com o FC, oferecendo 1 U e servidores
blade integrados com portas iSCSI.

Um servidor departamental pode contar com apenas um link de 100 Mbps Ethernet para o
storage e tráfico de aplicações, mas um servidor de banco de dados pode facilmente requerer
uma conexão Gigabit Ethernet apenas para o tráfico de storage. E se há muitos desses
servidores, o custo da iSCSI pode aproximar-se da FC. Uma rede IP e Ethernet, portanto, tem a
vantagem de ser reutilizada se no futuro o projeto de SAN for abandonado. Os custos podem ser
ainda maiores se o tráfico de storage ficar em cima da WAN (rede que interliga dispositivos em
locais remotos). Entretanto, a iSCSI ainda integra as duas alternativas.

A virtualização pode ser executada em blocos ou em níveis de arquivo. Nas redes de storage, os
blocos são associados às SANs Fibre Channel e os arquivos de storage às Network-Attached
Storage (NAS). Em uma típica virtualização em bloco, os dados são mapeados em um ou mais
discos. O bloco requerido pode ser distribuído em múltiplos arrays de storage, mas parece para o
usuário residir em um único drive.

Na vitualização de arquivo, múltiplos objetos podem parecer como apenas um arquivo. Esse tipo
de virtualização provê um nível de abstração entre os arquivos e sua localização física. Nessa
abordagem, um espaço comum é criado, que permite ao usuário acessar diferentes arquivos sem
alterar o nome de sua raiz. O nome do espaço de arquivo aparece ao usuário como um único e
grande arquivo de sistema.

O arquivo também pode ser virtualizado. Quando aplicado à estrutura de blocos de storage é
convertido em objetos ou arquivos. Estes podem residir em servidores ou em sistemas NAS
(Network Attached Storage). A vistualização de sistemas de arquivo e o metadado dos sistemas
de arquivo individual podem ser combinados para formar uma extensão virtual desse sistema.

No caso da NAS, usuários podem acessar arquivos, primeiramente usando os protocolos


Network File System (NFS) e Common Internet File System (CIFS) sem estarem familiarizados
com os aspectos físicos ou lógicos da infra-estrutura. Idealmente, o sistema de arquivo distribuído
deve ser capaz de se espalhar para múltiplos dispositivos NAS, permitindo escalabilidade e
acesso fácil dos dados pelos usuários, independente de onde estejam. Essa é a essência da
virtualização.

Desafios lógicos

A virtualização pode também ser implementada em diferentes dispositivos, como arrays, usando
software de virtualização residente neste dispositivo. Esse software permite o desenvolvimento de
pools de storage em múltiplos arrays.
Com o storage baseado na virtualização, as unidades lógicas são mapeadas nos dispositivos
físicos via algorítimos ou usando uma abordagem baseada em tabelas. Basicamente, volumes
tornam-se independentes dos dispositivos onde residem. Dependendo da solução usada, o
storage baseado na virtualização pode incluir RAID, espelhamento disco a disco e replicação de
dados.

Enquanto a área de storage baseado em virtualização favorece bons resultados para os


fornecedores de disk array além de ser relativamente fácil de administrar, sistemas com essa
abordagem ainda são tipicamente proprietários e limitados quanto à interoperabilidade entre os
fornecedores de hardware e de software.

Dispositivos como bibilioteca de fitas podem também ser virtualizados. Na virtualização das fitas,
os discos de storage são feitos para parecerem drives de fita. Os discos tipicamente front end de
biblioteca de fitas permitem uma função de cache para que os dados possam ser acessados mais
rapidamente. Quando o dado não é mais acessado freqüentemente pelos usuários, ele pode ser
transferido para a fita. Entretanto, o administrador deve certificar-se de que existe uma quantidade
suficiente de fitas para receber os dados sem comprometer a performance. Algumas soluções de
virtualização de fitas são também restritas a bibliotecas proprietárias.

Enquanto a virtualização cai como uma luva para as corporações que querem otimizar a
utilização de storage, alavancar o gerenciamento, provisionar e administrar sistemas de
armazenamento e reduzir os custos, existem alguns obstáculos a serem ultrapassados. O
primeiro inibidor dessa modalidade é a inexistência de padrões para a tecnologia com a falta de
interoperabilidade entre os produtos voltados para a virtualização.

Ainda há muita confusão gerada pela virtualização e o que ela pode trazer. Os potenciais
usuários têm sido hesitantes em investir em produtos. Apesar da existência de múltiplas
abordagens, a virtualização provê flexibilidade mas pode também causar problemas durante seu
uso se a corporação escolher uma solução que, mais tarde, torne-se obsoleta. Mas o mercado
não tem dúvidas de que uma verdadeira política baseada na automação do storage requer a
maximização do uso da virtualização.

Iniciativas de interoperabilidade

Os fornecedores de tecnologia se têm preocupado com a interoperabilidade. As iniciativas da


EMC, Cisco, Brocade e McData, por exemplo, apontam para a implementação de uma
infra-estrutura de virtualização escalável, aberta, interoperável e com custo total menor do que
uma SAN tradicional. O primeiro passo foi unir os principais fornecedores de switches de SAN e
armazenamento para, juntos, desenvolverem um conjunto de interfaces de programação de
aplicações – as APIs padrão.

Estas API, ainda em estudo, formarão um padrão para todos os switches inteligentes
denominado Fabric Application Interface Standard (FAIS -Padrão para Interfaces de Aplicações
em Fabric = rede) e já contam com um comitê do American National Standards Institute (ANSI –
Instituto Americano de Padrões Nacionais), o denominado T11.5, parte do subgrupo de comitês
que desenvolvem os padrões para Fibre Channel.

O padrão FAIS começa por separar o controle do processamento da operação de


mapeamento/virtualização em um equipamento denominado CPP – Control Path Processor – ou
Processador do Controle de Caminhos. É no CPP onde são executadas as aplicações de
armazenamento, tais como réplicas ou cópias entre volumes, migração de volumes dinâmica e
mapeamento virtual/físico/array.

O padrão FAIS está sendo adotado com suporte aos principais dispositivos de armazenamento
do mercado, de diferentes fornecedores (EMC, HDS, HPQ, IBM), aos principais sistemas
operacionais (Windows, Linux, Solaris, AIX, HP-UX e VMware) e funciona com os switches
inteligentes da Cisco, Brocade e McData. Outro ponto importante do padrão FAIS é que tanto os
switches e dispositivos de armazenamento quanto as próprias aplicações podem ter fornecedores
distintos e, por ser um padrão baseado em uma API aberta, a interoperabilidade entre os distintos
softwares e hardwares está assegurada.
Para o usuário, isso significa proteção ao seu investimento, independência de fornecedor,
múltiplas alternativas de hardware e software e a possibilidade de implementar a virtualização de
forma gradual, adequada às necessidades da empresa.

4 - Gerenciamento

Mundialmente, o segmento de software de gerenciamento de storage tem crescido em torno de


14% ao ano, segundo a International Data Corporation. Mas há analistas que apontam a falta de
cultura, assim como problemas com padrões de mercado e, conseqüentemente, falhas de
integração, como obstáculos a evolução do mercado.

Parte dos gastos é atribuída pela IDC ao desejo das corporações de controlar o uso do
armazenamento dos funcionários. Além disso, as empresas adotam as soluções como meio de
reduzir custos, melhorar a eficiência e utilizar melhor as ferramentas de armazenamento. Os
software de gerenciamento de storage permite simplificação e automatização para redes
complexas como as SANs (Storage Area Networks).

Apesar disso, o mercado brasileiro não tem o hábito de investir nesse nicho de gerenciamento,
priorizando investimentos em outras áreas. Mesmo havendo otimização de pessoas e
infra-estrutura, os benefícios não são vistos imediatamente, por isso o software de gerenciamento
de storage é muitas vezes deixado em segundo plano. Em muitas companhias, os executivos de
tecnologia e administradores de dados estão encarando uma explosão de dados em suas redes e
a necessidade premente de administrá-los.

Com um ambiente de tecnologia cada vez mais complexo e uma situação econômica e de
negócios em constante modificação, as organizações de TI estão sobrecarregando seus
profissionais. Empregar estruturas de gerenciamento de rede de armazenamento alivia a carga da
interoperabilidade e a complexidade de gerenciar redes de vários fabricantes.

Amadurecimento do mercado

Fornecedores como IBM, Veritas, EMC, HP, StorageTek e Computer Associates estão
empenhados em fornecer uma única interface de gerenciamento para as complexas tarefas
envolvidas no controle de um crescente número de redes de armazenamento. Dessa forma,
diminui a carga dos administradores, liberando tempo para que eles possam trabalhar
estrategicamente.

Uma estrutura de gerenciamento de storage que seja independente de hardware possibilita às


organizações de TI gerenciar, de modo pró-ativo, todo o seu ambiente de redes de
armazenamento. Essas estruturas abstraem a complexidade de dispositivos para além da rede e
permitem que o administrador se dedique a preocupações estratégicas como aumentar a
utilização do armazenamento e a melhoria dos serviços.

Não faz muito tempo, as decisões sobre armazenamento e operações em rede eram simples.
Havia poucas opções, um número menor de fabricantes e poucas tecnologias para escolher.
Atualmente, existem mais fabricantes, mais metodologias de armazenamento conectadas em rede
e novas tecnologias. Hoje, há muitos meios para utilização de redes de armazenamento.

Independentemente do tamanho da companhia, uma rede de armazenamento bem construída e


bem gerenciada pode aumentar a eficiência não apenas para a companhia, mas também para as
organizações de TI dentro da empresa. O conceito de uma rede de armazenamento é simples:
conectar servidores corporativos a um agrupamento centralizado de discos, facilitando a
administração, aumentando o desempenho e tornando o backup de dados mais confiável. É a
chamada virtualização de storage, que já foi tratada anteriormente.

Por exemplo, uma SAN (Storage Area Network) típica consiste na rede de dispositivos de alto
desempenho, mas complexos, que compõem o caminho dos dados. Um grupo de dispositivos
altamente inteligentes, incluindo HBAs (adaptadores de barramento host), comutadores e vetores
de armazenamento compõem as atuais redes de armazenamento. Para ter controle desses
dispositivos são necessários os softwares de gerenciamento.

Existem muitos fabricantes que fornecem soluções de NAS (Network Attached Storage) e SAN
para as redes de armazenamento, mas poucos oferecem uma solução completa do controle
desses dados, fazendo da interoperabilidade e do efetivo gerenciamento das redes de
armazenamento um desafio.

Gerenciamento básico

Muitos administradores controlam e fornecem seus recursos de armazenamento utilizando


planilhas e relatórios de inventário que são imediatamente desatualizados. Uma estrutura de
gerenciamento de rede de storage elimina essa tarefa manual, descobrindo automaticamente as
conexões físicas e lógicas para a rede de armazenamento, exibindo as informações em um mapa
gráfico de topologia e conectando os dados em múltiplos relatórios.

As redes de armazenamento são ambientes complexos que envolvem muitos componentes,


incluindo clientes, servidores de aplicativos, comutadores, hubs e dispositivos de armazenamento.
Na medida em que uma rede de storage evolui e seu tamanho aumenta, torna-se cada vez mais
difícil identificar precisamente todos os componentes e as relações físicas entre eles.

Além disso, o mapeamento da visualização lógica (armazenamento virtual) aumenta a


complexidade, porque não existe uma relação física direta óbvia. É crucial para os
administradores ter as visualizações físicas e lógicas disponíveis em uma topologia que identifique
facilmente todos os componentes, assim como suas relações físicas.

Um recurso importante de qualquer estrutura de gerenciamento de armazenamento é a


capacidade de controlar os dados sobre desempenho e históricos em tempo real, para os
parâmetros de níveis de serviço, como conectividade, espaço disponível e tempo de acesso aos
dados.

Utilizando inteligentemente todos os recursos de armazenamento disponíveis, os administradores


de TI estão em condições de tomar decisões rápidas, empregando a elaboração de relatórios
integrados a partir do controle e do gerenciamento de recursos. Ao fazer isso, os administradores
podem monitorar seus ambientes e estar preparadas para fazer modificações instantaneamente.

Diz-se que um gerenciamento é avançado, quando ele proporciona o controle de uma forma
inteligente. Uma vez que os administradores se beneficiam dos recursos de visualização e
elaboração de relatórios em uma estrutura de gerenciamento, eles podem começar a utilizar mais
recursos, como segurança, fornecimento de armazenamento e gerenciamento pró-ativos.
Garantir que os aplicativos tenham os recursos de armazenamento de que necessitam significa
fornecer storage seguro, desde vetores à dispositivos de backup e aos hosts dentro da rede de
armazenamento. Uma boa estrutura avançada de gerenciamento de storage oferece
armazenamento integrado, dividindo por zonas desde os vetores de armazenamento aos hosts,
por meio de assistentes fáceis de usar.

Os assistentes diminuem a complexidade e facilitam as tarefas de gerenciamento de


armazenamento. Recursos avançados também devem oferecer serviços que garantam aos
aplicativos mais importantes uma boa qualidade de serviço. Ferramentas permitem aos
administradores procurar e alocar o armazenamento por atributo, proporcionando controle
inteligente do ambiente.

Associação completa

As estruturas de gerenciamento de redes de armazenamento permitem às empresas a


flexibilidade necessária para responder às prioridades de negócios, que sempre se modificam.
Utilizar todos os recursos de uma poderosa estrutura de gerenciamento de rede de storage
permite que as organizações respondam rapidamente e modifiquem a alocação de recursos,
minimizando o impacto dos custos nos negócios.

Uma estrutura básica de gerenciamento deve fornecer aos administradores da tecnologia da


informação a capacidade de monitorar a performance de suas redes de armazenamento. As
soluções de administração de storage precisam efetuar o controle ativo dos dados, que, por sua
vez, possibilita aos administradores de TI estabelecerem políticas de monitoração do desempenho
de forma pró-ativa, em vez de reagir aos problemas na medida em que eles ocorrem.

O gerenciamento pró-ativo leva a uma maior consistência e eficiência do serviço. Os


administradores geralmente agem de modo reativo, quando ocorre um caso de falta de energia ou
de quebra de um equipamento, podendo, por vezes, não seguir as políticas estabelecidas.

Uma boa estrutura de gerenciamento de armazenamento deve possibilitar que as companhias se


adaptem a um ambiente tecnológico em constante mudança, proporcionando flexibilidade para
adotar novas tecnologias, à medida que elas são lançadas no mercado. Os sistemas de storage
precisam estar em condições de explorar e aproveitar as novas tecnologias e arquiteturas, sem
colocar em risco os níveis de serviços.

O custo dessas tecnologias não se refere apenas ao de hardware – não se trata do custo de um
servidor ou de um vetor de armazenamento considerado a partir de diferentes fabricantes ou
mesmo de uma topologia diferente. O componente mais importante na “relação custo e risco” é o
custo de precisar treinar novamente pessoas e reequipar com ferramentas apropriadas todos os
processos estabelecidos.

É fundamental que os gerentes otimizem o uso de sua fonte de maiores custos: as pessoas.
Administradores altamente treinados precisam trabalhar estrategicamente para projetar as
melhores práticas que possam ser implementadas consistentemente em toda a organização, por
funcionários menos habilitados. O único meio de conseguir isso de modo efetivo e eficiente é
capacitando aplicativos projetados para reduzir a carga e simplificar ambientes complexos.

Os clientes querem que o gerenciamento vá além das soluções tradicionais de backup e


recuperação de dados. Com as aplicações de e-business, o planejamento para armazenar as
informações precisam abranger confiabilidade, escalabilidade e recuperação de desastres sem
comprometer a infra-estrutura.
Ter efetivo controle das informações armazenadas, garantir aos usuários acesso aos dados
desejados em um prazo que condiz com suas necessidades e, principalmente, reduzir
significativamente os custos de armazenamento é a meta dos profissionais envolvidos com
storage nas corporações.

Esse é o conceito-chave trazido pelo ILM (Information Lifecycle Management) ou gerenciamento


do ciclo de vida da informação. Há interesse, e muito, por parte dos usuários, mas a complexidade
dos projetos e as barreiras tecnológicas ainda fazem com que as iniciativas comecem a surgir
timidamente no mercado local.

O ILM é uma estratégia de storage que prevê balancear o custo de armazenamento e


gerenciamento da informação de acordo com a importância da informação através do tempo. Um
dos reflexos disso é o crescimento da busca por soluções de SRM (Storage Resource
Management), uma das bases do conceito.

A verdade é que, seja em razão dos benefícios efetivos trazidos pelo gerenciamento do ciclo de
vida da informação ou pelo bombardeio sobre o assunto vindo de fornecedores e consultores, é
cada vez mais difícil encontrar um profissional de TI que não esteja pensando, em algum nível,
sobre o ILM.

Para o gerenciamento dos dados, são utilizados softwares de HSM (Hierarchical Storage
Management) e SMS (Storage Management Systems), além de equipamentos baseados no
conceito de virtualização. Essas ações trazem facilidades à administração do ambiente. A
tendência é chegar ao estágio de gerenciar todo o storage de forma centralizada, com visão
única.

Redução de custos

Sobre a possível revolução causada pela utilização dos conceitos de ILM, a redução de custos é
um grande apelo, pois é possível utilizar mais espaço do que está disponível. É necessária uma
análise cuidadosa das necessidades do cliente para que se coloque o dado no meio mais
adequado de armazenamento, uma vez que existem muitas questões em jogo, como tempo de
resposta, softwares de replicação, criticidade da informação e arquitetura da solução, por
exemplo, segundo os especialistas de TI.

Para evitar a duplicação de informações e garantir a segurança dos dados é preciso adotar, por
exemplo, ferramentas de automação de backup que permitem a sincronização agendada dos sites
remotos ao banco de dados principal com cópia apenas das informações efetivamente
modificadas. Um dos principais desafios é oferecer ao usuário a possibilidade de acessar
informações quando ele precisa e garantir que essa informação seja única.

Fugindo aos olhares utópicos dos analistas ou dos fornecedores, fica claro que a proposta do ILM
é válida e interessante e que atinge algumas das principais preocupações dos usuários:
otimização das operações e redução de custos. Por outro lado, é fácil entender que a
disseminação desse tipo de arquitetura de armazenamento segue um ritmo muito mais lento do
que o previsto por especialistas e que a imaturidade da maior parte das soluções ainda faz com
que os CIOs atuem com cautela no momento de começar uma iniciativa do gênero.

Hoje, o mercado segue a trajetória de armazenamento de conteúdo não estruturado, como


e-mails, filmes e imagens. E os fornecedores se estão organizando para atender o crescimento
desse tipo de informação, tanto em software quanto em serviços. Isso também inclui prover
gerenciamento e estratégias para administrar o ciclo de vida desses dados por meio do ILM.
Abrem-se, então, mais perspectivas de vendas em verticais como o setor financeiro (mais
especificamente os bancos) e também construção civil. O desafio é guardar as informações mais
críticas em mídias com maior custo, como discos de alto desempenho e com alta capacidade de
recuperação. Além disso, em outras (mais acessíveis) com importância decrescente para o
cliente. Outra tendência do setor caminha para a oferta de serviços. A base do ILM é o
arquivamento multicamada e múltiplos dispositivos de armazenamento são integrados à
tecnologia na forma do tratamento dos dados definida pelo cliente.

Desafios

Uma SAN típica consiste de dispositivos de alto desempenho, mas complexos, que compõem o
caminho dos dados. Um grupo de dispositivos altamente inteligentes, incluindo HBAs
(adaptadores de barramento host), comutadores e vetores de armazenamento compõem as atuais
redes de armazenamento. E esses dispositivos precisam de muito gerenciamento.

Existem muitos fornecedores de soluções de NAS e SAN para as redes de armazenamento, mas
nenhum deles oferece uma completa solução de caminho de dados, fazendo da interoperabilidade
e do efetivo gerenciamento das redes de armazenamento um verdadeiro desafio.

Gerenciar os recursos disponíveis e atender as necessidades da empresa com um orçamento


cada vez mais apertado são os dois grandes desafios dos Chiefs Information Officer (CIOs) no
campo do armazenamento de dados. A extensa lista de erros cometidos nas estratégias de
storage no dia-a-dia é encabeçada pela não utilização completa dos recursos existentes e
acréscimo de novos equipamentos sem conhecer ao certo o que a empresa já possui.

Gasta-se muito mais para gerenciar o que o CIO comprou do que o valor da compra. O ponto
central é conhecer as necessidades corporativas em vez de investir em aquisição de hardware
ininterruptamente, como é prática comum em muitas empresas. Daí a importância do
gerenciamento de recursos de storage.

O conceito abrange relatórios para classificar os dados, políticas de alocação, automação,


análise de tendência e planejamento de capacidade, gerenciamento baseado na aplicação,
monitoração de performance e até cobrança departamental pelo uso de storage.

É necessário classificar dados. Existem arquivos que não são acessados normalmente e que
poderiam ser alocados em fita, no lugar de ocupar, por exemplo, 500 GB em disco. Os
fornecedores recomendam uma análise do histórico da empresa para saber qual orçamento para
storage será necessário no próximo ano. Outro ponto a ser considerado é a definição de centros
de custo dentro da empresa.

O atual quadro econômico agrava a necessidade de racionalizar o uso de recursos. Esse


procedimento é válido para a área de storage, cujo custo pode aumentar muitas vezes se os
dados forem armazenados indiscriminadamente, sem buscar a melhor opção em cada caso.
Nesse contexto, preservar o que já foi feito torna-se essencial, assim como provar o retorno de
qualquer investimento.

Investir no gerenciamento do storage, segundo os executivos de TI, é uma das melhores opções
para reduzir os custos de armazenamento. Entre as escolhas estão sistemas de virtualização que
permitem que hardwares de diferentes fabricantes possam coexistir na mesma instalação, e
funções de provisionamento dinâmico, para utilizar os recursos disponíveis segundo as
necessidades da empresa.

A missão de executar uma política de gerenciamento de storage varia de acordo com a carteira
de fornecedores de cada companhia.

Quando a empresa adquire toda a solução de um mesmo fornecedor, o trabalho torna-se mais
fácil. Em contrapartida, ela fica amarrada a uma só solução e com pouca margem de manobra na
eventualidade de o provedor de TI aumentar seus preços ou sair do mercado.

Se optar por múltiplos fornecedores, no entanto, surgem problemas de incompatibilidade. A saída


pode ser adquirir soluções especializadas de fornecedores de software para integrar sistemas
heterogêneos de storage e obter um ponto único de gerenciamento.

Uma visão consolidada e centralizada do ambiente de storage é fundamental. É preciso levar em


conta a relação custo/benefício, especialmente para sistemas de backup e recuperação de dados.
O CIO precisa considerar duas variáveis: o tempo que a empresa pode ficar parada e o
orçamento disponível.

Será, portanto, uma decisão de negócios. Não é por outro motivo que estabelecer uma política de
gestão dos recursos de storage torna-se um item obrigatório na agenda de médias e grandes
empresas. A era da improvisação em armazenamento de dados começa a ficar para trás.
Também não é por outro motivo que os fornecedores começam a colocar seu foco nos serviços,
para ajudar os clientes a definirem estratégias e políticas de storage mais adequadas ao seu
negócio.

5 - Mercado

O mercado mundial de software para armazenamento atingiu seu 15º trimestre consecutivo de
crescimento, chegando a US$ 2,8 bilhões no período encerrado em junho de 2007. Segundo
pesquisa da IDC, o resultado representa elevação de 10,4% no ano. Entre as áreas em expansão
constatadas pela IDC estão também aquelas relacionadas à compliance, legislação, e HSM -
hierarchical storage management -, esta última divisão que apresentou elevação de 14,9%.

A líder de mercado no período foi a EMC, com receitas de US$ 685 milhões e 24,6% de
participação. Em termos de faturamento, a companhia apresentou elevação de 4,8%, mas em
participação de mercado registrou baixa de 1,4 ponto percentual.

A segunda colocada nesse mercado foi a Symantec, com US$ 488 milhões em receitas e 17,5%
de participação. A IBM ocupou a terceira colocação, com US$ 362 milhões em faturamento e 13%
do mercado. A Network Appliance, Hewlett-Packard e CA ocuparam as posições seguintes, com
10,7%, 4,7% e 4,6% do mercado, respectivamente.

A pressão na área regulatória, a exigência da guarda de dados e documentos para fins legais,
planos de contingência e a popularização da multimídia são alguns dos segmentos que
impulsionam os investimentos em storage. A primeira onda do mercado de armazenamento de
dados foi tornar o storage independente do servidor e fazer aquisições em separado, momento
em que surge o Fibre Channel. Hoje, a tendência é a utilização de redes de armazenamento de
dados ser mais aberta e inteligente, com SAN (Storage Area Network) e NAS (Network Attached
Storage), só que apoiadas em softwares para adequarem-se melhor à arquitetura. Atualmente, os
sistemas de arquivos podem ser distribuídos pelas SANs e múltiplas máquinas, controladas por
um servidor.

A SAN – sistemas de armazenamento em rede – é a área mais quente do mercado, prevê a


Info-Tech. Com a queda nos preços dos produtos, que estão ficando “comoditizados”, essa
tecnologia está se tornando mais acessível para empresas de médio porte. Por isso, fornecedores
como IBM, HP e EMC, assim como as novas LeftHand Network, Compellent Technologies e a
Intransa já oferecem produtos às médias empresas com foco nessa tecnologia. A SAN pode ser
definida como uma rede de alta velocidade, comparada à LAN (Local Area Network), que permite
o estabelecimento de conexões diretas entre os dispositivos de armazenamento e processadores
(servidores) centralizados à extensão suportada pela distância das fibras ópticas. A SAN pode ser
vista como uma extensão do conceito que possibilita o compartilhamento dos dispositivos de
armazenamento entre servidores e interconectados entre si. (Uma SAN pode ser compartilhada
entre servidores ou dedicada a um servidor local ou remoto).

Outra forte tendência do mercado é aliar o storage com a segurança. A aquisição da Veritas pela
Symantec comprova que há uma interseção entre as áreas de segurança e armazenamento nas
empresas. A aquisição envolveu valores de US$ 13,5 bilhões. Para a Symantec a estratégia, além
de combinar segurança e storage, é expandir seus negócios e sua presença geográfica.

Foco nas pequenas e médias empresas

Os fornecedores de storage descobriram as pequenas e médias empresas. Tecnologias antes só


disponíveis para grandes instalações de armazenamento, agora encontram seu equivalente para
companhias desse nicho de mercado. Organizações como a Brocade e a EMC voltam suas
baterias para esse público. Para continuar seu ritmo de crescimento no Brasil, a Brocade,
fornecedora de plataforma SAN, prevê oferecer soluções menores para pequenas e médias, com
equipamentos de até 16 portas.

Outra estratégia é aliar a venda de storage à comercialização de servidores Blade. No setor de


telecomunicações, que é uma das áreas nas quais a Brocade quer ampliar seus negócios, a base
de clientes conta com nomes como Vivo, Brasil Telecom, TIM e Telefônica Empresas.

A estratégia da EMC para o segmento de pequenas e médias empresas foi o lançamento dos
pacotes Express Solutions. Eles prometem facilidade de implementação e flexibilidade para
crescimento. Os lançamentos fazem parte do conceito "Simplificando o Storage", que abrange
uma gama de sistemas, software e serviços. As novas soluções incluem produtos para
armazenamento em rede; backup e recuperação de dados; archiving; e proteção dos negócios,
com backup remoto dos dados.

No segmento de discos, a capacidade de armazenamento não pára de crescer. Para atender o


mercado de grandes repositórios de dados, a Hitachi Global Storage Technologies começou a
vender no final do ano passado disco rígido de 1Terabyte (TB) para PCs. A nova tecnologia,
segundo a empresa, baseia-se no método de gravação perpendicular de dados, uma maneira de
armazenar e organizar informações dentro do disco rígido, fazendo com que cada partícula ocupe
uma área cada vez menor do disco.

É crescente a necessidade de espaços maiores de armazenamento para vídeo e música digital e


os fabricantes estão cada vez mais atentos a esse mercado. A Toshiba também anunciou
lançamentos baseados na gravação perpendicular. Já está previste para esse segundo trimestre
de 2005 a chegada de drives de 40GB. Os drives são similares aos hoje utilizados no iPod e
dispositivos que tocam música digital.

Tanto a fabricante de produtos eletrônicos Seagate Technology como a concorrente Hitachi


Global Storage (HGST) oferecem discos rígidos (HD) de apenas 2,5 centímetros de diâmetro, que
podem armazenar 6 GB. A Seagate também oferece modelos com diâmetro de 2,5 com
capacidades menores: 2,5 GB e 5 GB. Já a Hitachi oferece um aumento em 50% na capacidade
de armazenamento do modelo que comercializava anteriormente.
Para ter uma idéia de preços, no mercado internacional, a Hitachi comercializa esse produto por
US$ 299, 40% menor de quando o HD de 4 GB foi lançado. O novo produto tem dimensões
menores porque aloca dados de forma mais compacta na superfície do disco, com densidade de
78 GB por polegada quadrada, contra 56,5 GB por polegada quadrada do modelo anterior. Discos
de dimensões reduzidas são destinados a pequenos dispositivos, como players de música digital,
em que 6 GB de arquivos MP3 podem armazenar cerca de 150 horas, ou três mil músicas.

De acordo com a IDC, apenas as soluções de armazenamento que usam a tecnologia de


conexão iSCSI – famosa por ser mais barata e de mais simples instalação, foco da atenção do
SMB – vão movimentar 6 bilhões de dólares em 2011 no mundo inteiro, contra os 600 milhões de
dólares gerados pelo setor em 2006.

Os clientes hoje exigem que o gerenciamento vá além das tradicionais soluções de backup e
recuperação de dados. Informação é a moeda da economia do e-business, e o planejamento para
armazenar esses dados precisa abranger a confiabilidade, a escalabilidade da solução e
planejamento e a recuperação de desastres.

Para simplificar o gerenciamento de seus usuários, a StorageTek lançou os discos de


armazenamento D-Series e BladeStore/B-Series no padrão SMI-S v1.0.2 (Storage Management
Initiative Specification). O SMI-S foi desenvolvido pela SNIA (Storage Networking Industry
Association), para auxiliar usuários finais a reduzir complexidade, custos administrativos e
desafios de interoperabilidade na implementação e no gerenciamento de ambientes de
armazenamento.

As soluções de discos secundários de armazenamento foram desenvolvidas em aliança com a


LSI Logic Storage Systems, e as soluções de discos primários foram recentemente aprovadas no
programa de testes de conformidade da SNIA (CTP – Conformance Testing Program) para
conquistar a certificação SMI-S.

Também no segmento de discos externos, a IBM lançou o dispositivo de disco IBM TotalStorage
DS8000 e sua versão "baby", IBM TotalStorage DS6000. Sua arquitetura permite o
endereçamento de até 96 Petabytes (PB), capacidade suficiente para armazenar toda a literatura
do Congresso Americano por 2,4 mil vezes. Em processamento, atinge mais de 3 milhões de
operações por segundo (IOPs).

Tecnologia Worm

Já vai longe o tempo em que a IBM anunciou seu primeiro drive de fita magnética em 1950,
lançando o conceito de armazenamento de dados no mercado. Apesar dos discos, as fitas
continuam firmes até hoje, crescendo exponencialmente em capacidade e ultrapassando limites.

A StorageTek anunciou a ampliação de seu portfólio de soluções de tape drives. Entre as


inovações está a unidade de fita T9840C, que ganha uma interface FICON nativa com
conectividade e alto desempenho em ambientes MVS. O lançamento é uma evolução da família
de soluções da companhia, que hoje conta com uma base de mais de mil produtos instalados no
Brasil com T9840.

Segundo a empresa, o produto promete maior economia para o armazenamento de dados


críticos e para o acesso a informações em ambientes z/OS (MVS). A solução conta com tempo
médio de acesso a dados de 12 segundos com throughput de dados a 30 MB por segundo para
backup e 40 GB de capacidade por cartucho (descompactado). O T9840C também vem com uma
ferramenta Worm (Write-Once-Read-Many), projetada para suportar as exigências de
regulamentação referentes a armazenamento de dados eletrônicos. Até porque, trata-se de uma
mídia que não permite regravação, mantendo, portanto, a integridade dos dados nela contidos.

Quem também aposta no Worm é a IBM, que incluiu a tecnologia na unidade de fitas modelo
3592. A nova tecnologia possibilita a armazenagem de grandes quantidades de registros
eletrônicos, com segurança, por um longo tempo, visando o cumprimento de requisitos
regulatórios e de auditoria interna. Os novos cartuchos de fitas com tecnologia Worm para IBM
TotalStorage são voltados para clientes que precisam armazenar grandes volumes de dados por
longo tempo e devem garantir a integridade e disponibilidade dessas informações.

A integradora Unitech, que representa a provedora de soluções de storage Adic no Brasil, lança a
terceira geração de unidades de fita Ultrium, chamada de Linear Tape-Open (LTO). Entre os
destaques da nova solução estão capacidades de armazenamento de até 10 Pentabytes (PB),
assim como transferência de informações com velocidade de até 50 TB por hora.

A família de bibliotecas LTO-3 incorpora recursos inteligentes para automação de fitas,


bibliotecas compactas para grupos de trabalho e funções de consolidação de backup corporativo
e plataformas multirobótica. Além disso, faz verificação pró-ativa do caminho, gerencia
conectividade SAN, pode ser expandida de acordo com a demanda e permite diminuir em cerca
de 50% a necessidade de chamadas de serviço.

Fusões e parcerias

A aquisição da Veritas Software pela Symantec por US$ 13,5 bilhões fortalece o direcionamento
da Symantec para oferta de um grupo "holístico" de produtos, integrando soluções de segurança e
backup de dados. A fusão mexeu com o mercado de storage e não é para menos, já que o
negócio envolve uma das maiores empresas de segurança do mundo absorvendo outra de igual
representatividade em sua área de atuação.

Segundo a IDC, o mercado de segurança é, de longe, o mais promissor em todo setor TI,
aparecendo como prioridade de investimentos em qualquer pesquisa de mercado. Para o instituto,
as empresas tendem a investir em soluções completas, ao invés de apostar em produtos
específicos.

Isso deve alterar o cenário da demanda e fornecimento de hardware e software de infra-estrutura


na América Latina. De acordo com os analistas, a demanda não se restringirá mais a soluções
contra vírus e hackers, mas ambientes que incluem hardware e software de storage e de
gerenciamento de sistemas.

Para o lançamento de produtos na área de SANs também foi anunciada uma série de parcerias.A
Brocade, especializada em infra-estrutura para redes SAN (Storage Area Network), e a EMC
anunciaram o lançamento do EMC Connectrix DS-4100B. De acordo com as parceiras, os
diferenciais do produto são taxa de transferência de dados de 4 GB por segundo e escalabilidade
de portas sob demanda, proteção sobre o investimento e compatibilidade com ambientes de
storage preexistentes.

Baseado na família SilkWorm 4100 de switches da Brocade, o Connectrix DS-4100B dá


flexibilidade para empresas de médio porte, nas quais pode atuar como switch de core, ou em
grandes empresas, sendo capaz de transferir os dados das bordas para um director SAN maior.

Para oferecer um portfólio mais completo, a IBM anunciou uma parceria com a Network
Appliance pela qual a Big Blue revende a linha da Network Appliance de produtos de storage,
concorrendo com a EMC. A NetApp vai utilizar o software Tivoli, da IBM, para a gestão de
armazenamento e recomendará os sistemas de fita da IBM aos seus clientes. A IBM também
comercializará a linha completa da NetApp.

A Sun Microsystems também é fornecedora importante no segmento. Anunciou o Sun StorEdge


Enterprise Storage Manager (ESM), software para administração integrada de Storage Area
Network (SAN), desenvolvido para ajudar os clientes a diminuir o custo total de propriedade (TCO)
do sistema de armazenamento.

A grande aposta do mercado de storage é a possibilidade de gerenciar o ambiente de


armazenamento virtualmente. Com a virtualização, os clientes podem criar "pools" de
armazenamento entre sistemas de diferentes fabricantes, possibilitando uma visão unificada e
consolidada da capacidade total de storage.

Atualmente, as empresas têm de gerenciar sua capacidade de armazenamento dentro de cada


sistema, o que impede o aproveitamento do espaço livre nos diferentes discos de storage. A
ausência de um gerenciamento global de armazenamento gera onerosas movimentações de
dados e perda de tempo e investimentos.

Com foco nesse mercado, a IBM está disponibilizando mundialmente novas versões de seu
software de virtualização do ambiente de armazenamento, o IBM TotalStorage SAN Volume
Controller. A novidade é que o produto suporta uma maior variedade de dispositivos de
armazenamento de outros fornecedores, como EMC, incluindo o Symmetrix e o CLARiiON e HDS,
e já está disponível na web para upgrades dos usuários atuais.

A Hitachi Data Systems Corporation oferece suporte à virtualização do Hitachi TagmaStore™


Universal Storage Platform para os sistemas de storage EMC Symmetrix séries DMX 800, 1000,
2000, 3000 e Symmetrix 3000, 5000 e 8000. Os sistemas de storage EMC CLARiiON série CX
também serão suportados.

A vantagem, segundo as companhias, é que os clientes EMC agora podem tirar proveito do
Universal Storage Platform, que aumenta a vida útil dos equipamentos de armazenamento
instalados, reduz os custos operacionais e de licenciamento de software e oferece uma
funcionalidade superior de software, como cópia remota assíncrona e particionamento lógico, um
recurso que não existe nos produtos EMC.

A solução de virtualização da companhia é baseada em controladora, não depende de


compatibilização entre as APIs dos fabricantes de switches e sistemas de storage e muito menos
de appliances ou roteadores no caminho dos dados. A Hitachi estendeu os recursos internos de
virtualização que desenvolveu durante os últimos doze anos para o storage externo, aproveitando
o conceito de portas de storage virtual. Desde o anúncio do Universal Storage Platform, em
setembro de 2004, a Hitachi Data Systems realizou testes de virtualização com inúmeros sistemas
de storage das marcas HP, IBM, Sun e EMC.

Uma das soluções da Veritas para virtualização chama-se Storage Foundation for Windows, um
software de gerenciamento e virtualização que se integra às plataformas Windows para gerenciar
com flexibilidade e de forma simplificada o armazenamento de dados nestes ambientes. O Veritas
Storage Foundation 4.0 for Windows inclui o gerenciamento e a virtualização de volumes, além
disso agrega funcionalidades para o Windows Server e Windows Storage Server.

Para esse mercado, a HP anunciou o aprofundamento de sua aliança com a Veritas, fornecedora
preferencial para soluções de gerenciamento de volumes e sistemas de arquivos para ambientes
de alta disponibilidade HP-UX 11i.
Storage online

Para a IDC, o backup online se tornou uma abordagem atraente para muitos consumidores, com
o advento de acesso de banda larga mais barata, maior nível de conforto aos usuários e a
crescente necessidade de negócios para segundos sites para propostas de proteção de dados
remotos.

A consultoria estima que a receita para o mercado emergente de storage online vai alcançar 715
milhões de dólares até 2011, representando 33,3% de crescimento entre 2006 e 2011. Cerca de
metade dos gastos deste mercado serão feitos primeiro na América do Norte, mas outras regiões
vão aumentar sua participação até 2011, segundo a companhia. A IDC também prevê que a
adoção de consumidores e pequenos negociantes vai dominar o mercado por vários anos com
adoções lentas de corporações de médio porte e empresas, o que vai fazer o faturamento crescer
lentamente até 2010.

Até lá, para a consultoria, práticas de serviços vão começar a se padronizar, a competição vai
impedir o aumento de preços, fornecedores vão consolidar e backups online vão ter se tornado
uma característica comum em alguns serviços online. A consultoria diz que o armazenamento
online começa sua transformação por uma opção de backup simplificada para consumidores e
pequenos negócios para uma oferta que pode capacitar grandes negócios a sustentar operações
de disaster recovery, regulamentações de compliance e ajudar a frear custos de infra-estrutura de
armazenamento.

6 - Implementação

No princípio, um computador era conectado diretamente ao seu setor de armazenamento, e


nenhum outro computador podia acessar os dados guardados lá. Os aplicativos eram executados
em um mainframe. Na medida em que a computação cliente-servidor se desenvolveu, os
aplicativos passaram a ser executados em servidores dedicados, cada um com seu próprio
armazenamento.

Logo depois, os usuários sentiram a necessidade de compartilhar esses dados por meio de
aplicativos. Assim, conforme a capacidade dos sistemas de disk array (matriz para discos) foi
crescendo, um único array podia suprir as necessidades de armazenamento de vários servidores.
Desse modo, nasceu o storage em rede.

O primeiro requisito – o compartilhamento de dados entre servidores – foi resolvido pelo NAS
(Network Attached Storage). Um dispositivo NAS fornece acesso a arquivos para os clientes
conectados, utilizando protocolos de transporte em Ethernet e TCP/IP. As SANs (Storage Area
Networks) permitem que diversos servidores compartilhem espaço em disco, a partir de um ou
mais disk arrays. As SANs fornecem aos servidores o acesso ao armazenamento em bloco,
utilizando a tecnologia de Fibre Channel.

No paradigma do NAS, o sistema de arquivos que organiza blocos de armazenamento em


objetos que são convenientes para os aplicativos que lidam com eles reside no dispositivo de
armazenamento. Este é responsável por alocar espaço e evitar que os clientes se atrapalhem
quando fazem solicitações de acesso a arquivos.

No lado do host da interconexão, um cliente traduz as solicitações de entrada e de saída de


arquivos dos aplicativos em mensagens de rede, e as envia para o dispositivo NAS, para que
sejam executadas.
Em uma SAN, o sistema de arquivos está no lado do computador da interconexão. O
gerenciamento da capacidade de armazenamento para todo o sistema e os conflitos entre as
solicitações de acesso a dados dos clientes são resolvidos pela cooperação entre os servidores
conectados à SAN. Isso torna o software do lado do servidor muito mais complexo do que com os
dispositivos NAS.

Ao absorver o sistema de arquivos no dispositivo de armazenamento, o modelo NAS facilita o


acesso simultâneo aos dados, efetuado por diferentes tipos de computadores. Atualmente, o NAS
é o único meio amplamente disponível para tornar os mesmos dados acessíveis para
computadores de diferentes tipos.

Além disso, os protocolos de acesso a arquivos do NAS são muito genéricos e ricos em
funcionalidade. E também conectam-se a redes com base em TCP/IP, que são projetadas para
trabalhar com topologias de interconexão muito generalizadas.

Por causa de sua grande funcionalidade e generalidade, esses protocolos são


predominantemente implementados em software, que são executados mais lentamente em
comparação com o firmware e o hardware no nível do dispositivo, geralmente utilizados para
implementar protocolos de SAN.

O desempenho do acesso aos dados brutos pelo dispositivo NAS, portanto, tende a ser menor do
que o de outros dispositivos SAN semelhantes, e a utilização do processador do servidor e do
cliente para o acesso a dados tende a ser maior.
Em síntese, atualmente, o equilíbrio entre as vantagens e desvantagens é o seguinte:

• Escolha NAS para obter simplicidade de compartilhamento de dados, particularmente entre


computadores e sistemas operacionais diferentes.

• Escolha SAN para obter o maior desempenho ‘bruto’ de entrada e de saída de dados entre o
cliente e o servidor. Esteja preparado para desenvolver algum projeto e gerenciamento
operacional adicional, a fim de fazer com que os servidores cooperem (ou, pelo menos, não
interfiram) entre si.

Em toda a jornada para o armazenamento em rede, é importante manter em vista as vantagens


que se quer obter. Os benefícios específicos que as redes de armazenamento oferecem são
diferentes em cada situação, mas com as redes de storage, assim como com qualquer aspecto da
tecnologia da informação, os benefícios podem ser amplamente classificados. Veja como:

• A redução do custo do fornecimento de serviços de informação atuais.

• O fornecimento ou a habilitação de novos serviços, que contribuem positivamente para os


objetivos corporativos em geral.

As redes de armazenamento oferecem amplas oportunidades para que um departamento de


serviços de informação ofereça ambos os tipos de benefícios. Por exemplo, no setor de economia
de custos.

• Se todo o armazenamento online for acessível por todos os computadores, então nenhum
armazenamento temporário extra é necessário para organizar os dados que são protegidos por
um computador e utilizados por outros. Isso pode representar uma substancial economia de
custos, em termos de capital.
• Da mesma forma, se os drives de fita e manipuladores de mídia robotizados puderem ser
acessados diretamente por todos os computadores, será necessário um número menor desses
dispositivos caros e que não são utilizados com tanta freqüência, em toda a empresa. Isso
também reduz o custo total de capital corporativo, relacionado ao processamento de informações,
sem diminuir a qualidade do serviço fornecido.

• No entanto, provavelmente o mais importante é a economia administrativa e operacional, por


não haver necessidade de implementar e gerenciar procedimentos para copiar dados de um local
para outro. Isso pode reduzir muito o custo referente a pessoas – o único custo componente dos
serviços de fornecimento de informações que não diminui a cada ano.

A implementação do software

Hoje, a maior parte das implementações de armazenamento em rede está concentrada nas
interconexões (como Fibre Channel), que permitem a conectividade universal entre os dispositivos
de armazenamento e os computadores que se conectam a elas.

Mas as interconexões por si mesmas não acrescentam nenhuma funcionalidade ao


processamento de informações, elas apenas possibilitam que essa funcionalidade seja
acrescentada.

Para conseguir os benefícios prometidos pelo armazenamento em rede, não somente a


conectividade, o desempenho, a disponibilidade e as funções de hardware devem estar
disponíveis para habilitá-los, como também os softwares de sistema e de aplicativos devem tirar
proveito do hardware.

Ao avaliar a tecnologia de armazenamento em rede, os componentes de hardware devem ser


observados detalhadamente, por segurança. No entanto, o mais importante é que também é
preciso observar cuidadosamente os recursos de software, a fim de garantir que a adoção
proporcione a funcionalidade habilitada pelo hardware.

Veja os seguintes exemplos de como o software ajuda a realizar os benefícios do


armazenamento em rede:

Compartilhamento de drives de fita: um tape drive conectado à SAN pode ser compartilhado entre
servidores, porque esses dispositivos são caros e, na verdade, ficam em uso apenas durante a
realização de backups.

Se um tape drive estiver conectado a computadores por meio de uma SAN, computadores
diferentes poderão utilizá-lo em diversos momentos. Todos os computadores terão seu backup
efetuado. O investimento em drives de fita é utilizado de modo eficiente, e os gastos de capital
permanecem baixos.

Compartilhamento de dispositivos de armazenamento online: mantido em um subsistema de Raid


(Redundant Array of Inexpensive Disks) corporativo, é similar ao compartilhamento de drives de
fita, exceto pelo fato de que os procedimentos e requisitos para as modificações de configuração
são mais dinâmicos.

Um típico subsistema de Raid corporativo faz com que a capacidade de armazenamento online
de um ou mais disk arrays pareça ser a de um ou mais discos muito grandes, rápidos e confiáveis.
Um subsistema de Raid é como diversos discos virtuais, do ponto de vista dos servidores host.

É bastante razoável que diferentes servidores sejam capazes de acessar esses discos virtuais
em diferentes momentos. Por exemplo, um servidor pode coletar os registros diários de
transações de uma companhia, feitos em disco, e enviá-los para outro servidor, no final do dia,
para resumo, análise ou backup.

Substituição de aplicativos com problemas: uma vez que as SANs conectam todos os dispositivos
de armazenamento de uma organização a todos os seus servidores, é possível criar ambientes de
computação altamente disponíveis, nos quais um computador substituto possa entrar em
operação em substituição a um que venha a falhar, reiniciar seus aplicativos, e reiniciar o
processamento de seus dados.

Afinal, esses equipamentos são computadores, e por isso devem ter condições de reconhecer os
sintomas de um defeito e ativar outro computador em seu lugar, automaticamente. O ideal seria
que o mesmo acontecesse de modo transparente para aplicativos, uma vez que não é prático
reescrever todos os aplicativos da noite para ao dia, a fim de tirar vantagem dos ambientes de
computação altamente disponíveis.

Compartilhamento de dados: meios mais avançados de clusterização de computadores permitem


o compartilhamento simultâneo de dados entre diferentes aplicativos sendo executados em
diferentes servidores. Isso pode ser extraordinariamente útil, por exemplo, para o crescimento
adicional de aplicativos ou o escalonamento. Simplificando, se um aplicativo supera o tamanho do
servidor em que ele está sendo executado, não é necessário substituir o servidor por um maior.

Em vez disso, pode-se conectar outro servidor que tenha a potência adicional necessária à SAN,
deixando o sistema original no local. Ambos os servidores podem executar cópias ou instâncias
separadas do aplicativo, processando a mesma cópia dos dados. Podem ser acrescentados mais
servidores, na medida em que aumentam os requisitos de capacidade do aplicativo.

Construir uma SAN proporciona benefícios tangíveis para a empresa, ao permitir o aumento do
compartilhamento de dados, a utilização de equipamentos e o gerenciamento centralizado de
recursos de storage. Isso deve ser equilibrado por uma abordagem racional de segurança de
dados para permitir que os benefícios da SAN não comprometam a integridade do patrimônio
corporativo mais importante, que são os dados.

Uma questão comum relativa à segurança de dados, nos atuais ambientes de SAN, são os
inflexíveis e incompatíveis mecanismos de zoneamento nos atuais switches e HBAs (adaptadores
de barramento por host). Dependendo da implementação de zoneamento do fabricante e do
conhecimento do cliente sobre o software, o esquema de proteção de dados pode não ser válido.

Isso, é claro, se a SAN for reconfigurada (ou seja, mover um host ou um dispositivo de
armazenamento de uma porta de comutador para outra) ou acrescentar novos hosts (ou seja,
novos hosts Microsoft Windows escrevendo etiquetas para LUNs – Logical Unit Number
atualmente sendo utilizados por um host Unix). O software pode ajudar a aliviar esse problema,
controlando o acesso a ferramentas de zoneamento que gerenciam comutadores e HBAs e
fornecendo acesso a listas de controle por LUN, que protegem os dados existentes.

Conectividade

O armazenamento em rede permite a conectividade entre quaisquer servidores e dispositivos de


armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus
dados. O armazenamento em rede pode diminuir os custos do processamento de informações,
por meio do aumento do compartilhamento de dispositivos e de capacidade, assim como por meio
de comunicações mais eficientes.
Isso cria o ambiente para a verdadeira computação global – a capacidade de processar as
mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo,
com os dados e a execução de aplicativos primários migrando para locais ideais, conforme a
necessidade.

Hoje, não bastam apenas sistemas de armazenamento. A necessidade dos dados intactos e
seguros é tão grande que contar com backup corporativo é fundamental. Atualmente, os sistemas
corporativos requerem soluções de backup cada vez mais velozes, flexíveis e confiáveis,
preparadas para atender uma multiplicidade igualmente maior de plataformas.

Essa necessidade de garantir a integridade e a segurança da informação é tão grande que os


profissionais de redes não podem contar apenas com simples sistemas de armazenamento,
necessitando utilizar recursos mais eficientes como backups corporativos, por exemplo.

A adoção dessas soluções depende de um correto planejamento tecnológico que deve ser
adaptado ao foco do negócio, integrando de forma inteligente os novos hardwares e softwares e
que ofereçam meios para gerenciar constantemente esses componentes.

Já estão disponíveis no mercado soluções completas e abrangentes, contando com uma


infra-estrutura de hardware, software e práticas de pré-venda, manutenção pró-ativa e reativa e
serviços profissionais, visando operações de ambiente de missão crítica.

O maior desafio, porém, é desenvolver tal infra-estrutura para operar sobre padrões abertos e
independentes de plataformas de hardware de storage. Mas, para isso, é preciso contar com uma
equipe que compreenda a arquitetura de backup.

Existem diversos casos de implementações de backup que não conseguem suportar o alto
crescimento do volume de dados que, após um curto intervalo de tempo, requer um custoso
processo de reengenharia.

Nessas situações, normalmente, cometem-se erros que poderiam ter sido evitados como o
subdimensionamento de dispositivos de backup, utilização de softwares com falta de
funcionalidades e a falta de planejamento na utilização de redes de dados, incluindo a má
implementação de redes privativas de SAN.

As restrições de compatibilidade são típicas de softwares dependentes de plataformas de


hardware de storage, normalmente implicando em uma adoção de backup com diversas
características proprietárias e que simplesmente não funcionam ou funcionam muito mal quando
da inclusão de outras plataformas de hardware de storage no ambiente de backup.

A infra-estrutura de hardware e software de backup precisa ser flexível para suportar a maior
gama possível de sistemas operacionais (em especial Linux, Unix e NT) e poder utilizar as
interfaces e utilitários de backup e restores nativos das principais aplicações de mercado.

O gerenciamento é outro fator importantíssimo na arquitetura. Ele possibilita que toda a


configuração e a monitoração dos processos de backup e recovery sejam feitas centralizadas em
um único ponto, independente de localização física do mesmo.

Outro ponto é manter um ambiente confiável de backup/recovery, tanto para compatibilidade do


software de backup quanto dispositivos de backup, device-drivers de sistemas operacionais, rede
(Ethernet ou Fibre Channel), servidores de aplicação/banco de dados e atrelados ao controle e à
execução do backup. A automação deve garantir a confiabilidade da operação, mesmo em
situações de falha de alguns dos componentes.
A existência de mecanismos que atendam às necessidades de janela de tempo de backup, sem a
interrupção da operação normal e para situações de recuperação de desastres, complementam a
arquitetura de backup corporativo.

O conjunto de produtos de hardware e software por si só nada pode garantir. Uma


implementação bem-sucedida de uma solução corporativa de backup envolve práticas que
englobam informações colhidas já no processo de pré-venda, no qual devem ser feitos o primeiro
levantamento de necessidades e o dimensionamento.

Levantamento dos recursos

Nesse levantamento, deve ser abordado todo o parque de servidores (que serão os clientes do
backup/restore) e de todos os sistemas operacionais, bancos de dados e aplicativos envolvidos e
da rede de interligação dos mesmos. Isso é informação básica para a construção dos domínios de
storage, reunindo grupos de clientes com master e mídia servers.

Também deve ser feita a coleta de informações junto ao cliente em relação ao Service Level
Agreement (acordo de qualidade de serviço), exigido para cada aplicação/banco de dados
envolvido no processo de backup/recovery, e a respectiva janela de backup. É solicitado ao
cliente informar quais serviços estão em processo crítico de continuidade dos negócios e
requerem infra-estrutra para disaster recovery.

O dimensionamento e a configuração dos servidores de backup e dos dispositivos de backup


(incluindo número de unidade de fitas para cada dispositivo) devem ser prescritos, assim como a
arquitetura de rede e política de compartilhamento de unidades de fita: uso ou não de Storage
Area Network/Fibre Channel.

Por fim, deve ser avaliada a configuração dos módulos de software para os sistemas
operacionais, aplicativos e bancos de dados envolvidos, além da configuração de ambientes de
cluster e infra-estrutura de point-in-time copy e disaster recovery, conforme informado pelo cliente,
além dos níveis de serviço e janela máxima de backup.

Assim, será possível ter uma solução completa e consistente de forma a garantir escalabilidade,
proteção de investimento e minimizar o tempo de interrupção das operações do data center, não
gerando impacto negativo nos negócios da corporação.

Erros em procedimentos de backup

O termo backup está diretamente associado à segurança de dados e deve receber uma atenção
especial do administrador de rede. Qualquer descuido pode ser fatal para os dados mais
importantes de uma empresa. Manter mídias de backup em locais inadequados e sujeitos à
umidade, influência de campos magnéticos e alta temperatura pode danificá-las.

Utilizar um mesmo local de armazenamento tanto para pastas e arquivos de backup quanto para
todos os dados em uso é outro fator de risco de perda de dados se algum simples problema
acontecer. Um deles poderia ser, por exemplo, um dano físico no disco rígido, onde estão
guardados os dados e o backup, juntos.

Outra falha está em deixar as rotinas de backup acontecerem sem qualquer tipo de
gerenciamento e sem observar procedimentos específicos de segurança. É necessária uma
atenção especial para essa questão, evitando que o backup seja esquecido ou que a mídia não
seja trocada e até mesmo que a política de segurança da empresa seja ignorada.
Torna-se imprescindível elaborar um conjunto de procedimentos chamados de política de backup
(ou backup off site), que consiste na retirada periódica da mídia de armazenamento do local onde
o backup é gerado.

Essa mídia é levada geralmente para fora do local. Com isso, mesmo no caso de um acidente
(incêndio, explosão etc), os dados estarão resguardados em local seguro.

Produtos de backup corporativo

Os produtos de backup corporativo que estão disponíveis no mercado são diversificados e


projetados para uso ótimo com uma biblioteca de fita, atendendo as necessidades do
administrador de rede de maneiras diferentes.

Porém, considerando que a demanda por backup de dados é universal, é importante oferecer
funcionalidade e confiabilidade juntamente com uma interface apropriada para administradores
com variados níveis de experiência.

Flexibilidade também é necessária, pois os administradores de rede devem editar tarefas


existentes e reconfigurar parâmetros com rapidez e facilidade quando as circunstâncias assim o
exigirem.

Um bom produto, portanto, deve ser capaz de lidar com a diversidade de marcas e padrões
normalmente encontrados em um ambiente de rede heterogêneo.

Estão disponíveis no mercado soluções completas e abrangentes, contando com uma


infra-estrutura de hardware e software para maximizar a disponibilidade de níveis de serviço (SLA)
visando operações de ambiente de missão crítica.

A existência de mecanismos para atender as necessidades de janela de tempo de backup, sem a


interrupção da operação normal e para situações de recuperação de desastres, complementa a
arquitetura de backup corporativo.

É necessário realizar também um levantamento relacionando todos os servidores que serão os


clientes do backup/restore e todos os sistemas operacionais, bancos de dados e aplicativos
envolvidos e da rede de interligação dos mesmos.

Gerenciar informações de forma eficiente é um desafio enfrentado por empresas de todos os


portes e segmentos. Um mau gerenciamento dos dados pode ocasionar prejuízos muitas vezes
ocultos, como baixa velocidade de acesso, má utilização dos componentes de armazenamento e
um alto custo total de propriedade (TCO).

Nenhum sistema de armazenamento está completo sem uma solução adequada de cópias de
segurança. Assegurar a integridade dos dados é um dos maiores desafios da área de Tecnologia
da Informação (TI) da empresa, principalmente porque soluções como espelhamento remoto e
cópia de dados não conseguem garantir essa integridade em situações de erros humanos,
sabotagens ou mesmo desastres de proporções não previstas. Em muitos desses casos, somente
uma cópia tipo backup pode resolver a situação.

7 - Resultados
A maior preocupação de um administrador de TI hoje é maximizar a utilização dos recursos que já
possui, inclusive os servidores de storage. O desafio das empresas é conseguir migrar para
modelos mais adequados à companhia sem ter que comprar hardware novo antes de uma
expansão planejada.

Afinal, a computação, como um serviço essencial, significa contar com servidores no data center
que sejam provisionados quando preciso e não ter a necessidade de comprar uma arquitetura de
servidores específica de uma determinada empresa

Por isso, o armazenamento está caminhando em dois sentidos simultâneos: nova centralização,
eliminando as ilhas existentes, e externalização, separando o armazenamento da ligação física
("bus attached") com os servidores. Essas tendências são o que chamamos de modelo de
computação "information centric".

Nesse modelo, os negócios são construídos em torno de suas informações, visto como o ativo
mais estratégico. É uma mudança significativa do modelo "server centric", em que o processador
é a peça-chave da computação e o limitador da capacidade de acesso às informações.

Assim, as informações são colocadas no centro do negócio e as plataformas de processamento


conectadas aos equipamentos inteligentes de armazenamento. O modelo transcende plataformas
e ambientes operacionais. Afinal, o objetivo é integrar todas as informações, fornecendo uma
simples e única visão.

Caminhos do armazenamento

Os clientes corporativos possuem um grande número de servidores e aplicações rodando em


diversas plataformas. O que precisam é de um sistema de gerenciamento centralizado, um
repositório central que informe onde cada aplicação rodará em um data center heterogêneo. Esse
sistema de gerenciamento baseado em políticas deve trabalhar com diversos sistemas
operacionais, atribuindo a cada aplicação um nível específico de prioridade e critérios de
performance.

Nesse cenário, o "controlador de políticas" atribuiria aplicações aos servidores tendo como base
critérios pré-definidos e gerenciaria os problemas ou as necessidades de novas aplicações
baseando-se nos conceitos de prioridade e performance. Estamos, é claro, olhando o nível mais
alto do data center e assegurando que os ativos de TI estejam alinhados com as necessidades do
negócio.

O objetivo principal dos sistemas de armazenamento é proteger seus sistemas e informações


críticas, diminuindo possíveis paradas e aumentar a produtividade dos seus funcionários. A
solução oferece:

• Redução de custos, por meio da otimização do armazenamento e disponibilização das


informações, diminuindo custos com aquisição de hardware de armazenamento.

• Segurança e gerenciamento do ativo intangível das empresas, ou seja, as informações e dados


que ela possui.

• Possibilidade de ação pró-ativa, antecipando-se a problemas, ao invés de reativa, corrigindo


falhas, inclusive com levantamento de parque e de recursos ociosos que podem ser melhor
aproveitados.

Hoje, para gerenciar de modo centralizado o data center, é preciso criar uma complexa
arquitetura multicamada, usando as plataformas de cluster separadas para gerenciar cada tipo de
hardware. É muito difícil criar uma relação entre todas essas plataformas para obter uma visão
clara e abrangente de todo o data center. As maiores dificuldades dos clientes dizem respeito à
simplificação desse ambiente.

As empresas planejam soluções para melhorar o gerenciamento de um grande número de


aplicações, rodando em diversos servidores. É necessário ter a capacidade de administrar
adequadamente qualquer tipo de falha e assegurar que todas as aplicações recebam os recursos
do sistema, conforme prioridades e compatibilidade pré-definidas.

Muitos estudos têm demonstrado que as companhias implementam recursos de armazenamento


em excesso e apenas utilizam metade da capacidade adquirida. Isso significa que o custo real de
armazenamento nessas empresas é duas vezes maior do que eles esperavam e concordaram em
gastar quando adquiriram hardware para essa função. Por isso, adotam software de
armazenamento, necessário para controlar e aumentar a utilização dos recursos.

As arquiteturas de armazenamento ideais também devem ser flexíveis na implementação e ter


uma boa relação custo-benefício, além de integrar-se com outras aplicações da empresa. No atual
ambiente, caracterizado por rápidas transformações, é difícil prever quanta capacidade é
necessária para um novo aplicativo. É ainda mais difícil prever a capacidade necessária em um ou
dois anos.

E se ocorrer uma fusão, a criação de filiais ou alguma grande reestruturação? A empresa vai
reconstruir toda sua arquitetura de armazenamento? Ou introduzir um novo sistema de
gerenciamento que exija um novo treinamento de todos os funcionários de sua organização?

Para minimizar o custo e a complexidade, a arquitetura de armazenamento ideal é flexível o


suficiente para acomodar modificações das exigências da empresa, ao mesmo tempo em que
preserva um sistema consistente de gerenciamento. O software de armazenamento fornece a
camada de flexibilidade necessária para preservar consistentes práticas de gerenciamento,
independentemente de mudanças nas condições ou nos requisitos da empresa.

As redes de armazenamento possibilitam maior utilização de recursos ao oferecer conectividade


e simplificam o gerenciamento ao oferecer uma visão centralizada de todos os recursos. A mesma
lógica aplica-se quando é examinada a separação da inteligência de armazenamento dos
dispositivos propriamente ditos. Ou seja, a separação do gerenciamento de armazenamento do
hardware de storage oferece benefícios na consolidação da rede de armazenamento.

As ferramentas de virtualização permitem aumento do uso de recursos ao fornecer um


mecanismo para consolidar o excesso de armazenamento a partir de vários dispositivos de
hardware e apresentá-los como um único e útil repositório de dados. Geralmente, as empresas
separam a inteligência de armazenamento das ferramentas de storage, a partir de dispositivos de
hardware individuais para obter os benefícios de centralização. Um único conjunto de ferramentas
gerencia o hardware de vários fabricantes.

Recuperação de dados

A crescente quantidade de informações a ser armazenada pelo mercado corporativo e


governamental tem sido um bom indicador do potencial de vendas de soluções para o segmento.
Desde o início do ano, ao entrarem no Brasil, os norte-americanos são fotografados e deixam
suas impressões digitais registradas, por decisão da Justiça Federal. Isso é um exemplo de como
as informações aumentam e precisam serarmazenadas, além da necessidade do uso do backup
para garantir a recuperação dos dados.
As arquiteturas mais usadas para implementar redes de armazenamento nas corporações são a
NAS (Networked Attached Storage) e a SAN (Storage Area Network). A opção NAS (Networked
Attached Storage) refere-se a uma rede de baixo custo, onde o sistema de storage está
conectado à rede LAN e os dados são acessados por meio de protocolos CIFS, sistema de
acesso a drives de rede na plataforma Windows, ou NFS, para o ambiente UNIX.

Suas principais vantagens são a simplicidade de gerenciamento e a facilidade de integração com


serviços de diretórios. Trata-se de uma arquitetura de performance relativamente baixa se
comparada com arquitetura SAN. A alternativa NAS vem sendo utilizada para consolidação de
servidores de arquivos ou bancos de dados com baixa taxa de acesso e pouca necessidade de
performance de I/O.

As redes SAN são consideradas as mais modernas e rápidas disponíveis no mercado. São redes
flexíveis que utilizam interfaces fiber-channel e switches especiais de alta velocidade para
comunicação entre os servidores e os subsistemas de armazenamento. Sua implementação
permite a comunicação de diversos servidores com diversos subsistemas de armazenamento,
incluindo dispositivos de fita magnética. A arquitetura SAN facilita a administração, aumenta as
possibilidades de compartilhamento de recursos de armazenamento disponíveis e é adequada
para aplicações que demandem muitos recursos de I/O e atividade de consolidação de storage.

O mercado brasileiro – particularmente as instituições financeiras, governo, telecomunicações e


saúde – apresenta um grande potencial de compra para esse tipo de solução para cumprir com
algumas exigências da legislação do País e, nos casos dos bancos, para adequarem-se aos
requisitos da Basiléia II, as empresas precisam de soluções de alta disponibilidade.

Toda e qualquer aplicação que necessite trafegar dados pela rede ganha em performance com
esse conceito. Como "subnets", uma SAN agrega largura de banda (bandwith) sem demandar
carga adicional nas redes básicas. Além disso, o gerenciamento torna-se mais fácil. Não há mais
necessidade de buscar informações em dezenas de servidores, pois elas estarão centralizadas
em um único ponto.

O resultado é a maior disponibilidade, pois a informação fica disponível nos servidores,


independente de aplicações, sendo acessível por uma rede própria, sem degradação das redes
básicas. A empresa alcança melhor performance, pois não existe overhead do servidor e do seu
barramento (bus) central. Conta com um melhor gerenciamento centralizado, evitando a dispersão
natural das bases de dados distribuídas, bem como os inevitáveis problemas de "out of disk
space" que ocorrem individualmente nos servidores.

O armazenamento consolidado e centralizado reduz o custo de propriedade, principalmente


devido à eliminação das dificuldades da conectividade entre diversos ambientes de arquivos
heterogêneos, como encontrados nos diversos sistemas operacionais.

Ciclo de vida da informação

O custo de armazenamento de e-mails pode ser reduzido em até 80% com o uso de soluções de
gerenciamento, segundo os fabricantes, por isso mais empresas buscam soluções de ILM
(Information Lyfeclycle Management) para bancos de dados, ERP, CRM, correio eletrônico e
e-mail.

Por isso, além da virtualização, uma grande onda para melhorar a utilização do storage é a
implementação do ILM armazenada nos dispositivos da empresa. Estudos mostram que os dados
da maioria das aplicações deixam de ter a necessidade de estar disponíveis para acesso online
na medida em que o tempo passa. Um exemplo disso são as mensagens arquivadas na caixa
postal no correio eletrônico.

Normalmente, após 45 dias do recebimento, a mensagem de e-mail e seus anexos não precisam
consumir espaço em um disco mais rápido e, conseqüentemente, mais caro. Por isso, se a
empresa estiver precisando comprar discos, possivelmente implementar a gestão das
informações é uma boa alternativa. Dessa forma, irá proporcionar a compra de discos mais lentos
(e mais baratos) e migrar automaticamente as informações utilizadas com menos freqüência para
eles, reduzindo sensivelmente os novos investimentos em storage.

As empresas requerem cada vez mais o gerenciamento que garanta bons níveis de performance
e proteção, para suportar falhas durante o armazenamento (storage media) e elaborar
procedimentos completos em caso de problemas mais graves (disaster recovery). Parcerias com
fabricantes de software, soluções de grid storage e integração de produtos para criação de
soluções mais completas são o foco do mercado.

O ILM permite identificar cada informação, avaliar sua criticidade para o negócio e a necessidade
de acesso rápido a ela e, finalmente, rever a infra-estrutura de storage, de forma a permitir a
alocação apenas dos dados mais importantes em mídias de alta performance e, portanto, mais
caras, deixando o restante em equipamentos mais econômicos. Tudo isso feito de maneira
dinâmica, automática e transparente para o usuário.

As empresas também estão requerendo mais serviços de consultoria. O porquê desse


crescimento não é difícil de entender. A base do conceito da categorização das informações e do
armazenamento hierárquico é o conhecimento, por parte do cliente, da importância de cada dado
para seu negócio. Ou seja, por quanto tempo o material em questão é crítico para o trabalho diário
da companhia, quando se torna importante apenas para algumas áreas da corporação, cujo
acesso é mais raro e, finalmente, após quanto tempo deixa de ser necessário estar disponível
com imediatismo e pode ser armazenado em um arquivo morto.

Avaliação da infra-estrutura

É importante ainda lembrar que, se parte do conteúdo do arquivo morto é descartável, muitas
informações têm de ser guardadas por tempo determinado de acordo com leis ou regras setoriais,
sendo que possíveis alterações podem acarretar em sérios problemas para a companhia.

Após essa análise de todas as informações – e da categorização de cada uma –, empresas e


fornecedores devem fazer uma avaliação da infra-estrutura existente, adequando-a às
necessidades observadas. Assim, as informações permanecem guardadas nos equipamentos de
alta performance apenas enquanto são críticas para o negócio.

A seguir, conforme regras definidas pelos usuários, as informações são encaminhadas para
dispositivos mais baratos, que permitem acesso direto a elas, porém, com certa demora – os
fornecedores alertam que essa diferença pode ser de segundos. Finalmente, dados considerados
históricos vão para mídias com custo ainda mais reduzido e cujo tempo de acesso é um pouco
maior.

Apesar de ser um dos tipos de dados no qual a implementação do conceito de ILM é mais
complexa – por tratar-se de informações semi-estruturadas –, o alto volume de mensagens
eletrônicas que invade os servidores corporativos diariamente e a dificuldade dos usuários lidarem
com ela resultam em custos altíssimos para a companhia. E isso está motivando os CIOs a
encontrarem formas automatizadas de organizá-las e armazená-las.
A chave para as ilhas de storage se interconectarem com os outros aplicativos da empresa, como
ERP, CRM e outras aplicações, está na interoperabilidade entre os protocolos dos fabricantes.
Com a popularização das redes de storage, tornou-se interesse de todo o mercado a
padronização dos protocolos.

Um movimento importante nesse sentido foi a criação da SNIA (Storage Networking Industry
Association) associação que reúne 300 fabricantes mundialmente. A iniciativa Storage
Management Iniciative Specification (SMIS) testa e divulga especificações, realiza testes de
compatibilidade e interoperabilidade nas redes SAN e NAS, tornando os usuários mais
independentes de marcas e fabricantes.

O principal objetivo agora é fornecer especificações para o protocolo iSCSI preparando o terreno
para a próxima onda das redes globais nos grandes data centers.

8 - Tendências

Mais espaço para o armazenamento, redução de custos, interoperabilidade e continuidade de


negócios. Essas estratégias permeiam as tendências do storage para os próximos anos. E a
preocupação não é apenas por mais espaço para guardar os dados, mas tecnologias que
otimizem aqueles já usados, além de poderosas ferramentas de gerenciamento para administrar
todo o volume de informações.

A interconexão de tecnologias, manter a agilidade para acompanhar as mudanças rápidas e ter


sempre os dados disponíveis são as principais preocupações do mundo corporativo. Um dos
desafios é recuperar o controle do crescimento desenfreado e complexo das infra-estruturas,
simplificando o gerenciamento e a rotina de tarefas administrativas redundantes. As soluções
devem detectar ineficiências na maneira como as informações são gerenciadas e armazenadas
para fazer mais com a mesma quantidade ou menos recursos.

Proteger e garantir a segurança dos dados é o maior desafio das empresas no futuro, de acordo
com uma pesquisa divulgada pela CompTIA, uma associação do mercado de TI. A segurança foi
citada como a principal preocupação por um terço dos 660 executivos entrevistados ligados a
área de storage. Gerenciamento e administração de dados ficaram com o segundo lugar, sendo
mencionados por 17% dos participantes do estudo, seguidos por aceleração de acesso a dados
armazenados (10%). Apenas 6% dos participantes disseram que o atendimento a regras impostas
pelo governo é a principal preocupação.

Para acompanhar a velocidade do mercado, os administradores de storage e redes já convivem


com a convergência de seus produtos, apontando para um novo tipo de profissional: o engenheiro
de storage, que deverá conhecer as aplicações, entender de redes, saber como é o trabalho do
administrador de sistemas e conhecer o trabalho do gerente de armazenamento.

A rota tomada por empresas como a EMC, Cisco, Brocade e McData segue os princípios de
implementar uma infra-estrutura de virtualização escalável e interoperável. Um passo importante
foi a união dessas empresas para o desenvolvimento conjunto de interfaces de programação de
aplicações APIs (Application Program Interfaces). Em um futuro próximo, essas interfaces vão
permitir que as redes locais (LANs), de longa distância (WANs) e redes de armazenamento (SAN
e NAS) troquem dados sem problemas de interoperabilidade.

A segurança e o storage também já apontam para a consolidação, como atesta a fusão da


Symantec com a Veritas, apontando para novos produtos que unem essas áreas.
A evolução das arquiteturas de bancos de dados passa pela migração do tradicional DAS (Direct
Attached Storage) para o conceito de SAN (Storage Area Network) que se baseia em interligações
ópticas dos elementos armazenadores, servidores e switches e o conceito NAS (Network
Attached Storage), com interligações baseadas nos padrões das redes locais.

Qualquer que seja o modelo de arquitetura de rede: SAN, NAS ou combinação de ambas, a
interligação entre a rede principal e backup pode ser feita por meio da solução de
telecomunicações de storage sobre redes ópticas, que se baseia em tecnologias de transmissão
óptica Synchronous Digital Hierarchy (SDH). Na cadeia de fornecimento dessa solução, estão as
empresas de storage, operadoras e fornecedores de equipamentos de telecomunicações.

Redes IP

A popularização das redes IP acontece, no storage, com a utilização de plataformas iSCSI. Para
decolar, o mercado aguarda o desenvolvimento de padrões que estão em curso com iniciativas
como a SNIA (Storage Networking Industry Association),que conta com um time de 400
profissionais, dos quais cem fazem parte das grandes companhias de storage.

A grande aposta tem sido a Storage Management Initiative (SMI), dentro da SNIA, que une os
fornecedores em torno da unificação do processo de gerenciamento. Uma das etapas da SMI tem
sido, justamente, fazer intercâmbio de APIs rumo à interoperabilidade baseada em padrões.

Com a popularização das redes SAN (Storage Area Network), uma das apostas da indústria é a
queda de preços para atingir novos mercados como as pequenas e médias empresas. As
pressões sobre os últimos cinco anos – na direção das SAN e NAS, que ampliou a adoção das
redes de armazenamento de dados – deve continuar ampliando a venda e oferta de produtos de
gerenciamento com o conceito ILM (Information Lifecycle Management) mais ágeis e mais
baratos, enquanto o iSCSI continua a ganhar mercado.

Nos últimos anos, muitos fabricantes já adaptaram seus produtos para suportar as IP SANs
(redes de armazenamento que utilizam o protocolo IP), usando o protocolo iSCSI em conjunto
com o FC-IP (Fibre Channel sobre TCP/IP) ou iFCP (Internet Fibre Channel Protocol).
Especialistas não acham que a iSCSI vá matar o mercado das SANs, já que o FC e iSCSI
endereçam diferentes necessidades. Clientes que não querem uma FC dedicada e contam com
grandes volumes de storage devem voltar-se para a iSCSI.

Além do desenvolvimento das redes, a virtualização caminha rumo à consolidação. Na


tecnologia, dispositivos diversos, com características, funcionalidades, performance, níveis de
serviço e até mídia física diferenciada, são apresentados ao servidor e às aplicações como se
fossem virtuais, simplificando o gerenciamento.

O objetivo principal é garantir uma total utilização da infra-estrutura, diminuindo sua ociosidade e
tornando mais fácil a implementação do ILM (Information Lifecycle Management) em todas as
aplicações, independente de compreenderem a infra-estrutura. Alguns requisitos são essenciais
para implementar a virtualização: escalabilidade, gerência ponto-a-ponto, interoperabilidade e
aderência a padrões da indústria.

Grid computing

A indústria também aposta no grid computing, arquitetura que adiciona uma camada à SAN, que
virtualiza dados em múltiplos arrays. Mas não basta a utilização da tecnologia de integração de
discos e a virtualização, se a rede ficar muito lenta. Para superar esse obstáculo, a indústria
aponta para o chamado “object storage”, que essencialmente utiliza metadados e endereçamento
virtual para otimizar as redes.

O object storage usa controladores de metadados para atuar como uma ponte entre o dispositivo
de storage e o servidor em que estão armazenados os dados. Dessa forma, pode fornecer a
informação solicitada pelo aplicativo de maneira eficiente e sem congestionar a rede.

O storage grid computing é a transposição do conceito da grid computing para o armazenamento,


ou seja, diversos sistemas de armazenamento são tratados de uma forma única. Para isso, o
segredo é a criação de um modelo de nomenclatura padrão para os dados. Também é
fundamental que seja feita a classificação dos dados e a adoção de uma camada de cache à
frente da variedade de storage para garantir que as informações críticas sejam acessadas
rapidamente. Isso permite o armazenamento de dados em dispositivos de hardware mais baratos.

Armazenamento físico

Na futurologia dos discos, diversos institutos de pesquisa apontam para diferentes tecnologias,
sempre buscando ampliar a capacidade de armazenamento. As linhas de desenvolvimento vão na
direção dos discos ópticos, nanotecnologia e chips baseados em polímeros.

Físicos da universidade britânica Imperial College, de Londres, estão desenvolvendo um disco


óptico do tamanho de um DVD convencional com capacidade de armazenamento 1.000
Gigabytes (GB), que recebeu o nome de MODS – Multiplexed Optical Data Storage. Ele é capaz
de armazenar 472 horas de filmes.

Os desenvolvedores da tecnologia ainda destacam que os discos MODS não serão os primeiros
a desafiar a dominação dos DVDs, no mercado audiovisual, já que os discos BluRay também têm
capacidade cinco vezes superior aos discos convencionais (cerca de 25 GB por face).

Agora, os pesquisadores da universidade estão trabalhando com colegas do Instituto de


Microtecnologia da Universidade de Neuchâtel, na Suíça, e com o Departamento de Engenharia
Elétrica e de Computação, da Grécia, para calcular o preço dos discos MODS para produção em
série.

O grupo também está trabalhando para descobrir um formato que tornaria o disco compatível
com aparelhos reprodutores de CD e DVD já existentes. Um dos pesquisadores, Dr. Török,
destacou que acredita que os primeiros discos comerciais desse tipo estarão disponíveis entre os
anos de 2010 e 2015.

Outra linha de pesquisa é com chips de memória com filme plástico e silício, que poderia baratear
o armazenamento do futuro. Essa linha de pesquisa reúne a HP e a Princeton University, dos
Estados Unidos. Segundo a revista Nature, a passagem da eletricidade sobre o dispositivo de
filme plástico funde o polímero, mudando sua condutividade e permitindo que camadas de
memória possam ser sobrepostas.

A tecnologia seria mais barata, porque não envolve transistores. Intel e AMD prevêem produzir
memórias baseadas nesses polímeros, mas as pesquisas ainda são preliminares porque os
pesquisadores ainda estão testando a velocidade do registro e leitura do dado. O dispositivo
chamado PEDOT pode conter 1 Megabit de dados em um milímetro. Um centímetro cúbico
poderia armazenar 1 GB de dados.

O que é nanociência e nanotecnologia?


Os discos magnéticos e fitas continuam a ampliar suas capacidades de armazenamento com a
vantagem do baixo custo. Indo além dos discos magnéticos, os pesquisadores apontam para os
avanços na nanotecnologia, unindo proteínas sintéticas e circuitos moleculares para criar chips
chamados de nanorobôs. No desenho dos chips, há limitações associadas à fotolitografia. Uma
tecnologia-chave é a habilidade de posicionar os circuitos a poucos nanomilímetros um do outro.

Para atender essa necessidade, a computação molecular começa a tomar forma. Empresas e
institutos de pesquisa desenvolvem os nanorobôs, com a manipulação de proteínas sintéticas que
se aproximam da estrutura do DNA.

A essência da nanociência e nanotecnologia é a habilidade de trabalhar ao nível molecular,


átomo por átomo, para criar grandes estruturas com organização molecular. Nanociência e
nanotecnologia dizem respeito ao entendimento, controle e exploração de materiais e sistemas
cujas estruturas e componentes exibem propriedades e fenômenos físicos, químicos e biológicos
novos e modificados devido a sua escala nanométrica (1-100nm).

A meta é explorar essas propriedades para ganhar controle das estruturas e dispositivos ao nível
atômico, molecular e supramolecular e aprender a fabricar e a usar eficientemente esses
dispositivos para novos chips e sistemas que futuramente vão armazenar grandes volumes de
dados. Essa tecnologia aponta para grandes promessas no campo do armazenamento de dados.

Nessa direção, a IBM anunciou a tecnologia MEMS (Micro-Electrical-Mechanical System)


baseada no conceito Millipede ou Millipede High-density data storage, tecnologia de alta
densidade com base em componentes atômicos, colocados em um substrato microscópico.

Pequenas depressões criam uma força atômica microscópica em um polímero que recebe os bits
de dados armazenados. O polímero pode ser reusado milhões de vezes, ultrapassando os meios
magnéticos de gravação. No conceito millipede, um array opera de maneira paralela, onde cada
dado é lido, escrito ou apagado, em sua própria área de armazenamento.

O Bell Labs, em conjunto com a Lucent e a Imation, tem uma linha de desenvolvimento de
sistemas holográficos de storage, reposicionando wafers de silício separados por nanomilímetros
para conter os dados.

No mercado de discos multimídia, o dispositivo de 1,8 polegadas deve ir além dos equipamentos
de MP3, integrando notebooks, PDAs e equipamentos embarcados (computadores de
automóveis). Estes equipados com sistemas de localização que acessam grandes bases de
dados, poderão armazenar informações e imagens 3D em discos compactos mínimos.

Você também pode gostar