Você está na página 1de 30

UNIP INTERATIVA

Projeto Integrado Multidisciplinar


Cursos Superiores de Tecnologia

PIM – PROJETO INTEGRADO MULTIDISCIPLINAR

Rio de Janeiro – RJ
2013
UNIP INTERATIVA
Projeto Integrado Multidisciplinar
Cursos Superiores de Tecnologia

PROJETO INTEGRADO MULTIDISCIPLINAR-II

Nome: Antonio de Aragão Santana

RA: 1128127

Rio de Janeiro - RJ
2013
RESUMO

Este trabalho tem como objeto a descrição do desenvolvimento de parte de um


projeto global que implementou a unificação e centralização dos serviços de infra-
estrutura de todas as filiais de uma empresa multinacional americana do ramo de
agronegócios ao redor do mundo em sua matriz nos Estados Unidos.

A parte do projeto abordada neste trabalho trata da virtualização, um dos itens de


redução de custo e melhoria dos processos de gerenciamento dos ativos por parte
da área de Tecnologia da Informação.

Neste documento serão demonstrados os fatores de negócio que direcionaram a


decisão de unificação dos serviços da área de infra-estrutura da empresa e a
adoção da estratégia de virtualização, abordando as principais vantagens
percebidas bem como suas conseqüências em termos de recursos humanos e
postos de trabalho nas diversas filiais.

As informações referentes ao projeto conduzido por esta empresa foram levantadas


em entrevistas com ex-funcionários da área de TI.

Palavras-chave: Virtualização, Unificação, Centralização, Infra-estrutura, Servidores.


ABSTRACT

This paper has as object the description of the development of a portion of a global
project that implemented the unification and centralization of infrastructure services
for all subsidiaries of a multinational American agribusiness company around the
world at its headquarters in the United States.

The portion of the project discussed in this paper deals with virtualization, one of the
items of cost reduction and assts management process improvement by Information
Technology department.

This document will demonstrate the business drivers that guided the decision to unify
the infrastructure services of the company and the adoption of virtualization strategy,
addressing the main perceived advantages as well as their consequences in terms of
human resources and jobs in several branches.

The information related to the project of this company where obtained via
assessment with ex-employees of TI area.

Keywords: Virtualization, Unified, Centering, Infrastructure, Servers.


SUMÁRIO

INTRODUÇÃO..............................................................................................................6

História.......................................................................................................................7

DESENVOLVIMENTO DO PROJETO.......................................................................10

A situação atual........................................................................................................10

Como está o mercado com relação a virtualização.................................................11

Conceitos..................................................................................................................12

Como funciona.........................................................................................................14

Benefícios e obstáculos da utilização da tecnologia de virtualização.....................15

Escopo do projeto....................................................................................................18

Fases do projeto.......................................................................................................18

Indicadores positivos observados com a implementação deste projeto.................21

Principais dificuldades encontradas durante o projeto............................................22

O fator humano – um outro ponto de vista..............................................................22

Próxima fase – virtualização de desktops................................................................23

O futuro - virtualização de tablets............................................................................27

CONCLUSÃO.............................................................................................................28

REFERÊNCIAS BIBLIOGRÁFICAS..........................................................................29

GLOSSÁRIO...............................................................................................................30
6

INTRODUÇÃO
As grandes corporações existem para prover produtos e serviços que são
necessários às economias modernas e para tal são compostas de muitas áreas que
em conjunto garantem a continuidade de suas operações.

Estas áreas podem ser fundamentalmente classificadas em dois tipos:

 Áreas CORE: são as áreas diretamente ligadas ao negócio da empresa como


Manufatura e Vendas
 Áreas de ENABLING: são as áreas que não estão diretamente ligadas ao
negócio da empresa, mas que são habilitadoras do seu funcionamento.
Podemos mencionar como exemplos desse tipo as áreas de Recursos
Humanos, Financeira e Tecnologia da Informação.

Com a crescente competitividade no mundo capitalista dos dias atuais não é


suficiente vender o melhor produto ou fornecer o serviço de melhor qualidade. Os
processos têm que ser muito eficientes e os custos reduzidos aos máximos níveis
considerados aceitáveis.

Uma forma de busca de redução de custos é a avaliação constante de processos e


tecnologias dentro da empresa e principalmente nas áreas de Enabling.

A área de Tecnologia da Informação figura como uma das que oferecem mais
possibilidades de redução de custos pela própria característica de dinamismo no que
diz respeito ao surgimento de novas tecnologias, métodos e procedimentos.

Nas últimas décadas cresceu a adoção do conceito de TCO (Total cost of


ownership) que se refere a uma estimativa financeira do custo de aquisição e
manutenção de equipamentos e tecnologias como softwares.
7

Como opção de redução do TCO surge a avaliação da quantidade de equipamentos


com o conseqüente estudo da estrutura de recursos físicos e humanos necessários
para a sua manutenção.

Uma das tecnologias que possibilita esta análise e a redução do TCO que deriva de
sua aplicação é a Virtualização.

Como veremos no decorrer deste trabalho a idéia de virtualização é bastante antiga,


mas somente no final dos anos 90 é que surge da forma que a conhecemos e
aplicamos atualmente.

História

Figura 01 – Pontos marcantes na história da virtualização


8

A idéia de virtualização é antiga. Começou a ser estudada na década de 1960,


quando os grandes e expansivos computadores daquele tempo possuíam uma
velocidade de processamento muito grande, mas não aproveitavam bem seu tempo
de máquina, pois toda a gerência dos processos era feita pelo operador de forma
manual. Surgiu então uma busca pela descoberta de uma maneira de automatizar e
otimizar esse gerenciamento de processos. A idéia inicial foi a de executar vários
processos em paralelo. Desta forma foi criado o conceito de tempo compartilhado
(time sharing).

Time Sharing: esta tecnologia possibilita um aproveitamento mais eficiente do tempo


de máquina, utilizando o tempo inerte entre processos na execução de tarefas de
outros processos. Muitos trabalhos são executados ao mesmo tempo sendo que o
processador central dedica pouco tempo a cada trabalho por vez, em seqüência.
Esta troca entre processos é muito rápida e não é percebida pelos usuários.

Em 1972, a base da teoria para a construção da arquitetura de sistemas


computadorizados virtuais foi lançada em uma dissertação em Harvard pelo cientista
da computação americano, Robert P. Goldberg. Neste ano também foi lançado pela
IBM um mainframe que possuía a capacidade de executar em paralelo diferentes
sistemas operacionais com a supervisão de um programa de controle chamado de
hypervisor.

Os computadores da linha /370 da IBM foram os primeiros projetados para


virtualização que, contendo o sistema operacional CP/CMS, conseguia executar
mais de uma seção ao mesmo tempo. Depois veio alinha IBM z/VM, que utilizava a
virtualização através de hardware de maneira mais completa. O sistema VM/CMS é
muito bem avaliado e utilizado em grande escala na indústria e instituições
acadêmicas. Muitas das implementações que vemos hoje têm sua base nesta
origem da IBM. Esta tecnologia foi fundamental para o avanço no processamento de
grandes volumes de dados como é o caso dos bancos, por exemplo, que no Brasil
foram os pioneiros do uso da tecnologia da informação.
9

Com a redução da adoção da plataforma mainframe e o aumento da adoção da


plataforma x86, o conceito de virtualização ficou esquecido por muitos anos. Com
base em publicações da VMWare, a arquitetura x86 passou a ser adotada como
padrão na década de 1990 devido ao aumento da adoção dos sistemas operacionais
Windows e Linux.

Como era muito caro adquirir um mainframe, as empresas começaram a comprar


servidores de plataforma x86 de forma gradativa, obedecendo a geração da
necessidade. Desta forma evita-se um custo inicial muito alto com a compra de
mainframe optando pela aquisição de servidores menores de acordo com a
necessidade. Entretanto passou-se a utilizar estes servidores de forma dedicada, ou
seja, cada servidor era usado para executar uma única aplicação. O principal
motivador desta prática era a garantia de uma boa margem de folga contra
problemas de dimensionamento de hardware. De acordo com estudos publicados
pela International Data  Corporation havia uma subutilização de uso das CPUs que
ficava entre 10 a 15% da sua capacidade total. Voltamos ao problema original dos
mainframes da década de 1960, ou seja, subutilização.

O próximo passo só veio em 1999, quando a VMWare Inc. trouxe o conceito de


virtualização para a plataforma x86.

Então, em 2005 os fabricantes de processadores como Intel com sua tecnologia Intel
VT e a AMD com a tecnologia AMD-V começaram a se preocupar com a melhoria de
suporte via hardware em seus produtos. Estas tecnologias apresentam
funcionalidades complexas e específicas que permitem que hypervisores sejam
utilizados com a técnica de virtualização completa (full virtualization), que tornam
mais fácil a implementação e potencializam a melhora de performance.
Fonte: Virtualização um pouco de história - Henrique Bueno 29/04/2009 disponível em:
http://hbueno.wordpress.com/2009/04/29/virtualizacao-um-pouco-de-historia/
10

DESENVOLVIMENTO DO PROJETO

A situação atual

A empresa que conduziu o projeto que mencionaremos aqui possui


aproximadamente 52 subsidiárias em 5 continentes. Com exceção da Ásia e África
que possuem escritórios centralizados, as demais possuem estruturas
administrativas independentes. Não é diferente com relação às áreas de TI, em um
cenário no qual cada subsidiária possuía estrutura de hardware e software
independente com gerenciamento local.

Na última década, a empresa passou por grande crescimento e mudança, evoluindo


de um negócio de US$ 3 bilhões, focado principalmente nos Estados Unidos, para
uma empresa agrícola internacional de US$ 13 bilhões, sendo o Brasil a segunda
mais importante região.

Há 10 anos, esta empresa iniciou seu processo de globalização envolvendo todos os


departamentos da companhia. A área de TI foi uma das mais participativas e mais
afetadas por esta mudança de condução dos negócios.

Três grandes projetos de TI foram implementados nos últimos anos para atender a
esta nova realidade:

1. Constituição de um time global com representantes locais para analisar as


ferramentas existentes em cada localidade, identificar sinergias e propor
consolidações e simplificações.
2. Consolidação do ERP (Enterprise Resource Planning) na matriz localizada
nos Estados Unidos
3. Unificação e centralização dos serviços de infra-estrutura na matriz localizada
nos Estados Unidos. Uma das frentes deste projeto foi a estratégia de
virtualização, que é o objeto deste trabalho.
11

A decisão pela estratégia de virtualização foi global e baseada nos resultados de


benchmark realizados em diversos países junto às empresas de mesmo porte,
porém de outros ramos de negócio (já que a empresa em questão é pioneira em seu
ramo de atividade).

Como está o mercado com relação a virtualização

Segundo informações da Associação Brasileira de ebusiness (ebusiness Brasil), os


investimentos no processo de Virtualização na área de Tecnologia da Informação
(TI) aumentaram cerca de 80% entre 2010 e 2012. A organização realizou no início
de 2012 um levantamento junto a mais de 500 diretores e executivos do setor, e
descobriu que a adoção de virtualização tem ganhado mais velocidade desde 2009. 

De acordo com a análise, entre as que já utilizam alguma forma de virtualização,


59% aderiram entre 2010 e 2012, 21% o fizeram em 2012, 17% já utilizam há entre
quatro e sete anos e apenas 2% dos executivos afirmaram que suas empresas
passaram a investir no processo há mais de sete anos.

De acordo com a pesquisa, apesar dos números positivos, uma em cada três
empresas ainda não conhece amplamente os conceitos desse modelo
computacional e não consegue detectar os ganhos significativos para os negócios. 

Talvez por conta desse desconhecimento ainda existente entre os executivos de TI,
de acordo com a pesquisa realizada pela ebusiness Brasil, 44% dos entrevistados
assumiram que adoção da tecnologia deve-se exclusivamente à redução de custos. 

A pesquisa apontou também que, embora a tecnologia esteja sendo adotada por
boa parte das empresas, ainda existem barreiras que atrasam a sua adoção - o
principal empecilho, citado por 67% dos executivos da área de TI, está relacionado
ao investimento inicial necessário. 
Fonte: Convergência Digital - Hotsite Cloud Computing - Fernanda Ângelo 15/03/2012 disponível em
http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=29556&sid=97#.Ulbjd9KsiSo
12

Conceitos

Os servidores, que são as máquinas que hospedam arquivos e aplicativos em redes


de computadores,  precisam ser poderosos. Algumas dessas máquinas dispõem de
unidades de processamento central (CPUs) com múltiplos processadores que dão a
elas a capacidade de executar com facilidade tarefas complexas. Os
administradores de redes de computação geralmente dedicam cada servidor a um
aplicativo ou a uma tarefa específica. Muitas dessas tarefas não funcionam bem
quando realizadas em companhia de outras - cada uma precisa de uma máquina
exclusiva. Uma aplicação por servidor também torna mais fácil encontrar os
problemas quando eles surgem. É uma maneira simples de criar uma rede de
computadores enxuta, do ponto de vista técnico. 

Esta abordagem, no entanto, traz alguns problemas. Um deles é que ela não
aproveita o poder de processamento dos servidores modernos. A maioria dos
servidores emprega apenas uma fração de sua capacidade de processamento.
Outro problema é que, à medida que uma rede de computadores se torna maior e
mais complexa, os servidores começam a ocupar muito espaço físico. Um centro de
dados pode ficar repleto de racks de servidores que consomem muita energia e
geram calor. 

Os servidores virtuais representam uma tentativa de resolver definitivamente essas


duas questões. Por meio de um conjunto especializado de programas, o
administrador transforma um servidor físico em várias máquinas virtuais. Cada uma
destas máquinas virtuais é como um equipamento físico único, que tem a
capacidade de executar seu próprio sistema operacional (SO). Teoricamente, é
possível criar número suficiente de servidores virtuais de modo a usar toda a
capacidade de uma máquina, mesmo que essa não seja a melhor prática. 

A virtualização é uma maneira de executar múltiplas tarefas de várias categorias em


um mesmo equipamento físico. A virtualização possibilita inclusive a simulação de
diferentes tipos de hardware como roteadores, switchs, servidores, celulares, em um
único equipamento.
13

Atualmente não existe uma forma de executar uma tarefa na internet sem que se
tenha utilizado a tecnologia de virtualização. Um bom e recente exemplo é o modelo
de computação na nuvem. Nesta tecnologia, servidores virtualizados formam uma
grande rede distribuída fisicamente, onde existem servidores específicos para cada
serviço que se precisa realizar.

A virtualização de servidores se baseia na simulação parcial ou total de um


hardware utilizando um software para gerenciar esta simulação. A grande vantagem
da virtualização é simular um hardware que não está presente de forma nativa.

Cada tipo de tarefa demanda um tipo de virtualização específico. No quadro abaixo


é demonstrada a relação de softwares adequada para cada tipo de tarefa:

Tarefa Softwares
virtualizar ou simular roteadores,  Dynamips/Dynagen
switchs, bridges, hubs e demais  Packet Tracker
equipamentos de rede
virtualização de máquinas, servidores  Virtual Box
voltados para testes em sistemas  Qemu
desktop  VMWare
 Microsoft Virtual PC
 BootCamp
 Parallels
virtualização de servidores em ambiente  Xen
de produção  VMWare
 KVM

Quadro 01 – Softwares por tipo de tarefa de virtualização


14

Como funciona

Figura 02 – Virtualização – Arquitetura

Através da introdução de programas controladores (hypervisors) entre o servidor e


as máquinas virtuais com a finalidade de compartilhar recursos de hardware, a
tecnologia de virtualização permite que vários sistemas operacionais (que podem
inclusive ser diferentes entre si) possam ser carregados ao mesmo tempo em uma
única máquina física. Cada uma das máquinas virtuais será totalmente independente
tanto do ponto de vista de software (sistema operacional) quando do ponto de vista
de desempenho, atingindo velocidade de processamento muito próxima à do
equipamento físico. Além disso, as máquinas virtuais têm a capacidade de se
interconectar através de interfaces também virtualizadas.

Ao contrário dos servidores convencionais, ao criar uma máquina virtual, aloca-se


recursos como memória, espaço de disco, processamento por meio de dispositivos
lógicos, de acordo com a necessidade especifica da aplicação à qual determinada
virtual machine se destine.
15

A virtualização possibilita a utilização do Monitor de máquina virtual. O Monitor pode


ser programado para, em caso de determinada virtual machine necessitar recursos
além do que a ela foi destinado, realocar automaticamente recursos ociosos do
servidor virtualizado em que a virtual machine se encontre ou de outros servidores
virtualizados para manter a estabilidade de performance e atender as expectativas
de níveis de serviço.

Benefícios e obstáculos da utilização da tecnologia de virtualização

O primeiro grande benefício que se observa é relacionado à redução dos tempos de


parada dos servidores, além de se tornar possível a prevenção de perda de dados e
planejamento de paradas.

Outra grande vantagem diz respeito às facilidades de automação e gerenciamento,


pois os sistemas são centralizados e a interface é amigável e intuitiva. O
gerenciamento de atualização de versões também fica facilitado.

Junta-se a estes fatores a otimização da infra-estrutura. Pesquisas apontam que a


utilização de servidores utilizando tecnologia convencional é em torno de 5 a 20% e
com a virtualização essa taxa sobre para 65 a 90%.

Com relação ao custo operacional uma taxa de redução de até 40% pode ser
alcançada.

Além destes, observamos também:

 Maior facilidade para execução de backups.


 Simplificação no gerenciamento e execução de manutenção e suporte.
 Controle de acesso a dados e proteção de propriedade intelectual.
 Eliminação da dependência do equipamento físico.
 Redução do tempo de substituição de servidores.
 Upgrade de hardware passa a ser transparente para usuário final.
 Aumento do SLA de disponibilidade.
 Maior facilidade de recuperação do ambiente em caso de desastres.
 Redução da incompatibilidade com as aplicações.
 Redução da necessidade de espaço físico.
16

 Devido à menor quantidade de equipamentos físicos, se gasta menos com


eletricidade.
 Aumento no nível de segurança devido à possibilidade de criar ambientes
virtuais distintos e alocar cada serviço nestes ambientes separadamente.
 Todos os serviços deixam de ser afetados quando ocorre uma falha em uma
aplicação específica.
 As cargas de trabalho passam a serem gerenciadas automaticamente pelos
programas controladores que fazem a distribuição dos recursos de forma
dinâmica.
 Facilidade de upgrade de plataforma com o objetivo, por exemplo, de ganho
de desempenho, uma vez que cada máquina virtual está isolada.
 Convivência de versões distintas de sistema operacional: é comum nas
empresas que o processo de upgrade de versão de sistema operacional seja
feito de forma gradativa. Com a tecnologia de virtualização este processo se
torna muito mais fácil já que é possível ter versões diferentes de sistema
operacional sendo executados em cada máquina virtual.
 Redução da quantidade de racks que implica diretamente em redução de
custo e, talvez mais importante, em liberação de espaço físico que pode ser
alocado para outros fins.
 Melhoria dos procedimentos de teste com a possibilidade de construir
simulações de ambientes.
 Economia na compra de equipamentos: os hardwares utilizados não precisam
apresentar compatibilidade com os sistemas operacionais (característica que
quando exigida pode encarecer em muito a solução). A compatibilidade pode
ser realizada através dos recursos de virtualização. Além da economia essa
técnica também possibilita a execução de testes prévios que suportarão a
tomada de decisão de compra de hardware e mesmo de software.
 Possibilidade de criação de ambientes de teste, homologação e produção
com configurações distintas para validação de manutenção, correções e
upgrades de versão. Por serem ambientes totalmente apartados, falhas
ocorridas em um determinado ambiente não afetarão os outros ambientes,
nem do ponto de vista de hardware que é o que normalmente prejudica as
empresas sem a utilização da virtualização.
17

Apesar de todos os benefícios relatados, alguns obstáculos ainda têm sido


mencionados em pesquisas sobre a adoção da tecnologia. Entre os principais,
destaca-se:

 Maior alocação do espaço no disco já que cada máquina virtual necessita ter
instalados todos os arquivos de cada sistema operacional. Apesar de este
parecer ser um efeito colateral indesejado, ele cumpre a busca inicial de pela
utilização dos recursos.
 Dificuldade no acesso a recursos de hardware de forma direta como, por
exemplo, placas específicas ou dispositivos USB.
 Aumento no consumo de memória de acesso randômico, uma vez que cada
VM fará a ocupação de uma área separada de RAM.
 Há um ponto de controvérsia entre os desenvolvedores no que diz respeito ao
impacto causado por alguma vulnerabilidade no sistema operacional
hospedeiro. Alguns especialistas afirmam que qualquer máquina virtual
hospedada na mesma máquina física sofreria impactos desta vulnerabilidade.
 Aumento na complexidade de gerenciamento do ambiente: ambientes
virtualizados apresentam maior necessidade de controles com monitoramento
e configuração. Apesar de existirem provedores de soluções para estes fins,
os custos são os mais elevados na adoção da tecnologia, justamente pela
sensibilidade e acuracidade envolvidas.
 Performance: apesar de não existirem formas consolidadas para avaliar a
performance de ambientes virtualizados, já é conhecido que a inclusão de um
software de controle (hypervisor) entre o hardware e o Sistema Operacional,
aumenta o custo de processamento. Outro item a ser considerado é que
ainda não se conhece o ponto de ruptura, ou seja, não há como saber
exatamente quantas VMs podem ser instanciadas em cada processador, sem
prejudicar a qualidade do resultado.
18

Escopo do projeto

Os objetivos principais do projeto eram:

 Concluir a implementação da virtualização e consolidação dos servidores nos


Estados Unidos até o máximo nível viável, considerando os tipos: servidores
de aplicação, servidores de bancos de dados e servidores de impressão.

 Concluir a implementação das alterações e upgrades necessários na infra-


estrutura de comunicação com entre os sites e Matriz.

 Fornecer um estudo e sugerir um piloto para a virtualização de desktops.

Fases do projeto

1. Benchmark global junto a empresas do mesmo porte:

Nesta fase cada região visitou empresas que haviam passado pelo processo
de virtualização e elaborou uma documentação relatando os fatores de
sucesso e também os maiores desafios enfrentados. Casos de insucesso
também foram explorados e relatados com um mapeamento das causas
identificadas do insucesso.

2. Levantamento do parque de servidores em cada região:

Nesta fase cada região identificou todos os bancos de dados e aplicações por
servidor e identificou as possibilidades de consolidação, estimando os custos
envolvidos e a expectativa de redução do TCO. Cada região informou nesta
fase as expectativas de aquisição de novos servidores e estes custos
previstos também foram agregados à documentação.
19

3. Condução de projetos regionais:

O processo foi gradativo. Em uma primeira fase, cada região identificou um


site que seria a matriz da sua região para que fosse o centralizador dos
servidores deste conjunto de subsidiárias. Após esta implementação, cada
região teve um ano para estabilização dos serviços e da estrutura de pessoas
para gerenciamento da nova configuração.

Como este processo envolveu uma mudança muito grande em termos de


pessoas, esta estratégia foi decidida devido principalmente ao nível de
conhecimento necessário para o gerenciamento das atividades.

4. Condução do projeto global:

Após o ano de estabilização da nova configuração e com todas as mudanças


de pessoas implementadas, houve um período de treinamento do time da
matriz para assumir as atividades de gerenciamento.

Depois de 6 meses de gerenciamento das atividades pelo time da matriz,


iniciou-se a fase final de virtualização dos servidores, desta vez centralizando
o a disposição física em um Data Center construído nas dependências da
matriz nos Estados Unidos.

A virtualização obedeceu a seguinte seqüência por tipo de servidor:

 Servidores de bancos de dados


 Servidores de aplicação
 Servidores de impressão
20

Figura 03 – Virtualização dos servidores no Brasil

Figura 04 – Virtualização dos servidores nos Estados Unidos


21

Assim como a América do Sul conduziu a centralização e virtualização dos seus


servidores em São Paulo, as demais regiões (Estados Unidos e América Central,
Europa, Ásia e África) também fizeram o mesmo, escolhendo um único site para a
primeira fase.

Indicadores positivos observados com a implementação deste projeto

 Otimização da utilização da capacidade dos servidores:

Adotando uma postura conservadora, optou-se por não levar ao máximo a


otimização, mantendo-se ainda uma margem de folga em cada servidor virtualizado.
Essa não é a prática mais recomendada, mas é a mais adequada ao perfil da
empresa que tende a ser mais conservadora com novas tecnologias. Desta forma
observou-se um aumento de 46% na utilização da capacidade dos servidores que
passou de 32% para 78% em média.

 Fatores financeiros:

Não tivemos acessos aos números puros, apenas os percentuais foram informados.
Sem levar em consideração os investimentos iniciais, já que a empresa optou por
construir um edifício para abrigar o Data Center além de modernizar a maioria do
parque de hardware. Estes valores foram alocados como investimento e não fazem
parte da estimativa de redução de TCO observada. Com base na comparação entre
os budgets para as contas de infra-estrutura da empresa, considerando a média de
3 anos antes e 2 anos depois da implementação do projeto a redução média ficou
em torno de 28%, considerando a fase final do projeto.

 Fatores técnicos:

Do ponto de vista dos usuários finais as pesquisas sobre a disponibilidade das


aplicações não se mostraram conclusivas na direção de melhoras, uma vez que a
empresa já apresentava uma disponibilidade acima de 90% em média para todas as
regiões.

Para algumas filiais, especificamente as que já possuíam seus serviços localizados


fisicamente distantes de suas instalações, foi relatada uma pequena melhora.
22

Do ponto de vista da equipe técnica, grandes benefícios foram relatados


principalmente com relação à simplificação dos procedimentos de suporte e
manutenção e ganho de tempo em migrações e upgrades.

 Benefícios indiretos:

Em todas as regiões foi alcançada uma grande economia de espaço físico que
gerou a possibilidade de utilização deste espaço para outros fins em alguns casos e,
na maioria dos casos, propiciou ganhos financeiros com a redução de gastos com
aluguel e contas de consumo.

Principais dificuldades encontradas durante o projeto

A principal dificuldade relatada pelo time do projeto não foi técnica e sim de recursos
humanos. Trata-se da insegurança dos analistas envolvidos, anteriormente
responsáveis pela manutenção das aplicações e bancos de dados que
manifestavam a sensação de perda de poder, uma vez que deixariam de ser os
responsáveis e ter total autonomia sobre estas atividades. Isso causou muitas
dificuldades na obtenção dos levantamentos de aplicações e bancos de dados
envolvidos.

Esta barreira foi parcialmente ultrapassada com o envolvimento de todos no projeto


e com a alocação de atividades de gerenciamento do projeto e de treinamento pata
serem executadas pelos analistas.

A grande variedade de tipos e modelos de equipamentos e fornecedores e versões


de softwares também se mostraram um grande desafio. O trabalho de correto
mapeamento das aplicações e equipamentos foi de extrema importância para a
continuidade do projeto.

O fator humano – um outro ponto de vista

É inegável o grande número de benefícios que este projeto trouxe para a empresa
principalmente sua contribuição na melhoria de resultados gerados aos acionistas.
Porém um efeito colateral importante se fez presente, como acontece na maioria dos
projetos de implementação de novas tecnologias na área de TI.
23

Com exceção dos Estados Unidos que apresentou um aumento significativo nos
postos de trabalho devido a receberem a responsabilidade pelas novas tarefas,
todas as demais regiões demonstraram redução em suas posições de TI. O quadro
comparativo abaixo mostra estes indicadores em percentuais.

Região Redução de Observação


posições de TI
Brasil 33% Devido principalmente ao fechamento das
áreas de TI fora de São Paulo. Além disso, o
Brasil já centralizava algumas tarefas de infra-
estrutura da América do Sul.
Américas Central e 26%
Devido à extinção dos cargos que foram
Sul - exceto Brasil
migrados para os EUA.
Europa 18%
Ásia 4% Quantidade menor de funcionários de infra-
África 4% estrutura. O serviço já era compartilhado com
outras regiões.

Quadro 2 – Redução dos postos de trabalho de TI

Estes efeitos são inevitáveis e configuram o grande desafio a ser vencido em


projetos deste porte. Uma vez que a insegurança pela manutenção de seus cargos
se instala, os envolvidos tendem a se proteger, evitando muitas vezes o
fornecimento das informações necessárias.

Mais uma vez, a prática mostra que o gerente de projetos é, antes de tudo e mais
importante, um gestor de pessoas que tem a grande responsabilidade de lidar com
estas situações adversas, mantendo o empenho de todos os envolvidos e
garantindo os resultados esperados de qualidade, custo e prazo.

Próxima fase – virtualização de desktops

Como foi levantado no benchmark realizado, após a conclusão do projeto de


virtualização dos servidores, o próximo passo lógico na evolução tecnológica das
empresas tem sido muitas vezes a virtualização dos desktops.
24

Por este motivo um dos produtos entregue pelo projeto foi um estudo e a sugestão
de um piloto para a virtualização dos desktops. Este trabalho apontou como
diferença principal com relação a virtualização de servidores uma dificuldade muito
grande em quantificar e justificar as vantagens envolvidas com base em cálculos
puramente tradicionais de retorno de investimento (ROI). Este foi o primeiro grande
desafio deste trabalho.

A equipe decidiu então se voltar para o caminho de ganho de performance, uma vez
que sites remotos da companhia apresentavam muitos problemas de elevado tempo
de resposta em aplicações corporativas sediadas na matriz.

Havia um estudo da área técnica para utilização de VDI (Virtual Desktop


Infrastructure) em casos de dificuldades de performance.

Partindo deste estudo, a equipe fez um levantamento dos sites que apresentavam
os tempos de resposta mais elevados para acesso às aplicações e recuperação de
dados. O próximo passo foi fazer um estudo comparativo dos tempos de resposta
considerando várias ocorrências de mesmo dia e horário para:

 Acessos na Matriz
 Acesso na localidade em questão
 Acesso na localidade em questão utilizando VDI.

Apesar de os acessos via VDI apresentarem ganhos relevantes na maioria das


localidades, os resultados não foram suficientes para justificar a adoção da
tecnologia em toda a empresa.

Decidiu-se pela execução de pilotos nas localidades mais críticas e um estudo de


efetividade x custo x benefício de possibilidade de upgrade dos links de
comunicação com estas localidades.

O caminho provavelmente será a adoção da tecnologia VDI apenas nestas


localidades mais críticas onde o upgrade de link de comunicação não se mostre
eficiente.
25

O obstáculo principal à tomada de decisão pela adoção da tecnologia foi o


investimento inicial, pois, segundo estimativas do Gartner Group, é necessário
dispender entre 1,3 a 1,5 vezes mais do que o custo de uma implementação de
tecnologia tradicional.

Conceitos:

Atualmente a arquitetura mais difundida para a virtualização de desktops é a Virtual


Desktop Infrastructure, também conhecida como VDI. Representada principalmente
pela solução VMware View, no qual se vê o sistema Operacional Windows XP ou
Windows 7 sendo executados em máquinas virtuais de forma apartada do servidor
físico de suporte, em várias instâncias. Essa separação é possível pela presença de
um software de controle chamado hypervisor da VMware, vSphere. Esse controlador
possibilita o acesso exclusivo de cada PC virtual aos recursos de hardware servindo
ao mesmo tempo de controlador de tráfego para todas as requisições ao hardware.

Figura 05 – Tecnologia VDI (Virtual Desktop Infrastructure)

Fonte: wmware - Home > Products > Desktop Virtualization Products > VMware Virtual Desktop


Infrastructure disponível em http://web.ccsu.edu/neasc/selfstudy/virtual%20desktop%20infrastructure
%20-%20vmware.htm
26

É possível expandir a virtualização de desktops com a remoção dos desktops físicos


passando a centralizá-los no Data Center. Desta forma o usuário final tem acesso a
um terminal que compartilha a capacidade de processamento. Uma tecnologia que
permite esta implementação é a Remote Desktop Services da Microsoft. Esta
solução prevê que aplicações podem ser instanciadas em sessões de terminal
gerenciadas para múltiplos usuários pelo Windows Server.

A Citrix adota uma variação dessa tecnologia que apresenta um ambiente de


desktop com sistema Windows simulado usando o RDS/Windows Server. Nos dois
casos a conexão é feita da mesma forma, ou seja, um equipamento físico troca
informações com os recursos de hardware e o desktop Windows simulado roda em
uma sessão de terminal, ou numa VM Windows que se aloja em um espaço de
“back end”.

Uma outra variação da solução consiste em cada usuário ter sua própria instalação
em um VM Windows. Esta instalação pode ser adaptada e personalizada. Este
modelo é conhecido como “desktop persistente”.

Em contraposição existe o modelo conhecido como VDI "não persistente". Este


modelo se mostra mais eficiente uma vez que uma imagem comum de disco permite
o funcionamento de muitos desktops virtuais.

Em grande parte das vezes as áreas de TI da empresas entendem que as diferentes


soluções são opções que concorrem entre si. Porém, estas soluções funcionam na
verdade de maneira complementar. Cada solução poderá ser adotada em um
cenário específico por se adequar mais à situação identificada e também podem
ocorrer situações nas quais a adoção de uma solução composta por duas ou mais
tecnologias se apresente como o melhor caminho. Por exemplo, uma empresa pode
implementar uma solução com VDI não persistente para um determinado grupo de
usuários e implementar o modelo de persistência para outro grupo. Tudo vai
depender das necessidades específicas, cultura organizacional predominante em
cada área no que diz respeito à adoção de novas tecnologias.

Neste modelo o usuário verá uma unificação do ambiente de trabalho, enquanto os


implementadores conseguirão manter os sistemas mais estáveis, reduzindo o nível
de conflitos entre aplicações.
27

Como vantagens da virtualização de desktops podem ser mencionados o aumento


do nível de segurança, grau mais elevado de eficiência das operações e uma
recuperação mais rápida após períodos de interrupção não programada.

O futuro - virtualização dos novos dispositivos

Com a expansão da utilização de novos dispositivos como smartphones e tablets,


tem ocorrido um aumento das solicitações de tornar estes dispositivos pessoais
também de uso empresarial.

Já existe um caso de sucesso neste caminho envolvendo o St. Luke’s Health


System e o prestador de serviços de saúde Summit, do Missouri. O projeto em
andamento pretende disponibilizar para os médicos ambientes de trabalho
virtualizados nos dispositivos pessoais utilizando Windows 7. Assim, eles poderão
ter acesso a informações dos pacientes mesmo quando estão em movimento.

A virtualização também vai reduzir a necessidade de transportar seus dispositivos


entre a residência e o escritório já que podem ser mantidos um computador pessoal
ou mesmo um “thin client” em cada um desses locais compartilhando os mesmo
recursos, enfim, as mesmas informações armazenadas.

Outro bom exemplo é a empresa Rent-A-Center que implementou um projeto de


virtualização de desktops. A idéia principal foi eliminar a necessidade de distribuir
dispositivos móveis aos seus mais de 400 gerentes de loja que viajam
constantemente visitando suas filiais. Partindo dessa premissa, a solução prevê que
os gestores tenham um desktop virtual acessível a partir de um computador pessoal
fisicamente localizado em casa ou a partir de um “thin client” localizado em qualquer
uma das lojas da rede. A tecnologia adotada neste projeto é conhecida como
XenDesktop e a intenção é que se torne uma maneira extremamente segura de
acesso para os colabores, sejam eles funcionários ou não.

Fonte: Qual a melhor estratégia para virtualização de desktops?


Redação Computerworld/EUA Publicada em 02 de junho de 2011 às 08h49 disponível em:
http://cio.uol.com.br/tecnologia/2011/06/02/qual-a-melhor-estrategia-para-virtualizacao-de-desktops/
28

CONCLUSÃO

Como demonstramos ao longo deste trabalho, através de um projeto prático


implementado em uma grande empresa e também com as estatísticas de mercado,
é inegável que a tecnologia de virtualização representa um importante avanço
tecnológico em vários aspectos para as organizações, tanto técnicos como, e
principalmente, financeiros.

Como vimos aqui também, existem diferenças significativas com relação aos
indicadores relacionados a virtualização de servidores e os relacionados a
virtualização de desktops.

Desde o primeiro passo, a virtualização de desktops é mais difícil de justificar e a


análise de custo x benefício na maioria dos casos caminha na direção da não
adoção da tecnologia, pelo menos não em sua totalidade.

Em contraposição, a virtualização de servidores mostra indicadores bastante fáceis


de serem traduzidos em variáveis financeiras positivas e, portanto, de rápido
entendimento e aceitação pela liderança tomadora de decisão. Assim sendo, a
virtualização de servidores tem sido adotada nos últimos anos em larga escala. Esta
adoção foi amplamente favorecida com o surgimento da tecnologia de Cloud
Computing que revolucionou as áreas de Data Center das empresas com a literal
retirada dos equipamentos da empresa.

Ao longo da história a Tecnologia da Informação tem proporcionado instrumentos


para otimização de processos e redução de custos para todos os departamentos das
empresas

Como também demonstramos, os impactos com relação aos recursos humanos são
inevitáveis assim como tem sido ao longo da história também com as inovações
tecnológicas trazidas pelo rápido avanço da computação.

Desta forma, o principal desafio dos gestores foi e será a busca de um estado mais
próximo possível do equilíbrio entre os grandes benefícios trazidos pelas novas
tecnologias e o seu custo tanto do ponto de vista de recursos materiais como
humanos.
29

REFERÊNCIAS BIBLIOGRÁFICAS

VERAS, M. Virtualização – Componente central do Datacenter. Rio de Janeiro:


Ed. Brasport, 2011.

PIAZZALUNGA, R. A Virtualização da Arquitetura. São Paulo: Ed. Papirus, 2005.

Virtualização um pouco de história - Henrique Bueno 29/04/2009 disponível em:


http://hbueno.wordpress.com/2009/04/29/virtualizacao-um-pouco-de-historia/

http://www.develsistemas.com.br/component/content/article/111.html

Convergência Digital - Hotsite Cloud Computing - Fernanda Ângelo 15/03/2012


disponível em http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?
infoid=29556&sid=97#.Ulbjd9KsiSo

http://www.gruppen.com.br/virtualizacao/virtualizacao_servidores.html

Qual a melhor estratégia para virtualização de desktops?


Redação Computerworld/EUA Publicada em 02 de junho de 2011 às 08h49
disponível em: http://cio.uol.com.br/tecnologia/2011/06/02/qual-a-melhor-estrategia-
para-virtualizacao-de-desktops/
30

GLOSSÁRIO

CP/CMS – Control Program/Cambridge Monitor System – Sistema operacional de


time sharing do final dos anos 60 e início dos anos 70.
ERP - Enterprise Resource Planning – sistemas integrados de gestão empresarial.
Hypervisor – software de controle utilização na tecnologia de virtualização.
Hub - equipamento bem antigo que basicamente conecta os computadores de uma
rede e possibilita a transmissão das informações entre eles. Porém, é exatamente
nesta transmissão que está o seu ponto fraco: ao pegar a informação de um
computador para enviar, ele passa as informações por todos os computadores até
encontrar o destinatário final. 
IBM z/VM – versão de Sistema Operacional para máquinas virtuais.
Roteador - dispositivo que encaminha pacotes de dados entre redes de
computadores.
Switch - Criado principalmente para resolver os problemas que o hub apresentava.
Diferente do hub, o switch recebe a informação a ser transmitida e a repassa apenas
para o destinatário, evitando expô-la a outros computadores.
TCO - Total cost of ownership é uma avaliação financeira dos custos diretos e
indiretos relacionados à compra e manutenção de software e hardware.
Time Sharing - compartilhamento de tempo, ou seja, o tempo ocioso entre os
processos é compartilhado com outros processos para dinamizar o sistema.
VDI - Virtual Desktop Infrastructure.
VM/CMS - Virtual Machine/Conversational Monitor System.
VMware - software/máquina virtual que permite a instalação e utilização de
um sistema operacional dentro de outro dando suporte real a software de outros
sistemas operativos.
x86 - nome genérico dado à família (arquitetura) de processadores baseados no
Intel 8086, da Intel Corporation.

Você também pode gostar