Você está na página 1de 22

1

VIRTUALIZAÇÃO

RESUMO

O presente trabalho buscou abordar a virtualização, sistemas de informação e


tendências. Foca no uso da ferramenta de virtualização para aplicação de serviços como uma
das estratégias de salvaguarda das informações (segurança da informação) e gerenciamento de
redes. Demonstraremos ainda o uso da ferramenta de virtualização. Teve por métodos revisão
bibliográfica do tema por autores e publicações, com procedimentos descritivos e abordagem
qualitativa e indutiva.

PALAVRAS CHAVE: Serviços. Virtualização. Benefícios.

ABSTRACT

The present work sought to address virtualization, information systems and trends. It focuses
on the use of a virtualization tool for application of services as one of the strategies for
safeguarding information (information security) and network management. We will also
demonstrate the use of the virtualization tool. The authors had a bibliographic review of the
theme by authors and publications, with descriptive procedures and a qualitative and inductive
approach.

KEY-WORDS: Services. Virtualization. Benefits.

1 INTRODUÇÃO

Com o advento da globalização, a necessidade de controlar e auditar os recursos


financeiros das áreas de Tecnologia da Informação e da Comunicação se tornou algo vital
para as empresas, uma vez que a informação interfere diretamente no desenvolvimento da
estratégia e na tomada de decisões, passando a ser um dos ativos mais valiosos dentro da
organização.
A informação é um ativo muito valioso para as organizações e dependendo da situação
pode estar comprometida no que diz respeito à ausência de controles e processos de segurança
adequados. Assim, toda a empresa deve utilizar sistemas de informação integrados e os
mesmos devem ser confiáveis para evitar a exposição da empresa a riscos prejudiciais ao
negócio, além de emitir relatórios sobre a situação atual da organização aos stakeholders.
2

Com o crescimento de servidores físicos em datacenter passou a fazer cada vez mais
sentido agrupar vários servidores em um único host. Em consequência desses fatores, grandes
empresas vêm buscando soluções de virtualização.
Com a plataforma de virtualização é possível hospedar vários sistemas operacionais e
ter um fácil gerenciamento sobre elas, garantindo sistemas instáveis, escaláveis e diminuindo
o custo dos equipamentos.
Atualmente no mercado existem dois modelos de soluções para virtualização, tais
como máquinas virtuais e containers. Estas duas soluções possuem grande destaque no
mercado e cada dia mais vem sendo utilizadas por grandes empresas.
O objetivo das máquinas virtuais é compartilhar os hardwares físicos entre vários
ambientes isolados, sendo que cada um deles tem uma máquina inteira, com memória, disco,
processador, rede e outros periféricos, todos entregues via função da virtualização e utilizando
o componente físico do host. (destacam-se Vmware, Hyper-V, VirtualBox e XenServer).
Já na plataforma de virtualização de contêiner o nível é de sistema operacional, ou
seja, ele é apenas um processo em execução em um kernel compartilhado entre todos os
outros containers. Normalmente o modelo de conteneirs é opensource, isso significa que a
plataforma é 100% gratuito. (destaca-se o docker).
Nos dias de hoje é cada vez mais comum a utilização de virtualização de servidores
em ambientes corporativos para diminuir custos, reduzir espaço no datacenter e melhorar o
gerenciamento dos servidores. Porém com a utilização dessa tecnologia pode-se consumir
todo o processamento dos hardwares físicos da máquina hospedeira. Diante dessas
informações, esta pesquisa consiste em descrever as formas de virtualização entre máquinas
virtuais e contaneirs. Isso ajudará os administradores de rede a decidirem qual melhor solução
a ser implantada em seu ambiente de virtualização.
O trabalho em questão visa mostrar a evolução, a importância da definição de
implantação de serviços utilizando ferramentas de virtualização e suas políticas de segurança.
Este trabalho foca o uso de ferramenta de virtualização para aplicação de serviços
como uma das estratégias de salvaguarda das informações (segurança da informação) e
gerenciamento de redes.
Demonstraremos ainda o uso da ferramenta de virtualização
Os objetivos específicos:
 Conceituar virtualização.
 Demonstrar a importância das ferramentas de virtualização;
3

 Identificar as características que possibilitam a utilização do software de


virtualização em ambientes corporativos;

A preocupação com a segurança da informação nas organizações reflete nos objetivos


de negócio a serem atingidos. A virtualização assim tem que ser aprimorada pois entre outros
benefícios, economizar com equipamentos e obter resultados de determinadas tarefas
computacionais em menor tempo
A pesquisa foi desenvolvida através de metodologia científica, por isso, seu objetivo
principal é descobrir quais as soluções e práticas diante das premissas apresentadas através
dos métodos científicos. Por isso, o presente trabalho utilizará a pesquisa descritiva.

2 VIRTUALIZAÇÃO

Vale ressaltar que a virtualização de sistemas operacionais usa de técnicas


aperfeiçoadas desde quando a empresa IBM começou a desenvolver a primeira máquina
virtual. Assim, a estratégia da virtualização é deixar o máximo possível do software do
hóspede rodar usando a CPU do anfitrião. Apenas quando o hóspede tenta fazer alguma coisa
"perigosa", como acessar um disco ou a rede, é que o anfitrião precisa assumir o controle.
Emulação, ou simulação, é a recriação de um ambiente de trabalho sem qualquer
relação necessária com o ambiente-anfitrião, e sem auxílio de hardware. Cada instrução de
processador do ambiente-hóspede é individualmente simulada pelo emulador.
A princípio, a simulação é mais complexa que a virtualização; mas na prática é mais
fácil desenvolver um simulador, e de fato existem muito mais softwares de simulação que de
virtualização. Quase todo computador e videogame antigo (ATARI, Sinclair, MSX etc. etc.)
possui um simulador para PC ou Mac. Aliás, curiosamente, os softwares para computadores
de 8 bits costumavam ser desenvolvidos em simuladores que rodavam em mainframes.
Entre simulação e virtualização, existem muitos desafios compartilhados pelas duas
técnicas. Por exemplo, tanto um virtualizador quanto um simulador têm de simular alguns
dispositivos do computador, proporcionando ao hóspede a ilusão de que ele está rodando num
computador de verdade, mas ao mesmo tempo sem deixá-lo fazer besteira.
A princípio, deve parecer óbvio que um hóspede virtualizado terá desempenho muito
melhor que um hóspede simulado, pois a virtualização usa a CPU diretamente na maior parte
do tempo. Porém a diferença é menor do que poderia-se supor. A simulação dos dispositivos
"rouba" muito do desempenho máximo teórico de uma máquina virtualizada. Por outro lado,
4

algumas técnicas de compilação just-in-time emprestam desempenho surpreendente a alguns


simuladores.
Um ponto importante a ser considerado com a virtualização é a possibilidade de
migração de um sistema operacional e suas aplicações para um novo hardware para balancear
a sobrecarga do mesmo sem prejuízo na disponibilidade do serviço. Pode-se consolidar as
cargas de trabalho de servidores pouco utilizados em um número menor de computadores com
maior utilização. Um dos principais benefícios da consolidação de servidores é a redução do
custo total de propriedade (TCO), não apenas por diminuir os requisitos de hardware, mas
também por reduzir os custos com energia, refrigeração e gerenciamento (MICROSOFT,
2010).
Uma técnica amplamente utilizada para melhorar o desempenho das máquinas virtuais
é a paravirtualização. Poderíamos chamá-la também de semivirtualização, ou virtualização
pragmática, ou virtualização do homem pobre. Consiste na instalação de drivers de
dispositivos especiais no hóspede, que comunicam-se diretamente com o anfitrião. Isto alivia
o anfitrião da tarefa de simular tais dispositivos.
A virtualização oferece uma camada de abstração dos verdadeiros recursos de uma
máquina, provendo um hardware virtual para cada sistema. Cada máquina virtual criada neste
processo é um ambiente operacional completo, seguro e totalmente isolado como se fosse um
computador independente, que executa seu próprio sistema operacional e aplicativos como se
fosse um computador físico (LAUREANO, 2006)

2.1 COMPREENDENDO O CONCEITO DE VIRTUALIZAÇÃO

Podemos compreender o conceito de máquinas virtuais (Virtual Machines – VMs) por


ser este, um único servidor real, se dividir em máquinas virtuais, situação em que cada
máquina irá possuir a sua “própria” memória, hardware virtual, drives, imagens de drives,
USB, processador(es) e outros recursos. Neste sentido, a IBM já utiliza este tipo de sistema
em seus mainframes há quase 50 anos. A diferença é que a potência de cada máquina é capaz
de se elevar para a plataforma do PC (LAUREANO, 2006).

Gráfico 1: Custo com virtualização.


5

Fonte: HUMPHREYS (2006).

Ainda segundo informações de Humphreys (2006), assim como podemos observar no


gráfico anterior, às plataformas de hardware para virtualização passaram por relevante e veloz
crescimento, passando de 330.000 unidades no ano de 2005 para 1.400.000 unidades no ano
de 2010, apresentando cerca de $18 bilhões em despesas com hardware, software, e os
serviços na sustentação de virtualização dos ambientes.
Os estudos de Gatnet (apud COEN, 2007), a virtualização passou a ser uma prioridade
para gestores de TI após o ano de 2007, podendo evidenciar que virtualização se transformou
também na mais relevante estratégia no ano de 2011.
Após o ano de 2007, o orçamento de TI crescer cerca de 8,3% no Brasil - O número
em todo o mundo para este mesmo ano foi de 3,1% e na América Latina o número
apresentado foi de 5,4%. Desta forma, a Virtualização se tornou o principal elemento de
investimento, segundo os estudos de Gartner no País (apud COEN, 2007).
Neste sentido, uma máquina virtual se apresenta como um ambiente elaborado através
de um monitor de máquina virtual (Virtual Machine Monitor – VMM), conhecido também
como “sistema operacional para sistemas operacionais”, ou como hypervisor. O VMM é
capaz de fazer a criação de uma ou mais máquinas virtuais através de somente uma máquina
real.
6

Desta forma, cada máquina virtual realiza a simulação de uma réplica física da
máquina real e todos os seus usuários possuem a ilusão de que o sistema se apresenta
disponível para a sua exclusiva utilização (SUGERMAN; GANESCH; BENG-HONG, 2001).
Já pela concepção de Campos et. al. (2005), podemos compreender uma máquina
virtual (VM) como sendo uma máquina abstrata, contrariamente a uma máquina emulada,
possibilitando assim que a máquina real possa ser particionada de maneira que inúmeros
outros sistemas operacionais sejam executados simultaneamente.
O emulador pode ser entendido como um software que realiza a simulação de um
computador real. Este emulador "engana", tendo este a capacidade de fazer com que todas as
operações da máquina real possam ser implementadas em um software. Tornando possível
também executar um aplicativo de uma plataforma em outra, para exemplificar, um aplicativo
do Windows podendo ser executado no Linux. Por conta desta simulação praticamente total
das instruções de um computador, um emulador não possui grande eficácia ao fazer a
tradução de cada instrução realizada pela máquina real (LAUREANO, 2006).
Sendo assim, este software de máquina virtual consegue criar um ambiente por meio
de um monitor de máquina virtual, que se apresenta como um computador possuindo o seu
próprio sistema operacional dentro de outro sistema operacional (host) (LAUREANO, 2006).

Figura 1: Inflexibilidade nos Servidores.


7

Fonte: Adaptação de Laureano (2006).

Dados apresentados pela VMware, empresa que desenvolve os sistemas para


virtualização, diversas das mais relevantes organizações existentes, ainda fazem a execução
de somente um aplicativo por servidor e, inúmeros destes aplicativos usam somente de 5% a
15 % de toda a capacidade da CPU de seus servidores (VMware, 2007).
Neste contexto, todos estes servidores e equipamentos em geral produzem um custo
extremamente elevados para as organizações, especialmente no tocante da realização de
manutenção e da administração dos mesmos, as palavras de João Alves – presidente da
integradora Mainline –, evidenciam que “hoje, em algumas empresas brasileiras, o custo de
manutenção de máquinas já supera o valor para financiar um novo equipamento”
(LAUREANO, 2006 p. 38).

Figura 2: Consolidação de Servidores.


8

Fonte: Adaptação de Laureano (2006).

Podemos ainda observar que a consolidação de servidores se fundamenta,


especialmente, em fazer a centralização e/ou redução da quantidade de aplicações e
equipamentos e do parque computacional, da organização (LAUREANO, 2006).
Realizar a implementação da consolidação e da contenção dos servidores de produção
pode resultar na contenção da proliferação de servidores com a execução de aplicativos de
software em máquinas virtuais que foram implantadas através de uma menor quantidade de
servidores reais.

3 CONCEITO DE CONTEINERES

A tecnologia de contêineres possui o objetivo de fazer a promoção de uma unidade de


computação auto-suficiente, para que esta execute uma aplicação em um ambiente
computacional (PAHL, 2015). Um contêiner encapsula o aplicativo e as suas dependências,
tornando assim possível que ele possa ser executado de maneira independente das outras
aplicações em um mesmo computador (MOUAT, 2015). Os estudos de Merkel (2014)
evidenciam que os contêineres podem ser executados através do sistema operacional (SO)
hospedeiro, possuindo espaços próprios e isolados, que são providos por meio do núcleo
(kernel).
As pesquisas realizadas por Pahl (2015) determinam que os contêineres se
fundamentam em camadas constituídas de imagens individuais criadas sobre uma imagem de
9

base que é capaz de ser estendida. As imagens completas constituem contêineres de


aplicativos portáteis.
Sendo assim, o ecossistema de contêineres se fundamenta em um mecanismo para
realizar a construção e execução de imagens, assim como um repositório ou registro
realizando a transferência destas imagens de/e para os ambientes de execução que estão
instalados em um computador hospedeiro. Estes repositórios acabam realizando uma função
central para que se forneça o acesso a, eventualmente, diversos milhares de imagens podem
ser reutilizada públicas e privadas de contêineres, para exemplificar, para componentes de
plataforma, assim como o MongoDB1 ou Node.js2. A API (Application Programming
Interface) de contêineres possibilita a realização de operações para criação, definição,
composição e distribuição de imagens e também o controle do ciclo de vida dos contêineres
que são executados através de imagens e por meio de operações de inicialização, parada,
parametrização e destruição.
Neste sentido, a granularidade dos contêineres, em outras palavras, a quantidade de
aplicações que existem no seu interior, sofre variações. A abordagem de um contêiner através
de aplicativo é apresentada como uma boa prática, isso porque possibilita constituir de
maneira fácil as novas pilhas de serviço, para exemplificar, uma aplicação web Java com um
proxy HTTP Apache, um servidor de aplicações JBoss e um banco de dados MySQL - ou
também fazer a reutilização de componentes comuns (tal como as ferramentas de
monitoramento ou um serviço de armazenamento chave-valor como o Redis). Os aplicativos
possivelmente são construídos, reconstruídos e gerenciados de maneira simples. A
armazenagem e o gerenciamento de rede se apresentam como os dois problemas específicos
que a tecnologia de contêineres, como uma ferramenta para encapsular os aplicativos para
contextos interoperáveis e distribuídos, tornando mais fácil (MOUAT, 2015).

Figura 3: Representação de Contêineres Formados através de Imagens de Softwares Pré-


Construídas.

1
INTRODUCTION TO MONGODB. Disponível em: https://docs.mongodb.com/manual/introduction/ . Acesso
em: 2021.
2
NODE .js - sítio oficial. Disponível em: https://nodejs.org/en/ . Acesso em: 2021.
10

Fonte: Adaptação de WHAT IS DOCKER? (2015).

3.1 MÁQUINA VIRTUAL BASEADA EM HIPERVISOR X CONTÊINER

A grande utilização do Docker, apresentando acima, entre os seus desenvolvedores,


um relevante crescimento nos últimos anos, procurando este para fazer com que a sua
aplicação seja ubíqua e portátil. Entretanto, cabe ainda salientar as diferentes tecnologias que
podem endereçar o mesmo problema: hipervisor ou monitor de máquina virtual, VMM
(KARLE, 2009).
Antes de chegarmos a uma definição de hipervisor, são dois os princípios que
merecem ser explicados, que são estes: sistema operacional hospedeiro se apresenta como o
sistema que possui os recursos de hardware e o sistema operacional cliente, que se apresenta
como o sistema que necessita de recursos de hardware do sistema operacional hospedeiro.
O hipervisor pode ser compreendido por uma camada de software que existe entre o
hardware e o sistema operacional que se responsabiliza em proporcionar uma abstração ao
sistema operacional cliente.
Toda esta tecnologia antiga, efetua especialmente a emulação do hardware, fazendo o
controle do acesso de sistemas operacionais clientes aos recursos de hardware, tornando assim
possível rodar qualquer tipo de sistema operacional sobre qualquer outro (para exemplificar,
rodar Linux sobre Windows).
Através desta abordagem, tanto o sistema operacional cliente quanto o hospedeiro
conseguem rodar as suas próprias kernels e a sua comunicação pode ser realizadas a partir de
uma camada hipervisora abstrata.
11

Sendo assim, no caso dos sistemas operacionais mais modernos, habitualmente,


desmembram a sua memória virtual em dois diferentes espaços: o espaço kernel e o espaço do
usuário, esta divisão assegura a proteção da memória, prevenindo assim as falhas (exemplo, a
falha de segmentação), levando em consideração que o espaço kernel é severamente reservado
com o objetivo de rodar o kernel do sistema operacional e a maior parte dos drivers de
dispositivos, ao mesmo tempo em que o espaço do usuário se apresenta como a área de
memória onde podem rodar as aplicações de software. A virtualização que se fundamenta no
hipervisor, produz então um overhead na performance por conta da emulação do hardware.
Sintetizando, este overhead, uma diferente maneira de virtualização é realizada através do
software Docker: a virtualização no nível do sistema operacional ou container que possibilita
rodar múltiplas instâncias de espaço do usuário através de um só kernel (KARLE, 2009).

Figura 4: Virtualização baseada em hipervisor.

Fonte: Karle (2015).

Figura 5: Virtualização baseada em contêiner.


12

Fonte: Karle (2015).

Neste sentido, os contêineres são entendidos como os frutos da virtualização de


sistemas operacionais, entretanto, de maneira diferente de uma máquina virtual, estes
asseguram um ambiente leve, capaz de agrupar e isolar o conjunto de processos e recursos,
tais como a memória do sistema operacional hospedeiro de qualquer outro contêiner.
Desta forma, assegura-se que todo o tipo de processo dentro de um contêiner não
possua o acesso a qualquer processo que possa ser executado fora deste contêiner. A simples
diferença dos contêineres apresentados pelo Docker, é que estes conseguem compartilhar a
mesma kernel do sistema operacional hospedeiro, resultando assim em uma utilização mais
adequada dos recursos computacionais e maior agilidade no momento em que é comparado
com uma máquina virtual tradicional. Mesmo com os benefícios apresentados na
performance, as espécies de contêineres que podem rodar no sistema operacional hospedeiro é
limitado, isso ocorre diretamente por conta do compartilhamento da kernel, não sendo
possível, para exemplificar, rodar um contêiner com a imagem do Windows através de um
sistema operacional hospedeiro Linux (BOETTIGER, 2014).

4 TECNOLOGIAS DE VIRTUALIZAÇÃO
13

A virtualização pode ser compreendida como aquela que consegue atender as


necessidades diversas das organizações por maximizar os ativos existentes, fazendo mais com
o mesmo. O balanceamento de funcionalidades e de uso reduz a necessidade de compra e
elimina o custo da ociosidade de recursos.

4.1 TIPOS DE VIRTUALIZAÇÃO

Vemos hoje que as empresas tenham adotado plenamente a virtualização de


servidores, a promessa real de uma nuvem ágil, flexível e ampliável continua ilusória. Uma
das barreiras para adotar completamente a nuvem é a segurança de rede. Os dispositivos de
segurança de rede existentes dentro dos ambientes físico, virtualizado e em nuvem são cegos
para os aplicativos que viajam pela rede. E aplicativos desconhecidos ou não autorizados são
frequentemente usados como meios comuns para ameaças e ataques.
Graças à virtualização, as máquinas virtuais (VMs) podem se comunicar com outras
VMs no mesmo hypervisor (como vimos anteriormente) criando uma variedade de aplicativos
e serviços com diferentes classificações de risco e dados confidenciais - tudo no mesmo
servidor host. O problema com essa flexibilidade é o desafio de segmentar e aplicar segurança
sobre comunicações de tráfego 'leste-oeste' entre esses aplicativos Além disso, as VMs são
criadas ou movidas de hypervisor a hypervisor, rack a rack, data center a data center - é difícil
tentar aplicar políticas de segurança estáticas a máquinas virtuais individuais.
Temos também a Virtualização de Rede Hyper-V fornece “redes virtuais”
(denominadas rede VM) para máquinas virtuais de forma semelhante àquela como a
virtualização de servidor (hipervisor) fornece “máquinas virtuais” para o sistema operacional.
A virtualização de rede separa redes virtuais da infraestrutura de rede física e remove as
restrições da atribuição de endereços IP hierárquicos e de VLAN do provisionamento de
máquinas virtuais. Essa flexibilidade facilita a migração de clientes para nuvens IaaS e torna
mais eficiente o gerenciamento da infraestrutura pelos hosters e administradores do
datacenter, mantendo ainda o isolamento multilocatário, os requisitos de segurança e o
suporte à sobreposição de endereços IP de máquinas virtuais.
Os clientes desejam estender diretamente seus datacenters para a nuvem. Atualmente,
existem desafios técnicos para a criação dessas arquiteturas de nuvem híbridas integradas. Um
dos maiores obstáculos enfrentados pelos consumidores são as topologias de rede existentes
14

(sub-redes, endereços IP, os serviços de rede etc.) na nuvem e ponte entre os recursos nas
instalações físicas e os recursos de nuvem. A Virtualização de Rede Hyper-V oferece o
conceito de uma Rede VM independente da rede física subjacente. Com esse conceito de
Rede VM, composta de uma ou mais Sub-redes Virtuais, a localização física exata da rede
física das máquinas virtuais ligadas a uma rede virtual é separada da topologia da rede virtual.
Como resultado, os clientes podem mover facilmente suas sub-redes virtuais para a nuvem
preservando seus endereços IP e sua topologia existente na nuvem, de forma que os serviços
existentes continuam funcionando independentemente da localização física das sub-redes. Ou
seja, a Virtualização de Rede Hyper-V permite uma nuvem híbrida integrada.

4.1.1 Virtualização completa

É compreendida como aquela que emprega uma máquina virtual que faz a
comunicação entre o hardware e o sistema virtualizado. O papel da máquina virtual é
compartilhar o hardware de forma harmônica entre o sistema operacional hóspede e o
hospedeiro.
O hardware hospedeiro é completamente abstraído e todas as características de um
equipamento virtual são emulados, ou seja, todas as instruções solicitadas pelo sistema
convidado são interpretadas no Monitor de Máquina Virtual. O sistema hospedado ignora a
existência da máquina virtual e opera como se funcionasse diretamente sobre o sistema
operacional para o qual foi projetado para funcionar. (DUARTE, 2008)
Esta técnica apresenta uma melhor performance comparada a emulação de hardware,
mas ainda menor se comparada ao uso nativo do hardware. A principal vantagem é a
possibilidade de virtualização de sistemas operacionais não modificados, como na emulação,
contudo neste caso o sistema virtualizado deve suportar o hardware da máquina onde a
virtualização completa for empregada

Figura 6: Virtualização total e paravirtualização


15

Fonte: disponível em: https://www.portalgsti.com.br/2016/11/virtualizacao-completa-e-paravirtualizacao.html

Emprega o uso de uma máquina virtual, chamada de hipervisor, que compartilha o


acesso ao hardware físico da máquina hospedeira. A principal diferença em relação a
virtualização completa é a necessidade de alteração dos sistemas hóspede e hospedeiro.
A máquina virtual não é idêntica ao equipamento físico original, para que o sistema
hospedado possa enviar as instruções mais simples diretamente para o hardware, restando
apenas as instruções de nível mais alto para serem interpretadas pelo Monitor da Máquina
Virtual (MMV). Entretanto, esse procedimento requer que o sistema operacional convidado
seja modificado para interagir com o MMV e selecionar quais instruções devem ser
interpretadas nele ou diretamente no hardware hospedeiro. (DUARTE, 2008).
A alteração é necessária, pois os sistemas hóspede e hospedeiro cooperam entre si
durante o processo de virtualização através do hipervisor. Embora a paravirtualização
apresente um ganho de desempenho significativo frente à virtualização completa, esta
vantagem tem sido superada devido à presença de instruções de virtualização nos
processadores Intel e AMD, que favorecem a virtualização completa. Na figura a seguir é
demonstrado como o sistema operacional virtual/GuestOS é modificado para não tentar
executar diretamente na CPU as tarefas protegidas, mas entregar essas ao VMM/Hypervisor.

Figura 6: Paravirtualização - Virtualização baseada em contêineres


16

Fonte: disponível em: http://blog.ti.lemaf.ufla.br/2016/05/09/docker-um-novo-conceito-de-virtualizacao-parte-1/

Também chamada de virtualização a nível de sistema operacional, utiliza uma camada


para as chamadas do sistema (systemcalls) o que permite o isolamento entre o sistema
hospedeiro e a máquina virtual. O principal benefício da virtualização baseada em contêiners
é uma performance nativa do sistema e a desvantagem é o uso de somente um tipo de sistema
operacional (JONES, 2006).

Plataformas de virtualização

Existem no mercado diversas plataformas de virtualização com seus respectivos softwares de


gerenciamento. Cada produto se destaca por apresentar algum recurso diferenciado dos
demais concorrentes. A seguir serão apresentadas algumas características de três tipos de
plataformas: VMware por ser a primeira e a mais utilizada, Microsoft Hyper-V por tratar-se
de uma tecnologia de última geração e ter a estrutura da Microsoft para apoio ao produto e o
Virtual Iron Xen por ser uma open source gratuita.

VMware

A plataforma de virtualização da VMware foi criada com base em uma arquitetura pronta para
os negócios. Sua tecnologia baseia-se na criação de uma máquina virtual que é um software
17

totalmente isolado que pode executar seus próprios sistemas operacionais e aplicativos como
se fosse um computador físico. A máquina virtual se comporta exatamente como um
computador físico e contém sua própria CPU, RAM, disco rígido e placa de interface de rede
(tudo baseado em software). O sistema operacional, os aplicativos e outros computadores não
conseguem perceber a diferença entre uma máquina virtual e uma máquina física. A
virtualização da VMware funciona com a inserção de uma fina camada de software
diretamente no hardware do computador ou no sistema operacional host.
Ela contém um monitor de máquinas virtuais ou "hypervisor" que aloca os recursos de
hardware de modo dinâmico e transparente. Vários sistemas virtuais poderão ser executados
ao mesmo tempo em um único computador físico e poderão compartilhar os recursos de
hardware. Encapsulando uma máquina inteira, incluindo CPU, memória, sistema operacional
e dispositivos de rede, uma máquina virtual se torna totalmente compatível com todos os
sistemas operacionais, aplicativos e drivers de dispositivos x86 padrão. Pode-se executar com
segurança muitos sistemas operacionais e aplicativos ao mesmo tempo, em um único
computador, e cada um terá acesso aos recursos quando precisar (VMWARE, 2010).

Microsoft Hyper-V

Segundo a Microsoft, o Hyper-V é um recurso chave do Windows Server 2008 e constitui-se


de uma tecnologia de última geração de virtualização de servidor baseada em hipervisor.
Permite a melhor aplicação de seus investimentos em hardware de servidor, por meio da
consolidação de múltiplas funções de servidor como máquinas virtuais (VMs) separadas,
executadas em uma única máquina física. Com o Hyper-V, também é possível executar, de
forma eficiente, vários sistemas operacionais diferentes (Windows, Linux, entre outros) em
paralelo, em um único servidor, e aproveitar ao máximo o poder da computação x64. Integra-
se com facilidade aos ambientes de TI, aproveitando suas ferramentas de suporte, correções,
provisionamento, gerenciamento, processos e especialização. Entre os recursos disponíveis no
Microsoft Hyper-V destacam-se a Live Migration, suporte a volumes de cluster
compartilhados e o suporte estendido a processadores e memória para sistemas host
(MICROSOFT, 2010).

Virtual Iron Xen

É um hipervisor open source gratuito para o x86. Disponível desde 2003 sob a GNU General
18

Public License (Licença Pública Geral), o Xen roda em um sistema operacional host, sendo
considerado uma tecnologia de paravirtualização. Iniciou como um projeto de pesquisa na
Universidade de Cambridge, conduzido por Ian Pratt, que posteriormente saiu da universidade
para fundar a XenSource, primeira empresa a implementar uma versão comercial do
hipervisor Xen. O Xen apresenta uma solução para virtualização um pouco diferente das
apresentadas até agora. Ele consiste em criar um hypervisor, responsável por controlar os
recursos das máquinas virtuais, mas que não possui drivers de dispositivos. Por isso, não é
possível rodar um sistema operacional diretamente no hypervisor, é necessário que um
sistema seja invocado para fazer a comunicação entre o hypervisor e os sistemas hóspedes.
Esse sistema inicial chama-se domínio 0. Ele consiste em uma máquina virtual que executa
um núcleo Linux modificado e possui privilégios para acessar dispositivos de entrada e saída
e as outras máquinas virtuais. As outras máquinas virtuais, onde podem rodar outros sistemas
operacionais, são chamadas domínio U. Elas são criadas, inicializadas e desligadas através do
domínio 0. Possuem um driver virtual para acesso aos recursos de hardware. O domínio 0
possui os drivers dos dispositivos da máquina física além de dois drivers especiais que tratam
as requisições de acesso à rede e ao disco enviadas pelas máquinas virtuais. Assim, toda
requisição de uso da máquina real feita por uma máquina do domínio U deve ser tratada pelo
domínio 0 antes de ser enviada ao hypervisor (DUARTE, 2008)

CONSIDERAÇÕES FINAIS

Atualmente todo negócio bem-sucedido depende da tecnologia da informação e da


comunicação. Com isso, a informação passa a ser um dos ativos mais valiosos dentro da
organização. Desta forma, podemos perceber que assim como qualquer outro ativo, a
segurança da informação passa a ser uma atividade vital para garantir a proteção desse bem.
Os principais benefícios da virtualização desta forma podem ser listados em:

 Solução de problemas críticos de T.I.


 Gerenciamento de CPU e Memória
 Gerenciamento de Armazenamento
 Recuperação de Desastres
 Tolerância a falhas de Hardware e Software
 Otimização do uso do Hardware
 CPU, memória, armazenamento e E/S
19

 Isolamento dos Usuários


 Trabalho X Lazer
 Chave para a otimização de energia e refrigeração

REFERÊNCIAS

BOETTIGER, C.. An introduction to docker for reproducible research, with examples from
the r enviroment. 1(2):3–4, 10 2014.

CAMPOS, G. H. B.; COUTINHO, L.; ROQUE, G. O. B. Design Didático. O desafio de um


Metacurso. PUC-RJ, 2005.

COEN, Luciana. Virtualização é prioridade para gestores de TI em 2007. Por


COMPUTERWORLD, 21 de agosto de 2007. Disponível em:
http://computerworld.uol.com.br/mercado/2007/08/21/idgnoticia.2007-08-21.6085792244/ .
Acesso em: março de 2021.
DUARTE, Otto. Ferramentas de virtualização Xen. 2008.

HUMPHREYS, John. System Virtualization: Sun Microsystems Enables Choice, Flexibility,


and Management. Por IDC. Out.2006.

INTRODUCTION TO MONGODB. Disponível em:


https://docs.mongodb.com/manual/introduction/ . Acesso em: março de 2021.

JONES, M. T. Virtual Linux - An overview of virtualization methods, architectures, and


implementations. IBM – developerworks. 2006.

KARLE, A.. Operating system containers vs. application containers. Disponível em:
https://blog.risingstack.com/ operating-system-containers-vs-application-containers/ . Acesso
em: março de 2021.

KARLE, A.. Hypervisor based virtualization, 2015. Disponível em: https://risingstack-


blog.s3-eu-west-1.amazonaws.com/2015/05/hypervisor-based-virtualization.jpg . Acesso em:
março de 2021.

LAUREANO, Marcos. Máquinas virtuais e emuladores: Conceitos, técnicas e aplicações. São


Paulo: Ed. Novatec, 2006.

MERKEL, D. Docker: Lightweight linux containers for consistent development and


deployment. Linux J., 2014.

MOUAT, A. Using Docker: Developing and Deploying Software with Containers. "O’Reilly
Media, Inc.", 2015.

NODE .js - sítio oficial. Disponível em: https://nodejs.org/en/ . Acesso em: março de 2021.

PAHL, C. Containerisation and the paas cloud. IEEE Cloud Computing, 2(3):24–31, 2015.
20

SUGERMAN, J.; GANESH, V.; BENG-HONG L. Virtualizing I/O Devices on Vmware


Workstation’s Hosted Virtual Machine Monitor. USENIX Annual Technical Conference.
Proceedings of the 2001.

VERAS, Manoel. Virtualização Componente Central do Datacenter. 1 ed. Rio de Janeiro:


Brasport, 2011.

WMware Inc, Visão geral da empresa, 2007. Disponível em:


www.vmware.com/br/pdf/cov_brochure_br.pdf . Acesso em: março de 2021.

WHAT IS DOCKER? 2015. Disponível em: https://www.docker.com/what-docker . Acesso


em: março de 2021.

Página de virtualização Microsoft –


http://www.microsoft.com/brasil/servidores/virtualizacao/default.mspx

Blog dos times da Microsoft:

The App-V Team blog: http://blogs.technet.com/appv/

The SCVMM Team blog: http://blogs.technet.com/scvmm/

The MED-V Team blog: http://blogs.technet.com/medv/

The Server App-V Team blog: http: http://blogs.technet.com/b/serverappv

Livros de Virtualização Microsoft –

1. Understanding Microsoft Virtualization Solutions, Second Edition

2. Introducing Windows Server 2008 R2

3. Virtualization for Dummies – HP special edition

4. The Definitive Guide to Virtual Platform Management

5. The Essentials Series: Virtualization and Disaster Recovery

6. The Shortcut Guide to Virtualization and Service Automation

7. The Shortcut Guide to Selecting the Right Virtualization Solution

8. Windows Server 2008 Hyper-V: Insider’s Guide to Microsoft’s Hypervisor


21

Livros de Virtualização

Microsoft Virtualization: Master Microsoft Server, Desktop, Application, and Presentation


Virtualization

Windows Server 2008 R2 Hyper-V: Insiders Guide to Microsoft’s Hypervisor

Windows Server® 2008 Hyper-V(TM) Resource Kit

Centro de Capacitação com vários vídeos de virtualização

http://technet.microsoft.com/pt-br/rampup/gg578609

Techcenter de Virtualização

http://technet.microsoft.com/pt-br/virtualization/bb802511

Artigos de virtualização no Technet Wiki –


http://social.technet.microsoft.com/wiki/tags/Virtualization/default.aspx

Laboratórios Virtuais sobre Virtualização –


http://msmvps.com/blogs/msvirtualization/archive/2011/03/04/fa-231-a-voc-234-mesmo-
todos-laborat-243-rios-virtuais-do-technet-sobre-virtualiza-231-227-o.aspx

Série de artigos sobre Virtualização de Aplicação – App-V –


http://msmvps.com/blogs/msvirtualization/archive/2011/03/31/conhecendo-o-microsoft-app-
v.aspx

Série de artigos sobre Virtualização de Desktop – MED-V –


http://msmvps.com/blogs/msvirtualization/archive/2010/10/26/s-233-rie-de-artigos-do-med-v-
2-0.aspx

Série de artigos sobre virtualização de apresentação/aplicação – RemoteApp –


http://msmvps.com/blogs/msvirtualization/archive/2011/01/14/segunda-s-233-rie-de-artigos-
remoteapp.aspx

Série de artigos sobre Gerenciamento de Virtualização – System Center Virtual


Machine Manager

2008 R2 – http://msmvps.com/blogs/msvirtualization/archive/2011/01/18/s-233-rie-de-
artigos-system-center-virtual-machine-manager-2008-r2.aspx

2012 – http://msmvps.com/blogs/msvirtualization/archive/tags/SCVMM+2012/default.aspx
22

Você também pode gostar