Você está na página 1de 70

Universidade São Tomás de Moçambique

Faculdade de Ciências e Tecnologias de Informação

Bensley Larsen Maico Njauala

Proposta de Implementação de Tecnologia de Virtualização de Servidores.

Estudo de Caso Supermercado Ka Da Terra

Maputo, Dezembro de 2021


Universidade São Tomás de Moçambique

Faculdade de Ciências e Tecnologias de Informação

Bensley Larsen Maico Njauala

Proposta de Implementação de Tecnologia de Virtualização de Servidores.

Estudo de caso Supermercado Ka Da Terra

Supervisor: Omar Muando, Msc.

Monografia para a obtenção do grau de Licenciatura em:


Administração de Sistemas de Informação e Redes

Maputo, Dezembro de 2021


DECLARAÇÃO DE HONRA

Declaro por minha honra que esta Monografia que, submeto a Universidade São Tomás de
Moçambique, em cumprimento dos requisitos para a obtenção do grau de Licenciatura em
Administração de Sistemas de Informação e Redes, nunca foi apresentada para a obtenção
de qualquer outro grau académico e que constitui o resultado da minha investigação, tendo
indicado no texto, nas notas e na bibliografia as fontes que consultei.

Bensley Larsen Maico Njauala

______________________________________________________

Maputo, Dezembro de 2021

I
DEDICATÓRIA

Dedico este trabalho aos meus maravilhosos Pais, Júlio Bartolomeu Njauala e Domingas
Catarina Guilherme Gimo.

II
AGRADECIMENTOS

Primeiramente os meus calorosos agradecimentos vão ao meu Supervisor por se mostrar


disponível, dar-me orientação e compartilhar o seu conhecimento para que esta obra tenha
se tornado realidade.

De seguida aos meus Pais e Irmãos que dedicaram-se bastante na minha formação e
sempre deram apoio moral e financeiro, e estiveram comigo tanto nos momentos bons quer
maus, durante esta longa jornada e ainda assim motivaram-me bastante para que eu
conseguisse alcançar este objectivo de vida que também representa um sonho para eles.

Ao meu supervisor de estágio por me ter introduzido a este tema maravilhoso, que
despertou bastante a minha curiosidade e a vontade de crescer profissionalmente nesta
área.

A todos colegas e todo corpo docente pelo aprendizado e as experiências vividas neste
espaço académico.

Aos meus primos Anderson e Benison que compartilharam o lar comigo nesta jornada
académica e trocaram varias experiências académicas e de vida.

Ao meu tio Crispo e Avó Florência que fizeram papel de Pais quando os meus Pais
biológicos se encontravam fisicamente distante.

III
LISTA DE ABREVIATURAS E SIGLAS

ABI

API

libcalls

ISA

ITIL

syscalls

VM

VMM

IV
ÌNDICE DE FIGURAS E TABELAS

Figura 1 Interfaces de sistema ISA e ABI, Fonte: (Mazero, 2019) .......................................... 15


Figura 2 - Problemas de compatibilidade entre interfaces (Mazero, 2019).............................. 16
Figura 3 - Máquina Virtual (Mazero, 2019) ............................................................................. 18
Figura 4 - Possibilidades de virtualização (Mazero, 2019) ...................................................... 19
Figura 5 - Virtualizaçao de recursos de hardware (Mazero, 2019) .......................................... 20
Figura 6 - Abstração vs Virtualização (Mazero, 2019) ............................................................ 20
Figura 7 – Virtualização (Fonte: Adaptado pelo autor)............................................................ 21
Figura 8 - arquitectura de virtualização (Veras, Virtualização: Componente Central do
Datacenter, 2009)...................................................................................................................... 22
Figura 9 - Máquina Virtual (Veras, 2009) ................................................................................ 23
Figura 10 - Categorias das Máquinas virtuais (Mazero, 2019) ............................................... 24
Figura 11 - Arquitectura Monolítica (a) versus Microkernelizada (b) (Veras, 2009) ............. 29
Figura 12 - Hierarquia na Arquitectura de processador x86 (Veras, 2009)Error! Bookmark not defined.
Figura 13 - arquitectura de privilégios no x86 para a virtualização total (Veras, 2009) .......... 32
Figura 14 - arquitectura da virtualização total (Veras, 2009) ................................................... 33
Figura 15 - Para-virtualização no x86 (Veras, 2009) ............................................................... 34
Figura 16 - Arquitectura para a Para-virtualização (Veras, 2009) ........................................... 34
Figura 17 - virtualização assistida pelo hardware (Veras, 2009) ............................................. 35
Figura 18 - Infra-estrutura de servidores actual do Supermercado Ka Da Terra (fonte:
adaptado pelo autor). ................................................................................................................ 43
Figura 19 – Arquitectura de Servidores .................................................................................... 48
Figura 20- Arquitectura de Servidores Virtualizada................................................................. 51
Figura 21 - Especificaçoes dos Swichs de Rede: 2x Dell Technologies - Switch................... 58
Figura 22 - Especificação do Armazenamento: 1x Dell Technologies - Storage Dell EMC
ME4024 .................................................................................................................................... 59

Tabela 1 - Lista de Servidores Fisicos existentes ..................................................................... 45


Tabela 2 - Liçenca vSphere Essentials Kit Plus ...................................................................... 50

V
ÍNDICE

CAPITULO I - INTRODUÇÃO ........................................................................................... 1

1. Contextualização ............................................................................................................ 1
1.1. Justificativa.......................................................................................................... 3
1.2. Problema.............................................................................................................. 4
1.3. Hipóteses ............................................................................................................. 5
1.4. Pergunta de Pesquisa ........................................................................................... 5
1.5. Objectivos............................................................................................................ 5
1.6. Estrutura do Trabalho .......................................................................................... 6
CAPITULO II - METODOLOGIA, MÉTODOS E MATERIAL ....................................... 7

2. Metodologia de Pesquisa ................................................................................................ 7


2.1. Metodologia ........................................................................................................ 7
2.2. Classificação da pesquisa .................................................................................... 8
2.3. Técnicas e Instrumentos para colecta de Dados .................................................. 9
2.4. Considerações Éticas ......................................................................................... 10
CAPITULO III: REVISÃO BIBLIOGRÁFICA ................................................................. 11

3. Conceitualização .......................................................................................................... 11
3.1. Historia da virtualização.................................................................................... 12
3.2. Interfaces dos sistemas computacionais ............................................................ 13
3.3. Virtualização ..................................................................................................... 20
3.4. Clusters de computadores.................................................................................. 38
3.5. Backup ............................................................................................................... 40
CAPITULO IV – estudo de caso ........................................................................................ 42

4. Descrição da instituição/enquadramento ...................................................................... 42


4.1. Cenário actual ................................................................................................... 42
4.2. Serviços de rede da infra-estrutura actual do Supermercado Ka Da Terra ....... 43
4.3. Distribuição das aplicações/serviços entre os servidores físicos ...................... 45
5. Proposta da solução ...................................................................................................... 48
5.1. Arquitectura física ............................................................................................. 48
5.2. Descrição dos equipamentos de hardware ........................................................ 49
5.3. Arquitectura virtualizada ................................................................................... 50
5.4. Estratégia de Backup 3-2-1 .............................................................................. 52
CAPITULO Vi – CONCLUSÃO E RECOMENDAÇÕES ............................................... 53
VI
6. Conclusão ..................................................................................................................... 53
7. Recomendações ............................................................................................................ 54
Referências Bibliográficas ................................................................................................... 55

APÊNDICE ......................................................................................................................... 57

VII
RESUMO

Os sistemas computacionais tem oferecido inúmeras vantagens às organizações nos dias


actuais. Contudo a tecnologia de virtualização revolucionou de certa forma o uso de
sistemas computacionais no que concerne á realização de actividades comercias uma vez
que esta oferece redução de custos, que resulta no baixo consumo de energia, espaço
físico, racionalização dos recursos computacionais existentes, aumento da performance e a
disponibilidade das aplicações em uso, sem deixar de lado a preocupação com a segurança
dos dados armazenados e processados em ambientes de negócio. O presente trabalho
discute sobre os desafios apresentados no modelo tradicional na qual se faz o uso de
hardware físico para hospedar aplicações cruciais para o funcionamento de um
Supermercado, e por fim ilustra como se pode tomar vantagem da virtualização com vista a
ganhar eficiência no uso dos recursos tecnológicos. Para o presente trabalho foram eleitos
como métodos científicos: o método hipotético-dedutivo e o método monográfico. Por
conseguinte a pesquisa classifica-se em: pesquisa aplicada quanto a natureza, qualitativa
quanto a abordagem, exploratória quanto aos objectivos, pesquisa participante e
bibliográfica quanto aos procedimentos técnicos, com auxilio da análise documental, a
observação participante e a internet para recolha de dados. Neste âmbito, tornou-se
relevante um estudo para averiguar formas que possam ser adequadas para resolver o
problema de indisponibilidade de serviços que se vive no local onde a pesquisa foi
realizada. Deste modo, constatou-se que á virtualização é uma das soluções viáveis
encontrada para reduzir o nível de indisponibilidade de serviços e que possibilitará também
na implementação de uma estratégia de backup simplificada e eficiente.

Palavras-chaves: Servidor, Maquina-virtual, hipervisor, disponibilidade, datacenter.

VIII
ABTSRACT

Computer systems have offered countless advantages to organizations today. However,


virtualization technology has somehow revolutionized the use of computer systems with
regard to carrying out commercial activities since it offers cost reduction, which results in
low energy consumption, physical space, rationalization of existing computing resources,
increased performance and availability of the applications in use, without leaving aside the
concern with the security of the data stored and processed in the business. This paper
discusses the challenges presented in the traditional model in which physical hardware is
used to host applications that are crucial for the operation of this business, and finally
illustrates how one can take advantage of virtualization to gain efficiency in the use of
technological resources. For the present work, the following scientific methods were
chosen: the hypothetical-deductive method and the monographic method. Therefore, the
research is classified into: applied research in terms of nature, qualitative in terms of
approach, exploratory research in terms of objectives, participatory and bibliographical
research in terms of technical procedures, with the aid of document analysis, participant
observation and the internet for data collection. In this context, a study to find out ways
that may be appropriate to solve the problem in question became relevant. Thus, it was
found that virtualization is one of the viable solutions found to reduce the level of
unavailability of services and to implement an efficient backup strategy.

Keywords: Server, Virtual-Machine, Hipervisor, availability, infrastructure, datacenter.

IX
CAPITULO I - INTRODUÇÃO

1. Contextualização
As tecnologias de informação têm melhorado de forma significante a vida dos indivíduos,
graças as vantagens que a digitalização tem lhes oferecido seja individualmente ou na
realização de negócios. Desta forma as organizações e indivíduos tornaram-se dependentes
das tecnologias para automatizar processos corriqueiros e melhorar diversas áreas de suas
vidas e negócios.

“A Tecnologia da Informação é o conjunto de elementos que suportam a informação, seu


processamento e armazenamento, utilizada para objectivos diversos. Acredita-se que a TI é
fundamental para a melhoria da competitividade de uma organização” (Veras, 2012).

Com a ascensão dos serviços de internet, o modelo cliente-servidor ganhou mais espaço no
mercado de TI, uma vez que aplicações (hospedadas em servidores) começaram a ser
oferecidas através da internet de forma massiva. Dado a esse facto serviços oferecidos
através da internet começaram a ganhar mais atenção e enumeras tecnologias de servidores
(hardware) não ficaram para trás.

Assim que os serviços de internet começaram a ganhar espaço, uma das preocupações que
surgiu, foi a disponibilidade desses serviços, contudo, surgiram diversas soluções para este
problema. apesar do surgimento dessas soluções, a indisponibilidade de serviços de TI ainda
representa um grande risco ao sucesso de implementação de várias soluções digitais. Embora
existam várias alternativas para colmatar este problema, a virtualização acabou se destacando
pela forma inovadora que a mesma resolve, não só o problema de indisponibilidade de
serviços de TI, mas pela eficácia e eficiência que esta oferece aos datacenters (tornando o
datacenter basicamente num software, que permite a gestão centralizada de todos os
componentes do datacenter, que são vistos como um pool de recursos virtuais).

“A tecnologia de virtualização surgiu nos anos 60, com a IBM como um dos pioneiros e mais
tarde em volta do ano 1998 ganhou mais relevância e atenção das empresas de TI, quando a
VMware começou a investir agressivamente na virtualização, até os dias de hoje” (Mazero,
2019).

A virtualização de servidores é a combinação de hardware físico convertido em software, para


permitir o bom uso do próprio hardware físico, como forma de aumentar a eficiência e reduzir
a quantidade de hardware necessário. O hardware virtual é abstrato, não existem elementos

1
físicos que possamos tocar. Porém os componentes de um servidor virtual podem ser
considerados os mesmo que de um servidor físico.

Para Gustavo Mendes (2013) à virtualização é uma tecnologia que vem crescendo e
sendo muito utilizada tanto em computadores domésticos como também em pequenas,
médias e grandes empresas. Com as novas tecnologias de software e hardware é
possível criar um ambiente virtual de forma segura, com redução de gasto com
energia, adicionalmente a virtualização proporciona uma disponibilidade dos nossos
computadores.

Salienta ainda Alves & Magalhães (2018) “que a virtualização é uma forma de abstração das
aplicações e componentes subjacentes, do hardware e recursos físicos que as suportam
apresentando uma visualização lógica ou virtual desses recursos”.

Esta tecnologia trás inúmeras vantagens quando implementada numa infra-estrutura de TI, e
pode se notar o seu potencial para aplicação para escalar o negócio do supermercado Ka Da
Terra, contudo é importante destacar algumas vantagens da virtualização: simplifica o
gerenciamento e permite flexibilizar e ampliar o poder de processamento. “Funcionalidades
contidas nos softwares de virtualização também permitem melhorar a disponibilidade e a
recuperação de desastres de ambientes de TI de uma maneira mais simples e com menor custo
quando comparado a formas tradicionais” (Veras, 2012).

Os factos mencionados no parágrafo anterior sustentam de certa forma a relevância da


aplicação da virtualização para resolver o problema em causa, uma vez que a
indisponibilidade de serviços de TI é um grande empecilho para a organização onde o estudo
de caso foi realizado. A empresa em causa actua no ramo de comércio a retalho tornando-se
assim as tecnologias de informação um grande aliado para o alcance dos objectivos desta
empresa, pois ela possibilita a entrega de serviços mais sofisticados aos clientes através de
softwares de vendas e digitalização de vários outros processos levados a cabo pela
organização. Acima de tudo a situação pandémica que se vive hoje também exige um pouco
mais das organizações, e a digitalização de serviços pode ajudar a responder a essa
problemática no ramo de comércio a retalho, com a adoção de vendas online e outros
serviços. Portanto estas soluções só são possíveis se as organizações adotarem métodos ágeis
de entrega de serviços ou produtos, e a virtualização é uma componente chave para
materialização destes objectivos.

Contudo o presente trabalho visa propor o emprego da tecnologia de virtualização de


servidores e simplificar o ambiente de backup de informação da infra-estrutura de TI do
2
Supermercado Ka Da Terra de modo a melhorar o nível de disponibilidade dos serviços de TI
utilizados pela empresa em alusão, porém para alcançar esses objectivo viu-se necessário
debruçar a tecnologia de virtualização de servidores, analisar a infra-estrutura de servidores
actua, desenhar uma arquitectura para a migração de servidor tradicional/físico para servidor
virtual, propor técnicas de tolerância a falha de modo a garantir a disponibilidade dos serviços
de TI e por fim propor técnicas de backup de informação.

1.1. Justificativa
Actualmente a tecnologia é vista como uma das ferramentas chave para o crescimento das
organizações, visto que garante a eficiência nas operações do dia-a-dia, principalmente com a
ascensão dos serviços de rede.

Deste modo a relevância deste tema surge devido a importância da virtualização para as
Infra-estruturas de TI, sendo que esta possibilita a realização eficiente do trabalho em
ambientes onde haja diversidades de plataformas de software sem ter o aumento do número
de plataformas de hardware e proporciona ainda um grau de portabilidade e flexibilidade
permitindo que várias aplicações com diferentes sistemas operativos executem em mesmo
hardware, O que proporciona um nível de eficiência um pouco mais elevado na gestão de
infra-estrutura de TI, permitindo a consolidação de servidores, o que é, especialmente
1
importante para os datacenters pela heterogeneidade de plataformas inerentes ao próprio
negocio. Além disso, em datacenter, a redução de máquinas físicas implica na redução de
custos de infra-estrutura física como espaço, energia elétrica, cabeamento, refrigeração,
suporte e manutenção a vários sistemas.

Ao aplicar esta tecnologia conseguimos observar alguns benefícios práticos tais como o
incremento da disponibilidade de serviços e facilidade de recuperação á desastres, e ainda
permitirá que outros serviços sejam disponibilizados de forma mais flexíveis, o que
actualmente constitui um grande obstáculo para a continuidade de negócios desta e de mais
organizações.

A virtualização tem evoluído bastante nos últimos anos (tanto no ramo empresarial e
académico) e tem chamado a atenção de vários entusiastas de tecnologias sendo que estamos
numa era software-defined-everthing em que servidores, roteadores, switches, firewals,
balanceadores de cargas e mais elementos, são vistos como um software, tudo isso por conta

1
É o lugar onde são alojados os elementos de infra-estrutura de tecnologia de informação de uma empresa ou
organização, como equipamentos de rede, armazenamento, servidores, energia e refrigeração.
3
da virtualização torna-se imprescindível materializar estudos sobre esta tecnologia para
explorar ao máximo o seu potencial. Por isso o governo Moçambicano, empresários,
académicos e a sociedade no geral, devem criar sinergias para desenvolver soluções
inovadoras com base nesta tecnologia.

1.2. Problema
Actualmente o supermercado possui uma infra-estrutura de TI que suporta as aplicações
cruciais para o seu negócio, no entanto à infra-estrutura foi implementada num modelo
tradicional (físico) e não conta com uma técnica de tolerância a falhas e redundância eficiente,
o que leva o sistema a enfrentar algumas dificuldades como: á falta de disponibilidade de
serviços e complexidade no que tange a recuperação de desastres de ambientes de TI.

De alguma forma os factos mencionados no parágrafo anterior contribuem para um nível


elevado de downtime2 e dificuldades para a reposição dos serviços aquando da ocorrência de
uma avaria ou mesmo durante uma manutenção não programada dos servidores físicos. Estas
aplicações são utilizadas com fins de incrementar o nível de eficiência e eficácia na realização
de vendas, que é a actividade principal da empresa. Tratando-se assim de uma aplicação
classificada como crítica para o negócio, a indisponibilidade da mesma e de outros sistemas
que o compõem, tem vindo a prejudicar de forma crucial o funcionamento e crescimento deste
empreendimento.

De seguida são mencionados as implicações negativas causadas pela indisponibilidade dos


sistemas e aplicações no supermercado:

1. Morosidade na realização dos pagamentos (uma vez que quando o sistema encontra-se
indisponível o processo de venda é efetuado manualmente), facto que remete a uma
experiência de utilizador não muito agradável;
2. Possibilidade de cometimento de falhas e até desvio de valores monetários;
3. Dificuldades no controle do stock, uma vez que a aplicação para gestão de stock torna-se
indisponível (Inconsistência de dados);
4. Demora na reposição dos serviços de tecnologia de informação (especialmente as
principais aplicações);

2
É o tempo em que um serviço ou sistema de TI(como por exemplo um servidor de email) encontra-se
indisponível. Este tipo de fenómeno é geralmente causado por avaria do hardware, software, ataques cibernéticos
ou mesmo configuração incorreta do sistema.
4
1.3. Hipóteses
H1 – O emprego da tecnologia de virtualização incrementará o nível de disponibilidade dos
serviços de TI;
H2 – Em casos de perda de dados ou falha de hadware, a restauração de dados será
simplificada com o uso de Infra-estrutura virtualizada;

1.4. Pergunta de Pesquisa


De que modo a tecnologia de virtualização a incrementará o nível de disponibilidade dos
serviços de TI e simplificará a realização de backups dos servidores?

1.5. Objectivos

1.5.1. Objectivo Geral

• Propor o emprego da tecnologia de virtualização de servidores de modo a melhorar


o nível de disponibilidade das aplicações.

1.5.2. Objectivos Específicos

• Debruçar a tecnologia de virtualização de servidores;


• Analisar a infra-estrutura de servidores actual;
• Desenhar uma arquitectura de servidor virtualizada;
• Propor técnicas de tolerância a falha de modo a garantir a disponibilidade dos
serviços de TI;
• Propor técnicas de backup de informação.

5
1.6. Estrutura do Trabalho
O presente trabalho encontra-se organizado na seguinte ordem:

✓ Capitulo I – Introdução:

Neste capitulo são abordados aspectos introdutórios.

✓ Capitulo II – Metodologias

Neste capitulo são descritas as metodologias utilizadas durante a elaboração do


trabalho.

✓ Capitulo III – Revisão Bibliográfica:

Neste capitulo é feita a conceitualização dos aspectos que serão levados a cabo na
realização da monografia.

✓ Capitulo IV – Discussão e apresentação dos resultados

Neste capitulo é feita uma análise sucinta do local em que a pesquisa foi elaborada e é
apresentado também o estado actual das tecnologias utilizadas nesta instituição e é
feita uma discussão em torno das informação recolhida no acto da pesquisa e dos
resultados obtidos.

✓ Capitulo V – Conclusão e Recomendações

Neste capitulo são endereçadas as considerações finais e recomendações do autor para


que uma possível materialização deste projecto seja bem sucedida.

6
CAPITULO II - METODOLOGIA, MÉTODOS E MATERIAL

No presente capítulo, faz-se a classificação dos procedimentos científicos, a caracterização


das tecnologias e ferramentas utilizadas para realizar este estudo.

2. Metodologia de Pesquisa
Todas as ciências caracterizam-se pela utilização de métodos científicos; em
contrapartida, nem todos os ramos de estudo que empregam estes métodos são
ciências. Assim sendo, pode-se concluir que a utilização de métodos científicos não é
do domínio exclusivo da ciência, porém não haja ciência sem o emprego de métodos
científicos (Marconi & Lakatos, 2003).

2.1. Metodologia
“A Metodologia é compreendida como uma disciplina que consiste em estudar, compreender
e avaliar os vários métodos disponíveis para a realização de uma pesquisa académica”
(Prodanov & Freitas, 2013).

De acordo com (Gil, 2008), “método científico é o conjunto de procedimentos intelectuais e


técnicos adoptados para se atingir o conhecimento”.

Método de abordagem: para o presente trabalho foi eleito o método hipotético-


dedutivo que para (Marconi & Lakatos, 2003), o método hipotético-dedutivo se inicia
pela percepção de uma lacuna nos conhecimentos acerca da qual formula-se hipóteses
e pelo processo de inferência dedutiva testa-se a predição da ocorrência de fenómenos
abrangidos pelas hipóteses. A partir do problema identificado, serão formuladas
respostas hipotéticas, que serão testadas empiricamente por meio da dedução.

A aplicação deste método é de grande relevância para a pesquisa em causa, pois permitirá
avançar hipóteses, ou seja, respostas antecipadas sobre o problema levantado e posteriormente
validá-las ou refutá-las.

Métodos de Procedimento: “foi eleito o método monográfico este método parte do princípio
de que o estudo de um caso em profundidade pode ser considerado representativo de muitos
outros ou mesmo de todos casos semelhantes” (Gil, 2008). O método monográfico é
imprescindível, pois ajuda a fazer um estudo aprofundado no local de pesquisa de modo a
analisar todos os factores que influenciam para o acontecimento de indisponibilidade de
sistemas e analisando todos os aspectos para deste modo empregar uma solução viável para
este problema.

7
2.2. Classificação da pesquisa
a) Quanto a Natureza: Uma vez que a pesquisa visa aplicar os conhecimentos sobre
virtualização para solucionar um problema especifico que abrange o processo de gestão de
infra-estrutura TI de uma determinada organização, foi eleita a Pesquisa aplicada, que é uma
indagação com objectivo de gerar conhecimento para aplicação prática, assim, solucionando
problemas específicos, neste caso problemas de disponibilidade de serviços de TI. “Envolve
verdades e interesses locais” (Prodanov & Freitas, 2013).

b) Quanto a Abordagem: Segundo (Prodanov & Freitas, 2013), “à pesquisa


qualitativa estabelece uma relação dinâmica entre o mundo real e o sujeito, isto é, um
vínculo indissociável entre o mundo objectivo e a subjetividade do sujeito que não
pode ser traduzido em números. A interpretação dos fenômenos e a atribuição de
significados são básicas no processo de pesquisa qualitativa. Esta não requer o uso de
métodos e técnicas estatísticas. O ambiente natural é a fonte direta para colecta de
dados e o pesquisador é o instrumento-chave. Tal pesquisa é descritiva. O processo e
seu significado são os focos principais de abordagem e os pesquisadores tendem a
analisar seus dados indutivamente.

Na abordagem qualitativa, a pesquisa tem o ambiente como fonte directa dos dados, na
medida em que no supermercado o pesquisador mantém contacto directo com o ambiente e o
objecto de estudo em questão, necessitando de um trabalho mais intensivo de campo.

c) Quanto ao Objectivo: Para a presente pesquisa foi escolhida a Pesquisa


Exploratória que para Gil (1991), “preconiza proporcionar maior familiaridade com o
problema com vistas a torná-lo explícito ou a construir hipóteses. Envolve
levantamento bibliográfico e realização de observação de modo a ganhar experiências
práticas com o problema pesquisado e análise de exemplos que estimulem a
compreensão. Assume, em geral, as formas de Pesquisas bibliográficas e Estudos de
Caso. Sendo que o pesquisador observa os fenómenos dentro desta organização de
modo a compreender os constrangimentos causados pela indisponibilidade dos
serviços de TI com vista a propor uma solução viável para resolver o problema.

d) Quanto aos Procedimentos Técnicos: Segundo Prodanov & Freitas (2013), “Quanto aos
procedimentos técnicos, ou seja, a maneira pela qual obtemos os dados necessários para a
elaboração da pesquisa, torna-se necessário traçar um modelo conceitual e operativo dessa,

8
denominado de design, que pode ser traduzido como delineamento, uma vez que expressa as
ideias de modelo, sinopse e plano”.

Prodanov & Freitas (2013), citam ainda que “o delineamento refere-se ao planeamento da
pesquisa em sua dimensão mais ampla, envolvendo diagramação, previsão de análise e
interpretação de colecta de dados, considerando o ambiente em que são colectados e as formas
de controle das variáveis envolvidas”. Neste caso especifico optou-se pela combinação de
dois procedimentos técnicos, nomeadamente:

➢ Pesquisa participante: quando se desenvolve a partir da interação entre pesquisadores e


membros das situações investigadas.

Essa pesquisa, assim como a pesquisa-ação, caracteriza-se pela interação entre pesquisadores
e membros das situações investigadas. A descoberta do universo vivido pela população
implica compreender, numa perspetiva interna, o ponto de vista dos indivíduos e dos grupos
acerca das situações que vivem.

➢ Pesquisa bibliográfica: “é uma pesquisa elaborada a partir de material já publicado,


denominadas fontes secundárias, das quais destacam-se: livros, publicações em periódicos e
artigos científicos, jornais e internet”. (Lundin, 2016). Foi recorrido a consulta de material
diversificado, nomeadamente: livros físicos e electrónicos, sites na internet, artigos publicados
e jornais já publicados para a elaboração do corrente trabalho.

2.3. Técnicas e Instrumentos para colecta de Dados


Na óptica de (Marconi & Lakatos, 2003), “técnicas podem ser entendidas como um conjunto
de preceitos ou processos de que se serve uma ciência, são, também, a habilidade para usar
essas normas na obtenção de seus propósitos”. Para a presente pesquisa serão usadas as
seguintes técnicas:

a) Observação: Na observação, são aplicados atentamente os sentidos a um objeto, a fim de


que se possa, a partir dele, adquirir um conhecimento claro e preciso. A observação deve ser
exata, completa, imparcial, sucessiva e metódica, pois se constitui em um procedimento
investigativo de extrema importância à ciência.

Considerando-se a estruturação, a observação científica pode ser assistemática ou sistemática.


A observação assistemática, também chamada observação não estruturada, é aquela sem
controle elaborado anteriormente e desprovida de instrumental apropriado.

➢ Observação não participante: o pesquisador toma contato com a comunidade, o grupo ou


a realidade estudada, mas sem integrar-se a ela: permanece de fora. Presencia o fato, mas não
participa dele; não se deixa envolver pelas situações; faz mais o papel de espectador. Isso,

9
porém, não quer dizer que a observação não seja consciente, dirigida, ordenada para um fim
determinado. O procedimento tem caráter sistemático;

b) Internet: Para Faculdade Metropolitana São Carlos (2012), A Internet representa


uma novidade nos meios de pesquisa. Trata-se de uma rede mundial de comunicação
via Computador pessoal, onde as informações são trocadas livremente entre todos.
Sem dúvida, a Internet representa uma revolução no que concerne à troca de
informação. A partir dela, todos podem informar a todos. Mas, se ela pode facilitar a
busca e a colecta de dados, ao mesmo tempo oferece alguns perigos; na verdade, as
informações passadas por essa rede não têm critérios de manutenção de qualidade da
informação. Explicando melhor: qualquer um pode colocar sua "homepage" (ou sua
página) na rede.

Segundo Faculdade Metropolitana São Carlos (2012), “Os documentos como fonte de
pesquisa podem ser primárias ou secundárias. As fontes primárias são os documentos que
gerarão análises para posterior criação de informações. Podem ser decretos oficiais,
fotografias, cartas, artigos”. As fontes secundárias são as obras nas quais as informações já
foram elaboradas (livros, apostilas, teses, monografias, por exemplo).

2.4. Considerações Éticas


Como forma de adquirir a autorização para a realização desta pesquisa o autor emitiu uma
carta á instituição referente ao pedido de autorização, e obteve um resposta positiva. A carta
encontra-se em anexo no presente trabalho.

Os participantes da pesquisa foram previamente convidados a participar da pesquisa através


de um anúncio coletivo dirigido pelo chefe do departamento de TI a todos os colaboradores
pertencentes ao departamento de TI.

E de seguida foram informados sobre os aspectos de segurança na qual constavam os


seguintes pontos:

• Anonimato: garantia do anonimato de todos os participantes da pesquisa;


• Confidencialidade: como forma de manter confidencial a informação recolhida da
empresa, utilizada no processo da pesquisa, seguiu-se à risca a politica interna de
segurança de informação para salvaguardar este que é o maior ativo da organização.

Apesar de terem sido convidados á participar da pesquisa todos os colaboradores do


departamento de TI, deviam participar da pesquisa apenas os colaboradores voluntários, sendo
que qualquer participante tinha o direito de desistir. Felizmente isto não aconteceu e a equipe
deu o seu contributo para que esta pesquisa tivesse sido realizada com êxito.

10
CAPITULO III: REVISÃO BIBLIOGRÁFICA

3. Conceitualização
Actualmente em ambientes corporativos nos deparamos com uma vasta gama de soluções de
software que são popularmente conhecidas como aplicações e que tem o objectivo de otimizar
processos que outrora foram realizados manualmente com vista a ganhar eficiência, eficácia e
agilidade na realização de actividades corriqueiras, o que de certa forma gera uma vantagem
competitiva para as organizações.

As aplicações mencionadas no parágrafo anterior são maioritariamente construídas com base


na arquitectura cliente-servidor. Desta forma estas aplicações carecem literalmente de algum
elemento de infra-estrutura de TI para que o seu funcionamento seja efectivado, trata-se de
um servidor, que é um Computador “especial”, e que neste caso terá o papel de hospedar
aplicações e certamente oferecer os seus serviços a outros Computadores pessoais por meio de
uma rede de Computadores, estes Computadores pessoais são normalmente denominados
“clientes”.

No entanto, num ambiente corporativo existem geralmente diversos tipos de servidores


conectados por uma rede de alta velocidade e redundante, hospedando diferentes aplicações
criticas para o negócio, cada uma delas com funções especificas. E uma das razões destas
aplicações serem hospedadas em diferentes servidores é a carga de trabalho que os servidores
podem suportar e a confiabilidade, ou seja, não se pode confiar que um servidor opere por 24
horas por dia, 365 ou 366 dias por ano sem que ocorra alguma falha. Portanto se colocada
cada aplicação ou serviço em diferentes servidores, na possibilidade da falha de um, outro
continuará operacional. Esta separação torna-se boa também para questões de segurança,
mesmo que um intruso malicioso consiga acesso a servidor Web por exemplo, ele não teria de
imediato o acesso ao servidor de emails e vice-versa. Apesar de conseguirmos as propriedades
de isolamento e de tolerância a falhas deste modo, esta solução torna-se muito cara e difícil de
manter, porque esta solução envolveria vários componentes físicos.

Estas são apenas duas razões de muitas outras que nos levariam a manter diferentes
serviços de diferentes servidores físicos. Por exemplo, uma organização geralmente
depende de diferentes sistemas operativos para que possa realizar as suas operações
diárias: um servidor Linux hospedando uma aplicação Web, um servidor Windows
hospedando servidor de email, e mais alguns serviços hospedados em diferentes
distribuições Linux. É portanto necessário reiterar que funcionaria, porém não seria
11
economicamente viável (Tanembaw & Bos, 2015). Assim sendo uma das soluções
que seria viável de implementar neste caso seria o uso de máquinas virtuais. Ideia esta
que parece moderna, porém trata-se de uma tecnologia ligeiramente antiga, no entanto
hoje em dia ela é utilizada de forma moderna.

“A ideia principal desta tecnologia é seguinte, o monitor de maquina virtual, popularmente


conhecido com hipervisor cria uma ilusão de múltiplas máquinas(virtuais) no mesmo servidor
físico” (Mazero, 2019). No ponto a seguir será abordada um pouco da historia desta
tecnologia de forma a estar a par da sua evolução.

3.1. Historia da virtualização


“A tecnologia de virtualização de servidores parece recente por conta da sua utilização em
massa nas ultimas décadas, porem esta tecnologia já vem sendo explorada à alguns anos,
tendo a IBM como um dos pioneiros que desenvolveu vários sistemas comerciais suportando
a virtualização na década de 1960, entre os quais o OS/370” (Mazero, 2019).

Sendo que estes sistemas tinham como principal objectivo oferecer ao utilizador um ambiente
Monoutilizador completo, com seu próprio sistema operativo e aplicações, completamente
independente e separado dos ambientes dos outros utilizadores.

“Isto não parou ai, na década de 1970, os pesquisadores Popek & Goldberg formalizaram
vários conceitos associados às máquinas virtuais e definiram as condições necessárias para
que uma plataforma de hardware suporta-se de forma eficiente a virtualização”.

“Nessa mesma época surgem as primeiras experiências concretas de utilização de máquinas


virtuais para a execução de aplicações, com o ambiente UCSD p-System, no qual programas
Pascal eram compilados para execução sobre um hardware virtual denominado P-Machine”
(Mazero, 2019).

Na década de 1980, com a popularização de plataformas de hardware baratas como o


Computador pessoal, a virtualização perdeu importância. Afinal, era mais barato, simples e
versátil fornecer um computador pessoal completo a cada utilizador, que investir em sistemas
de grande porte, caros e complexos. Além disso, o hardware do PC tinha desempenho
modesto e não provia suporte adequado à virtualização, o que inibiu o uso de ambientes
virtuais nessas plataformas (Mazero, 2019).

Com o aumento de desempenho e funcionalidades do hardware de PC e o surgimento da


linguagem Java, nos anos 90, o interesse pelas tecnologias de virtualização voltou à tona.
Apesar da plataforma PC da Intel na época não oferecer um suporte adequado à virtualização,
12
soluções engenhosas como as adotadas pela empresa VMware permitiram a virtualização
nessa plataforma, embora com desempenho relativamente modesto.

Nos anos 2000 as soluções de virtualização de plataformas despertou grande interesse


do mercado, devido à consolidação de servidores e à construção das nuvens
computacionais. Hoje, várias linguagens são compiladas para máquinas virtuais
portáveis e os processadores mais recentes trazem um suporte nativo à virtualização do
hardware, além disso esta tecnologia ganhou certamente tamanha relevância, e vem
sendo implementada tanto em pequenos negócios, quanto os grandes, é notável
também o trabalho de uma das maiores empresas que operam no ramo da
virtualização, nos dias de hoje traz soluções variadas para máquinas virtuais, e as mais
exploradas actualmente que são os container3 e as soluções para Cloud (Mazero,
2019).

3.2. Interfaces dos sistemas computacionais


Uma máquina real é formada por vários componentes físicos que fornecem operações para o
sistema operativo e suas aplicações. Iniciando pelo núcleo do Sistema real, o processador
central (CPU) e o chipset 4da placa-mãe fornecem um conjunto de instruções e outros
elementos fundamentais para o processamento de dados, alocação de memória e
processamento de entrada/saída. Segundo Mazero (2019) os sistemas de computador pessoais
são projetados com basicamente três componentes: hardware, sistema operativo e aplicações.
O papel do hardware é executar as operações solicitadas pelas aplicações através do sistema
operativo. O sistema operativo recebe as solicitações das operações (por meio das chamadas
de sistema) e controla o acesso ao hardware – principalmente nos casos em que os
componentes são compartilhados, como a memória e os dispositivos de entrada/saída.

Para Mazero (2019) os sistemas de computação convencionais são caracterizados por níveis
de abstração crescentes e interfaces bem definidas entre eles. As abstrações oferecidas pelo
sistema às aplicações são construídas de forma incremental, em níveis separados por
interfaces bem definidas e relativamente padronizadas. Cada interface encapsula as abstrações
dos níveis inferiores, permitindo assim o desenvolvimento independente dos vários níveis, o

3
uma tecnologia utilizada para “empacotar” aplicações para que possam ser executadas/disponibilizadas de
maneira isolada e eficiente no intuito de segregar e facilitar a portabilidade dessas aplicações.
4
é o conjunto de chips (ou circuitos integrados) utilizado na placa-mãe e cuja função é realizar diversas funções
de hardware.
13
que simplifica a construção e evolução dos sistemas. As interfaces existentes entre os
componentes de um sistema de computação típico são:

1. Conjunto de instruções (ISA – Instruction Set Architecture): é a interface básica entre o


hardware e o software, sendo constituída pelas instruções de máquina aceitas pelo processador
e as operações de acesso aos recursos do hardware (acesso físico à memória, às portas de
entrada/saída, ao relógio do hardware, etc.). Essa interface é dividida em duas partes:

• Instruções de utilizador (User ISA): compreende as instruções do processador e demais


itens de hardware acessíveis aos programas do utilizador, que executam com o processador
operando em modo utilizador;

• Instruções de sistema (System ISA): compreende as instruções do processador e demais


itens de hardware unicamente acessíveis ao núcleo do Sistema operativo, que executa em
modo privilegiado;

2. Chamadas de sistema (syscalls): é o conjunto de operações oferecidas pelo núcleo do


sistema operativo aos processos no espaço de utilizador. Essas chamadas permitem o acesso
controlado das aplicações aos dispositivos periféricos, à memória e às instruções privilegiadas
do processador.

3. Chamadas de bibliotecas (libcalls): as bibliotecas oferecem um grande número de


funções para simplificar a construção de programas; além disso, muitas chamadas de
biblioteca encapsulam chamadas do sistema operativo, para tornar seu uso mais simples. Cada
biblioteca possui uma interface própria, denominada Interface de Programação de Aplicações
(API – Application Programming Interface).

3.2.1. Compatibilidade entre Interfaces

Para que programas e bibliotecas possam executar sobre uma determinada plataforma, é
necessário que tenham sido compilados para ela, respeitando o conjunto de instruções do
processador em modo utilizador (User ISA) e o conjunto de chamadas de sistema oferecido
pelo sistema operativo (Mazero, 2019). A visão conjunta dessas duas interfaces

(User ISA + syscalls) é denominada Interface Binária de Aplicação (ABI – Application Binary
Interface). Da mesma forma, um sistema operativo só poderá executar sobre uma plataforma
de hardware se tiver sido construído e compilado de forma a respeitar sua interface ISA
(User/System ISA). A Figura à seguir representa essas duas interfaces:

14
Figura 1 Interfaces de sistema ISA e ABI
Fonte: Mazero (2019)
Nos sistemas computacionais de mercado atuais, as interfaces de baixo nível ISA e ABI são
normalmente fixas, ou pouco flexíveis. Geralmente não é possível criar novas instruções de
processador ou novas chamadas de sistema operativo, ou mesmo mudar sua semântica para
atender às necessidades especificas de uma determinada aplicação. mesmo se isso fosse
possível, teria de ser feito com cautela, para não comprometer o funcionamento de outras
aplicações.

Os sistemas operacionais, assim como as aplicações, são projectadas para aproveitar o


máximo dos recursos que o hardware fornece. Normalmente os projectistas de hardware,
sistema operativo e aplicações trabalham de forma independente (em empresas e tempos
diferentes). Por isso, esses trabalhos independentes geram, ao longo dos anos, varias
plataformas computacionais diferentes e incompatíveis entre si.

Observa-se então que, embora a definição de interfaces seja útil, por facilitar o
desenvolvimento independente dos vários componentes do sistema, torna pouco flexíveis as
interações entre eles: um sistema operativo só funciona sobre hardware (ISA) para qual foi
construído, uma biblioteca só funciona sobre a ABI para qual foi projectada e uma aplicação
tem de obedecer ABIs e APIs pré-definidas. A figura a seguir ilustra esses problemas de
compatibilidade entre interfaces.

15
Figura 2 - Problemas de compatibilidade entre interfaces
Fonte: Mazero (2019)
A baixa flexibilidade na interação entre as interfaces dos componentes de um sistema
computacional traz vários problemas (Mazero, 2019):

• Baixa portabilidade: a mobilidade de código e sua interoperabilidade são requisitos


importantes dos sistemas actuais, que apresentam grande conectividade de rede e diversidade
de plataformas. A rigidez das interfaces de sistema actuais dificulta a sua construção, por
acoplar excessivamente as aplicações aos sistemas operativos e aos componentes de
hardware.

• Barreiras de inovação: a presença de interfaces rígidas dificulta a construção de novas


formas de interação entre as aplicações e os dispositivos de hardware(e com os utilizadores,
por consequência). Além disso, as interfaces apresentam uma grande inércia à evolução, por
conta da necessidade de suporte as aplicações já existentes.

• Otimizações intercomponentes: aplicações, bibliotecas, sistemas operativos e hardware são


desenvolvidos por grupos distintos, geralmente com pouca interação entre eles. A presença de
interfaces rígidas a respeitar entre os componentes que leva cada grupo a trabalhar de forma
isolada, o que diminui a possibilidade de otimizações que envolvam mais de um componente.

Segundo (Mazero, 2019), “essas dificuldades levaram a investigação de outras formas de


relacionamento entre os componentes de um sistema operativo”. Uma das abordagens mais
promissoras nesse sentido é uso da virtualização de interfaces, que será abordada a seguir.

16
3.2.2. Virtualização de Interfaces

Conforme visto, as interfaces padronizadas entre os componentes do sistema de computação


permitem o desenvolvimento independente dos mesmos, mas também são fonte de problemas
de interoperabilidade, devido à sua pouca flexibilidade. Segundo (Mazero, 2019) por este
motivo, não é possível executar diretamente em um processador Intel/AMD uma aplicação
compilada para um processador ARM: as instruções em linguagem de máquina da aplicação
não serão compreendidas pelo processador Intel. Da mesma forma, não é possível executar
diretamente em Linux uma aplicação escrita para um sistema Windows, pois as chamadas de
sistemas emitidas pelo programa Windows não serão compreendidas pelo sistema operativo
Linux subjacente.

Todavia, é possível contornar esses problemas de compatibilidade através de uma camada de


virtualização construída em software. Usando os serviços oferecidos por uma determinada
interface de sistema, é possível construir uma camada de software ofereça aos demais
componentes uma outra interface. Essa camada de software permitirá o acoplamento entre
interfaces distintas, de forma que um programa desenvolvido para a plataforma A possa
executar sobre uma plataforma distinta B.

Usando os serviços oferecidos por uma determinada interface de sistema, a camada de


virtualização constrói outra interface do mesmo nível, de acordo com as necessidades dos
componentes de sistema que farão uso dela. A nova interface de sistema, vista através dessa
camada de virtualização, é denominada máquina virtual. A camada de virtualização em si é
denominada hipervisor (ou monitor de maquina virtual). A figura 3 apresenta um exemplo de
máquina virtual, onde um hipervisor permite executar um sistema operacional Windows suas
aplicações sobre plataforma de hardware Sparc, distinta daquela para qual esse sistema
operativo foi projectado (Intel x86).

Um ambiente de máquina virtual consiste em três partes básicas, que podem ser observadas na
figuara 3:

• O sistema real, nativo ou hospedeiro(host system), que contém os recursos reais de


hardware do sistema;

• Camada de virtualização, chamada hipervisor ou monitor (VMM- Virtual Machine


Monitor), que constrói a interface virtual a partir de interface real;

• O sistema virtual, também chamado sistema convidado(guest system), que executa sobre a
camada de virtualização.
17
Figura 3 - Máquina Virtual
Fonte: Mazero (2019)
Segundo Mazero (2019) é importante ressaltar a diferença entre os termos virtualização e
emulação. A emulação é na verdade uma forma de virtualização: quando um hipervisor
virtualiza integralmente uma interface de hardware ou de sistema operativo, é geralmente
chamado de emulador. Por exemplo, a máquina virtual Java, que constrói um ambiente
completo para execução de bytecodes a partir de um processador real que não executa
bytecodes, pode ser considerada um emulador.

A virtualização abre uma série de possibilidades interessantes para a composição de um


sistema de computação, como por exemplo (figura 4):

• Emulação de hardware: um sistema operativo convidado e suas aplicações, desenvolvidas


para uma plataforma de hardware A, são executadas sobre plataforma de hardware distinta
B.

• Emulação de sistema operativo: aplicações construídas para um sistema operativo X são


executadas sobre outro sistema operativo Y.

• Otimização dinâmica: as instruções de máquina das aplicações são traduzidas durante a


execução em outras instruções mais eficientes para a mesma plataforma.

• Replicação de hardware: são criadas varias instâncias virtuais de um mesmo hardware real,
cada uma executando seu próprio sistema operativo convidado e as suas respetivas aplicações.

18
Figura 4 - Possibilidades de virtualização
Fonte: Mazero (2019)

3.2.3. Virtualização versus abstração

Embora a virtualização possa ser vista como um tipo de abstração, existe uma clara diferença
entre os termos “abstração” e virtualização” no contexto de sistemas operativos (Mazero,
2019). Um dos principais objectivos do sistema operativo é oferecer uma visão de alto nível
dos recursos de hardware, que seja mais simples de utilizar e menos dependente das
tecnologias subjacentes. Essa visão abstrata dos recursos é construída de forma incremental,
em níveis de abstração crescentes.

No subsistema de arquivos, por exemplo, cada nível de abstração trata de um problema:


interação com o dispositivo físico, escalonamento de acessos ao dispositivo, gestão de buffers
e caches, alocação de arquivos, diretórios, controle de acesso, etc.

Por outro lado menciona ainda (Mazero, 2019) que a virtualização consiste em criar novas
interfaces a partir das interfaces existentes. Na virtualização, os detalhes de baixo nível da
plataforma real não são necessariamente ocultos, como ocorre na abstração de recursos.

A figura 5 ilustra essa diferença: através da virtualização, um processador Sparc pode ser
visto pelo sistema convidado como processador Intel. Da mesma forma, um disco real no
padrão SATA pode ser visto como vários discos menores independentes, com mesma
interface (SATA) ou outra interface (IDE).

19
Figura 5 - Virtualizaçao de recursos de hardware
Fonte: Mazero (2019)
A figura 6 ilustra outro exemplo dessa diferença no contexto de armazenamento em disco. A
abstração provê às aplicações o conceito de “arquivo”, sobre o qual estas podem executar
operações simples como read5 ou write6. Enquanto que a virtualização fornece a camada
superior apenas um disco virtual, construído a partir de um arquivo do sistema operacional
real subjacente. Esse disco virtual terá de ser particionado e formatado para o seu uso, da
mesma forma que um disco real.

Figura 6 - Abstração vs Virtualização


Fonte: Mazero (2019)
3.3. Virtualização
Segundo Junior, Vimercati, Simão, Franzoni, & da Silva (2014) à Virtualização consiste no
compartilhamento do hardware por um ou mais sistemas operativos em mesmo equipamento,
funcionando em ambientes independentes e isolados, através de um software que permite a

5
É uma operação comumente utilizada em computação para a leitura de dados.
6
É uma operação utilizada para a escrita de dados em memória.
20
criação de máquinas virtuais. Por serem mais máquinas em um mesmo equipamento físico,
gastos com a manutenção física dos equipamentos e consumo de energia ambiente,
consequentemente, necessita-se de uma utilização menor dos equipamentos de refrigeração.

Já a VMware (2020) empresa líder em soluções de tecnologia de virtualização define


virtualização como o processo de criação de uma representação com base em software, ou
virtual, de algo como aplicativos virtuais, servidores, armazenamento e redes. Essa é a
maneira mais eficaz de reduzir as despesas de TI e, ao mesmo tempo, aumentar a eficiência e
a agilidade para empresas de todos os portes.

Para Veras (2009) A virtualização pode ser conceituada de duas principais formas:

• É o particionamento de um servidor físico em vários servidores lógicos. Na Figura 7 cinco


servidores são substituídos por um servidor virtual e, portanto, a taxa de consolidação é de
5:1.

Figura 7 – Virtualização

Fonte: Adaptado pelo Autor

• É uma camada de abstração entre o hardware e o software que protege o acesso direto do
software aos recursos físicos do hardware. A virtualização permite que a camada de software
(aplicações e sistema operativo) seja isolada da camada de hardware. Normalmente a
virtualização é implementada por um Software.

“A virtualização simplifica o gestão e permite flexibilizar e ampliar o poder de


processamento. Funcionalidades contidas nos softwares de virtualização também permitem
melhorar a disponibilidade e a recuperação de desastres de ambientes de TI de uma maneira
21
mais simples e com menor custo quando comparado a formas tradicionais” (Veras,
Virtualização: Componente Central do Datacenter, 2009).

Figura 8 - arquitectura de virtualização

Fonte: Veras (2009)

Segundo Tanembaw (2007), “o conceito de virtualização se da pela possibilidade de estender


ou comutar um recurso, ou uma interface existente, por outro a fim de obter comportamento
semelhante”. Afirma ainda Tanembaw (2007) “que a partir de um hardware físico, podemos
emular diversos hardwares virtuais, as chamadas máquinas virtuais”.

A utilização da virtualização tem-se revelado uma alternativa interessante em diversos


paradigmas da computação. Actualmente não faltam motivações para o uso de virtualização.
Algumas das motivações são a centralização e consolidação de carga de diversos servidores
subutilizados em poucos ou apenas um servidor (consolidação de servidores), possibilidade de
executar software legado que não funciona recentemente, em hardware recente em máquinas
virtuais que simulem hardware compatível, criação de ambientes seguros e isolados para
execução de aplicações não confiáveis, debugging/monitoramento de aplicações sem interferir
no ambiente de produção, facilidade de migração das aplicações e servidores, economia
atraente em hardware, uso de energia, custos de gestão, e suporte de tolerância a falhas, na
medida em que evita custos com interrupção de serviço e perda de dados (Arriel, 2014).

3.3.1. Máquina Virtual

Na sua obra “Vantagens e desvantagens na utilização de software de virtualização em


servidores de empresas de pequeno e medio porte: estudo de casos em faculdades
particulares no Recife” Fábio defende que “o conceito de máquinas virtuais(Virtual
Machines - VMs) é um único servidor real ser dividido em máquinas virtuais, onde cada

22
máquina terá sua “própiá” memória, hardware virtual, drives, imagens de drives, USB,
processador(es) e outros recursos”.

“Uma máquina virtual (VM) pode também ser definida como uma duplicata eficiente e
isolada de uma máquina real. Os recursos de processamento, memória e outros são
virtualizados. Essa abstração é construída através de um monitor de maquina virtual”
(Mazero, 2019).

“A diferença entre uma máquina virtual e um servidor físico não pode ser notada por um
sistema operativo, muito menos por aplicações ou outros computadores na rede. A máquina
virtual é constituída por software e não contém componentes de hardware. Como resultado, as
máquinas virtuais oferecem a vantagem da flexibilidade em comparação com o hardware
físico” (Veras, 2009).

Figura 9 - Máquina Virtual

Fonte: Veras (2009)

3.3.2. Tipos de Máquinas Virtuais

Conforme as características do ambiente virtual proporcionado, as máquinas virtuais podem


ser classificadas em três categorias:

• Máquinas virtuais de sistema: são ambientes de máquinas virtuais construídos para emular
uma plataforma de hardware completa, com processador e periféricos.

este tipo de máquina virtual suporta sistemas operativos convidados com aplicações
convidadas executando sobre eles. Como exemplos desta categoria de máquinas virtuais
temos os ambientes KVM, VMware e VirtualBox.

23
• Máquinas virtuais de Sistema operativo: são construídas para suportar espaços de
utilizadores distintos sobre um mesmo sistema operativo. Embora compartilhem o mesmo
núcleo, cada ambiente virtual possui seus própios recursos lógicos, como espaço de
armazenamento, mecanismos IPC e interfaces de redes distintas. Os sistemas Docker, Solaris
Container e FreeBSD Jails implementam este conceito.

• Máquinas virtuais de processo: também chamadas de máquinas virtuais de aplicação ou de


linguagem, são ambientes construídos para prover suporte de execução a apenas um processo
ou aplicação convidada especifica. Exemplo: máquina virtual Java.

Figura 10 - Categorias das Máquinas virtuais


Fonte: Mazero (2019)
Os ambientes de máquinas virtuais também podem ser classificados de acordo com o nível de
similaridade entre as interfaces de hardware do sistema convidado e do sistema real (ISA-
Instruction Set Architecture):

• Interfaces equivalentes: a interface virtual oferecida ao ambiente convidado reproduz a


interface de hardware do sistema real, permitindo a execução de aplicações construídas para o
sistema real. Como a maioria de instruções do sistema convidado pode ser executada
diretamente pelo processador(com exceção das instruções sensíveis), o desempenho obtido
pelas aplicações convidadas pode ser próximo do desempenho de execução no sistema real.
Ambientes como VMware são exemplos deste tipo de ambiente.

• Interfaces distintas: a interface virtual não tem nenhuma relação com a interface de
hardware do sistema real, ou seja, implementa um conjunto de instruções distinto, que deve
ser totalmente traduzido pelo hipervisor. Nestas situações a interpretação de instruções impõe
um custo de execução significativo ao sistema convidado. A máquina virtual Java e o
ambiente QEmu são exemplos dessa abordagem.

24
3.3.3. Benefícios da Virtualização

“Novos negócios exigem uma infra-estrutura de TI ágil e flexível para suportar a dinâmica
dos processos. O uso da virtualização pode trazer grandes benefícios para a organização com
a adequação da infra-estrutura de TI ao negócio, mas requer planeamento e aquisição de
novos recursos” (Veras, 2009).

Segundo (Veras, 2009) os prováveis benefícios obtidos com a virtualização são:

• “Redução do TCO7: O TCO pode ser reduzido com o uso da técnica de virtualização. Os
fabricantes disponibilizam ferramentas que permitem o cálculo do TCO considerando a
comparação de uma infra-estrutura de TI com e sem virtualização”.

Em geral é simples de justificar um projeto de virtualização utilizando a abordagem de TCO,


tanto para a actualização da infra-estrutura física já existente como também para a construção
de uma nova infra-estrutura. A redução do TCO tem a ver com os seguintes aspectos:

• “Redução do uso do espaço físico: a utilização da virtualização permite a redução do


espaço físico, na medida em que considera a utilização de menos servidores como solução.
também a consolidação das estruturas de storage8 e backup9, quase sempre contempladas num
projeto de virtualização de servidores, acaba reduzindo a utilização do espaço como um todo”.

• “Redução do consumo de energia: quase sempre junto com a consolidação física vem a
redução do consumo de energia. Servidores são os responsáveis pelo maior consumo de
energia entre os equipamentos de TI, e a consolidação acaba por reduzir o consumo de
energia”.

• “Isolamento dos ambientes de testes, desenvolvimento e produção: em muitas


instalações construir ambientes físicos diferentes para os ambientes de teste, desenvolvimento
e produção pode ser muito caro. A utilização da virtualização permite otimizar o uso dos
recursos, pois permite que estes ambientes existam de maneira completamente isolada,
mesmo estando em poucos servidores físicos”.

• “Flexibilidade na criação de novas máquinas virtuais: as máquinas virtuais podem ser


criadas de forma automática em servidores já existentes. Na prática, a demanda por um novo

7
Total Cost of Ownership em português custo total de propriedade, é um dos indicadores chave na gestão. Este
indicador considera não só os custos fixos, mas também os custos variáveis.
8
Dispositivo físico ou lógico de armazenamento, é geralmente o espaço onde os dados processados num sistema
computacional são armazenados;
9
Cópia de segurança;
25
servidor físico que dependeria de aprovação, compra, entrega, etc. pode ser atendida por uma
máquina virtual pronta para rodar”.

• “Padronização das plataformas: na medida em que o hipervisor passa a ser o elemento


central do servidor virtualizado, todo o esforço de padronização de plataforma fica
simplificado, pois a relação com o hardware se dá através dele”.

• “Viabiliza a Cloud Computing 10e o datacenter dinâmico: a virtualização é o componente


central do Datacenter dinâmico, que, por sua vez, viabiliza a Cloud computing. A Cloud
Computing e o datacenter dinâmico se viabilizam na medida em que as soluções de
virtualização avancem nos aspetos referentes a balanceamento de carga dinâmica, recuperação
de falhas, Segurança e interoperabilidade de sistemas diferentes”.

3.3.4. Categorias de Virtualização

Uma forma de entender a virtualização é entender que ela consiste em estender ou substituir
um recurso ou uma interface existente por outro, de modo a imitar um comportamento. Isso é
feito através de uma camada de software responsável por transformar ações de um sistema A
em ações equivalentes em um sistema B. Dependendo de como e onde essa transformação é

feita, é possível classificar os softwares de virtualização em três grandes categorias(Veras,


2009).

• “Nível de hardware: a camada de virtualização é posta diretamente sobre a máquina física


e a apresenta às camadas superiores como um hardware abstrato similar ao original.
Corresponde à definição original de máquina virtual dos anos 60”.

• “Nível de sistema operativo: a camada de virtualização é um mecanismo que permite a


criação de partições lógicas em uma plataforma de maneira que cada partição seja vista
como uma máquina isolada, mas que compartilha o mesmo sistema operativo. Nesse caso, a
camada de virtualização se insere entre o sistema operativo e as aplicações”.

• “Nível de linguagens de programação: a camada de virtualização é um programa de


aplicação do sistema operativo. O objectivo é definir uma máquina abstrata sobre a qual
executa uma aplicação desenvolvida em uma linguagem de programação de alto nível
específico”.

10
Cloud computing é um modelo de computação na qual os elementos de infra-estrutura de TI são
disponibilizados em demanda. O termo em inglês Pay As You Go descreve esta tecnologia de uma forma simples
que é: pague apenas pelos recursos demandados pelo negócio. Neste modelo os recursos de TI são utilizados de
forma eficiente e com maior agilidade.
26
3.3.5. Limitações da Utilização da Virtualização

Segundo (Veras, 2009) as principais limitações e dificuldades apontadas para utilizar a


virtualização são:

➢ “Aplicativos de carga excessiva: aplicativos de carga excessiva, incluindo sistemas


gerenciadores de bancos de dados, podem ser um fator limitante. Considerando que sempre
existe uma perda de desempenho introduzida pelo hipervisor”.

➢ “Gestão do licenciamento: o gestão do licenciamento pode ser um fator limitante. É


necessário saber exatamente a regra para cada aplicação e isto é feito de maneira diferente
pelos diversos fabricantes. Em uma determinada situação de carga, o licenciamento é
válido, em outro, que utiliza uma outra configuração de hardware, pode não ser”.

➢ “Falta de profissional especializado: como a virtualização é relativamente nova, ainda


existem poucos profissionais experientes que dominem a técnica e as opções comerciais
disponíveis. Este aspeto deve ser considerado quando da escolha do software de
virtualização”.

3.3.6. Máquina Virtual de Sistema ou Hipervisor

Neste caso a máquina virtual oferece um ambiente de execução completo onde podem
coexistir um sistema operativo e vários processos, possivelmente de diferentes utilizadores.
Dessa forma, uma única plataforma de hardware pode executar múltiplos sistemas operativos
hóspedes, um em cada máquina virtual, simultaneamente.

“O hipervisor é a plataforma de máquina virtual. Suas principais funções consistem em


agendamento, gerência da memória e manutenção do estado da máquina virtual. Também
permite criar partições para as máquinas virtuais, mantendo o isolamento entre as
partições”(Veras, 2009).

Ressalta ainda Reis (2016) que “um Hipervisor é o software utilizado para realizar o gestão
das máquinas virtuais. Também são conhecidos como VMM. Os hipervisores foram
desenvolvidos a partir do início dos anos 70 para rodar em mainframes, e são disponibilizados
actualmente para PC por diversos fabricantes”.

“O desempenho e a escalabilidade do hipervisor definem a qualidade da virtualização.


Segurança sobre os recursos virtualizados e agilidade de reconfigurar recursos
computacionais sem interromper as operações do servidor de máquinas virtuais são algumas
das características necessárias ao hipervisor” (Reis, 2021).

27
Segundo Veras (2009) Os hipervisores para efeito de simplificação podem ser classificados
em dois tipos:

3.3.7. Hipervisores Tipo 1 e Tipo 2

Segundo (Veras, 2009), Existem muitos tipos e modelos de virtualização, mas irei tratar de
apenas dois deles:

Tipo 1 – 11Baremetal

Hipervisor que funciona diretamente no hardware do servidor, também conhecido como


baremetal. Controla o hardware e o acesso do SO convidado (guest). O papel do Hipervisor
nativo é compartilhar os recursos de hardware entre as máquinas virtuais de forma que cada
uma delas imagina ter recursos exclusivos. São aqueles que rodam diretamente sobre o
hardware de uma máquina real e as máquinas virtuais são postas sobre ele.

“A função básica de um Hipervisor nativo é compartilhar os recursos de hardware


(processador, memória, meios de armazenamento e dispositivos de I/O) entre as diferentes
máquinas virtuais de forma que cada uma delas tenha a ilusão de que esses recursos são
privativos a ela” (Veras, 2009).

Esse tipo de Hipervisor corresponde ao originalmente implementado nos sistemas IBM, no


início da década de 70. Exemplos: VMware ESX Server, Microsoft Hyper-V e Citrix Xen
Server. Uma variação do tipo 1 é o embeeding Hipervisor, que é instalado no firmware (como
o VMware ESXi12). Este Hipervisor é de pequeno tamanho e tem um impacto mínimo nos
recursos e no desempenho do servidor físico (Veras, 2009).

Existem dois tipos de Hipervisors tipo 1: Hipervisor monolítico e hipervisor


Microkernelizado (Veras, 2009), conforme ilustra a figura a seguir:

11
Servidor físico, em que um sistema operativo pode ser instalado diretamente.
12
virtualiza o servidor, o armazenamento e a rede, permitindo a execução de vários aplicativos em máquinas
virtuais no mesmo servidor físico.
28
Figura 11 - Arquitectura Monolítica (a) versus Microkernelizada (b)

Fonte: Veras (2009)

O hipervisor monolítico precisa de uma grande quantidade de código entre os recursos de


hardware e as VMs, porque este tipo de hipervisor emula todo o hardware para as VMs. Nesta
opção os drivers estão no próprio hipervisor. Enquanto que o hipervisor microkernelizado,
utiliza drivers na própria máquina virtual e a única camada entre o SO convidado e o
hardware é o hipervisor. Este hipervisor não utiliza drivers de terceiros. Os drivers estão na
própria máquina virtual no entanto este tipo de hipervisor tem mais segurança em sua
arquitectura, devido a sua superfície de ataque mínima.

Tipo 2

“É uma aplicação que fornece um ambiente de execução para outras aplicações. Roda sobre
um sistema operativo nativo como se fosse um processo deste. a camada de virtualização é
composta por um sistema operativo convidado possivelmente diferente do sistema operativo
nativo, e por um hardware virtual criado sobre os recursos de hardware oferecidos através do
SO nativo” (Veras, 2009). Um exemplo é a máquina virtual Java (JVM) Virtual Box e
VMware Workstation .

Segundo Veras (2009) “Existem algumas soluções de virtualização que utilizam um


Hipervisor híbrido com características dos dois tipos mencionados”. A implementação das
máquinas virtuais não é uma tarefa tão simples quanto parece além da preocupação direta com
desempenho, existe o problema de como os recursos físicos da máquina são compartilhados
entre o sistema nativo e o sistema convidado sem que um interfira em outro, a começar pelo
próprio processador (Veras, 2009). O problema fundamental consiste no que fazer quando o

29
sistema convidado executa instruções privilegiadas, já que essas, por uma questão de proteção
do sistema, são exclusivas do sistema nativo. A ação a ser tomada depende de recursos
oferecidos pela arquitectura do processador (hardware). Como teorema aceito em computação
tem-se que qualquer instrução que possa afectar o comportamento do sistema deve ser
monitorada e tratada adequadamente.

Para melhor entender o problema do privilégio da execução das instruções é interessante


entender a arquitectura x86. A arquitectura x86 provê quatro modos de operação para o
processador, identificados de 0 a 3, denominados de anéis de proteção (Rings) ou CPL
(Current Privilege Level). Nos sistemas operativos convencionais (Microsoft Windows e
UNIX), para esse tipo de arquitectura apenas dois modos são usados: o Ring 0, que detém os
maiores privilégios de execução, é usado pelo sistema operativo, e o Ring 3, de menor
privilégio, é empregado pelos processos de utilizador. Se um processo de utilizador tentar
executar uma instrução privilegiada ocorrerá uma exceção (trap) que deverá ser tratada
adequadamente. Entretanto, a arquitectura x86 possui dezessete instruções sensíveis que não
são privilegiadas em termos de arquitectura, mas que são privilegiadas na prática e que podem
acessar o processador diretamente sem gerar exceções (traps). Esta era a grande dificuldade
com a virtualização na plataforma x86.

A VMware resolveu o desafio em 1998 desenvolvendo técnicas de translação binária que


possibilitaram o VMM rodar no Ring 0 para isolação e desempenho, enquanto moveu o SO
para um nível de utilizador com mais privilégios de que as aplicações de utilizador em Ring 3,
mas com menos privilégios do que o VMM no Ring 0.

Na prática, fazer a virtualização funcionar na arquitectura x86 é alterar os níveis de privilégios


padrões de execução da arquitectura x86. A Figura 6 ilustra a arquitectura típica de um
processador.

Figura 12 - Hierarquia na Arquitectura de processador x86, Fonte: Veras (2009)

30
3.3.8. Técnicas de Virtualização

Segundo (Veras, 2009) as técnicas de virtualização podem ser classificadas em três tipos na
arquitectura x86:

• Virtualização total baseada em translação binária;

• Para-virtualização ou virtualização assistida pelo sistema operativo;

• Virtualização assistida pelo hardware.

3.3.9. Virtualização Total

A virtualização total realiza a completa abstração do sistema físico e cria um sistema


virtual completo. Não é necessário fazer qualquer modificação no SO ou na aplicação
que está rodando nesta modalidade. Este tipo de virtualização facilita a migração de
máquinas virtuais entre servidores físicos, pois existe total independência das
aplicações e dos recursos físicos do servidor. Também a segurança é facilitada pela
isolação entre as máquinas virtuais. O desempenho neste caso pode ser prejudicado,
pois o hipervisor controla todo processo e toda a chamada ao hardware é feita sob a
sua supervisão (Veras, 2009).

“O principal benefício da virtualização total é justamente o fato de que o sistema a ser


virtualizado não sofre qualquer tipo de alteração; em compensação, o sistema virtualizado
executa de forma mais lenta e o monitor de máquinas virtuais precisa implementar
alternativas para que as operações privilegiadas possam ser executadas em processadores que
não suportem a virtualização nativamente, tais como os processadores Intel 32 bits
disponíveis actualmente” (Lima, Danilo, & Silva, 2012).

A virtualização total é uma combinação de técnicas de translação binária e execução direta. O


sistema operativo convidado é completamente abstraído e isolado do hardware. A
virtualização total não requer qualquer modificação no hardware ou no sistema operativo. A
figura 7 ilustra a arquitectura de privilégios no x86 para a virtualização total. Observe que o
sistema operativo convidado roda no ring 1.

31
Figura 12 - arquitectura de privilégios no x86 para a virtualização total

Fonte: Veras (2009)

Menciona ainda (Veras, 2009) que existem alguns inconvenientes para a virtualização total:

• “As instruções, por não serem modificadas, precisam ser testadas pelo hipervisores para
saber se são sensíveis ou não. As instruções sensíveis devem ser intercetadas e emuladas no
sistema nativo, para evitar que a máquina virtual altere o comportamento do sistema”.
• “A máquina virtual possui suporte de conjunto genérico de dispositivos devido à
diversidade de dispositivos existentes. Pode-se ter subutilização de recursos quando
comparado ao hardware real. Os dispositivos são genéricos e, portanto, perdem
desempenho”.
• “Existem alguns problemas técnicos relativos à implementação da gerência de memória”.

A virtualização total consiste em prover uma réplica (virtual) do hardware subjacente


de tal forma que o sistema operativo e as aplicações possam executar como se
estivessem diretamente sobre o hardware original. A grande vantagem é que o sistema
operativo convidado não precisa ser modificado para rodar sobre o monitor de
máquina virtual (VMM) ou hipervisor(Veras, 2009). a figura 8 ilustra a arquitectura na
virtualização total.

32
Figura 13 - arquitectura da virtualização total

Fonte: Veras (2009)

3.3.10. Para-virtualização

Segundo Veras (2009) à Para-virtualização surgiu como uma forma de contornar as


desvantagens de uso da virtualização completa, no que diz respeito ao processamento.
A máquina virtual enxerga uma abstração do hardware que não é idêntico ao hardware
físico. Os dispositivos de hardware são acessados por drivers de dispositivo do próprio
hipervisor, o que é interessante, pois otimiza o desempenho. o problema é que a Para-
virtualização requer modificação do sistema operativo convidado.

A para-virtualização embora exija que o sistema a ser virtualizado precise ser


modificado, o que diminui a portabilidade do sistema – permite que o sistema
convidado consiga acessar recursos do hardware diretamente. O acesso é monitorado
pelo monitor de máquinas virtuais, que fornece ao sistema convidado todos os
“limites” do sistema, tais como endereços de memória que podem ser utilizados e
endereçamento em disco, por exemplo, Citado por (Lima, Danilo, & Silva, 2012).

O Xen Open Source é um exemplo de sistema baseado em Para-virtualização que virtualiza o


processador e a memória, usando o núcleo modificado do Linux e virtualizando o I/O com
drivers de dispositivos customizados.

“A Para-virtualização é uma alternativa para contornar os problemas de desempenho da


virtualização total. No caso da Para-virtualização, o sistema convidado é alterado para chamar
a máquina virtual sempre que for executar uma instrução sensível” (Veras, 2009). As
instruções de utilizador não precisam ser alteradas e podem ser executadas diretamente sobre
o processador nativo. A Figura 9 ilustra a Para-virtualização no x86.

33
Figura 14 - Para-virtualização no x86

Fonte: Veras (2009)

Porém citado de Melo Costa, & Silva (2012) “que a vantagem da para-virtualização vem do
fato de que diminui a dificuldade dos desenvolvimentos das máquinas virtuais, trazendo uma
compensação pelas modificações sofridas nos sistemas convidados”.

A arquitectura da Para-virtualização é mostrada na figura 10. Observe que os sistemas


operativos convidados são modificados. Sem dúvida, este é um aspecto da Para-virtualização
que dificulta a sua adoção. Os fornecedores de sistema operativo deveriam oferecer duas
versões dos seus sistemas, uma delas adequada à Para-virtualização.

Figura 15 - Arquitectura para a Para-virtualização

Fonte: Veras (2009)

“A para-virtualização reduz a complexidade do desenvolvimento das máquinas virtuais, já


que, historicamente, os processadores não suportam a virtualização nativa. A performance
obtida, a principal razão para utilizar a para-virtualização, compensa as modificações que
serão implementadas nos sistemas convidados” citado por (Lima, Danilo, & Silva, 2012).

34
3.3.11. Virtualização Assistida por Hardware

“Os fabricantes Intel e AMD investiram em extensões na arquitectura x86 para suportar a
virtualização e melhorar o desempenho da solução como um todo” (Mazero, 2019).

Este movimento da AMD e da Intel praticamente eliminou as vantagens de


desempenho dos sistemas baseados em Para-virtualização que tinham o penalty de ter
que modificar o SO para funcionar. Em relação aos sistemas do tipo virtualização total
utilizado pela VMware, a primeira geração deste tipo de virtualização perdia em
desempenho para a virtualização total baseada em translação binária, mas os
fabricantes continuam melhorando a performance do processador x86 em ambientes
virtualizados. Em função da rigidez de programação, só novos sistemas x64 permitem
que sistemas originalmente desenvolvidos para virtualização total façam também a
virtualização assistida pelo hardware e assim melhorem o desempenho da
virtualização (Veras, 2009).

“No nível do processador tanto Intel (Intel VT) como AMD (AMD -V) fizeram um esforço
para alterar os modos de operação do processador, os anéis (Rings) de proteção identificados
de 0 a 3. Hipervisor passou a rodar em um anel abaixo do ring 0, criado especificamente para
melhorar o desempenho de servidores x86 virtualizados” (Veras, 2009). ou seja, o hipervisor
passou a ter total prioridade sobre o sistema operativo. A Figura 11 ilustra a virtualização
assistida pelo hardware.

Figura 16 - virtualização assistida pelo hardware

Fonte: Veras (2009)

3.3.12. Impactos da Virtualização na Infra-estrutura de TI

Em sua obra Virtualização o Componente Central do Data Center (Veras, 2009) apresenta
aqueles que considera como os impactos do uso das tecnologias de Virtualização na Infra-
35
estrutura de TI. “Primeiramente ele aborda assuntos tocantes ao ritmo e as mudanças
tecnológicas no cenário global e conseguinte a demanda por soluções estáveis e flexíveis de
modo que suportem o crescimento dos negócios e por ultima a agilidade trazida pelas
tecnologias de virtualização, abaixo serão abordados estes três pontos com mais exatidão”:

➢ Impacto 1: O ritmo das mudanças no cenário globalizado exige das organizações uma
maior flexibilidade para inovar e, portanto, a manutenção de uma infra-estrutura de TI cada
vez mais adaptável. As mudanças alteram os processos organizacionais que, por sua vez,
alteram as necessidades de infra-estrutura de TI. Por exemplo, determinada empresa acaba de
ser adquirida por outra. A rapidez necessária para aperfeiçoar e adequar os novos processos
das duas organizações, agora transformadas em uma, exige que a infra-estrutura de TI esteja
pronta para a mudança.

➢ Impacto 2: As organizações buscam construir plataformas digitais mais estáveis que


permitam o crescimento mesmo em ambientes turbulentos. Parece contraditório mas não é, o
que se quer é o melhor dos dois mundos: plataformas estáveis e flexíveis. Pode-se pensar em
arquitecturas e infra-estrutura que suportem o crescimento do negócio. A virtualização, neste
contexto, é uma peça chave, pois permite alterar a infra-estrutura rapidamente utilizando
instrumentos lógicos e não físicos, ao mesmo tempo que estabiliza o ambiente tornando as
aplicações independentes do hardware.

➢ Impacto 3: Assim, a virtualização desvincula as aplicações e o sistema operativo dos


recursos físicos e acaba por agilizar e permitir o surgimento da plataforma digital. Servidores
virtuais são mais fáceis de serem instalados, gerenciados e migrados para o novo ambiente.
Também os ambientes de teste e desenvolvimento, necessários para a manutenção de
aplicações empresariais, são facilmente montados com a otimização dos recursos acarretada
pela virtualização.

3.3.13. Principais fornecedores e ambientes de virtualização

Esta seção apresenta os principais fornecedores e alguns exemplos de ambientes de


virtualização. Dentre eles há ambientes de virtualização de aplicações e de sistemas, com
virtualização total ou para virtualização e abordagens híbridas. Segundo (Mazero, 2019)
estes foram escolhidos por estarem entre os mais representativos de suas respectivas classes.

➢ Fornecedores: Segundo Veras (2012) “Os principais fornecedores de software de


virtualização para servidores empresariais são a VMware, a Microsoft e a Citrix”.

Wmware: vmware ESXi, ESX e Vmware vSphere.


36
Microsoft: Hyper-V e Microsoft Windows Server com Hyper-V.
Citrix: Xen Server; Citrix Essentials for Hyper-V e Citrix Essentials for Xen Server.

Existem outros fornecedores como a Red Hat, Parallels, Oracle e Novell. Estas
empresas comercializam os softwares de virtualização de diversas formas e com
diversas funcionalidades. Pesquisa realizada pelo Enterprise Strategy Group com 365
respondentes de grandes organizações nos Estados Unidos, em 2008, indicou que
todas as organizações pesquisadas já utilizam a virtualização de alguma forma. A
maioria das organizações utiliza o software da Vmware como principal ferramenta de
virtualização, seguido da Microsoft e da Citrix (Veras, 2009).

3.3.14. Ambientes de virtualização

Vmware: O hipervisor da Vmware é um dos mais difundidos, provendo uma


implementação completa da interface x86 ao sistema convidado. Embora essa
interface seja extremamente genérica para o sistema convidado, acaba conduzindo a
um hipervisor mais complexo. Como podem existir vários sistemas operativos em
execução sobre o mesmo hardware, o hipervisor tem que emular certas instruções para
representar corretamente um processador virtual em cada máquina virtual , fazendo
uso intensivo dos mecanismos de tradução dinâmica (Mazero, 2019). Actualmente a
empresa Vmware produz vários hipervisores, entre eles:

• Vmware ESXi Server: hipervisor nativo para servidores de grande porte, possui um núcleo
proprietário chamado vmkernel e utiliza Linux para prover outros serviços, tais como o
gestão de utilizadors.

• Vmware Workstation: hipervisor convidado para ambientes desktop;

O Vmware Workstation utiliza as estratégias de virtualização total, tradução dinâmica e o


suporte de hardware, quando disponível. O Vmware ESXi Server implementa também para
virtualização. Por razões de desempenho, o hipervisor do Vmware uma abordagem híbrida
para implementar a interface do hipervisor com as máquinas virtuais. O controle de exceção e
o gestão de memória são realizados por acesso direito ao hardware, mas o controle de
entrada/saída usa o sistema hospedeiro. Para garantir que não ocorra nenhuma colisão de
memória entre o sistema convidado e o real,o hipervisor Vmware aloca uma parte da
memória para o uso exclusivo de cada sistema convidado.

Para controlar o sistema convidado, o Vmware intercepta todas as interrupções do sistema


convidado. Sempre que uma exceção é causada no nó convidado, é examinada primeiro pelo
37
hipervisor. As interrupções doe entrada/saída são remetidas para o sistema hospedeiro, para
que sejam processadas corretamente. As exceções geradas pelas aplicações no sistema
convidado(como as chamadas de sistema) são remetidas para o sistema convidado.

Citrix Xen Server: O ambiente Xen é um hipervisor nativo para a plataforma x86 que
implementa a para virtualização. Ele permite executar sistemas operativos como Linux e
Windows especialmente modificados para executar sobre o hipervisor (Mazero, 2019).
Versões mais recentes do sistema Xen utilizam o suporte a virtualização disponível nos
processador atuais, o que torna possível a execução de sistemas operativos convidados sem
qualquer modificação, embora com um desempenho ligeiramente menor que no caso e
sistemas paravirtualizados. De acordo com seus desenvolvedores o custo e impacto das
alterações nos sistemas convidados são baixos e a diminuição do custo da virtualização
compensa essas alterações: a degradação media de desempenho observada em sistemas
virtualizados sobe plataforma Xen não excede 5%.

3.4. Clusters de computadores


Benito (2011), cita em sua obra Análise de desempenho e implementação de um sistema
Cluster baseado em uma rede Ad Hoc que “os Clusters de Computadores são máquinas
construídas com utilização de dois ou mais microcomputadores comuns interligados por uma
rede de interconexão, que trabalham juntos para resolver um problema”.

O mesmo autor acrescenta ainda que um sistema cluster são vários dispositivos que,
conectados por uma rede, agem em conjunto para atingir um objectivo em comum. O
autor menciona ainda que uma das caracteristicas peculiares sobres o sistemas
distribuidos é passar uma imagem transaparente para usuario, como se houvesse
apenas um dispositivo trabalhando e não vários, continua ainda ressaltando que o
conceito de imagem única dita que um sistema paralelo ou distribuido, independente
de ser composto por vários processadores ou recursos geograficamente distribuídos,
deve comportar-se como um sistema centralizado do ponto de vista do utilizador.

“Conclui-se então que Cluster são vários computadores ou dispositivos autônomos que
operam em conjunto, interconectados por uma rede, para que o mesmo objectivo seja
alcançado, porém passando uma imagem para o utilizador de que apenas um computador
esteja trabalhando”.

38
3.4.1. Características de um Cluster

Um sistema cluster possui várias características, porém a mais importante, como dito
anteriormente é a transparência, ou seja, o sistema deve parecer centralizado em apenas um
dispositivo para o utilizador.

Outras características, não menos importantes como a transparência são apontadas por
(Benito, 2011):

• A configuração dos nós, onde os dispositivos podem ser multiprocessados ou


uniprocessados.
• Quanto à escalabilidade do sistema ela pode ser:
a) Absoluta: possibilidade de construção de um sistema onde a capacidade de processamento
supera a de dispositivos individuais.

b) Incremental: um sistema cluster pode ser formatado para ser expandido, ou seja,
incrementar a quantidade de nós no sistema.

• A disponibilidade, caso ocorra algum tipo de erro em um nó, os outros nós continuam
trabalhando para manter o sistema disponível.
• O custo/beneficio, dado a facilidade da construção de um sistema cluster, seja feito com
dispositivos antigos ou novos, é possível a construção de sistemas com alto poder
computacional e com custo menor se comparados a supercomputadores ou quaisquer
outros computadores de grande porte.
• E a utilização de hardware aberto, softwares livres e sem a necessidade de licenças de uso
torna o sistema independente de fornecedores.

3.4.2. Tipos de Cluster

Clusters normalmente são classificados quanto a sua aplicação final. Existem vários tipos de
cluster, porém, pode-se mostrar as classificações mais conhecidas em três categorias básicas:
Alta Disponibilidade (HA - High Availability), Alta Desempenho de Computação (High
Performance Computing) e Balanceamento de Carga (Load Balancing).

➢ Alta Disponibilidade: Cluster de alta disponibilidade tem o objectivo principal de manter


um sistema disponível o tempo todo sem falhas de indisponibilidade, assim “a alta
disponibilidade tem como função essencial deixar um sistema no ar vinte e quatro horas por
dia, sete dias por semana, ou que não suportem paradas de meia hora ou alguns minutos.”
(Benito, 2011).

39
Pode-se concluir então que, nos clusters de alta disponibilidade, os nós operam em conjunto para
que o serviço esteja sempre ativo, caracterizando assim uma alta disponibilidade.

Segundo Benito (2011), “a grande justificativa de utilizar cluster de alta disponibilidade surgiu de
empresas que necessitavam que seu serviço e/ou aplicação tivessem disponibilidade total. Se esta
não ocorresse, por exemplo, em uma loja virtual, clientes dessa empresa provavelmente teriam a
impressão de má qualidade de serviço”.

➢ Alto desempenho de Computação: “Esta categoria tem como foco, o desenvolvimento de


soluções cujo objectivo principal é o ganho de desempenho através do agrupamento de
sistemas de processamento, auxiliado por algoritmos de processamento paralelo.” (Benito,
2011).

Sendo assim, pode-se concluir que cluster de alto desempenho tem como objectivo a soma de
poder processamento para resoluções de problemas cuja carga a ser processada é elevada.

HPC funciona paralelizando a aplicação a ser processada, ou seja, dividindo a aplicação em


tarefas menores e a distribuindo entre os nós do sistema, cada nó processa sua parte e devolve
o resultado. Dessa maneira, tarefas muito grandes são processadas mais rapidamente e sem
custo excessivo se comparados a supercomputadores.

➢ Balanceamento de Carga: Nessa abordagem de cluster, baseado em balanceamento de


carga, o sistema tem a função de distribuir o trafego entre as máquinas do sistema. O cluster
de balanceamento de carga tem como propósito a distribuição igualitária de processos ao
longo dos nós do agrupamento de computadores. Evidentemente algoritmos de escalonamento
de processos se fazem necessários (Benito, 2011).

Cada nó do sistema é interligado e cada solicitação requerida a ele é distribuída de forma


equilibrada entre os nós, assim toda a carga é balanceada entre o sistema. Vale ressaltar que
esse tipo de cluster utiliza um algoritmo de escalonamento para que o sistema balanceie a
carga corretamente.

3.5. Backup
Eduardo Longhi Scopel (2018) cita que o backup pode ser definido como “cópia de segurança
dos dados de determinado dispositivo de armazenamento que pode ser espelhado em outro
dispositivo de forma a garantir a estabilidade dos arquivos e afastar a possibilidade de
surpresas como a perda desses dados.” Ainda de acordo com Eduardo Longhi Scopel (2018)
“a prática rotineira de backup é vista como algo chato para muitos. Por isso muitos gestores

40
de sistemas estão trabalhando na tarefa de simplificar e automatizar a tarefa de realização e
backup, para minimizar o tempo gasto”.

3.5.1. Tipos de backup

Segundo Adil (2021), “há, basicamente, três as metodologias para armazenamento de cópias
de segurança, Full (completo), Incremental e diferencial”. Vamos falar um pouco sobre cada
um deles.

➢ Backup Full (completo): É o mais simples e comum de ser usado, consiste em criar
uma cópia completa dos dados. Todos os arquivos da sua empresa são actualizados e não
apenas os novos ou modificados. Essa metodologia possui a vantagem de haver sempre uma
cópia completa de todos os dados do seu negócio, possibilita a recuperação total dos arquivos
de maneira ágil. A desvantagem aqui é que ele demanda muito mais tempo para ser feito e
muito mais capacidade de armazenamento.

➢ Backup Incremental: É o tipo de backup recomendado para empresas que possuem


grande volume de dados. Geralmente ele é realizado após um Backup completo, salvando
apenas os arquivos novos ou alterados. É um método que permite maior velocidade na criação
de cópias de segurança, levando muito menos tempo que o Backup completo. A sua
desvantagem é de que para restaurar o sistema ele necessita, recuperar antes os dados
completos e em seguida os incrementais e só então realizar a restauração dos arquivos,
levando mais tempo

➢ Backup Diferencial: Esse método é muito semelhante ao Incremental, visto que ele
também cria uma cópia dos arquivos alterados. A diferença aqui é que ele realiza uma cópia
desde o Backup completo de tudo que foi alterado desde então. Dessa forma, ele armazena
mais dados do que o incremental e exige mais espaço e tempo para ser realizado. Sua
vantagem é que para restaurar os arquivos ele o faz de forma mais rápida visto que ele usa
como referência o último Backup completo. Esse método é ideal para pequenas e médias
empresas, devido ao custo de armazenamento dos dados

41
CAPITULO IV – ESTUDO DE CASO

Neste capitulo será apresentado um rescaldo sobre a empresa, os componentes de TI assentes


a esta e a sua disposição. A seguir será apresentado os constrangimentos causados pela forma
como os recursos de TI são utilizados e a consequência da sua não actualização.

Trata-se de uma empresa com elevado nível de crescimento e com necessidades dinâmicas na
área de TI. No entanto é uma empresa que não dispõe de um perfil técnico para o
aconselhamento/planeamento para a evolução de TI, o que impede de certa forma que os
planos desta organização estejam alinhados com os planos de TI, tornando-se assim um bom
caso para aplicar os conhecimentos adquiridos durante a formação.

4. Descrição da instituição/enquadramento
O grupo Supermercados Ka Da Terra é uma empresa Moçambicana que actua na área de
compras e vendas à retalho. Actuando em Moçambique desde 2009, do momento o grupo Ka
Da Terra supermercados emprega cerca de 40 colaboradores e possui duas lojas,
nomeadamente: Ka Da Terra Interfranca e Ka Da Terra Caniço.

Nesta empresa devido a vários factores, existe uma incerteza sobre a qualidade e capacidade
evolutiva da sua infra-estrutura de TI. A sua documentação esta totalmente desactualizada, o
que faz com que qualquer problema possa causar grandes constrangimentos na continuidade
de negócio e levar a eventuais perdas de informação. As queixas por downtime estão
tendencialmente a aumentar e apesar de existir consciência dos riscos, estes não estão
devidamente identificados, nem existe qualquer tipo de plano de mitigação.

4.1. Cenário actual


Nesta fase realizou-se à análise da infra-estrutura de TI existente no Supermercado Ka Da
Terra. Tal foi feito através de análise da documentação existente e interação com a equipa
técnica de TI, os principais componentes da infra-estrutura que foram analisados são:
servidores, conectividade, armazenamento e as principais aplicações hospedadas pelos
servidores.

De acordo com informações que constam na documentação da infra-estrutura tecnológica


actual, a instituição possui uma rede de computadores e oferece diversos serviços como
acesso a internet, aplicações de venda(Primavera), aplicações de controle de assiduidade, base
de dados contendo diversas informações de funcionários e de vendas e de várias estações de
trabalho disponibilizando um conjunto de aplicações dos utentes.
42
Figura 17 - Infra-estrutura de servidores actual do Supermercado Ka Da Terra

Fonte: adaptado pelo Autor.

4.2. Serviços de rede da infra-estrutura actual do Supermercado Ka Da Terra


➢ ERP Primavera: O ERP primavera é uma solução de software de gestão que tem como
objectivo aumentar a produtividade dos negócios, tirando vantagem das tecnologias de
informação. Esta solução é maioritariamente utilizado por pequenas e medias empresas
consoante as suas necessidades especificas. Agrega todos os dados e processos relativos à
gestão de uma organização, divididos por áreas funcionais, como recursos humanos, finanças
faturação e logística. Esta solução permite que a empresa opere com maior rapidez e facilita
também na tomada de decisões uma vez que os gestores tem acesso aos dados relevantes para
o negócio em tempo real em um dashboard, além do mais este permite a desmaterialização e
automatização dos processos do negócio, tornando possível a redução de custos à empresa.

Este fenómeno aumenta a flexibilidade da empresa uma vez que todos os processos passam a
ser acedidos rapidamente e em qualquer altura. Com a utilização da faturação eletrónica, há
também redução dos custos e maior eficiência do processo administrativo. Por conta do

43
negócio assente (retalho), os módulos utilizados são: vendas, tesouraria, faturação, POS,
contabilidade e recursos humanos.

➢ Servidor de Email: responsável pelo armazenamento, envio e recebimento de mensagens


de correio eletrônico, este servidor é de extrema importância pois ele possibilita a
comunicação entre os colaboradores da corporação e outros stakeholders.

➢ Active Directory: é uma ferramenta da Microsoft para gestão de utilizadores denominada


serviço de diretório. Este sistema de diretório é basicamente uma base de dados que armazena
as informações dos computadores e utilizadores de uma organização, tais como nome, login,
senha, cargo, perfil e etc.

➢ Servidor de Câmeras IP(NVR): É um servidor especifico para gestão de grandes fluxos


de informação, especializado em gravar imagens de sistemas de monitoramento de vídeo.

➢ Sistema de controle de Assiduidade: Este sistema tem como finalidade registrar os


movimentos de entrada e saída do trabalhador, através de terminais de pontos digitais que
podem efetuar a leitura dos movimentos recorrendo a tecnologia biométrica.

➢ Servidor de Base de Dados: O servidor de base de dados tem como finalidade o


armazenamento de todos os dados de uma aplicação ou mais aplicações numa rede. Com isso
é possível ter uma gestão total entre cliente e servidor na manipulação dos dados e também
de constituir métodos de disponibilidade, distribuição de carga e segurança.

➢ Servidor de impressão: é responsável por controlar pedidos e gestão dos dispositivos de


impressão e fornecer drivers de impressoras dos computadores clientes.

4.2.1. Armazenamento e Rede

O armazenamento encontrado foi do tipo DAS, conforme descrito:

• Armazenamento local(DAS) em todos os servidores.

• Baixo desempenho do armazenamento, principalmente pelo tipo de disco adotado,


compromete o seu uso actual para as aplicações que requerem grande quantidade de I\O.

• Os servidores utilizam conectividade Gigabit Ethernet através de Switch de camada 2 do


tipo rack.

44
4.2.2. Servidores (Hardware)

Actualmente a organização tem quatro servidores físicos standalone. As características dos


servidores constam na tabela.

• Modelo RAM( CPU(G Cores NICs HDD(DAS)


GB) Hz)

Dell PowerEdge 2950 Gen II 16 2.2 2 2 2x146GB SAS


RAID

Dell PowerEdge R710 32 2.2 2 4 2X1TB SAS


RAID

HP ProLiant DL380 Gen 6 16 2.5 2 2 2x300GB SAS

HP ProLiant DL380 Gen 7 32 2.1 2 2 4x500GB SAS

Tabela 1 - Lista de Servidores Físicos existentes

Fonte: o Autor

4.3. Distribuição das aplicações/serviços entre os servidores físicos


O domain controller, serviços essenciais da LAN (DNS, DHCP, AD) e o servidor de email
Microsoft Exchange 2010, são hospedados pelo servidor físico HP ProLiant DL380 Gen 7. O
servidor físico Dell PowerEdge 2950 Gen II tem a função de servidor de ficheiros, e os
restantes servidores HP ProLiant DL380 Gen 6 hospeda o sistema de controlo de assiduidade
e finalmente o servidor físico Dell PowerEdge R710 que é responsável por hospedar o sistema
ERP e a sua base de dados, que por sua vez é um dos elementos cruciais para as operações
diárias.

4.3.1. Constrangimentos do Cenário actual

Como ilustra a figura 18, a infra-estrutura actual de TI possui uma gama de servidores físicos
que devem responder à algumas necessidades do negócio, desta feita foram identificados
variados constrangimentos causados pela estratégia utilizada para o uso destes servidores e
serviços, que afectam negativamente os negócios. A seguir são mencionados e explicados de
forma sucinta estes constrangimentos:

➢ Dificuldades no isolamento de aplicações: o isolamento de aplicações, para além de


oferecer mais segurança a infra-estrutura tecnológica, também garante melhor performance na
execução de aplicações. No entanto, no actual paradigma o isolamento de aplicações pode
45
acarretar custos elevados na aquisição de hardware, uma vez que sempre que é
disponibilizada uma aplicação é necessário adquirir um servidor novo para hospeda-la, acima
disto existe um leque de procedimentos a executar(procedimentos de procurement, envio do
equipamento, etc.) para que seja efectiva a configuração e posteriormente implantação de um
servidor, esta morosidade toda consequentemente impede que os serviços de TI sejam
entregues com agilidade.

➢ Indisponibilidade de serviços de TI: a crescente demanda por serviços flexíveis e


eficazes, torna a sociedade moderna dependente das tecnologias de informação e hoje em dia
não é aceitável que um sistema de TI se encontre indisponível. Apesar da pertinência deste
tópico que á disponibilidade a infra-estrutura, não é capaz de responder a este quesito
imprescindível no que tange a continuidade de negócios.

Como ilustra a figura referente a infra-estrutura actual, verifica-se uma situação em que cada
servidor está para uma aplicação e nenhum deste servidor esta replicado, o que significa que
estes sistemas possuem um único ponto de falha, logo eles não são tolerantes a falha.
Cenários práticos foram vivenciados pelo autor durante a sua observação, em que os
servidores sofreram de avarias tanto de hardware assim como de software, não havendo
pontos redundantes o serviço que é executado neste servidor era imediatamente interrompido
na hora de expediente. Isto não só afecta a produtividade dos colaboradores assim como
afecta a experiencia do cliente, uma vez que o procedimento de vendas se torna moroso.

➢ Ausência de ambiente para testes: em um ambiente corporativo possuir um ambiente


para testes é extremamente importante. Como é sabido de antemão, o mundo de tecnologia é
demasiadamente flexíveis, novas tecnologias são disponibilizadas dia-pós-dia, desta feita o
profissional de TI deve estar altamente actualizado para fazer face a este desenvolvimento
tecnológico e trazer as melhor soluções para os negócios. Portanto, apesar desta necessidade
eminente, a aquisição de equipamentos de hardware exclusivo para testes não seria custo-
eficaz, uma vez que a quantidade de tecnologias é extensa.

➢ Perda de informação: Constatou-se que os backups estão a ser realizados de forma ad-
hoc, ou seja, não há um plano de acção definido com os procedimentos operacionais para
salvaguardar e recuperar dados. Os backups não estão documentados nem testados e existe
uma grande incerteza na forma como estes estão a ser feitos. Alguns backups são realizados
via agendamento de scripts ou softwares que não oferecem garantias da integridade do
backup, nem funcionalidades de compressão ou deduplicação. Grande parte dos dados ativos
não são sequer salvaguardados, fazendo com que em caso de corrupção (Ex: ransomware,
46
falhas de corrente abruptas) ou falha do dispositivo de armazenamento a informação seja
impossível de recuperar por via de um restauro.

4.3.2. Conclusões sobre o levantamento da situação actual

O objectivo do levantamento foi de identificar inconformidades, problemas e necessidades na


infra-estrutura de servidores assentes nesta instituição de modo a arquitectar uma solução que
permita a responder às necessidades actuais e futuras da organização, numa visão holística e
alinhada de forma estratégica e sustentável com o negócio.

Constatou-se que apesar da organização possuir uma infra-estrutura de servidores que


responde a alguns requisitos de negócio, ela não consegue responder aos requisitos actuais,
assim como as perspectivas de crescimento(como por exemplo a adoção de comércio online
para responder face a situação pandémica, numa altura em que os cliente passam a realizar
compras remotamente para evitar aglomerados).

Actualmente a infra-estrutura de TI enfrenta vários problemas relativos a constrangimentos


causados pela presente e desactualizada arquitectura de TI. Ao longo desta fase, foram
identificados problemas críticos de urgente resolução causados por erros crassos e decisões de
certa forma negligentes (por exemplo a não existência de um plano de backups bem definido).
Para além de implementação de uma nova solução, devem ser tomadas decisões e realizadas
operações imediatas para a resolução de problemas críticos. No cenário presente a avaria de
um simples componente de hardware ou problema causado sobre os dados(como por exemplo
um ataque de ransomware) levará à indisponibilidade dos serviços e muito provavelmente a
perda permanente de informação, implicando assim na redução de produtividade dos
utilizadores e a imagem da empresa.

Com recurso a tecnologia de virtualização é possível melhorar a consolidação de servidores


físicos e aplicações. Pois ela permite maiores níveis de flexibilidade, escalabilidade e
segurança. A adoção da virtualização também facilita à criação de mecanismos de alta
disponibilidade com custo reduzido e permite maior retorno de investimento realizado nos
equipamentos de TI através de melhor aproveitamento da capacidade computacional dos
equipamentos.

47
CAPITULO V – PROPOSTA DA SOLUÇÃO

5. Proposta da solução
Como forma de resposta ao problema identificado no local do estudo, nesta seção do trabalho
será feita uma explanação de uma solução proposta pelo autor que demonstra e descreve
como a tecnologia de virtualização(VMware Vsphere ESXi 6.7) pode incrementar o nível de
disponibilidade dos servidores e melhorar a estratégia de backups.

5.1. Arquitectura física


Trata-se de uma arquitectura de 3 servidores, 2 switches, 1 storage e 1 servidor de backup, Na
qual deverá ser instalado o software vSphere 7.0 nos 3 servidores. Este software será
responsável por virtualizar todos os componentes de hardware dos servidores e possibilitar
que todos estes elementos físicos sejam “enxergados” como uma pool de recursos pelos
administradores de sistema. Deverá conter também 2 switches que serão responsáveis por
garantir a conectividade entre os servidores, e por conseguinte de encaminhar todo tráfego
requisitado pelos endpoints, e o tráfego endpoints-internet. Por outra o storage será
responsável por armazenar todas as máquinas virtuais, aplicações, e os dados a serem
processados, e por ultimo, mas não menos importante, existirá o servidor de backup cuja a sua
função principal será de garantir que a informação esteja replicada e segura, mas também
efectivar a continuidade do negócio.

Figura 18 – Arquitectura de Servidores


Fonte: Adaptado pelo Autor

48
5.2. Descrição dos equipamentos de hardware
➢ Hardware

Dispositivo Marca Descrição Quantidade

Servidor(VMware Dell Technologies - PowerEdge encontra-se disponível na 3


hosts) 640 seção de anexos.

Storage Dell Technologies - Storage encontra-se disponível na


Dell EMC ME4024 seção de anexos.

Servidor de Backup Dell Technologies - PowerEdge encontra-se disponível na


540 (“ZERO” – Server Backup) seção de anexos.

Switch Dell Technologies – Switch encontra-se disponível na


seção de anexos.

Tabela 2: Descrição dos equipamentos de hardware


Fonte: o Autor

5.2.1. Software e licenciamento

➢ VMware vSphere ESXi 6.7

O VMware vSphere é uma solução de virtualização, fornecida pela empresa VMware,


baseada em hipervisor. O vSphere é líder em ambientes corporativos e, segundo (Veras,
2012), mais de 170.000 empresas em todo o mundo já utilizam a solução.

Acrescenta ainda Veras, que a proposta do VMware vSphere é possibilitar reduzir o custo de
capital e o custo operacional com a infra-estrutura de TI através da virtualização, além de
aumentar o controle sobre o fornecimento de serviços de TI e, enquanto isto, preservar a
flexibilidade de escolha entre qualquer tipo de sistema operacional, aplicativo e hardware,
hospedados internamente ou que utilizem recursos externos.

O VMware vSphere é uma suite para virtualizar aplicações que inclui os hipervisors ESXi e
software de gerenciamento vCenter Server. O vSphere permite realizar as seguintes tarefas:

• executar múltiplos sistemas operacionais em uma máquina física simultaneamente.

• Otimizar recursos e balancear cargas de trabalho entre múltiplas máquinas físicas.

➢ VMware vSphere Essentials Kit Plus

49
A eleição do licenciamento teve em conta a necessidade de hosts, necessários para elaboração
da proposta e as funcionalidades de alta disponibilidade a serem aplicadas. No entanto depois
de uma análise profunda foi eleita a licença VMware vSphere Essentials Kit Plus.

Esta licença foi criada para pequenas e medias empresas que tem como objectivo dar o início
na virtualização da sua infra-estrutura. Esta solução possibilita virtualizar até 3 servidores,
provendo consolidação de servidores de forma a tirar o máximo proveito dos recursos de
hardware e ainda reduzir os custos do mesmo hardware.

vSphere Essentials Kit Plus


Visão geral virtualização e consolidação de servidores mais
continuidade de negócio.
vCenter Server vCenter Server for essentials
Funcionalidades ESXi, vMotion, High Availability(HA), vShield
Endpoint, vSphere replication, Cross Switch
vMotion, vSphere Data Protection.

Recursos de licenciamento 3 servidores com no máximo 2 processadores


cada.

Tabela 3 - Liçenca vSphere Essentials Kit Plus

Fonte: o Autor
➢ VMware vConverter

Esta tecnologia nativa da VMware permite fazer a conversão de máquinas físicas em máquinas
virtuais(P2V).

➢ Veeam Backup & Replication Community Edition

Veeam Backup & Replication é uma aplicação de backup proprietária da Veeam para
ambientes virtuais como vSphere, Nutanix, Microsoft Hyper-V, este software provê backups,
restauração e replicação de funcionalidades para máquinas virtuais, servidores físicos e
estações de trabalho.

5.3. Arquitectura virtualizada


Com a presente arquitectura, espera-se ganhar mais agilidade na gestão dos recursos
computacionais, garantir que serviços sejam implementados com mais flexibilidade e
segurança, no entanto de um ponto de vista mais amplo esta proposta deverá colmatar o
problema de indisponibilidade de serviços que vem assolando o supermercado Ka Da Terra.
50
Figura 19- Arquitectura de Servidores Virtualizada

Fonte: o Autor

A figura acima ilustra uma arquitectura virtualizada, com o uso da solução de software da
VMware e no entanto foram selecionadas algumas funcionalidades especificas que irão
resolver os problemas identificados no Supermercado Ka Da Terra que são as seguintes:

➢ VMware vCenter: É uma plataforma de gestão para ambientes vSphere, será portanto
instalada como uma Server Appliance e que servirá também como suporte para prover
algumas funcionalidades de disponibilidade entre os hosts, esta implementação representa
uma nova forma de gerir os recursos computacionais pois ela elimina os silos
computacionais e permitirá que os administradores de sistemas automatizem as tarefas;

➢ vSphere vMotion: esta solução possibilitará que se faça live migration(este processo
envolve a transferência do estado de execução completa do host de origem ao host de
destino e por isso acontece dentro de uma rede de alta velocidade) de máquinas virtuas
entre os hosts ESXi e entre os clusters de máquinas virtuais, portanto esta solução será de
extrema importância em situações que ocorreram anteriormente no local da pesquisa, como
em casos de falha e avaria de hardware, manutenções programadas e não programadas;

51
➢ DRS: a tecnologia DRS irá permitir o monitoramento de carga e uso de recursos dos
servidores e fará o uso do vSphere vMotion para balancear entre os dentro do cluster
criado, e com isso espera-se otimizar o uso dos recursos computacionais e de energia.

➢ vSphere High Availability: para reforçar a solução vMotion, esta é uma solução de
disponibilidade que será responsável por monitorar os hosts ESXi e ainda reinicializa-los
em caso de falha de um host dentro do cluster.

5.4. Estratégia de Backup 3-2-1


Esta estratégia permitirá que sejam efectuadas três copias dos dados da infra-estrutura do
supermercado Ka Da Terra, na qual duas delas armazenadas em dois dispositivos diferentes e
pelo menos uma copia off-site. Garantindo assim que os dados não sejam perdidos em casos
de desastres naturais.

52
CAPITULO VI – CONCLUSÃO E RECOMENDAÇÕES

6. Conclusão
A adoção das TIC’s nos negócios torna-se cada vez mais imprescindível por conta das
vantagens que estas oferecem, por isso é importante estar a par das evoluções tecnológicas de
modo a trazer as soluções mais eficazes aos negócios. Contudo, pode se perceber ao longo da
pesquisa que este negócio em particular não foge daquilo que foi mencionado anteriormente,
pois o negócio de retalho busca por soluções inteligentes e ágeis que possibilitem a
exploração de oportunidades e que ofereçam maior retorno no investimento.

A explanação feita na revisão da literatura possibilitou o conhecimento da origem da


tecnologia de virtualização e a sua evolução, bem com as vantagens que esta pode oferecer
aos negócios nos dias de hoje, ponto este que foi indispensável para o desenho da proposta.

Por conseguinte fez-se uma análise holística da infra-estrutura tecnológica do supermercado


Ka Da Terra, onde constatou-se que a mesma não atende os requisitos actuais de negócio e
nem se quer alinha-se com os planos futuros desta organização. Posteriormente foi desenhado
um esquema de infra-estrutura virtualizada com base na solução vSphere 7.0 e Veaam
Backup.

Com a elaboração deste trabalho foi possível realizar a proposta para implementação de
tecnologia de virtualização de servidores com vista a resolver o problema de indisponibilidade
de serviços de IT, de salientar que além de resolução do problema em causa, pela natureza
desta tecnologia ela trará outras vantagens para a gestão da infra-estrutura o que
consequentemente irá melhorar ainda mais a qualidade de serviços oferecidos aos seus
clientes e aumentará também o nível de competitividade empresarial.

Contudo foram alcançados todos os objectivos específicos, designadamente, debruçar a


tecnologia de virtualização de servidores, analisar a infra-estrutura de servidores actual,
desenhar uma arquitectura virtualizada de servidores, propor técnicas de redundância e
tolerância a falha de modo a garantir a disponibilidade dos serviços de TI e por fim propor
técnicas de backup de informação.
7. Recomendações
Constatou-se ao longo do desenvolvimento desta pesquisa, que a equipa de TI assente nesta
instituição tem pouco conhecimento sobre o tema em pesquisa e que isto representa uma
ameaça para aquilo que são os planos futuros da empresa, uma vez que a mesma pretende
actuar com mais flexibilidade para trazer melhores serviços e produtos para os seus clientes.
No entanto, com vista que a implementação da proposta elaborada no trabalho obtenha os
resultados esperados, recomenda-se que:

➢ a empresa invista no seu capital humano (concretamente com formações na área de


virtualização, assim como outras tecnologias emergentes, que andam de lado à lado com a
virtualização, como por exemplo: Cloud Computing, DevOps e Cibersegurança), de modo a
explorar ao máximo as oportunidades que aparecem e com isso ganhar vantagem competitiva
perante aos seus concorrentes.

➢ Adopção de um framework de gestão de TI(boas práticas de gestão de activos de TI), para


que as tecnologias sejam implementadas e mantidas com eficiência (como por exemplo
ITIL4);

➢ A concepção de uma plataforma de vendas online;

➢ A estratégia de backup deve seguir rigorosamente as politicas internas da instituição ;

➢ Actualização da documentação de todo parque informático.


REFERÊNCIAS BIBLIOGRÁFICAS

Adil, J. (11 de Julho de 2021). A importância do Backup para a segurança da informação no


seu negócio. Obtido de Academia Inovadora de TI : https://acaditi.com.br/a-
importancia-do-backup-para-a-seguranca-da-informacao-no-seu-negocio/

Alves, J., & Magalhães, J. (2018). A arquitectura TI e o seu papel na configuração e


manutenção do ambiente IT. Porto: Escola Superior de Tecnologia e Gestão
Politécnico de Porto.

Arriel, J. (2014). Análise comparativa entre as ferramentas de Virtualização VMware e Xen .


Mato Grosso: Universidade Federal de Lavras.

Benito, R. (2011). Análise de desempenho e implementação de um sistema Cluster baseado


em uma rede Ad Hoc. Marília: Centro Universitário Eurípedes de Marília - UNIVEM.

Carmo, H., & Ferreira, M. M. (1998). Metodologia da Investigação. Lisboa: Universidade


Aberta.

Eduardo Longhi Scopel, B. C. (2018). Importância da Segurança da Informação e Backup.


Serra Gáucha: XVIII Mostra de Iniciação Científica, Pós-gradução, pesquisa e
extensão - UCS.

Gil, A. C. (1991). Como elaborar projetos de pesquisa. São Paulo: Atlas.

Gil, A. C. (2008). Métodos e técnicas de pesquisa Social. São Paulo: Atlas.

Gustavo Mendes, M. A. (2013). Virtualização de Servidores, Máquinas. Itatiba: Universidade


São Francisco.

Junior, A. C., Vimercati, V. d., Simão, F. P., Franzoni, C., & da Silva, C. A. (2014).
Virtualização de Servidores: uma Prática que Proporciona Benefícios Ao Meio
Ambiente e à Gestão Empresarial. Espirito Santo: Instituto Federal do Espirito Santo.

Lima, C. d., D. d., & Silva, C. H. (20 de Maio de 2012). Virtualização de servidores: um
estudo de caso na empresa Sênior engenharia. Obtido de
https://www.researchgate.net: https://www.researchgate.net/publication/326722928.

Lima, C., de Melo Costa, D., & Silva, C. (2012). VIRTUALIZAÇÃO DE SERVIDORES: UM
ESTUDO DE CASO NA EMPRESA SÊNIOR ENGENHARIA. Belo Horizonte: Revista
Pensar Tecnologia.
Marconi, M. d., & Lakatos, E. M. (2003). Fundamentos de Metodologia Científica. São
Paulo: Editora Atlas S.A.

Mazero, C. A. (2019). Sistemas Operacionais: Conceitos e mecanismos. Curitiba: DINF -


UFPR.

Mendes, G., Batoni, M. A., & Evangelista, N. G. (2013). virtualização de servidores,


máquinas Clientes e aplicações - desempenho em redes Windows. (Monografia para
obtenção do grau de Bacharel, Universidade São Francisco, Itatiba). Itatiba:
Universidade São Francisco.

Prodanov, C. C., & Freitas, E. C. (2013). Metodologia do Trabalho Científico: Métodos e


Técnicas da Pesquisa e do Trabalho Acadêmico. Novo Hamburgo - Rio Grande do
Sul: Universidade Feevale.

Reis, F. (21 de Janeiro de 2021). Introdução a Virtualização. Obtido de


www.bosontreinamentos.com:
http://www.bosontreinamentos.com.br/virtualizacao/introducao-virtualizacao/.

Silva, F. R. (2007). Vantagens e desvantagens na utilização de software de virtualização em


servidores de empresas de pequeno e medio porte: estudo de casos em faculdades
particulares no Recife. Recife: Faculdade Santa Maria.

Tanembaw, A. S. (2007). Sistemas distribuídos: Princípios e Paradigmas. São Paulo:


Prentice Hall.

Tanembaw, A. S., & Bos, H. (2015). Modern Operating Systems. Amsterdam: Pearson
Education Inc.

Veras, M. (2009). Virtualização: Componente Central do Datacenter. Rio de Janeiro:


Brasport Livros e Multimídia Ltda.

Veras, M. (2012). Cloud Computing: Nova arquitectura de TI. Rio de janeiro: Brasport
Livros e Multimedia Ltda.
PowerEdge R640
Servidor PowerEdge R640
Placa-mãe PowerEdge R640 MLK Motherboard
Configuração de chassi Chassis para até 8 HDs de 2,5" e 3 slots PCIe
Intel® Xeon® Gold 5218 de 2,3 GHz, 16 núcleos/32 segmentos,
Processador
10,4 GT/s, cache de 22 MB, Turbo, HT (125 W), DDR4-2666
Configuração térmica do
1 dissipador de calor padrão para CPU de 165 W ou menos
processador
Tipo e velocidade de memória
2933MT/s RDIMMs
DIMM
Tipo de configuração da
Performance otimizada
memória
Memória (4) 32GB RDIMM, 2933MT/s, Dual Rank,BCC
RAID 1 (necessário discos rígidos com as mesmas características
RAID
- mínimo de 2 discos)
Controlador RAID Controlador RAID PERC H330, miniplaca
Armazenamento (2) SSD SATA de 2,5", 480 GB, 6 Gbit/s e 512.
Gerenciamento de Sistemas
iDRAC 9 Enterprise
Integrado
Módulo de Serviço IDRAC iDRAC Group Manager, ativado
Riser PCIe Config. do riser 4, 2 x16 (baixo perfil)
Broadcom 57412 de 2 portas, 10 Gb, SFP++ 5720 de 2 portas, 1
placa de rede
Gbit, Base-T, rNDC
Controlador externo Controlador externo HBA SAS de 10 Gbit/s, compacto
Fonte de Alimentação Dual, Hot-plug, Redundant Power Supply (1+1), 750W
Cabos de alimentação (2) 14136 2P+T to C13, 250V, 10A, 2m.
APÊNDICE

Dell S3124Dell Networking S3100 S3124, L3, 24x 1GbE, 2xCombo, 2x 10GbE SFP+ fixed
Series Switches ports, Stacking, IO to PSU airflow, 1x AC PSU
SFP+ Direct Attach Cables ( 1GbE) (4) Dell Networking, Cable, SFP+ to SFP+, 1GbE, Copper
Twinax Direct Attach Cable, 3 Meters
Power Cords (2) Power Cord, C13, BR14136, 6 feet/1.8 meter, 250V,
10A.
Additional Power Supplies Fonte de alimentação de 200w, S3124 / S3148, com V-
Lock, adiciona redundância aos comutadores da série
S3100 não POE
System Documentation Dell Networking S3100 User Guide, LATAM
Hardware Support Services 6 Years ProSupport with Next Business Day Onsite Service
Uplink Module for Rear Bay SFP+ 1GbE Module for N3000/S3100 Series, 2x SFP+
Ports (optics or direct attach cables required)
Stacking Cables Stacking Cable, for Dell Networking N2000/N3000/S3100
series switches (no cross-series stack), 0.5m
Figura 20 - Especificaçoes dos Swichs de Rede: 2x Dell Technologies - Switch

Storage array Dell EMC ME4024 Storage array Dell EMC ME4024
Placas controladoras Controlador duplo de 8 portas SAS e 1 Gbit
Cabos SAS (3) 2x1Gb HD Mini-SAS to HD Mini-SAS 2M Cable
Discos rígidos (10) 256GB SSD SAS Read Intensive 12Gbps 512 2.5in
Hot-plug AG Drive
Discos rígidos (14) Gaveta para disco rígido de 2,5", espaço para um disco
rígido
Trilhos de rack Trilhos de rack de 2 U
Fonte de alimentação Fonte de alimentação redundante flexível de 580 W
Cabos de alimentação Cabo de alimentação de 2 metros, 250 V,14136-C13,
quantidade: 2
PowerEdge R540 Servidor PowerEdge R540
Placa-mãe PowerEdge R540 MLK Motherboard, V2
Configuração de chassi Chassi de 3,5" com até 8 discos rígidos de unidades de
conector automático
Processador Intel Xeon Silver 4208 2.1G, 8C/16T, 9.6GT/s, 11M Cache,
Turbo, HT (85W) DDR4-2400
Configuração térmica do processador Dissipador de calor já incluído
Tipo e velocidade de memória DIMM 3200MT/s RDIMMs
Tipo de configuração da memória Performance otimizada
Memória (2) 16GB RDIMM, 3200MT/s, Dual Rank, BCC
RAID C6, RAID 1 + RAID 5 para HDDs ou SSDs
(tipo/velocidade/capacidade correspondente dentro de cada
contêiner de RAID)
Controlador RAID Controlador RAID PERC H740P, cache NV de 8 GB,
adaptador, compacto
Armazenamento (2) SSD SATA de 2,5",512 GB, 6 Gbit/s e 512 com unidade
de conector automático AG, uso intenso de leitura e
carregador híbrido de 3,5", 1 DWPD, 1752 TBW
Discos rígidos (segundo grupo) (6) Disco rígido SATA com unidade de conector
automático de 3,5", 6 Gbit/s, 7.200 RPM, 8 TB e 512e
Sistema operacional Windows Server® 2019 Standard,16CORE,FI,No Med,No
CAL, Multi Language
Kits de mídia para sistema Windows Server 2019 Standard,16CORE,Digitally
operacional Fulfilled Recovery Image, Multi Language
Gerenciamento de Sistemas Integrado iDRAC 9 Enterprise
Módulo de Serviço IDRAC iDRAC Group Manager, ativado
Senha iDRAC, senha legada
Riser PCIe 1 de altura completa, 4 compactos, 2 CPUs
Placas de rede adicionais LOM Broadcom 5720 de 2 portas integrada, 1 Gbit
Placas de rede adicionais Adaptador Broadcom 57412 de 2 portas, 1 Gbit, SFP+,
PCIe, compacto
Drive Óptico Interno Sem unidade óptica interna para chassi com 8 HDDs
Fonte de Alimentação Dual, Hot-plug, Redundant Power Supply (1+1), 495W
Cabos de alimentação (2) NBR 14136 2P+T to C13, 250V, 10A, 2m, Brazil Power
Cord
Tampa frontal Tampa frontal do LCD de 2 U do PowerEdge
Documentação do Sistema Sem documentação dos sistemas, sem kit de DVD do
OpenManage

Figura 21 - Especificação do Armazenamento: 1x Dell Technologies - Storage Dell EMC


ME4024 (Fonte: Adaptado pelo Autor)

Você também pode gostar