Escolar Documentos
Profissional Documentos
Cultura Documentos
PROPÓSITO
Conhecer a evolução da infraestrutura até chegar à computação em nuvem, compreendendo
suas vantagens e desvantagens, sua aplicabilidade e a segurança envolvida nessa nova
tecnologia.
OBJETIVOS
MÓDULO 1
MÓDULO 2
MÓDULO 3
INTRODUÇÃO
Computação em nuvem é o resultado da evolução da virtualização, do modelo orientada a
serviços e do processamento de aplicativos. Informações como o local das instalações ou dos
tipos de servidores utilizados são desconhecidas para a maioria dos usuários finais, que não
precisam mais compreender ou controlar completamente os recursos de inovação tecnológica.
As alternativas de nuvem e armazenamento fornecem aos clientes e empresas vários modelos
para armazenar e processar seus dados em data centers de terceiros.
MAINFRAME
Nos primórdios da computação, as empresas adquiriam um terminal, cuja única função era
acessar o mainframe. Devido aos custos de aquisição e manutenção dos servidores
mainframe, era inviável para as empresas de médio e pequeno porte manter essa
infraestrutura. Além disso, a empresa também não precisava de grande espaço de
armazenamento (na época) e do poder de computação que um mainframe oferecia. Oferecer
acessibilidade distribuída a uma única fonte foi a solução que fazia sentido em termos de
custo-benefício para essa inovação tecnológica.
MÓDULO 1
EVOLUÇÃO DO HARDWARE E DO
SOFTWARE
Ao acompanhar a evolução do hardware e do software, além das necessidades das empresas
ao redor do mundo de processamento de dados, as empresas foram criando seus próprios
CPDs – Centros de Processamento de Dados – como eram chamados na época.
1964
1965
Em 1965, foram lançados os primeiros System/360 no Brasil. Eram máquinas enormes, faziam
muitos ruídos, além de um elevado consumo de energia e grande tempo de processamento de
dados. No Brasil, foi lançado em 1965 e, no ano seguinte, passou a ser utilizado pelo INCRA
(Instituto Brasileiro de Reforma Agrária) na realização do recenseamento da propriedade rural
e cálculo do imposto territorial em todo o país.
O mainframe se antecipou às tendências e descobertas da tecnologia. A virtualização, um dos
temas mais atuais em termos de infraestrutura de TI, está disponível no mainframe há mais de
30 anos.
Após essa fase, chegamos aos anos 80. Nessa época, surgem os primeiros computadores
pessoais, os PCs, que se popularizaram tanto no ambiente doméstico, como corporativo (nas
empresas, agora, de forma individual).
Dessa forma, surgem as primeiras redes de computadores nas empresas. Momento em que
ainda não se falava de terceirização de TI, mas já se começava a relacionar conceitos, como
cliente-servidor.
A figura anterior ilustra um bom exemplo do modelo cliente-servidor nos CPDs da época.
Nesse período, concentrava-se praticamente a alma da empresa nos data centers, o servidor
gerenciava todos os serviços da empresa. Dessa forma, as informações eram compartilhadas
e, assim, sincronizadas, porém, se o servidor ficasse fora do ar, a empresa parava de
funcionar.
Com a evolução da Tecnologia da Computação, o servidor central foi substituído por vários
servidores, cada um com um serviço específico. Nessa época, o CPD recebeu diversos
servidores, tais quais: o servidor de arquivos, servidor de impressão, servidor de aplicações
web, servidor de banco de dados, servidor de domínio, entre outros. Porém, essa infraestrutura
agrega como desvantagens o custo em manter vários servidores na empresa e o valor a ser
investido no caso de acréscimo de serviço. Uma outra desvantagem dessa tecnologia é a
capacidade de processamento ociosa, pois não se usava a capacidade máxima dos servidores,
os quais permaneciam ociosos quando não estavam sendo acessados. Nesse cenário, surgiu
um novo conceito: a virtualização de servidores.
VIRTUALIZAÇÃO
A virtualização é um conceito que descreve a utilização de mais de um sistema operacional em
um único servidor. Isto é, uma técnica que usa múltiplos sistemas operacionais em um único
servidor, simulando a estrutura de um servidor físico.
O servidor físico torna-se hospede de vários servidores virtuais, que são configurados de
acordo com a demanda de serviços da empresa, com sistemas operacionais e recursos
independentes — memória, processamento, armazenamento etc. Dessa forma, é possível a
utilização da capacidade máxima dos servidores de um data center, com maior densidade no
uso de hardwares e armazenamento.
HYPERVISOR
Sendo assim, surge a figura do hypervisor. O hypervisor é um software com a funcionalidade
de prover ao servidor físico a capacidade de se dividir. Com a virtualização, é possível
acrescentar novos serviços sem a necessidade de adquirir servidores individuais, aproveitando
toda a potencialidade de um único servidor.
COMPUTAÇÃO EM NUVEM
Com o passar dos anos, as tecnologias foram mudando a forma de trabalho e relacionamento
das empresas com os clientes, fornecedores, colaboradores. Dessa forma, surge o conceito de
computação em nuvem ou cloud computing - nova tecnologia que vem revolucionando as
atividades empresariais e conquistando cada vez mais espaço no mercado.
(CANALTECH, 2014)
Entretanto, o modelo de disponibilizar serviços na internet não é algo novo. Na década de 60,
Joseph Carl Robnett Licklider, um dos responsáveis pelo desenvolvimento da ARPANET
(Advanced Research Projects Agency Network), apresentou o modelo de uma rede de
computadores intergaláctica. Assim, todos estariam conectados entre si, acessando programas
e dados de qualquer site e de qualquer lugar, conforme ilustrado a seguir. Nesse contexto,
nasce o modelo de computação em nuvem.
Exemplo de modelo cliente-servidor.
Diante do que foi exposto, podemos construir a seguinte linha do tempo da evolução da
tecnologia até a computação em nuvem:
Veja mais detalhes da Linha do tempo da computação em nuvem no vídeo a seguir.
Agora que terminamos o nosso conteúdo elaboramos algumas questões para você verificar o
seu nível de entendimento sobre o assunto. Se tiver alguma dúvida, não tenha receio de voltar
ao conteúdo e revisá-lo.
VERIFICANDO O APRENDIZADO
MÓDULO 2
Com a evolução da sociedade humana moderna, os serviços básicos e essenciais, como água,
eletricidade, telefone passaram a ser cobrados pelo modelo de pagamento baseado no
consumo. O mesmo modelo tem sido aplicado nos serviços de Tecnologia da Informação. A
computação em nuvem é uma tendência recente de tecnologia com o objetivo de proporcionar
serviços sob demanda com pagamento baseado no uso. Com a proposta de prover serviços
para todos, desde o usuário final que hospeda seus documentos pessoais na internet até
empresas que terceirizam toda a parte de Tecnologia da Informação para outras empresas.
Esse modelo foi apresentado por McCarthy durante um discurso no Massachusetts Institute of
Technology (MIT), nos EUA, em 1961. Ele sugeriu a criação da utility computing ou
computação como serviço de utilidade pública, no mesmo modelo do fornecimento de água, luz
ou telefone.
Em 1962, Joseph Carl Robnett Licklider, americano, físico, matemático, psicólogo e cientista da
computação, durante sua pesquisa para desenvolver uma tecnologia que permitisse que um
computador fosse usado por duas ou mais pessoas simultaneamente, encontrou uma maneira
de compartilhar dados de forma global.
Dessa forma, o cientista americano do MIT propôs pela primeira vez uma rede global de
computadores. Licklider começou a discutir o conceito de “Rede Galáctica”. Essa rede previa
vários computadores distribuídos globalmente, ligados entre si. Por meio do sistema de
computadores em rede, era possível acessar os dados e os programas a partir de qualquer
desses computadores, rapidamente. Agindo como uma nuvem, o modelo fornecia acesso a no
máximo 3 pessoas por conexão.
COMENTÁRIO
Na época, por volta 1969, Licklider participou do projeto ARPANET (Rede de Agências de
Projetos de Pesquisa Avançada). A rede ARPANET, conhecida também como a “mãe” da
internet, para a agência americana Advanced Research and Projects Agency (ARPA), na
época, tinha o objetivo de interligar bases militares com os departamentos de pesquisa do
governo americano.
Nesse contexto, Licklider avançou em sua visão, denominada Intergalactic Computer Network,
na qual qualquer pessoa no mundo pode ser interconectada por meio de computadores e
acessar informações de qualquer lugar e a qualquer momento. O seu trabalho além de levar a
ARPANET como a precursora da internet atual, também proporcionou uma introdução à técnica
de Computação em nuvem que conhecemos nos dias de hoje.
No ano de 1970, surge o termo virtualização, agregando uma grande inovação tecnológica
para época. Por volta de 1972, a IBM lança um sistema operacional (SO) chamado sistema
operacional de Máquina Virtual (VM).
Dentro de apenas alguns anos, as empresas começaram a trocar o hardware por serviços em
nuvem, pois foram atraídas pelos benefícios como a redução nos custos e a simplificação em
questões de pessoal de TI.
WEB SERVICE
Anunciado pela Microsoft em 2008, também foi lançado o serviço de computação em nuvem
chamado Microsoft Azure, enquanto teste, implantação e gerenciamento de aplicativos e
serviços.
O uso do termo nuvem tem sua origem nos diagramas das antigas redes de dados ISDN
(Services Digital Network ou rede de serviços digitais) e Frame Relay, que eram projetadas
pelas operadoras de telefonia. Os desenhos de nuvem mostravam a interligação entre ambas e
sinalizava algo que estava fora do alcance das empresas. Por essa razão, não é possível saber
em que computador ou computadores estão as aplicações em cloud computing.
Outro conceito para justificar o termo computação em nuvem vem do entendimento de que as
informações e dados estão remotamente na nuvem, que nada mais é do que espaço virtual. Os
usuários da nuvem podem armazenar arquivos, dados e aplicativos em servidores remotos e
acessar esses dados com a ajuda da internet. Assim, os usuários não precisam estar em um
determinado local para acessar os dados, podendo recuperá-los de qualquer lugar.
EXEMPLO
Suponha que você tenha um requisito para operar 100 servidores por três anos. Uma opção
seria alugar esses servidores por R$ 0,40 por instância/horas. Isso custaria aproximadamente
100 servidores * R$ 0,40 por instância/horas * 3 anos 8760 horas/ano = R$ 1.051.200.
Outra opção seria comprar os servidores e administrá-los. Suponha que o custo para comprar
cada servidor seja de R$ 750 e que sejam necessários dois funcionários para realizar a
administração, pagando R$ 100.000 por ano. Suponha ainda que os servidores consumam 150
watts cada e o custo da eletricidade é de $ 0,10 por quilowatt-hora. Assim, o custo anual para
operar os 100 servidores seria de R$ 13.140 e a opção de comprar e administrá-los seria de
aproximadamente 100 servidores * R$ 750 + 3 anos * R$ 13.140 eletricidade/ano + 3 anos * 2
funcionários * R$ 100.000 salários/ano = R$ 714.420.
Portanto, se a utilização dos servidores fosse de 100%, a opção de comprar 100 servidores
seria mais barato, sem considerar a depreciação dos equipamentos ao longo dos três anos,
enquanto, com a cloud, os equipamentos estarão sempre atualizados. Por outro lado, se a
utilização dos servidores fosse de 68% ou menos, a opção de alugar um serviço seria mais
interessante. Mesmo considerando que os números apresentados acima são apenas
estimativas e que nem todos os custos foram considerados, pode-se verificar que modelo de
utility computing é preferível em muitos casos.
Dessa maneira, para realizarmos determinada tarefa, bastaria nos conectarmos ao serviço on-
line, acessar as ferramentas, salvar o trabalho e depois acessá-lo de qualquer outro lugar. A
partir de qualquer computador e em qualquer lugar, podemos acessar informações, arquivos e
programas num sistema único. Com a computação em nuvem, os seus dados não estão salvos
em um disco rígido do seu computador, mas, sim, disponíveis na web. O requisito mínimo
deste conceito é um computador conectado à internet e a um navegador.
O National Institute of Standards and Technology (NIST) define a computação em nuvem como
um modelo que possibilita acesso, de modo conveniente e sob demanda, a um conjunto de
recursos computacionais configuráveis (redes, servidores, armazenamento, aplicações,
serviços etc), os quais podem ser rapidamente adquiridos e liberados com mínimo esforço
gerencial ou interação com o provedor de serviços. Esse modelo de nuvem é composto por
cinco características essenciais (autoatendimento sob demanda, amplo acesso à rede, acesso
a um pool de recursos, elasticidade dinâmica e serviço mensurável); três modelos de serviço
(Infraestrutura como um Serviço – IaaS, Plataforma como um Serviço (PaaS), Software como
um Serviço (SaaS)); e quatro modelos de implantação (nuvem privada, nuvem comunitária,
nuvem pública, nuvem híbrida) (NIST, 2018).
CARACTERÍSTICAS ESSENCIAIS DA
COMPUTAÇÃO EM NUVEM
Segundo NIST, a computação em nuvem tem cinco características essenciais e determinantes
para a tecnologia, são elas:
ON DEMAND SELF-SERVICE
Autoatendimento (self-service) sob demanda, isto é, acesso direto e sob demanda, garantindo
que a alocação e a liberação de recursos ocorram sem a necessidade de interação humana
entre o usuário e o provedor.
RESOURCE POOLING
Compartilhamento de serviço que oferece recursos computacionais compartilhados entre
diversos usuários, os quais não precisam ter conhecimento acerca da localização dos recursos
utilizados. Esses recursos devem ser abstraídos por dispositivos físicos reais, o que é
alcançado, na maioria das vezes, por meio de virtualização.
RAPID ELASTICITY
Elasticidade dinâmica, ou seja, a capacidade de ampliar e reduzir de acordo com o necessário,
seja automática ou manualmente, sem a necessidade de lead times. Dessa forma, a rápida
alocação e liberação de recursos da nuvem a qualquer momento e conforme a demanda de
aplicação proporciona ao usuário a não preocupação com a quantidade de recursos a que tem
direito. Além disso, proporciona a sensação de capacidade de armazenamento infinita,
podendo a qualquer momento requisitar recursos.
MEASURED SERVICE
Serviço mensurável é a capacidade de medir exatamente quais recursos estão sendo usados,
monitorar e controlar esses serviços para podermos, posteriormente, apresentar esses dados
ao cliente ou ao usuário final. O conceito de serviço mensurável contribuiu para o surgimento
do modelo pay-as-you-go.
MODELO DE IMPLANTAÇÃO DA
COMPUTAÇÃO EM NUVEM
Na computação em nuvem, existem três modelos principais de diferentes implantações.
Exploraremos aqui os três mais relevantes e ainda alguns outros existentes, os quais definem o
local em que os dados são armazenados e como os usuários interagem com eles.
As nuvens públicas são aqueles provedores de serviços que disponibilizam recursos como
computação, armazenamento e aplicativos para o público em geral pela internet. Qualquer
usuário pode efetuar login e usar esses serviços, em que se paga pelo número de recursos que
usa. Nesse caso, os usuários têm menos controle sobre seus dados.
Facilidade de
contratação,
É simples a contratação dos serviços, implementação na empresa
configuração
e a disponibilidade de todos os recursos disponíveis.
e
infraestrutura
ON PREMISES
Algumas desvantagens são: segurança, controle feito por terceiros e os requisitos legais. Pode
existir algum requisito de segurança específico que não seja atendido pela nuvem pública.
Como você não é o proprietário do hardware, nem dos serviços, não poderá gerenciá-los como
deseja. Por último, podem existir requisitos legais que a nuvem pública não cumpre.
DICA
Normalmente, esse tipo de nuvem é usado por organizações com foco na segurança e
gerenciamento de dados muito sensíveis, como transações financeiras. Além disso, pode ser
empregado por empresas que possuam um controle rígido de segurança.
As nuvens híbridas, como o nome já indica, são aquelas constituídas pelos serviços da nuvem
pública e privada. Alguns serviços são hospedados na nuvem privada, enquanto outros na
nuvem pública. Dessa forma, a empresa pode manter dados cruciais na nuvem privada e
outros dados na nuvem pública, aproveitando o melhor dos dois mundos. A imagem a seguir
ilustra a nuvem pública e a privada com a nuvem híbrida, tendo as características de cada
uma.
Ao optar pela nuvem híbrida, a empresa agrega uma solução que mescla características da
nuvem privada e da nuvem pública. Isto é, um modelo de computação em nuvem híbrido é
aquele que integra duas infraestruturas de cloud computing. Dessa maneira, é possível
aproveitar as funcionalidades de ambos os modelos sem comprometer a performance, os
custos operacionais ou mesmo a privacidade.
A adoção da nuvem híbrida pode beneficiar a empresa de diferentes formas. A união da cloud
computing em ambientes públicos com a cloud computing em ambientes privados traz mais
flexibilidade e versatilidade para a empresa.
As nuvens comunitárias são compartilhadas por diversas empresas que têm interesses
comuns, como missão, requisitos de segurança, políticas, entre outros. Nesse modelo, a
nuvem comunitária pode ser administrada tanto pela própria organização, ou por terceiros, e
pode existir tanto dentro (on premises), quanto fora (off premises) da organização.
A nuvem comunitária funciona de forma semelhante à nuvem pública, mas com um número de
usuários reduzido. Assim como na nuvem pública, os custos com manutenção, troca de
equipamentos e atualização do hardware nesse tipo de infraestrutura são divididos entre
diferentes usuários. No entanto, ao contrário da nuvem pública, essa infraestrutura pode ser
configurada de acordo com os objetivos das organizações.
Plataforma como serviço (PaaS) – nesse modelo, o usuário gerencia os aplicativos junto com
os dados. Muitas vezes, o usuário deseja iniciar e manter seus próprios aplicativos na nuvem, e
assim, o PaaS entra em cena. Todas as necessidades de hardware, rede e SO (Sistema
Operacional) são atendidas pelo provedor de serviços. Exemplos desse tipo de serviço incluem
o Google App Engine e o Windows Azure.
No quadro a seguir, você verá uma lista de recursos gerenciados pelo usuário e pelo provedor
de acordo com cada categoria de serviço em nuvem.
RESUMINDO
Modelo atual – a tendência atual das empresas em adotar a computação em nuvem permite
que o foco seja concentrado no negócio, ao invés de modelos passados nos quais as
empresas alocavam recursos humanos, tempo, investimento e esforço para gerenciar o data
center local. Na computação em nuvem, não existe essa preocupação, pois esses recursos
estão disponíveis para a empresa na nuvem, além de manter os serviços e aplicativos sempre
atualizados.
Modelo com implantação rápida – os serviços solicitados pela empresa podem estar em
funcionamento em apenas alguns minutos. Isso fornece uma grande vantagem inicial às
empresas que usam a abordagem tradicional ou convencional.
Modelo global - os serviços em nuvem estão disponíveis 24 horas por dia, 7 dias na semana.
Mesmo se a empresa estiver fechada, o trabalho poderá continuar. Além de ser possível
trabalhar a qualquer momento e em qualquer local, desde que tenha um dispositivo habilitado
para internet.
DESVANTAGENS DA COMPUTAÇÃO EM
NUVEM
As desvantagens da computação em nuvem estão associadas, principalmente, à segurança e
à manutenção do sigilo dos dados armazenados na nuvem. Embora a nuvem seja uma
tecnologia recente e tenha muitos benefícios e vantagens, é importante não negligenciar suas
falhas. A seguir, citamos as principais:
Perda de controle - ao optar por serviços em nuvem, você está entregando seus dados e
aplicativos ao provedor. Você depende do provedor de nuvem caso ocorram problemas de
hardware ou software. A velocidade e a qualidade do serviço nessas situações podem não
corresponder às suas expectativas.
Agora que terminamos o nosso conteúdo elaboramos algumas questões para você verificar o
seu nível de entendimento sobre o assunto. Se tiver alguma dúvida, não tenha receio de voltar
ao conteúdo e revisá-lo.
VERIFICANDO O APRENDIZADO
MÓDULO 3
VIRTUALIZAÇÃO
O termo virtualização tem origem no conceito “virtual”, ou seja, algo abstrato que simula as
características de algo real. Esse conceito surgiu na década de 1960, sendo mais divulgado na
década posterior, porém as limitações tecnológicas da época impediram maiores avanços
dessa inovadora tecnologia para a época. Após a chegada da internet, a possibilidade de
processar informações e executar operações com o acesso remoto impulsionaram a
virtualização e seus recursos.
EXEMPLO
Por exemplo, um usuário utiliza o sistema operacional Windows em seu computador, mas
deseja utilizar um software que está disponível apenas para o Linux. Com a virtualização, esse
usuário pode executar uma versão de qualquer sistema operacional e seus aplicativos em seu
próprio computador, sem ter que instalar fisicamente.
A virtualização pode ser dividida em paravirtualização e virtualização completa. Na figura a
seguir, você verá a diferença entre as duas. Na virtualização completa, o hypervisor emula todo
o hardware da máquina física para as máquinas virtuais, nesse caso, o sistema operacional
executa como se não estivesse em um ambiente virtual. A paravirtualização entrega para as
máquinas virtuais um hardware igual ao real, com isso, o sistema a ser virtualizado pode sofrer
alterações no decorrer do tempo. Essa funcionalidade não é permitida na virtualização
completa, pois, nela, o hardware é entregue de forma virtual. Na paravirtualização, o sistema
operacional da máquina virtual precisa ser modificado para saber que está rodando em um
ambiente virtualizado e as instruções privilegiadas não são executadas diretamente, mas
através do hypervisor.
EXEMPLO
Para entendermos melhor, vamos imaginar um navio cargueiro com vários contêineres. Se um
desses danificar, não afetará os outros ou o navio, pois cada um está isolado e protegido. Ao
contrário do que muitos pensam, essa tecnologia não é tão nova. Na década de 1970, durante
o desenvolvimento do Unix V7, foi introduzido o system call, ou chamada de sistema, também
conhecido como chroot, alterando o diretório raiz de um processo para um novo local no
sistema de arquivos, recurso muito utilizado até hoje para eventuais manutenções. Essa
evolução trouxe o conceito de isolamento do processo, segregando assim, o acesso a arquivos
para cada etapa.
SYSTEM CALL
2000
SYSADMIN
HOSTNAME
Nome dado ao computador, ele serve para que possamos identificar uma máquina na rede,
com mais facilidade que um número de IP.
2008
Em 2008, surge a primeira e mais completa implementação do gerenciador de contêiner do
Linux, o projeto LXC (Linux Contêiner), que serviu de base para outras tecnologias como o
Warden, em 2011, e o Docker, em 2013, que levou a tecnologia de contêiner a um novo
patamar.
O Docker é uma plataforma open source escrito em Go, que é uma linguagem de programação
de alto desempenho desenvolvida dentro da Google, que facilita a criação e administração de
ambientes isolados. Isto é, o Docker é uma implementação de virtualização de contêineres que
vem conquistando cada vez mais espaço devido à computação em nuvem.
Apesar do uso do termo virtualização baseada em contêiner, não podemos confundir com
virtualização em si. Isso porque, nessa última, o servidor é configurado para atuar como se
fosse uma máquina física, com sistema operacional próprio, garantindo um ambiente funcional.
Essencialmente, um conjunto de SO é instalado em um único equipamento físico. No caso de
cloud containers, não há uso de sistemas operacionais; os contêineres são independentes e
executam a aplicação, sendo só ela a instalada, o que facilita o processo.
O próximo passo foi a chegada da tecnologia dos containers, contudo ainda era necessário
mantê-los por pessoas especializadas nesta solução. Com o objetivo de retirar essa carga de
trabalho do profissional de desenvolvimento de software, surgiu a arquitetura serverless.
Por volta de 2006, foi lançada uma plataforma com o objetivo de fazer todo o trabalho rotineiro
para o desenvolvimento e implantação de uma aplicação javascript, cobrando apenas pelo
código que fosse executado. Assim, nascia a plataforma Zimki, que, na época, não obteve
aceitação, mas representa o nascimento de um novo conceito de serviço de computação em
nuvem, function as a service (FaaS). Isto é, uma plataforma de função como serviço e,
consequentemente, um novo modelo de arquitetura, o serverless computing.
Dentre os diferenciais dessa solução, podemos destacar o baixo custo, pois, nesse caso, as
soluções serverless são cobradas por uso, isto é, você só pagará aquilo que realmente está
utilizando. Outro diferencial é a redução de código, pois é uma solução menos complexa neste
sentido, sem a necessidade de ter um sistema back-end de várias camadas. Além de ser
escalável e flexível, pois não é necessário configurações adicionais para aproveitar a
escalabilidade que a arquitetura proporciona.
Na imagem abaixo, podemos visualizar de forma mais didática a diferença entre as três
tecnologias estudadas até o momento: máquinas virtuais, contêineres e computação sem
servidor.
PROVEDOR DE SERVIÇOS DE APLICAÇÃO
Provedor de serviços de aplicação ou application service provider, no inglês (ASP), é um
formato de terceirização que fornece software e aplicações através da internet para usuários
finais, pequenas e médias empresas ou até grandes organizações. Em vez de as organizações
arcarem com os encargos financeiros, os requisitos de hardware e os conhecimentos técnicos
necessários para ter o software, esses aplicativos são alugados de terceiros. Nesse modelo, os
provedores alugam aplicações e serviços de acordo com a necessidade dos clientes, que, por
sua vez, pagam um valor para usufruir desse serviço como uma assinatura.
EXEMPLO
Alguns exemplos de ASP são os webmails, como correio do Yahoo, correio do Google, além do
armazenamento de documentos e planilhas no Google Docs. Esses são serviços ASP
gratuitos.
GRID COMPUTING
A grid computing ou computação em grade é a tecnologia que agrupa servidores com o
objetivo de trabalhar em conjunto, formando uma grande infraestrutura. Esse modelo requer o
uso de softwares responsáveis em dividir e distribuir partes de um programa como uma
imagem grande do sistema para milhares de computadores.
O termo grid foi usado inicialmente nos anos 90, no meio acadêmico. Foi originalmente
proposto para denotar um sistema de computação distribuída que provia serviços
computacionais sob demanda, da mesma forma que os fornecedores de energia elétrica e de
água.
Portanto, podemos definir grid computing como um tipo de sistema paralelo e distribuído. Esse
sistema permite o compartilhamento, a seleção e o agregar de recursos geograficamente
distribuídos de forma dinâmica e tempo de execução dependendo da sua disponibilidade,
capacidade, performance, custo e requerimentos dos usuários.
EXEMPLO
Por exemplo, imaginamos duas empresas localizadas em países distantes e com fusos
horários diferentes. Essas empresas poderiam formar um grid ao combinar seus servidores,
dessa maneira, cada empresa utiliza os ciclos de processamento ocioso da outra em seus
horários de pico, já que, com horários diferentes, os picos de acesso aos servidores de cada
empresa ocorrerão também em horários diferentes.
Por último, a confiabilidade é uma característica baseada em máquinas espalhadas por lugares
diferentes, em que, quando uma falha atinge uma parte do grid, as demais podem continuar
sua operação normalmente.
É comum que as tecnologias grid e cluster se confundam, porém, existe uma diferença na
maneira como os recursos são gerenciados. No cluster, há um gerenciador de recursos
centralizado e responsável pela alocação de todos os recursos e, dessa maneira, todos os nós
trabalham em conjunto. No grid, cada nó tem seu próprio gerenciador de recursos e não existe
a responsabilidade de prover a visão de que faça parte de um só sistema.
Em resumo, computação em grade, ou grid computing, é uma rede na qual os membros estão
conectados em forma de sistema distribuído. Nessa rede, trabalha-se cooperativamente para
se atingir um objetivo, com o diferencial de uma gerência mais eficiente e justa dos recursos,
como: processadores e utilização da largura de banda da internet.
UTILITY COMPUTING
Utility computing ou computação de utilidade pública é um modelo classificado como
computação sob demanda, pois o usuário pode contratar software, hardware e serviços
conforme sua necessidade de utilização e em função de fatores como picos, quedas e
conforme o período de uso. Assim, podemos fazer um comparativo com os serviços de
fornecimento de água, luz ou telefone, conforme a demanda do cliente.
O termo utility computing resulta das chamadas utilities, que, em inglês, são as empresas
públicas que têm como modelo de negócios a cobrança pelo que é consumido. Ao permitir a
aquisição de capacidade temporária no processo e armazenamento de dados, essa tecnologia
potencializa a otimização da infraestrutura de hardware, software e serviços com redução dos
custos fixos por capacidade não utilizada.
Murch (et. al. 2004) confirma que a utility computing já está sendo implementada em diversas
áreas. Vamos considerar alguns exemplos:
EXEMPLO 1
Uma empresa de energia canadense está economizando cerca de US $ 500.000 por ano
usando notebooks com aplicativos hospedados na nuvem, para seus 400 trabalhadores de
campo. O objetivo desse projeto de computação móvel na Hydro One Networks em Toronto é
substituir o papel propenso a erros por dados digitais mais rápidos e precisos. Os resultados
são economias nos custos de processamento e levantamento de dados muito mais precisos.
EXEMPLO 2
O varejista de roupas masculinas Ahlers criou um site de autoatendimento, através do qual
seus varejistas podem obter rapidamente informações sobre produtos e rastrear pedidos.
EXEMPLO 3
A Harry & David Holdings, Inc. (Harry & David), especialista em presentes de Natal, contratou
grandes mainframes IBM, servidores UNIX e servidores Intel para lidar com um aumento de
tráfego anual antes da temporada de presentes. Cerca de 65% das vendas anuais ocorrem
entre meados de novembro e final de dezembro; eles pagam os custos mais altos durante esse
período e não antes - um exemplo de "pagamento conforme o uso".
EXEMPLO 4
A empresa de transporte russa Mostransagentstvo implementou um novo sistema que permite
que os clientes façam reservas de viagens imediatamente.
EXEMPLO 5
A Swets Information Services é um parceiro de terceirização que facilita o acesso e
gerenciamento de informações acadêmicas, comerciais e profissionais. São distribuídos links
entre 60.000 fornecedores e 65.000 bibliotecários, compradores e usuários finais. A Swets
Blackwell criou um sistema on-line para permitir que os clientes vejam respostas imediatas às
pesquisas por coleções de periódicos da biblioteca.
-
Agora que terminamos o nosso conteúdo elaboramos algumas questões para você verificar o
seu nível de entendimento sobre o assunto. Se tiver alguma dúvida, não tenha receio de voltar
ao conteúdo e revisá-lo.
VERIFICANDO O APRENDIZADO
MÓDULO 4
Categorizar os fundamentos da segurança em nuvem
A computação em nuvem tem sido vista como crescente solução para as demandas dos
usuários dos serviços de Tecnologia da Informação, garantindo serviços confiáveis e de melhor
desempenho. Além disso, proporciona disponibilidade e acesso de diferentes lugares via
internet, bem como de diferentes dispositivos - computadores, celulares e tablets.
Nesse cenário, os dados ficam submetidos às vulnerabilidades de uma rede como a internet,
sofrendo interceptações, ataques e modificações. Ou seja, por mais que a computação em
nuvem agregue uma série de benefícios para as empresas e usuários, ela também proporciona
alguns perigos na mesma proporção.
Essa solução traz inúmeros desafios de segurança dos serviços e dos dados armazenados na
infraestrutura dos provedores. O cuidado com as questões de segurança é primordial, pois
pode trazer reflexos negativos para as empresas e para os usuários que fazem uso de tais
serviços.
EXEMPLO
Um exemplo dessa situação foi a falha do serviço AWS (Amazon Web Services) em abril de
2011, que afetou a grande maioria dos sites que utilizavam sua infraestrutura, localizada na
Costa Leste dos EUA. Entre os afetados estão sites famosos que utilizam os recursos da AWS
para oferecer os seus serviços, tais quais: Quora, Reddit, FourSquare e Everyblock
(GILBERTSON et al 2011).
PRINCÍPIOS DA SEGURANÇA DA
INFORMAÇÃO
A segurança da informação consiste em garantir a integridade e proteção dos dados.
Entretanto, seu conceito não se baseia apenas na proteção dos dados dentro de um
computador, mas também dentro de um sistema, desde o ambiente externo à infraestrutura da
empresa.
INTEGRIDADE
Significa oferecer um serviço com a garantia de que os dados não irão sofrer nenhuma
alteração, mantendo sempre suas características originais na infraestrutura do provedor.
CONFIDENCIALIDADE
DISPONIBILIDADE
C – Confidencialidade
I – Integridade
D – Disponibilidade
A – Autenticidade
L – Legalidade
AUTENTICIDADE
É um princípio que garante a identidade de quem está enviando a informação. É através dele
que se garante que a informação seja proveniente da fonte anunciada, ou seja, que a pessoa
ou processo que enviou a informação seja realmente quem diz ser.
LEGALIDADE
PAPÉIS DA SEGURANÇA NA
COMPUTAÇÃO EM NUVEM
Os papéis são importantes para definir responsabilidades, acesso e perfil aos diferentes
usuários que fazem parte e estão envolvidos em uma solução de computação em nuvem.
A segurança dos serviços executados na computação em nuvem está de acordo com o tipo de
serviço e recursos oferecidos pelo provedor. Contudo, a responsabilidade pela segurança é
dividida tanto por parte do provedor, como do usuário, dessa maneira, nenhuma das partes fica
desprovida de responsabilidades.
No caso do serviço IaaS, o provedor é responsável pela infraestrutura física de TI, bem como
pela sua disponibilização, gestão e monitoramento da rede, do armazenamento e do servidor
hospedeiro. Porém, também oferece o serviço de máquina virtual ao usuário com uma
responsabilidade compartilhada.
Ao se optar pelo serviço PaaS, este facilita a administração dos serviços contratados, pois
permite que o usuário se concentre nas metas de seus aplicativos. Devido ao serviço de
máquina virtual e aplicativos ser de responsabilidade, tanto do provedor, como do usuário, é
possível eliminar a necessidade dos gestores de TI se preocuparem com administração de
infraestruturas de hardware. Assim, o usuário conta com uma plataforma de serviços na nuvem
mais simples e prática ao dividir a responsabilidade da administração do servidor de máquina
virtual e aplicativos com o provedor.
Para o usuário, o SaaS elimina preocupações com distribuição de correções, novas funções e
gerenciamento de sistemas. Todas essas atividades são de responsabilidade do provedor, que
se compromete a fornecer a melhor experiência de uso possível em diversos dispositivos.
É possível concluir que tanto o usuário como o provedor têm o controle total ou compartilhado
da infraestrutura da computação em nuvem, sendo rede, armazenamento, servidor, máquina
virtual ou aplicação. Tem também a responsabilidade sobre a segurança desses elementos.
Um exemplo é o serviço de disco virtual do Dropbox (tipo SaaS), no qual a maior parte dos
recursos é controlada pelo provedor, além de existir um procedimento de definição de senhas,
o que não impede o usuário de divulgar a sua senha de maneira indevida e comprometer seu
serviço.
SEGURANÇA NA COMPUTAÇÃO EM
NUVEM
A segurança na computação em nuvem é o desafio mais visível a ser enfrentado. Isso porque a
informação, que antes era armazenada localmente, agora se localiza na nuvem em local físico
que não se tem precisão onde é, nem que tipos de dados estão sendo armazenados juntos.
O acesso aos serviços estabelecidos nas nuvens é realizado por variados usuários
simultaneamente, gerando uma preocupação com a segurança e a garantia de níveis de
serviços.
Instituições de pesquisa como a Cloud Security Alliance – CSA (Simmonds, Rezek & Reed,
2011) e a European Network and Information Security Agency - Enisa (Catteddu & Hogben,
2009) destacam os problemas de segurança na computação em nuvem. Isso não é feito
apenas com o objetivo de proporcionar a computação em nuvem mais segura, mas também
para aumentar a adoção dessa tecnologia, tanto por parte do ambiente acadêmico, como pelas
empresas.
SEGURANÇA DE REDE
A categoria de segurança de rede refere-se a problemas de segurança associados às redes de
comunicações, às interações entre os elementos de processamento e armazenamento da
nuvem. Dessa forma, dividem-se nas seguintes subcategorias: transferências, firewall e
configurações de segurança. A característica dos provedores da nuvem em ter arquiteturas
distribuídas, compartilhando recursos em larga escala, além da sincronização de máquinas
virtual, implica em um maior fluxo de dados dentro da nuvem. Logo, requer maior controle dos
seus meios de comunicação.
INTERFACES
As interfaces de acesso às nuvens são os meios que permitem a utilização do serviço por parte
dos usuários, bem como a execução de tarefas administrativas e de controle do sistema. São
fundamentais para a comunicação entre aplicações e para permitir que algumas
funcionalidades sejam implementadas. No entanto, também podem ser violadas, o que foge da
responsabilidade direta do usuário.
VIRTUALIZAÇÃO
A técnica de virtualização divide os recursos virtualizados do hardware, mas é possível explorar
brechas de segurança que burlem esse isolamento entre as máquinas, possibilitando a captura
dos dados. Essas brechas de segurança, normalmente, são falhas do hypervisor, permitindo
acesso ao disco e à memória das máquinas, de forma que se possa acessar também dados de
outros usuários, o que afeta a integridade e a confidencialidade. Um exemplo de ataque entre
máquinas virtuais é o cross-VM attacks, que estabelece canais de comunicação entre
máquinas virtuais para facilitar a obtenção de dados por meios não autorizados.
GOVERNANÇA
Essa categoria está relacionada a problemas de perda de controle administrativo e de
segurança sobre os recursos e os dados, ao serem repassadas decisões dessa natureza ao
provedor da nuvem.
CONFORMIDADE
A categoria de conformidade de serviço trata de problemas relacionados às obrigações
contratuais estabelecidas para o serviço e seus usuários.
QUESTÕES LEGAIS
Em relação a essa categoria, é importante ressaltar que nem todos os aspectos legais de um
país são aplicáveis a uma nuvem, principalmente em relação à abrangência internacional de
algumas. Como a localização dos dados é incerta, pode haver distribuição em diversos data
centers, em diferentes países e sob jurisdições distintas.
PRINCIPAIS SOLUÇÕES DE SEGURANÇA
NA COMPUTAÇÃO EM NUVEM
Com o objetivo de proteger os dados dos usuários, os provedores que oferecem serviços de
computação em nuvem desenvolveram uma série de métodos que evitam o acesso de pessoas
não autorizadas às informações.
FIREWALL
Outro ponto importante é a proteção das instalações dos provedores de serviço em nuvem. Os
cuidados em manter a temperatura do local em níveis baixos (evitando o superaquecimento
das máquinas), ter fonte de energia elétrica alternativa e permitir que apenas funcionários
autorizados frequentem o espaço onde estão instalados os servidores são medidas de
segurança. Além disso, os provedores devem fazer backups (cópias de segurança)
periodicamente para recuperar dados, caso algum disco seja corrompido ou inutilizado.
Nas interfaces de acesso, o provedor deve realizar a autenticação para acesso à nuvem, a qual
deve ser composta por login e senha (a ser trocada periodicamente) – em alguns casos,
também é estabelecido um número de identificação. Outro recurso é eleger um administrador
com a responsabilidade de autorizar ou limitar os dados que os outros usuários poderão
visualizar, editar e compartilhar. Além disso, há também a codificação dos dados, os quais só
devem ser decodificados por pessoas autorizadas.
LOGIN
Login (derivado do inglês log in) ou logon ou signin, é o processo para acessar um sistema
informático restrito feita através da autenticação ou identificação do utilizador, usando
credenciais previamente cadastradas no sistema por esse utilizador.
VM-AWARE MALWARE
Por fim, a criptografia da máquina virtual, que camufla as informações ali existentes. Ela
permite que os dados, caso sejam acessados, não consigam ser interpretados pelo invasor,
auxiliando no combate de ataques do tipo footprinting e inserção de código malicioso.
FOOTPRINTING
Ao adotar medidas de segurança eficientes, tanto lógicas, como físicas, as chances de expor
as aplicações e dados em risco diminuem consideravelmente. Em alguns casos, a computação
em nuvem pode ser uma alternativa segura para guardar as aplicações em servidores internos,
já que é contratado um serviço especializado em segurança.
Para finalizar nosso conteúdo, assista ao vídeo que aborda os Fundamentos de segurança
em nuvem.
Agora que terminamos o nosso conteúdo elaboramos algumas questões para você verificar o
seu nível de entendimento sobre o assunto. Se tiver alguma dúvida, não tenha receio de voltar
ao conteúdo e revisá-lo.
VERIFICANDO O APRENDIZADO
CONCLUSÃO
CONSIDERAÇÕES FINAIS
A computação em nuvem é a tecnologia baseada no armazenamento e processamento dos
dados de usuários ou empresas em data centers de terceiros, que podem estar localizados em
qualquer parte do planeta.
A ideia principal é que ninguém mais precisaria instalar programas em seu computador para
realizar desde tarefas básicas (como mexer com planilhas), até trabalhos mais complexos
(como edição de imagens e vídeos), pois tudo seria feito na utilização da internet e hospedado
nos provedores da nuvem.
PODCAST
REFERÊNCIAS
CANALTECH. Mainframe da IBM comemora 50 anos. In: Canaltech. Publicado em: 09 abr.
2014.
CANALTECH. Que diferenças existem entre virtualização e computação na nuvem? E
qual adotar? In: Canaltech. Publicado em: 27 jan. 2014.
CLULEY, G. Evernote Hacked – Almost 50 Million Passwords Reset After Security Breach.
Consultado em meio eletrônico em: 08 jun. 2020.
GILBERTSON, S. Lessons From a Cloud Failure: It’s Not Amazon, It’s You. In: Wired.
Consultado em meio eletrônico em: 08 jun. 2020.
GONZALEZ, N. M.; MIERS, C.; REDÍGOLO, F.; SIMPLÍCIO, M.; CARVALHO, T.; NÄSLUND,
M.; POURZANDI, M. A Quantitative Analysis of Current Security Concerns and Solutions
for Cloud Computing. In: Journal of Cloud Computing – Advances, Systems and Applications,
v. 1, 2012.
IDEAL MARKETING - O que é SaaS: os softwares como serviço em nuvem. In: Ideal
Marketing. Publicado: 19 set. 2018.
MURCH R. Introduction to Utility Computing: How It Can Improve TCO, v.1, 2004.
NIST. NIST Definition of Cloud Computing, v15. In: Nist. Publicado: 01 dez. 2016.
EXPLORE+
Para aprofundar seus conhecimentos sobre o assunto abordado neste tema, atente-se a
algumas dicas:
Para saber mais um pouco, indicamos a leitura da matéria 5 Artigos mais acessados
sobre Computação em Nuvem em 2017, publicada em 13 dez. 2017. no site Mxm
Sistemas.
CONTEUDISTA
Daisy Cristine Albuquerque da Silva
CURRÍCULO LATTES