Você está na página 1de 4

ECS (Elastic Compute Cloud)

Elastic Computing Cloud nada mais é do que uma máquina virtual. Comparando com um data
center tradicional, é o equivalente a um servidor físico, onde você tem recursos computacionais
de CPU, memória, disco, conectividade e sistema operacional para que você possa rodar seus
serviços. O que difere é que você não precisa se preocupar com o hardware físico ou onde ele
será hospedado.
O conceito de virtualização e de máquinas virtuais já é bastante difundido e não é nenhuma
novidade, porque hypervisors já existem há muitos anos. Os mais conhecidos são Vmware,
Hyper-V e Xen Server. O serviço EC2 da AWS roda em uma versão customizada do Xen. Então
uma EC2 é uma máquina virtual hospedada na infraestrutura física da AWS.

No desenho, conseguimos deixar mais claro como funciona esse compartilhamento de recursos
entre diversas instâncias. Cada instância possui sua interface de rede virtual, que é protegida
por um firewall que roda dentro do hypervisor, entre a interface de rede física e a interface virtual
da instância. Todo pacote de comunicação passa por estas camadas para que instâncias
vizinhas sejam impedidas de ter qualquer tipo de acesso à sua instância.

Esse mecanismo de segmentação de recursos é o mesmo para memória.

No caso dos discos, as instâncias não acessam fisicamente os discos da máquina física. Todo
disco apresentado para a instância é virtualizado.

O serviço EC2 é elástico, pois você pode criar quantas instâncias precisar, do tamanho que
precisar, podendo usar o auto-scaling e load balancing para pagar apenas pelos recursos
necessários, pelo tempo necessário. Em Outubro de 2017 a AWS começou a bilhetar instâncias
Linux (que não possuem licenciamento) pelo período de cada 60 segundos. Isso traz ainda mais
economia, porque até então cada instância era bilhetada por hora, se seu ambiente de auto-
scaling subisse uma instância e ela ficasse online por 10 minutos, você seria cobrado por 1 hora
cheia. Agora, nesse cenário, você será cobrado apenas pelos 10 minutos.

Quanto ao Sistema Operacional, você tem a opção de usar uma distribuição Linux sem custo,
como a Amazon Linux, Debian, Ubuntu ou CentOS, bem como também pode optar por usar um
sistema operacional em que existe um custo de licenciamento, como RedHat Enterprise Linux e
Windows Server.
No cenário de uso do sistema operacional licenciado, existe a opção de pagar pelo licenciamento
juntamente com os recursos computacionais ou, caso você já tenha adquirido a licença, usá-la
na nuvem da AWS. Este último cenário é chamado de bring your own license e tem uma série
de requisitos que devem ser cumpridos.

Existem diversos tipos de instâncias, que variam pela combinação de CPU, memória,
armazenamento e capacidade de rede. Isso permite que você possa escolher a combinação de
recursos mais adequada para sua necessidade.

Uso geral
Instância de uso geral fornecem um equilíbrio de recursos entre computação (CPU), memória e
rede. Esse tipo de instância é uma boa opção para uso em diversos workloads.
Instâncias de uso geral estão sub-divididas em dois grupos:
• Instâncias de performance intermitente, e
• Instâncias de performance constante

2
Instâncias de performance intermitente trabalham com o conceito de créditos de CPU.
Um crédito de CPU é igual a uma vCPU em execução com 100% de uso por 1 minuto. Cada
instância T2 recebe uma determinada taxa de créditos de CPU por hora, de acordo com o
tamanho da instância. Quando uma instância T2 usa menos recursos de CPU do que sua linha
de base de uso, isto é, quando a CPU está ociosa, os créditos de CPU não utilizados são
armazenados, armazenando créditos de CPU para uso quando a necessidade de consumo for
maior que a linha de base. Quanto mais crédito acumular, mais tempo de intermitência a instância
poderá executar acima da linha de base.

Para exemplificar, vamos pegar o caso da instância do tipo T2.micro, que acumula 6 créditos de
CPU por hora. A linha de base de uma T2.micro é de 10% da capacidade de processamento de
uma CPU. Isso significa que, se 100% de uma CPU é 2.5GHz, a linha de base de desempenho
de processamento é de 0.25GHz. A cada hora que a instância consome menos que 0.25GHz,
ela ganha 6 créditos de CPU. Como cada crédito de CPU permite que a instância consuma 100%
da CPU por 1 minuto, então a cada 1 hora abaixo da linha de base, a instância ganha o direito
de trabalhar 6 minutos usando 100% da CPU, ou seja, usando 2.5GHz da CPU. Estamos
arredondando a conta por minuto, porém esse cálculo é feito por milissegundo.
Cada instância tem um máximo de créditos que pode acumular. No caso da T2.micro, ela pode
acumular o máximo de 144 créditos, que seria o cenário de ela trabalhar durante 24 horas abaixo
da linha de base.

Para vários cenários, como uma aplicação web com pouco acesso, instância de desempenho
intermitente pode ser uma boa opção, porém se a instância começar a consumir mais créditos
do que acumula, o desempenho pode ser bastante impactado, visto que o uso de CPU será
limitado.

No re:Invent de 2017 a AWS lançou a opção T2 unlimited, que permite que instâncias do tipo T2
possam continuar operando acima da linha de base de créditos mediante um custo adicional por
hora de uso da vCPU excedente. Esta é uma boa opção para continuar tendo um custo reduzido

3
porém sem comprometer o desempenho da instância em momentos prolongados de consumo
de CPU.

Otimizada para computação


Instâncias otimizadas para computação em geral possuem uma relação maior de poder de
processamento de CPU e menor de memória.

Otimizada para memória


Ao contrário de instâncias otimizadas para computação, instâncias otimizadas para memória
possuem uma relação de recursos que priorizam memória RAM.

Computação acelerada
Instâncias para computação acelerada possuem GPUs de alta performance, voltadas
principalmente para alto consumo de gráficos.

Otimizada para Armazenamento


Já instâncias otimizadas para armazenamento oferecem até 48TB de armazenamento local, com
alto troughtput de disco.

Você também pode gostar