Escolar Documentos
Profissional Documentos
Cultura Documentos
recursos do vSphere
Atualizar 3
VMware vSphere 7.0
VMware ESXi 7.0
vCenter Server 7.0
Você pode encontrar a documentação técnica mais atualizada no site da VMware, em:
https://docs.vmware.com/br/
©
Copyright 2006-2021 VMware, Inc. Todos os direitos reservados. Informações sobre direitos autorais e
marca registrada.
7 Memória persistente 55
Configurar vSphere HA para VMs de PMem 57
vSphere HA Controle de admissão PMem Reserva 58
Monitoramento e correção de memória do vSphere 59
n Considerações de desempenho
Em VMware, valorizamos a inclusão. Para promover esse princípio dentro de nossa comunidade
de clientes, parceiros e interna, criamos conteúdo usando uma linguagem inclusiva.
Público-alvo
Essas informações são para administradores de sistema que desejam compreender como o
sistema gerencia recursos e como eles podem personalizar o comportamento padrão. Também
é essencial para quem deseja compreender e usar pools de recursos, clusters, DRS, clusters de
armazenamento de dados, DRS de armazenamento, Storage I/O Control ou vSphere DPM.
Esta documentação pressupõe que você tenha um conhecimento prático do VMware ESXi e do
vCenter Server.
Observação Neste documento, "Memória" pode se referir à memória RAM física ou memória
persistente.
n Tipos de recursos
n Provedores de recursos
n Consumidores de recursos
Tipos de recursos
Os recursos incluem recursos de CPU, memória, energia, armazenamento e rede.
Provedores de recursos
Hosts e clusters, incluindo clusters de datastore, são provedores de recursos físicos.
Para hosts, os recursos disponíveis são a especificação de hardware do host, menos os recursos
usados pelo software de virtualização.
Um cluster é um grupo de hosts. Você pode criar um cluster usando vSphere Client e adicionar
vários hosts ao cluster. vCenter Server gerencia os recursos desses hosts em conjunto: o
cluster possui toda a CPU e memória de todos os hosts. Você pode habilitar o cluster para
balanceamento de carga ou failover conjunto. Consulte Capítulo 11 Criando um cluster DRS para
obter informações.
Consumidores de recursos
As máquinas virtuais são consumidores de recursos.
As configurações de recursos padrão atribuídas durante a criação funcionam bem para a maioria
das máquinas. Posteriormente, você poderá editar as configurações da máquina virtual para
alocar uma porcentagem baseada em compartilhamento do total de CPU, memória e E / S de
armazenamento do provedor de recursos ou uma reserva garantida de CPU e memória. Quando
você liga essa máquina virtual, o servidor verifica se há recursos não reservados suficientes
disponíveis e permite a ativação somente se houver recursos suficientes. Esse processo é
chamado de controle de admissão.
Um pool de recursos é uma abstração lógica para o gerenciamento flexível de recursos. Os pools
de recursos podem ser agrupados em hierarquias e usados para particionar hierarquicamente os
recursos de CPU e memória disponíveis. Portanto, os pools de recursos podem ser considerados
provedores de recursos e consumidores. Eles fornecem recursos para pools de recursos filho e
máquinas virtuais, mas também são consumidores de recursos porque consomem os recursos de
seus pais. Consulte Capítulo 10 Gerenciando pools de recursos.
ESXi hosts alocam a cada máquina virtual uma parte dos recursos de hardware subjacentes com
base em vários fatores:
n Número de máquinas virtuais ligadas e uso de recursos por essas máquinas virtuais.
n Defina um limite superior nos recursos que podem ser alocados para uma máquina virtual.
n Garanta que uma determinada máquina virtual sempre seja alocada com uma porcentagem
maior de recursos físicos do que outras máquinas virtuais.
n Editar configurações
n Controle de admissão
A tabela a seguir mostra os valores padrão de compartilhamento de CPU e memória para uma
máquina virtual. Para pools de recursos, os valores de compartilhamento de memória e CPU
padrão são os mesmos, mas devem ser multiplicados como se o pool de recursos fosse uma
máquina virtual com quatro CPUs virtuais e 16 GB de memória.
Alto 2000 compartilhamentos por CPU virtual 20 compartilhamentos por megabyte de memória
de máquina virtual configurada.
Normal 1000 compartilhamentos por CPU virtual 10 compartilhamentos por megabyte de memória
de máquina virtual configurada.
Baixo 500 compartilhamentos por CPU virtual 5 compartilhamentos por megabyte de memória de
máquina virtual configurada.
Por exemplo, uma máquina virtual SMP com duas CPUs virtuais e 1 GB de RAM com
compartilhamentos de CPU e memória definidos como Normal (Normal) tem 2x1000 = 2000
compartilhamentos de CPU e 10x1024 = 10240 compartilhamentos de memória.
As máquinas virtuais com mais de uma CPU virtual são chamadas de máquinas virtuais SMP
(multiprocessamento simétrico).
A prioridade relativa representada por cada compartilhamento é alterada quando uma nova
máquina virtual é ligada. Isso afeta todas as máquinas virtuais no mesmo pool de recursos. Todas
as máquinas virtuais têm o mesmo número de CPUs virtuais. Considere os exemplos a seguir.
n Duas máquinas virtuais vinculadas à CPU são executadas em um host com 8 GHz de
capacidade de CPU agregada. Seus compartilhamentos de CPU são definidos como Normal
(Normal) e têm 4 GHz cada.
n Uma terceira máquina virtual vinculada à CPU está ligada. Seu valor de compartilhamentos
de CPU está definido como Alto (High), o que significa que ele deve ter o dobro de
compartilhamentos que as máquinas definidas como Normal (Normal). A nova máquina
virtual recebe 4 GHz e as outras duas máquinas recebem apenas 2 GHz cada. O mesmo
resultado ocorrerá se o usuário especificar um valor de compartilhamento personalizado de
2000 para a terceira máquina virtual.
vCenter Server ou ESXi permite que você ligue uma máquina virtual somente se houver recursos
não reservados suficientes para satisfazer a reserva da máquina virtual. O servidor garante essa
quantidade mesmo quando o servidor físico está muito carregado. A reserva é expressa em
unidades concretas (megahertz ou megabytes).
Por exemplo, suponha que você tenha 2 GHz disponíveis e especifique uma reserva de 1 GHz
para a VM1 e 1 GHz para a VM2. Agora, cada máquina virtual tem a garantia de obter 1GHz se ela
precisar. No entanto, se a VM1 estiver usando apenas 500 MHz, a VM2 poderá usar 1,5 GHz.
Padrões de reserva para 0. Você poderá especificar uma reserva se precisar garantir que
as quantidades mínimas necessárias de CPU ou memória sempre estejam disponíveis para a
máquina virtual.
Um servidor pode alocar mais do que a reserva para uma máquina virtual, mas nunca aloca mais
do que o limite, mesmo se houver recursos não utilizados no sistema. O limite é expresso em
unidades concretas (megahertz, megabytes ou operações de E / S por segundo).
n Benefícios - Atribuir um limite é útil se você começar com um pequeno número de máquinas
virtuais e quiser gerenciar as expectativas do usuário. O desempenho se deteriora à medida
que você adiciona mais máquinas virtuais. Você pode simular a disponibilidade de menos
recursos especificando um limite.
As diretrizes a seguir podem ajudá-lo a obter melhor desempenho para suas máquinas virtuais.
n Ao especificar as reservas para máquinas virtuais, não confirme todos os recursos (planeje
deixar pelo menos 10% sem reserva). À medida que você se aproxima da reserva total de
toda a capacidade no sistema, torna-se cada vez mais difícil fazer alterações nas reservas
e na hierarquia do pool de recursos sem violar o controle de admissão. Em um cluster
habilitado para DRS, as reservas que confirmam totalmente a capacidade do cluster ou de
hosts individuais no cluster podem impedir que o DRS migre máquinas virtuais entre hosts.
Editar configurações
Use a caixa de diálogo Editar configurações para alterar as alocações de recursos de memória e
CPU.
Procedimentos
2 Clique com o botão direito do mouse e selecione Editar configurações (Edit Settings).
Opção Descrição
Limite Limite superior para a alocação de CPU deste pool de recursos. Selecione
Ilimitado (Unlimited) para especificar nenhum limite máximo.
Opção Descrição
5 Clique em Okey(OK).
Suponha que em um host ESXi, você tenha criado duas novas máquinas virtuais, uma para cada
um dos seus departamentos de QA (VM-QA) e Marketing (VM-Marketing).
host
VM-QA VM-Marketing
n Certifique-se de que a máquina virtual de marketing tenha uma certa quantidade de recursos
de CPU garantidos. Você pode fazer isso usando uma configuração de reserva.
Procedimentos
2 Clique com o botão direito do mouse em VM-QA (VM-QA), a máquina virtual para a qual você
deseja alterar os compartilhamentos e selecione Editar Configurações (Edit Settings).
3 Em Hardware Virtual (Virtual Hardware), expanda CPU e selecione Alta (High) no menu
suspenso Compartilhamentos (Shares).
4 Em Hardware Virtual (Virtual Hardware), expanda Memória e selecione Alta (High) no menu
suspenso Compartilhamentos (Shares).
5 Clique em Okey(OK).
6 Clique com o botão direito do mouse na máquina virtual de marketing ( VM-Marketing (VM-
Marketing)) e selecione Editar configurações (Edit Settings).
8 Clique em Okey(OK).
Controle de admissão
Quando você liga uma máquina virtual, o sistema verifica a quantidade de recursos de CPU e
memória que ainda não foram reservados. Com base nos recursos não reservados disponíveis, o
sistema determina se pode garantir a reserva para a qual a máquina virtual está configurada (se
houver). Esse processo é chamado de controle de admissão.
Se CPU e memória não reservadas suficientes estiverem disponíveis, ou se não houver reserva,
a máquina virtual será ligada. Caso contrário, um aviso de Recursos insuficientes será
exibido.
Observação Além da reserva de memória especificada pelo usuário, para cada máquina virtual
também há uma quantidade de memória de sobrecarga. Esse compromisso de memória extra
está incluído no cálculo de controle de admissão.
Quando o recurso vSphere DPM está ativado, os hosts podem ser colocados no modo de espera
(ou seja, desligados) para reduzir o consumo de energia. Os recursos não reservados fornecidos
por esses hosts são considerados disponíveis para controle de admissão. Se uma máquina virtual
não puder ser ligada sem esses recursos, será feita uma recomendação para ligar hosts em
espera suficientes. Para obter mais informações, consulte Gerenciamento de recursos de energia.
A virtualização de CPU não é a mesma coisa que emulação. ESXi não usa emulação para
executar CPUs virtuais. Com a emulação, todas as operações são executadas no software
por um emulador. Um emulador de software permite que os programas sejam executados em
um sistema de computador diferente daquele para o qual eles foram originalmente escritos.
O emulador faz isso ao emular ou reproduzir o comportamento do computador original,
aceitando os mesmos dados ou entradas e obtendo os mesmos resultados. A emulação fornece
portabilidade e executa o software projetado para uma plataforma em várias plataformas.
Ao usar essa assistência, o guest pode usar um modo separado de execução chamado modo
guest. O código guest, seja código de aplicativo ou código privilegiado, é executado no modo
guest. Em determinados eventos, o processador sai do modo guest e entra no modo raiz. O
hipervisor é executado no modo raiz, determina o motivo da saída, toma as ações necessárias e
reinicia o guest no modo guest.
Quando você usa a assistência de hardware para virtualização, não há necessidade de converter
o código. Como resultado, as chamadas de sistema ou as cargas de trabalho com uso intenso
de interceptação são executadas muito perto da velocidade nativa. Algumas cargas de trabalho,
como as que envolvem atualizações em tabelas de páginas, levam a um grande número de
saídas do modo guest para o modo raiz. Dependendo do número de saídas e do tempo total
gasto em saídas, a virtualização da CPU assistida por hardware pode acelerar a execução
significativamente.
Os modelos de processador podem diferir nos recursos de CPU que eles oferecem, e os
aplicativos em execução na máquina virtual podem fazer uso desses recursos. Portanto, não
®
é possível usar vMotion para migrar máquinas virtuais entre sistemas em execução em
processadores com conjuntos de recursos diferentes. Você pode evitar essa restrição, em alguns
casos, usando o Enhanced vMotion Compatibility (EVC) com processadores compatíveis com
esse recurso. Consulte a documentação vCenter Server e Gerenciamento de host para obter mais
informações.
Um aplicativo é vinculado à CPU se ele passa a maior parte do tempo executando instruções
em vez de aguardar eventos externos, como interação do usuário, entrada do dispositivo
ou recuperação de dados. Para esses aplicativos, a sobrecarga de virtualização da CPU
inclui as instruções adicionais que devem ser executadas. Essa sobrecarga leva o tempo de
processamento da CPU que o próprio aplicativo pode usar. A sobrecarga de virtualização da
CPU geralmente se traduz em uma redução no desempenho geral.
Para aplicativos que não são vinculados à CPU, a virtualização da CPU provavelmente se traduz
em um aumento no uso da CPU. Se a capacidade sobressalente da CPU estiver disponível para
absorver a sobrecarga, ela ainda poderá oferecer um desempenho comparável em termos de
taxa de transferência geral.
O ESXi oferece suporte a até 128 processadores virtuais (CPUs) para cada máquina virtual.
Os aplicativos de thread único podem tirar proveito apenas de uma única CPU. A implantação
desses aplicativos em máquinas virtuais de processador duplo não acelera o aplicativo. Em vez
disso, ela faz com que a segunda CPU virtual use recursos físicos que outras máquinas virtuais
poderiam usar.
Quando uma máquina virtual é agendada, seus processadores virtuais são agendados para
execução em processadores físicos. O VMkernel Resource Manager agenda as CPUs virtuais em
CPUs físicas, gerenciando assim o acesso da máquina virtual aos recursos físicos da CPU. O ESXi
é compatível com máquinas virtuais com até 128 CPUs virtuais.
Observação Neste capítulo, "Memória" pode se referir a RAM física ou Memória persistente.
n Processadores multicore
n Hyperthreading
Procedimentos
2 Em Hardware (Hardware), expanda CPU (CPU) para exibir as informações sobre o número e
o tipo de processadores físicos e o número de processadores lógicos.
n Use os atributos e recursos especiais disponíveis por meio do vSphere Client. O vSphere
Client permite que você se conecte ao host ESXi ou a um sistema vCenter Server.
n Use hyperthreading.
Processadores multicore
Os processadores multicore oferecem muitas vantagens para um host executando multitarefa de
máquinas virtuais.
Observação Neste tópico, "Memória" pode se referir a RAM física ou Memória persistente.
Cada processador lógico de cada núcleo de processador é usado de forma independente pelo
agendador de CPU ESXi para executar máquinas virtuais, fornecendo recursos semelhantes
aos sistemas SMP. Por exemplo, uma máquina virtual bidirecional pode ter seus processadores
virtuais em execução em processadores lógicos que pertencem ao mesmo núcleo ou em
processadores lógicos em diferentes núcleos físicos.
Hyperthreading
A tecnologia Hyperthreading permite que um único núcleo de processador físico se comporte
como dois processadores lógicos. O processador pode executar dois aplicativos independentes
ao mesmo tempo. Para evitar confusão entre processadores lógicos e físicos, a Intel se refere
a um processador físico como um soquete, e a discussão neste capítulo também usa essa
terminologia.
Observação Em processadores com a tecnologia Intel Hyper-Threading, cada núcleo pode ter
dois processadores lógicos que compartilham a maioria dos recursos do núcleo, como caches
de memória e unidades funcionais. Esses processadores lógicos são geralmente chamados de
threads.
Muitos processadores não oferecem suporte ao hyperthreading e, como resultado, têm apenas
um thread por núcleo. Para esses processadores, o número de núcleos também corresponde
ao número de processadores lógicos. Os seguintes processadores oferecem suporte ao
hyperthreading e têm dois threads por núcleo.
Os hosts ESXi gerenciam o tempo do processador de forma inteligente para garantir que a carga
seja distribuída sem problemas pelos núcleos do processador no sistema. Os processadores
lógicos no mesmo núcleo têm números de CPU consecutivos, de modo que as CPUs 0 e 1
estão no primeiro núcleo juntas, as CPUs 2 e 3 estão no segundo núcleo e assim por diante. As
máquinas virtuais são preferencialmente agendadas em dois núcleos diferentes em vez de em
dois processadores lógicos no mesmo núcleo.
Se não houver trabalho para um processador lógico, ele será colocado em um estado
interrompido, o que libera seus recursos de execução e permite que a máquina virtual em
execução no outro processador lógico no mesmo núcleo use todos os recursos de execução
do núcleo. O VMware agendador contabiliza corretamente esse tempo de interrupção e
carrega uma máquina virtual em execução com todos os recursos de uma núcleo mais do
que uma máquina virtual em execução em meio núcleo. Essa abordagem ao gerenciamento
do processador garante que o servidor não viole nenhuma das regras padrão de alocação de
recursos ESXi.
Habilitar Hyperthreading
Para ativar o hyperthreading, primeiro você deve habilitá-lo nas configurações de BIOS do seu
sistema e, em seguida, ativá-lo no vSphere Client. O Hyperthreading é ativado por padrão.
Procedimentos
Alguns fabricantes rotulam essa opção como Processador lógico (Logical Processor),
enquanto outros a chamam Ativar Hyperthreading (Enable Hyperthreading).
b Clique em Configurar(Configure).
Você deve reiniciar o host para que a configuração entre em vigor. O Hyperthreading
será ativado se o valor for verdadeiro .
Resultados
A configuração de afinidade de CPU para uma máquina virtual se aplica a todas as CPUs virtuais
associadas à máquina virtual e a todos os outros threads (também conhecidos como mundos)
associados à máquina virtual. Esses threads de máquina virtual executam o processamento
necessário para emular mouse, teclado, tela, CD-ROM e diversos dispositivos legados.
Em alguns casos, como cargas de trabalho com exibição intensa, uma comunicação significativa
pode ocorrer entre as CPUs virtuais e esses outros threads da máquina virtual. O desempenho
poderá diminuir se a configuração de afinidade da máquina virtual impedir que esses threads
adicionais sejam agendados simultaneamente com as CPUs virtuais da máquina virtual. Exemplos
disso incluem uma máquina virtual com processador único com afinidade para uma única CPU ou
uma máquina virtual SMP bidirecional com afinidade para apenas duas CPUs.
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e clique em Editar Configurações
(Edit Settings).
5 Selecione os processadores onde deseja que a máquina virtual seja executada e clique em
OK (OK).
n Como o controle de admissão da CPU não considera a afinidade, uma máquina virtual com
configurações de afinidade manual pode nem sempre receber sua reserva completa.
As máquinas virtuais que não têm configurações de afinidade manual não são afetadas
negativamente por máquinas virtuais com configurações de afinidade manual.
n Quando você move uma máquina virtual de um host para outro, a afinidade pode não se
aplicar mais porque o novo host pode ter um número diferente de processadores.
n O agendador NUMA pode não ser capaz de gerenciar uma máquina virtual que já esteja
atribuída a determinados processadores usando afinidade. Para obter mais informações,
consulte Capítulo 16 Usando sistemas NUMA com o ESXi.
A seleção de uma política de alto desempenho fornece um desempenho mais absoluto, mas
com menor eficiência e desempenho por watt. Políticas de baixa energia fornecem desempenho
menos absoluto, mas com maior eficiência.
Você pode selecionar uma política para o host que gerencia usando o VMware Host Client. Se
você não selecionar uma política, ESXi usará Balanceado por padrão.
Quando uma CPU é executada em menor frequência, ela também pode ser executada em menor
voltagem, o que economiza energia. Esse tipo de gerenciamento de energia é normalmente
chamado de Dynamic Voltage and Frequency Dimensioning (DVFS). ESXi tenta ajustar as
frequências da CPU para que o desempenho da máquina virtual não seja afetado.
Quando uma CPU está ociosa, ESXi pode aplicar estados de interrupção profunda, também
conhecidos como estados C. Quanto mais profundo o estado C, menos energia a CPU usa, mas
também leva mais tempo para que a CPU comece a funcionar novamente. Quando uma CPU
se torna ociosa, ESXi aplica um algoritmo para prever a duração do estado ocioso e escolhe
um estado C apropriado para inserir. Em políticas de gerenciamento de energia que não usam
estados C profundos, ESXi usa apenas o estado de parada mais raso para CPUs ociosas, C1.
Pré-requisitos
Observação Alguns sistemas têm a tecnologia Processor Clocking Control (PCC), que permite
que ESXi gerencie a energia do sistema host, mesmo que as configurações do BIOS do host
não especifiquem o modo Controlado pelo sistema operacional. Com essa tecnologia, ESXi não
gerencia P-estados diretamente. Em vez disso, o host coopera com o BIOS para determinar
a taxa de relógio do processador. Os sistemas HP que suportam essa tecnologia têm uma
configuração de BIOS chamada Gerenciamento de energia cooperativa que é ativada por
padrão.
Se o hardware do host não permitir que o sistema operacional gerencie a energia, apenas
a política Sem suporte estará disponível. (Em alguns sistemas, apenas a política de Alto
Desempenho está disponível.)
Procedimentos
2 Clique em Configurar(Configure).
Pré-requisitos
Procedimentos
2 Clique em Configurar(Configure).
4 No painel direito, você pode editar os parâmetros de gerenciamento de energia que afetam a
política Personalizada.
Parâmetro Descrição
Power.MaxCpuLoad Use os estados P para economizar energia em uma CPU somente quando
a CPU estiver ocupada por menos do que a porcentagem especificada de
tempo real.
Power.MinFreqPct Não use nenhum estado P mais lento que a porcentagem determinada da
velocidade total da CPU.
Power.TimerHz Controla quantas vezes por segundo ESXi reavalia em qual estado P cada
CPU deve estar.
Power.CStateMaxLatency Não use estados C cuja latência seja maior que esse valor.
Power.CStateResidencyCoef Quando uma CPU ficar ociosa, escolha o estado C mais profundo cuja
latência multiplicada por esse valor seja menor do que a previsão do host
de quanto tempo a CPU permanecerá ociosa. Valores maiores tornam ESXi
mais conservador sobre o uso de estados C profundos, enquanto valores
menores são mais agressivos.
Power.CStatePredictedCoef Um parâmetro no algoritmo ESXi para prever por quanto tempo uma CPU
que fica ociosa permanecerá ociosa. Não é recomendável alterar este valor.
6 Clique em Okey(OK).
O VMkernel gerencia toda a RAM física no host. O VMkernel dedica parte dessa RAM física
gerenciada para uso próprio. O restante está disponível para uso por máquinas virtuais.
n Compartilhamento de memória
n Virtualização de memória
Por exemplo, considere uma máquina virtual com um tamanho configurado de 1 GB. Quando o
sistema operacional guest é inicializado, ele detecta que está sendo executado em uma máquina
dedicada com 1 GB de memória física. Em alguns casos, a máquina virtual pode receber 1 GB
completo. Em outros casos, pode receber uma alocação menor. Independentemente da alocação
real, o sistema operacional guest continua a se comportar como se estivesse sendo executado
em uma máquina dedicada com 1 GB de memória física.
Compartilhamentos
Especifique a prioridade relativa para uma máquina virtual se mais do que a reserva estiver
disponível.
Reserva
É um limite inferior garantido para a quantidade de RAM física que o host reserva para a
máquina virtual, mesmo quando a memória é supercomprometida. Defina a reserva para um
nível que garanta que a máquina virtual tenha memória suficiente para executar de forma
eficiente, sem paginação excessiva.
Depois que uma máquina virtual consome toda a memória dentro de sua reserva, ela tem
permissão para reter essa quantidade de memória e essa memória não é recuperada,
mesmo se a máquina virtual se tornar ociosa. Alguns sistemas operacionais convidados (por
exemplo, Linux) podem não acessar toda a memória configurada imediatamente após a
inicialização. Até que as máquinas virtuais consumam toda a memória em sua reserva, o
VMkernel pode alocar qualquer parte não utilizada de sua reserva para outras máquinas
virtuais. No entanto, depois que a carga de trabalho do convidado aumenta e a máquina
virtual consome sua reserva completa, é permitido manter essa memória.
Limite
É um limite superior da quantidade de RAM física que o host pode alocar para a máquina
virtual. A alocação de memória da máquina virtual também é implicitamente limitada pelo
tamanho configurado.
Devido às técnicas de gerenciamento de memória que o host ESXi usa, suas máquinas virtuais
podem usar mais RAM virtual do que a RAM física disponível no host. Por exemplo, você pode ter
um host com 2 GB de memória e executar quatro máquinas virtuais com 1 GB de memória cada.
Nesse caso, a memória está comprometida demais. Por exemplo, se todas as quatro máquinas
virtuais estiverem ociosas, a memória consumida combinada poderá estar bem abaixo de 2 GB.
No entanto, se todas as máquinas virtuais de 4 GB estiverem consumindo memória ativamente,
seu espaço de memória poderá exceder 2 GB e o host ESXi ficará comprometido demais.
O comprometimento excessivo faz sentido porque, normalmente, algumas máquinas virtuais são
pouco carregadas, enquanto outras são mais pesadamente carregadas, e os níveis de atividade
relativa variam ao longo do tempo.
Para melhorar a utilização da memória, o host ESXi transfere a memória de máquinas virtuais
ociosas para máquinas virtuais que precisam de mais memória. Use o parâmetro Reserva ou
Compartilhamentos para alocar preferencialmente a memória a máquinas virtuais importantes.
Essa memória permanecerá disponível para outras máquinas virtuais se não estiver em uso.
O ESXi implementa vários mecanismos, como balonamento, compartilhamento de memória,
compactação e troca de memória para fornecer um desempenho razoável, mesmo se o host
não estiver muito comprometido em termos de memória.
Um host ESXi pode ficar sem memória se as máquinas virtuais consumirem toda a memória
reservável em um ambiente com excesso de memória. Embora as máquinas virtuais ligadas não
sejam afetadas, uma nova máquina virtual pode falhar ao ser ligada devido à falta de memória.
Além disso, a compactação de memória é ativada por padrão em ESXi hosts para melhorar o
desempenho da máquina virtual quando a memória é supercomprometida, conforme descrito em
Compressão de memória.
Compartilhamento de memória
O compartilhamento de memória é uma técnica proprietária ESXi que pode ajudar a obter maior
densidade de memória em um host.
Virtualização de memória
Devido ao nível extra de mapeamento de memória introduzido pela virtualização, ESXi pode
gerenciar efetivamente a memória em todas as máquinas virtuais.
Uma parte da memória física de uma máquina virtual pode ser mapeada para páginas
compartilhadas ou para páginas não mapeadas ou trocadas.
O VMM de cada máquina virtual mantém um mapeamento das páginas de memória física
do sistema operacional convidado para as páginas de memória física na máquina subjacente.
(VMware refere-se às páginas físicas do host subjacente como páginas de "máquina" e as
páginas físicas do sistema operacional convidado como páginas "físicas".)
Cada máquina virtual vê um espaço de memória física endereçável, com base em zero e
contíguo. A memória da máquina subjacente no servidor usada por cada máquina virtual não
é necessariamente contígua.
Os endereços físicos virtuais de guest para guest são gerenciados pelo sistema operacional
guest. O hipervisor é responsável apenas pela conversão dos endereços físicos guest em
endereços de máquina. A virtualização de memória assistida por hardware utiliza a instalação
de hardware para gerar os mapeamentos combinados com as tabelas de página do guest e as
tabelas de página aninhadas mantidas pelo hipervisor.
a b b c machine memory
n As setas da memória virtual guest para a memória física guest mostram o mapeamento
mantido pelas tabelas de páginas no sistema operacional guest. (O mapeamento da memória
virtual para a memória linear para processadores com arquitetura x86 não é mostrado.)
Observação Neste tópico, "Memória" pode se referir a RAM física ou Memória persistente. ()
Considerações de desempenho
Ao usar a assistência de hardware, você elimina a sobrecarga da virtualização de memória de
software. Em particular, a assistência de hardware elimina a sobrecarga necessária para manter
as tabelas de páginas de sombra em sincronização com as tabelas de páginas de convidados. No
entanto, a latência de falta de TLB ao usar a assistência de hardware é significativamente maior.
Por padrão, o hipervisor usa páginas grandes em modos assistidos por hardware para reduzir o
custo de erros de TLB. Como resultado, se uma carga de trabalho se beneficia ou não usando a
assistência de hardware depende principalmente da sobrecarga que a virtualização de memória
causa ao usar a virtualização de memória de software. Se uma carga de trabalho envolver
uma pequena quantidade de atividade da tabela de páginas (como a criação de processos,
o mapeamento da memória ou as alternâncias de contexto), a virtualização de software não
causará uma sobrecarga significativa. Por outro lado, cargas de trabalho com uma grande
quantidade de atividade de tabela de páginas provavelmente se beneficiarão da assistência de
hardware.
Por padrão, o hipervisor usa páginas grandes em modos assistidos por hardware para reduzir
o custo de erros de TLB. O melhor desempenho é obtido com o uso de páginas grandes nas
conversões de endereços de guest virtual para físico e guest para máquinas.
A arquitetura x86 permite que o software do sistema use páginas de 4 KB, 2 MB e 1 GB.
Referimo-nos a páginas de 4KB como páginas pequenas, enquanto páginas de 2 MB e 1 GB
são chamadas de páginas grandes. As páginas grandes aliviam a pressão do buffer de tradução
(TLS) e reduzem o custo das andadas da tabela de páginas, o que resulta em um melhor
desempenho da carga de trabalho.
Em ambientes virtualizados, as páginas grandes podem ser usadas pelo hipervisor e pelo sistema
operacional convidado de forma independente. Embora o maior impacto sobre o desempenho
seja obtido se páginas grandes forem usadas pelo guest e pelo hipervisor, na maioria dos casos,
um impacto sobre o desempenho poderá ser observado, mesmo que páginas grandes sejam
usadas apenas no nível do hipervisor.
O hipervisor ESXi usa 2 MB de páginas para fazer backup da vRAM guest por padrão. O vSphere
6.7 ESXi oferece suporte limitado para o backup da vRAM guest com páginas de 1 GB. Para obter
mais informações, consulte Backing Guest vRAM with 1GB Pages .
Ao administrar recursos de memória, você pode especificar a alocação de memória. Se você não
personalizar a alocação de memória, o host ESXi usará padrões que funcionam bem na maioria
das situações.
n Use os atributos e recursos especiais disponíveis por meio do vSphere Client (). O vSphere
Client permite que você se conecte ao host ESXi ou ao sistema vCenter Server.
Observação Neste capítulo, "Memória" pode se referir a RAM física ou Memória persistente.
n Recuperação de memória
n Compressão de memória
n Confiabilidade da Memória
n O espaço extra necessário pelo host ESXi para seu próprio código e estruturas de dados,
além da memória alocada a cada máquina virtual.
ESXi virtualização de memória adiciona pouco tempo de sobrecarga aos acessos à memória.
Como o hardware de paginação do processador usa tabelas de páginas (tabelas de páginas
de sombra para abordagem baseada em software ou tabelas de página de dois níveis para
abordagem assistida por hardware) diretamente, a maioria dos acessos de memória na máquina
virtual pode ser executada sem sobrecarga de conversão de endereços.
A sobrecarga de memória inclui espaço reservado para o buffer de quadro da máquina virtual e
várias estruturas de dados de virtualização, como tabelas de páginas de sombra. A sobrecarga
de memória depende do número de CPUs virtuais e da memória configurada para o sistema
operacional convidado.
A tabela a seguir lista a quantidade de memória de sobrecarga necessária para ligar uma
máquina virtual. Depois que uma máquina virtual está em execução, a quantidade de memória
adicional que ela usa pode ser diferente da quantidade listada na tabela. Os valores de amostra
foram coletados com a troca VMX ativada e a MMU de hardware ativada para a máquina virtual.
(A troca VMX é ativada por padrão.)
Por exemplo, uma máquina virtual de 1 GB pode ter o limite padrão (ilimitado) ou um limite
especificado pelo usuário (por exemplo, 2 GB). Em ambos os casos, o host ESXi nunca aloca mais
de 1 GB, o tamanho da memória física que foi especificado para ele.
Um host determina as alocações para cada máquina virtual com base no número de
compartilhamentos alocados a ela e em uma estimativa do tamanho do seu conjunto de trabalho
recente.
n Tamanho do conjunto de trabalho - ESXi hosts estimam o conjunto de trabalho para uma
máquina virtual monitorando a atividade de memória durante períodos sucessivos de tempo
de execução da máquina virtual. As estimativas são atenuadas ao longo de vários períodos
de tempo usando técnicas que respondem rapidamente a aumentos no tamanho do conjunto
de trabalho e mais lentamente a diminuições no tamanho do conjunto de trabalho.
Essa abordagem garante que uma máquina virtual da qual a memória ociosa é recuperada
possa aumentar rapidamente para sua alocação completa baseada em compartilhamento
quando começar a usar sua memória de forma mais ativa.
Você pode modificar a taxa de imposto de memória ociosa com a opção Mem.IdleTax. Use
essa opção, juntamente com o atributo avançado Mem.SamplePeriod, para controlar como o
sistema determina as alocações de memória de destino para as máquinas virtuais. Consulte
Definir atributos de host avançados.
Observação Na maioria dos casos, as alterações em Mem.IdleTax não são necessárias nem
apropriadas.
ESXi reserva memória por máquina virtual para vários fins. A memória para as necessidades de
determinados componentes, como o monitor de máquina virtual (VMM) e dispositivos virtuais, é
totalmente reservada quando uma máquina virtual é ligada. No entanto, parte da memória de
sobrecarga reservada para o processo VMX pode ser trocada. O recurso de permuta VMX reduz
significativamente a reserva de memória VMX (por exemplo, de cerca de 50 MB ou mais por
máquina virtual para cerca de 10 MB por máquina virtual). Isso permite que a memória restante
seja trocada quando a memória do host for supercomitida, reduzindo a reserva de memória de
sobrecarga para cada máquina virtual.
O host cria arquivos de permuta VMX automaticamente, desde que haja espaço livre em disco
suficiente no momento em que uma máquina virtual é ligada.
Recuperação de memória
ESXi hosts podem recuperar memória de máquinas virtuais.
Um host aloca a quantidade de memória especificada por uma reserva diretamente para uma
máquina virtual. Qualquer coisa além da reserva é alocada usando os recursos físicos do host ou,
quando os recursos físicos não estão disponíveis, são manipulados usando técnicas especiais,
como balonismo ou troca. Os hosts podem usar duas técnicas para expandir ou contrair
dinamicamente a quantidade de memória alocada às máquinas virtuais.
n O sistema ESXi troca uma página de uma máquina virtual para um arquivo de permuta de
servidor sem qualquer envolvimento do sistema operacional guest. Cada máquina virtual tem
seu próprio arquivo de permuta.
O driver usa uma técnica de balão proprietária que fornece um desempenho previsível que se
aproxima do comportamento de um sistema nativo sob restrições de memória semelhantes.
Essa técnica aumenta ou diminui a pressão da memória no sistema operacional guest, fazendo
com que o guest use seus próprios algoritmos de gerenciamento de memória nativa. Quando
a memória está fraca, o sistema operacional guest determina quais páginas devem ser
recuperadas e, se necessário, as troca para seu próprio disco virtual.
memory
swap space
memory
swap space
memory
Observação Você deve configurar o sistema operacional guest com espaço de troca suficiente.
Alguns sistemas operacionais convidados têm limitações adicionais.
Os hosts ESXi usam a troca para recuperar forçosamente a memória de uma máquina virtual
quando o driver vmmemctl não está disponível ou não responde.
n Ele não está em execução (por exemplo, enquanto o sistema operacional guest está sendo
inicializado).
As técnicas de paginação por demanda padrão alternam as páginas quando a máquina virtual
precisa delas.
O host ESXi cria um arquivo de permuta quando uma máquina virtual é ligada. Se esse arquivo
não puder ser criado, a máquina virtual não poderá ser ligada. Em vez de aceitar o padrão, você
também pode:
n Use as opções de configuração por máquina virtual para alterar o repositório de dados para
outro local de armazenamento compartilhado.
n Use a permuta host-local, que permite que você especifique um datastore armazenado
localmente no host. Isso permite a troca em um nível por host, economizando espaço na
SAN. No entanto, isso pode levar a uma leve degradação no desempenho do vSphere
vMotion porque as páginas trocadas para um arquivo de permuta local no host de origem
devem ser transferidas pela rede para o host de destino. Atualmente, vSAN e os datastores
de vVols não podem ser especificados para a permuta host-local.
Procedimentos
2 Clique em Configurar(Configure).
4 Selecione a opção Datastore especificado pelo host (Datastore specified by host) e clique
em OK (OK).
6 Clique em Configurar(Configure).
Resultados
Procedimentos
2 Clique em Configurar(Configure).
3 Em Máquinas Virtuais (Virtual Machines), selecione Alternar local do arquivo (Swap file
location).
Resultados
Essa reserva de permuta é necessária para garantir que o host ESXi possa preservar a memória
da máquina virtual em quaisquer circunstâncias. Na prática, apenas uma pequena fração do
espaço de permuta no nível do host pode ser usada.
Se você estiver comprometendo demais a memória com ESXi, para oferecer suporte à troca
entre convidados induzida por balonismo, certifique-se de que seus sistemas operacionais
convidados também tenham espaço de troca suficiente. Esse espaço de permuta no nível de
convidado deve ser maior ou igual à diferença entre o tamanho da memória configurada da
máquina virtual e sua Reserva.
Para evitar falhas na máquina virtual, aumente o tamanho do espaço de permuta nas suas
máquinas virtuais.
Os sistemas operacionais convidados com muita memória e pequenos discos virtuais (por
exemplo, uma máquina virtual com 8 GB de RAM e um disco virtual de 2 GB) são mais suscetíveis
a ter espaço de permuta insuficiente.
Quando você cria um arquivo de permuta grande (por exemplo, maior que 100 GB), o tempo
necessário para a máquina virtual ser ligada pode aumentar significativamente. Para evitar isso,
defina uma reserva alta para máquinas virtuais grandes.
Por padrão, os arquivos de permuta para uma máquina virtual estão localizados em um
repositório de dados na pasta que contém os outros arquivos da máquina virtual. No entanto,
você pode configurar seu host para colocar arquivos de permuta da máquina virtual em um
repositório de dados alternativo.
Você pode usar essa opção para colocar arquivos de permuta da máquina virtual em um
armazenamento de baixo custo ou desempenho superior. Você também pode substituir essa
configuração de nível de host para máquinas virtuais individuais.
Definir uma localização alternativa do arquivo de permuta pode fazer com que as migrações
com o vMotion sejam concluídas mais lentamente. Para obter o melhor desempenho do vMotion,
armazene a máquina virtual em um repositório de dados local em vez de no mesmo diretório
que os arquivos de permuta da máquina virtual. Se a máquina virtual estiver armazenada em um
repositório de dados local, o armazenamento do arquivo de permuta com os outros arquivos da
máquina virtual não melhorará o vMotion.
Pré-requisitos
Procedimentos
2 Clique em Configurar(Configure).
3 Em Máquinas Virtuais (Virtual Machines), clique em Alternar local do arquivo (Swap file
location).
4 Clique em Editar(Edit).
Opção Descrição
Diretório da máquina virtual Armazena o arquivo de permuta no mesmo diretório que o arquivo de
configuração da máquina virtual.
7 Clique em Okey(OK).
Resultados
Você pode configurar um local de arquivo de permuta alternativo para colocar arquivos de
permuta de máquina virtual em um armazenamento de baixo custo ou de alto desempenho,
dependendo de suas necessidades.
Pré-requisitos
Antes de configurar uma localização de arquivo de permuta de máquina virtual para um cluster,
você deve configurar as localizações de arquivo de permuta de máquina virtual para os hosts
no cluster, conforme descrito em Configurar as propriedades do arquivo de permuta da máquina
virtual para o host.
Procedimentos
2 Clique em Configurar(Configure).
Opção Descrição
Diretório da máquina virtual Armazena o arquivo de permuta no mesmo diretório que o arquivo de
configuração da máquina virtual.
Datastore especificado pelo host Armazena o arquivo de permuta na localização especificada na configuração
do host.
Se o arquivo de permuta não puder ser armazenado no datastore
especificado pelo host, o arquivo de permuta será armazenado na mesma
pasta que a máquina virtual.
6 Clique em Okey(OK).
Procedimentos
Resultados
ESXi compartilhamento de memória é executado como uma atividade em segundo plano que
procura oportunidades de compartilhamento ao longo do tempo. A quantidade de memória
salva varia ao longo do tempo. Para uma carga de trabalho razoavelmente constante, a
quantidade geralmente aumenta devagar até que todas as oportunidades de compartilhamento
sejam exploradas.
Você também pode configurar o compartilhamento para máquinas virtuais individuais definindo a
opção sched.mem.pshare.enable .
Consulte Capítulo 17 Atributos avançados para obter informações sobre como definir opções
avançadas.
Compressão de memória
ESXi fornece um cache de compactação de memória para melhorar o desempenho da máquina
virtual quando você usa o comprometimento excessivo da memória. A compactação de memória
está ativada por padrão. Quando a memória de um host fica supercomprometida, ESXi compacta
as páginas virtuais e as armazena na memória.
Como o acesso à memória compactada é mais rápido do que o acesso à memória que é
trocada para o disco, a compactação de memória em ESXi permite que você comprometa
demais a memória sem prejudicar significativamente o desempenho. Quando uma página virtual
precisa ser trocada, ESXi primeiro tenta compactar a página. As páginas que podem ser
compactadas para 2 KB ou menos são armazenadas no cache de compactação da máquina
virtual, aumentando a capacidade do host.
Você pode definir o tamanho máximo para o cache de compactação e desativar a compactação
de memória usando a caixa de diálogo Configurações avançadas no vSphere Client.
Procedimentos
2 Clique em Configurar(Configure).
6 Clique em Okey(OK).
Se você não definir o tamanho do cache de compactação, ESXi usará o valor padrão de 10 por
cento.
Procedimentos
2 Clique em Configurar(Configure).
O valor é uma porcentagem do tamanho da máquina virtual e deve estar entre 5 e 100 por
cento.
6 Clique em Okey(OK).
Algumas dessas métricas de memória medem a memória física do convidado, enquanto outras
medem a memória da máquina. Por exemplo, dois tipos de uso de memória que você pode
examinar usando métricas de desempenho são a memória física guest e a memória da máquina.
Você mede a memória física do convidado usando a métrica Memória concedida (para uma
máquina virtual) ou Memória compartilhada (para um host). Para medir a memória da máquina,
no entanto, use Memória consumida (para uma máquina virtual) ou Memória compartilhada
comum (para um host). É importante compreender a diferença conceitual entre esses tipos de
uso de memória para saber o que essas métricas estão medindo e como interpretá-las.
O VMkernel mapeia a memória física do convidado para a memória da máquina, mas elas
nem sempre são mapeadas de um para um. Várias regiões da memória física guest podem
ser mapeadas para a mesma região da memória da máquina (quando o compartilhamento de
memória) ou regiões específicas da memória física guest podem não ser mapeadas para a
memória da máquina (quando o VMkernel troca ou balança a memória física guest). Nessas
situações, os cálculos do uso de memória física do convidado e do uso de memória da máquina
para uma máquina virtual individual ou um host são diferentes.
Considere o exemplo da figura a seguir, que mostra duas máquinas virtuais em execução em
um host. Cada bloco representa 4 KB de memória e cada cor / letra representa um conjunto
diferente de dados em um bloco.
a b c d e f machine memory
A diferença importante entre essas duas métricas é que a Memória concedida conta o número
de blocos com setas no nível da memória física do convidado e Memória consumida conta o
número de blocos com setas no nível de memória da máquina. O número de blocos difere entre
os dois níveis devido ao compartilhamento de memória e, portanto, a Memória concedida e a
Memória consumida diferem. A memória está sendo salva por meio do compartilhamento ou de
outras técnicas de recuperação.
Confiabilidade da Memória
A confiabilidade da memória, também conhecida como isolamento de erro, permite que ESXi
pare de usar partes da memória quando determina que uma falha pode ocorrer, bem como
quando ocorreu uma falha.
Quando erros corrigidos suficientes são relatados em um endereço específico, ESXi para de usar
esse endereço para evitar que o erro corrigido se torne um erro não corrigido.
Procedimentos
1 Desative o host.
A troca do sistema permite que o sistema recupere memória de consumidores de memória que
não são máquinas virtuais. Quando a troca do sistema está ativada, você tem uma compensação
entre o impacto de recuperar a memória de outro processo e a capacidade de atribuir a memória
a uma máquina virtual que pode usá-la. A quantidade de espaço necessária para a troca do
sistema é de 1 GB.
ESXi determina automaticamente onde a permuta do sistema deve ser armazenada. Esta é a
localização do arquivo de permuta preferencial (Preferred swap file location). Essa decisão
pode ser auxiliada selecionando um determinado conjunto de opções. O sistema seleciona a
melhor opção ativada possível. Se nenhuma das opções for viável, a troca do sistema não será
ativada.
Pré-requisitos
Procedimentos
2 Clique em Configurar(Configure).
4 Clique em Editar(Edit).
5 Marque as caixas de seleção para cada opção que você deseja ativar.
7 Clique em Okey(OK).
A memória persistente pode ser consumida por máquinas virtuais em dois modos diferentes. Os
sistemas operacionais convidados legados ainda podem tirar proveito do recurso de disco de
memória persistente virtual.
Usando o vPMemDisk, a memória pode ser acessada pelo sistema operacional convidado
como um dispositivo SCSI virtual, mas o disco virtual é armazenado em um datastore PMem.
Quando você cria uma VM com o PMem, a memória é reservada para ela no momento da criação
do disco rígido. O controle de admissão também é feito no momento da criação do disco rígido.
Para obter mais informações, consulte vSphere HA Controle de admissão PMem Reserva.
Em um cluster, cada VM tem alguma capacidade para PMem. A quantidade total de PMem não
deve ser maior que a quantidade total disponível no cluster. O consumo de PMem inclui VMs
ligadas e desligadas. Se uma VM estiver configurada para usar o PMem e você não usar o DRS,
deverá escolher manualmente um host que tenha PMem suficiente para colocar a VM.
O NVDIMM é acessado como memória. Quando você usa o armazenamento tradicional, existe
software entre aplicativos e dispositivos de armazenamento, o que pode causar um atraso no
tempo de processamento. Quando você usa o PMem, os aplicativos usam o armazenamento
diretamente. Isso significa que o desempenho do PMem é melhor do que o armazenamento
tradicional. O armazenamento é local para o host. No entanto, como o software do sistema não
pode rastrear as alterações, soluções como backups não funcionam atualmente com o PMem.
Soluções como vSphere HA terão escopo limitado se o vPMem for usado em um modo que
não seja de gravação para um armazenamento de dados não-PMem. Quando vSphere HA está
ativado para VMs do vPMem com failover ativado, a VM pode ser transferida para um host
diferente. Quando isso acontece, a VM está usando os recursos do PMem no novo host. Para
liberar os recursos no host antigo, um coletor de lixo periodicamente identifica e libera esses
recursos para uso por outras VMs.
Espaços de nomes para PMem são configurados antes do início de ESXi. Os espaços de nome
são semelhantes aos discos no sistema. ESXi lê espaços de nome e combina vários espaços de
nome em um volume lógico gravando cabeçalhos GPT. Ele é formatado automaticamente por
padrão, se você não o tiver configurado anteriormente. Se já tiver sido formatado, o ESXi tentará
montar o PMem.
As regiões PMem são um fluxo contínuo de bytes que representam um único vNVDimm ou
vPMemDisk. Cada volume PMem pertence a um único host. Isso pode ser difícil de gerenciar se
um administrador tiver que gerenciar cada host em um cluster com um grande número de hosts.
No entanto, você não precisa gerenciar cada repositório de dados individual. Em vez disso, você
pode pensar em toda a capacidade do PMem no cluster como um armazenamento de dados.
Migração(Migration)
Como o PMem é um armazenamento de dados local, se você quiser mover uma VM, deverá usar
o Storage vMotion. Uma VM com vPMem só pode ser migrada para um host ESX com recurso
PMem. Uma VM com vPMemDisk pode ser migrada para um host ESX sem um recurso PMem.
Falhas de host podem resultar em perda de disponibilidade em VMs do vPMem que não estão no
modo write-through. No caso de erros catastróficos, você pode perder todos os dados e deve
tomar medidas manuais para reformatar o PMem.
Pré-requisitos
Procedimentos
b Clique na caixa de seleção Allow failover on another host for all NVDIMM devices (Allow
failover on another host for all NVDIMM devices).
Em caso de falha do host, os dados NVDIMM PMem não podem ser recuperados. Por
padrão, o HA não tentará reiniciar esta máquina virtual em outro host. Permitir que o HA
em caso de falha do host faça o failover da máquina virtual reiniciará a máquina virtual em
outro host com um novo NVDIMM vazio.
b Selecione o NVDIMM.
c Clique na caixa de seleção Allow failover on another host for all NVDIMM devices (Allow
failover on another host for all NVDIMM devices).
d Clique em Okey(OK).
Em caso de falha do host, o HA reiniciará esta máquina virtual em outro host com
NVDIMMs novos e vazios.
Em Edit Cluster Settings , você pode selecionar Admission Control (Admission Control) para
especificar o número de falhas que o host tolerará.
n Política de Slot (VMs ligadas) (Slot Policy (powered-on VMs)), o controle de admissão
de memória persistente substitui a Política de Slot pela política de Porcentagem de
Recurso de Cluster, somente para recursos de memória persistente. O valor percentual
é calculado automaticamente a partir da configuração host failures cluster (host failures
cluster tolerates) e não pode ser substituído.
n Hosts de failover dedicados (Dedicated failover hosts), a memória persistente dos hosts de
failover dedicados é dedicada para fins de failover e você não pode provisionar máquinas
virtuais com memória persistente nesses hosts.
Observação Depois de selecionar uma política de controle de admissão, você também deve
clicar na caixa de seleção Reserve Persistent Memory failover capacity (Reserve Persistent
Memory failover capacity) para habilitar o controle de admissão do PMem.
A Memória Persistente Intel Optane pode ser configurada nas configurações do BIOS no Modo
Direto do Aplicativo ou no Modo de Memória. No modo App Direct, a memória persistente pode
ser acessada como memória persistente endereçável em bytes juntamente com a DRAM. No
modo de memória, a DRAM se torna o cache de hardware e o PMem maior se torna volátil e
aparece como memória do sistema.
Você pode descobrir se o sistema está no Modo de Memória na guia Resumo (Summary)
do host, Camada de Memória: Hardware com alguns detalhes adicionais (Memory Tiering:
Hardware with some additional details).
Você também pode visualizar o tamanho da DRAM e do PMEM em Configurar (Configure) >
Hardware (Hardware) > Visão geral (Overview) > Memória (Memory).
Na guia VMs (VMs) de um host do ESXi, você pode visualizar uma lista contendo informações
de desempenho sobre todas as máquinas virtuais que residem no host. Para exibir informações
sobre o impacto do Modo de Memória em uma máquina virtual, clique no ícone de exibição de
Observação O vMMR é compatível com as plataformas Intel Broadwell, Skylake, Cascade Lake
e Ice Lake. As estatísticas de DRAM de nível de host estão disponíveis nessas plataformas. As
estatísticas de nível de host e VM PMem estão disponíveis apenas nos hosts Cascade Lake e Ice
Lake configurados no modo de memória.
Observação Essas estatísticas são exibidas apenas quando o driver GPU está instalado no host.
Procedimentos
Os dispositivos gráficos NVIDIA GRID GPU são projetados para otimizar operações gráficas
complexas e permitir que eles sejam executados com alto desempenho sem sobrecarregar a
CPU.
Pré-requisitos
n Verifique se um dispositivo gráfico NVIDIA GRID GPU com um driver apropriado está
instalado no host. Consulte a documentação do vSphere Upgrade .
Procedimentos
1 Clique com o botão direito do mouse em uma máquina virtual e selecione Editar
configurações (Edit Settings).
2 Na guia Hardware virtual (Virtual Hardware), selecione Adicionar novo dispositivo (Add
New Device) e selecione Novo dispositivo PCI (New PCI Device) no menu suspenso.
3 Expanda Novo dispositivo PCI (New PCI device) e selecione o dispositivo de passagem da
vGPU NVIDIA GRID ao qual deseja conectar sua máquina virtual.
5 Clique em Okey(OK).
Resultados
Pré-requisitos
Procedimentos
Opção Descrição
5 Clique em Okey(OK).
Próximo passo
Pré-requisitos
Procedimentos
1 Em Dispositivos gráficos (Graphics Devices), selecione uma placa gráfica e clique em Editar
(Edit).
2 Clique em Okey(OK).
Resultados
Se você selecionar um dispositivo, ele mostrará quais máquinas virtuais estão usando esse
dispositivo se estiverem ativas.
Próximo passo
Quando você habilita Storage I/O Control em um datastore, ESXi começa a monitorar a latência
do dispositivo que os hosts observam ao se comunicar com esse datastore. Quando a latência
do dispositivo excede um limite, o datastore é considerado congestionado, e cada máquina
virtual que acessa esse datastore recebe recursos de E / S alocados na proporção de seus
compartilhamentos. Você define compartilhamentos por máquina virtual. Você pode ajustar o
número para cada um com base na necessidade.
A estrutura de filtro de E / S (VAIO) permite que VMware e seus parceiros desenvolvam filtros
que interceptam E / S para cada VMDK e fornecem a funcionalidade desejada na granularidade
do VMDK. O VAIO funciona junto com o Gerenciamento Baseado em Política de Armazenamento
(SPBM), que permite que você defina as preferências de filtro por meio de uma política de
armazenamento anexada aos VMDKs.
Por padrão, todos os compartilhamentos de máquina virtual são definidos como Normal (1000)
com IOPS ilimitado.
n Sobre os filtros de E / S
O vSphere inclui políticas de armazenamento padrão. No entanto, você pode definir e atribuir
novas políticas.
Você aplica a política de armazenamento ao criar, clonar ou migrar a máquina virtual. Depois de
aplicar a política de armazenamento, o mecanismo de Gerenciamento Baseado em Política de
Armazenamento (SPBM) coloca a máquina virtual em um repositório de dados correspondente e,
em determinados ambientes de armazenamento, determina como os objetos de armazenamento
da máquina virtual são provisionados e alocados dentro do recurso de armazenamento para
garantir o necessário nível de serviço. O SPBM também habilita os serviços de dados solicitados
para a máquina virtual. vCenter Server monitora a conformidade da política e envia um alerta se
a máquina virtual estiver violando a política de armazenamento atribuída.
Sobre os filtros de E / S
Os filtros de E / S associados a discos virtuais obtêm acesso direto ao caminho de E / S da
máquina virtual, independentemente da topologia de armazenamento subjacente.
Quando os filtros de E / S são implantados no cluster ESXi, o vCenter Server configura e registra
automaticamente um provedor de armazenamento de filtro de E / S, também chamado de
provedor VASA, para cada host no cluster. Os provedores de armazenamento se comunicam
com vCenter Server e tornam os serviços de dados oferecidos pelo filtro de E / S visíveis na
interface de Políticas de Armazenamento da VM. Você pode fazer referência a esses serviços de
dados ao definir regras comuns para uma política de VM. Depois de associar os discos virtuais a
essa política, os filtros de E / S são ativados nos discos virtuais.
n Os repositórios de dados habilitados para Storage I/O Control devem ser gerenciados por um
único sistema vCenter Server.
n Storage I/O Control tem suporte no armazenamento conectado ao Fibre Channel, conectado
ao iSCSI e ao NFS. O Raw Device Mapping (RDM) não é compatível.
n O Storage I/O Control não é compatível com repositórios de dados com várias extensões.
n Antes de usar Storage I/O Control em repositórios de dados com suporte de matrizes com
recursos automatizados de armazenamento em camadas, verifique o VMware Storage / SAN
Compatibility Guide para verificar se o seu armazenamento em camadas automatizado foi
certificado para ser compatível com { Storage I/O Control.
Procedimentos
A guia exibe cada máquina virtual em execução no repositório de dados e o valor dos
compartilhamentos associados e a porcentagem de compartilhamentos do repositório de
dados.
Procedimentos
Pré-requisitos
Consulte vSphere Storage para obter informações sobre como criar políticas de armazenamento
de VM e definir regras comuns para políticas de armazenamento de VM.
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e clique em Editar Configurações
(Edit Settings).
3 Clique na guia Hardware virtual (Virtual Hardware) e selecione um disco rígido virtual na
lista. Expandir Disco rígido (Hard disk).
6 Em Limite - IOPS (Limit - IOPS), clique no menu suspenso e insira o limite superior dos
recursos de armazenamento a serem alocados à máquina virtual.
IOPS são o número de operações de E / S por segundo. Por padrão, o IOPS é ilimitado. Você
seleciona Baixo (500), Normal (1000) ou Alto (2000) ou pode selecionar Personalizado para
inserir um número de compartilhamentos definido pelo usuário.
7 Clique em Okey(OK).
Procedimentos
6 Clique em Okey(OK).
Resultados
Cuidado Storage I/O Control pode não funcionar corretamente se você compartilhar os mesmos
spindles em dois repositórios de dados diferentes.
Se você alterar a configuração de limite de congestionamento, defina o valor com base nas
seguintes considerações.
n Se a taxa de transferência for mais crítica do que a latência, não defina o valor como muito
baixo. Por exemplo, para discos Fibre Channel, um valor abaixo de 20 ms poderia diminuir o
pico da taxa de transferência do disco. Um valor muito alto (acima de 50 ms) pode permitir
uma latência muito alta sem qualquer ganho significativo na taxa de transferência geral.
Pré-requisitos
Procedimentos
3 Clique em Geral(General).
Storage I/O Control define automaticamente o limite de latência que corresponde à latência
estimada quando o repositório de dados está operando em 90% de sua taxa de transferência
de pico.
8 Clique em Okey(OK).
Como parte da integração do Storage DRS com perfis de armazenamento, a opção avançada
de nível de cluster Storage DRS EnforceStorageProfiles é introduzida. A opção avançada
EnforceStorageProfiles adota um destes valores de número inteiro: 0,1 ou 2. O valor padrão
é 0. Quando a opção é definida como 0, isso indica que não há perfil de armazenamento ou
aplicação de política no cluster do Storage DRS. Quando a opção é definida como 1, isso indica
que há um perfil de armazenamento ou aplicação flexível de política no cluster do Storage
DRS. Isso é análogo às regras flexíveis do DRS. O DRS de armazenamento obedecerá ao perfil
ou à política de armazenamento no nível ideal. O DRS de armazenamento violará o perfil de
armazenamento em conformidade se for necessário fazê-lo. As regras de afinidade de DRS de
armazenamento terão maior precedência sobre os perfis de armazenamento somente quando
a imposição do perfil de armazenamento for definida como 1. Quando a opção é definida como
2, isso indica que há um perfil de armazenamento ou aplicação rígida de política no cluster do
Storage DRS. Isso é análogo às regras rígidas do DRS. O DRS de armazenamento não violará
o perfil de armazenamento ou a política compatível. Os perfis de armazenamento terão maior
precedência sobre as regras de afinidade. O DRS de armazenamento gerará falha: não pôde
corrigir a violação da regra de antiafinidade
Pré-requisitos
Procedimentos
2 No vSphere Client, clique no cluster Storage DRS e selecione Gerenciar (Manage) >
Configurações (Settings) > Storage DRS (Storage DRS).
3 Clique em Editar (Edit) > Opções Avançadas (Advanced Options) > Parâmetros de
configuração (Configuration parameters) e selecione Adicionar (Add).
5 Clique na área sob o título Valor à direita do nome da opção avançada inserido anteriormente
e digite o valor de 0, 1 ou 2.
6 Clique em Okey(OK).
Cada host autônomo e cada cluster DRS tem um pool de recursos raiz (invisível) que agrupa os
recursos desse host ou cluster. O pool de recursos raiz não aparece porque os recursos do host
(ou cluster) e do pool de recursos raiz são sempre os mesmos.
Os usuários podem criar pools de recursos filho do pool de recursos raiz ou de qualquer pool
de recursos filho criado pelo usuário. Cada pool de recursos filho possui alguns dos recursos do
pai e, por sua vez, pode ter uma hierarquia de pools de recursos filho para representar unidades
sucessivamente menores de capacidade computacional.
Um pool de recursos pode conter pools de recursos filho, máquinas virtuais ou ambos. Você
pode criar uma hierarquia de recursos compartilhados. Os pools de recursos em um nível
superior são chamados de pools de recursos principais. Pools de recursos e máquinas virtuais
que estão no mesmo nível são chamados de irmãos. O próprio cluster representa o pool de
recursos raiz. Se você não criar pools de recursos filho, apenas os pools de recursos raiz
existirão.
No exemplo a seguir, RP-QA é o pool de recursos pai para RP-QA-UI. RP-Marketing e RP-QA são
irmãos. As três máquinas virtuais imediatamente abaixo do RP-Marketing também são irmãos.
siblings
parent resource pool
child resource pool
Para cada pool de recursos, especifique reserva, limite, compartilhamentos e se a reserva deve
ser expansível. Os recursos do pool de recursos estão disponíveis para pools de recursos filho e
máquinas virtuais.
n Separação de recursos do hardware - se você estiver usando clusters habilitados para DRS,
os recursos de todos os hosts serão sempre atribuídos ao cluster. Isso significa que os
administradores podem realizar o gerenciamento de recursos independentemente dos hosts
reais que contribuem para os recursos. Se você substituir três hosts de 2 GB por dois hosts
de 3 GB, não será necessário fazer alterações nas alocações de recursos.
Por exemplo, suponha que um host tenha um número de máquinas virtuais. O departamento de
marketing usa três das máquinas virtuais e o departamento de QA usa duas máquinas virtuais.
Como o departamento de controle de qualidade precisa de maiores quantidades de CPU e
memória, o administrador cria um pool de recursos para cada grupo. O administrador define
Compartilhamentos de CPU (CPU Shares) como Alto (High) para o pool de departamentos de
QA e como Normal (Normal) para o pool de departamentos de Marketing para que os usuários
do departamento de QA possam executar testes automatizados. O segundo pool de recursos
com menos recursos de CPU e memória é suficiente para a carga mais leve da equipe de
marketing. Sempre que o departamento de controle de qualidade não estiver usando totalmente
sua alocação, o departamento de marketing poderá usar os recursos disponíveis.
Observação Se um host tiver sido adicionado a um cluster, você não poderá criar pools de
recursos filho desse host. Se o cluster estiver ativado para DRS, você poderá criar pools de
recursos filho do cluster.
Quando você cria um pool de recursos filho, são solicitadas informações de atributo do
pool de recursos. O sistema usa o controle de admissão para garantir que você não possa
alocar recursos que não estão disponíveis. Se você quiser que seus compartilhamentos
sejam dimensionados dinamicamente ao adicionar ou remover VMs, poderá selecionar
compartilhamentos escaláveis.
Pré-requisitos
Procedimentos
1 No vSphere Client, selecione um objeto pai para o pool de recursos (um host, outro pool de
recursos ou um cluster DRS).
2 Clique com o botão direito do mouse no objeto e selecione Novo Pool de Recursos (New
Resource Pool).
Os recursos de CPU do seu pool de recursos são os recursos físicos garantidos que o host
reserva para um pool de recursos. Normalmente, você aceita o padrão e deixa o host lidar
com a alocação de recursos.
Opção Descrição
Reserva Especifique uma alocação de CPU ou memória garantida para este pool de
recursos. O padrão é 0.
Uma reserva diferente de zero é subtraída dos recursos não reservados do
pai (host ou pool de recursos). Os recursos são considerados reservados,
independentemente de as máquinas virtuais estarem associadas ao pool de
recursos.
Opção Descrição
Reserva expansível Quando a caixa de seleção está marcada (padrão), as reservas expansíveis
são consideradas durante o controle de admissão.
Se você ligar uma máquina virtual nesse pool de recursos, e as reservas
combinadas das máquinas virtuais forem maiores que a reserva do pool de
recursos, o pool de recursos poderá usar recursos de seus principais ou
ancestrais.
6 Clique em Okey(OK).
Resultados
Depois de criar um pool de recursos, você pode adicionar máquinas virtuais a ele. Os
compartilhamentos de uma máquina virtual são relativos a outras máquinas virtuais (ou pools
de recursos) com o mesmo pool de recursos pai.
O exemplo mostra como criar um pool de recursos com o host ESXi como o recurso pai.
1 Na caixa de diálogo Novo Pool de Recursos (New Resource Pool), digite um nome para o
pool de recursos do departamento de QA (por exemplo, RP-QA).
4 Clique em Okey(OK).
Procedimentos
3 (Opcional) Você pode alterar todos os atributos do pool de recursos selecionado, conforme
descrito em Criar um pool de recursos.
Quando você move uma máquina virtual para um novo pool de recursos:
Observação Se uma máquina virtual tiver sido desligada ou suspensa, ela poderá ser
movida, mas os recursos gerais disponíveis (como CPU e memória reservados e não
reservados) para o pool de recursos não serão afetados.
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e clique em Migrar (Migrate).
n Você pode mover o armazenamento da máquina virtual para outro repositório de dados.
n Você pode mover a máquina virtual para outro host e mover seu armazenamento para
outro repositório de dados.
Resultados
Se uma máquina virtual estiver ligada e o pool de recursos de destino não tiver CPU ou memória
suficiente para garantir a reserva da máquina virtual, a movimentação falhará porque o controle
de admissão não a permite. Uma caixa de diálogo de erro exibe os recursos disponíveis e
solicitados, para que você possa considerar se um ajuste pode resolver o problema.
Quando você remove uma máquina virtual de um pool de recursos, o número total de
compartilhamentos associados ao pool de recursos diminui, para que cada compartilhamento
restante represente mais recursos. Por exemplo, suponha que você tenha um pool com direito
a 6 GHz, contendo três máquinas virtuais com compartilhamentos definidos como Normal
(Normal). Supondo que as máquinas virtuais sejam vinculadas à CPU, cada uma recebe uma
alocação igual de 2 GHz. Se uma das máquinas virtuais for movida para um pool de recursos
diferente, as duas máquinas virtuais restantes receberão uma alocação igual de 3GHz.
Procedimentos
2 Escolha um dos seguintes métodos para remover a máquina virtual de um pool de recursos.
n Clique com o botão direito do mouse na máquina virtual e selecione Mover para ... (Move
To...) para mover a máquina virtual para outro pool de recursos.
n Clique com o botão direito do mouse na máquina virtual e selecione Excluir do Disco
(Delete from Disk).
Procedimentos
1 No vSphere Client, clique com o botão direito do mouse no pool de recursos e selecione
Excluir (Delete).
Antes de ligar uma máquina virtual ou criar um pool de recursos, verifique se há recursos
suficientes disponíveis usando a guia Reserva de Recursos (Resource Reservation) na vSphere
Client. O valor de Reserva Disponível (Available Reservation) para CPU e memória exibe os
recursos que não são reservados.
A forma como os recursos de CPU e memória disponíveis são computados e se as ações são
executadas depende do Tipo de Reserva (Reservation Type).
Corrigido (Fixed) O sistema verifica se o pool de recursos selecionado tem recursos não reservados
suficientes. Se isso acontecer, a ação poderá ser executada. Se não aparecer, uma
mensagem será exibida e a ação não poderá ser executada.
Expansível (Expandable) O sistema considera os recursos disponíveis no pool de recursos selecionado e seu
(padrão) pool de recursos pai direto. Se o pool de recursos pai também tiver a opção Reserva
expansível (Expandable Reservation) selecionada, ele poderá emprestar recursos do
pool de recursos pai. A solicitação de recursos emprestada ocorre recursivamente
dos ancestrais do pool de recursos atual, desde que a opção Reserva expansível
(Expandable Reservation) esteja selecionada. Deixar essa opção selecionada oferece
mais flexibilidade, mas, ao mesmo tempo, fornece menos proteção. Um proprietário
de pool de recursos filho pode reservar mais recursos do que o previsto.
O sistema não permite que você viole as configurações de Reserva (Reservation) ou Limite
(Limit) pré-configuradas. Toda vez que você reconfigurar um pool de recursos ou ligar uma
máquina virtual, o sistema valida todos os parâmetros para que todas as garantias de nível de
serviço ainda possam ser atendidas.
Suponha que um administrador gerencia o pool P e define dois pools de recursos filho, S1 e S2,
para dois usuários diferentes (ou grupos).
O administrador sabe que os usuários desejam ligar máquinas virtuais com reservas, mas não
sabe quanto cada usuário precisará reservar. Tornar as reservas para S1 e S2 expansíveis permite
que o administrador compartilhe e herde de forma mais flexível a reserva comum para o pool P.
Reservas expansíveis causam uma perda de isolamento estrito. O S1 pode começar a usar toda a
reserva de P, para que nenhuma memória ou CPU esteja diretamente disponível para o S2.
n O pool principal RP-MOM tem uma reserva de 6 GHz e uma máquina virtual em execução
VM-M1 que reserva 1 GHz.
n Você cria um pool de recursos filho RP-KID com uma reserva de 2 GHz e com Reserva
Expansível (Expandable Reservation) selecionada.
n Você adiciona duas máquinas virtuais, VM-K1 e VM-K2, com reservas de 2 GHz cada ao pool
de recursos filho e tenta ligá-las.
n Nenhum recurso local está disponível para o VM-K2, portanto, ele empresta recursos do
pool de recursos pai, RP-MOM. O RP-MOM tem 6 GHz menos 1 GHz (reservado pela máquina
virtual) menos 2 GHz (reservado pelo RP-KID), o que deixa o 3GHz sem reserva. Com o 3GHz
disponível, você pode ligar a máquina virtual de 2 GHz.
Figura 10-3. Controle de admissão com pools de recursos expansíveis: ativação bem-
sucedida
6GHz RP-MOM
VM-M1, 1GHz
2GHz RP-KID
n Ligue duas máquinas virtuais no RP-MOM com uma reserva total de 3GHz.
n Você ainda pode ligar a VM-K1 no RP-KID porque 2 GHz estão disponíveis localmente.
n Quando você tenta ligar o VM-K2, o RP-KID não tem capacidade de CPU não reservada,
então ele verifica seu pai. O RP-MOM tem apenas 1 GHz de capacidade não reservada
disponível (5 GHz de RP-MOM já estão em uso - 3GHz reservado pelas máquinas virtuais
locais e 2 GHz reservados pelo RP-KID). Como resultado, você não pode ligar a VM-K2, que
requer uma reserva de 2 GHz.
Figura 10-4. Controle de admissão com pools de recursos expansíveis: ativação impedida
6GHz RP-MOM
2GHz RP-KID
n Criar um cluster
n Desativar DRS
O vCLS é ativado quando você atualiza para o vSphere 7.0 U3 ou quando você tem uma nova
implantação do vSphere 7.0 U3. O vCLS é atualizado como parte da atualização do vCenter
Server.
O vCLS usa máquinas virtuais de agente para manter a integridade dos serviços de cluster. As
máquinas virtuais do agente do vCLS (VMs do vCLS) são criadas quando você adiciona hosts
aos clusters. São necessárias até três VMs do vCLS para serem executadas em cada cluster
do vSphere, distribuídas dentro de um cluster. O vCLS também está ativado em clusters que
contêm apenas um ou dois hosts. Nesses clusters, o número de VMs do vCLS é um e dois,
respectivamente.
Novas regras de antiafinidade são aplicadas automaticamente. A cada três minutos, uma
verificação é realizada. Se várias VMs do vCLS estiverem localizadas em um único host, elas
serão automaticamente redistribuídas para hosts diferentes.
1 1
2 2
3 ou mais 3
As VMs do vCLS são executadas em todos os clusters, mesmo se os serviços de cluster, como
o vSphere DRS ou o vSphere HA, não estiverem habilitados no cluster. As operações de ciclo
de vida das VMs do vCLS são gerenciadas por serviços do vCenter, como ESX Agent Manager e
Workload Control Plane. As VMs do vCLS não oferecem suporte a cartões de NiC.
Um cluster habilitado com vCLS pode conter hosts ESXi de versões diferentes se as versões de
ESXi forem compatíveis com o vCenter Server. O vCLS funciona com clusters gerenciados por
vLCM e VUM e é executado em todos os clusters de SKU de licença do vSphere.
vSphere DRS
O vSphere DRS é um recurso crítico do vSphere necessário para manter a integridade das cargas
de trabalho em execução no vSphere Cluster. O DRS depende da disponibilidade de VMs do
vCLS.
Observação Se você tentar habilitar o DRS em um cluster no qual há problemas com as VMs do
vCLS, uma mensagem de aviso será exibida na página Resumo do Cluster (Cluster Summary).
Observação Se o DRS estiver ativado, mas houver problemas com as VMs do vCLS, você
deverá resolver esses problemas para que o DRS funcione. Uma mensagem de aviso é exibida na
página Resumo do cluster (Cluster Summary).
Se o DRS não estiver funcional, isso não significa que o DRS esteja desativado. As configurações
e pools de recursos existentes do DRS sobrevivem em um quórum de VMs do vCLS perdido. A
integridade do vCLS torna-se não íntegra (Unhealthy) somente em um cluster habilitado para
DRS quando as VMs do vCLS não estão em execução e a primeira instância do DRS é ignorada
por causa disso. A integridade do vCLS permanecerá degradada ( Degraded) em um cluster não
habilitado para DRS quando pelo menos uma VM do vCLS não estiver em execução.
Se você quiser mover os VMDKs para VMs do vCLS para um armazenamento de dados diferente
ou anexar uma política de armazenamento diferente, poderá reconfigurar as VMs do vCLS. Uma
mensagem de aviso é exibida quando você executa esta operação.
Você pode realizar um vMotion de armazenamento para migrar VMs do vCLS para um
armazenamento de dados diferente. Você pode marcar VMs do vCLS ou anexar atributos
personalizados se quiser agrupá-las separadamente das VMs de carga de trabalho, por exemplo,
se você tiver uma estratégia de metadados específica para todas as VMs que são executadas
em um centro de dados.
A tarefa de entrada no modo de manutenção será iniciada, mas não poderá ser concluída porque
há uma máquina virtual residente no armazenamento de dados. Você sempre pode cancelar a
tarefa em suas Tarefas Recentes se decidir continuar.
O datastore selecionado pode estar armazenando VMs do vSphere Cluster Services que não podem
ser desligadas. Para garantir a integridade do vSphere Cluster Services, essas VMs devem ser
manualmente vMotioned para um datastore diferente dentro do cluster antes de desativar esse
datastore para manutenção. Consulte este artigo KB: KB 79892.
As VMs do vCLS não são exibidas na árvore de inventário na guia Hosts e Clusters (Hosts and
Clusters). As VMs do vCLS de todos os clusters em um centro de dados são colocadas dentro
de uma pasta separada de VMs e modelos chamada vCLS (vCLS). Esta pasta e as VMs do vCLS
são visíveis apenas na guia VMs e Modelos (VMs and Templates ) do vSphere Client. Essas VMs
são identificadas por um ícone diferente das VMs de carga de trabalho regulares. Você pode
visualizar informações sobre a finalidade das VMs do vCLS na guia Resumo (Summary) das VMs
do vCLS.
Você pode monitorar os recursos consumidos pelas VMs do vCLS na guia Monitor (Monitor).
Propriedade Tamanho
Memória 128 MB
CPU 1 vCPU
Disco rígido 2 GB
Você pode monitorar o status de integridade do vCLS no portlet Serviços de Cluster exibido na
guia Resumo (Summary) do cluster.
podem realizar operações seletivas em VMs do vCLS. Para evitar a falha dos serviços de cluster,
evite realizar qualquer configuração ou operações nas VMs do vCLS.
As VMs do vCLS são protegidas contra exclusão acidental. As VMs e pastas de cluster são
protegidas contra modificações por usuários, incluindo administradores.
Somente os usuários que fazem parte do grupo de SSO de administradores podem realizar as
seguintes operações:
n Reconfiguração de recursos das VMs do vCLS, como alteração de CPU, memória, tamanho
do disco e posicionamento do disco
n Criptografia da VM
n Alterando o BIOS
n Configurando o PMem
Quando você executa qualquer operação de interrupção nas VMs do vCLS, uma caixa de diálogo
de aviso é exibida.
Solução de problemas:
A integridade das VMs do vCLS, incluindo o estado de energia, é gerenciada pelos serviços EAM
e WCP. Em caso de falha ao ligar as VMs do vCLS ou se a primeira instância do DRS para um
cluster for ignorada devido à falta de quorum de VMs do vCLS, um banner será exibido na página
de resumo do cluster, juntamente com um link para um artigo da Base de Conhecimento para
ajudar solucionar o estado de erro.
Como as VMs do vCLS são tratadas como VMs do sistema, você não precisa fazer backup ou
snapshot dessas VMs. O estado de integridade dessas VMs é gerenciado pelos serviços do
vCenter.
Procedimentos
8 Clique em Salvar(Save).
Resultados
Para remover o modo de retirada do cluster, altere o valor na etapa 7 para True .
Para garantir a integridade dos serviços de cluster, evite acessar as VMs do vCLS. Este
documento destina-se a diagnósticos explícitos em VMs do vCLS.
Procedimentos
/usr/lib/vmware-wcp/decrypt_clustervm_pw.py
pwd-script-output
Connected to PSQL
Resultados
Com a senha recuperada, você pode fazer login nas VMs do vCLS.
A aplicação de uma política antiafinidade de VM do vCLS pode ser afetada de várias maneiras:
n Se a política se aplicar a várias VMs em hosts diferentes e não for possível ter hosts
suficientes para distribuir VMs do vCLS, as VMs do vCLS serão consolidadas nos hosts sem as
VMs de política.
Procedimentos
1 Crie uma categoria e uma tag para cada grupo de VMs que você deseja incluir em uma
política antiafinidade de VM do vCLS.
a No vSphere, clique em Policies and Profiles (Policies and Profiles) > Compute Policies
(Compute Policies).
A menos que você tenha várias tags de VM associadas a uma categoria, o assistente
preenche a tag da VM depois que você seleciona a tag Categoria (Category).
4 (Opcional) Para excluir uma política de processamento, abra o vSphere, clique em Policies
and Profiles (Policies and Profiles) > Compute Policies (Compute Policies) para mostrar
cada política como um cartão. Clique em DELETE para excluir uma política.
Se o cluster não tiver recursos suficientes para ligar uma única máquina virtual ou qualquer uma
das máquinas virtuais em uma tentativa de inicialização de grupo, será exibida uma mensagem.
Caso contrário, para cada máquina virtual, o DRS gera uma recomendação de um host no qual a
máquina virtual é executada e executa uma das seguintes ações
n O DRS considera a largura de banda da rede. Ao calcular a saturação da rede do host, o DRS
pode tomar melhores decisões de posicionamento. Isso pode ajudar a evitar a degradação
do desempenho de máquinas virtuais com uma compreensão mais abrangente do ambiente.
Ao ligar uma única máquina virtual, você tem dois tipos de recomendações de posicionamento
inicial:
n Uma única máquina virtual está sendo ligada e nenhuma etapa de pré-requisito é necessária.
n Uma única máquina virtual está sendo ligada, mas são necessárias ações de pré-requisito.
Essas ações incluem ligar um host no modo de espera ou a migração de outras máquinas
virtuais de um host para outro. Nesse caso, as recomendações fornecidas têm várias linhas,
mostrando cada uma das ações de pré-requisito. O usuário pode aceitar essa recomendação
inteira ou cancelar a ativação da máquina virtual.
Ligar o grupo
Você pode tentar ligar várias máquinas virtuais ao mesmo tempo (ligar o grupo).
As máquinas virtuais selecionadas para uma tentativa de inicialização de grupo não precisam
estar no mesmo cluster do DRS. Eles podem ser selecionados entre clusters, mas devem estar no
mesmo centro de dados. Também é possível incluir máquinas virtuais localizadas em clusters não
DRS ou em hosts autônomos. Essas máquinas virtuais são ligadas automaticamente e não são
incluídas em nenhuma recomendação de posicionamento inicial.
Para cada cluster do DRS ao qual pertencem as máquinas virtuais que estão sendo
ligadas, há uma única recomendação, que contém todos os pré-requisitos (ou nenhuma
recomendação). Todas essas recomendações específicas do cluster são apresentadas juntas na
guia Recomendações de Ligação (Power On Recommendations).
Quando uma tentativa de inicialização de grupo não automático é feita, e as máquinas virtuais
não sujeitas a uma recomendação de posicionamento inicial (ou seja, as máquinas virtuais
em hosts independentes ou em clusters não DRS) são incluídas, vCenter Server tenta ligá-las
automaticamente . Se essas inicializações forem bem-sucedidas, elas serão listadas na guia
Ligações Iniciadas (Started Power-Ons). Todas as máquinas virtuais que falham ao ligar são
listadas na guia Falha ao ligar (Failed Power-Ons).
Se o DRS estiver ativado no cluster, a carga poderá ser distribuída de forma mais uniforme para
reduzir o grau desse desequilíbrio. Por exemplo, os três hosts no lado esquerdo da figura a
seguir estão desbalanceados. Suponha que o Host 1, o Host 2 e o Host 3 tenham capacidade
idêntica e que todas as máquinas virtuais tenham a mesma configuração e carga (o que inclui
reserva, se definido). No entanto, como o Host 1 tem seis máquinas virtuais, seus recursos podem
ser usados em excesso, enquanto amplos recursos estão disponíveis no Host 2 e no Host 3. O
DRS migra (ou recomenda a migração de) máquinas virtuais do Host 1 para o Host 2 e o Host
3. No lado direito do diagrama, a configuração do balanceamento de carga adequada dos hosts
que resulta é exibida.
Host 2 Host 2
Host 3 Host 3
Quando um cluster fica desbalanceado, o DRS faz recomendações ou migra máquinas virtuais,
dependendo do nível de automação padrão:
n Se o cluster ou qualquer uma das máquinas virtuais envolvidas for manual ou parcialmente
automatizada, vCenter Server não executará ações automáticas para balancear recursos. Em
vez disso, a página Resumo indica que as recomendações de migração estão disponíveis, e a
página Recomendações do DRS exibe recomendações para alterações que fazem o uso mais
eficiente dos recursos em todo o cluster.
Por padrão, o nível de automação é especificado para todo o cluster. Você também pode
especificar um nível de automação personalizado para máquinas virtuais individuais.
Você pode mover o controle deslizante de limite para usar uma das cinco configurações,
variando de Conservador a Agressivo. Quanto maior a configuração de agressividade, mais
frequentemente o DRS pode recomendar migrações para melhorar a satisfação da VM. A
configuração do Conservador gera apenas recomendações de prioridade um (recomendações
obrigatórias).
Depois que uma recomendação recebe um nível de prioridade, esse nível é comparado ao
limite de migração definido. Se o nível de prioridade for menor ou igual à configuração do
limite, a recomendação será aplicada (se as máquinas virtuais relevantes estiverem no modo
totalmente automatizado) ou exibida ao usuário para confirmação (se estiver no modo manual ou
parcialmente automatizado).
Pontuação DRS
Cada recomendação de migração é calculada usando a métrica de felicidade da VM que mede
a eficiência de execução. Essa métrica é exibida como Pontuação do DRS na guia Resumo
do cluster no vSphere Client. As recomendações de balanceamento de carga do DRS tentam
melhorar a pontuação do DRS de uma VM. A pontuação do DRS do Cluster é uma média
ponderada das Escores do DRS de VM de todas as VMs ligadas no cluster. A Pontuação do
DRS do Cluster é mostrada no componente de medidor. A cor da seção preenchida muda
dependendo do valor para corresponder à barra correspondente no histograma de Pontuação
do DRS da VM. As barras no histograma mostram a porcentagem de VMs que têm uma
Pontuação DRS nesse intervalo. Você pode visualizar a lista com classificação e filtragem do
lado do servidor selecionando a guia Monitorar do cluster e selecionando o vSphere DRS, que
mostra uma lista das VMs no cluster classificadas pela pontuação do DRS em ordem crescente.
Recomendações de migração
Se você criar um cluster com um modo manual padrão ou parcialmente automatizado, vCenter
Server exibirá as recomendações de migração na página Recomendações do DRS.
O sistema fornece quantas recomendações forem necessárias para impor regras e equilibrar os
recursos do cluster. Cada recomendação inclui a máquina virtual a ser movida, o host atual (de
origem) e o host de destino e um motivo para a recomendação. O motivo pode ser um dos
seguintes:
Observação Se você estiver usando o recurso vSphere Distributed Power Management (DPM),
além das recomendações de migração, o DRS fornecerá recomendações de estado de energia
do host.
Observação O vSphere DRS é um recurso crítico do vSphere que é necessário para manter a
integridade das cargas de trabalho em execução no vSphere Cluster. A partir do vSphere 7.0
Update 1, o DRS depende da disponibilidade de VMs do vCLS. Consulte vSphere Cluster Services
(vCLS) para obter mais informações.
n Coloque os discos de todas as máquinas virtuais em volumes VMFS acessíveis por hosts de
origem e de destino.
n Certifique-se de que o volume VMFS seja suficientemente grande para armazenar todos os
discos virtuais para suas máquinas virtuais.
n Certifique-se de que todos os volumes VMFS nos hosts de origem e de destino usem nomes
de volume e que todas as máquinas virtuais usem esses nomes de volume para especificar os
discos virtuais.
Para evitar limitar os recursos do DRS, você deve maximizar a compatibilidade do processador
de hosts de origem e de destino no cluster.
O vMotion transfere o estado arquitetônico em execução de uma máquina virtual entre os hosts
ESXi subjacentes. A compatibilidade do vMotion significa que os processadores do host de
destino devem ser capazes de retomar a execução usando as instruções equivalentes onde os
processadores do host de origem foram suspensos. As velocidades de clock e tamanhos de
cache do processador podem variar, mas os processadores devem ser da mesma classe de
fornecedor (Intel versus AMD) e da mesma família de processadores para serem compatíveis
com a migração com o vMotion.
O vCenter Server fornece recursos que ajudam a garantir que as máquinas virtuais migradas com
o vMotion atendam aos requisitos de compatibilidade do processador. Esses recursos incluem:
n Enhanced vMotion Compatibility (EVC) - Você pode usar o EVC para ajudar a garantir a
compatibilidade do vMotion para os hosts em um cluster. O EVC garante que todos os hosts
em um cluster apresentem o mesmo conjunto de recursos de CPU para máquinas virtuais,
mesmo se as CPUs reais nos hosts forem diferentes. Isso impede que as migrações com o
vMotion falhem devido a CPUs incompatíveis.
Para habilitar o uso de recomendações de migração do DRS, os hosts no seu cluster devem fazer
parte de uma rede do vMotion. Se os hosts não estiverem na rede do vMotion, o DRS ainda
poderá fazer recomendações iniciais de posicionamento.
Para ser configurado para o vMotion, cada host no cluster deve atender aos seguintes requisitos:
n O vMotion requer uma rede de migração de Gigabit Ethernet privada entre todos os
hosts gerenciados habilitados para vMotion. Quando o vMotion estiver ativado em um host
gerenciado, configure um objeto de identidade de rede exclusivo para o host gerenciado e
conecte-o à rede de migração privada.
A capacidade do flash virtual aparece como uma estatística que é relatada regularmente do host
para o vSphere Client. Cada vez que o DRS é executado, ele usa o valor de capacidade mais
recente relatado.
Você pode configurar um recurso de flash virtual por host. Isso significa que, durante o tempo de
inicialização da máquina virtual, o DRS não precisa selecionar entre diferentes recursos de flash
virtual em um determinado host.
O DRS seleciona um host que tenha capacidade de flash virtual disponível suficiente para iniciar
a máquina virtual. Se o DRS não puder satisfazer a reserva de flash virtual de uma máquina
virtual, ela não poderá ser ligada. O DRS trata uma máquina virtual ligada com uma reserva de
flash virtual como tendo uma afinidade suave com seu host atual. O DRS não recomendará essa
máquina virtual para o vMotion, exceto por motivos obrigatórios, como colocar um host no modo
de manutenção ou para reduzir a carga em um host muito utilizado.
Criar um cluster
Um cluster é um grupo de hosts. Quando um host é adicionado a um cluster, os recursos do host
se tornam parte dos recursos do cluster. O cluster gerencia os recursos de todos os hosts dentro
dele.
Os clusters permitem as soluções vSphere High Availability (HA) e vSphere Distributed Resource
Scheduler (DRS).
Observação O vSphere DRS é um recurso crítico do vSphere que é necessário para manter a
integridade das cargas de trabalho em execução no vSphere Cluster. A partir do vSphere 7.0
Update 1, o DRS depende da disponibilidade de VMs do vCLS. Consulte vSphere Cluster Services
(vCLS) para obter mais informações.
Pré-requisitos
n Se você quiser usar o vSAN, ele deverá ser habilitado antes de configurar o vSphere HA.
Procedimentos
2 Clique com o botão direito do mouse no centro de dados e selecione Novo Cluster (New
Cluster).
Opção Descrição
Para usar o DRS com este cluster a Marque a caixa de seleção DRS Ativar (Turn ON).
b Selecione um nível de automação e um limite de migração.
Para usar a HA com este cluster a Marque a caixa de seleção vSphere HA Ativar (Turn ON).
b Selecione se deseja ativar o monitoramento do host e o controle de
admissão.
c Se o controle de admissão estiver ativado, especifique uma política.
d Selecione uma opção de Monitoramento de VM.
e Especifique a sensibilidade de monitoramento da máquina virtual.
O EVC garante que todos os hosts em um cluster apresentem o mesmo conjunto de recursos
de CPU para máquinas virtuais, mesmo se as CPUs reais nos hosts forem diferentes. Isso
impede que as migrações com o vMotion falhem devido a CPUs incompatíveis.
6 Clique em Okey(OK).
Resultados
Próximo passo
Observação Na página Resumo do Cluster (Cluster Summary), você pode ver Serviços de
Cluster (Cluster Services) que exibe o status de integridade dos Serviços de Cluster do vSphere.
Balanceamento de Carga
Gerenciamento de energia
Quando o recurso vSphere Distributed Power Management (DPM) está ativado, o DRS
compara a capacidade de cluster e de nível de host com as demandas das máquinas virtuais
do cluster, incluindo a demanda histórica recente. Em seguida, o DRS recomenda colocar
os hosts no modo de espera ou coloca os hosts no modo de energia em espera quando
for encontrado excesso de capacidade. O DRS liga os hosts se a capacidade for necessária.
Dependendo das recomendações de estado de energia do host resultantes, as máquinas
virtuais também podem precisar ser migradas de e para os hosts. Consulte Gerenciamento
de recursos de energia.
Regras de Afinidade
Pré-requisitos
Você pode criar um cluster sem uma licença especial, mas deve ter uma licença para habilitar um
cluster para o vSphere DRS ou o vSphere HA.
Observação O vSphere DRS é um recurso crítico do vSphere que é necessário para manter a
integridade das cargas de trabalho em execução no vSphere Cluster. A partir do vSphere 7.0
Update 1, o DRS depende da disponibilidade de VMs do vCLS. Consulte vSphere Cluster Services
(vCLS) para obter mais informações.
Procedimentos
6 Marque a caixa de seleção Predictive DRS (Predictive DRS). Além das métricas em tempo
real, o DRS responde às métricas previstas fornecidas pelo servidor vRealize Operations.
Você também deve configurar o DRS Preditivo (Predictive DRS) em uma versão de vRealize
Operations compatível com esse recurso.
8 Em Opções adicionais (Additional Options), marque a caixa de seleção para aplicar uma das
políticas padrão.
Opção Descrição
Métrica de memória para Balanceamento de carga com base na memória consumida de máquinas
balanceamento de carga virtuais em vez da memória ativa. Essa configuração é recomendada apenas
para clusters onde a memória do host não está comprometida demais.
11 Clique em Okey(OK).
Próximo passo
Observação Na página Resumo do Cluster (Cluster Summary), você pode ver Serviços de
Cluster (Cluster Services) que exibe o status de integridade dos Serviços de Cluster do vSphere.
Você pode visualizar a utilização da memória para DRS no vSphere Client. Para saber mais,
consulte:
Exibindo a utilização da memória do Agendador de Recursos Distribuídos
(http://link.brightcove.com/services/player/bcpid2296383276001?
bctid=ref:video_vsphere67_drs)
Por exemplo, você pode selecionar Manual (Manual) para máquinas virtuais específicas em um
cluster com automação completa ou Parcialmente Automatizado (Partially Automated) para
máquinas virtuais específicas em um cluster manual.
Se uma máquina virtual estiver definida como Desativado (Disabled), vCenter Server não
migrará essa máquina virtual nem fornecerá recomendações de migração para ela.
Procedimentos
3 Em Serviços, selecione vSphere DRS (vSphere DRS) e clique em Editar (Edit). Expanda
Automação do DRS.
Opção Descrição
Desativado vCenter Server não migra a máquina virtual nem fornece recomendações de
migração para ela.
9 Clique em Okey(OK).
Resultados
Observação Outros VMware produtos ou recursos, como o vSphere vApp e o vSphere Fault
Tolerance, podem substituir os níveis de automação de máquinas virtuais em um cluster DRS.
Consulte a documentação específica do produto para obter detalhes.
Desativar DRS
Você pode desativar o DRS para um cluster.
Procedimentos
n Clique em Sim (Yes) para salvar um instantâneo da árvore do pool de recursos em uma
máquina local.
n Clique em Não (No) para desativar o DRS sem salvar um instantâneo da árvore do pool
de recursos.
Resultados
Observação O vSphere DRS é um recurso crítico do vSphere que é necessário para manter a
integridade das cargas de trabalho em execução no vSphere Cluster. A partir do vSphere 7.0
Update 1, o DRS depende da disponibilidade de VMs do vCLS. Consulte vSphere Cluster Services
(vCLS) para obter mais informações.
Pré-requisitos
n Você pode restaurar um snapshot apenas no mesmo cluster em que ele foi tirado.
Procedimentos
2 Clique com o botão direito do mouse no cluster e selecione Restaurar Árvore do Pool de
Recursos (Restore Resource Pool Tree).
4 Clique em Abrir(Open).
O vSAN Stretched Cluster com vSphere HA e o vSphere DRS fornecem resiliência ao ter duas
cópias de dados espalhados por dois domínios de falha e um nó testemunha em um terceiro
domínio de falha em caso de falhas. Os dois domínios de falha ativos fornecem replicação de
dados para que ambos os domínios de falha tenham uma cópia atual dos dados.
Em versões anteriores ao vSphere 7.0 U2, recomendamos que você altere o DRS do modo
totalmente automatizado para o modo parcialmente automatizado, para evitar a migração de
VMs enquanto a ressincronização está em andamento para o site primário. Defina o DRS de volta
para totalmente automatizado somente após a ressincronização ser concluída.
Com o vSphere 7.0 U2, o DRS Awareness of vSAN Stretched Cluster apresenta uma solução
de localidade de leitura totalmente automatizada para a recuperação de falhas em um cluster
estendido do vSAN. As informações de localidade lidas indicam os hosts aos quais a VM
tem acesso total, e o DRS usa essas informações ao colocar uma VM em um host em
clusters estendidos do vSAN. O DRS impede que as VMs retornem ao site primário quando
a ressincronização do vSAN ainda estiver em andamento durante a fase de recuperação do
site. O DRS migra automaticamente uma VM de volta para o site afinado primário quando seus
componentes de dados atingem a localidade de leitura completa. Isso permite que você opere o
DRS no modo totalmente automático em caso de falhas no site completo.
Em caso de falhas parciais do site, se uma VM perder a localidade de leitura devido à perda
de componentes de dados maiores ou iguais às suas Falhas no vSphere, o DRS identificará as
VMs que consomem uma largura de banda de leitura muito alta e tentará reequilibrá-las para
o site secundário . Isso garante que as VMs com cargas de trabalho pesadas de leitura não
sofram durante falhas parciais do site. Depois que o site primário estiver online novamente e os
componentes de dados tiverem concluído a ressincronização, a VM será movida de volta para o
site ao qual está associada.
Em um cluster ROBO Enterprise, o DRS é desativado por padrão e você não pode fazer
alterações na configuração do DRS. Quando um host em um cluster ROBO Enterprise entra em
modo de manutenção, as VMs são automaticamente evacuadas do host pelo DRS. Antes de
evacuar as VMs do host, o DRS cria mapeamentos de afinidade de host de VM para rastrear
onde as VMs foram colocadas. Quando o host sai do modo de manutenção, as VMs que estavam
em execução no host são migradas de volta para o host. Os mapeamentos de afinidade de host
de VM são limpos após a migração.
Você deve estar ciente de algumas limitações antes de iniciar o modo de manutenção em um
cluster ROBO Enterprise. Em um cluster ROBO Enterprise, o DRS é desativado por padrão.
Se você tiver migrado de uma licença compatível com DRS para uma licença empresarial
ROBO, poderá ter VMs com regras de afinidade ou antiafinidade presentes no sistema. Você
deve desativar ou excluir VMs com regras de afinidade ou antiafinidade, ou a operação
do modo de manutenção do ROBO Enterprise está desativada. A operação do modo de
manutenção ROBO Enterprise será desativada se o DRS não estiver definido como o modo
totalmente automatizado. O nível de automação do DRS deve ser definido no modo totalmente
automatizado para evacuar as VMs automaticamente por meio do fluxo de trabalho de
manutenção do host. Se uma VM substituir o modo totalmente automatizado do DRS, você
deverá evacuar a VM manualmente.
Pré-requisitos
n Verifique se todos os hosts em um cluster têm a Licença Empresarial ROBO instalada. Caso
contrário, você deverá instalar a licença.
Procedimentos
1 Para que o Modo de Manutenção DRS funcione com a Licença Empresarial ROBO, certifique-
se de que cada host no cluster tenha a Licença Empresarial ROBO instalada.
3 Selecione o host no cluster, clique com o botão direito do mouse e selecione Entrar no Modo
de Manutenção (Enter Maintenance Mode) e clique em OK (OK).
Resultados
Depois que o host sair do modo de manutenção, as VMs serão migradas automaticamente de
volta para o host. O host é restaurado para o estado original. No entanto, se um host estiver
sobrecarregado, o DRS não poderá migrar as VMs de volta para o host original. O DRS tenta
restaurar o host para o estado original, mas não pode tornar um host sobrecarregado.
Próximo passo
Se você precisar desativar o Modo de Manutenção DRS com a Licença Empresarial ROBO,
poderá editar o arquivo vpxd.cfg. Abra o arquivo vpxd.cfg. Na opção <cluster> ,
altere <roboMMEnabled> true </roboMMEnabled> para <roboMMEnabled> false </
roboMMEnabled> . Essa é a configuração do tempo de execução, portanto, você não precisa
reiniciar o vpxd após atualizar a configuração.
Para que o modo de manutenção funcione corretamente com um cluster ROBO Enterprise:
n Verifique se todos os hosts em um cluster têm a Licença Empresarial ROBO instalada. Caso
contrário, você deverá instalar a licença.
Para personalizar seu cluster do DRS e os recursos que ele contém, você pode configurar regras
de afinidade e adicionar e remover hosts e máquinas virtuais. Quando as configurações e os
recursos de um cluster tiverem sido definidos, você deverá garantir que ele seja e continue
sendo um cluster válido. Você também pode usar um cluster DRS válido para gerenciar recursos
de energia e interoperar com vSphere HA.
Observação Neste capítulo, "Memória" pode se referir a RAM física ou Memória persistente.
Depois que um host é adicionado, as máquinas virtuais implantadas no host tornam-se parte do
cluster, e o DRS pode recomendar a migração de algumas máquinas virtuais para outros hosts no
cluster.
Observação O vSphere DRS é um recurso crítico do vSphere que é necessário para manter a
integridade das cargas de trabalho em execução no vSphere Cluster. A partir do vSphere 7.0
Update 1, o DRS depende da disponibilidade de VMs do vCLS. Consulte vSphere Cluster Services
(vCLS) para obter mais informações.
Você pode decidir se deseja associar máquinas virtuais e pools de recursos existentes ao pool de
recursos raiz do cluster ou enxertar a hierarquia do pool de recursos.
Observação Se um host não tiver pools de recursos filho ou máquinas virtuais, os recursos do
host serão adicionados ao cluster, mas nenhuma hierarquia de pool de recursos com um pool de
recursos de nível superior será criada.
Procedimentos
2 Clique com o botão direito do mouse no host e selecione Mover para ... (Move To...).
3 Selecione um cluster.
n Colocar as máquinas virtuais deste host no pool de recursos raiz do cluster (Put this
host’s virtual machines in the cluster’s root resource pool)
n Crie um pool de recursos para as máquinas virtuais e pools de recursos deste host
(Create a resource pool for this host’s virtual machines and resource pools)
vCenter Server cria um pool de recursos de nível superior que se torna um filho direto
do cluster e adiciona todos os filhos do host a esse novo pool de recursos. Você
pode fornecer um nome para esse novo pool de recursos de nível superior. O padrão
é Grafado de <host_name> (Grafted from <host_name>).
Resultados
Procedimentos
2 Clique com o botão direito do mouse no cluster e selecione Adicionar Host (Add Host).
6 (Opcional) Você pode ativar o modo de bloqueio para impedir que usuários remotos façam
login diretamente no host.
Se você não ativar o modo de bloqueio, poderá configurar essa opção mais tarde editando o
Perfil de segurança nas configurações do host.
n Colocar as máquinas virtuais deste host no pool de recursos raiz do cluster (Put this
host’s virtual machines in the cluster’s root resource pool)
n Crie um pool de recursos para as máquinas virtuais e pools de recursos deste host
(Create a resource pool for this host’s virtual machines and resource pools)
vCenter Server cria um pool de recursos de nível superior que se torna um filho direto
do cluster e adiciona todos os filhos do host a esse novo pool de recursos. Você
pode fornecer um nome para esse novo pool de recursos de nível superior. O padrão
é Grafado de <host_name> (Grafted from <host_name>).
Resultados
n Quando você adiciona um host a um cluster, todas as máquinas virtuais nesse host são
adicionadas ao cluster.
n Quando uma máquina virtual é criada, o assistente de Nova Máquina Virtual solicita a
localização da máquina virtual. Você pode selecionar um host autônomo ou um cluster e
pode selecionar qualquer pool de recursos dentro do host ou cluster.
n Você pode migrar uma máquina virtual de um host autônomo para um cluster ou de um
cluster para outro cluster usando o assistente Migrar Máquina Virtual . Para iniciar esse
assistente, clique com o botão direito do mouse no nome da máquina virtual e selecione
Migrar (Migrate).
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e selecione Mover para ... (Move
To...).
3 Selecione um cluster.
4 Clique em Okey(OK).
n Quando você remove um host de um cluster, todas as máquinas virtuais desligadas que você
não migra para outros hosts também são removidas. Você pode remover um host somente
se ele estiver no modo de manutenção ou desconectado. Se você remover um host de um
cluster do DRS, o cluster poderá ficar amarelo porque está comprometido demais.
n Você pode migrar uma máquina virtual de um cluster para um host autônomo ou de um
cluster para outro cluster usando o assistente Migrar . Para iniciar esse assistente, clique com
o botão direito do mouse no nome da máquina virtual e selecione Migrar (Migrate).
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e selecione Migrar (Migrate).
5 Clique em Concluir(Finish).
Se a máquina virtual for um membro de um grupo de regras de cluster DRS, vCenter Server
exibirá um aviso antes de permitir que a migração prossiga. O aviso indica que as máquinas
virtuais dependentes não são migradas automaticamente. Você precisa confirmar o aviso
antes que a migração possa prosseguir.
n Hierarquias do pool de recursos - Quando você remove um host de um cluster, o host retém
apenas o pool de recursos raiz, mesmo se você tiver usado um cluster DRS e tiver decidido
implementar o pool de recursos do host quando adicionar o host ao cluster. Nesse caso, a
hierarquia permanece com o cluster. Você pode criar uma hierarquia de pool de recursos
específica do host.
n Máquinas virtuais - Um host deve estar no modo de manutenção antes que você possa
removê-lo do cluster e, para que um host entre no modo de manutenção, todas as máquinas
virtuais ligadas devem ser migradas desse host. Quando você solicita que um host entre
no modo de manutenção, você também é perguntado se deseja migrar todas as máquinas
virtuais desligadas nesse host para outros hosts no cluster.
As máquinas virtuais que estão em execução em um host que entra no modo de manutenção
precisam ser migradas para outro host (manual ou automaticamente pelo DRS) ou desligadas. O
host está em um estado de Entrando no Modo de Manutenção (Entering Maintenance Mode)
até que todas as máquinas virtuais em execução sejam desligadas ou migradas para hosts
diferentes. Não é possível ligar máquinas virtuais ou migrar máquinas virtuais para um host que
entra no modo de manutenção.
Quando não houver mais máquinas virtuais em execução no host, o ícone do host mudará para
incluir em manutenção (under maintenance) e o painel Resumo do host indicará o novo estado.
Enquanto estiver no modo de manutenção, o host não permite que você implante ou ligue uma
máquina virtual.
Observação O DRS não recomenda (ou executa, no modo totalmente automatizado) qualquer
migração de máquina virtual de um host que entre no modo de manutenção ou de espera se o
nível de failover vSphere HA for violado depois que o host entrar no modo solicitado.
Procedimentos
Resultados
O host está no modo de manutenção até que você selecione Modo de Manutenção
(Maintenance Mode) > Sair do Modo de Manutenção (Exit Maintenance Mode).
Procedimentos
2 Clique com o botão direito do mouse no host e selecione Maintenance Mode (Maintenance
Mode) > Enter Maintenance Mode (Enter Maintenance Mode).
3 Clique com o botão direito do mouse no host e selecione Mover para ... (Move To...).
Resultados
Quando você move o host, seus recursos são removidos do cluster. Se você enxertou a
hierarquia do pool de recursos do host no cluster, essa hierarquia permanecerá com o cluster.
Próximo passo
Normalmente, os hosts são colocados no modo de espera pelo recurso do vSphere DPM
para otimizar o uso de energia. Você também pode colocar um host no modo de espera
manualmente. No entanto, o DRS pode desfazer (ou recomendar desfazer) sua alteração na
próxima vez que ela for executada. Para forçar um host para permanecer desligado, coloque-o
no modo de manutenção e desligue-o.
Os clusters DRS ficam comprometidos demais ou são inválidos por vários motivos.
n Um cluster se tornará inválido se vCenter Server estiver indisponível e você ligar as máquinas
virtuais usando o vSphere Client.
n Se forem feitas alterações em hosts ou máquinas virtuais usando o vSphere Client enquanto
vCenter Server estiver indisponível, essas alterações entrarão em vigor. Quando vCenter
Server estiver disponível novamente, você poderá descobrir que os clusters ficaram
vermelhos ou amarelos porque os requisitos do cluster não são mais atendidos.
Reserva
Uma alocação fixa e garantida para a entrada do pool de recursos pelo usuário.
Reserva usada
A soma da reserva ou reserva usada (o que for maior) para cada pool de recursos filho,
adicionada recursivamente.
Sem reserva
Esse número não negativo difere de acordo com o tipo de pool de recursos.
n Pools de recursos expansíveis: (reserva menos reserva usada) mais quaisquer recursos
não reservados que podem ser emprestados de seus pools de recursos ancestrais.
A figura a seguir mostra um exemplo de um cluster válido com pools de recursos fixos e como
seus recursos de CPU e memória são computados.
cluster
Total Capacity: 12G
Reserved Capacity: 11G
Available Capacity: 1G
n Três pools de recursos, cada um do tipo Fixo (Fixed) ( Reserva Expansível (Expandable
Reservation) não está selecionado).
n A reserva total dos três pools de recursos combinados é de 11 GHz (4 + 4 + 3 GHz). O total é
mostrado no campo Capacidade Reservada (Reserved Capacity) para o cluster.
n O RP1 foi criado com uma reserva de 4GHz. Duas máquinas virtuais. (VM1 e VM7) de 2 GHz
cada estão ligadas ( Reserva Usada (Reservation Used): 4GHz). Não há recursos restantes
para ligar máquinas virtuais adicionais. VM6 é mostrado como não ligado. Ele não consome
nenhuma reserva.
n O RP2 foi criado com uma reserva de 4GHz. Duas máquinas virtuais de 1 GHz e 2 GHz estão
ligadas ( Reserva Usada (Reservation Used): 3GHz). 1 GHz permanece sem reserva.
n O RP3 foi criado com uma reserva de 3GHz. Uma máquina virtual com 3GHz está ligada. Não
há recursos disponíveis para ligar máquinas virtuais adicionais.
A figura a seguir mostra um exemplo de um cluster válido com alguns pools de recursos (RP1 e
RP3) usando o tipo de reserva Expansível (Expandable).
cluster
Total Capacity: 16G
Reserved Capacity: 16G
Available Capacity: 0G
n A reserva total usada dos três pools de recursos combinados é 16 GHz (6 GHz para RP1, 5
GHz para RP2 e 5 GHz para RP3). 16 GHz aparece como a Capacidade Reservada (Reserved
Capacity) para o cluster no nível superior.
n O RP1 foi criado com uma reserva de 4GHz. Três máquinas virtuais de 2 GHz cada estão
ligadas. Duas dessas máquinas virtuais (por exemplo, VM1 e VM7) podem usar reservas do
RP1, enquanto a terceira máquina virtual (VM6) pode usar reservas do pool de recursos do
cluster. (Se o tipo desse pool de recursos fosse Fixo (Fixed), você não conseguiria ligar a
máquina virtual adicional.)
n O RP2 foi criado com uma reserva de 5 GHz. Duas máquinas virtuais de 1 GHz e 2 GHz estão
ligadas ( Reserva Usada (Reservation Used): 3GHz). 2 GHz permanece sem reserva.
O RP3 foi criado com uma reserva de 5 GHz. Duas máquinas virtuais de 3GHz e 2GHz estão
ligadas. Mesmo que esse pool de recursos seja do tipo Expansível (Expandable), nenhuma
máquina virtual de 2 GHz adicional pode ser ligada porque os recursos extras do pai já estão
sendo usados pelo RP1.
Sempre haverá recursos suficientes para oferecer suporte a todas as máquinas virtuais em
execução porque, quando um host fica indisponível, todas as suas máquinas virtuais ficam
indisponíveis. Um cluster normalmente fica amarelo quando a capacidade do cluster é reduzida
repentinamente, por exemplo, quando um host no cluster fica indisponível. VMware recomenda
que você deixe recursos de cluster adicionais adequados para evitar que o cluster fique amarelo.
cluster
X
Total Capacity:12G 8G
Reserved Capacity: 12G
Available Capacity: 0G
VM4, 1G VM7, 0G
Neste exemplo:
n Um cluster com recursos totais de 12 GHz provenientes de três hosts de 4 GHz cada.
n A reserva total usada pelos três pools de recursos combinados é de 12 GHz (4 + 5 + 3 GHz).
Isso aparece como a Capacidade Reservada (Reserved Capacity) no cluster.
n Um dos hosts de 4 GHz fica indisponível, então o total de recursos é reduzido para 8 GHz.
n Ao mesmo tempo, VM4 (1 GHz) e VM3 (3GHz), que estavam em execução no host que falhou,
não estão mais em execução.
n O cluster agora está executando máquinas virtuais que exigem um total de 6 GHz. O cluster
ainda tem 8 GHz disponíveis, o que é suficiente para atender aos requisitos da máquina
virtual.
As reservas do pool de recursos de 12 GHz não podem mais ser atendidas, portanto o cluster
está marcado como amarelo.
A quantidade total de recursos no cluster não afeta se o cluster está vermelho. Um cluster pode
ser vermelho, mesmo se houver recursos suficientes no nível raiz, se houver uma inconsistência
em um nível filho.
Você pode resolver um problema de cluster DRS vermelho desligando uma ou mais máquinas
virtuais, movendo máquinas virtuais para partes da árvore que têm recursos suficientes
ou editando as configurações do pool de recursos na parte vermelha. Adicionar recursos
normalmente ajuda somente quando você está no estado amarelo.
Um cluster também pode ficar vermelho se você reconfigurar um pool de recursos enquanto
uma máquina virtual está fazendo failover. Uma máquina virtual com failover é desconectada e
não conta para a reserva usada pelo pool de recursos pai. Você pode reduzir a reserva do pool
de recursos pai antes que o failover seja concluído. Após a conclusão do failover, os recursos da
máquina virtual são cobrados novamente no pool de recursos pai. Se o uso do pool se tornar
maior do que a nova reserva, o cluster ficará vermelho.
Se um usuário puder iniciar uma máquina virtual (sem suporte) com uma reserva de 3GHz no
pool de recursos 2, o cluster ficará vermelho, conforme mostrado na figura a seguir.
cluster
Total Capacity:12G
Reserved Capacity: 12G 15G
Available Capacity: 0G
VM7, 3G
O vSphere DPM monitora a demanda cumulativa de todas as máquinas virtuais no cluster por
recursos de memória e CPU e compara isso com a capacidade total de recursos disponíveis de
todos os hosts no cluster. Se for encontrado excesso de capacidade, o vSphere DPM colocará
um ou mais hosts no modo de espera e os desligará após a migração de suas máquinas virtuais
para outros hosts. Por outro lado, quando a capacidade é considerada inadequada, o DRS tira os
hosts do modo de espera (os liga) e usa o vMotion para migrar máquinas virtuais para eles. Ao
fazer esses cálculos, o vSphere DPM considera não apenas a demanda atual, mas também honra
todas as reservas de recursos da máquina virtual especificadas pelo usuário.
Se você habilitar Métricas previstas (Forecasted Metrics) ao criar um cluster DRS, o DPM emitirá
as propostas com antecedência, dependendo da janela de previsão contínua selecionada.
Observação ESXi hosts não podem ser automaticamente retirados do modo de espera, a
menos que estejam em execução em um cluster gerenciado por vCenter Server.
O vSphere DPM pode usar um dos três protocolos de gerenciamento de energia para tirar um
host do modo de espera: Intelligent Platform Management Interface (IPMI), Intelligent Platform
Management-out (iLO) ou Wake-On-LAN (WOL). Cada protocolo requer seu próprio suporte e
configuração de hardware. Se um host não for compatível com qualquer um desses protocolos,
ele não poderá ser colocado no modo de espera pelo vSphere DPM. Se um host suportar vários
protocolos, eles serão usados na seguinte ordem: IPMI, iLO, WOL.
Observação Não desconecte um host no modo de espera ou mova-o para fora do cluster DRS
sem primeiro ligá-lo, caso contrário, vCenter Server não poderá ligar o host novamente.
Pré-requisitos
Tanto o IPMI quanto o iLO exigem um BMC (Baseboard Management Controller) de hardware
para fornecer um gateway para acessar funções de controle de hardware e permitir que a
interface seja acessada de um sistema remoto usando conexões seriais ou LAN. O BMC é ligado,
mesmo quando o host em si é desligado. Se ativado corretamente, o BMC poderá responder aos
comandos de ativação remota.
Se você planeja usar o IPMI ou o iLO como um protocolo de ativação, deverá configurar o BMC.
As etapas de configuração do BMC variam de acordo com o modelo. Consulte a documentação
do seu fornecedor para obter mais informações. Com o IPMI, você também deve garantir que o
canal de LAN da BMC esteja configurado para estar sempre disponível e permitir comandos com
privilégios de operador. Em alguns sistemas IPMI, quando você habilita "IPMI sobre LAN", deve
configurar isso no BIOS e especificar uma conta IPMI específica.
O vSphere DPM que usa apenas IPMI oferece suporte à autenticação baseada em MD5 e em
texto sem formatação, mas a autenticação baseada em MD2 não é compatível. vCenter Server
usa MD5 se o BMC de um host relatar que ele é compatível e habilitado para a função de
Operador. Caso contrário, a autenticação baseada em texto sem formatação será usada se o
BMC informar que ela é compatível e habilitada. Se nem o MD5 nem a autenticação de texto
sem formatação estiverem habilitados, o IPMI não poderá ser usado com o host e vCenter Server
tentará usar o recurso Ativar na LAN.
Procedimentos
4 Clique em Editar(Edit).
n Nome de usuário e senha para uma conta BMC. (O nome de usuário deve ter a
capacidade de ligar remotamente o host.)
6 Clique em Okey(OK).
Pré-requisitos
n Seu cluster deve conter pelo menos dois hosts que são a versão ESX 3.5 (ou ESX 3i versão
3.5) ou posterior.
n O link de rede do vMotion de cada host deve estar funcionando corretamente. A rede
do vMotion também deve ser uma única sub-rede IP, não várias sub-redes separadas por
roteadores.
n O NIC do vMotion em cada host deve oferecer suporte ao WOL. Para verificar o suporte
ao WOL, primeiro determine o nome do adaptador de rede físico correspondente à porta
VMkernel selecionando o host no painel de inventário do vSphere Client, selecionando a
guia Configuração (Configuration) e clicando em Rede (Networking). Depois de obter essas
informações, clique em Adaptadores de Rede (Network Adapters) e localize a entrada
correspondente ao adaptador de rede. A coluna Wake On LAN Supported (Wake On LAN
Supported) para o adaptador relevante deve mostrar Sim.
n Para exibir o status de compatibilidade do WOL para cada NIC em um host, selecione o host
no painel de inventário do vSphere Client, selecione a guia Configuração (Configuration) e
clique em Adaptadores de Rede (Network Adapters). O NIC deve mostrar Sim na coluna
Wake On LAN Supported (Wake On LAN Supported).
n A porta do switch na qual cada NIC do vMotion compatível com WOL deve ser conectada
deve ser definida para negociar automaticamente a velocidade do link e não para uma
velocidade fixa (por exemplo, 1000 Mb / s). Muitas NICs suportam WOL somente se puderem
alternar para 100 Mb / s ou menos quando o host estiver desligado.
Depois de verificar esses pré-requisitos, teste cada ESXi host que usará o WOL para oferecer
suporte ao vSphere DPM. Ao testar esses hosts, certifique-se de que o recurso do vSphere DPM
esteja desativado para o cluster.
Procedimentos
2 Clique com o botão direito do mouse no host e selecione Energia (Power) > Entrar no modo
de espera (Enter Standby Mode)
3 Clique com o botão direito do mouse no host e selecione Ligar (Power) > Ligar (Power On)
para tentar tirá-lo do modo de espera.
5 Para qualquer host que não saia do modo de espera com êxito, execute as seguintes etapas.
Você também pode criar tarefas agendadas para ativar e desativar o DPM para um cluster
usando o assistente Agendar tarefa: alterar configurações de energia do cluster .
Observação Se um host no seu cluster DRS tiver dispositivos USB conectados, desative o DPM
para esse host. Caso contrário, o DPM pode desligar o host e interromper a conexão entre o
dispositivo e a máquina virtual que o estava usando.
Nível de automação
Se o estado de energia do host e as recomendações de migração geradas pelo vSphere DPM
são executadas automaticamente ou não, depende do nível de automação de gerenciamento de
energia selecionado para o recurso.
Opção Descrição
Você pode substituir esse padrão para um host individual selecionando a página Opções de
Host da caixa de diálogo Configurações do cluster e clicando na configuração Gerenciamento de
Energia (Power Management). Você pode alterar essa configuração para as seguintes opções:
n Desativado
n Manual
n Automático
Depois de habilitar e executar o vSphere DPM, você pode verificar se ele está funcionando
corretamente exibindo as informações de Última Espera na Última Hora (Last Time Exited
Standby) de cada host, exibidas na página Opções do Host na caixa de diálogo Configurações
do cluster e nos Hosts { (Hosts) guia para cada cluster. Este campo mostra um carimbo de data /
hora e se vCenter Server teve êxito ou falhou na última vez em que ele tentou tirar o host do
modo de espera. Se nenhuma dessas tentativas tiver sido feita, o campo exibirá Nunca.
Observação Os horários da caixa de texto Última saída em espera (Last Time Exited Standby)
são derivados do log de eventos vCenter Server. Se esse log for limpo, os horários serão
redefinidos para Nunca.
O erro potencial mais grave que você enfrenta ao usar o vSphere DPM é a falha de um host
para sair do modo de espera quando sua capacidade é necessária pelo cluster DRS. Você
pode monitorar instâncias quando esse erro ocorre usando o alarme Sair do erro de espera
(Exit Standby Error) pré-configurado em vCenter Server. Se o vSphere DPM não puder tirar um
host do modo de espera (vCenter Server evento DrsExitStandbyModeFailedEvent), você poderá
configurar esse alarme para enviar um e-mail de alerta ao administrador ou para enviar uma
notificação usando uma interceptação SNMP. Por padrão, esse alarme é apagado depois que
vCenter Server consegue se conectar com êxito a esse host.
Para monitorar a atividade do vSphere DPM, você também pode criar alarmes para os vCenter
Server eventos a seguir.
Para obter mais informações sobre como criar e editar alarmes, consulte a documentação do
Monitoramento e Desempenho do vSphere .
Consulte Regras de Afinidade de Host da VM para obter informações sobre como criar e usar
esse tipo de regra.
n Usado para especificar afinidade ou antiafinidade entre máquinas virtuais individuais. Uma
regra que especifica a afinidade faz com que o DRS tente manter as máquinas virtuais
especificadas juntas no mesmo host, por exemplo, por motivos de desempenho. Com uma
regra de antiafinidade, o DRS tenta manter as máquinas virtuais especificadas separadas,
por exemplo, para que, quando ocorrer um problema com um host, você não perca as duas
máquinas virtuais.
Consulte Regras de Afinidade entre VMs e VMs para obter informações sobre como criar e
usar esse tipo de regra.
Quando você adiciona ou edita uma regra de afinidade e o estado atual do cluster viola a
regra, o sistema continua a operar e tenta corrigir a violação. Para clusters de DRS manuais
e parcialmente automatizados, as recomendações de migração baseadas no cumprimento de
regras e no balanceamento de carga são apresentadas para aprovação. Você não é obrigado
a cumprir as regras, mas as recomendações correspondentes permanecem até que as regras
sejam cumpridas.
Para verificar se alguma regra de afinidade ativada está sendo violada e não pode ser corrigida
pelo DRS, selecione a guia DRS (DRS) do cluster e clique em Falhas (Faults). Qualquer regra
sendo violada no momento tem uma falha correspondente nesta página. Leia a falha para
determinar por que o DRS não é capaz de satisfazer a regra específica. As violações de regras
também produzem um evento de log.
Procedimentos
4 Na caixa de diálogo Criar Grupo de VM / Host (Create VM/Host Group), digite um nome para
o grupo.
5 Selecione Grupo de hosts (Host Group) na caixa suspensa Tipo (Type) e clique em Adicionar
(Add).
6 Clique na caixa de seleção ao lado de um host para adicioná-lo. Continue esse processo até
que todos os hosts desejados tenham sido adicionados.
7 Clique em Okey(OK).
Próximo passo
Usando esse grupo de DRS de host, você pode criar uma regra de afinidade de Host de VM que
estabelece uma relação de afinidade (ou antiafinidade) com um grupo de DRS de máquina virtual
apropriado.
Procedimentos
4 Na caixa de diálogo Criar Grupo de VM / Host (Create VM/Host Group), digite um nome para
o grupo.
5 Selecione Grupo de VM (VM Group) na caixa suspensa Tipo (Type) e clique em Adicionar
(Add).
6 Clique na caixa de seleção ao lado de uma máquina virtual para adicioná-la. Continue esse
processo até que todas as máquinas virtuais desejadas tenham sido adicionadas.
7 Clique em Okey(OK).
Próximo passo
Quando uma regra de afinidade é criada, o DRS tenta manter as máquinas virtuais especificadas
juntas no mesmo host. Você pode querer fazer isso, por exemplo, por motivos de desempenho.
Com uma regra de antiafinidade, o DRS tenta manter as máquinas virtuais especificadas
separadas. Você poderia usar essa regra se quiser garantir que determinadas máquinas virtuais
estejam sempre em hosts físicos diferentes. Nesse caso, se ocorrer um problema com um host,
nem todas as máquinas virtuais seriam colocadas em risco.
Procedimentos
4 Clique em Adicionar(Add).
5 Na caixa de diálogo Criar Regra de VM / Host (Create VM/Host Rule), digite um nome para a
regra.
6 No menu suspenso Tipo (Type), selecione Manter as máquinas virtuais juntas (Keep Virtual
Machines Together) ou Máquinas virtuais separadas (Separate Virtual Machines).
7 Clique em Adicionar(Add).
8 Selecione pelo menos duas máquinas virtuais às quais a regra será aplicada e clique em OK
(OK).
9 Clique em Okey(OK).
Se duas regras de afinidade de VM-VM estiverem em conflito, você não poderá habilitar ambas.
Por exemplo, se uma regra mantém duas máquinas virtuais juntas e outra regra mantém as
mesmas duas máquinas virtuais separadas, você não pode habilitar ambas as regras. Selecione
uma das regras a ser aplicada e desative ou remova a regra conflitante.
Quando duas regras de afinidade VM-VM entram em conflito, a mais antiga tem precedência e
a regra mais recente é desativada. O DRS tenta apenas satisfazer as regras ativadas e as regras
desativadas são ignoradas. O DRS oferece maior precedência para evitar violações de regras de
antiafinidade do que violações de regras de afinidade.
Ao contrário de uma regra de afinidade de VM-VM, que especifica a afinidade (ou antiafinidade)
entre máquinas virtuais individuais, uma regra de afinidade de Host da VM especifica um
relacionamento de afinidade entre um grupo de máquinas virtuais e um grupo de hosts. Existem
regras 'obrigatórias' (designadas por "deve") e regras 'preferenciais' (designadas por "devem".)
Pré-requisitos
Crie a máquina virtual e os grupos de DRS de host aos quais a regra de afinidade de Host da VM
se aplica.
Procedimentos
4 Clique em Adicionar(Add).
5 Na caixa de diálogo Criar Regra de VM / Host (Create VM/Host Rule), digite um nome para a
regra.
6 No menu suspenso Tipo (Type), selecione Máquinas Virtuais para Hosts (Virtual Machines
to Hosts).
7 Selecione o grupo DRS da máquina virtual e o grupo DRS de host ao qual a regra se aplica.
n Deve ser executado nos hosts do grupo (Must run on hosts in group). As máquinas
virtuais no Grupo de VMs 1 devem ser executadas nos hosts do Grupo de Hosts A.
n Deve ser executado nos hosts do grupo (Should run on hosts in group). As máquinas
virtuais no Grupo de VMs 1 devem, mas não são necessárias, para serem executadas nos
hosts do Grupo de Hosts A.
n Não deve ser executado em hosts no grupo (Must not run on hosts in group). As
máquinas virtuais no Grupo de VMs 1 nunca devem ser executadas no host do Grupo de
Hosts A.
n Não deve ser executado em hosts no grupo (Should not run on hosts in group). As
máquinas virtuais no Grupo de VMs 1 não devem, mas podem, ser executadas em hosts
no Grupo de Hosts A.
9 Clique em Okey(OK).
Se você criar mais de uma regra de afinidade de Host da VM, as regras não serão classificadas,
mas serão aplicadas igualmente. Esteja ciente de que isso tem implicações na forma como as
regras interagem. Por exemplo, uma máquina virtual que pertence a dois grupos DRS, cada um
dos quais pertence a uma regra necessária diferente, pode ser executada apenas em hosts que
pertencem a ambos os grupos de DRS de host representados nas regras.
Quando você cria uma regra de afinidade de Host da VM, sua capacidade de funcionar em
relação a outras regras não é verificada. Portanto, é possível criar uma regra que entre em
conflito com as outras regras que você está usando. Quando duas regras de afinidade de Host
da VM entram em conflito, a mais antiga tem precedência e a regra mais recente é desativada. O
DRS tenta apenas satisfazer as regras ativadas e as regras desativadas são ignoradas.
O DRS, vSphere HA e o vSphere DPM nunca realizam nenhuma ação que resulte na violação
das regras de afinidade necessárias (aquelas em que o grupo DRS da máquina virtual 'deve
ser executado em' ou 'não deve ser executado' no grupo DRS do host). Portanto, você deve
ter cuidado ao usar esse tipo de regra devido ao seu potencial de afetar adversamente o
funcionamento do cluster. Se usadas incorretamente, as regras de afinidade de Host da VM
necessárias podem fragmentar o cluster e impedir o funcionamento adequado do DRS, vSphere
HA e do vSphere DPM.
Várias funções de cluster não são executadas se isso violar uma regra de afinidade necessária.
n O DRS não evacua as máquinas virtuais para colocar um host no modo de manutenção.
n O DRS não coloca máquinas virtuais para máquinas virtuais de inicialização ou balanceamento
de carga.
Para evitar essas situações, tenha cuidado ao criar mais de uma regra de afinidade necessária
ou considere usar regras de afinidade de Host da VM que são apenas preferenciais (aquelas em
que o grupo DRS da máquina virtual 'deve ser executado em' ou 'não deve ser executado' no
DRS do host grupo). Certifique-se de que o número de hosts no cluster ao qual cada máquina
virtual está afinada seja grande o suficiente para que a perda de um host não resulte em uma
falta de hosts nos quais a máquina virtual possa ser executada. As regras preferenciais podem
ser violadas para permitir o funcionamento adequado do DRS, vSphere HA e do vSphere DPM.
Observação Você pode criar um alarme baseado em evento que é acionado quando uma
máquina virtual viola uma regra de afinidade de Host da VM. Adicione um novo alarme para a
máquina virtual e selecione A VM está violando a Regra de Afinidade de Host da VM (VM is
violating VM-Host Affinity Rule) como o gatilho de evento. Para obter mais informações sobre
como criar e editar alarmes, consulte a documentação de monitoramento e desempenho do
vSphere.
Você pode definir um limite para o uso do espaço. Quando o uso de espaço em um
repositório de dados excede o limite, o Storage DRS gera recomendações ou realiza Storage
vMotion migrações para equilibrar o uso de espaço no cluster de repositório de dados.
Você pode definir um limite de latência de E / S para evitar gargalos. Quando a latência
de E / S em um datastore excede o limite, o Storage DRS gera recomendações ou realiza
migrações Storage vMotion para ajudar a aliviar a alta carga de E / S.
Regras de antiafinidade
Você pode criar regras de antiafinidade para discos de máquina virtual. Por exemplo, os
discos virtuais de uma determinada máquina virtual devem ser mantidos em repositórios de
dados diferentes. Por padrão, todos os discos virtuais de uma máquina virtual são colocados
no mesmo repositório de dados.
O DRS de armazenamento é chamado na frequência configurada (por padrão, a cada oito horas)
ou quando um ou mais repositórios de dados em um cluster de repositório de dados excede os
limites de utilização de espaço configuráveis pelo usuário. Quando o Storage DRS é chamado,
ele verifica a utilização de espaço do repositório de dados e os valores de latência de E / S em
relação ao limite. Para a latência de E / S, o DRS de Armazenamento usa a latência de E / S do
percentil 90 medida ao longo de um dia para comparar com o limite.
O sistema fornece quantas recomendações forem necessárias para impor regras de DRS de
armazenamento e para equilibrar o espaço e os recursos de E / S do cluster de repositório de
dados. Cada recomendação inclui o nome da máquina virtual, o nome do disco virtual, o nome
do cluster de datastore, o datastore de origem, o datastore de destino e um motivo para a
recomendação.
O Storage DRS faz recomendações obrigatórias para a migração nas seguintes situações:
Além disso, recomendações opcionais são feitas quando um repositório de dados está prestes a
ficar sem espaço ou quando ajustes devem ser feitos para o balanceamento de carga de espaço
e E / S.
O DRS de armazenamento considera mover máquinas virtuais que estão desligadas ou ligadas
para balanceamento de espaço. O DRS de armazenamento inclui máquinas virtuais desligadas
com snapshots nessas considerações.
Procedimentos
2 Clique com o botão direito do mouse no objeto do centro de dados e selecione Novo Cluster
de Repositório de Dados (New Datastore Cluster).
4 Clique em Concluir(Finish).
n Posicionamento inicial para discos virtuais com base no espaço e na carga de trabalho de E /
S.
Procedimentos
Procedimentos
Opção Descrição
Sem automação (modo manual) As recomendações de posicionamento e migração são exibidas, mas não
são executadas até que você aplique manualmente a recomendação.
5 Clique em Okey(OK).
No vSphere Client, você pode usar os seguintes limites para definir o nível de agressividade para
o DRS de Armazenamento:
Utilização do espaço
Latência de E / S
Você também pode definir opções avançadas para configurar ainda mais o nível de
agressividade do Storage DRS.
Esse limite garante que haja alguma diferença mínima entre a utilização do espaço da origem
e do destino. Por exemplo, se o espaço usado no datastore A for 82% e o datastore B
for 79%, a diferença será 3. Se o limite for 5, o Storage DRS não fará recomendações de
migração do datastore A para o datastore B.
Limite de desbalanceamento de E / S
Procedimentos
Quando você desativa essa opção, vCenter Server não considera as métricas de E / S ao
fazer recomendações de DRS de armazenamento. Ao desativar essa opção, você desativa os
seguintes elementos do Storage DRS:
Você define o nível de agressividade do Storage DRS especificando limites para o espaço
usado e a latência de E / S.
n Use o controle deslizante Espaço utilizado para indicar a porcentagem máxima de espaço
consumido permitido antes que o DRS de armazenamento seja acionado. O DRS de
armazenamento faz recomendações e executa migrações quando o uso de espaço nos
repositórios de dados é maior do que o limite.
n Não há recomendações até que a diferença de utilização entre a origem e o destino seja:
Use o controle deslizante para especificar o limite de diferença de utilização do espaço. A
utilização é uso * 100 / capacidade.
Esse limite garante que haja alguma diferença mínima entre a utilização do espaço da
origem e do destino. Por exemplo, se o espaço usado no datastore A for 82% e o
datastore B for 79%, a diferença será 3. Se o limite for 5, o Storage DRS não fará
recomendações de migração do datastore A para o datastore B.
n Verificar desequilíbrios a cada: Especifique a frequência com que o Storage DRS deve
avaliar o espaço e o balanceamento de carga de E / S.
4 Clique em Okey(OK).
n Os repositórios de dados NFS e VMFS não podem ser combinados no mesmo cluster de
repositório de dados.
n Repositórios de dados replicados não podem ser combinados com repositórios de dados
não replicados no mesmo cluster habilitado para DRS do Storage.
n Como prática recomendada, não inclua repositórios de dados que tenham a aceleração de
hardware ativada no mesmo cluster de repositório de dados que repositórios de dados que
não têm a aceleração de hardware ativada. Os repositórios de dados em um cluster de
repositório de dados devem ser homogêneos para garantir o comportamento compatível
com a aceleração de hardware.
n Todos os hosts conectados ao repositório de dados devem ser ESXi 5.0 e posteriores.
n O datastore não pode estar em mais de um centro de dados na mesma instância do vSphere
Client.
Os discos virtuais que estão localizados em um datastore que está entrando no modo de
manutenção devem ser migrados para outro datastore, manualmente ou usando o Storage DRS.
Quando você tenta colocar um datastore no modo de manutenção, a guia Recomendações
de Posicionamento (Placement Recommendations) exibe uma lista de recomendações de
migração, datastores no mesmo cluster de datastore no qual os discos virtuais podem ser
migrados. Na guia Falhas (Faults), vCenter Server exibe uma lista dos discos que não podem
ser migrados e os motivos. Se as regras de afinidade ou antiafinidade do DRS de armazenamento
impedirem que os discos sejam migrados, você poderá optar por ativar a opção Ignorar regras
de afinidade para manutenção.
O datastore fica em um estado de Como entrar no modo de manutenção até que todos os discos
virtuais tenham sido migrados.
Pré-requisitos
O Storage DRS está habilitado no cluster de datastore que contém o datastore que está
entrando no modo de manutenção.
Procedimentos
Observação O datastore não pode entrar no modo de manutenção sem evacuar todos
os discos. Se você desmarcar as recomendações, deverá mover manualmente as máquinas
virtuais afetadas.
vCenter Server usa Storage vMotion para migrar os discos virtuais do datastore de origem
para o datastore de destino e o datastore entra no modo de manutenção.
Resultados
O ícone do datastore pode não ser atualizado imediatamente para refletir o estado atual do
datastore. Para atualizar o ícone imediatamente, clique em Atualizar (Refresh).
Quando você ativa a opção Ignorar Regras de Afinidade para Manutenção para um cluster de
repositório de dados, vCenter Server ignora as regras de afinidade e antiafinidade do DRS de
armazenamento que impedem que um repositório de dados entre no modo de manutenção.
Procedimentos
7 Clique em Okey(OK).
Resultados
Você pode aplicar um subconjunto das recomendações marcando a caixa de seleção Substituir
recomendações sugeridas do DRS e selecionando cada recomendação a ser aplicada.
Rótulo Descrição
% De Utilização do Espaço Antes (origem) e (destino) Porcentagem de espaço usado nos datastores de origem
e de destino antes da migração.
% De Utilização de Espaço Depois (origem) e (destino) Porcentagem de espaço usado nos datastores de origem
e de destino após a migração.
Pré-requisitos
Pelo menos um cluster de repositório de dados deve existir no inventário vSphere Client.
Ative o DRS de armazenamento para o cluster de repositório de dados. A guia Storage DRS
(Storage DRS) será exibida somente se o Storage DRS estiver ativado.
Procedimentos
Resultados
As recomendações são atualizadas. O carimbo de data / hora da Última Atualização exibe a hora
em que as recomendações do DRS de Armazenamento foram atualizadas.
Procedimentos
Opção Descrição
Desativado vCenter Server não migra a máquina virtual nem fornece recomendações de
migração para ela.
6 Clique no menu suspenso Manter VMDKs juntos (Keep VMDKs together) para substituir a
afinidade padrão do VMDK.
7 Clique em Okey(OK).
Você pode criar uma tarefa agendada para alterar o nível de automação e o nível de
agressividade para um cluster de repositório de dados. Por exemplo, você pode configurar
o Storage DRS para executar menos agressivamente durante os horários de pico, quando o
desempenho é uma prioridade, para minimizar a ocorrência de migrações de armazenamento.
Fora do horário de pico, o DRS de armazenamento pode ser executado em um modo mais
agressivo e ser chamado com mais frequência.
Pré-requisitos
Procedimentos
3 Em vSphere DRS (vSphere DRS), clique no botão Agendar DRS (Schedule DRS).
10 Digite um endereço de e-mail para enviar um e-mail de notificação quando a tarefa for
concluída.
11 Clique em Okey(OK).
Resultados
Quando você cria uma regra de antiafinidade, ela se aplica aos discos virtuais relevantes no
cluster de repositório de dados. As regras de antiafinidade são impostas durante a migração
inicial de recomendações de DRS de posicionamento e armazenamento, mas não são aplicadas
quando uma migração é iniciada por um usuário.
Regras de antiafinidade da VM
Especifique quais máquinas virtuais nunca devem ser mantidas no mesmo repositório de
dados. Consulte Criar regras de antiafinidade de VM.
Especifique quais discos virtuais associados a uma determinada máquina virtual devem ser
mantidos em diferentes repositórios de dados. Consulte Criar regras de antiafinidade do
VMDK.
Se você mover um disco virtual para fora do cluster de repositório de dados, a regra de afinidade
ou antiafinidade não se aplicará mais a esse disco.
Quando você move arquivos de disco virtual para um cluster de armazenamento de dados que
tem regras de afinidade e antiafinidade existentes, o seguinte comportamento se aplica:
n O Cluster de Datastore B tem uma regra de afinidade dentro da VM. Quando você move
um disco virtual do Datastore Cluster A para o Datastore Cluster B, qualquer regra aplicada
ao disco virtual para uma determinada máquina virtual no Datastore Cluster A não se aplica
mais. O disco virtual agora está sujeito à regra de afinidade dentro da VM no Datastore
Cluster B.
n O Cluster de Datastore B tem uma regra de antiafinidade de VM. Quando você move um
disco virtual do Datastore Cluster A para o Datastore Cluster B, qualquer regra aplicada ao
disco virtual para uma determinada máquina virtual no Datastore Cluster A não se aplica
mais. O disco virtual agora está sujeito à regra de antiafinidade da VM no Cluster de
Datastore B.
n O Cluster de Datastore B tem uma regra de antiafinidade do VMDK. Quando você move
um disco virtual do Cluster de Datastore A para o Cluster de Datastore B, a regra de
antiafinidade do VMDK não se aplica ao disco virtual de uma determinada máquina virtual
porque a regra é limitada a apenas discos virtuais especificados no Cluster de Datastore B.
Se uma máquina virtual estiver sujeita a uma regra de antiafinidade de VM, o seguinte
comportamento se aplicará:
n O DRS de armazenamento migra os discos virtuais usando o vMotion de acordo com a regra,
mesmo que a migração seja por um motivo obrigatório, como colocar um repositório de
dados no modo de manutenção.
n Se o disco virtual da máquina virtual violar a regra, o Storage DRS fará recomendações de
migração para corrigir o erro ou relatará a violação como uma falha se não puder fazer uma
recomendação que irá corrigir o erro.
Procedimentos
4 Clique em Adicionar(Add).
7 Clique em Adicionar(Add).
As regras de antiafinidade do VMDK se aplicam à máquina virtual para a qual a regra está
definida, não a todas as máquinas virtuais. A regra é expressa como uma lista de discos virtuais
que devem ser separados um do outro.
Se você tentar definir uma regra de antiafinidade do VMDK e uma regra de afinidade dentro da
VM para uma máquina virtual, vCenter Server rejeitará a regra definida mais recentemente.
Se uma máquina virtual estiver sujeita a uma regra de antiafinidade do VMDK, o seguinte
comportamento se aplicará:
n O DRS de armazenamento migra os discos virtuais usando o vMotion de acordo com a regra,
mesmo que a migração seja por um motivo obrigatório, como colocar um datastore no modo
de manutenção.
n Se o disco virtual da máquina virtual violar a regra, o Storage DRS fará recomendações de
migração para corrigir o erro ou relatará a violação como uma falha se não puder fazer uma
recomendação que irá corrigir o erro.
Procedimentos
4 Clique em Adicionar(Add).
7 Clique em Adicionar(Add).
10 Selecione pelo menos dois discos virtuais aos quais a regra se aplica e clique em OK (OK).
As regras de afinidade do VMDK são ativadas por padrão para todas as máquinas virtuais que
estão em um cluster de repositório de dados. Você pode substituir a configuração padrão para o
cluster de repositório de dados ou para máquinas virtuais individuais.
As máquinas virtuais que estão sujeitas às regras de afinidade do VMDK têm o seguinte
comportamento:
n O DRS de armazenamento migra os discos virtuais usando o vMotion de acordo com a regra,
mesmo que a migração seja por um motivo obrigatório, como colocar um datastore no modo
de manutenção.
n Se o disco virtual da máquina virtual violar a regra, o Storage DRS fará recomendações de
migração para corrigir o erro ou relatará a violação como uma falha se não puder fazer uma
recomendação que irá corrigir o erro.
Quando você adiciona um repositório de dados a um cluster de repositório de dados que está
ativado para o DRS de armazenamento, a regra de afinidade do VMDK é desativada para
qualquer máquina virtual que tenha discos virtuais nesse repositório de dados se ela também
tiver discos virtuais em outros repositórios de dados.
Procedimentos
4 Clique em Adicionar(Add).
6 Clique no menu suspenso Manter VMDKs juntos (Keep VMDKs together) e selecione Não
(No).
7 Clique em Okey(OK).
Importante Quando você ativa a opção para limpar as estatísticas do DRS de armazenamento,
as estatísticas são apagadas toda vez que o DRS de armazenamento é executado até que você
desative a opção. Sempre desative a opção depois de diagnosticar o problema de DRS de
armazenamento.
Pré-requisitos
Procedimentos
g Clique em Okey(OK).
O DRS de armazenamento é executado normalmente. Aguarde várias horas para que a nova
configuração entre em vigor.
n O host deve estar executando uma versão de ESXi compatível com Storage vMotion.
n O host deve ter recursos de memória livre suficientes para acomodar Storage vMotion.
n O que é o NUMA?
O que é o NUMA?
Os sistemas NUMA são plataformas de servidor avançadas com mais de um barramento do
sistema. Eles podem aproveitar um grande número de processadores em uma única imagem do
sistema com uma relação preço / desempenho superior.
O NUMA é uma abordagem alternativa que vincula vários nós pequenos e econômicos usando
uma conexão de alto desempenho. Cada nó contém processadores e memória, bem como
um pequeno sistema SMP. No entanto, um controlador de memória avançado permite que
um nó use memória em todos os outros nós, criando uma única imagem do sistema. Quando
um processador acessa a memória que não está dentro de seu próprio nó (memória remota),
os dados devem ser transferidos pela conexão NUMA, que é mais lenta do que acessar a
memória local. Os tempos de acesso à memória não são uniformes e dependem da localização
da memória e do nó do qual ela é acessada, como o nome da tecnologia implica.
Além disso, o desempenho em tal sistema pode ser altamente variável. Isso varia, por exemplo,
se um aplicativo tem memória localizada localmente em uma execução de avaliação de
desempenho, mas uma execução subsequente coloca toda essa memória em um nó remoto.
Esse fenômeno pode dificultar o planejamento da capacidade.
Alguns sistemas UNIX de ponta oferecem suporte para otimizações de NUMA em seus
compiladores e bibliotecas de programação. Esse suporte requer que os desenvolvedores de
software ajustem e recompilem seus programas para obter o desempenho ideal. Não é garantido
que as otimizações de um sistema funcionem bem na próxima geração do mesmo sistema.
Outros sistemas permitiram que um administrador decidisse explicitamente sobre o nó no qual
um aplicativo deve ser executado. Embora isso possa ser aceitável para certos aplicativos que
exigem que 100% de sua memória seja local, ele cria uma carga administrativa e pode levar a um
desequilíbrio entre os nós quando as cargas de trabalho mudam.
Idealmente, o software do sistema fornece suporte NUMA transparente, para que os aplicativos
possam se beneficiar imediatamente sem modificações. O sistema deve maximizar o uso da
memória local e agendar programas de forma inteligente, sem exigir a intervenção constante do
administrador. Finalmente, deve responder bem às mudanças de condições sem comprometer a
equidade ou o desempenho.
1 Cada máquina virtual gerenciada pelo agendador NUMA recebe um nó inicial. Um nó inicial
é um dos nós NUMA do sistema que contém processadores e memória local, conforme
indicado pela Tabela de Alocação de Recursos do Sistema (SRAT).
2 Quando a memória é alocada a uma máquina virtual, o host ESXi a aloca preferencialmente
do nó inicial. As CPUs virtuais da máquina virtual são restritas a serem executadas no nó
inicial para maximizar a localidade de memória.
3 O agendador NUMA pode alterar dinamicamente o nó inicial de uma máquina virtual para
responder a alterações na carga do sistema. O agendador pode migrar uma máquina virtual
para um novo nó inicial para reduzir o desequilíbrio de carga do processador. Como isso
pode fazer com que mais memória seja remota, o agendador pode migrar a memória
da máquina virtual dinamicamente para seu novo nó inicial para melhorar a localidade da
memória. O agendador NUMA também pode trocar máquinas virtuais entre nós quando isso
melhora a localidade geral da memória.
Algumas máquinas virtuais não são gerenciadas pelo agendador ESXi NUMA. Por exemplo, se
você definir manualmente o processador ou a afinidade de memória para uma máquina virtual,
o agendador NUMA poderá não ser capaz de gerenciar essa máquina virtual. As máquinas
virtuais que não são gerenciadas pelo agendador NUMA ainda são executadas corretamente. No
entanto, eles não se beneficiam de ESXi otimizações NUMA.
Uma máquina virtual com mais processadores virtuais do que o número de núcleos
de processador físicos disponíveis em um único nó de hardware pode ser gerenciada
automaticamente. O agendador NUMA acomoda essa máquina virtual fazendo com que ela
abranja os nós NUMA. Ou seja, ele é dividido em vários clientes NUMA, cada um dos quais
é atribuído a um nó e, em seguida, gerenciado pelo agendador como um cliente normal e
não extensível. Isso pode melhorar o desempenho de determinadas cargas de trabalho com
uso intenso de memória com alta localidade. Para obter informações sobre como configurar o
comportamento desse recurso, consulte Atributos avançados de máquina virtual.
O ESXi 5.0 e posterior inclui suporte para expor a topologia NUMA virtual a sistemas
operacionais convidados. Para obter mais informações sobre o controle NUMA virtual, consulte
Usando o Virtual NUMA.
A menos que o nó inicial de uma máquina virtual seja alterado, ele usa apenas memória local,
evitando as penalidades de desempenho associadas a acessos de memória remota a outros nós
NUMA.
Quando uma máquina virtual é ligada, ela recebe um nó inicial inicial para que a carga geral
de CPU e memória entre os nós NUMA permaneça equilibrada. Como as latências internode
em um sistema NUMA grande podem variar muito, ESXi determina essas latências internode no
momento da inicialização e usa essas informações ao colocar inicialmente máquinas virtuais que
são mais amplas do que um único nó NUMA. Essas máquinas virtuais amplas são colocadas em
nós NUMA que estão próximos uns dos outros para obter as latências mais baixas de acesso à
memória.
Esse cálculo leva em conta as configurações de recursos para máquinas virtuais e pools de
recursos para melhorar o desempenho sem violar a equidade ou os direitos de recursos.
O rebalanceador seleciona uma máquina virtual apropriada e altera seu nó inicial para o nó
menos carregado. Quando pode, o rebalanceador move uma máquina virtual que já tem
alguma memória localizada no nó de destino. A partir desse ponto (a menos que seja movida
novamente), a máquina virtual aloca memória em seu novo nó inicial e é executada apenas em
processadores no novo nó inicial.
O rebalanceamento é uma solução eficaz para manter a equidade e garantir que todos os nós
sejam totalmente usados. O rebalanceador pode precisar mover uma máquina virtual para um
nó no qual ela alocou pouca ou nenhuma memória. Nesse caso, a máquina virtual incorre em
uma penalidade de desempenho associada a um grande número de acessos à memória remota.
ESXi pode eliminar essa penalidade ao migrar de forma transparente a memória do nó original da
máquina virtual para seu novo nó inicial:
1 O sistema seleciona uma página (4KB de memória contígua) no nó original e copia seus
dados para uma página no nó de destino.
Quando uma máquina virtual é movida para um novo nó, o host ESXi começa imediatamente
a migrar sua memória dessa maneira. Ele gerencia a taxa para evitar sobrecarregar o sistema,
especialmente quando a máquina virtual tem pouca memória remota restante ou quando o nó
de destino tem pouca memória livre disponível. O algoritmo de migração de memória também
garante que o host ESXi não mova a memória desnecessariamente se uma máquina virtual for
movida para um novo nó por apenas um curto período.
Por exemplo, várias máquinas virtuais podem estar executando instâncias do mesmo sistema
operacional convidado, ter os mesmos aplicativos ou componentes carregados ou conter dados
comuns. Nesses casos, os sistemas ESXi usam uma técnica proprietária de compartilhamento de
página transparente para eliminar com segurança cópias redundantes de páginas de memória.
Com o compartilhamento de memória, uma carga de trabalho em execução em máquinas virtuais
geralmente consome menos memória do que consumiria em execução em máquinas físicas.
Como resultado, níveis mais altos de comprometimento excessivo podem ser suportados de
forma eficiente.
O compartilhamento transparente de páginas para sistemas ESXi também foi otimizado para uso
em sistemas NUMA. Em sistemas NUMA, as páginas são compartilhadas por nó, portanto, cada
nó NUMA tem sua própria cópia local de páginas muito compartilhadas. Quando as máquinas
virtuais usam páginas compartilhadas, elas não precisam acessar a memória remota.
A topologia do NUMA virtual está disponível para as máquinas virtuais da versão 8 do hardware
e é ativada por padrão quando o número de CPUs virtuais é maior que oito. Você também
pode influenciar manualmente a topologia do NUMA virtual usando opções de configuração
avançadas.
A primeira vez que uma máquina virtual habilitada para NUMA virtual é ligada, sua topologia
NUMA virtual é baseada na topologia NUMA do host físico subjacente. Depois que uma topologia
de NUMA virtual de máquinas virtuais é inicializada, ela não muda, a menos que o número de
vCPUs nessa máquina virtual seja alterado.
A topologia do NUMA virtual não considera a memória configurada para uma máquina virtual. A
topologia do NUMA virtual não é influenciada pelo número de soquetes virtuais e pelo número
de núcleos por soquete para uma máquina virtual.
Se a topologia do NUMA virtual precisar ser substituída, consulte Controles virtuais do NUMA.
Você pode adicionar essas opções avançadas ao arquivo de configuração da máquina virtual.
Especificar controles é útil se uma máquina virtual executa uma carga de trabalho com
uso intenso de memória, como um banco de dados na memória ou um aplicativo de
computação científica com um grande conjunto de dados. Você também pode querer otimizar
posicionamentos NUMA manualmente se a carga de trabalho do sistema for conhecida
como simples e imutável. Por exemplo, é fácil otimizar explicitamente um sistema de oito
processadores executando oito máquinas virtuais com cargas de trabalho semelhantes.
O ESXi fornece três conjuntos de controles para o posicionamento NUMA, para que os
administradores possam controlar o posicionamento do processador e da memória de uma
máquina virtual.
Afinidade de nó NUMA
Quando você define essa opção, o NUMA pode agendar uma máquina virtual somente nos
nós especificados na afinidade.
Afinidade de CPU
Quando você define essa opção, uma máquina virtual usa apenas os processadores
especificados na afinidade.
Afinidade de Memória
Quando você define essa opção, o servidor aloca memória apenas nos nós especificados.
Uma máquina virtual ainda é gerenciada pelo NUMA quando você especifica a afinidade de nó
NUMA, mas suas CPUs virtuais podem ser agendadas apenas nos nós especificados na afinidade
de nó NUMA. Da mesma forma, a memória pode ser obtida somente dos nós especificados na
afinidade do nó NUMA. Quando você especifica afinidades de CPU ou memória, uma máquina
virtual deixa de ser gerenciada pelo NUMA. O gerenciamento NUMA dessas máquinas virtuais é
eficaz quando você remove as restrições de afinidade de CPU e memória.
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e clique em Editar Configurações
(Edit Settings).
Observação Especifique os nós a serem usados para alocações de memória futuras somente se
você também tiver especificado a afinidade de CPU. Se você fizer alterações manuais apenas nas
configurações de afinidade de memória, o rebalanceamento NUMA automático não funcionará
corretamente.
Procedimentos
4 Clique em Editar(Edit).
1 No vSphere Client, clique com o botão direito do mouse na máquina virtual e selecione Editar
configurações (Edit Settings).
Em seguida, você deseja que esta máquina virtual seja executada apenas no nó 1.
A conclusão dessas duas tarefas garante que a máquina virtual seja executada apenas no nó
NUMA 1 e, quando possível, aloque memória do mesmo nó.
Procedimentos
6 Clique em Add Row (Add Row) para adicionar uma nova opção.
7
n Para especificar o nó NUMA para a máquina virtual, na coluna Nome, insira
numa.nodeAffinity .
8 Na coluna Valor, insira os nós NUMA em que a máquina virtual ou o nó NUMA virtual pode
ser agendado.
Use uma lista separada por vírgulas para vários nós. Por exemplo, insira 0,1 para restringir o
agendamento de recursos da máquina virtual aos nós NUMA 0 e 1.
9 Clique em Okey(OK).
n Sensibilidade à latência
Procedimentos
6 Clique em Okey(OK).
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e selecione Editar configurações
(Edit Settings).
6 Na caixa de diálogo exibida, clique em Adicionar linha (Add Row) para inserir um novo
parâmetro e seu valor.
7 Clique em Okey(OK).
Sched.mem.pshare.sa Um valor salt é uma opção configurável do VMX configurável pelo usuário
lt para cada máquina virtual. Se essa opção não estiver
presente no arquivo VMX da máquina virtual, o
valor de vc.uuid vmx será considerado o valor
padrão. Como o vc.uuid é exclusivo para cada
máquina virtual, por padrão, o compartilhamento de
página transparente ocorre apenas entre as páginas
pertencentes a uma determinada máquina virtual
(dentro da VM). Se um grupo de máquinas virtuais
for considerado confiável, será possível compartilhar
páginas entre elas definindo um valor de sal comum
para todas essas máquinas virtuais (entre VMs).
Sensibilidade à latência
Você pode ajustar a sensibilidade à latência de uma máquina virtual para otimizar o atraso de
agendamento para aplicativos sensíveis à latência.
ESXi é otimizado para oferecer alta taxa de transferência. Você pode otimizar sua máquina
virtual para atender aos requisitos de baixa latência de aplicativos sensíveis à latência. Exemplos
de aplicativos sensíveis à latência são aplicativos de VOIP ou media player, ou aplicativos que
exigem acesso frequente aos dispositivos de mouse ou teclado.
Pré-requisitos
O ESXi 6.7 requer reserva de CPU completa para ligar uma VM com a versão de hardware 14
quando a Sensibilidade da Latência está definida como alta (high).
Procedimentos
a Para localizar uma máquina virtual, selecione um centro de dados, uma pasta, um cluster,
um pool de recursos ou um host.
2 Clique com o botão direito do mouse na máquina virtual e clique em Editar Configurações
(Edit Settings).
5 Clique em Okey(OK).
Alguns sistemas têm memória confiável, que é uma parte da memória com menor probabilidade
de ter erros de memória de hardware do que outras partes da memória no sistema. Se
o hardware expuser informações sobre os diferentes níveis de confiabilidade, ESXi poderá
conseguir uma maior confiabilidade do sistema.
Procedimentos
Próximo passo
Você pode procurar quanta memória é considerada confiável usando o comando ESXCLI
hardware memory get.
Para usar páginas de 1 GB para fazer backup da memória de convidado, você deve aplicar
a opção Sched.mem.lpage.enable1GPage = "TRUE" para a VM. Você pode definir isso em
Opções avançadas ao selecionar Editar configurações (Edit Settings). Você só pode ativar
páginas de 1 GB em uma VM que está desligada.
Uma VM com páginas de 1 GB habilitadas deve ter reserva de memória completa. Caso contrário,
a VM não poderá ser ligada. Toda a vRAM para VMs com páginas de 1 GB habilitadas é pré-
alocada ao ligar. Como essas VMs têm reserva de memória completa, elas não são afetadas pela
recuperação de memória e seu consumo de memória permanece no nível máximo durante toda a
vida útil da VM.
Uma VM com páginas de 1 GB habilitadas pode ser migrada para um host diferente. No entanto,
o tamanho da página de 1 GB pode não ser alocado no host de destino na mesma quantidade
que estava no host de origem. Você também pode ver que parte do vRAM com backup com
uma página de 1 GB no host de origem não tem mais backup com uma página de 1 GB no host de
destino.
Observação Neste capítulo, "Memória" pode se referir a RAM física ou Memória persistente.
n Recursos insuficientes
Isso pode ocorrer, por exemplo, se nenhum host puder satisfazer as necessidades de recursos
de memória ou CPU da máquina virtual ou se nenhum host tiver atualmente acesso à rede ou ao
armazenamento necessário pela máquina virtual.
Para resolver esse problema, forneça um host que possa atender aos requisitos da máquina
virtual.
Isso pode ocorrer porque nem todas as máquinas virtuais podem desativar o vMotion do host
atual. Por exemplo, uma das máquinas virtuais no grupo está desativada para DRS.
Para evitar isso, verifique os motivos pelos quais algumas máquinas virtuais no grupo não podem
vMotion.
Isso pode ocorrer porque o host de destino não tem acesso à rede ou à conexão de
armazenamento necessária pela máquina virtual. Outro motivo pelo qual essa falha ocorre é
se o host de destino tem uma CPU que difere suficientemente do host atual para que o uso do
vMotion entre os hosts não seja suportado.
Para evitar isso, crie clusters de forma que todos os hosts sejam configurados de forma
consistente e o vMotion seja compatível entre os hosts.
Outro motivo pelo qual o host é incompatível com a máquina virtual é que há uma regra de DRS
de VM / Host necessária que instrui o DRS a nunca colocar essa máquina virtual nesse host.
A máquina virtual ainda pode ser ligada ou movida manualmente com o vMotion, mas vCenter
Server não pode fazer isso automaticamente.
Para resolver essa falha, cancele a solicitação para que o host entre no modo de espera ou de
manutenção.
Isso pode ocorrer, por exemplo, quando todos os hosts estão desconectados ou no modo de
manutenção.
Recursos insuficientes
Essa falha ocorre quando uma tentativa de operação está em conflito com uma política de
configuração de recurso.
Essa falha pode ocorrer, por exemplo, se uma operação de inicialização reserva mais memória
do que a alocada para um pool de recursos.
Isso não permite a geração de ações DRS para corrigir regras de afinidade de VM / Host DRS não
obrigatórias.
Observação Neste capítulo, "Memória" pode se referir a RAM física ou Memória persistente.
n Problemas de cluster
n Problemas do host
Problemas de cluster
Os problemas de cluster podem impedir que o DRS tenha um desempenho ideal ou que
comunique falhas.
Problema
Um cluster pode ficar desbalanceado devido a demandas de recursos desiguais das máquinas
virtuais e capacidades desiguais dos hosts.
Causa
A seguir, são possíveis os motivos pelos quais o cluster tem um desequilíbrio de carga:
Um limite mais alto torna o cluster um candidato mais provável para desequilíbrio de carga.
n Um dispositivo é montado em uma ou mais máquinas virtuais que impedem que o DRS mova
a máquina virtual para balancear a carga.
n As máquinas virtuais não são compatíveis com os hosts para os quais o DRS as moveria. Ou
seja, pelo menos um dos hosts no cluster é incompatível para as máquinas virtuais que seriam
migradas. Por exemplo, se a CPU do host A não for compatível com o vMotion com a CPU do
host B, o host A se tornará incompatível para máquinas virtuais ligadas em execução no host
B.
n Seria mais prejudicial para o desempenho da máquina virtual movê-la do que para executá-la
onde está localizada atualmente. Isso pode ocorrer quando as cargas são instáveis ou o
custo de migração é alto em comparação com o benefício obtido com a movimentação da
máquina virtual.
Solução
O cluster é amarelo
O cluster está amarelo devido à falta de recursos.
Problema
Se o cluster não tiver recursos suficientes para satisfazer as reservas de todos os pools de
recursos e máquinas virtuais, mas tiver recursos suficientes para satisfazer as reservas de todas
as máquinas virtuais em execução, o DRS continuará a ser executado e o cluster ficará amarelo.
Causa
Um cluster pode ficar amarelo se os recursos do host forem removidos do cluster (por exemplo,
se um host falhar).
Solução
Problema
Se a árvore do pool de recursos do cluster não for internamente consistente (por exemplo,
a soma das reservas subordinadas for maior que a reserva não expansível do pool pai), o
cluster não terá recursos suficientes para satisfazer as reservas de todas as máquinas virtuais
em execução, deixando o cluster vermelho .
Causa
Solução
Problema
O cluster tentará fazer failover de máquinas virtuais se houver uma falha no host, mas não é
garantido que haja recursos suficientes disponíveis para fazer failover de todas as máquinas
virtuais cobertas pelos requisitos de failover.
Causa
Se um cluster habilitado para HA perder tantos recursos que ele não puder mais atender aos
requisitos de failover, uma mensagem será exibida e o status do cluster mudará para vermelho.
Solução
Problema
Os hosts não são desligados quando a carga total do cluster é baixa porque a capacidade extra
é necessária para reservas de failover de HA.
Causa
n As máquinas virtuais não podem ser consolidadas em menos hosts devido a suas reservas
de recursos, regras de DRS de VM / Host, regras de DRS de VM / VM, não sendo habilitadas
para DRS ou não sendo compatíveis com os hosts com capacidade disponível.
n Os hosts não são compatíveis para que as máquinas virtuais sejam movidas para outro host.
n O host não tem a tecnologia Wake On LAN, IPMI ou iLO. Qualquer um deles é necessário para
o DPM inserir um host no modo de espera.
Solução
Resolva o problema que impede que os hosts sejam desligados quando a carga total do cluster
estiver baixa.
Problema
O DRS determinou que as máquinas virtuais podem ser executadas em menos hosts sem
degradar o desempenho do host ou da máquina virtual. O DRS também é impedido de mover
as máquinas virtuais em execução nos hosts altamente utilizados para os hosts agendados para
desligamento.
Causa
Solução
Problema
Causa
O DRS nunca realiza migrações do vMotion quando um ou mais dos seguintes problemas estão
presentes no cluster.
O DRS raramente executa o vMotion quando um ou mais dos seguintes problemas estão
presentes no cluster:
n As cargas são instáveis ou o vMotion leva muito tempo ou ambas. Uma movimentação não é
apropriada.
n Violações de reserva.
n Desequilíbrio de carga.
n Gerenciamento de energia.
Solução
Resolva os problemas que estão fazendo com que o DRS evite realizar migrações do vMotion.
Problemas do host
Problemas do host podem fazer com que o DRS não funcione conforme o esperado.
Problema
O DRS recomenda que o host esteja ligado para aumentar a capacidade quando a carga total do
cluster estiver baixa.
Causa
n O cluster é um cluster DRS-HA. São necessários hosts ligados adicionais para fornecer mais
capacidade de failover.
Solução
Ligue o host.
Problema
Causa
A seguir estão possíveis razões pelas quais o DRS não liga o host:
n As regras de VM / VM DRS ou de VM / Host DRS impedem que a máquina virtual seja movida
para esse host.
n As máquinas virtuais são fixadas em seus hosts atuais, portanto, o DRS não pode mover
essas máquinas virtuais para hosts no modo de espera para balancear a carga.
n Nenhuma máquina virtual em hosts altamente usados é movida para esse host.
n O DPM está desativado no host devido a uma configuração do usuário ou a um host que
anteriormente falhou ao sair da espera.
Solução
Problema
Causa
A seguir estão possíveis razões pelas quais o DRS não desliga o host:
n Embora o DPM esteja habilitado para o host, nenhum mecanismo de inicialização adequado
está presente para o host.
Solução
Problema
Quando você tenta colocar um host no modo de manutenção ou de espera, o DRS não evacua o
host conforme o esperado.
Causa
vSphere HA está habilitado e a evacuação deste host pode violar a capacidade de failover de
HA.
Solução
Não há solução. Se apropriado, desative vSphere HA antes de tentar colocar o host no modo de
manutenção ou no modo de espera.
Problema
O DRS não recomenda a migração da máquina virtual para um host que foi adicionado a um
cluster habilitado para DRS.
Causa
Depois que um host é adicionado a um cluster habilitado para DRS, as máquinas virtuais
implantadas no host se tornam parte do cluster. O DRS pode recomendar a migração de algumas
máquinas virtuais para este host recém-adicionado ao cluster. Se isso não ocorrer, pode haver
problemas com o vMotion, a compatibilidade do host ou as regras de afinidade. Os seguintes
motivos são possíveis:
n As máquinas virtuais em outros hosts não são compatíveis com este host.
n Mover qualquer máquina virtual para este host violaria uma regra de DRS de VM / VM ou uma
regra de DRS de VM / host.
n O DRS está desativado para as máquinas virtuais, portanto, a máquina virtual não pode ser
movida para o host de destino.
Solução
Resolva o problema que impede o DRS de mover máquinas virtuais para um host.
Problema
Causa
Isso pode ser devido a problemas com o vMotion, DRS ou compatibilidade de host. Estes são os
possíveis motivos:
n As máquinas virtuais neste host não são compatíveis com nenhum outro host.
n Nenhum outro host tem recursos suficientes para nenhuma máquina virtual neste host.
n Mover qualquer máquina virtual deste host violaria uma regra de DRS de VM / VM ou uma
regra de DRS de VM / Host.
Solução
Resolva os problemas que estão impedindo que o DRS mova as máquinas virtuais do host.
Problema
Em alguns casos, a demanda da máquina virtual é maior do que o direito a recursos. Quando isso
ocorre, a máquina virtual não recebe recursos suficientes de CPU ou memória.
Causa
As seções a seguir descrevem os fatores que influenciam o direito a uma máquina virtual.
Se o cluster for amarelo ou vermelho, a capacidade será insuficiente para atender às reservas
de recursos configuradas para todas as máquinas virtuais e pools de recursos no cluster. A
máquina virtual específica pode ser aquela que não está recebendo sua reserva. Verifique o
status do cluster (vermelho ou amarelo) e resolva a situação.
A máquina virtual, seu pool de recursos pai ou seus ancestrais do pool de recursos podem
ter um limite de recursos configurado muito restritivo. Verifique se a demanda é igual ou
superior a quaisquer limites configurados.
O cluster no qual a máquina virtual está em execução pode ter recursos insuficientes. Além
disso, o valor de compartilhamento da máquina virtual é tal que outras máquinas virtuais
recebem proporcionalmente mais recursos. Para determinar que a demanda é maior que a
capacidade, verifique as estatísticas do cluster.
n O DRS não pode mover esta máquina virtual ou o suficiente das outras máquinas virtuais
para outros hosts para liberar capacidade. O DRS não moverá uma máquina virtual por
nenhum dos seguintes motivos:
n Qualquer uma das reservas de recursos é tão grande que a máquina virtual não pode
ser executada em nenhum outro host no cluster.
Verifique se alguma dessas condições existe para a máquina virtual. Se não existir
nenhuma, as condições poderão existir para outras máquinas virtuais no cluster. Se esse
for o caso, o DRS não poderá balancear o cluster para atender à demanda da máquina
virtual.
Solução
Resolva o problema que está fazendo com que a máquina virtual não receba recursos suficientes
de CPU ou memória.
Problema
Causa
Quando uma regra de DRS de VM / VM ou uma regra de DRS de VM / host é violada, pode
ser porque o DRS não pode mover algumas ou todas as máquinas virtuais na regra. A reserva
da máquina virtual ou de outras máquinas virtuais na regra de afinidade, ou em seus pools de
recursos principais, pode impedir que o DRS localize todas as máquinas virtuais no mesmo host.
Solução
n Calcule a soma das reservas de todas as máquinas virtuais na regra de afinidade. Se esse
valor for maior que a capacidade disponível em qualquer host, a regra não poderá ser
satisfeita.
n Calcule a soma das reservas de seus pools de recursos principais. Se esse valor for maior que
a capacidade disponível de qualquer host, a regra não poderá ser satisfeita se os recursos
forem obtidos de um único host.
Problema
Causa
A máquina virtual pode falhar ao ligar devido a recursos insuficientes ou porque não há hosts
compatíveis para a máquina virtual.
Solução
Se o cluster não tiver recursos suficientes para ligar uma única máquina virtual ou qualquer
uma das máquinas virtuais em uma tentativa de inicialização de grupo, verifique os recursos
necessários pela máquina virtual em relação aos disponíveis no cluster ou no pool de recursos
pai. Se necessário, reduza as reservas da máquina virtual a ser ligada, reduza as reservas de suas
máquinas virtuais irmãos ou aumente os recursos disponíveis no cluster ou no pool de recursos
pai.
Problema
Quando você liga uma máquina virtual, o DRS não a migra conforme o esperado quando não há
recursos suficientes no host onde a máquina virtual está registrada.
Causa
A seguir estão as possíveis razões pelas quais o DRS não move a máquina virtual.
n Nenhum outro host tem um número suficiente de CPUs físicas ou capacidade para cada CPU
para a máquina virtual.
n Nenhum outro host tem recursos de CPU ou memória suficientes para satisfazer as reservas
e a memória necessária desta máquina virtual.
Solução