Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumo
Este guia fornece informações sobre como instalar, configurar e gerenciar o Red Hat High
Availability Add-On para o Red Hat Enterprise Linux 8.
Índice
Índice
. . . . . . . . . . . . . .O. .CÓDIGO
TORNANDO . . . . . . . . . ABERTO
. . . . . . . . . MAIS
. . . . . . INCLUSIVO
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8. . . . . . . . . . . . .
. . . . . . . . . . . . . . . . FEEDBACK
FORNECENDO . . . . . . . . . . . . SOBRE
. . . . . . . .A
. . DOCUMENTAÇÃO
. . . . . . . . . . . . . . . . . . . .DA
. . . RED
. . . . .HAT
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9. . . . . . . . . . . . .
.CAPÍTULO
. . . . . . . . . . .1.. .VISÃO
. . . . . . .GERAL
. . . . . . . .DO
. . . ADD-ON
. . . . . . . . . .DE
. . . ALTA
. . . . . . .DISPONIBILIDADE
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
..............
1.1. COMPONENTES ADICIONAIS DE ALTA DISPONIBILIDADE 10
1.2. VISÃO GERAL DO MARCAPASSO 10
1.2.1. Componentes da arquitetura do marcapasso 10
1.2.2. Ferramentas de configuração e gerenciamento 11
1.2.3. Os arquivos de configuração do cluster e do marcapasso 11
1.3. VISÃO GERAL DA VEDAÇÃO 12
1.4. VISÃO GERAL DO QUORUM 12
1.5. VISÃO GERAL DOS RECURSOS 13
1.6. VOLUMES LÓGICOS LVM EM UM CLUSTER DE ALTA DISPONIBILIDADE DA RED HAT 13
1.6.1. Escolhendo HA-LVM ou volumes compartilhados 13
1.6.2. Configuração de volumes LVM em um cluster 14
.CAPÍTULO
. . . . . . . . . . .2.
. . COMEÇANDO
. . . . . . . . . . . . . . . COM
. . . . . .PACEMAKER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
..............
2.1. APRENDENDO A USAR O PACEMAKER 15
2.2. APRENDENDO A CONFIGURAR O FAILOVER 19
.CAPÍTULO
. . . . . . . . . . .3.
. .A
. . INTERFACE
. . . . . . . . . . . . .DE
. . . LINHA
. . . . . . . DE
. . . .COMANDO
. . . . . . . . . . . .PCS
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25
..............
3.1. PCS AJUDAM A EXIBIR 25
3.2. VISUALIZANDO A CONFIGURAÇÃO DO CLUSTER BRUTO 25
3.3. SALVANDO UMA MUDANÇA DE CONFIGURAÇÃO PARA UM ARQUIVO DE TRABALHO 25
3.4. EXIBIÇÃO DO STATUS DO CLUSTER 26
3.5. EXIBIÇÃO DA CONFIGURAÇÃO COMPLETA DO CLUSTER 27
.CAPÍTULO
. . . . . . . . . . .4.
. . CRIANDO
. . . . . . . . . . .UM
. . . .CLUSTER
. . . . . . . . . . DE
. . . .ALTA
. . . . . .DISPONIBILIDADE
. . . . . . . . . . . . . . . . . . . RED
. . . . .HAT
. . . . .COM
. . . . . .PACEMAKER
. . . . . . . . . . . . . . . . . . . . . . . .28
..............
4.1. INSTALAÇÃO DE SOFTWARE DE CLUSTER 28
4.2. INSTALAÇÃO DO PACOTE PCP-ZEROCONF (RECOMENDADO) 29
4.3. CRIAÇÃO DE UM CLUSTER DE ALTA DISPONIBILIDADE 30
4.4. CRIAÇÃO DE UM CLUSTER DE ALTA DISPONIBILIDADE COM MÚLTIPLOS LINKS 31
4.5. CONFIGURAÇÃO DE CERCAS 32
4.6. APOIO E RESTAURAÇÃO DE UMA CONFIGURAÇÃO DE CLUSTER 33
4.7. HABILITAÇÃO DE PORTAS PARA O ADD-ON DE ALTA DISPONIBILIDADE 33
1
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
.CAPÍTULO
. . . . . . . . . . .7.
. . SISTEMAS
. . . . . . . . . . . .DE
. . .ARQUIVO
. . . . . . . . . . GFS2
. . . . . . .EM
. . . UM
. . . . CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .52
..............
7.1. CONFIGURAÇÃO DE UM SISTEMA DE ARQUIVO GFS2 EM UM CLUSTER 52
7.2. MIGRAÇÃO DE UM SISTEMA DE ARQUIVOS GFS2 DE RHEL7 PARA RHEL8 57
.CAPÍTULO
. . . . . . . . . . .8.
. . COMEÇANDO
. . . . . . . . . . . . . . . COM
. . . . . .O
. . PCSD
. . . . . . .WEB
. . . . .UI
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .59
..............
8.1. INSTALAÇÃO DE SOFTWARE DE CLUSTER 59
8.2. CRIAÇÃO DA INTERFACE WEB DO PCSD 60
8.3. CRIANDO UM CLUSTER COM O PCSD WEB UI 61
8.3.1. Configuração de opções avançadas de configuração de clusters com a interface Web do pcsd 61
8.3.2. Definição de permissões de gerenciamento de clusters 62
8.4. CONFIGURAÇÃO DE COMPONENTES DE CLUSTER COM O PCSD WEB UI 62
8.4.1. Configuração de nós de cluster com a interface Web do pcsd 63
8.4.2. Configuração de recursos de cluster com o pcsd Web UI 63
8.4.3. Configuração de dispositivos de vedação com a interface Web do pcsd 64
8.4.4. Configuração de ACLs com a interface web pcsd 64
8.4.5. Configuração das propriedades do cluster com a interface Web do pcsd 64
8.5. CONFIGURAÇÃO DE UMA INTERFACE WEB PCSD DE ALTA DISPONIBILIDADE 65
. . . . . . . . . . . .10.
CAPÍTULO . . . CONFIGURAÇÃO
. . . . . . . . . . . . . . . . . . DE
. . . .RECURSOS
. . . . . . . . . . . . DE
. . . .CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
..............
Exemplos de criação de recursos 91
Eliminação de um recurso configurado 91
10.1. IDENTIFICADORES DO AGENTE DE RECURSOS 91
10.2. EXIBIÇÃO DE PARÂMETROS ESPECÍFICOS DE RECURSOS 93
10.3. CONFIGURANDO AS META OPÇÕES DE RECURSOS 93
10.3.1. Alterando o valor padrão de uma opção de recurso 137
10.3.2. Alteração do valor padrão de uma opção de recurso para conjuntos de recursos (RHEL 8.3 e
posteriores) 137
10.3.3. Exibição dos padrões de recursos configurados atualmente 137
10.3.4. Definição de meta opções na criação de recursos 138
10.4. CONFIGURAÇÃO DE GRUPOS DE RECURSOS 138
10.4.1. Criação de um grupo de recursos 139
2
Índice
. . . . . . . . . . . .11.
CAPÍTULO . . DETERMINAÇÃO
. . . . . . . . . . . . . . . . . . DOS
. . . . . .NÓS
. . . . .EM
. . . QUE
. . . . . .UM
. . . .RECURSO
. . . . . . . . . . PODE
. . . . . . .FUNCIONAR
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141
..............
11.1. CONFIGURAÇÃO DAS RESTRIÇÕES DE LOCALIZAÇÃO 141
11.2. LIMITANDO A DESCOBERTA DE RECURSOS A UM SUBCONJUNTO DE NÓS 143
11.3. CONFIGURAÇÃO DE UMA ESTRATÉGIA DE RESTRIÇÃO DE LOCALIZAÇÃO 145
11.3.1. Configuração de um Cluster "Opt-In 145
11.3.2. Configuração de um Cluster "Opt-Out" 145
11.4. CONFIGURAÇÃO DE UM RECURSO PARA PREFERIR SEU NÓ ATUAL 146
. . . . . . . . . . . .13.
CAPÍTULO . . .COLOCANDO
. . . . . . . . . . . . . . .RECURSOS
. . . . . . . . . . . .DE
. . . CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
...............
13.1. ESPECIFICAR A COLOCAÇÃO OBRIGATÓRIA DE RECURSOS 152
13.2. ESPECIFICAR A COLOCAÇÃO DE RECURSOS CONSULTIVOS 153
13.3. COLOCANDO CONJUNTOS DE RECURSOS 153
13.4. REMOÇÃO DE RESTRIÇÕES DE COLOCAÇÃO 154
. . . . . . . . . . . .14.
CAPÍTULO . . . EXIBINDO
. . . . . . . . . . .RESTRIÇÕES
. . . . . . . . . . . . . . DE
. . . .RECURSOS
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
...............
14.1. EXIBINDO TODAS AS RESTRIÇÕES CONFIGURADAS 155
14.2. EXIBIÇÃO DAS RESTRIÇÕES DE LOCALIZAÇÃO 155
14.3. EXIBIR RESTRIÇÕES DE PEDIDOS 155
14.4. EXIBIÇÃO DE RESTRIÇÕES DE COLOCAÇÃO 155
14.5. EXIBINDO RESTRIÇÕES ESPECÍFICAS DE RECURSOS 155
14.6. EXIBIÇÃO DAS DEPENDÊNCIAS DE RECURSOS (RED HAT ENTERPRISE LINUX 8.2 E POSTERIORES)
156
. . . . . . . . . . . .15.
CAPÍTULO . . .DETERMINAÇÃO
. . . . . . . . . . . . . . . . . .DA
. . . LOCALIZAÇÃO
. . . . . . . . . . . . . . . . .DOS
. . . . .RECURSOS
. . . . . . . . . . . .COM
. . . . . .REGRAS
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .158
...............
15.1. REGRAS DO MARCAPASSO 158
15.1.1. Expressões de atributos de nós 158
15.1.2. Expressões baseadas em tempo/data 160
15.1.3. Especificações de data 161
15.2. CONFIGURAÇÃO DE UMA RESTRIÇÃO DE LOCALIZAÇÃO DE MARCAPASSO USANDO REGRAS 161
. . . . . . . . . . . .16.
CAPÍTULO . . . GERENCIAMENTO
. . . . . . . . . . . . . . . . . . . .DE
. . . RECURSOS
. . . . . . . . . . . . DE
. . . .CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .163
...............
16.1. EXIBIÇÃO DE RECURSOS CONFIGURADOS 163
16.2. MODIFICAÇÃO DOS PARÂMETROS DOS RECURSOS 163
16.3. STATUS DE FALHAS DE COMPENSAÇÃO DE RECURSOS DE CLUSTER 164
16.4. MOVIMENTAÇÃO DE RECURSOS EM UM CLUSTER 164
16.4.1. Movimentação de recursos devido a falhas 165
16.4.2. Movimentação de recursos devido a mudanças na conectividade 165
16.5. DESABILITANDO UMA OPERAÇÃO DE MONITOR 166
16.6. CONFIGURAÇÃO E GERENCIAMENTO DE ETIQUETAS DE RECURSOS DE CLUSTER (RHEL 8.3 E
POSTERIORES) 167
16.6.1. Marcação de recursos de cluster para administração por categoria 167
3
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
CAPÍTULO 17. CRIAÇÃO DE RECURSOS DE CLUSTER QUE ESTÃO ATIVOS EM MÚLTIPLOS NÓS
. . . . . . . . . . . . . .CLONADOS)
(RECURSOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .169
...............
17.1. CRIAÇÃO E REMOÇÃO DE UM RECURSO CLONADO 169
17.2. CONFIGURAÇÃO DE RESTRIÇÕES DE RECURSOS CLONAIS 171
17.3. CRIAÇÃO DE RECURSOS DE CLONAGEM PROMOCIONAIS 172
17.3.1. Criando um recurso promocional 172
17.3.2. Configuração de restrições de recursos promocionais 172
17.4. DEMONSTRANDO UM RECURSO PROMOVIDO SOBRE O FRACASSO (RHEL 8.3 E POSTERIORES) 173
. . . . . . . . . . . .18.
CAPÍTULO . . .GERENCIANDO
. . . . . . . . . . . . . . . . .NÓS
. . . . .DE
. . . CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .174
...............
18.1. PARAR OS SERVIÇOS DE CLUSTER 174
18.2. HABILITAÇÃO E DESATIVAÇÃO DE SERVIÇOS DE CLUSTER 174
18.3. ADIÇÃO DE NÓS DE CLUSTER 174
18.4. REMOÇÃO DE NÓS DE CLUSTER 176
18.5. ADICIONANDO UM NÓ A UM AGRUPAMENTO COM MÚLTIPLOS LINKS 176
18.6. ADIÇÃO E MODIFICAÇÃO DE LINKS EM UM CLUSTER EXISTENTE (RHEL 8.1 E POSTERIORES) 176
18.6.1. Adicionar e remover links em um cluster existente 176
18.6.2. Modificação de um link em um cluster com múltiplos links 177
18.6.3. Modificando os endereços dos links em um cluster com um único link 177
18.6.4. Modificando as opções de link para um link em um cluster com um único link 178
18.6.5. Modificar um link ao adicionar um novo link não é possível 179
18.7. CONFIGURAÇÃO DE UM GRANDE CLUSTER COM MUITOS RECURSOS 179
. . . . . . . . . . . .19.
CAPÍTULO . . . DEFINIR
. . . . . . . . . PERMISSÕES
. . . . . . . . . . . . . . DE
. . . .USUÁRIO
. . . . . . . . . . PARA
. . . . . . UM
. . . . CLUSTER
. . . . . . . . . . .DE
. . . PACEMAKER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .181
..............
19.1. DEFINIR PERMISSÕES PARA O ACESSO DOS NÓS ATRAVÉS DE UMA REDE 181
19.2. DEFINIR PERMISSÕES LOCAIS USANDO ACLS 181
.CAPÍTULO
. . . . . . . . . . .20.
. . . .OPERAÇÕES
. . . . . . . . . . . . . .DE
. . .MONITORAMENTO
. . . . . . . . . . . . . . . . . . . . DE
. . . .RECURSOS
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
...............
20.1. CONFIGURAÇÃO DE OPERAÇÕES DE MONITORAMENTO DE RECURSOS 184
20.2. CONFIGURAÇÃO DE PADRÕES DE OPERAÇÃO DE RECURSOS GLOBAIS 185
20.2.1. Valores de operação superiores aos recursos específicos 185
20.2.2. Alteração do valor padrão de uma operação de recurso para conjuntos de recursos (RHEL 8.3 e
posteriores) 186
20.2.3. Exibição dos valores padrão de operação dos recursos atualmente configurados 186
20.3. CONFIGURAÇÃO DE MÚLTIPLAS OPERAÇÕES DE MONITORAMENTO 187
. . . . . . . . . . . .21.
CAPÍTULO . . .PROPRIEDADES
. . . . . . . . . . . . . . . . . DO
. . . .CONJUNTO
. . . . . . . . . . . . .DO
. . . .MARCAPASSO
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .188
...............
21.1. RESUMO DAS PROPRIEDADES E OPÇÕES DO CLUSTER 188
21.2. AJUSTE E REMOÇÃO DAS PROPRIEDADES DE AGRUPAMENTO 193
21.3. CONSULTA DE CONFIGURAÇÕES DE PROPRIEDADE DE CLUSTERS 194
. . . . . . . . . . . .23.
CAPÍTULO . . . .CONFIGURAÇÃO
. . . . . . . . . . . . . . . . . .DE
. . . UMA
. . . . . .ESTRATÉGIA
. . . . . . . . . . . . . .DE
. . .POSICIONAMENTO
. . . . . . . . . . . . . . . . . . . . .DO
. . . NÓ
. . . . . . . . . . . . . . . . . . . . . . .198
...............
23.1. ATRIBUTOS DE UTILIZAÇÃO E ESTRATÉGIA DE COLOCAÇÃO 198
23.1.1. Configuração do nó e da capacidade de recursos 198
23.1.2. Configuração da estratégia de colocação 199
23.2. ALOCAÇÃO DE RECURSOS DO MARCAPASSO 199
23.2.1. Preferência de Nó 199
4
Índice
. . . . . . . . . . . .24.
CAPÍTULO . . . .CONFIGURAÇÃO
. . . . . . . . . . . . . . . . . .DE
. . . UM
. . . . DOMÍNIO
. . . . . . . . . . VIRTUAL
. . . . . . . . . . COMO
. . . . . . . .UM
. . . RECURSO
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .202
...............
24.1. OPÇÕES DE RECURSOS DE DOMÍNIO VIRTUAL 202
24.2. CRIANDO O RECURSO DE DOMÍNIO VIRTUAL 238
. . . . . . . . . . . .25.
CAPÍTULO . . . QUÓRUM
. . . . . . . . . . .DE
. . . CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
................
25.1. CONFIGURAÇÃO DAS OPÇÕES DO QUORUM 240
25.2. MODIFICAÇÃO DAS OPÇÕES DO QUORUM 241
25.3. EXIBIÇÃO DA CONFIGURAÇÃO E STATUS DO QUORUM 242
25.4. EXECUÇÃO DE CLUSTERS DE INQUÉRITOS 242
25.5. DISPOSITIVOS DO QUORUM 243
25.5.1. Instalação de pacotes de dispositivos de quorum 243
25.5.2. Configuração de um dispositivo de quorum 243
25.5.3. Gerenciando o Serviço de Dispositivos Quorum 248
25.5.4. Gerenciamento das configurações do dispositivo de quorum em um cluster 248
25.5.4.1. Mudança das configurações do dispositivo de quorum 248
25.5.4.2. Remoção de um dispositivo de quorum 248
25.5.4.3. Destruindo um dispositivo de quorum 249
. . . . . . . . . . . .26.
CAPÍTULO . . . .ACIONAMENTO
. . . . . . . . . . . . . . . . DE
. . . .SCRIPTS
. . . . . . . . . PARA
. . . . . . .EVENTOS
. . . . . . . . . . .DE
. . .CLUSTER
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .250
...............
26.1. INSTALAÇÃO E CONFIGURAÇÃO DE AMOSTRAS DE AGENTES DE ALERTA 250
26.2. CRIANDO UM ALERTA DE AGRUPAMENTO 251
26.3. EXIBIÇÃO, MODIFICAÇÃO E REMOÇÃO DE ALERTAS DE AGRUPAMENTO 252
26.4. CONFIGURAÇÃO DOS DESTINATÁRIOS DE ALERTA 252
26.5. META OPÇÕES DE ALERTA 253
26.6. EXEMPLOS DE COMANDOS DE CONFIGURAÇÃO DE ALERTAS 253
26.7. ESCREVER UM AGENTE DE ALERTA 255
. . . . . . . . . . . .27.
CAPÍTULO . . . CONFIGURAÇÃO
. . . . . . . . . . . . . . . . . . .DE
. . . CLUSTERS
. . . . . . . . . . . .DE
. . . MÚLTIPLOS
. . . . . . . . . . . . . LOCAIS
. . . . . . . . .COM
. . . . . .PACEMAKER
. . . . . . . . . . . . . . . . . . . . . . . . . . .258
...............
27.1. VISÃO GERAL DO GERENTE DE BILHETERIA DE ESTANDES 258
27.2. CONFIGURAÇÃO DE CLUSTERS DE MÚLTIPLOS LOCAIS COM PACEMAKER 258
.CAPÍTULO
. . . . . . . . . . .29.
. . . .EXECUÇÃO
. . . . . . . . . . . . DE
. . . .MANUTENÇÃO
. . . . . . . . . . . . . . . .DE
. . . CLUSTERS
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .276
...............
29.1. COLOCANDO UM NÓ EM MODO DE ESPERA 276
29.2. MOVIMENTAÇÃO MANUAL DOS RECURSOS DO CLUSTER 277
29.2.1. Movendo um recurso de seu nó atual 277
29.2.2. Movendo um recurso para seu nó de preferência 278
29.3. DESATIVAÇÃO, HABILITAÇÃO E PROIBIÇÃO DE RECURSOS DE CLUSTER 279
Desabilitando um recurso de cluster 279
5
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
. . . . . . . . . . . .30.
CAPÍTULO . . . .CONFIGURAÇÃO
. . . . . . . . . . . . . . . . . .DE
. . . CLUSTERS
. . . . . . . . . . . . DE
. . . .RECUPERAÇÃO
. . . . . . . . . . . . . . . . DE
. . . .DESASTRES
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .284
...............
30.1. CONSIDERAÇÕES SOBRE CLUSTERS DE RECUPERAÇÃO DE DESASTRES 284
30.2. EXIBIÇÃO DO STATUS DOS CLUSTERS DE RECUPERAÇÃO (RHEL 8.2 E POSTERIORES) 284
6
Índice
7
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
8
FORNECENDO FEEDBACK SOBRE A DOCUMENTAÇÃO DA RED HAT
2. Use o cursor do mouse para destacar a parte do texto que você deseja comentar.
3. Preencha o campo Description com sua sugestão de melhoria. Inclua um link para a(s)
parte(s) relevante(s) da documentação.
9
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Um cluster são dois ou mais computadores (chamados nodes ou members) que trabalham juntos para
realizar uma tarefa. Os clusters podem ser usados para fornecer serviços ou recursos altamente
disponíveis. A redundância de múltiplas máquinas é usada para proteger contra falhas de muitos tipos.
Os clusters de alta disponibilidade oferecem serviços altamente disponíveis, eliminando pontos únicos
de falha e falhando nos serviços de um nó de cluster para outro caso um nó se torne inoperante.
Tipicamente, os serviços em um cluster de alta disponibilidade lêem e escrevem dados (por meio de
sistemas de arquivos montados de leitura-escrita). Portanto, um cluster de alta disponibilidade deve
manter a integridade dos dados quando um nó de cluster assume o controle de um serviço de outro nó
de cluster. As falhas de um nó em um cluster de alta disponibilidade não são visíveis de clientes fora do
cluster. (Os clusters de alta disponibilidade são às vezes chamados de clusters de failover.) O Add-On
de Alta Disponibilidade fornece clustering de alta disponibilidade através de seu componente de
gerenciamento de serviços de alta disponibilidade, Pacemaker.
Infra-estrutura do cluster
Balanceador de carga
O daemon de informação do Pacemaker, que usa XML internamente para distribuir e sincronizar a
10
CAPÍTULO 1. VISÃO GERAL DO ADD-ON DE ALTA DISPONIBILIDADE
O daemon de informação do Pacemaker, que usa XML internamente para distribuir e sincronizar a
configuração atual e informações de status do Coordenador Designado (DC)
Daemon de Gerenciamento de Recursos de Cluster (CRMd)
As ações de recursos de agrupamento de marcapassos são encaminhadas através deste daemon. Os
recursos gerenciados pelo CRMd podem ser consultados pelos sistemas do cliente, movidos,
instanciados e alterados quando necessário.
Cada nó de cluster também inclui um daemon (LRMd) gerente de recursos local que atua como uma
interface entre CRMd e recursos. O LRMd passa os comandos do CRMd para os agentes, tais como
iniciar e parar e retransmitir informações de status.
Utiliza a biblioteca kronosnet como seu transporte de rede para fornecer múltiplos links
redundantes e failover automático.
pcs
A interface de linha de comando pcs controla e configura o Pacemaker e o daemon de batimento
cardíaco corosync. Um programa baseado em linha de comando, pcs pode realizar as seguintes
tarefas de gerenciamento de clusters:
pcsd Web UI
Uma interface gráfica do usuário para criar e configurar clusters Pacemaker/Corosync.
11
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Os arquivos de configuração para o Red Hat High Availability Add-On são corosync.conf e cib.xml.
O arquivo cib.xml é um arquivo XML que representa tanto a configuração do cluster quanto o estado
atual de todos os recursos no cluster. Este arquivo é utilizado pela Pacemaker's Cluster Information
Base (CIB). O conteúdo da CIB é mantido automaticamente em sincronia em todo o cluster. Não edite
o arquivo cib.xml diretamente; use a interface pcs ou pcsd em seu lugar.
Sem um dispositivo de cerca configurado, você não tem como saber que os recursos usados
anteriormente pelo nó de cluster desconectado foram liberados, e isso poderia impedir que os serviços
funcionassem em qualquer um dos outros nós de cluster. Por outro lado, o sistema pode assumir
erroneamente que o nó de cluster liberou seus recursos e isto pode levar à corrupção e perda de dados.
Sem um dispositivo de cerca, a integridade dos dados configurados não pode ser garantida e a
configuração do cluster não será suportada.
Para mais informações sobre esgrima, consulte Esgrima em um Aglomerado de Alta Disponibilidade da
Red Hat.
Por exemplo, em um cluster de 6 nós, o quorum é estabelecido quando pelo menos 4 nós de cluster
estão funcionando. Se a maioria dos nós ficar offline ou indisponível, o aglomerado não tem mais
quórum e o Pacemaker pára os serviços de aglomeração.
12
CAPÍTULO 1. VISÃO GERAL DO ADD-ON DE ALTA DISPONIBILIDADE
Um cluster do Red Hat Enterprise Linux High Availability Add-On usa o serviço votequorum, em
conjunto com a esgrima, para evitar situações de cérebro dividido. Um número de votos é atribuído a
cada sistema no cluster, e as operações de cluster são permitidas somente quando uma maioria de
votos está presente.
Para garantir que os recursos permaneçam saudáveis, você pode acrescentar uma operação de
monitoramento à definição de um recurso. Se você não especificar uma operação de monitoramento
para um recurso, uma é adicionada por padrão.
restrições de localização
restrições de pedidos
restrições de colocação
Um dos elementos mais comuns de um agrupamento é um conjunto de recursos que precisam ser
localizados juntos, começar sequencialmente e parar na ordem inversa. Para simplificar esta
configuração, o Pacemaker apóia o conceito de groups.
Volumes LVM que utilizam o daemon lvmlockd para gerenciar dispositivos de armazenamento
em configurações ativas/ativas nas quais mais de um nó do cluster requer acesso ao
armazenamento ao mesmo tempo. O daemon lvmlockd faz parte do Add-On de
Armazenamento Resiliente.
13
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
A maioria das aplicações funcionará melhor em uma configuração ativa/passiva, já que não são
projetadas ou otimizadas para funcionar concomitantemente com outras instâncias. Optar por executar
uma aplicação que não seja sensível a cluster em volumes lógicos compartilhados pode resultar em
desempenho degradado. Isto ocorre porque há uma sobrecarga de comunicação em cluster para os
próprios volumes lógicos nestas instâncias. Uma aplicação com consciência de cluster deve ser capaz de
alcançar ganhos de desempenho acima das perdas de desempenho introduzidas pelos sistemas de
arquivos de cluster e volumes lógicos com consciência de cluster. Isto é possível para algumas
aplicações e cargas de trabalho mais facilmente do que para outras. Determinar quais são os requisitos
do cluster e se o esforço extra para otimizar um cluster ativo/ativo trará dividendos é a maneira de
escolher entre as duas variantes do LVM. A maioria dos usuários alcançará os melhores resultados HA
com o uso do HA-LVM.
HA-LVM e volumes lógicos compartilhados usando lvmlockd são semelhantes no fato de que evitam a
corrupção de metadados LVM e seus volumes lógicos, o que poderia ocorrer se várias máquinas fossem
permitidas a fazer mudanças sobrepostas. O HA-LVM impõe a restrição de que um volume lógico só
pode ser ativado exclusivamente; ou seja, ativo em apenas uma máquina de cada vez. Isto significa que
somente implementações locais (não exclusivas) dos drivers de armazenamento são utilizadas. Evitar a
sobrecarga de coordenação do cluster desta forma aumenta o desempenho. Um volume compartilhado
usando lvmlockd não impõe estas restrições e um usuário é livre para ativar um volume lógico em todas
as máquinas em um cluster; isto força o uso de drivers de armazenamento sensíveis ao cluster, que
permitem que sistemas de arquivos e aplicações sensíveis ao cluster sejam colocados em cima.
14
CAPÍTULO 2. COMEÇANDO COM PACEMAKER
NOTA
Estes procedimentos não criam um cluster Red Hat suportado, que requer pelo menos
dois nós e a configuração de um dispositivo de esgrima.
NOTA
Certifique-se de que o nome do nó em que você está rodando esteja em seu arquivo
/etc/hosts.
Trabalhando através deste procedimento, você aprenderá como usar o Pacemaker para configurar um
cluster, como exibir o status do cluster, e como configurar um serviço de cluster. Este exemplo cria um
servidor HTTP Apache como um recurso de cluster e mostra como o cluster responde quando o recurso
falha.
1. Instale os pacotes de software Red Hat High Availability Add-On a partir do canal High
Availability, e inicie e habilite o serviço pcsd.
Se você estiver rodando o daemon firewalld, habilite os portos que são exigidos pelo
suplemento de alta disponibilidade da Red Hat.
2. Defina uma senha para o usuário hacluster em cada nó do cluster e autentique o usuário
hacluster para cada nó do cluster no nó a partir do qual você executará os comandos pcs. Este
exemplo está usando apenas um único nó, o nó a partir do qual você está executando os
comandos, mas esta etapa está incluída aqui uma vez que é uma etapa necessária na
configuração de um cluster multi-nó de alta disponibilidade compatível com a Red Hat High
Availability.
15
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
# passwd hacluster
...
# pcs host auth z1.example.com
PCSD Status:
z1.example.com: Online
4. Um aglomerado Red Hat High Availability requer que você configure a vedação para o
aglomerado. As razões para esta exigência estão descritas em Esgrima em um Aglomerado de
Alta Disponibilidade da Red Hat. Para esta introdução, entretanto, que se destina a mostrar
apenas como usar os comandos básicos do Marcapasso, desabilite o cercado definindo a opção
de cercado do stonith-enabled para false.
ATENÇÃO
5. Configure um navegador web em seu sistema e crie uma página web para exibir uma simples
mensagem de texto. Se você estiver executando o daemon firewalld, habilite as portas que são
exigidas por httpd.
NOTA
Não utilize systemctl enable para permitir que quaisquer serviços que serão
gerenciados pelo cluster comecem na inicialização do sistema.
16
CAPÍTULO 2. COMEÇANDO COM PACEMAKER
Para que o agente de recursos Apache obtenha o status do Apache, crie a seguinte adição à
configuração existente para habilitar a URL do servidor de status.
6. Crie recursos para o cluster IPaddr2 e apache para gerenciá-lo. O recurso 'IPaddr2' é um
endereço IP flutuante que não deve ser um já associado a um nó físico. Se o dispositivo NIC do
recurso 'IPaddr2' não for especificado, o IP flutuante deve residir na mesma rede que o
endereço IP estaticamente atribuído usado pelo nó.
Você pode exibir uma lista de todos os tipos de recursos disponíveis com o comando pcs
resource list. Você pode usar o comando pcs resource describe resourcetype para exibir os
parâmetros que você pode definir para o tipo de recurso especificado. Por exemplo, o seguinte
comando exibe os parâmetros que você pode definir para um recurso do tipo apache:
Neste exemplo, o recurso de endereço IP e o recurso apache são ambos configurados como
parte de um grupo chamado apachegroup, o que garante que os recursos sejam mantidos
juntos para funcionar no mesmo nó quando você estiver configurando um cluster de vários nós
em funcionamento.
# pcs status
Cluster name: my_cluster
Stack: corosync
Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
Last updated: Fri Oct 12 09:54:33 2018
Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
1 node configured
2 resources configured
Online: [ z1.example.com ]
17
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
PCSD Status:
z1.example.com: Online
...
Após ter configurado um recurso de cluster, você pode usar o comando pcs resource config
para exibir as opções que estão configuradas para aquele recurso.
7. Aponte seu navegador para o site que você criou usando o endereço IP flutuante que você
configurou. Isto deve exibir a mensagem de texto que você definiu.
8. Pare o serviço web apache e verifique o status do cluster. O uso do killall -9 simula uma falha
em nível de aplicação.
# killall -9 httpd
Verifique o status do agrupamento. Você deve ver que parar o serviço web causou uma ação
fracassada, mas que o software de cluster reiniciou o serviço e você ainda deve ser capaz de
acessar o site.
# pcs status
Cluster name: my_cluster
...
Current DC: z1.example.com (version 1.1.13-10.el7-44eb2dd) - partition with quorum
1 node and 2 resources configured
Online: [ z1.example.com ]
PCSD Status:
z1.example.com: Online
18
CAPÍTULO 2. COMEÇANDO COM PACEMAKER
Você pode limpar o status de falha no recurso que falhou uma vez que o serviço esteja
funcionando novamente e o aviso de falha de ação não aparecerá mais quando você visualizar o
status do cluster.
Este procedimento de exemplo configura um cluster de dois nós Pacemaker rodando um servidor
Apache HTTP. Você pode então parar o serviço Apache em um nó para ver como o serviço permanece
disponível.
Este procedimento requer como pré-requisito que você tenha dois nós rodando o Red Hat Enterprise
Linux 8 que possam se comunicar um com o outro, e requer um endereço IP flutuante que resida na
mesma rede que um dos endereços IP atribuídos estaticamente a um dos nós.
NOTA
Certifique-se de que os nomes dos nós que você está usando estão no arquivo
/etc/hosts em cada nó.
1. Em ambos os nós, instalar os pacotes de software Red Hat High Availability Add-On do canal
High Availability, e iniciar e habilitar o serviço pcsd.
Se você estiver rodando o daemon firewalld, em ambos os nós habilite as portas que são
exigidas pelo Add-On de Alta Disponibilidade da Red Hat.
19
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
# passwd hacluster
3. Autentique o usuário hacluster para cada nó do cluster no nó a partir do qual você estará
executando os comandos pcs.
4. Criar um cluster chamado my_cluster com ambos os nós como membros do cluster. Este
comando cria e inicia o agrupamento em uma única etapa. Você só precisa executar isto a partir
de um nó no cluster porque os comandos de configuração pcs entram em vigor para o cluster
inteiro.
Em um nó em cluster, execute o seguinte comando.
5. Um aglomerado Red Hat High Availability requer que você configure a vedação para o
aglomerado. As razões para esta exigência estão descritas em Esgrima em um Aglomerado de
Alta Disponibilidade da Red Hat. Para esta introdução, porém, para mostrar apenas como
funciona o failover nesta configuração, desabilite a vedação definindo a opção de cluster
stonith-enabled para false
ATENÇÃO
NOTA
Quando você executa o comando pcs cluster status, ele pode mostrar uma
saída que difere temporariamente dos exemplos à medida que os componentes
do sistema são iniciados.
20
CAPÍTULO 2. COMEÇANDO COM PACEMAKER
PCSD Status:
z1.example.com: Online
z2.example.com: Online
7. Em ambos os nós, configure um navegador web e crie uma página web para exibir uma
mensagem de texto simples. Se você estiver executando o daemon firewalld, habilite as portas
que são exigidas por httpd.
NOTA
Não utilize systemctl enable para permitir que quaisquer serviços que serão
gerenciados pelo cluster comecem na inicialização do sistema.
Para que o agente de recursos Apache obtenha o status do Apache, em cada nó do cluster crie
a seguinte adição à configuração existente para habilitar a URL do servidor de status.
8. Crie recursos para o cluster IPaddr2 e apache para gerenciá-lo. O recurso 'IPaddr2' é um
endereço IP flutuante que não deve ser um já associado a um nó físico. Se o dispositivo NIC do
recurso 'IPaddr2' não for especificado, o IP flutuante deve residir na mesma rede que o
endereço IP estaticamente atribuído usado pelo nó.
Você pode exibir uma lista de todos os tipos de recursos disponíveis com o comando pcs
resource list. Você pode usar o comando pcs resource describe resourcetype para exibir os
parâmetros que você pode definir para o tipo de recurso especificado. Por exemplo, o seguinte
comando exibe os parâmetros que você pode definir para um recurso do tipo apache:
Neste exemplo, o recurso de endereço IP e o recurso apache são ambos configurados como
parte de um grupo chamado apachegroup, o que garante que os recursos sejam mantidos
juntos para funcionar no mesmo nó.
21
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
# pcs status
Cluster name: my_cluster
Stack: corosync
Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
Last updated: Fri Oct 12 09:54:33 2018
Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
2 nodes configured
2 resources configured
PCSD Status:
z1.example.com: Online
z2.example.com: Online
...
9. Acesse o site que você criou, pare o serviço no nó em que ele está funcionando e observe como
o serviço falha até o segundo nó.
a. Aponte um navegador para o site que você criou usando o endereço IP flutuante que você
configurou. Isto deve exibir a mensagem de texto que você definiu, exibindo o nome do nó
no qual o site está rodando.
b. Pare o serviço web apache. O uso do killall -9 simula uma falha no nível de aplicação.
# killall -9 httpd
Verifique o status do agrupamento. Você deve ver que parar o serviço web causou uma
ação falhada, mas que o software de cluster reiniciou o serviço no nó no qual ele estava
rodando e você ainda deve ser capaz de acessar o navegador web.
# pcs status
Cluster name: my_cluster
Stack: corosync
Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
Last updated: Fri Oct 12 09:54:33 2018
Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
2 nodes configured
22
CAPÍTULO 2. COMEÇANDO COM PACEMAKER
2 resources configured
Limpar o status de falha uma vez que o serviço esteja funcionando novamente.
c. Coloque o nó sobre o qual o serviço está funcionando em modo de espera. Observe que,
como desativamos a vedação, não podemos efetivamente simular uma falha no nível do
aceno (como puxar um cabo de força) porque a vedação é necessária para que o
aglomerado se recupere de tais situações.
# pcs status
Cluster name: my_cluster
Stack: corosync
Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
Last updated: Fri Oct 12 09:54:33 2018
Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
2 nodes configured
2 resources configured
e. Acesse o site. Não deve haver perda de serviço, embora a mensagem de exibição deva
indicar o nó em que o serviço está agora em execução.
10. Para restaurar os serviços de agrupamento para o primeiro nó, tire o nó do modo de espera. Isto
não irá necessariamente mover o serviço de volta para aquele nó.
23
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
24
CAPÍTULO 3. A INTERFACE DE LINHA DE COMANDO PCS
Note que você não deve editar o arquivo de configuração cib.xml diretamente. Na maioria dos casos, o
Pacemaker rejeitará um arquivo cib.xml diretamente modificado.
# pcs resource -h
Você pode salvar a configuração do cluster bruto em um arquivo especificado com o pcs cluster cib
filename comando. Se você tiver configurado previamente um cluster e já houver um CIB ativo, você
usa o seguinte comando para salvar o arquivo xml bruto.
Por exemplo, o seguinte comando salva o xml bruto da CIB em um arquivo chamado testfile.
Para informações sobre como salvar o CIB em um arquivo, consulte Visualização da configuração do
cluster bruto. Uma vez criado esse arquivo, você pode salvar as alterações de configuração nesse
arquivo em vez de na CIB ativa, usando a opção -f do comando pcs. Quando você tiver concluído as
mudanças e estiver pronto para atualizar o arquivo CIB ativo, você pode empurrar essas atualizações de
arquivo com o comando pcs cluster cib-push.
A seguir, o procedimento recomendado para empurrar mudanças no arquivo CIB. Este procedimento
cria uma cópia do arquivo CIB original gravado e faz alterações nessa cópia. Ao empurrar essas
alterações para o arquivo CIB ativo, este procedimento especifica a opção diff-against do comando pcs
cluster cib-push para que somente as alterações entre o arquivo original e o arquivo atualizado sejam
empurradas para o CIB. Isto permite que os usuários façam alterações em paralelo que não se
sobrepõem e reduz a carga no Pacemaker que não precisa analisar o arquivo de configuração inteiro.
1. Salvar a CIB ativa em um arquivo. Este exemplo salva a CIB em um arquivo chamado
25
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
1. Salvar a CIB ativa em um arquivo. Este exemplo salva a CIB em um arquivo chamado
original.xml.
2. Copie o arquivo salvo para o arquivo de trabalho que você estará usando para as atualizações de
configuração.
# cp original.xml updated.xml
3. Atualize sua configuração conforme necessário. O seguinte comando cria um recurso no arquivo
updated.xml, mas não adiciona esse recurso à configuração de cluster atualmente em
execução.
4. Empurre o arquivo atualizado para a CIB ativa, especificando que você está empurrando apenas
as mudanças que fez no arquivo original.
Alternativamente, você pode empurrar todo o conteúdo atual de um arquivo CIB com o seguinte
comando.
Ao empurrar o arquivo CIB inteiro, o Pacemaker verifica a versão e não permite que você empurre um
arquivo CIB que seja mais antigo do que aquele já em um cluster. Se você precisar atualizar o arquivo
CIB inteiro com uma versão mais antiga que a que está atualmente no cluster, você pode usar a opção --
config do comando pcs cluster cib-push.
status pcs
Você pode exibir o status de um determinado componente de cluster com o parâmetro commands do
comando pcs status, especificando resources, cluster, nodes, ou pcsd.
26
CAPÍTULO 3. A INTERFACE DE LINHA DE COMANDO PCS
pcs config
27
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
A configuração do cluster neste exemplo requer que seu sistema inclua os seguintes componentes:
2 nós, que serão usados para criar o agrupamento. Neste exemplo, os nós utilizados são
z1.example.com e z2.example.com.
Comutadores de rede para a rede privada. Recomendamos, mas não exigimos uma rede privada
para a comunicação entre os nós de cluster e outros equipamentos de cluster, tais como
comutadores de energia de rede e comutadores de canal de fibra óptica.
Um dispositivo de vedação para cada nó do aglomerado. Este exemplo usa duas portas do
interruptor de energia APC com um nome de host zapc.example.com.
1. Em cada nó do cluster, instale os pacotes de software Red Hat High Availability Add-On junto
com todos os agentes de vedação disponíveis no canal High Availability.
Alternativamente, você pode instalar os pacotes de software Red Hat High Availability Add-On
junto com apenas o agente de vedação que você necessita com o seguinte comando.
ATENÇÃO
Após instalar os pacotes Red Hat High Availability Add-On, você deve
assegurar-se de que suas preferências de atualização de software estejam
definidas para que nada seja instalado automaticamente. A instalação em
um cluster em execução pode causar comportamentos inesperados. Para
mais informações, consulte Práticas recomendadas para a aplicação de
atualizações de software em um cluster de armazenamento RHEL de alta
disponibilidade ou resiliente.
28
CAPÍTULO 4. CRIANDO UM CLUSTER DE ALTA DISPONIBILIDADE RED HAT COM PACEMAKER
2. Se você estiver executando o daemon firewalld, execute os seguintes comandos para habilitar
as portas que são exigidas pelo Add-On de Alta Disponibilidade da Red Hat.
NOTA
Você pode determinar se o daemon firewalld está instalado em seu sistema com
o comando rpm -q firewalld. Se ele estiver instalado, você pode determinar se
ele está rodando com o comando firewall-cmd --state.
NOTA
3. Para usar pcs para configurar o cluster e se comunicar entre os nós, você deve definir uma
senha em cada nó para o ID do usuário hacluster, que é a conta de administração pcs. É
recomendado que a senha para o usuário hacluster seja a mesma em cada nó.
# passwd hacluster
Changing password for user hacluster.
New password:
Retype new password:
passwd: all authentication tokens updated successfully.
4. Antes que o cluster possa ser configurado, o daemon pcsd deve ser iniciado e habilitado para
iniciar na inicialização em cada nó. Este daemon trabalha com o comando pcs para gerenciar a
configuração através dos nós do cluster.
Em cada nó do cluster, execute os seguintes comandos para iniciar o serviço pcsd e para
habilitar pcsd no início do sistema.
NOTA
29
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
Para informações sobre a revisão de dados PCP, veja Por que um nó de cluster RHEL de alta
disponibilidade foi reinicializado - e como posso evitar que isso aconteça novamente? no Portal do
Cliente da Red Hat.
1. Autentique o usuário pcs hacluster para cada nó do cluster no nó a partir do qual você estará
rodando pcs.
O seguinte comando autentica o usuário hacluster em z1.example.com para os dois nós em
um cluster de dois nós que consistirá de z1.example.com e z2.example.com.
2. Execute o seguinte comando de z1.example.com para criar o cluster de dois nós my_cluster
que consiste de nós z1.example.com e z2.example.com. Isto propagará os arquivos de
configuração do cluster para ambos os nós do cluster. Este comando inclui a opção --start, que
iniciará os serviços de cluster em ambos os nós do cluster.
NOTA
Para seu ambiente particular, você pode optar por deixar os serviços de cluster
desativados, pulando esta etapa. Isto lhe permite assegurar que se um nó cair,
quaisquer problemas com seu agrupamento ou seus recursos serão resolvidos
antes que o nó se reintegre ao agrupamento. Se você deixar os serviços do
cluster desativados, você precisará iniciar manualmente os serviços quando
reiniciar um nó executando o comando pcs cluster start naquele nó.
30
CAPÍTULO 4. CRIANDO UM CLUSTER DE ALTA DISPONIBILIDADE RED HAT COM PACEMAKER
Você pode exibir o status atual do cluster com o comando pcs cluster status. Como pode haver um
pequeno atraso antes que o cluster esteja pronto e funcionando quando você iniciar os serviços de
cluster com a opção --start do comando pcs cluster setup, você deve assegurar que o cluster esteja
pronto e funcionando antes de executar qualquer ação subseqüente sobre o cluster e sua configuração.
...
O formato do comando para criar um cluster de dois nós com dois links é o seguinte.
Ao criar um cluster com múltiplos links, você deve levar em conta o seguinte.
É possível especificar até oito ligações usando o protocolo de transporte de nós, que é o
protocolo de transporte padrão.
A partir do RHEL 8.1, é possível adicionar, remover e alterar links em um cluster existente
usando os comandos pcs cluster link add, o pcs cluster link remove, o pcs cluster link
delete e o pcs cluster link update.
Assim como nos clusters de link único, não misture endereços IPv4 e IPv6 em um link, embora
você possa ter um link rodando IPv4 e o outro rodando IPv6.
Como nos clusters de link único, você pode especificar endereços como endereços IP ou como
nomes desde que os nomes resolvam para endereços IPv4 ou IPv6 para os quais endereços
IPv4 e IPv6 não estejam misturados em um link.
O exemplo seguinte cria um cluster de dois nós chamado my_twolink_cluster com dois nós, rh80-
node1 e rh80-node2. rh80-node1 tem duas interfaces, endereço IP 192.168.122.201 como link0 e
192.168.123.201 como link1. rh80-node2 tem duas interfaces, endereço IP 192.168.122.202 como link0 e
192.168.123.202 como link1.
31
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Para informações sobre como adicionar nós a um cluster existente com múltiplos links, consulte
Adicionando um nó a um cluster com múltiplos links .
Para informações sobre como alterar os links em um cluster existente com múltiplos links, veja Adicionar
e modificar links em um cluster existente.
Para informações gerais sobre cercas e sua importância em um aglomerado de Red Hat High
Availability, veja Fencing in a Red Hat High Availability Cluster .
NOTA
Este exemplo usa o interruptor de energia APC com um nome de host zapc.example.com para cercar
os nós, e usa o agente de cercas fence_apc_snmp. Como ambos os nós serão vedados pelo mesmo
agente de vedação, você pode configurar ambos os dispositivos de vedação como um único recurso,
usando a opção pcmk_host_map.
Você cria um dispositivo de esgrima configurando o dispositivo como um recurso stonith com o
comando pcs stonith create. O seguinte comando configura um recurso stonith chamado myapc que
usa o agente de esgrima fence_apc_snmp para os nós z1.example.com e z2.example.com. A opção
pcmk_host_map mapeia z1.example.com para a porta 1, e z2.example.com para a porta 2. O valor de
login e a senha para o dispositivo APC são ambos apc. Por padrão, este dispositivo usará um intervalo
de monitor de sessenta segundos para cada nó.
Observe que você pode usar um endereço IP ao especificar o nome do host para os nós.
32
CAPÍTULO 4. CRIANDO UM CLUSTER DE ALTA DISPONIBILIDADE RED HAT COM PACEMAKER
login=apc passwd=apc
Operations: monitor interval=60s (myapc-monitor-interval-60s)
Após configurar seu dispositivo de cerca, você deve testar o dispositivo. Para informações sobre como
testar um dispositivo de cerca, veja Testar um dispositivo de cerca .
NOTA
Não teste seu dispositivo de cercas desativando a interface de rede, pois isso não testará
corretamente as cercas.
NOTA
NOTA
O comando pcs config backup faz backup apenas da própria configuração do cluster
conforme configurado no CIB; a configuração dos daemons de recursos está fora do
escopo deste comando. Por exemplo, se você tiver configurado um recurso Apache no
cluster, as configurações do recurso (que estão na CIB) serão copiadas, enquanto as
configurações do daemon Apache (como definido em`/etc/httpd`) e os arquivos que
ele serve não serão copiados. Da mesma forma, se houver um recurso de banco de dados
configurado no cluster, o banco de dados em si não será feito o backup, enquanto a
configuração do recurso de banco de dados (CIB) será feita.
Use o seguinte comando para restaurar os arquivos de configuração de cluster em todos os nós a partir
do backup. Se você não especificar um nome de arquivo, será usada a entrada padrão. Especificar a
opção --local restaura somente os arquivos no nó atual.
Se você estiver executando o daemon firewalld, execute os seguintes comandos para habilitar as
portas que são exigidas pelo Add-On de Alta Disponibilidade da Red Hat.
33
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Talvez seja necessário modificar quais portos estão abertos para atender às condições locais.
NOTA
Você pode determinar se o daemon firewalld está instalado em seu sistema com o
comando rpm -q firewalld. Se o daemon firewalld estiver instalado, você pode
determinar se ele está rodando com o comando firewall-cmd --state.
Tabela 4.1, “Portos que possibilitam um suplemento de alta disponibilidade” mostra os portos a serem
habilitados para o Red Hat High Availability Add-On e fornece uma explicação para o que o porto é
usado.
34
CAPÍTULO 4. CRIANDO UM CLUSTER DE ALTA DISPONIBILIDADE RED HAT COM PACEMAKER
TCP 9929, UDP 9929 É necessário estar aberto em todos os nós de cluster
e nós árbitros de estande para conexões de qualquer
um desses mesmos nós quando o gerente de
bilhetes do estande é usado para estabelecer um
cluster com vários locais.
35
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Figura 5.1, “Apache em um grupo de dois nós de alta disponibilidade de chapéu vermelho” mostra uma
visão geral de alto nível do cluster no qual O cluster é um cluster de dois nós Red Hat High Availability
configurado com um switch de energia de rede e com armazenamento compartilhado. Os nós do cluster
são conectados a uma rede pública, para acesso do cliente ao servidor HTTP Apache através de um IP
virtual. O servidor Apache roda no Nó 1 ou no Nó 2, cada um dos quais tem acesso ao armazenamento no
qual os dados do Apache são mantidos. Nesta ilustração, o servidor web está rodando no Nó 1, enquanto
o Nó 2 está disponível para rodar o servidor caso o Nó 1 se torne inoperante.
Figura 5.1. Apache em um grupo de dois nós de alta disponibilidade de chapéu vermelho
Este caso de uso requer que seu sistema inclua os seguintes componentes:
Um cluster de dois nós Red Hat High Availability com vedação de energia configurada para cada
nó. Recomendamos, mas não exigimos uma rede privada. Este procedimento utiliza o exemplo
de cluster fornecido em Criar um cluster Red Hat High-Availability com Pacemaker .
Armazenamento compartilhado para os nós do cluster, utilizando iSCSI, Fibre Channel ou outro
dispositivo de bloco de rede compartilhado.
O cluster é configurado com um grupo de recursos Apache, que contém os componentes do cluster que
o servidor web requer: um recurso LVM, um recurso de sistema de arquivos, um recurso de endereço IP e
um recurso de servidor web. Este grupo de recursos pode falhar de um nó do cluster para o outro,
36
LO 5. CONFIGURAÇÃO DE UM SERVIDOR HTTP APACHE ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
permitindo que qualquer um dos nós execute o servidor web. Antes de criar o grupo de recursos para
este cluster, você estará executando os seguintes procedimentos:
Depois de executar estas etapas, você cria o grupo de recursos e os recursos que ele contém.
NOTA
O procedimento seguinte cria um volume lógico LVM e depois cria um sistema de arquivo ext4 nesse
volume para uso em um cluster de Pacemaker. Neste exemplo, a partição compartilhada /dev/sdb1 é
usada para armazenar o volume físico LVM a partir do qual o volume lógico LVM será criado.
1. Em ambos os nós do cluster, executar os seguintes passos para definir o valor para o ID do
sistema LVM para o valor do identificador uname para o sistema. O ID do sistema LVM será
usado para garantir que somente o cluster seja capaz de ativar o grupo de volume.
# lvm systemid
system ID: z1.example.com
# uname -n
z1.example.com
2. Criar o volume LVM e criar um sistema de arquivo ext4 sobre esse volume. Uma vez que a
partição /dev/sdb1 é o armazenamento compartilhado, esta parte do procedimento é realizada
em apenas um nó.
# pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created
37
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
c. Verifique se o novo grupo de volume tem a identificação do sistema do nó no qual você está
rodando e a partir do qual você criou o grupo de volume.
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
my_vg 1 0 0 wz--n- <1.82t <1.82t z1.example.com
# lvs
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert
my_lv my_vg -wi-a---- 452.00m
...
# mkfs.ext4 /dev/my_vg/my_lv
mke2fs 1.44.3 (10-July-2018)
Creating filesystem with 462848 1k blocks and 115824 inodes
...
1. Garantir que o Servidor HTTP Apache esteja instalado em cada nó do cluster. Você também
precisa da ferramenta wget instalada no cluster para poder verificar o status do Servidor HTTP
Apache.
Em cada nó, executar o seguinte comando.
Se você estiver rodando o daemon firewalld, em cada nó do cluster habilite as portas que são
exigidas pelo Add-On de Alta Disponibilidade da Red Hat.
2. Para que o agente de recursos Apache obtenha o status do Servidor HTTP Apache, certifique-
se de que o seguinte texto esteja presente no arquivo /etc/httpd/conf/httpd.conf em cada nó
do cluster, e certifique-se de que ele não tenha sido comentado. Se este texto ainda não
estiver presente, adicione o texto ao final do arquivo.
<Location /server-status>
SetHandler server-status
Require local
38
LO 5. CONFIGURAÇÃO DE UM SERVIDOR HTTP APACHE ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
</Location>
3. Quando você usa o agente de recursos apache para gerenciar o Apache, ele não usa systemd.
Por causa disso, você deve editar o script logrotate fornecido com o Apache para que ele não
utilize systemctl para recarregar o Apache.
Remova a seguinte linha no arquivo /etc/logrotate.d/httpd em cada nó do cluster.
4. Criar uma página web para que o Apache possa servir. Em um nó do cluster, monte o sistema de
arquivo que você criou em Configurando um volume LVM com um sistema de arquivo ext4 , crie
o arquivo index.html nesse sistema de arquivo, e depois desmonte o sistema de arquivo.
1. Um recurso LVM chamado my_lvm que usa o grupo de volume LVM que você criou em
Configurar um volume LVM com um sistema de arquivo ext4 .
O seguinte procedimento cria o grupo de recursos apachegroup e os recursos que o grupo contém. Os
39
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O seguinte procedimento cria o grupo de recursos apachegroup e os recursos que o grupo contém. Os
recursos começarão na ordem em que são adicionados ao grupo, e pararão na ordem inversa em que
são adicionados ao grupo. Execute este procedimento a partir de um único nó do grupo.
NOTA
Quando você cria um recurso, o recurso é iniciado automaticamente. Você pode usar o seguinte
comando para confirmar que o recurso foi criado e foi iniciado.
Você pode parar e iniciar manualmente um recurso individual com os comandos pcs resource
disable e pcs resource enable.
3. Depois de criar os recursos e o grupo de recursos que os contém, você pode verificar o status
do agrupamento. Observe que todos os quatro recursos estão funcionando no mesmo nó.
40
LO 5. CONFIGURAÇÃO DE UM SERVIDOR HTTP APACHE ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
Observe que se você não tiver configurado um dispositivo de esgrima para seu cluster, por
padrão os recursos não começam.
4. Uma vez que o cluster esteja instalado e funcionando, você pode apontar um navegador para o
endereço IP que você definiu como o recurso IPaddr2 para visualizar a exibição da amostra, que
consiste na simples palavra "Olá".
Olá
Se você descobrir que os recursos que você configurou não estão funcionando, você pode
executar o pcs resource debug-start resource comando para testar a configuração do
recurso.
2. Após colocar o nó z1 no modo standby, verifique o status do agrupamento. Observe que agora
todos os recursos devem estar funcionando em z2.
41
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
A remoção de um nó do modo standby não faz com que os recursos, por si só,
falhem de volta a esse nó. Isto dependerá do valor resource-stickiness para os
recursos. Para informações sobre o meta atributo resource-stickiness, consulte
Configurando um recurso para preferir seu nó atual .
42
CAPÍTULO 6. CONFIGURAÇÃO DE UM SERVIDOR NFS ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
6.1. PRÉ-REQUISITOS
Este caso de uso requer que seu sistema inclua os seguintes componentes:
Um cluster de dois nós Red Hat High Availability com vedação de energia configurada para cada
nó. Recomendamos, mas não exigimos uma rede privada. Este procedimento utiliza o exemplo
de cluster fornecido em Criar um cluster Red Hat High-Availability com Pacemaker .
Armazenamento compartilhado para os nós do cluster, utilizando iSCSI, Fibre Channel ou outro
dispositivo de bloco de rede compartilhado.
NOTA
O procedimento seguinte cria um volume lógico LVM e depois cria um sistema de arquivo ext4 nesse
43
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O procedimento seguinte cria um volume lógico LVM e depois cria um sistema de arquivo ext4 nesse
volume para uso em um cluster de Pacemaker. Neste exemplo, a partição compartilhada /dev/sdb1 é
usada para armazenar o volume físico LVM a partir do qual o volume lógico LVM será criado.
1. Em ambos os nós do cluster, executar os seguintes passos para definir o valor para o ID do
sistema LVM para o valor do identificador uname para o sistema. O ID do sistema LVM será
usado para garantir que somente o cluster seja capaz de ativar o grupo de volume.
# lvm systemid
system ID: z1.example.com
# uname -n
z1.example.com
2. Criar o volume LVM e criar um sistema de arquivo ext4 sobre esse volume. Uma vez que a
partição /dev/sdb1 é o armazenamento compartilhado, esta parte do procedimento é realizada
em apenas um nó.
# pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created
c. Verifique se o novo grupo de volume tem a identificação do sistema do nó no qual você está
rodando e a partir do qual você criou o grupo de volume.
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
my_vg 1 0 0 wz--n- <1.82t <1.82t z1.example.com
# lvs
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert
my_lv my_vg -wi-a---- 452.00m
...
44
CAPÍTULO 6. CONFIGURAÇÃO DE UM SERVIDOR NFS ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
# mkfs.ext4 /dev/my_vg/my_lv
mke2fs 1.44.3 (10-July-2018)
Creating filesystem with 462848 1k blocks and 115824 inodes
...
# mkdir /nfsshare
a. Monte o sistema de arquivo ext4 que você criou em Configurando um volume LVM com um
sistema de arquivo ext4 no diretório /nfsshare.
c. Coloque os arquivos no diretório exports para que os clientes do NFS tenham acesso. Para
este exemplo, estamos criando arquivos de teste chamados clientdatafile1 e
clientdatafile2.
NOTA
45
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
Se você não tiver configurado um dispositivo de esgrima para seu cluster, por padrão os
recursos não começam.
Se você descobrir que os recursos que você configurou não estão funcionando, você
pode executar o pcs resource debug-start resource comando para testar a
configuração do recurso. Isto inicia o serviço fora do controle e do conhecimento do
cluster. No ponto em que os recursos configurados estão rodando novamente, executar
pcs resource cleanup resource para que o grupo tome conhecimento das atualizações.
O procedimento a seguir configura os recursos do sistema. Para garantir que todos estes recursos
funcionem no mesmo nó, eles são configurados como parte do grupo de recursos nfsgroup. Os
recursos começarão na ordem em que são adicionados ao grupo, e pararão na ordem inversa em que
são adicionados ao grupo. Execute este procedimento a partir de um único nó do grupo.
1. Criar o recurso LVM-activate chamado my_lvm. Como o grupo de recursos nfsgroup ainda
não existe, este comando cria o grupo de recursos.
ATENÇÃO
PCSD Status:
z1.example.com: Online
46
CAPÍTULO 6. CONFIGURAÇÃO DE UM SERVIDOR NFS ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
z2.example.com: Online
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
Você pode especificar opções de montagem como parte da configuração do recurso para um
recurso Filesystem com o options=options parâmetro. Execute o comando pcs resource
describe Filesystem para opções de configuração completa.
5. Criar o recurso nfsserver chamado nfs-daemon como parte do grupo de recursos nfsgroup.
NOTA
47
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
7. Adicione o recurso de endereço IP flutuante que os clientes NFS usarão para acessar o
compartilhamento NFS. Este recurso faz parte do grupo de recursos nfsgroup. Para este
exemplo de implantação, estamos usando 192.168.122.200 como o endereço IP flutuante.
NOTA
48
CAPÍTULO 6. CONFIGURAÇÃO DE UM SERVIDOR NFS ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
# showmount -e 192.168.122.200
Export list for 192.168.122.200:
/nfsshare/exports/export1 192.168.122.0/255.255.255.0
/nfsshare/exports 192.168.122.0/255.255.255.0
/nfsshare/exports/export2 192.168.122.0/255.255.255.0
2. Para verificar se você pode montar o compartilhamento NFS com o NFSv4, monte o
compartilhamento NFS em um diretório no nó do cliente. Após a montagem, verifique se o
conteúdo dos diretórios de exportação está visível. Desmonte o compartilhamento após o
teste.
# mkdir nfsshare
# mount -o "vers=4" 192.168.122.200:export1 nfsshare
# ls nfsshare
clientdatafile1
# umount nfsshare
3. Verifique se você pode montar o compartilhamento do NFS com o NFSv3. Após a montagem,
verifique se o arquivo de teste clientdatafile1 está visível. Ao contrário do NFSv4, como o
NFSv3 não utiliza o sistema de arquivo virtual, você deve montar uma exportação específica.
Desmonte o compartilhamento após o teste.
# mkdir nfsshare
# mount -o "vers=3" 192.168.122.200:/nfsshare/exports/export2 nfsshare
# ls nfsshare
49
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
clientdatafile2
# umount nfsshare
# mkdir nfsshare
# mount -o "vers=4" 192.168.122.200:export1 nfsshare
# ls nfsshare
clientdatafile1
5. A partir do nó fora do agrupamento no qual você montou a parte NFS, verifique se este nó
externo ainda continua a ter acesso ao arquivo de teste dentro da montagem NFS.
50
CAPÍTULO 6. CONFIGURAÇÃO DE UM SERVIDOR NFS ATIVO/PASSIVO EM UM CLUSTER RED HAT HIGH AVAILABILITY
# ls nfsshare
clientdatafile1
O serviço será perdido brevemente para o cliente durante o failover, mas o cliente deverá
recuperá-lo sem intervenção do usuário. Por padrão, os clientes que utilizam o NFSv4 podem
levar até 90 segundos para recuperar a montagem; estes 90 segundos representam o período
de graça do NFSv4 observado pelo servidor na inicialização. Os clientes do NFSv3 devem
recuperar o acesso à montagem em questão de poucos segundos.
NOTA
A remoção de um nó do modo standby não faz com que os recursos, por si só,
falhem de volta a esse nó. Isto dependerá do valor resource-stickiness para os
recursos. Para informações sobre o meta atributo resource-stickiness, consulte
Configurando um recurso para preferir seu nó atual .
51
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Um procedimento para criar um cluster de Pacemaker que inclui sistemas de arquivo GFS2
Um procedimento para migrar os volumes lógicos RHEL 7 que contêm sistemas de arquivo
GFS2 para um cluster RHEL 8
Como pré-requisito para este procedimento, você deve instalar e iniciar o software de cluster em todos
os nós e criar um cluster básico de dois nós. Você também deve configurar a vedação para o cluster.
Para informações sobre como criar um cluster Pacemaker e configurar a vedação para o cluster, veja
Criar um cluster Red Hat High-Availability com Pacemaker .
Procedimento
1. Em ambos os nós do cluster, instalar os pacotes lvm2-lockd, gfs2-utils, e dlm. O pacote lvm2-
lockd faz parte do canal AppStream e os pacotes gfs2-utils e dlm fazem parte do canal de
Armazenamento Resiliente.
NOTA
Por padrão, o valor de no-quorum-policy está definido para stop, indicando que
uma vez perdido o quorum, todos os recursos na partição restante serão
imediatamente parados. Normalmente este padrão é a opção mais segura e
ótima, mas ao contrário da maioria dos recursos, o GFS2 requer quorum para
funcionar. Quando o quorum é perdido, tanto as aplicações que utilizam os
suportes GFS2 como o próprio suporte GFS2 não podem ser parados
corretamente. Qualquer tentativa de parar estes recursos sem quorum falhará, o
que resultará no final em todo o aglomerado ser cercado toda vez que o quorum
for perdido.
3. Configurar um recurso em dlm. Esta é uma dependência necessária para configurar um sistema
de arquivos GFS2 em um cluster. Este exemplo cria o recurso dlm como parte de um grupo de
recursos chamado locking.
52
CAPÍTULO 7. SISTEMAS DE ARQUIVO GFS2 EM UM CLUSTER
4. Clonar o grupo de recursos locking para que o grupo de recursos possa estar ativo nos dois nós
do cluster.
6. Verifique o status do agrupamento para garantir que o grupo de recursos locking tenha
começado em ambos os nós do agrupamento.
53
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
11. Crie um recurso LVM-activate para cada volume lógico para ativar automaticamente esse
volume lógico em todos os nós.
13. Configurar as restrições de pedidos para garantir que o grupo de recursos locking que inclui os
recursos dlm e lvmlockd comece primeiro.
14. Configurar as restrições de colocação para garantir que os grupos de recursos vg1 e vg2
comecem no mesmo nó que o grupo de recursos locking.
15. Em ambos os nós do agrupamento, verificar se os volumes lógicos estão ativos. Pode haver um
atraso de alguns segundos.
16. Criar um recurso de sistema de arquivo para montar automaticamente cada sistema de arquivo
GFS2 em todos os nós.
Você não deve adicionar o sistema de arquivo ao arquivo /etc/fstab porque ele será gerenciado
como um recurso de cluster Pacemaker. As opções de montagem podem ser especificadas
como parte da configuração do recurso com options=options. Execute o comando pcs
resource describe Filesystem para opções de configuração completa.
55
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
17. Verificar se os sistemas de arquivo GFS2 estão montados em ambos os nós do cluster.
56
CAPÍTULO 7. SISTEMAS DE ARQUIVO GFS2 EM UM CLUSTER
...
Recursos adicionais
Para usar seus volumes lógicos existentes do Red Hat Enterprise Linux 7 ao configurar um cluster
RHEL8 que inclui sistemas de arquivo GFS2, execute o seguinte procedimento a partir do cluster
RHEL8. Neste exemplo, o volume lógico do cluster RHEL 7 faz parte do grupo de volume
upgrade_gfs_vg.
NOTA
O cluster RHEL8 deve ter o mesmo nome que o cluster RHEL7 que inclui o sistema de
arquivos GFS2 para que o sistema de arquivos existente seja válido.
57
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Após realizar este procedimento, você pode criar um recurso LVM-activate para cada volume lógico.
58
CAPÍTULO 8. COMEÇANDO COM O PCSD WEB UI
1. Em cada nó do cluster, instale os pacotes de software Red Hat High Availability Add-On junto
com todos os agentes de vedação disponíveis no canal High Availability.
Alternativamente, você pode instalar os pacotes de software Red Hat High Availability Add-On
junto com apenas o agente de vedação que você necessita com o seguinte comando.
ATENÇÃO
Após instalar os pacotes Red Hat High Availability Add-On, você deve
assegurar-se de que suas preferências de atualização de software estejam
definidas para que nada seja instalado automaticamente. A instalação em
um cluster em execução pode causar comportamentos inesperados. Para
mais informações, consulte Práticas recomendadas para a aplicação de
atualizações de software em um cluster de armazenamento RHEL de alta
disponibilidade ou resiliente.
2. Se você estiver executando o daemon firewalld, execute os seguintes comandos para habilitar
as portas que são exigidas pelo Add-On de Alta Disponibilidade da Red Hat.
NOTA
Você pode determinar se o daemon firewalld está instalado em seu sistema com
o comando rpm -q firewalld. Se ele estiver instalado, você pode determinar se
ele está rodando com o comando firewall-cmd --state.
59
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
3. Para usar pcs para configurar o cluster e se comunicar entre os nós, você deve definir uma
senha em cada nó para o ID do usuário hacluster, que é a conta de administração pcs. É
recomendado que a senha para o usuário hacluster seja a mesma em cada nó.
# passwd hacluster
Changing password for user hacluster.
New password:
Retype new password:
passwd: all authentication tokens updated successfully.
4. Antes que o cluster possa ser configurado, o daemon pcsd deve ser iniciado e habilitado para
iniciar na inicialização em cada nó. Este daemon trabalha com o comando pcs para gerenciar a
configuração através dos nós do cluster.
Em cada nó do cluster, execute os seguintes comandos para iniciar o serviço pcsd e para
habilitar pcsd no início do sistema.
1. Em qualquer sistema, abra um navegador para o seguinte URL, especificando um dos nós do
cluster (note que este usa o protocolo https ). Isto faz surgir a tela de login pcsd Web UI.
https://nodename:2224
2. Faça o login como usuário hacluster. Isto traz à tona a página Manage Clusters como
mostrado em Figura 8.1, “Página Gerenciar Clusters” .
Para criar um cluster, clique em Create New. Digite o nome do agrupamento a ser criado e os
nós que constituem o agrupamento. Se você não tiver autenticado previamente o usuário
hacluster para cada nó do cluster, será solicitado que você autentique os nós do cluster.
Para adicionar um cluster existente à interface web, clique em Add Existing e digite o nome do
host ou endereço IP de um nó no cluster que você gostaria de gerenciar com a interface web.
Uma vez criado ou adicionado um agrupamento, o nome do agrupamento é exibido na página Gerenciar
Agrupamento. Selecionando o agrupamento, são exibidas informações sobre o agrupamento.
NOTA
Ao usar a interface pcsd para configurar um cluster, você pode mover o mouse sobre o
texto descrevendo muitas das opções para ver descrições mais longas dessas opções
como um display tooltip.
61
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Selecionando essas opções, são exibidas as configurações que você pode configurar. Para obter
informações sobre cada uma das configurações, coloque o ponteiro do mouse sobre a opção em
particular.
Permissões para gerenciar o cluster com a interface Web, que também concede permissões
para executar comandos pcs que se conectam aos nós através de uma rede. Esta seção
descreve como configurar essas permissões com a interface Web.
Permissões para usuários locais para permitir o acesso somente leitura ou leitura-escrita à
configuração do cluster, usando ACLs. A configuração de ACLs com a interface Web é descrita
em Configuração de componentes de cluster com a interface Web pcsd .
Você pode conceder permissão para usuários específicos que não o usuário hacluster para gerenciar o
cluster através da interface Web e executar comandos pcs que se conectam aos nós através de uma
rede, adicionando-os ao grupo haclient. Você pode então configurar as permissões definidas para um
membro individual do grupo haclient, clicando na guia Permissões na página Gerenciar clusters e
definindo as permissões na tela resultante. A partir desta tela, você também pode configurar as
permissões para os grupos.
Permissões completas, para acesso irrestrito a um cluster, incluindo adição e remoção de nós,
com acesso a chaves e certificados
Nós, como descrito em Seção 8.4.1, “Configuração de nós de cluster com a interface Web do
pcsd”
Recursos, conforme descritos em Seção 8.4.2, “Configuração de recursos de cluster com o pcsd
Web UI”
62
CAPÍTULO 8. COMEÇANDO COM O PCSD WEB UI
ACLs, como descrito em Seção 8.4.4, “Configuração de ACLs com a interface web pcsd”
Forme esta página, Você pode adicionar ou remover nós. Você também pode iniciar, parar, reiniciar ou
colocar um nó em modo de espera ou de manutenção. Para informações sobre o modo standby,
consulte Colocando um nó em modo standby. Para informações sobre o modo de manutenção, consulte
Colocando um nó em modo de manutenção.
Você também pode configurar os dispositivos de vedação diretamente desta página, como descrito na
seleção Configure Fencing. A configuração dos dispositivos de cercas é descrita em Seção 8.4.3,
“Configuração de dispositivos de vedação com a interface Web do pcsd”.
A partir desta tela, você pode adicionar ou remover recursos, pode editar a configuração dos recursos
existentes e pode criar um grupo de recursos.
Quando você seleciona um tipo de recurso no menu suspenso Type, os argumentos que você
deve especificar para esse recurso aparecem no menu.
Você pode clicar em Optional Arguments para exibir argumentos adicionais que você pode
especificar para o recurso que você está definindo.
Após inserir os parâmetros para o recurso que você está criando, clique em Create Resource.
Ao configurar os argumentos para um recurso, uma breve descrição do argumento aparece no menu.
Se você mover o cursor para o campo, é exibida uma descrição mais longa da ajuda desse argumento.
Você pode definir um recurso como um recurso clonado, ou como um recurso clonado promocional.
Para informações sobre estes tipos de recursos, consulte Criando recursos de cluster que estão ativos
em vários nós (recursos clonados).
Uma vez criado pelo menos um recurso, você pode criar um grupo de recursos. Para obter informações
gerais sobre grupos de recursos, consulte Configuração de grupos de recursos .
63
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Selecione os recursos que farão parte do grupo na tela Resources e, em seguida, clique em
Create Group. Isto exibe a tela Create Group.
A partir da tela Create Group, você pode reorganizar a ordem dos recursos em um grupo de
recursos usando o recurso de arrastar e soltar para mover a lista dos recursos de um lugar para
outro.
Digite um nome de grupo e clique em Create Group. Isto o retorna à tela Resources, que
agora exibe o nome do grupo e os recursos dentro desse grupo.
Após ter criado um grupo de recursos, você pode indicar o nome desse grupo como parâmetro de
recurso ao criar ou modificar recursos adicionais.
Você pode clicar em Optional Arguments para exibir argumentos adicionais que você pode
especificar para o dispositivo de cerca que você está definindo.
Após inserir os parâmetros para o novo dispositivo de vedação, clique em Create Fence
Instance.
Para configurar um dispositivo de esgrima SBD, clique em SBD na tela Fence Devices. Isto chama uma
tela que lhe permite ativar ou desativar a SBD no cluster.
Para mais informações sobre dispositivos de cercas, consulte Configuração de cercas em um cluster de
Alta Disponibilidade da Red Hat.
Para atribuir permissões ACL, você cria uma função e define as permissões de acesso para essa função.
Cada função pode ter um número ilimitado de permissões (leitura/escrita/denúncia) aplicadas a uma
consulta XPath ou à identificação de um elemento específico. Após definir a função, você pode atribuí-
la a um usuário ou grupo existente.
Para mais informações sobre a atribuição de permissões usando ACLs, consulte Definindo permissões
locais usando ACLs.
64
CAPÍTULO 8. COMEÇANDO COM O PCSD WEB UI
É possível, no entanto, configurar a própria interface pcsd para alta disponibilidade, caso em que você
pode continuar a gerenciar o cluster sem entrar em uma nova URL.
Para configurar a interface web pcsd para alta disponibilidade, execute os seguintes passos.
2. Crie um recurso de cluster IPaddr2, que é um endereço IP flutuante que você usará para se
conectar à pcsd Web UI. O endereço IP não deve ser um endereço já associado a um nó físico.
Se o dispositivo NIC do recurso IPaddr2 não for especificado, o IP flutuante deve residir na
mesma rede que um dos endereços IP do nó estaticamente atribuído, caso contrário o
dispositivo NIC para atribuir o endereço IP flutuante não poderá ser detectado adequadamente.
3. Criar certificados SSL personalizados para uso com pcsd e garantir que eles sejam válidos para
os endereços dos nós usados para conexão com a IU da Web pcsd.
a. Para criar certificados SSL personalizados, você pode usar certificados wildcard ou pode
usar a extensão do certificado Subject Alternative Name. Para informações sobre o Sistema
de Certificados Red Hat, consulte o Guia de Administração do Sistema de Certificados Red
Hat.
b. Instale os certificados personalizados para pcsd com o comando pcs pcsd certkey.
c. Sincronize os certificados pcsd para todos os nós do cluster com o comando pcs pcsd
sync-certificates.
4. Conecte-se à pcsd Web UI usando o endereço IP flutuante que você configurou como um
recurso de cluster.
NOTA
Mesmo quando você configurar a interface pcsd para alta disponibilidade, você será
solicitado a entrar novamente quando o nó ao qual você está se conectando for
desligado.
65
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
A STONITH também tem um papel a desempenhar no caso de um serviço agrupado não poder ser
interrompido. Neste caso, o cluster utiliza STONITH para forçar o nó inteiro a ficar offline, tornando
assim seguro iniciar o serviço em outro lugar.
Para informações gerais mais completas sobre cercas e sua importância em um cluster da Red Hat High
Availability, veja Fencing in a Red Hat High Availability Cluster .
Use o seguinte comando para visualizar as opções para o agente STONITH especificado.
Por exemplo, o seguinte comando exibe as opções para o agente de vedação para APC sobre
telnet/SSH.
66
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
ATENÇÃO
Para agentes de cercas que fornecem uma opção method, um valor de cycle não é
apoiado e não deve ser especificado, pois pode causar corrupção de dados.
Alguns dispositivos de cerca podem cercar apenas um único nó, enquanto outros dispositivos podem
cercar vários nós. Os parâmetros que você especifica ao criar um dispositivo de cerca dependem do que
seu dispositivo de cerca suporta e requer.
Alguns dispositivos de cercas podem determinar automaticamente quais nós podem cercar.
Alguns dispositivos de cercas exigem um mapeamento dos nomes dos hospedeiros de acordo
com as especificações que o dispositivo de cerca compreende. Você pode mapear os nomes
dos anfitriões com o parâmetro pcmk_host_map ao criar um dispositivo de cercas.
Após configurar um dispositivo de cerca, é imperativo que você teste o dispositivo para garantir que ele
esteja funcionando corretamente. Para informações sobre como testar um dispositivo de cerca,
consulte Testando um dispositivo de cerca .
Qualquer nó de cluster pode cercar qualquer outro nó de cluster com qualquer dispositivo de cerca,
67
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Qualquer nó de cluster pode cercar qualquer outro nó de cluster com qualquer dispositivo de cerca,
independentemente de o recurso de cerca ser iniciado ou parado. Se o recurso é iniciado controla
apenas o monitor periódico do dispositivo, não se ele pode ser usado, com as seguintes exceções:
Você pode desativar um dispositivo de esgrima ao executar o pcs stonith disable stonith_id
comando. Isto impedirá qualquer nó de usar aquele dispositivo.
Para evitar que um nó específico utilize um dispositivo de esgrima, você pode configurar
restrições de localização para o recurso de esgrima com o comando pcs constraint location …
avoids.
Tabela 9.1, “Propriedades Gerais dos Dispositivos de Esgrima” descreve as propriedades gerais que você
pode definir para dispositivos de esgrima.
68
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
69
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
70
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
71
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
72
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
73
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
74
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
75
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Alguns agentes
individuais de cercas
implementam um
parâmetro de "atraso",
que é independente de
atrasos configurados
com uma propriedade
pcmk_delay_*. Se
ambos os atrasos forem
configurados, eles são
adicionados juntos e,
portanto, geralmente
não seriam usados em
conjunto.
76
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
Campo
pcmk_delay_max Tipo
tempo Padrão
0s Descrição
Permitir um atraso
aleatório para ações
pedregosas e
especificar o máximo de
atraso aleatório. Em um
cluster com um número
par de nós, configurar
um atraso pode ajudar a
evitar que os nós se
cerquem uns aos outros
ao mesmo tempo em
uma divisão uniforme.
Um atraso aleatório
pode ser útil quando o
mesmo dispositivo de
cerca é usado para
todos os nós, e
diferentes atrasos
estáticos podem ser
úteis em cada
dispositivo de cerca
quando um dispositivo
separado é usado para
cada nó. O atraso geral é
derivado deste valor de
atraso aleatório
adicionando um atraso
estático para que a
soma seja mantida
abaixo do atraso
máximo. Se você definir
pcmk_delay_max,
mas não definir
pcmk_delay_base,
não há nenhum
componente estático
para o atraso.
Alguns agentes
individuais de cercas
implementam um
parâmetro de "atraso",
que é independente de
atrasos configurados
com uma propriedade
pcmk_delay_*. Se
ambos os atrasos forem
configurados, eles são
adicionados juntos e,
portanto, geralmente
não seriam usados em
conjunto.
77
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
78
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
Além das propriedades que você pode definir para cada dispositivo de cerca, há também propriedades
de agrupamento que você pode definir que determinam o comportamento da cerca, como descrito em
Tabela 9.3, “Propriedades de aglomeração que determinam o comportamento das vedações” .
79
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
80
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
Para informações sobre a definição das propriedades de agrupamento, consulte Definição e remoção
das propriedades de agrupamento.
1. Use ssh, telnet, HTTP, ou qualquer protocolo remoto que for usado para conectar ao dispositivo
para fazer o login e testar manualmente o dispositivo de cerca ou ver qual saída é dada. Por
exemplo, se você estiver configurando uma cerca para um dispositivo habilitado para IPMI,
então tente fazer o log in remotamente com ipmitool. Tome nota das opções usadas ao fazer o
login manualmente, pois essas opções podem ser necessárias ao usar o agente de vedação.
Se você não conseguir entrar no dispositivo de cerca, verifique se o dispositivo é "pingável", não
há nada como uma configuração de firewall que esteja impedindo o acesso ao dispositivo de
cerca, o acesso remoto está habilitado no dispositivo de cerca e as credenciais estão corretas.
2. Executar o agente de vedação manualmente, usando o roteiro do agente de vedação. Isto não
81
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
requer que os serviços de cercado estejam sendo executados, portanto, você pode executar
esta etapa antes que o dispositivo seja configurado no cercado. Isto pode garantir que o
dispositivo de cerca esteja respondendo corretamente antes de prosseguir.
NOTA
O exemplo a seguir mostra o formato que você usaria para executar o script fence_ipmilan
fence agent com o parâmetro -o status para verificar o status da interface do dispositivo de
cerca em outro nó sem realmente cercar o mesmo. Isto permite que você teste o dispositivo e o
faça funcionar antes de tentar reiniciar o nó. Ao executar este comando, você especifica o nome
e a senha de um usuário iLO que tem permissão para ligar e desligar o dispositivo iLO.
O exemplo a seguir mostra o formato que você usaria para executar o script fence_ipmilan
fence agent com o parâmetro -o reboot. A execução deste comando em um nó reinicia o nó
gerenciado por este dispositivo iLO.
Se o agente da cerca falhou em fazer uma ação de status, desligado, ligado ou reinicialização,
você deve verificar o hardware, a configuração do dispositivo da cerca e a sintaxe de seus
comandos. Além disso, você pode executar o script do agente de cerca com a saída de debug
habilitada. A saída de depuração é útil para alguns agentes de cercas para ver onde na
seqüência de eventos o script do agente de cercas está falhando ao efetuar login no dispositivo
de cercas.
Ao diagnosticar uma falha que tenha ocorrido, você deve se certificar de que as opções
especificadas ao fazer o login manualmente no dispositivo de cerca são idênticas ao que você
passou para o agente de cerca com o roteiro do agente de cerca.
Para agentes de cerca que suportam uma conexão criptografada, você pode ver um erro devido
à falha na validação do certificado, exigindo que você confie no host ou que você use o
parâmetro ssl-insecure do agente de cerca. Da mesma forma, se o SSL/TLS estiver
desabilitado no dispositivo alvo, você pode precisar prestar contas disso ao definir os
parâmetros SSL para o agente de cerca.
NOTA
82
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
3. Uma vez que o dispositivo de cerca tenha sido configurado no aglomerado com as mesmas
opções que funcionaram manualmente e o aglomerado tenha sido iniciado, teste a cerca com o
comando pcs stonith fence de qualquer nó (ou mesmo várias vezes de diferentes nós), como
no exemplo a seguir. O comando pcs stonith fence lê a configuração do cluster a partir do CIB
e chama o agente de cerca como configurado para executar a ação de cerca. Isto verifica se a
configuração do aglomerado está correta.
Se o comando pcs stonith fence funcionar corretamente, isso significa que a configuração da
cerca para o conjunto deve funcionar quando ocorrer um evento de cerca. Se o comando falhar,
isso significa que o gerenciamento do cercado não pode invocar o dispositivo de cercado
através da configuração que ele recuperou. Verifique as seguintes questões e atualize sua
configuração de cercas conforme necessário.
Verifique a configuração de sua cerca. Por exemplo, se você tiver usado um mapa do host,
você deve assegurar-se de que o sistema possa encontrar o nó usando o nome do host que
você forneceu.
Se o protocolo que seu dispositivo de cerca usa for acessível a você, use esse protocolo
para tentar se conectar ao dispositivo. Por exemplo, muitos agentes usam ssh ou telnet.
Você deve tentar conectar-se ao dispositivo com as credenciais que você forneceu ao
configurar o dispositivo, para ver se você recebe um prompt válido e pode fazer o login no
dispositivo.
Se você determinar que todos os seus parâmetros são apropriados, mas ainda tiver
problemas de conexão com seu dispositivo de cerca, você pode verificar o registro no
próprio dispositivo de cerca, se o dispositivo fornece isso, o que mostrará se o usuário se
conectou e qual comando o usuário emitiu. Você também pode procurar no arquivo
/var/log/messages por casos de pedraria e erro, o que poderia dar alguma idéia do que está
acontecendo, mas alguns agentes podem fornecer informações adicionais.
4. Uma vez que os testes do dispositivo de vedação estejam funcionando e o conjunto esteja em
funcionamento, teste uma falha real. Para isso, tomar uma ação no aglomerado que deve iniciar
uma perda simbólica.
Desmontar uma rede. A maneira como você toma uma rede depende de sua configuração
específica. Em muitos casos, você pode fisicamente puxar a rede ou os cabos de energia
para fora do host. Para informações sobre como simular uma falha de rede, veja Qual é a
maneira adequada de simular uma falha de rede em um Cluster RHEL?
NOTA
Bloquear o tráfego corosync tanto na entrada quanto na saída usando o firewall local.
83
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O seguinte exemplo bloqueia a corosync, assumindo que a porta padrão corosync é usada,
firewalld é usado como firewall local, e a interface de rede usada pela corosync está na
zona padrão do firewall:
Simule um acidente e entre em pânico com sua máquina com sysrq-trigger. Note,
entretanto, que desencadear um pânico no núcleo pode causar perda de dados; é
recomendável que você desative seus recursos de cluster primeiro.
Se um dispositivo falhar, o processamento termina para o nível atual. Nenhum outro dispositivo
nesse nível é exercido e o próximo nível é tentado em seu lugar.
Se todos os dispositivos forem vedados com sucesso, então esse nível foi bem sucedido e
nenhum outro nível é tentado.
A operação é concluída quando um nível tiver passado (sucesso), ou quando todos os níveis
tiverem sido tentados (fracassados).
Use o seguinte comando para adicionar um nível de esgrima a um nó. Os dispositivos são dados como
uma lista separada por vírgula de ids de pedra, que são tentadas para o nó nesse nível.
O seguinte comando lista todos os níveis de vedação que estão configurados atualmente.
84
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
Se você especificar mais de uma identificação de pedra, elas devem ser separadas por uma vírgula e
sem espaços, como no exemplo a seguir.
O seguinte comando verifica que todos os dispositivos e nós especificados nos níveis das cercas
existem.
Você pode especificar os nós na topologia da cerca por uma expressão regular aplicada sobre o nome
de um nó e por um atributo de nó e seu valor. Por exemplo, os seguintes comandos configuram os nós
node1, node2, e `node3 para usar dispositivos de cerca apc1 e `apc2, e os nós `node4, node5, e
`node6 para usar dispositivos de cerca apc3 e `apc4.
Se o nó nunca perder completamente a energia, o nó pode não liberar seus recursos. Isto abre a
possibilidade de os nós acessarem esses recursos simultaneamente e corrompê-los.
Você precisa definir cada dispositivo apenas uma vez e especificar que ambos são necessários para
cercar o nó, como no exemplo a seguir.
85
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Em uma situação em que nenhum dispositivo de pedra é capaz de cercar um nó mesmo que ele não
esteja mais ativo, o aglomerado pode não ser capaz de recuperar os recursos do nó. Se isto ocorrer,
após assegurar manualmente que o nó está desligado, você pode entrar com o seguinte comando para
confirmar ao aglomerado que o nó está desligado e liberar seus recursos para recuperação.
ATENÇÃO
86
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
Se um nó de cluster for configurado para ser cercado por um dispositivo de cerca integrado, desabilite o
ACPI Soft-Off para esse nó. A desativação do ACPI Soft-Off permite que um dispositivo de cerca
integrado desligue um nó imediata e completamente ao invés de tentar um desligamento limpo (por
exemplo, shutdown -h now). Caso contrário, se o ACPI Soft-Off for ativado, um dispositivo de cerca
integrado pode levar quatro ou mais segundos para desligar um nó (veja a nota que se segue). Além
disso, se o ACPI Soft-Off estiver ativado e um nó entrar em pânico ou congelar durante o desligamento,
um dispositivo de cerca integrado pode não ser capaz de desligar o nó. Nessas circunstâncias, a vedação
é atrasada ou não tem êxito. Consequentemente, quando um nó é cercado com um dispositivo de cerca
integrado e o ACPI Soft-Off é habilitado, um aglomerado se recupera lentamente ou requer
intervenção administrativa para se recuperar.
NOTA
A desativação do ACPI Soft-Off com o BIOS pode não ser possível com alguns sistemas. Se a
87
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
A desativação do ACPI Soft-Off com o BIOS pode não ser possível com alguns sistemas. Se a
desativação do ACPI Soft-Off com o BIOS não for satisfatória para seu cluster, você pode desativar o
ACPI Soft-Off com um dos seguintes métodos alternativos:
IMPORTANTE
NOTA
O procedimento para desativar o ACPI Soft-Off com o BIOS pode ser diferente entre os
sistemas de servidores. Você deve verificar este procedimento com sua documentação
de hardware.
3. No menu Power, defina a função Soft-Off by PWR-BTTN (ou equivalente) para Instant-Off (ou
a configuração equivalente que desliga o nó por meio do botão Power sem demora). BIOS
CMOS Setup Utility: mostra um menu Power com ACPI Function defina para Enabled e Soft-
Off by PWR-BTTN defina para Instant-Off.
NOTA
88
CAPÍTULO 9. CONFIGURAÇÃO DE CERCAS EM UM CLUSTER DE ALTA DISPONIBILIDADE DE CHAPÉU VERMELHO
+---------------------------------------------|-------------------+
| ACPI Function [Enabled] | Item Help |
| ACPI Suspend Type [S1(POS)] |-------------------|
| x Run VGABIOS if S3 Resume Auto | Menu Level * |
| Suspend Mode [Disabled] | |
| HDD Power Down [Disabled] | |
| Soft-Off by PWR-BTTN [Instant-Off | |
| CPU THRM-Throttling [50.0%] | |
| Wake-Up by PCI card [Enabled] | |
| Power On by Ring [Enabled] | |
| Wake Up On LAN [Enabled] | |
| x USB KB Wake-Up From S3 Disabled | |
| Resume by Alarm [Disabled] | |
| x Date(of Month) Alarm 0 | |
| x Time(hh:mm:ss) Alarm 0: 0: | |
| POWER ON Function [BUTTON ONLY | |
| x KB Power ON Password Enter | |
| x Hot Key Power ON Ctrl-F1 | |
| | |
| | |
+---------------------------------------------|-------------------+
Este exemplo mostra ACPI Function set to Enabled, e Soft-Off by PWR-BTTN set to Instant-Off.
HandlePowerKey=ignore
IMPORTANTE
89
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
1. Use a opção --args em combinação com a opção --update-kernel da ferramenta grubby para
alterar o arquivo grub.cfg de cada nó de cluster da seguinte forma:
2. Reiniciar o nó.
90
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
Alternativamente, você pode omitir os campos standard e provider e usar o seguinte comando. Isto será
padrão para um padrão de ocf e um provedor de heartbeat.
Por exemplo, o seguinte comando apaga um recurso existente com um ID de recurso de VirtualIP.
91
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Campo Descrição
Tabela 10.2, “Comandos para exibir as propriedades dos recursos” resume os comandos que exibem as
propriedades dos recursos disponíveis.
92
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
pcs resource list string Exibe uma lista dos recursos disponíveis filtrados pela
seqüência especificada. Você pode usar este
comando para exibir recursos filtrados pelo nome de
um padrão, de um provedor ou de um tipo.
Por exemplo, o seguinte comando exibe informações para um recurso do tipo apache.
...
93
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
C Padrão D
a e
m s
p c
o r
i
ç
ã
o
p 0 S
r e
i n
o e
r m
i t
t o
y d
o
s
o
s
r
e
c
u
r
s
o
s
p
u
d
e
r
e
m
e
s
t
a
r
a
t
i
v
o
s
,
o
a
g
r
u
p
94
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
a
C Padrão Dm
a ee
m sn
p ct
o ro
ip
ça
ãr
oa
r
á
o
s
r
e
c
u
r
s
o
s
d
e
p
r
i
o
r
i
d
a
d
e
m
a
i
s
b
a
i
x
a
p
a
r
a
m
a
n
t
e
r
o
s
d
95
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
e
C Padrão Dp
a er
m si
p co
o rr
ii
çd
ãa
od
e
m
a
i
s
a
l
t
a
a
t
i
v
o
s
.
t Started E
a m
r q
g u
e e
t e
- s
r t
o a
l d
e o
o
a
g
r
u
p
a
m
e
n
t
o
d
e
v
e
t
e
96
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
n
C Padrão Dt
a ea
m sr
p cm
o ra
in
çt
ãe
or
e
s
t
e
r
e
c
u
r
s
o
?
V
a
l
o
r
e
s
p
e
r
m
i
t
i
d
o
s
:
*
S
t
o
p
p
e
d
-
F
o
r
ç
a
r
97
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o
C Padrão Dr
a ee
m sc
p cu
o rr
is
ço
ãa
os
e
r
p
a
r
a
d
o
*
S
t
a
r
t
e
d
-
P
e
r
m
i
t
i
r
q
u
e
o
r
e
c
u
r
s
o
s
e
j
a
i
n
i
c
i
98
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
a
C Padrão Dd
a eo
m s(
p ce
o rn
io
çc
ãa
os
o
d
e
c
l
o
n
e
s
p
r
o
m
o
v
í
v
e
i
s
,
p
r
o
m
o
v
i
d
o
s
p
a
r
a
d
o
m
i
n
a
r
o
p
a
p
99
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
e
C Padrão Dl
a e,
m ss
p ce
o ra
ip
çr
ão
op
r
i
a
d
o
)
*
M
a
s
t
e
r
-
P
e
r
m
i
t
i
r
q
u
e
o
r
e
c
u
r
s
o
s
e
j
a
i
n
i
c
i
a
d
o
100
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
e
C Padrão D,
a es
m se
p ca
o rp
ir
ço
ãp
or
i
a
d
o
,
p
r
o
m
o
v
i
d
o
*
S
l
a
v
e
-
P
e
r
m
i
t
i
r
q
u
e
o
r
e
c
u
r
s
o
s
e
j
a
i
101
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
n
C Padrão Di
a ec
m si
p ca
o rd
io
ç,
ãm
oa
s
s
o
m
e
n
t
e
n
o
m
o
d
o
E
s
c
r
a
v
o
,
s
e
o
r
e
c
u
r
s
o
f
o
r
p
r
o
m
o
c
i
o
n
a
l
102
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
C Padrão D
a e
m s
p c
i true É
o r
s p
i
- e
ç
m r
ã
a m
o
n i
a t
g i
e d
d o
q
u
e
o
a
g
r
u
p
a
m
e
n
t
o
c
o
m
e
c
e
e
p
a
r
e
o
r
e
c
u
r
s
o
?
V
a
l
o
r
e
s
103
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
p
C Padrão De
a er
m sm
p ci
o rt
ii
çd
ão
os
:
t
r
u
e
,
f
a
l
s
e
104
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
C Padrão D
a e
m s
p c
o r
i
ç
ã
o
r 0 V
e a
s l
o o
u r
r p
c a
e r
- a
s i
t n
i d
c i
k c
i a
n r
e o
s q
s u
a
n
t
o
o
r
e
c
u
r
s
o
p
r
e
f
e
r
e
f
i
c
a
r
o
n
105
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
d
C Padrão De
a ee
m ss
p ct
o rá
i.
ç
ã
o
r Calculado I
e n
q d
u i
i c
r a
e s
s o
b
q
u
a
i
s
c
o
n
d
i
ç
õ
e
s
o
r
e
c
u
r
s
o
p
o
d
e
s
e
r
i
n
i
c
i
a
106
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
d
C Padrão Do
a e.
m s
p cO
o rp
ia
çd
ãr
oã
o
é
f
e
n
c
i
n
g
,
e
x
c
e
t
o
s
o
b
a
s
c
o
n
d
i
ç
õ
e
s
a
b
a
i
x
o
m
e
n
c
i
o
n
a
d
a
107
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
s
C Padrão D.
a eV
m sa
p cl
o ro
ir
çe
ãs
op
o
s
s
í
v
e
i
s
:
*
n
o
t
h
i
n
g
-
O
a
g
r
u
p
a
m
e
n
t
o
p
o
d
e
s
e
m
p
r
e
i
n
i
c
i
108
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
a
C Padrão Dr
a eo
m sr
p ce
o rc
iu
çr
ãs
oo
.
*
q
u
o
r
u
m
-
O
c
l
u
s
t
e
r
s
ó
p
o
d
e
i
n
i
c
i
a
r
e
s
t
e
r
e
c
u
r
s
o
s
e
a
m
109
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
a
C Padrão Di
a eo
m sr
p ci
o ra
id
ço
ãs
on
ó
s
c
o
n
f
i
g
u
r
a
d
o
s
e
s
t
i
v
e
r
a
t
i
v
a
.
E
s
t
e
é
o
v
a
l
o
r
p
a
d
r
ã
o
s
e
110
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
s
C Padrão Dt
a eo
m sn
p ci
o rt
ih
ç-
ãe
on
a
b
l
e
d
f
o
r
f
a
l
s
e
o
u
s
e
o
r
e
c
u
r
s
o
s
t
a
n
d
a
r
d
f
o
r
s
t
o
n
i
t
h
.
111
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
f
C Padrão De
a en
m sc
p ci
o rn
ig
ç-
ãO
oc
l
u
s
t
e
r
s
ó
p
o
d
e
i
n
i
c
i
a
r
e
s
t
e
r
e
c
u
r
s
o
s
e
a
m
a
i
o
r
i
a
d
o
s
n
ó
s
112
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
c
C Padrão Do
a en
m sf
p ci
o rg
iu
çr
ãa
od
o
s
e
s
t
i
v
e
r
a
t
i
v
a
a
n
d
q
u
a
l
q
u
e
r
n
ó
f
a
l
h
a
d
o
o
u
d
e
s
c
o
n
h
e
c
i
113
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
d
C Padrão Do
a ef
m so
p ci
o rc
ie
çr
ãc
oa
d
o
.
*
u
n
f
e
n
c
i
n
g
-
O
c
l
u
s
t
e
r
s
ó
p
o
d
e
i
n
i
c
i
a
r
e
s
t
e
r
e
c
u
r
s
114
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
o
C Padrão Ds
a ee
m sa
p cm
o ra
ii
ço
ãr
oi
a
d
o
s
n
ó
s
c
o
n
f
i
g
u
r
a
d
o
s
e
s
t
i
v
e
r
a
t
i
v
a
a
n
d
q
u
a
l
q
u
e
r
n
ó
f
a
115
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
l
C Padrão Dh
a ea
m sd
p co
o ro
iu
çd
ãe
os
c
o
n
h
e
c
i
d
o
f
o
i
c
e
r
c
a
d
o
a
n
d
s
o
m
e
n
t
e
e
m
n
ó
s
q
u
e
t
e
n
h
a
m
s
i
d
116
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
o
C Padrão Du
a en
m sf
p ce
o rn
ic
çe
ãd
o.
E
s
t
e
é
o
v
a
l
o
r
p
a
d
r
ã
o
s
e
a
m
e
t
a
o
p
ç
ã
o
p
r
o
v
i
d
e
s
=
u
n
f
e
n
c
i
n
117
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
g
C Padrão Ds
a et
m so
p cn
o ri
it
çh
ãt
oi
v
e
r
s
i
d
o
c
o
n
f
i
g
u
r
a
d
a
p
a
r
a
u
m
d
i
s
p
o
s
i
t
i
v
o
d
e
e
s
g
r
i
m
a
.
118
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
C Padrão D
a e
m INFINITY Q
m s
i u
p c
g a
o r
r n
i
a t
ç
t a
ã
i s
o
o f
n a
- l
t h
h a
r s
e p
s o
h d
o e
l m
d o
c
o
r
r
e
r
p
a
r
a
e
s
t
e
r
e
c
u
r
s
o
e
m
u
m
n
ó
,
a
n
t
e
s
q
u
119
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
e
C Padrão De
a es
m st
p ce
o rn
ió
çs
ãe
oj
a
m
a
r
c
a
d
o
c
o
m
o
i
n
e
l
e
g
í
v
e
l
p
a
r
a
h
o
s
p
e
d
a
r
e
s
t
e
r
e
c
u
r
s
o
.
120
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
U
C Padrão Dm
a ev
m sa
p cl
o ro
ir
çd
ãe
o0
i
n
d
i
c
a
q
u
e
e
s
t
e
r
e
c
u
r
s
o
e
s
t
á
d
e
s
a
b
i
l
i
t
a
d
o
(
o
n
ó
n
u
n
c
a
s
121
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
e
C Padrão Dr
a eá
m sm
p ca
o rr
ic
ça
ãd
oo
c
o
m
o
i
n
e
l
e
g
í
v
e
l
)
;
e
m
c
o
n
t
r
a
s
t
e
,
o
c
l
u
s
t
e
r
t
r
a
t
a
I
N
F
I
N
122
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
I
C Padrão DT
a eY
m s(
p co
o rp
ia
çd
ãr
oã
o
)
c
o
m
o
u
m
n
ú
m
e
r
o
m
u
i
t
o
g
r
a
n
d
e
,
m
a
s
f
i
n
i
t
o
.
E
s
t
a
o
p
ç
ã
o
s
123
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
ó
C Padrão Dt
a ee
m sm
p ce
o rf
ie
çi
ãt
oo
s
e
a
o
p
e
r
a
ç
ã
o
f
a
l
h
a
d
a
t
i
v
e
r
o
n
-
f
a
i
l
=
r
e
s
t
a
r
t
(
o
p
a
d
r
ã
o
124
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
)
C Padrão D,
a ee
m sa
p cd
o ri
ic
çi
ão
on
a
l
m
e
n
t
e
p
a
r
a
o
p
e
r
a
ç
õ
e
s
d
e
i
n
í
c
i
o
f
a
l
h
a
d
a
s
s
e
a
p
r
o
p
r
i
e
125
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
d
C Padrão Da
a ed
m se
p cd
o ro
ic
çl
ãu
os
t
e
r
s
t
a
r
t
-
f
a
i
l
u
r
e
-
i
s
-
f
a
t
a
l
f
o
r
f
a
l
s
e
.
f 0 (desativado) U
a s
i a
l d
u o
r e
e m
- c
t o
i n
126
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
m j
C
e Padrão Du
a
o en
m
u st
tp co
o rc
io
çm
ãa
oo
p
ç
ã
o
m
i
g
r
a
t
i
o
n
-
t
h
r
e
s
h
o
l
d
,
i
n
d
i
c
a
q
u
a
n
t
o
s
s
e
g
u
n
d
o
s
e
127
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
s
C Padrão Dp
a ee
m sr
p ca
o rr
ia
çn
ãt
oe
s
d
e
a
g
i
r
c
o
m
o
s
e
a
f
a
l
h
a
n
ã
o
t
i
v
e
s
s
e
o
c
o
r
r
i
d
o
,
e
p
o
t
e
n
c
i
128
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
a
C Padrão Dl
a em
m se
p cn
o rt
ie
çp
ãe
or
m
i
t
i
r
q
u
e
o
r
e
c
u
r
s
o
v
o
l
t
e
a
o
n
ó
e
m
q
u
e
f
a
l
h
o
u
.
C
o
m
o
e
m
q
u
a
129
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
l
C Padrão Dq
a eu
m se
p cr
o ra
iç
çã
ão
ob
a
s
e
a
d
a
n
o
t
e
m
p
o
,
n
ã
o
é
g
a
r
a
n
t
i
d
o
q
u
e
i
s
t
o
s
e
j
a
v
e
r
i
f
i
c
a
130
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
d
C Padrão Do
a ec
m so
p cm
o rm
ia
çi
ãs
of
r
e
q
ü
ê
n
c
i
a
d
o
q
u
e
o
v
a
l
o
r
d
o
p
a
r
â
m
e
t
r
o
d
e
c
l
u
s
t
e
r
c
l
u
s
t
e
131
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
r
C Padrão D-
a er
m se
p cc
o rh
ie
çc
ãk
o-
i
n
t
e
r
v
a
l
.
m stop_start O
u q
l u
t e
i o
p a
l g
e r
- u
a p
c a
t m
i e
v n
e t
o
d
e
v
e
f
a
z
e
r
s
e
a
l
g
u
m
a
v
e
z
e
132
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
n
C Padrão Dc
a eo
m sn
p ct
o rr
ia
çr
ão
or
e
c
u
r
s
o
a
t
i
v
o
e
m
m
a
i
s
d
e
u
m
n
ó
.
V
a
l
o
r
e
s
p
e
r
m
i
t
i
d
o
s
:
*
b
l
133
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o
C Padrão Dc
a ek
m s-
p cm
o ra
ir
çc
ãa
or
o
r
e
c
u
r
s
o
c
o
m
o
n
ã
o
a
d
m
i
n
i
s
t
r
a
d
o
*
s
t
o
p
_
o
n
l
y
-
p
a
r
a
r
t
o
134
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
d
C Padrão Da
a es
m sa
p cs
o ri
in
çs
ãt
oâ
n
c
i
a
s
a
t
i
v
a
s
e
d
e
i
x
á
-
l
a
s
d
e
s
s
a
f
o
r
m
a
*
s
t
o
p
_
s
t
a
r
t
-
p
a
135
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
r
C Padrão Da
a er
m st
p co
o rd
ia
çs
ãa
os
i
n
s
t
â
n
c
i
a
s
a
t
i
v
a
s
e
i
n
i
c
i
a
r
o
r
e
c
u
r
s
o
e
m
u
m
ú
n
i
c
o
l
o
c
a
l
136
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
C Padrão D
a e
10.3.1. Alterando o valor padrão de uma opção de recurso
m s
A ppartir do Red Hat Enterprise Linux 8.3, você pode alterar o valor default de uma opção de recurso c
o todos os recursos com o comando pcs resource defaults update. O seguinte comando redefiner o
para
valor default de resource-stickiness para 100. i
ç
ã
# pcs resource defaults update resource-stickiness=100
o
O original pcs resource defaults name=value que define os padrões para todos os recursos em
versões anteriores do RHEL 8, continua sendo suportado, a menos que haja mais de um conjunto de
padrões configurado. Entretanto, pcs resource defaults update é agora a versão preferida do
comando.
Com o comando pcs resource defaults set create, você pode configurar um valor de recurso padrão
para todos os recursos de um determinado tipo. Se, por exemplo, você estiver rodando bancos de dados
que levam muito tempo para parar, você pode aumentar o valor padrão resource-stickiness para
todos os recursos do tipo banco de dados para evitar que esses recursos se movam para outros nós com
mais freqüência do que você deseja.
O seguinte comando define o valor padrão de resource-stickiness para 100 para todos os recursos do
tipo pqsql.
A opção id, que nomeia o conjunto de padrões de recursos, não é obrigatória. Se você não
definir esta opção pcs irá gerar uma identificação automaticamente. A definição deste valor
permite que você forneça um nome mais descritivo.
Para alterar os valores padrão em um conjunto existente, use o comando pcs resource defaults set
update.
O exemplo a seguir mostra a saída deste comando após você ter redefinido o valor padrão de resource-
137
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O exemplo a seguir mostra a saída deste comando após você ter redefinido o valor padrão de resource-
stickiness para 100.
O exemplo a seguir mostra a saída deste comando após ter redefinido o valor padrão de resource-
stickiness para 100 para todos os recursos do tipo pqsql e ajustado a opção id para id=pgsql-
stickiness.
Por exemplo, o seguinte comando cria um recurso com um valor resource-stickiness de 50.
Você também pode definir o valor de uma meta opção de recurso para um recurso existente, grupo, ou
recurso clonado com o seguinte comando.
Após executar este comando, você pode exibir os valores do recurso para verificar se failure-
timeout=20s está configurado.
Um dos elementos mais comuns de um agrupamento é um conjunto de recursos que precisam ser
138
CAPÍTULO 10. CONFIGURAÇÃO DE RECURSOS DE CLUSTER
Um dos elementos mais comuns de um agrupamento é um conjunto de recursos que precisam ser
localizados juntos, começar sequencialmente e parar na ordem inversa. Para simplificar esta
configuração, o Pacemaker apóia o conceito de grupos de recursos.
pcs resource group acrescentar group_name resource_id [resource_id] ... [resource_id] [- antes
resource_id | - depois resource_id]
Você pode usar as opções --before e --after deste comando para especificar a posição dos recursos
adicionados em relação a um recurso que já existe no grupo.
Você também pode adicionar um novo recurso a um grupo existente quando você criar o recurso,
usando o seguinte comando. O recurso que você cria é adicionado ao grupo chamado group_name. Se o
grupo group_name não existir, ele será criado.
Não há limite para o número de recursos que um grupo pode conter. As propriedades fundamentais de
um grupo são as seguintes.
Os recursos são iniciados na ordem em que você os especifica. Se um recurso do grupo não
puder funcionar em nenhum lugar, então nenhum recurso especificado após esse recurso é
permitido para funcionar.
O exemplo seguinte cria um grupo de recursos chamado shortcut que contém os recursos existentes
IPaddr e Email.
Neste exemplo:
Se IPaddr não pode funcionar em qualquer lugar, também não pode Email.
Se Email não puder funcionar em nenhum lugar, no entanto, isso não afeta de forma alguma
IPaddr.
139
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
location restrições
order restrições
colocation restrições
Como abreviação para configurar um conjunto de restrições que irá localizar um conjunto de recursos
em conjunto e garantir que os recursos comecem sequencialmente e parem em ordem inversa, a
Pacemaker apóia o conceito de grupos de recursos. Após ter criado um grupo de recursos, você pode
configurar restrições no próprio grupo, assim como configurar restrições para recursos individuais. Para
obter informações sobre grupos de recursos, consulte Configuração de grupos de recursos .
140
CAPÍTULO 11. DETERMINAÇÃO DOS NÓS EM QUE UM RECURSO PODE FUNCIONAR
Além das restrições de localização, o nó em que um recurso funciona é influenciado pelo valor
resource-stickiness para esse recurso, que determina até que ponto um recurso prefere permanecer
no nó em que está funcionando atualmente. Para informações sobre como definir o valor resource-
stickiness, consulte Configurando um recurso para preferir seu nó atual .
O seguinte comando cria uma restrição de localização para que um recurso prefira o nó ou nós
especificados. Note que é possível criar restrições em um determinado recurso para mais de um nó com
um único comando.
O seguinte comando cria uma restrição de localização para um recurso para evitar o nó ou nós
especificados.
Tabela 11.1, “Opções de restrição de localização” resume os significados das opções básicas para a
configuração das restrições de localização.
Campo Descrição
node O nome de um nó
141
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Campo Descrição
O seguinte comando cria uma restrição de localização para especificar que o recurso Webserver
prefere o nó node1.
pcs suporta expressões regulares em restrições de localização na linha de comando. Estas restrições se
aplicam a múltiplos recursos com base na expressão regular que corresponde ao nome do recurso. Isto
permite que você configure contrações de múltiplas localizações com uma única linha de comando.
O seguinte comando cria uma restrição de localização para especificar que os recursos dummy0 a
dummy9 preferem node1.
Ao configurar uma restrição de localização em um nó, você pode usar a opção resource-discovery do
comando pcs constraint location para indicar se a Pacemaker deve realizar a descoberta de recursos
neste nó para o recurso especificado. Limitar a descoberta de recursos a um subconjunto de nós em que
o recurso é fisicamente capaz de funcionar pode aumentar significativamente o desempenho quando
um grande conjunto de nós está presente. Quando pacemaker_remote estiver em uso para expandir a
contagem do nó para a faixa de centenas de nós, esta opção deve ser considerada.
O seguinte comando mostra o formato para especificar a opção resource-discovery do comando pcs
constraint location. Neste comando, um valor positivo para score corresponde a uma restrição de
localização básica que configura um recurso para preferir um nó, enquanto um valor negativo para score
corresponde a uma restrição de localização básica`constraint que configura um recurso para evitar um
nó. Assim como as restrições básicas de localização, você pode usar expressões regulares para recursos
com estas restrições também.
Campo Descrição
node O nome de um nó
143
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
ATENÇÃO
144
CAPÍTULO 11. DETERMINAÇÃO DOS NÓS EM QUE UM RECURSO PODE FUNCIONAR
Aglomerados de Opt-In
Aglomerados de Opt-Out
A escolha de configurar seu cluster como um cluster opt-in ou opt-out depende tanto de sua
preferência pessoal quanto da composição de seu cluster. Se a maioria de seus recursos puder
funcionar na maioria dos nós, então uma configuração opt-out provavelmente resultará em uma
configuração mais simples. Por outro lado, se a maioria dos recursos só pode funcionar em um pequeno
subconjunto de nós, uma configuração opt-in pode ser mais simples.
Note que não é necessário especificar uma pontuação de INFINIDADE nestes comandos, já que esse é
o valor padrão para a pontuação.
145
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Se o valor resource-stickiness for definido, então nenhum recurso será movido para um nó recém-
adicionado. Se o equilíbrio de recursos for desejado nesse ponto, você pode definir temporariamente o
valor resource-stickiness de volta para 0.
Observe que se uma pontuação de restrição de localização for maior que o valor resource-stickiness, o
agrupamento ainda pode mover um recurso saudável para o nó onde a restrição de localização aponta.
Para maiores informações sobre como o Pacemaker determina onde colocar um recurso, veja
Configurando uma estratégia de colocação de nó .
146
CAPÍTULO 12. DETERMINAÇÃO DA ORDEM NA QUAL OS RECURSOS DE AGRUPAMENTO SÃO EXECUTADOS
Tabela 12.1, “Propriedades de uma restrição de ordem” , resume as propriedades e opções para
configurar as restrições de pedidos.
Campo Descrição
147
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Campo Descrição
Se a opção symmetrical for definida para true ou deixada para o padrão, as ações opostas serão
ordenadas em reverso. As ações start e stop são opostas, e demote e promote são opostas. Por
exemplo, uma ordem simétrica de "promover A e depois iniciar B" implica em "parar B e depois rebaixar
A", o que significa que A não pode ser rebaixado até e a menos que B pare com sucesso. Uma
ordenação simétrica significa que mudanças no estado de A podem fazer com que ações sejam
programadas para B. Por exemplo, dado "A então B", se A reinicia devido a falha, B será parado primeiro,
depois A será parado, depois A será iniciado, depois B será iniciado.
Observe que o agrupamento reage a cada mudança de estado. Se o primeiro recurso for reiniciado e
estiver num estado inicial novamente antes do segundo recurso iniciar uma operação de parada, o
segundo recurso não precisará ser reiniciado.
O seguinte comando configura uma restrição de ordenação consultiva para os recursos denominados
VirtualIP e dummy_resource.
148
CAPÍTULO 12. DETERMINAÇÃO DA ORDEM NA QUAL OS RECURSOS DE AGRUPAMENTO SÃO EXECUTADOS
exemplo, o recurso A começa antes do recurso B que começa antes do recurso C. Se sua configuração
exigir que você crie um conjunto de recursos que seja colocado e iniciado em ordem, você pode
configurar um grupo de recursos que contenha esses recursos, conforme descrito em Configuração de
grupos de recursos.
Há algumas situações, entretanto, onde a configuração dos recursos que precisam começar em uma
ordem específica como um grupo de recursos não é apropriada:
Talvez seja necessário configurar os recursos para começar em ordem e os recursos não são
necessariamente colocados.
Você pode ter um recurso C que deve começar depois que o recurso A ou B tiver começado,
mas não há nenhuma relação entre A e B.
Você pode ter recursos C e D que devem começar depois que ambos os recursos A e B tiverem
começado, mas não há relação entre A e B ou entre C e D.
Nestas situações, você pode criar uma restrição de pedidos em um conjunto ou conjuntos de recursos
com o comando pcs constraint order set.
Você pode definir as seguintes opções para um conjunto de recursos com o comando pcs constraint
order set.
sequential, que pode ser ajustado para true ou false para indicar se o conjunto de recursos
deve ser ordenado em relação um ao outro. O valor padrão é true.
A configuração sequential para false permite que um conjunto seja ordenado em relação a
outros conjuntos na restrição de ordenação, sem que seus membros sejam ordenados em
relação uns aos outros. Portanto, esta opção só faz sentido se vários conjuntos estiverem
listados na restrição; caso contrário, a restrição não tem efeito.
require-all, que pode ser ajustado para true ou false para indicar se todos os recursos do
conjunto devem estar ativos antes de continuar. Definir require-all para false significa que
apenas um recurso do conjunto precisa ser iniciado antes de continuar para o próximo conjunto.
A configuração require-all a false não tem efeito, a menos que seja usada em conjunto com
conjuntos não ordenados, que são conjuntos para os quais sequential está configurado para
false. O valor padrão é true.
action, que pode ser ajustado para start, promote, demote ou stop, conforme descrito em
Propriedades de uma Restrição de Ordem .
role, que pode ser ajustado para Stopped, Started, Master, ou Slave.
Você pode definir as seguintes opções de restrição para um conjunto de recursos seguindo o parâmetro
setoptions do comando pcs constraint order set.
id, para fornecer um nome para a restrição que você está definindo.
kind, que indica como aplicar a restrição, conforme descrito em Propriedades de uma Restrição
de Ordem.
symmetrical, para definir se o inverso da restrição se aplica à ação oposta, conforme descrito
em Propriedades de uma Restrição de Ordem .
pcs constraint order set resource1 resource2 [resourceN]... [options] [set resourceX resourceY ...
[options]]] [set [setoptions [constraint_options]]]
Se você tiver três recursos chamados D1, D2, e D3, o seguinte comando os configura como um conjunto
149
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Se você tiver três recursos chamados D1, D2, e D3, o seguinte comando os configura como um conjunto
de recursos ordenados.
Se você tiver seis recursos denominados A, B, C, D, E, e F, este exemplo configura uma restrição de
pedido para o conjunto de recursos que começará como a seguir:
A interrupção dos recursos não é influenciada por esta restrição, uma vez que o site symmetrical=false
está definido.
Você pode configurar sua ordem de partida para responder por esta situação por meio da meta
systemd resource-agents-deps . Você pode criar uma unidade drop-in systemd para este alvo e o
Pacemaker se encarregará de fazer o pedido de forma apropriada em relação a este alvo.
Por exemplo, se um cluster inclui um recurso que depende do serviço externo foo que não é gerenciado
pelo cluster, execute o seguinte procedimento.
[Unit]
Requires=foo.service
After=foo.service
Uma dependência de cluster especificada desta forma pode ser algo diferente de um serviço. Por
exemplo, você pode ter uma dependência na montagem de um sistema de arquivo em /srv, caso em
que você executaria o seguinte procedimento:
1. Assegure-se de que /srv esteja listado no arquivo /etc/fstab. Isto será convertido
automaticamente para o arquivo systemd srv.mount na inicialização, quando a configuração
do gerenciador do sistema for recarregada. Para mais informações, consulte as páginas de
manual systemd.mount(5) e systemd-fstab-generator(8).
2. Para ter certeza de que o Pacemaker inicia após a montagem do disco, crie a unidade drop-in
150
CAPÍTULO 12. DETERMINAÇÃO DA ORDEM NA QUAL OS RECURSOS DE AGRUPAMENTO SÃO EXECUTADOS
2. Para ter certeza de que o Pacemaker inicia após a montagem do disco, crie a unidade drop-in
/etc/systemd/system/resource-agents-deps.target.d/srv.conf que contém o seguinte.
[Unit]
Requires=srv.mount
After=srv.mount
151
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Há um importante efeito colateral de criar uma restrição de colocação entre dois recursos: ela afeta a
ordem na qual os recursos são atribuídos a um nó. Isto porque não se pode colocar o recurso A em
relação ao recurso B, a menos que se saiba onde está o recurso B. Portanto, quando você estiver
criando restrições de colocação, é importante considerar se você deve colocar o recurso A com o
recurso B ou o recurso B com o recurso A.
Outra coisa a ter em mente ao criar restrições de colocação é que, supondo que o recurso A esteja
colocado com o recurso B, o agrupamento também levará em conta as preferências do recurso A ao
decidir qual nó escolher para o recurso B.
Tabela 13.1, “Propriedades de uma Restrição de Colocação” , resume as propriedades e opções para a
configuração de restrições de colocação.
Campo Descrição
Se você precisar que myresource1 funcione sempre na mesma máquina que myresource2, você
acrescentaria a seguinte restrição:
152
CAPÍTULO 13. COLOCANDO RECURSOS DE CLUSTER
Como INFINITY foi utilizado, se myresource2 não puder funcionar em nenhum dos nós de cluster (por
qualquer razão), então myresource1 não será permitido funcionar.
Alternativamente, você pode querer configurar o oposto, um cluster no qual myresource1 não pode
funcionar na mesma máquina que myresource2. Neste caso, use score=-INFINITY
Mais uma vez, especificando -INFINITY, a restrição é vinculativa. Portanto, se o único lugar que resta
para correr é onde já está myresource2, então myresource1 não pode correr em nenhum lugar.
Você pode precisar colocar um conjunto de recursos, mas os recursos não precisam
necessariamente começar em ordem.
Você pode ter um recurso C que deve ser colocado com o recurso A ou B, mas não há nenhuma
relação entre A e B.
Você pode ter recursos C e D que devem ser colocados com ambos os recursos A e B, mas não
há relação entre A e B ou entre C e D.
Nestas situações, você pode criar uma restrição de colocação sobre um conjunto ou conjuntos de
recursos com o comando pcs constraint colocation set.
Você pode definir as seguintes opções para um conjunto de recursos com o comando pcs constraint
colocation set.
sequential, que pode ser ajustado para true ou false para indicar se os membros do conjunto
devem ser colocados uns com os outros.
A configuração sequential para false permite que os membros deste conjunto sejam colocados
com outro conjunto listado posteriormente na restrição, independentemente de quais membros
deste conjunto estejam ativos. Portanto, esta opção só faz sentido se outro conjunto for listado
depois deste na restrição; caso contrário, a restrição não tem efeito.
role, que pode ser ajustado para Stopped, Started, Master, ou Slave.
Você pode definir a seguinte opção de restrição para um conjunto de recursos seguindo o parâmetro
setoptions do comando pcs constraint colocation set.
id, para fornecer um nome para a restrição que você está definindo.
score, para indicar o grau de preferência por esta restrição. Para informações sobre esta opção,
153
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
score, para indicar o grau de preferência por esta restrição. Para informações sobre esta opção,
consulte Opções de Restrição de Localização .
Ao listar os membros de um conjunto, cada membro é colocado com aquele que o precedeu. Por
exemplo, "conjunto A B" significa "B é colocado com A". No entanto, ao listar vários conjuntos, cada
conjunto é colocado com o que está depois dele. Por exemplo, "conjunto C D seqüencial=conjunto falso
A B" significa "conjunto C D (onde C e D não têm relação entre si) é colocado com o conjunto A B
(onde B é colocado com A)".
O seguinte comando cria uma restrição de colocação sobre um conjunto ou conjuntos de recursos.
pcs constraint colocation set resource1 resource2 [resourceN]... [options] [set resourceX resourceY
... [options]]] [set [setoptions [constraint_options]]]
154
CAPÍTULO 14. EXIBINDO RESTRIÇÕES DE RECURSOS
A partir do RHEL 8.2, a listagem das restrições de recursos não mais, por padrão, exibe as restrições
expiradas. Para incluir os consignamentos expirados, use a opção --all do comando pcs constraint. Isto
listará as restrições expiradas, anotando as restrições e suas regras associadas como (expired) no
display.
Se resources for especificado, as restrições de localização são exibidas por recurso. Este é o
comportamento padrão.
Se forem especificados recursos ou nós específicos, então somente informações sobre esses
recursos ou nós serão exibidas.
Se a opção --full for utilizada, o comando exibe informações adicionais, incluindo as identificações de
restrição e os tipos de recursos.
156
CAPÍTULO 14. EXIBINDO RESTRIÇÕES DE RECURSOS
`- outer resource
`- G
`- inner resource(s)
| members: A B
`- A
# pcs resource relations G
G
`- inner resource(s)
| members: A B
|- A
`- B
157
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Cada regra pode conter uma série de expressões, expressões de datas e até mesmo outras regras. Os
resultados das expressões são combinados com base no campo da regra boolean-op para determinar
se a regra finalmente avalia para true ou false. O que acontece em seguida depende do contexto em
que a regra está sendo usada.
Campo Descrição
Campo Descrição
158
CAPÍTULO 15. DETERMINAÇÃO DA LOCALIZAÇÃO DOS RECURSOS COM REGRAS
Campo Descrição
Além de quaisquer atributos adicionados pelo administrador, o cluster define atributos de nó especiais e
integrados para cada nó que também podem ser usados, como descrito em Tabela 15.3, “Atributos dos
nós embutidos”.
Nome Descrição
#uname Nome do nó
#id Identificação do nó
159
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Nome Descrição
Campo Descrição
160
CAPÍTULO 15. DETERMINAÇÃO DA LOCALIZAÇÃO DOS RECURSOS COM REGRAS
Por exemplo, monthdays="1" corresponde ao primeiro dia de cada mês e hours="09-17" corresponde
ao horário entre 9h e 17h (inclusive). Entretanto, não é possível especificar weekdays="1,2" ou
weekdays="1-2,5-6", uma vez que eles contêm múltiplos intervalos.
Campo Descrição
Assim como com as restrições básicas de localização, você pode usar expressões regulares para
recursos com estas restrições também.
Ao utilizar regras para configurar restrições de localização, o valor de score pode ser positivo ou
161
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Ao utilizar regras para configurar restrições de localização, o valor de score pode ser positivo ou
negativo, com um valor positivo indicando "prefere" e um valor negativo indicando "evita".
A opção expression pode ser uma das seguintes onde duration_options e date_spec_options são: horas,
dias do mês, dias da semana, dias da semana, dias do ano, meses, semanas, anos, anos da semana, lua,
conforme descrito em Propriedades de uma Especificação de Data .
defined|not_defined attribute
date-spec date_spec_options
(expression)
Observe que as durações são uma forma alternativa de especificar um fim para as operações do
in_range por meio de cálculos. Por exemplo, você pode especificar uma duração de 19 meses.
A seguinte restrição de localização configura uma expressão que é verdadeira se agora for em qualquer
época do ano de 2018.
O seguinte comando configura uma expressão que é verdadeira das 9h às 17h, de segunda a sexta-feira.
Observe que o valor de 16 horas corresponde até 16:59:59, pois o valor numérico (hora) ainda
corresponde.
O comando seguinte configura uma expressão que é verdadeira quando há lua cheia na sexta-feira, dia
treze.
Para remover uma regra, use o seguinte comando. Se a regra que você está removendo é a última regra
em sua restrição, a restrição será removida.
162
CAPÍTULO 16. GERENCIAMENTO DE RECURSOS DE CLUSTER
Por exemplo, se seu sistema for configurado com um recurso chamado VirtualIP e um recurso chamado
WebSite, o comando pcs resource show produz o seguinte resultado.
Para exibir uma lista de todos os recursos configurados e os parâmetros configurados para esses
recursos, use a opção --full do comando pcs resource config, como no exemplo a seguir.
Por exemplo, o seguinte comando exibe os parâmetros atualmente configurados para o recurso
VirtualIP.
A seguinte seqüência de comandos mostra os valores iniciais dos parâmetros configurados para o
recurso VirtualIP, o comando para alterar o valor do parâmetro ip, e os valores após o comando de
atualização.
163
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
Quando você atualiza a operação de um recurso com o comando pcs resource update,
quaisquer opções que você não chamar especificamente são redefinidas para seus
valores padrão.
Se você não especificar um resource_id, este comando restabelece o status do recurso e failcountpara
todos os recursos.
O comando pcs resource cleanup sonda apenas os recursos que se apresentam como uma ação
fracassada. Para sondar todos os recursos em todos os nós, você pode digitar o seguinte comando:
Por padrão, o comando pcs resource refresh sonda apenas os nós onde o estado de um recurso é
conhecido. Para sondar todos os recursos, mesmo que o estado não seja conhecido, digite o seguinte
comando:
Você pode mover recursos manualmente em um cluster com os comandos pcs resource move e pcs
resource relocate, conforme descrito em Movimentação manual de recursos de cluster .
Além destes comandos, você também pode controlar o comportamento dos recursos de cluster,
ativando, desativando e proibindo recursos, conforme descrito em Habilitação, desativação e proibição
de recursos de cluster.
Você pode configurar um recurso para que ele se mova para um novo nó após um número definido de
164
CAPÍTULO 16. GERENCIAMENTO DE RECURSOS DE CLUSTER
Você pode configurar um recurso para que ele se mova para um novo nó após um número definido de
falhas, e você pode configurar um cluster para mover recursos quando a conectividade externa for
perdida.
NOTA
Você pode adicionar um limiar de migração aos padrões para todo o cluster com o seguinte comando.
Para determinar o estado atual de falhas e limites do recurso, use o comando pcs resource failcount
show.
Há duas exceções ao conceito de limite de migração; elas ocorrem quando um recurso não inicia ou não
pára. Se a propriedade do cluster start-failure-is-fatal estiver definida para true (que é o padrão), as
falhas de partida fazem com que o failcount seja definido para INFINITY e, assim, sempre faz com que o
recurso se mova imediatamente.
As falhas de parada são ligeiramente diferentes e cruciais. Se um recurso não parar e o STONITH for
ativado, então o agrupamento cercará o nó a fim de poder iniciar o recurso em outro lugar. Se o
STONITH não estiver ativado, então o aglomerado não tem como continuar e não tentará iniciar o
recurso em outro lugar, mas tentará pará-lo novamente após o timeout de falhas.
1. Adicione um recurso ping ao agrupamento. O recurso ping usa a utilidade do sistema com o
mesmo nome para testar se uma lista de máquinas (especificada pelo nome do host DNS ou
endereço IPv4/IPv6) é alcançável e usa os resultados para manter um atributo de nó chamado
165
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
pingd.
2. Configurar uma restrição de localização para o recurso que irá mover o recurso para um nó
diferente quando a conectividade for perdida.
Tabela 10.1, “Agente de Identificação de Recursos” descreve as propriedades que você pode definir para
um recurso ping.
Campo Descrição
O seguinte exemplo de comando cria um recurso ping que verifica a conectividade para
gateway.example.com. Na prática, você verificaria a conectividade com seu gateway/router de rede.
Você configura o recurso ping como um clone para que o recurso seja executado em todos os nós de
cluster.
O exemplo a seguir configura uma regra de restrição de localização para o recurso existente
denominado Webserver. Isso fará com que o recurso Webserver se mude para um host capaz de ping
gateway.example.com se o host em que ele está atualmente funcionando não puder pingar
gateway.example.com.
166
CAPÍTULO 16. GERENCIAMENTO DE RECURSOS DE CLUSTER
Quando você atualiza a operação de um recurso com o comando pcs resource update, quaisquer
opções que você não chamar especificamente são redefinidas para seus valores padrão. Por exemplo,
se você tiver configurado uma operação de monitoramento com um valor de timeout personalizado de
600, a execução dos seguintes comandos redefinirá o valor de timeout para o valor padrão de 20 (ou o
que quer que você tenha configurado o valor padrão com o comando pcs resource ops default ).
A fim de manter o valor original de 600 para esta opção, quando você restabelece a operação de
monitoramento você deve especificar este valor, como no exemplo a seguir.
4. Mostrar o status dos recursos para confirmar que os recursos d-01 e d-02 estão desativados.
Além do comando pcs resource disable, os comandos pcs resource enable, pcs resource manage, e
pcs resource unmanage apóiam a administração de recursos marcados.
167
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Você pode excluir uma etiqueta de recurso com o comando pcs tag delete.
Você pode modificar a configuração da tag de recurso para uma tag de recurso existente com o
comando pcs tag update.
2. Eliminar o recurso.
168
CAPÍTULO 17. CRIAÇÃO DE RECURSOS DE CLUSTER QUE ESTÃO ATIVOS EM MÚLTIPLOS NÓS (RECURSOS CLONADOS)
NOTA
Somente os recursos que podem estar ativos em vários nós ao mesmo tempo são
adequados para clonagem. Por exemplo, um recurso Filesystem que monta um sistema
de arquivo não exclusivo como ext4 a partir de um dispositivo de memória compartilhada
não deve ser clonado. Como a partição ext4 não está ciente do cluster, este sistema de
arquivo não é adequado para operações de leitura/gravação que ocorrem a partir de
múltiplos nós ao mesmo tempo.
pcs resource create resource_id [standard:[provider:]]type [resource options] [meta resource meta
options] clone [clone options]
Não se pode criar um grupo de recursos e um clone desse grupo de recursos em um único comando.
Alternativamente, você pode criar um clone de um recurso ou grupo de recursos previamente criado
com o seguinte comando.
NOTA
NOTA
Quando você cria um clone de um recurso, o clone assume o nome do recurso com -clone anexado ao
nome. Os seguintes comandos criam um recurso do tipo apache chamado webfarm e um clone desse
recurso chamado webfarm-clone.
NOTA
169
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
Quando você cria um recurso ou clone de grupo de recursos que será encomendado após
outro clone, você deve quase sempre definir a opção interleave=true. Isto garante que as
cópias do clone dependente possam parar ou começar quando o clone do qual depende
tiver parado ou começado no mesmo nó. Se você não definir esta opção, se um recurso
clonado B depender de um recurso clonado A e um nó sair do cluster, quando o nó
retornar ao cluster e o recurso A começar naquele nó, então todas as cópias do recurso B
em todos os nós serão reiniciadas. Isto porque quando um recurso clonado dependente
não tem a opção interleave definida, todas as instâncias desse recurso dependem de
qualquer instância em execução do recurso do qual ele depende.
Use o seguinte comando para remover um clone de um recurso ou de um grupo de recursos. Isto não
remove o recurso ou o próprio grupo de recursos.
Tabela 17.1, “Opções de Clonagem de Recursos” descreve as opções que você pode especificar para um
recurso clonado.
Campo Descrição
170
CAPÍTULO 17. CRIAÇÃO DE RECURSOS DE CLUSTER QUE ESTÃO ATIVOS EM MÚLTIPLOS NÓS (RECURSOS CLONADOS)
Campo Descrição
Para alcançar um padrão de alocação estável, os clones são ligeiramente pegajosos por padrão, o que
indica que eles têm uma ligeira preferência por permanecer no nó em que estão correndo. Se não for
fornecido um valor para resource-stickiness, o clone usará um valor de 1. Sendo um valor pequeno, ele
causa uma perturbação mínima nos cálculos de pontuação de outros recursos, mas é suficiente para
evitar que o Pacemaker movimente desnecessariamente cópias em torno do agrupamento. Para
informações sobre a configuração da meta-opção de recursos resource-stickiness, consulte
Configurando as meta-opções de recursos .
O seguinte comando cria uma restrição de localização para que o cluster atribua preferencialmente o
clone de recursos webfarm-clone para node1.
A colocação de um recurso regular (ou de grupo) com um clone significa que o recurso pode funcionar
171
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
A colocação de um recurso regular (ou de grupo) com um clone significa que o recurso pode funcionar
em qualquer máquina com uma cópia ativa do clone. O grupo escolherá uma cópia com base no local
onde o clone está rodando e nas preferências de localização do próprio recurso.
A recolocação entre clones também é possível. Nesses casos, o conjunto de locais permitidos para o
clone é limitado aos nós nos quais o clone está (ou estará) ativo. A alocação é então realizada como
normalmente.
O seguinte comando cria uma restrição de colocação para garantir que o recurso webfarm-stats
funcione no mesmo nó que uma cópia ativa de webfarm-clone.
Alternativamente, você pode criar um recurso promocional a partir de um recurso ou grupo de recursos
previamente criado com o seguinte comando. O nome do clone promocional será resource_id-clone ou
group_name-clone.
Tabela 17.2, “Opções extras de clones disponíveis para clones promocionais” descreve as opções de
clonagem extra que você pode especificar para um recurso promocional.
Campo Descrição
172
CAPÍTULO 17. CRIAÇÃO DE RECURSOS DE CLUSTER QUE ESTÃO ATIVOS EM MÚLTIPLOS NÓS (RECURSOS CLONADOS)
cópias com restrições de localização de recursos. Estas restrições não são escritas de maneira diferente
daquelas para os recursos regulares.
Você pode criar uma restrição de colocação que especifica se os recursos estão operando em um papel
de mestre ou de escravo. O seguinte comando cria uma restrição de colocação de recursos.
Ao configurar uma restrição de pedido que inclui recursos promocionais, uma das ações que você pode
especificar para os recursos é promote, indicando que o recurso seja promovido do papel de escravo
para o papel de mestre. Além disso, você pode especificar uma ação de demote, indicando que o
recurso deve ser rebaixado do papel de mestre para o papel de escravo.
Para informações sobre restrições de pedidos de recursos, ver ifdef:: Determinar a ordem em que os
recursos de agrupamento são executados.
Para configurar um recurso promocional a ser rebaixado quando uma ação promote falhar,
defina a meta-opção da operação on-fail para demote, como no exemplo a seguir.
Para configurar um recurso promocional a ser rebaixado quando uma ação monitor falhar,
defina interval para um valor não zero, defina a meta-opção de operação on-fail para demote,
e defina role para Master, como no exemplo a seguir.
Para configurar um cluster para que, quando uma partição de cluster perder quorum, quaisquer
recursos promovidos sejam despromovidos mas deixados em funcionamento e todos os outros
recursos sejam interrompidos, defina a propriedade do cluster no-quorum-policy para demote
Especificar um meta-atributo demote para uma operação não afeta como a promoção de um recurso é
determinada. Se o nó afetado ainda tiver a maior pontuação de promoção, ele será selecionado para ser
promovido novamente.
173
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Você pode forçar uma parada dos serviços de cluster no nó local com o seguinte comando, que executa
um comando kill -9.
Se você especificar a opção --all, o comando permite serviços de cluster em todos os nós.
Se você não especificar nenhum nó, os serviços de cluster são habilitados somente no nó local.
Use o seguinte comando para configurar os serviços de cluster para não serem executados na
inicialização no nó ou nós especificados.
Se você especificar a opção --all, o comando desabilita os serviços de cluster em todos os nós.
Se você não especificar nenhum nó, os serviços de cluster são desativados somente no nó local.
NOTA
É altamente recomendável que você adicione nós aos agrupamentos existentes somente
durante uma janela de manutenção da produção. Isto permite que você realize os testes
apropriados de recursos e implantação para o novo nó e sua configuração de cercas.
Além dos pacotes de cluster, você também precisará instalar e configurar todos os serviços que
você está executando no cluster, os quais você instalou nos nós de cluster existentes. Por
exemplo, se você estiver rodando um servidor Apache HTTP em um cluster de alta
disponibilidade da Red Hat, você precisará instalar o servidor no nó que está adicionando, assim
como a ferramenta wget que verifica o status do servidor.
2. Se você estiver executando o daemon firewalld, execute os seguintes comandos para habilitar
as portas que são exigidas pelo Add-On de Alta Disponibilidade da Red Hat.
3. Defina uma senha para o ID do usuário hacluster. Recomenda-se utilizar a mesma senha para
cada nó do cluster.
4. Execute os seguintes comandos para iniciar o serviço pcsd e para habilitar pcsd no início do
sistema.
175
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Quando você adiciona um link sem especificar seu número de link, pcs usa o link mais baixo
disponível.
Os números dos links atualmente configurados estão contidos no arquivo corosync.conf. Para
176
CAPÍTULO 18. GERENCIANDO NÓS DE CLUSTER
Os números dos links atualmente configurados estão contidos no arquivo corosync.conf. Para
exibir o arquivo corosync.conf, execute o comando pcs cluster corosync.
Para remover um link existente, use o comando pcs cluster link delete ou pcs cluster link remove.
Qualquer um dos comandos a seguir removerá o link número 5 do agrupamento.
Observe que você não pode especificar endereços que estão em uso no momento ao adicionar links a
um cluster. Isto significa, por exemplo, que se você tiver um cluster de dois nós com um link e quiser
alterar o endereço de apenas um nó, você não pode usar o procedimento acima para adicionar um novo
link que especifique um novo endereço e um endereço existente. Ao invés disso, você pode adicionar um
link temporário antes de remover o link existente e adicioná-lo de volta com o endereço atualizado,
como no exemplo a seguir.
Neste exemplo:
O link para o agrupamento existente é o link 1, que usa o endereço 10.0.5.11 para o nó 1 e o
endereço 10.0.5.12 para o nó 2.
177
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Para atualizar apenas um dos endereços de um cluster de dois nós com um único link, use o seguinte
procedimento.
1. Adicionar um novo link temporário ao cluster existente, utilizando endereços que não estão em
uso atualmente.
18.6.4. Modificando as opções de link para um link em um cluster com um único link
Se seu agrupamento utiliza apenas um link e você deseja modificar as opções para esse link mas não
deseja modificar o endereço a ser utilizado, você pode adicionar um link temporário antes de remover e
atualizar o link para modificar.
Neste exemplo:
O link para o agrupamento existente é o link 1, que usa o endereço 10.0.5.11 para o nó 1 e o
endereço 10.0.5.12 para o nó 2.
Use o seguinte procedimento para modificar a opção de link em um cluster com um único link.
1. Adicionar um novo link temporário ao cluster existente, utilizando endereços que não estão em
uso atualmente.
178
CAPÍTULO 18. GERENCIANDO NÓS DE CLUSTER
Para remover uma opção, você pode definir a opção para um valor nulo com o option=
formato.
3. Reiniciar o conjunto
A propriedade do clustercluster-ipc-limit
A propriedade de cluster cluster-ipc-limit é o backlog máximo de mensagens IPC antes que um
daemon de cluster desconecte outro. Quando um grande número de recursos é limpo ou modificado
simultaneamente em um grande aglomerado, um grande número de atualizações CIB chega de uma
só vez. Isto pode fazer com que clientes mais lentos sejam despejados se o serviço Pacemaker não
tiver tempo para processar todas as atualizações de configuração antes que o limite da fila de
eventos CIB seja atingido.
O valor recomendado de cluster-ipc-limit para uso em grandes clusters é o número de recursos no
cluster multiplicado pelo número de nós. Este valor pode ser aumentado se você vir mensagens de
"Evicting client" para PIDs de clusters nos logs.
Você pode aumentar o valor de cluster-ipc-limit a partir de seu valor padrão de 500 com o
comando pcs property set. Por exemplo, para um cluster de dez nós com 200 recursos, você pode
definir o valor de cluster-ipc-limit para 2000 com o seguinte comando.
179
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
PCMK_ipc_buffer=13396332
180
CAPÍTULO 19. DEFINIR PERMISSÕES DE USUÁRIO PARA UM CLUSTER DE PACEMAKER
Permissões que permitem aos usuários individuais gerenciar o cluster através da interface Web
e executar comandos pcs que se conectam aos nós através de uma rede. Os comandos que se
conectam aos nós através de uma rede incluem comandos para configurar um cluster, ou para
adicionar ou remover nós de um cluster.
Permissões para usuários locais para permitir o acesso somente leitura ou leitura-escrita à
configuração do cluster. Os comandos que não requerem conexão através de uma rede incluem
comandos que editam a configuração do cluster, tais como os que criam recursos e configuram
restrições.
Em situações onde ambos os conjuntos de permissões foram atribuídos, as permissões para comandos
que se conectam através de uma rede são aplicadas primeiro, e depois as permissões para editar a
configuração do cluster no nó local são aplicadas. A maioria dos comandos pcs não exige acesso à rede
e, nesses casos, as permissões de rede não serão aplicadas.
Por padrão, as ACLs não são habilitadas. Quando as ACLs não são ativadas, o usuário root e qualquer
usuário que seja membro do grupo haclient em todos os nós tem acesso local completo à configuração
do cluster enquanto os usuários que não são membros do haclient não têm acesso. Quando as ACLs
são ativadas, entretanto, mesmo os usuários que são membros do grupo haclient têm acesso apenas
ao que foi concedido a esse usuário pelas ACLs.
1. Executar o comando pcs acl role create… para criar um role que define as permissões para
essa função.
2. Atribua a função que você criou a um usuário com o comando pcs acl user create. Se você
atribuir várias funções ao mesmo usuário, qualquer permissão deny tem precedência, então
write, então read.
O seguinte procedimento de exemplo fornece acesso somente leitura para uma configuração de cluster
a um usuário local chamado rouser. Note que também é possível restringir o acesso apenas a certas
partes da configuração.
181
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
ATENÇÃO
1. Este procedimento exige que o usuário rouser exista no sistema local e que o usuário rouser
seja um membro do grupo haclient.
# adduser rouser
# usermod -a -G haclient rouser
3. Criar uma função chamada read-only com permissões somente de leitura para a cib.
# pcs acl role create read-only description="Read access to cluster" read xpath /cib
4. Criar o usuário rouser no sistema ACL da pcs e atribuir a esse usuário a função read-only.
# pcs acl
User: rouser
Roles: read-only
Role: read-only
Description: Read access to cluster
Permission: read xpath /cib (read-only-read)
182
CAPÍTULO 20. OPERAÇÕES DE MONITORAMENTO DE RECURSOS
Campo Descrição
id Nome único para a ação. O sistema atribui isto quando você configura uma
operação.
interval Se definido para um valor diferente de zero, é criada uma operação recorrente
que se repete nesta freqüência, em segundos. Um valor diferente de zero só faz
sentido quando a ação name é definida para monitor. Uma ação de
monitoramento recorrente será executada imediatamente após o início de um
recurso, e as ações de monitoramento subseqüentes são programadas a partir do
momento em que a ação de monitoramento anterior for concluída. Por exemplo,
se uma ação de monitoramento com interval=20s for executada à 01:00:00, a
próxima ação de monitoramento não ocorrerá à 01:00:20, mas aos 20 segundos
após a conclusão da primeira ação de monitoramento.
Se definido como zero, que é o valor padrão, este parâmetro permite fornecer
valores a serem usados para operações criadas pelo cluster. Por exemplo, se o
interval for definido como zero, o name da operação é definido como start, e o
valor timeout é definido como 40, então o Pacemaker usará um timeout de 40
segundos ao iniciar este recurso. Uma operação monitor com intervalo zero
permite definir os valores de timeout / on-fail/ enabled para as sondas que o
Pacemaker faz na inicialização para obter o status atual de todos os recursos
quando os padrões não são desejáveis.
timeout Se a operação não for concluída no tempo definido por este parâmetro, abortar a
operação e considerá-la fracassada. O valor padrão é o valor de timeout se
configurado com o comando pcs resource op defaults, ou 20 segundos se
não estiver configurado. Se você descobrir que seu sistema inclui um recurso que
requer mais tempo do que o sistema permite para realizar uma operação (como
start, stop, ou monitor), investigue a causa e se o longo tempo de execução é
esperado, você pode aumentar este valor.
O valor timeout não é um atraso de nenhum tipo, nem o cluster espera todo o
período de timeout se a operação retornar antes que o período de timeout tenha
terminado.
183
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Campo Descrição
* demote - Quando uma ação promote falha para o recurso, o recurso será
rebaixado, mas não será totalmente interrompido. Quando uma ação monitor
falhar para um recurso, se interval estiver definido para um valor diferente de
zero e role estiver definido para Master, o recurso será rebaixado, mas não será
totalmente interrompido.
enabled Se false, a operação é tratada como se ela não existisse. Valores permitidos:true,
false
Por exemplo, o seguinte comando cria um recurso IPaddr2 com uma operação de monitoramento. O
novo recurso é chamado VirtualIP com um endereço IP de 192.168.0.99 e uma máscara de rede de 24
em eth2. Uma operação de monitoramento será realizada a cada 30 segundos.
Alternativamente, você pode adicionar uma operação de monitoramento a um recurso existente com o
seguinte comando.
NOTA
184
CAPÍTULO 20. OPERAÇÕES DE MONITORAMENTO DE RECURSOS
NOTA
Para alterar os valores de uma opção de monitoramento, você pode atualizar o recurso. Por exemplo,
você pode criar um VirtualIP com o seguinte comando.
O original pcs resource op defaults name=value que define os padrões de operação de recursos para
todos os recursos em versões anteriores do RHEL 8, continua sendo suportado, a menos que haja mais
de um conjunto de padrões configurado. Entretanto, pcs resource op defaults update é agora a
versão preferida do comando.
185
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Por exemplo, após definir um valor padrão global de 240 segundos para timeout para todas as
operações de monitoramento e atualizar o recurso de cluster VirtualIP para remover o valor de timeout
para a operação monitor, o recurso VirtualIP terá então valores de timeout para start, stop e monitor
operações de 20s, 40s e 240s, respectivamente. O valor padrão global para operações de timeout é
aplicado aqui apenas na operação monitor, onde a opção padrão timeout foi removida pelo comando
anterior.
Com este comando, você pode configurar um valor padrão de operação de recursos para todos os
recursos de um determinado tipo. Por exemplo, agora é possível configurar os recursos implícitos
podman criados pela Pacemaker quando os pacotes estão em uso.
O seguinte comando estabelece um valor de tempo limite padrão de 90s para todas as operações para
todos os recursos podman. Neste exemplo, ::podman significa um recurso de qualquer classe, de
qualquer fornecedor, do tipo podman.
A opção id, que nomeia o conjunto de recursos padrão de operação, não é obrigatória. Se você não
definir esta opção, pcs irá gerar uma identificação automaticamente. A definição deste valor permite
que você forneça um nome mais descritivo.
# pcs resource op defaults set create id=podman-timeout meta timeout=90s rule resource
::podman
O seguinte comando estabelece um valor padrão de tempo limite de 120s para a operação stop para
todos os recursos.
# pcs resource op defaults set create id=stop-timeout meta timeout=120s rule op stop
É possível definir o valor padrão de timeout para uma operação específica para todos os recursos de um
determinado tipo. O exemplo a seguir define um valor de timeout padrão de 120s para a operação stop
para todos os recursos podman.
O comando pcs resource op defaults exibe uma lista de valores padrão configurados atualmente para
186
CAPÍTULO 20. OPERAÇÕES DE MONITORAMENTO DE RECURSOS
O comando pcs resource op defaults exibe uma lista de valores padrão configurados atualmente para
operações de recursos, incluindo quaisquer regras que você especificou.
O seguinte comando exibe os valores padrão de operação para um cluster que foi configurado com um
valor de timeout padrão de 90s para todas as operações de todos os recursos podman, e para o qual foi
definido um ID para o conjunto de padrões de operação de recursos como podman-timeout.
O seguinte comando exibe os valores padrão de operação para um cluster que foi configurado com um
valor de timeout padrão de 120s para a operação stop para todos os recursos podman, e para o qual foi
definido um ID para o conjunto de recursos padrão de operação como podman-stop-timeout.
NOTA
Ao configurar várias operações de monitoramento, você deve garantir que não sejam
realizadas duas operações no mesmo intervalo.
Para configurar operações de monitoramento adicionais para um recurso que suporte verificações mais
profundas em diferentes níveis, você adiciona um OCF_CHECK_LEVEL=n opção.
Por exemplo, se você configurar o seguinte recurso IPaddr2, por padrão isto cria uma operação de
monitoramento com um intervalo de 10 segundos e um valor de timeout de 20 segundos.
Se o IP Virtual suporta uma verificação diferente com uma profundidade de 10, o seguinte comando faz
com que o Pacemaker realize a verificação de monitoramento mais avançada a cada 60 segundos, além
da verificação IP Virtual normal a cada 10 segundos. (Como observado, não se deve configurar a
operação de monitoramento adicional com um intervalo de 10 segundos também)
187
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
Além das propriedades descritas nesta tabela, há propriedades adicionais de cluster que
são expostas pelo software de cluster. Para estas propriedades, é recomendável não
alterar seus valores em relação a seus padrões.
188
CAPÍTULO 21. PROPRIEDADES DO CONJUNTO DO MARCAPASSO
* congelar - continuar o
gerenciamento de recursos, mas
não recuperar recursos de nós
que não estejam na partição
afetada
189
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Ajustando start-failure-is-fatal
para false corre-se o risco de que
isso permita que um nó
defeituoso, incapaz de iniciar um
recurso, possa atrasar todas as
ações dependentes. É por isso
que start-failure-is-fatal é o
padrão da verdade. O risco de
definir start-failure-is-
fatal=false pode ser mitigado ao
estabelecer um baixo limiar de
migração para que outras ações
possam prosseguir após muitas
falhas.
190
CAPÍTULO 21. PROPRIEDADES DO CONJUNTO DO MARCAPASSO
191
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
A propriedade priority-fencing-
delay pode ser definida para uma
duração de tempo. O valor padrão
para esta propriedade é 0
(desabilitado). Se esta
propriedade for definida para um
valor diferente de zero, e o meta-
atributo priority for configurado
para pelo menos um recurso,
então em uma situação de
cérebro dividido, o nó com a
maior prioridade combinada de
todos os recursos que correm
sobre ele terá mais probabilidade
de sobreviver.
192
CAPÍTULO 21. PROPRIEDADES DO CONJUNTO DO MARCAPASSO
Por exemplo, para definir o valor de symmetric-cluster para false, use o seguinte comando.
Você pode remover uma propriedade de cluster da configuração com o seguinte comando.
Alternativamente, você pode remover uma propriedade de cluster de uma configuração, deixando o
campo de valor do comando pcs property set em branco. Isto restaura essa propriedade a seu valor
padrão. Por exemplo, se você definiu previamente a propriedade symmetric-cluster para false, o
seguinte comando remove o valor definido da configuração e restaura o valor de symmetric-cluster
para true, que é seu valor padrão.
193
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Para exibir os valores dos ajustes de propriedade que foram definidos para o conjunto, use o seguinte
pcs comando.
Para exibir todos os valores das configurações de propriedade para o conjunto, incluindo os valores
padrão das configurações de propriedade que não foram explicitamente definidas, use o seguinte
comando.
Para exibir o valor atual de uma propriedade de cluster específica, use o seguinte comando.
Por exemplo, para exibir o valor atual do imóvel cluster-infrastructure, execute o seguinte comando:
Para fins informativos, você pode exibir uma lista de todos os valores padrão para as propriedades, quer
tenham sido definidos para um valor diferente do padrão ou não, usando o seguinte comando.
194
GURAÇÃO DE RECURSOS PARA PERMANECER PARADO NO DESLIGAMENTO DO NÓ LIMPO (RHEL 8.2 E POSTERIORES)
shutdown-lock
Quando esta propriedade de agrupamento é definida para o valor padrão de false, o agrupamento
recuperará recursos que estão ativos nos nós que estão sendo limpos. Quando esta propriedade é
definida para true, os recursos que estão ativos nos nós que estão sendo limpos não podem começar
em outro lugar até que eles comecem no nó novamente depois que ele se juntar ao cluster.
A propriedade shutdown-lock funcionará tanto para nós de cluster quanto para nós remotos, mas
não para nós convidados.
Se shutdown-lock estiver configurado para true, você pode remover a trava em um recurso de
cluster quando um nó estiver em baixo para que o recurso possa começar em outro lugar,
executando uma atualização manual no nó com o seguinte comando.
Note que uma vez que os recursos sejam desbloqueados, o agrupamento é livre para mover os
recursos para outro lugar. Você pode controlar a probabilidade de isto ocorrer usando valores de
aderência ou preferências de localização para o recurso.
NOTA
Uma atualização manual só funcionará com nós remotos se você executar primeiro os
seguintes comandos:
shutdown-lock-limit
Quando esta propriedade de agrupamento for definida para um tempo diferente do valor padrão de
195
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Quando esta propriedade de agrupamento for definida para um tempo diferente do valor padrão de
0, os recursos estarão disponíveis para recuperação em outros nós se o nó não voltar dentro do
tempo especificado desde que o desligamento foi iniciado.
NOTA
1. Defina o imóvel shutdown-lock para true e verifique seu valor. Neste exemplo, o imóvel
shutdown-lock-limit mantém seu valor padrão de 0.
2. Verifique o status do agrupamento. Neste exemplo, os recursos third e fifth estão funcionando
em z1.example.com.
3. Encerrar z1.example.com, o que irá parar os recursos que estão funcionando naquele nó.
196
GURAÇÃO DE RECURSOS PARA PERMANECER PARADO NO DESLIGAMENTO DO NÓ LIMPO (RHEL 8.2 E POSTERIORES)
4. A execução do comando pcs status mostra que o nó z1.example.com está offline e que os
recursos que estavam rodando no z1.example.com são LOCKED enquanto o nó está em baixo.
Node List:
* Online: [ z2.example.com z3.example.com ]
* OFFLINE: [ z1.example.com ]
...
Node List:
* Online: [ z1.example.com z2.example.com z3.example.com ]
...
197
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Se as pontuações de alocação de recursos em todos os nós forem iguais, pela estratégia de colocação
padrão o Pacemaker escolherá um nó com o menor número de recursos alocados para equilibrar a carga.
Se o número de recursos em cada nó for igual, o primeiro nó elegível listado na CIB será escolhido para
executar o recurso.
Muitas vezes, porém, recursos diferentes utilizam proporções significativamente diferentes das
capacidades de um nó (como memória ou E/S). Nem sempre é possível equilibrar a carga de forma ideal
levando em conta apenas o número de recursos alocados a um nó. Além disso, se os recursos forem
colocados de forma que suas necessidades combinadas excedam a capacidade fornecida, eles podem
não conseguir iniciar completamente ou podem funcionar com desempenho degradado. Para levar estes
fatores em consideração, o Pacemaker permite configurar os seguintes componentes:
Você pode nomear atributos de utilização de acordo com suas preferências e definir tantos pares de
nomes e valores quanto suas necessidades de configuração. Os valores dos atributos de utilização
devem ser números inteiros.
O Nó 1 é definido como fornecendo uma capacidade de CPU de dois e uma capacidade de RAM
de 2048
O exemplo a seguir especifica os mesmos atributos de utilização que três recursos diferentes exigem.
Neste exemplo:
198
CAPÍTULO 23. CONFIGURAÇÃO DE UMA ESTRATÉGIA DE POSICIONAMENTO DO NÓ
recurso dummy-small requer uma capacidade de CPU de 1 e uma capacidade de RAM de 1024
recurso dummy-large requer uma capacidade de CPU de 1 e uma capacidade de RAM de 3072
Um nó é considerado elegível para um recurso se tiver capacidade livre suficiente para satisfazer as
necessidades do recurso, conforme definido pelos atributos de utilização.
default
utilization
balanced
minimal
23.2.1. Preferência de Nó
O marcapasso determina qual nó é preferido ao alocar recursos de acordo com a seguinte estratégia.
Se as capacidades livres dos nós forem iguais, o nó que tiver o menor número de
recursos alocados é consumido primeiro.
Se as capacidades livres dos nós forem iguais e o número de recursos alocados for igual,
o primeiro nó elegível listado na CIB é consumido primeiro.
23.2.2. Capacidade do Nó
O marcapasso determina qual nó tem a capacidade mais livre, de acordo com a seguinte estratégia.
Se apenas um tipo de atributo de utilização tiver sido definido, a capacidade livre é uma simples
comparação numérica.
Se NodeA tem mais CPUs livres, e NodeB tem mais memória livre, então suas capacidades
livres são iguais.
Se NodeA tem mais CPUs livres, enquanto NodeB tem mais memória e armazenamento
livres, então NodeB tem mais capacidade livre.
O recurso que tem a maior prioridade é alocado primeiro. Você pode definir a prioridade de um
recurso ao criar o recurso.
Se as prioridades dos recursos forem iguais, o recurso que tiver a pontuação mais alta no nó
onde ele está funcionando é alocado primeiro, para evitar o embaralhamento de recursos.
Se as pontuações dos recursos nos nós onde os recursos estão funcionando forem iguais ou se
os recursos não estiverem funcionando, o recurso que tiver a pontuação mais alta no nó
preferido é alocado primeiro. Se as pontuações dos recursos no nó preferido forem iguais neste
caso, o primeiro recurso executável listado na CIB é alocado em primeiro lugar.
Se a capacidade física de seus nós estiver sendo utilizada ao máximo em condições normais,
200
CAPÍTULO 23. CONFIGURAÇÃO DE UMA ESTRATÉGIA DE POSICIONAMENTO DO NÓ
Se a capacidade física de seus nós estiver sendo utilizada ao máximo em condições normais,
então poderão ocorrer problemas durante o failover. Mesmo sem o recurso de utilização, você
pode começar a experimentar timeouts e falhas secundárias.
Construa algum buffer nas capacidades que você configura para os nós.
Anuncie um pouco mais de recursos de nós do que você fisicamente tem, no pressuposto de
que um recurso Pacemaker não utilizará 100% da quantidade configurada de CPU, memória, e
assim por diante o tempo todo. Esta prática às vezes é chamada de overcommit.
Para obter informações sobre o agente de recursos NodeUtilization e as opções de recursos para este
agente, execute o comando pcs resource describe NodeUtilization.
201
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Um domínio virtual deve ser interrompido antes de ser configurado como um recurso de cluster.
Uma vez que um domínio virtual é um recurso de cluster, ele não deve ser iniciado, parado ou
migrado, exceto através das ferramentas de cluster.
Não configure um domínio virtual que você tenha configurado como um recurso de cluster para
começar quando seu host boots.
Todos os nós autorizados a executar um domínio virtual devem ter acesso aos arquivos de
configuração e dispositivos de armazenamento necessários para esse domínio virtual.
Se você quiser que o cluster gerencie serviços dentro do próprio domínio virtual, você pode configurar o
domínio virtual como um nó convidado.
C Padrão D
a e
m s
p c
o r
i
ç
ã
o
c (
o r
n e
f q
i u
g e
r
i
d
o
)
C
a
m
i
202
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
n
C Padrão Dh
a eo
m sa
p cb
o rs
io
çl
ãu
ot
o
p
a
r
a
o
a
r
q
u
i
v
o
d
e
c
o
n
f
i
g
u
r
a
ç
ã
o
l
i
b
v
i
r
t
p
a
r
a
e
s
t
e
d
o
m
í
203
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
n
C Padrão Di
a eo
m sv
p ci
o rr
it
çu
ãa
ol
.
h Dependente do sistema H
y y
p p
e e
r r
v v
i i
s s
o o
r r
U
R
I
p
a
r
a
c
o
n
e
c
t
a
r
.
V
o
c
ê
p
o
d
e
d
e
t
e
r
m
i
n
a
204
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
r
C Padrão Do
a eU
m sR
p cI
o rp
ia
çd
ãr
oã
o
d
o
s
i
s
t
e
m
a
e
x
e
c
u
t
a
n
d
o
o
c
o
m
a
n
d
o
v
i
r
s
h
-
-
q
u
i
e
t
u
r
i
.
f 0 S
205
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o e
C
r Padrão Dm
a
c ep
m
e sr
p
_ ce
o
s rd
t ie
o çs
p ãl
oi
g
u
e
à
f
o
r
ç
a
(
"
d
e
s
t
r
u
i
r
"
)
o
d
o
m
í
n
i
o
e
m
p
a
r
a
d
a
.
O
c
o
m
p
o
r
t
206
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
a
C Padrão Dm
a ee
m sn
p ct
o ro
ip
ça
ãd
or
ã
o
é
r
e
c
o
r
r
e
r
a
u
m
d
e
s
l
i
g
a
m
e
n
t
o
f
o
r
ç
a
d
o
s
o
m
e
n
t
e
a
p
ó
s
u
m
207
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
a
C Padrão Dt
a ee
m sn
p ct
o ra
it
çi
ãv
oa
d
e
d
e
s
l
i
g
a
m
e
n
t
o
g
r
a
c
i
o
s
o
t
e
r
f
a
l
h
a
d
o
.
V
o
c
ê
d
e
v
e
d
e
f
i
n
208
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
i
C Padrão Dr
a ei
m ss
p ct
o ro
ip
ça
ãr
oa
t
r
u
e
s
o
m
e
n
t
e
s
e
s
e
u
d
o
m
í
n
i
o
v
i
r
t
u
a
l
(
o
u
s
e
u
b
a
c
k
e
n
d
d
e
v
209
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
i
C Padrão Dr
a et
m su
p ca
o rl
ii
çz
ãa
oç
ã
o
)
n
ã
o
s
u
p
o
r
t
a
r
u
m
d
e
s
l
i
g
a
m
e
n
t
o
g
r
a
c
i
o
s
o
.
m Dependente do sistema T
i r
g a
r n
a s
t p
i o
o r
210
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
n t
C
_ Padrão De
a
t eu
m
r ss
p
a ca
o
n rd
s io
p çp
o ãa
r or
t a
c
o
n
e
c
t
a
r
a
o
h
i
p
e
r
v
i
s
o
r
r
e
m
o
t
o
e
n
q
u
a
n
t
o
m
i
g
r
a
v
a
.
S
e
e
211
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
s
C Padrão Dt
a ee
m sp
p ca
o rr
iâ
çm
ãe
ot
r
o
f
o
r
o
m
i
t
i
d
o
,
o
r
e
c
u
r
s
o
u
s
a
r
á
o
t
r
a
n
s
p
o
r
t
e
p
a
d
r
ã
o
d
o
l
212
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
i
C Padrão Db
a ev
m si
p cr
o rt
ip
ça
ãr
oa
s
e
c
o
n
e
c
t
a
r
a
o
h
i
p
e
r
v
i
s
o
r
r
e
m
o
t
o
.
m U
i t
g i
r l
a i
t z
i a
o r
n u
_ m
n a
e r
t e
w d
o e
r d
k e
213
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
_ m
C
s Padrão Di
a
u eg
m
f sr
fp ca
o
i rç
x iã
ço
ãd
oe
d
i
c
a
d
a
.
A
U
R
I
d
e
m
i
g
r
a
ç
ã
o
é
c
o
m
p
o
s
t
a
p
e
l
a
a
d
i
ç
ã
o
d
o
v
a
l
o
214
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
r
C Padrão Dd
a ee
m ss
p ct
o re
ip
ça
ãr
oâ
m
e
t
r
o
a
o
f
i
n
a
l
d
o
n
o
m
e
d
o
n
ó
.
S
e
o
n
o
m
e
d
o
n
ó
f
o
r
u
m
n
o
m
e
d
e
d
215
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o
C Padrão Dm
a eí
m sn
p ci
o ro
it
ço
ãt
oa
l
m
e
n
t
e
q
u
a
l
i
f
i
c
a
d
o
(
F
Q
D
N
)
,
i
n
s
e
r
i
r
o
s
u
f
i
x
o
i
m
e
d
i
a
t
a
216
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
m
C Padrão De
a en
m st
p ce
o ra
in
çt
ãe
os
d
o
p
r
i
m
e
i
r
o
p
e
r
í
o
d
o
(
.
)
n
o
F
Q
D
N
.
C
e
r
t
i
f
i
q
u
e
-
s
e
d
e
q
u
e
e
217
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
s
C Padrão Dt
a ee
m sn
p co
o rm
ie
çd
ãe
oh
o
s
t
c
o
m
p
o
s
t
o
s
e
j
a
r
e
s
o
l
ú
v
e
l
l
o
c
a
l
m
e
n
t
e
e
o
e
n
d
e
r
e
ç
o
I
P
218
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
a
C Padrão Ds
a es
m so
p cc
o ri
ia
çd
ão
os
e
j
a
a
c
e
s
s
í
v
e
l
a
t
r
a
v
é
s
d
a
r
e
d
e
f
a
v
o
r
e
c
i
d
a
.
m P
o a
n r
i a
t m
o o
r n
_ i
s t
219
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
c o
C
r Padrão Dr
a
i ea
m
p sr
tp cs
o
s re
ir
çv
ãi
oç
o
s
d
e
n
t
r
o
d
o
d
o
m
í
n
i
o
v
i
r
t
u
a
l
,
a
d
i
c
i
o
n
e
e
s
t
e
p
a
r
â
m
e
t
r
o
220
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
c
C Padrão Do
a em
m su
p cm
o ra
il
çi
ãs
ot
a
d
e
s
c
r
i
p
t
s
p
a
r
a
m
o
n
i
t
o
r
a
r
.
N
o
t
e
:
Q
u
a
n
d
o
o
s
s
c
r
i
p
t
s
d
e
221
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
m
C Padrão Do
a en
m si
p ct
o ro
ir
ça
ãm
oe
n
t
o
f
o
r
e
m
u
s
a
d
o
s
,
a
s
o
p
e
r
a
ç
õ
e
s
d
e
s
t
a
r
t
e
m
i
g
r
a
t
e
_
f
r
o
m
222
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
s
C Padrão De
a er
m sã
p co
o rc
io
çn
ãc
ol
u
í
d
a
s
s
o
m
e
n
t
e
q
u
a
n
d
o
t
o
d
o
s
o
s
s
c
r
i
p
t
s
d
e
m
o
n
i
t
o
r
a
m
e
n
t
223
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o
C Padrão Dt
a ei
m sv
p ce
o rr
ie
çm
ãs
oi
d
o
c
o
n
c
l
u
í
d
o
s
c
o
m
s
u
c
e
s
s
o
.
C
e
r
t
i
f
i
q
u
e
-
s
e
d
e
d
e
f
i
n
i
r
o
224
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
t
C Padrão De
a em
m sp
p co
o rl
ii
çm
ãi
ot
e
d
e
s
t
a
s
o
p
e
r
a
ç
õ
e
s
p
a
r
a
a
c
o
m
o
d
a
r
e
s
t
e
a
t
r
a
s
o
a true S
u e
t a
o j
s u
e s
225
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
t t
C
_ Padrão Da
a
u ed
m
t so
ip cp
o
l ra
i ir
z ça
a ãt
t or
i u
o e
n ,
_ o
c a
p g
u e
n
t
e
d
e
t
e
c
t
a
r
á
o
n
ú
m
e
r
o
d
e
d
o
m
a
i
n
U
'
s
v
C
P
U
s
d
e
v
i
226
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
r
C Padrão Ds
a eh
m s,
p ce
o ro
ic
ço
ãl
oo
c
a
r
á
n
a
u
t
i
l
i
z
a
ç
ã
o
d
a
C
P
U
d
o
r
e
c
u
r
s
o
q
u
a
n
d
o
o
m
o
n
i
t
o
r
f
o
227
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
r
C Padrão De
a ex
m se
p cc
o ru
it
ça
ãd
oo
.
a true S
u e
t f
o o
s r
e d
t e
_ f
u i
t n
i i
l d
i o
z c
a o
t m
i o
o v
n e
_ r
h d
v a
_ d
m e
e i
m r
o o
r ,
y o
a
g
e
n
t
e
d
e
t
e
c
t
a
r
á
o
228
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
n
C Padrão Dú
a em
m se
p cr
o ro
id
çe
ãM
oa
x
m
e
m
o
r
y
d
e
v
i
r
s
h
,
e
o
c
o
l
o
c
a
r
á
n
o
h
v
_
m
e
m
o
r
y
u
t
i
l
i
z
a
ç
ã
o
229
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
d
C Padrão Da
a ef
m so
p cn
o rt
ie
çq
ãu
oa
n
d
o
o
m
o
n
i
t
o
r
f
o
r
e
x
e
c
u
t
a
d
o
.
230
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
a
C Padrão Dd
a eo
m sn
p co
o rq
ie
çm
ãu
om
i
g
r
a
r
U
R
I
.
S
e
n
ã
o
e
s
t
i
v
e
r
d
e
f
i
n
i
d
o
,
o
p
o
r
t
o
s
e
r
á
u
m
p
o
r
t
231
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o
C Padrão Da
a el
m st
p co
o ra
il
çe
ãa
ot
ó
r
i
o
.
s C
n a
a m
p i
s n
h h
o o
t p
a
r
a
o
d
i
r
e
t
ó
r
i
o
d
e
i
n
s
t
a
n
t
â
n
e
o
s
o
n
d
e
a
i
232
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
m
C Padrão Da
a eg
m se
p cm
o rd
ia
çm
ãá
oq
u
i
n
a
v
i
r
t
u
a
l
s
e
r
á
a
r
m
a
z
e
n
a
d
a
.
Q
u
a
n
d
o
e
s
t
e
p
a
r
â
m
e
t
r
o
f
233
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
o
C Padrão Dr
a ed
m se
p cf
o ri
in
çi
ãd
oo
,
o
e
s
t
a
d
o
d
e
R
A
M
d
a
m
á
q
u
i
n
a
v
i
r
t
u
a
l
s
e
r
á
s
a
l
v
o
e
m
u
m
a
r
q
u
234
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
i
C Padrão Dv
a eo
m sn
p co
o rd
ii
çr
ãe
ot
ó
r
i
o
d
e
i
n
s
t
a
n
t
â
n
e
o
s
q
u
a
n
d
o
p
a
r
a
d
o
.
S
e
a
o
i
n
i
c
i
a
r
u
m
a
r
235
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
q
C Padrão Du
a ei
m sv
p co
o rd
ie
çe
ãs
ot
a
d
o
e
s
t
i
v
e
r
p
r
e
s
e
n
t
e
p
a
r
a
o
d
o
m
í
n
i
o
,
o
d
o
m
í
n
i
o
s
e
r
á
r
e
s
236
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
t
C Padrão Da
a eu
m sr
p ca
o rd
io
çp
ãa
or
a
o
m
e
s
m
o
e
s
t
a
d
o
e
m
q
u
e
e
s
t
a
v
a
a
n
t
e
s
d
e
t
e
r
p
a
r
a
d
o
p
o
r
ú
l
t
237
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
i
C Padrão Dm
a eo
m s.
p cE
o rs
it
ça
ão
op
ç
ã
o
é
i
n
c
o
m
p
a
t
í
v
e
l
c
o
m
a
o
p
ç
ã
o
f
o
r
c
e
_
s
t
o
p
.
Além das opções de recursos VirtualDomain, você pode configurar a opção allow-migrate metadados
para permitir a migração ao vivo do recurso para outro nó. Quando esta opção é configurada para true, o
recurso pode ser migrado sem perda de estado. Quando esta opção for definida para false, que é o
estado padrão, o domínio virtual será desligado no primeiro nó e então reiniciado no segundo nó quando
ele for movido de um nó para o outro.
238
CAPÍTULO 24. CONFIGURAÇÃO DE UM DOMÍNIO VIRTUAL COMO UM RECURSO
Use o seguinte procedimento para criar um recurso VirtualDomain em um cluster para uma máquina
virtual que você tenha criado anteriormente:
2. Copie o arquivo de configuração da máquina virtual xml para todos os outros nós de cluster que
poderão executar o convidado, no mesmo local em cada nó.
3. Assegurar que todos os nós autorizados a executar o domínio virtual tenham acesso aos
dispositivos de armazenamento necessários para esse domínio virtual.
4. Testar separadamente que o domínio virtual pode iniciar e parar em cada nó que irá executar o
domínio virtual.
6. Configure o recurso VirtualDomain com o comando pcs resource create. Por exemplo, o
seguinte comando configura um recurso VirtualDomain chamado VM. Como a opção allow-
migrate está configurada para true a pcs move VM nodeX seria feito como uma migração ao
vivo.
Neste exemplo migration_transport está configurado para ssh. Observe que para que a
migração SSH funcione corretamente, o registro sem chave deve funcionar entre nós.
239
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Opção Descrição
240
CAPÍTULO 25. QUÓRUM DE CLUSTER
Opção Descrição
Para maiores informações sobre a configuração e utilização destas opções, consulte a página de manual
votequorum(5).
A série de comandos a seguir modifica a opção do quorum wait_for_all e exibe o status atualizado da
opção. Note que o sistema não permite executar este comando enquanto o cluster estiver em
execução.
241
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
ATENÇÃO
A mudança dos votos esperados em um grupo vivo deve ser feita com extrema
cautela. Se menos de 50% do agrupamento estiver funcionando porque você
mudou manualmente os votos esperados, então os outros nós do agrupamento
podem ser iniciados separadamente e executar serviços de agrupamento, causando
corrupção de dados e outros resultados inesperados. Se você alterar este valor,
você deve garantir que o parâmetro wait_for_all esteja ativado.
O seguinte comando define os votos esperados no conjunto vivo para o valor especificado. Isto afeta
apenas o live cluster e não altera o arquivo de configuração; o valor de expected_votes é redefinido
para o valor no arquivo de configuração no caso de uma recarga.
Em uma situação em que você sabe que o agrupamento é inquirido, mas quer que o agrupamento
prossiga com o gerenciamento de recursos, você pode usar o comando pcs quorum unblock para
evitar que o agrupamento espere por todos os nós ao estabelecer o quorum.
NOTA
Este comando deve ser usado com extrema cautela. Antes de emitir este comando, é
imperativo garantir que os nós que não estão atualmente no cluster sejam desligados e
não tenham acesso a recursos compartilhados.
242
CAPÍTULO 25. QUÓRUM DE CLUSTER
Recomenda-se que um dispositivo de quorum seja executado em uma rede física diferente no
mesmo local que o aglomerado que utiliza o dispositivo de quorum. O ideal é que o host do
dispositivo de quorum esteja em um rack separado do cluster principal, ou pelo menos em uma
PSU separada e não no mesmo segmento de rede que o anel ou anéis corosync.
Iniciar o serviço pcsd e habilitar pcsd no início do sistema no host do dispositivo quorum.
ffsplit: fifty-fifty split. Isto proporciona exatamente um voto para a partição com o maior
número de nós ativos.
lms: último homem de pé. Se o nó é o único que resta no cluster que pode ver o servidor
qnetd, então ele retorna uma votação.
ATENÇÃO
1. No nó que você usará para hospedar seu dispositivo de quórum, configure o dispositivo de
quórum com o seguinte comando. Este comando configura e inicia o dispositivo de quorum
modelo net e configura o dispositivo para iniciar na inicialização.
Após configurar o dispositivo do quorum, você pode verificar seu status. Isto deve mostrar que
o daemon corosync-qnetd está funcionando e, neste ponto, não há clientes conectados a ele.
A opção de comando --full fornece uma saída detalhada.
244
CAPÍTULO 25. QUÓRUM DE CLUSTER
3. De um dos nós do cluster existente, autentique o usuário hacluster no nó que está hospedando
o dispositivo de quorum. Isto permite que pcs no cluster se conecte a pcs no host qdevice,
mas não permite que pcs no host qdevice se conecte a pcs no cluster.
Votequorum information
----------------------
Expected votes: 2
Highest expected: 2
Total votes: 2
Quorum: 1
Flags: 2Node Quorate
Membership information
----------------------
Nodeid Votes Qdevice Name
1 1 NR node1 (local)
2 1 NR node2
245
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O comando pcs quorum status mostra o status de tempo de execução do quorum, indicando
que o dispositivo do quorum está em uso. Os significados dos valores de status das informações
de associação do Qdevice para cada nó de agrupamento são os seguintes:
A/NA
V/NV
MW/NMW
Votequorum information
----------------------
Expected votes: 3
Highest expected: 3
Total votes: 3
Quorum: 2
Flags: Quorate Qdevice
Membership information
246
CAPÍTULO 25. QUÓRUM DE CLUSTER
----------------------
Nodeid Votes Qdevice Name
1 1 A,V,NMW node1 (local)
2 1 A,V,NMW node2
0 1 Qdevice
Qdevice-net information
----------------------
Cluster name: mycluster
QNetd host: qdevice:5403
Algorithm: ffsplit
Tie-breaker: Node with lowest node ID
State: Connected
Do lado do dispositivo do quorum, você pode executar o seguinte comando de status, que
mostra o status do daemon corosync-qnetd.
247
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Você pode alterar a configuração de um dispositivo de quorum com o comando pcs quorum device
update.
ATENÇÃO
Para mudar a opção host do modelo net do dispositivo quorum, use os comandos
pcs quorum device remove e pcs quorum device add para configurar
corretamente a configuração, a menos que o antigo e o novo host sejam a mesma
máquina.
248
CAPÍTULO 25. QUÓRUM DE CLUSTER
node1: Succeeded
node2: Succeeded
Corosync configuration reloaded
Disabling corosync-qdevice...
node1: corosync-qdevice disabled
node2: corosync-qdevice disabled
Stopping corosync-qdevice...
node1: corosync-qdevice stopped
node2: corosync-qdevice stopped
Removing qdevice certificates from nodes...
node1: Succeeded
node2: Succeeded
Depois de remover um dispositivo de quórum, você deve ver a seguinte mensagem de erro ao exibir o
status do dispositivo de quórum.
Para desativar e parar um dispositivo de quorum no host do dispositivo de quorum e excluir todos os
seus arquivos de configuração, use o seguinte comando.
249
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O cluster passa informações sobre o evento para o agente por meio de variáveis ambientais. Os agentes
podem fazer qualquer coisa com estas informações, como enviar uma mensagem de e-mail ou log para
um arquivo ou atualizar um sistema de monitoramento.
Se as amostras de agentes de alerta não atenderem às suas necessidades, você pode escrever
seus próprios agentes de alerta para que um alerta de Pacemaker seja chamado.
Para utilizar um dos agentes de alerta de amostra, você deve instalar o agente em cada nó do
aglomerado. Por exemplo, o seguinte comando instala o script alert_file.sh.sample como alert_file.sh.
Após ter instalado o roteiro, você pode criar um alerta que utiliza o roteiro.
O exemplo a seguir configura um alerta que utiliza o agente de alerta alert_file.sh instalado para
registrar eventos em um arquivo. Os agentes de alerta funcionam como o usuário hacluster, que tem
um conjunto mínimo de permissões.
Este exemplo cria o arquivo de registro pcmk_alert_file.log que será usado para registrar os eventos.
Ele então cria o agente de alerta e adiciona o caminho para o arquivo de registro como seu destinatário.
# touch /var/log/pcmk_alert_file.log
# chown hacluster:haclient /var/log/pcmk_alert_file.log
# chmod 600 /var/log/pcmk_alert_file.log
# pcs alert create id=alert_file description="Log events to a file."
path=/var/lib/pacemaker/alert_file.sh
# pcs alert recipient add alert_file id=my-alert_logfile value=/var/log/pcmk_alert_file.log
250
CAPÍTULO 26. ACIONAMENTO DE SCRIPTS PARA EVENTOS DE CLUSTER
O exemplo seguinte instala o agente alert_smtp.sh e depois configura um alerta que usa o agente de
alerta instalado para enviar eventos de cluster como mensagens de e-mail. Após configurar o alerta,
este exemplo configura um destinatário e exibe a configuração do alerta.
Múltiplos agentes de alerta podem ser configurados; o grupo chamará todos eles para cada evento. Os
agentes de alerta serão chamados apenas nos nós de agrupamento. Eles serão chamados para eventos
envolvendo nós Remotos de Pacemaker, mas nunca serão chamados sobre esses nós.
O exemplo a seguir cria um alerta simples que ligará para myscript.sh para cada evento.
251
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
pcs alert update alert-id [path=path] [description=description] [options [option=value]...] [meta [meta-
option=value]...]
Alternativamente, você pode executar o comando pcs alert delete, que é idêntico ao comando pcs
alert remove. Tanto o comando pcs alert delete quanto o pcs alert remove permitem especificar mais
de um alerta a ser excluído.
O destinatário pode ser qualquer coisa que o agente de alerta possa reconhecer: an Endereço IP, um
endereço de e-mail, um nome de arquivo, ou qualquer coisa que o agente em particular suporte.
Alternativamente, você pode executar o comando pcs alert recipient delete, que é idêntico ao
comando pcs alert recipient remove. Tanto o comando pcs alert recipient remove como o pcs alert
recipient delete permitem remover mais de um receptor de alerta.
252
CAPÍTULO 26. ACIONAMENTO DE SCRIPTS PARA EVENTOS DE CLUSTER
O exemplo seguinte configura um alerta que chama o script myscript.sh e depois adiciona dois
destinatários ao alerta. O primeiro destinatário tem uma identificação de my-alert-recipient1 e o
segundo destinatário tem uma identificação de my-alert-recipient2. O script será chamado duas vezes
para cada evento, com cada chamada usando um timeout de 15 segundos. Uma chamada será passada
ao destinatário someuser@example.com com um timestamp no formato %H:%M, enquanto a outra
chamada será passada ao destinatário otheruser@example.com com um timestamp no formato
Observe que enquanto você deve instalar os próprios agentes de alerta em cada nó de um cluster, você
precisa executar os comandos pcs apenas uma vez.
Os seguintes comandos criam um alerta simples, adicionam dois destinatários ao alerta e exibem os
valores configurados.
253
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Estes comandos seguintes acrescentam um segundo alerta e um destinatário para esse alerta. O ID do
alerta para o segundo alerta é my-alert e o valor do destinatário é my-other-recipient. Como nenhuma
identificação do destinatário é especificada, o sistema fornece uma identificação do destinatário de my-
alert-recipient.
Os seguintes comandos modificam os valores de alerta para o alerta my-alert e para o destinatário my-
alert-recipient.
254
CAPÍTULO 26. ACIONAMENTO DE SCRIPTS PARA EVENTOS DE CLUSTER
255
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
256
CAPÍTULO 26. ACIONAMENTO DE SCRIPTS PARA EVENTOS DE CLUSTER
Agentes de alerta podem ser chamados sem destinatário (se nenhum estiver configurado),
portanto, o agente deve ser capaz de lidar com esta situação, mesmo que só saia nesse caso.
Os usuários podem modificar a configuração em etapas, e adicionar um destinatário mais tarde.
Se mais de um destinatário estiver configurado para um alerta, o agente de alerta será chamado
uma vez por destinatário. Se um agente não for capaz de operar simultaneamente, ele deverá
ser configurado com apenas um único destinatário. O agente é livre, entretanto, para interpretar
o destinatário como uma lista.
Quando ocorre um evento de cluster, todos os alertas são disparados ao mesmo tempo em que
os processos são separados. Dependendo de quantos alertas e destinatários são configurados
e do que é feito dentro dos agentes de alerta, pode ocorrer uma explosão de carga significativa.
O agente pode ser escrito para levar isto em consideração, por exemplo, enfileirando ações de
recursos intensivos em alguma outra instância, em vez de executá-las diretamente.
Os agentes de alerta são executados como o usuário hacluster, que tem um conjunto mínimo
de permissões. Se um agente requer privilégios adicionais, recomenda-se configurar sudo para
permitir que o agente execute os comandos necessários como outro usuário com os privilégios
apropriados.
Tenha o cuidado de validar e higienizar parâmetros configurados pelo usuário, tais como
CRM_alert_timestamp (cujo conteúdo é especificado pelo usuário-configurado timestamp-
format), CRM_alert_recipient, e todas as opções de alerta. Isto é necessário para proteger
contra erros de configuração. Além disso, se algum usuário pode modificar a CIB sem ter acesso
aos nós de cluster em hacluster, esta é uma preocupação potencial de segurança também, e o
usuário deve evitar a possibilidade de injeção de código.
Se um cluster contém recursos com operações para as quais o parâmetro on-fail está definido
para fence, haverá múltiplas notificações de falha da cerca, uma para cada recurso para o qual
este parâmetro está definido mais uma notificação adicional. Tanto o pacemaker-fenced como
o pacemaker-controld enviarão notificações. O marcapasso realiza apenas uma operação de
cerca real neste caso, entretanto, não importa quantas notificações sejam enviadas.
NOTA
257
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Para resolver estes problemas, a Pacemaker oferece suporte total para a capacidade de configurar
clusters de alta disponibilidade que abrangem vários locais através do uso de um gerente de ingressos
para clusters de estande.
Você pode pensar na formação de um estande como um aglomerado sobreposto que consiste em
clusters funcionando em locais diferentes, onde todos os clusters originais são independentes uns dos
outros. É o serviço de estande que comunica aos aglomerados se foi concedido um bilhete, e é o
Pacemaker que determina se os recursos devem ser administrados em um aglomerado com base em
uma restrição de bilhetes do Pacemaker. Isto significa que ao utilizar o gerenciador de bilhetes, cada um
dos clusters pode administrar seus próprios recursos, bem como os recursos compartilhados. Por
exemplo, pode haver recursos A, B e C rodando apenas em um cluster, recursos D, E e F rodando
apenas no outro cluster, e recursos G e H rodando em qualquer um dos dois clusters conforme
determinado por um ticket. Também é possível ter um recurso adicional J que poderia funcionar em
qualquer um dos dois aglomerados, conforme determinado por um bilhete separado.
258
CAPÍTULO 27. CONFIGURAÇÃO DE CLUSTERS DE MÚLTIPLOS LOCAIS COM PACEMAKER
Estes comandos de exemplo assumem que os recursos de cluster para um serviço Apache foram
configurados como parte do grupo de recursos apachegroup para cada cluster. Não é necessário que
os recursos e grupos de recursos sejam os mesmos em cada cluster para configurar uma restrição de
ingressos para esses recursos, já que a instância Pacemaker para cada cluster é independente, mas isso
é um cenário de failover comum.
Observe que a qualquer momento no procedimento de configuração você pode entrar no comando pcs
booth config para exibir a configuração do estande para o nó ou cluster atual ou o comando pcs booth
status para exibir o status atual do estande no nó local.
Talvez seja necessário modificar quais portos estão abertos para atender às condições locais.
Para mais informações sobre as portas que são exigidas pelo suplemento de alta disponibilidade
da Red Hat, veja Habilitação de portas para o suplemento de alta disponibilidade .
5. Criar um bilhete para a configuração do estande. Este é o bilhete que será usado para definir a
restrição de recursos que permitirá que os recursos funcionem somente quando este bilhete
tiver sido concedido ao conjunto.
Este procedimento básico de configuração de failover utiliza apenas um ticket, mas você pode
criar tickets adicionais para cenários mais complicados onde cada ticket está associado a um
recurso ou recursos diferentes.
259
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
7. Do nó do árbitro, puxe a configuração do estande para o árbitro. Se você não o tiver feito
anteriormente, deve primeiro autenticar pcs para o nó do qual você está puxando a
configuração.
8. Puxe a configuração da cabine para o outro conjunto e sincronize com todos os nós desse
conjunto. Como no caso do nó árbitro, se você não o fez anteriormente, deve primeiro
autenticar pcs para o nó do qual você está puxando a configuração.
NOTA
Você não deve iniciar ou ativar manualmente Booth em nenhum dos nós dos
agrupamentos, uma vez que Booth funciona como um recurso de Pacemaker
nesses agrupamentos.
10. Configure Booth para funcionar como um recurso de cluster em ambos os locais de cluster. Isto
cria um grupo de recursos com booth-ip e booth-service como membros desse grupo.
11. Adicione uma restrição de bilhetes ao grupo de recursos que você definiu para cada grupo.
Você pode digitar o seguinte comando para exibir as restrições de bilhetes atualmente
configuradas.
12. Conceda o bilhete que você criou para esta configuração ao primeiro grupo.
Note que não é necessário ter restrições de ingressos definidas antes de conceder um bilhete.
Uma vez que você tenha inicialmente concedido um bilhete para um agrupamento, então Booth
assume o gerenciamento de bilhetes, a menos que você anule isto manualmente com o
comando pcs booth ticket revoke. Para obter informações sobre os comandos de
administração pcs booth, consulte a tela de ajuda do PCS para o comando pcs booth.
260
CAPÍTULO 27. CONFIGURAÇÃO DE CLUSTERS DE MÚLTIPLOS LOCAIS COM PACEMAKER
É possível adicionar ou remover bilhetes a qualquer momento, mesmo após a conclusão deste
procedimento. Após adicionar ou remover um bilhete, entretanto, deve-se sincronizar os arquivos de
configuração com os outros nós e clusters, bem como com o árbitro e conceder o bilhete, como é
mostrado neste procedimento.
Para informações sobre comandos adicionais de administração de estandes que você pode usar para
limpar e remover arquivos de configuração de estandes, ingressos e recursos, consulte a tela de ajuda
do PCS para o comando pcs booth.
261
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
O serviço pacemaker_remote permite escalar além do limite de 32 nós de suporte da Red Hat
para o RHEL 8.1.
cluster node
remote node
guest node
pacemaker_remote
A pilha de cluster (pacemaker e corosync), rodando nos nós do cluster, conecta-se ao serviço
pacemaker_remote nos nós remotos, permitindo que eles se integrem ao cluster.
A pilha de cluster (pacemaker e corosync), rodando nos nós de cluster, lança os nós
convidados e se conecta imediatamente ao serviço pacemaker_remote nos nós convidados,
permitindo que eles se integrem ao cluster.
A principal diferença entre os nós de cluster e os nós remoto e de convidado que os nós de cluster
gerenciam é que os nós remoto e de convidado não estão rodando a pilha de cluster. Isto significa que
os nós remoto e de convidado têm as seguintes limitações:
Por outro lado, os nós remotos e os nós convidados não estão vinculados aos limites de escalabilidade
associados com a pilha de agregados.
Além dessas limitações observadas, os nós remotos e convidados comportam-se como nós de cluster
no que diz respeito ao gerenciamento de recursos, e os nós remotos e convidados podem eles mesmos
ser cercados. O cluster é totalmente capaz de gerenciar e monitorar recursos em cada nó remoto e
262
CAPÍTULO 28. INTEGRAÇÃO DE NÓS NÃO-COROASYNC EM UM CLUSTER: O SERVIÇO PACEMAKER_REMOTE
convidado: Você pode criar restrições contra eles, colocá-los em espera ou executar qualquer outra
ação nos nós de cluster com os comandos pcs. Os nós remoto e de convidado aparecem na saída de
status do cluster exatamente como os nós de cluster aparecem.
O comando pcs cluster node add-guest estabelece o authkey para nós convidados e o pcs cluster
node add-remote estabelece o authkey para nós remotos.
Além das opções de recursos VirtualDomain, as opções de metadados definem o recurso como um nó
convidado e definem os parâmetros de conexão. Você define estas opções de recurso com o comando
pcs cluster node add-guest. Tabela 28.1, “Opções de Metadados para Configuração de Recursos KVM
como Nós Remotos” descreve estas opções de metadados.
Tabela 28.1. Opções de Metadados para Configuração de Recursos KVM como Nós Remotos
263
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
3. Dê a cada máquina virtual um endereço de rede estático e um nome de host único, que deve ser
conhecido por todos os nós. Para informações sobre como definir um endereço IP estático para
a máquina virtual convidada, consulte o Virtualization Deployment and Administration Guide.
4. Se você ainda não o fez, autentique pcs ao nó que você estará integrando como um nó de
busca.
6. Depois de criar o recurso VirtualDomain, você pode tratar o nó convidado da mesma forma que
trataria qualquer outro nó do agrupamento. Por exemplo, você pode criar um recurso e colocar
uma restrição de recursos no recurso a ser executado no nó convidado como nos comandos a
seguir, que são executados a partir de um nó de cluster. Você pode incluir nós convidados em
grupos, o que permite agrupar um dispositivo de armazenamento, sistema de arquivos e VM.
264
CAPÍTULO 28. INTEGRAÇÃO DE NÓS NÃO-COROASYNC EM UM CLUSTER: O SERVIÇO PACEMAKER_REMOTE
C Padrão D
a e
m s
p c
o r
i
ç
ã
o
r 0 T
e e
c m
o p
n o
n e
e m
c s
t e
_ g
i u
n n
t d
e o
r s
v p
a a
l r
a
e
s
p
e
r
a
r
a
n
265
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
t
C Padrão De
a es
m sd
p ce
o rt
ie
çn
ãt
oa
r
r
e
l
i
g
a
r
a
u
m
n
ó
r
e
m
o
t
o
a
p
ó
s
u
m
a
c
o
n
e
x
ã
o
a
t
i
v
a
c
o
m
o
n
ó
r
e
266
CAPÍTULO 28. INTEGRAÇÃO DE NÓS NÃO-COROASYNC EM UM CLUSTER: O SERVIÇO PACEMAKER_REMOTE
m
C Padrão Do
a et
m so
p ct
o re
ir
çs
ãi
od
o
c
o
r
t
a
d
a
.
E
s
t
a
e
s
p
e
r
a
é
r
e
c
o
r
r
e
n
t
e
.
S
e
a
r
e
c
o
n
e
x
ã
o
f
a
l
267
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
h
C Padrão Da
a er
m sa
p cp
o ró
is
ço
ãp
oe
r
í
o
d
o
d
e
e
s
p
e
r
a
,
u
m
a
n
o
v
a
t
e
n
t
a
t
i
v
a
d
e
r
e
c
o
n
e
x
ã
o
s
e
r
á
f
268
CAPÍTULO 28. INTEGRAÇÃO DE NÓS NÃO-COROASYNC EM UM CLUSTER: O SERVIÇO PACEMAKER_REMOTE
e
C Padrão Di
a et
m sa
p ca
o rp
ió
çs
ãa
oo
b
s
e
r
v
a
ç
ã
o
d
o
t
e
m
p
o
d
e
e
s
p
e
r
a
.
Q
u
a
n
d
o
e
s
t
a
o
p
ç
ã
o
e
s
t
i
v
e
269
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
r
C Padrão De
a em
m su
p cs
o ro
i,
ço
ãP
oa
c
e
m
a
k
e
r
c
o
n
t
i
n
u
a
r
á
t
e
n
t
a
n
d
o
a
l
c
a
n
ç
a
r
e
c
o
n
e
c
t
a
r
-
s
e
a
270
CAPÍTULO 28. INTEGRAÇÃO DE NÓS NÃO-COROASYNC EM UM CLUSTER: O SERVIÇO PACEMAKER_REMOTE
o
C Padrão Dn
a eó
m sr
p ce
o rm
io
çt
ão
oi
n
d
e
f
i
n
i
d
a
m
e
n
t
e
a
p
ó
s
c
a
d
a
i
n
t
e
r
v
a
l
o
d
e
e
s
p
e
r
a
.
271
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
v d
C
e Padrão Do
a
r er
m sa
p cq
o ru
ie
çs
ãe
oc
o
n
e
c
t
a
r
.
E
s
t
e
p
o
d
e
s
e
r
u
m
e
n
d
e
r
e
ç
o
I
P
o
u
u
m
n
o
m
e
d
e
h
o
s
t
.
272
CAPÍTULO 28. INTEGRAÇÃO DE NÓS NÃO-COROASYNC EM UM CLUSTER: O SERVIÇO PACEMAKER_REMOTE
C
p Padrão DP
a
o eo
m
r sr
p
t ct
o ra
iT
çC
ãP
op
a
r
a
c
o
n
e
x
ã
o
.
NOTA
4. Se você ainda não o fez, autentique pcs no nó que você estará adicionando como um nó
remoto.
273
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
ATENÇÃO
7. Configurar recursos de esgrima para o nó remoto. Os nós remotos são cercados da mesma
forma que os nós de cluster. Configurar os recursos de cercas para uso com nós remotos da
mesma forma que você faria com os nós de cluster. Observe, entretanto, que os nós remotos
nunca podem iniciar uma ação de vedação. Somente os nós de cluster são capazes de
realmente executar uma operação de cerca contra outro nó.
1. Parar o recurso de conexão do nó com o pcs resource disable resourcenameque tirará todos
os serviços do nó. Para nós convidados, isto também irá parar o VM, portanto o VM deve ser
iniciado fora do cluster (por exemplo, usando virsh) para realizar qualquer manutenção.
3. Quando estiver pronto para retornar o nó ao agrupamento, reative o recurso com o pcs
resource enable.
275
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Se você precisar mover um recurso individual para fora do nó no qual ele está atualmente
rodando sem parar esse recurso, você pode usar o comando pcs resource move para mover o
recurso para um nó diferente. Para obter informações sobre o comando pcs resource move,
consulte Movimentação manual de recursos em cluster .
Quando você executa o comando pcs resource move, isto acrescenta uma restrição ao
recurso para impedi-lo de rodar no nó no qual ele está rodando atualmente. Quando você
estiver pronto para mover o recurso de volta, poderá executar o comando pcs resource clear
ou pcs constraint delete para remover a restrição. Isto não necessariamente move os recursos
de volta para o nó original, no entanto, já que onde os recursos podem ser executados naquele
ponto depende de como você configurou seus recursos inicialmente. Você pode realocar um
recurso para seu nó preferido com o comando pcs resource relocate run, como descrito em
Movendo um recurso para seu nó preferido .
Se você precisar parar completamente um recurso em execução e impedir que o cluster o inicie
novamente, você pode usar o comando pcs resource disable. Para informações sobre o
comando pcs resource disable, consulte Habilitação, desativação e proibição de recursos de
cluster.
Se você quiser impedir que o Pacemaker tome qualquer ação para um recurso (por exemplo, se
você quiser desativar ações de recuperação enquanto realiza a manutenção no recurso, ou se
você precisar recarregar as configurações /etc/sysconfig/pacemaker ), use o comando pcs
resource unmanage, conforme descrito em Configurando um recurso para o modo não
gerenciado. Os recursos de conexão remota do pacemaker nunca devem ser não gerenciados.
Se você precisar colocar o cluster em um estado onde nenhum serviço será iniciado ou
interrompido, você pode definir a propriedade do cluster maintenance-mode. Colocando o
cluster em modo de manutenção, todos os recursos são automaticamente desmanchados. Para
informações sobre como colocar o cluster em modo de manutenção, consulte Colocando um
cluster em modo de manutenção.
Se você precisar atualizar os pacotes que compõem os Add-Ons RHEL de Alta Disponibilidade
e Armazenamento Resiliente, você pode atualizar os pacotes em um nó de cada vez ou em todo
o cluster como um todo, conforme resumido em Atualizando um cluster de alta disponibilidade
do Red Hat Enterprise Linux.
Se você precisar fazer manutenção em um nó remoto do Pacemaker, você pode remover esse
nó do cluster desativando o recurso do nó remoto, como descrito em Atualização de nós
remotos e nós convidados.
Quando um nó de cluster está em modo de espera, o nó não é mais capaz de hospedar recursos.
276
CAPÍTULO 29. EXECUÇÃO DE MANUTENÇÃO DE CLUSTERS
Quando um nó de cluster está em modo de espera, o nó não é mais capaz de hospedar recursos.
Quaisquer recursos atualmente ativos no nó serão movidos para outro nó.
O comando a seguir coloca o nó especificado em modo de espera. Se você especificar o --all, este
comando coloca todos os nós em modo de espera.
Você pode usar este comando ao atualizar os pacotes de um recurso. Você também pode usar este
comando ao testar uma configuração, para simular a recuperação sem realmente desligar um nó.
O seguinte comando remove o nó especificado do modo de espera. Após executar este comando, o nó
especificado é então capaz de hospedar recursos. Se você especificar o --all, este comando remove
todos os nós do modo standby.
Note que ao executar o comando pcs node standby, isto impede que os recursos sejam executados no
nó indicado. Quando você executa o comando pcs node unstandby, isto permite que os recursos sejam
executados no nó indicado. Isto não necessariamente move os recursos de volta para o nó indicado;
onde os recursos podem ser executados naquele ponto depende de como você configurou seus
recursos inicialmente.
Para mover todos os recursos funcionando em um nó para um nó diferente, você coloca o nó em modo
de espera.
Você pode mover recursos individualmente especificados de uma das seguintes maneiras.
Você pode usar o comando pcs resource move para mover um recurso de um nó no qual ele
está rodando atualmente.
Você pode usar o comando pcs resource relocate run para mover um recurso para seu nó
preferido, conforme determinado pelo status atual do cluster, restrições, localização dos
recursos e outras configurações.
NOTA
277
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
NOTA
Quando você executa o comando pcs resource move, isto acrescenta uma restrição ao
recurso para impedi-lo de rodar no nó no qual ele está rodando atualmente. Você pode
executar o comando pcs resource clear ou o comando pcs constraint delete para
remover a restrição. Isto não necessariamente move os recursos de volta para o nó
original; onde os recursos podem ser executados naquele ponto depende de como você
configurou seus recursos inicialmente.
Se você especificar o parâmetro --master do comando pcs resource move, o escopo da restrição é
limitado ao papel principal e você deve especificar master_id em vez de resource_id.
Opcionalmente, você pode configurar um parâmetro lifetime para o comando pcs resource move para
indicar um período de tempo em que a restrição deve permanecer. Você especifica as unidades de um
parâmetro lifetime de acordo com o formato definido na ISO 8601, o que requer que você especifique a
unidade como uma letra maiúscula como Y (para anos), M (para meses), W (para semanas), D (para
dias), H (para horas), M (para minutos), e S (para segundos).
Para distinguir uma unidade de minutos(M) de uma unidade de meses(M), é necessário especificar o PT
antes de indicar o valor em minutos. Por exemplo, um parâmetro lifetime de 5M indica um intervalo de
cinco meses, enquanto um parâmetro lifetime de PT5M indica um intervalo de cinco minutos.
Opcionalmente, você pode configurar um --wait[=n] para o comando pcs resource move para indicar o
número de segundos de espera para que o recurso comece no nó de destino antes de retornar 0 se o
recurso for iniciado ou 1 se o recurso ainda não tiver começado. Se você não especificar n, será usado o
tempo limite padrão do recurso.
O seguinte comando move o recurso resource1 para o nó example-node2 e evita que ele volte ao nó
no qual estava originalmente rodando por uma hora e trinta minutos.
O seguinte comando move o recurso resource1 para o nó example-node2 e impede que ele volte ao
nó no qual estava originalmente rodando por trinta minutos.
Se você não especificar nenhum recurso, todos os recursos são realocados para seus nós preferidos.
278
CAPÍTULO 29. EXECUÇÃO DE MANUTENÇÃO DE CLUSTERS
Este comando calcula o nó preferido para cada recurso, ignorando a aderência do recurso. Após calcular
o nó preferido, ele cria restrições de localização que farão com que os recursos se movam para seus nós
preferidos. Uma vez que os recursos tenham sido movidos, as restrições são apagadas
automaticamente. Para remover todas as restrições criadas pelo comando pcs resource relocate run,
você pode digitar o comando pcs resource relocate clear. Para exibir o status atual dos recursos e seu
nó ótimo ignorando a aderência dos recursos, digite o comando pcs resource relocate show.
A partir do Red Hat Enterprise Linux 8.2, você pode especificar que um recurso seja desativado somente
se a desativação do recurso não tiver um efeito sobre outros recursos. Assegurar que este seria o caso
pode ser impossível de fazer à mão quando relações complexas de recursos são estabelecidas.
O comando pcs resource disable --safe desabilita um recurso somente se nenhum outro
recurso for afetado de alguma forma, como por exemplo, ser migrado de um nó para outro. O
comando pcs resource safe-disable é um pseudônimo para o comando pcs resource disable
--safe.
O comando pcs resource disable --safe --no-strict desabilita um recurso somente se nenhum
outro recurso for interrompido ou rebaixado
Note que quando você executa o comando pcs resource ban, isto adiciona uma restrição de
localização -INFINITY ao recurso para impedir que ele funcione no nó indicado. Você pode executar o
comando pcs resource clear ou o comando pcs constraint delete para remover a restrição. Isto não
279
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
necessariamente move os recursos de volta para o nó indicado; onde os recursos podem rodar naquele
ponto depende de como você configurou seus recursos inicialmente.
Se você especificar o parâmetro --master do comando pcs resource ban, o escopo da restrição é
limitado ao papel principal e você deve especificar master_id em vez de resource_id.
Opcionalmente, você pode configurar um parâmetro lifetime para o comando pcs resource ban para
indicar um período de tempo em que a restrição deve permanecer.
Opcionalmente, você pode configurar um --wait[=n] para o comando pcs resource ban para indicar o
número de segundos de espera para que o recurso comece no nó de destino antes de retornar 0 se o
recurso for iniciado ou 1 se o recurso ainda não tiver começado. Se você não especificar n, será usado o
tempo limite padrão do recurso.
O seguinte comando define os recursos para o modo managed, que é o estado padrão.
Você pode especificar o nome de um grupo de recursos com o comando pcs resource manage ou pcs
resource unmanage. O comando atuará sobre todos os recursos do grupo, de modo que você possa
definir todos os recursos de um grupo para o modo managed ou unmanaged com um único comando
e, em seguida, gerenciar os recursos contidos individualmente.
Para colocar um cluster em modo de manutenção, use o seguinte comando para definir a propriedade
do cluster maintenance-mode para true.
280
CAPÍTULO 29. EXECUÇÃO DE MANUTENÇÃO DE CLUSTERS
Para remover um cluster do modo de manutenção, use o seguinte comando para definir a propriedade
do cluster maintenance-mode para false.
Você pode remover uma propriedade de cluster da configuração com o seguinte comando.
Alternativamente, você pode remover uma propriedade de cluster de uma configuração, deixando o
campo de valor do comando pcs property set em branco. Isto restaura essa propriedade a seu valor
padrão. Por exemplo, se você definiu previamente a propriedade symmetric-cluster para false, o
seguinte comando remove o valor definido da configuração e restaura o valor de symmetric-cluster
para true, que é seu valor padrão.
Rolling Updates: Remover um nó de cada vez do serviço, atualizar seu software e depois integrá-
lo de volta ao cluster. Isto permite que o cluster continue fornecendo serviços e gerenciando
recursos enquanto cada nó é atualizado.
Entire Cluster Update : Pare todo o agrupamento, aplique atualizações em todos os nós e, em
seguida, inicie o backup do agrupamento.
ATENÇÃO
Para uma descrição completa de cada um desses métodos e os procedimentos a seguir para as
atualizações, consulte Práticas recomendadas para a aplicação de atualizações de software em um
Cluster RHEL de alta disponibilidade ou de armazenamento resiliente.
281
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
cluster. Uma vez que pacemaker_remote seja desligado, no entanto, o cluster tentará imediatamente
reconectar-se. Se pacemaker_remote não for reiniciado dentro do tempo limite do monitor do recurso,
o cluster considerará a operação do monitor como falhada.
1. Parar o recurso de conexão do nó com o pcs resource disable resourcenameque tirará todos
os serviços do nó. Para nós convidados, isto também irá parar o VM, portanto o VM deve ser
iniciado fora do cluster (por exemplo, usando virsh) para realizar qualquer manutenção.
3. Quando estiver pronto para retornar o nó ao agrupamento, reative o recurso com o pcs
resource enable.
Este procedimento se aplica às VMs que são usadas como nós de cluster completos, não às VMs
gerenciadas como recursos de cluster (incluindo as VMs usadas como nós convidados) que podem ser
migradas ao vivo sem precauções especiais. Para informações gerais sobre o procedimento mais
completo necessário para atualizar os pacotes que compõem os Add-Ons de Alta Disponibilidade e
Armazenamento Resiliente da RHEL, seja individualmente ou como um todo, consulte Práticas
Recomendadas para Aplicação de Atualizações de Software a um Cluster de Alta Disponibilidade ou
Armazenamento Resiliente da RHEL.
NOTA
1. Se alguma preparação precisar ser feita antes de parar ou mover os recursos ou software em
execução na VM para migrar, execute essas etapas.
282
CAPÍTULO 29. EXECUÇÃO DE MANUTENÇÃO DE CLUSTERS
283
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
Quando o cluster primário cair, os usuários podem usar a interface de comando pcs para falhar
manualmente os recursos para o site de recuperação de desastres. Eles podem então entrar no site do
desastre e promover e iniciar os recursos lá. Uma vez recuperado o cluster primário, os usuários podem
usar a interface de comando pcs para mover manualmente os recursos de volta para o site primário.
A partir do Red Hat Enterprise Linux 8.2, você pode usar o comando pcs para exibir o status do cluster
do site principal e do site de recuperação de desastres a partir de um único nó em ambos os sites.
O local de recuperação de desastres deve ser um aglomerado. Isto torna possível configurá-lo
com as mesmas ferramentas e procedimentos similares ao local principal.
Os clusters e seus recursos devem ser configurados para que os dados sejam sincronizados e o
failover seja possível.
Os nós de agrupamento no local de recuperação não podem ter os mesmos nomes que os nós
no local primário.
O usuário do pcs hacluster deve ser autenticado para cada nó em ambos os clusters no nó a
partir do qual você estará executando os comandos pcs.
NOTA
284
CAPÍTULO 30. CONFIGURAÇÃO DE CLUSTERS DE RECUPERAÇÃO DE DESASTRES
NOTA
Neste exemplo:
O cluster do site de recuperação de desastres será denominado DRsite e será composto pelos
nós z3.example.com e z4.example.com.
2. Criar o cluster que será usado como cluster primário e iniciar os serviços de cluster para o
cluster.
3. Criar o cluster que será usado como o cluster de recuperação de desastres e iniciar os serviços
de cluster para o cluster.
285
Red Hat Enterprise Linux 8 Configuração e gerenciamento de clusters de alta disponibilidade
WARNINGS:
No stonith devices and stonith-enabled is not false
Cluster Summary:
* Stack: corosync
* Current DC: z2.example.com (version 2.0.3-2.el8-2c9cea563e) - partition with quorum
* Last updated: Mon Dec 9 04:10:31 2019
* Last change: Mon Dec 9 04:06:10 2019 by hacluster via crmd on z2.example.com
* 2 nodes configured
* 0 resource instances configured
Node List:
* Online: [ z1.example.com z2.example.com ]
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
WARNINGS:
No stonith devices and stonith-enabled is not false
Cluster Summary:
* Stack: corosync
* Current DC: z4.example.com (version 2.0.3-2.el8-2c9cea563e) - partition with quorum
* Last updated: Mon Dec 9 04:10:34 2019
* Last change: Mon Dec 9 04:09:55 2019 by hacluster via crmd on z4.example.com
* 2 nodes configured
* 0 resource instances configured
Node List:
* Online: [ z3.example.com z4.example.com ]
286
CAPÍTULO 30. CONFIGURAÇÃO DE CLUSTERS DE RECUPERAÇÃO DE DESASTRES
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
Para opções de exibição adicionais para uma configuração de recuperação de desastres, consulte a tela
de ajuda para o comando pcs dr.
287