Você está na página 1de 8

Apostila de apoio

Curso On-Line: Proxmox – Instalando e gerenciando maquinas


virtuais e contêineres.

Update: Proxmox 5

Instrutor: João Batista Correa

[Módulo] Mudanças do Proxmox versão 4 para versão 5:


* Diversos
- Suporte a LVM e LVM Thin por padrão na instalação
- Nova Gui (Posicionamento e telas)
-- Confirmação para exclusão de VM
-- Bulk para atividades em massa
- Baseado no Debian 9 (Stretch)
- Kernel 4.10 ou 4.13 (5.1)
- Novo sistema de importação de maquina virtual

* Storages:
- Novo Disk manager (com SMART monitoring)
- Ceph para storage (mantido pelo Proxmox)
- Sistema de replicação de storages
- Retirado o suporte para DRBD9

* Cluster e HA
- Novo dashboard de Cluster
- Novas funcionalidades HA no GUI
- Possibilidade de uso de HA com dois nós Proxmox e um nó Linux
tradicional
- live migration com local storage

Mais detalhes:
Roadmap: https://pve.proxmox.com/wiki/Roadmap
Anuncio: https://www.proxmox.com/en/news/press-releases/proxmox-ve-5-0
[Módulo] Upgrade e instalação do PVE 4 para PVE 5:
Detalhes de upgrade a serem observados:
→ Testar o Upgrade
→ Fazer backup de tudo

Instalação através de Upgrade


→ Upgrade até a ultima versão do Proxmox 4 usando o apt-get upgrade
(https://pve.proxmox.com/wiki/Package_Repositories#_proxmox_ve_no_subscription_repository)
→ Parar todas as maquinas virtuais e Containers
→ Ao menos 1gb livre na partição Root
→ Se utiliza Ceph, fazer a atualização para a versão Luminous antes
→ Utilizando a console, fazer os procedimentos:

→ Atualizar versão do Proxmox


---
# apt-get update && apt-get dist-upgrade
---

→ Alterar repositórios e executar atualização:


---
# pveversion -v
# sed -i 's/jessie/stretch/g' /etc/apt/sources.list
# sed -i 's/jessie/stretch/g' /etc/apt/sources.list.d/pve-
enterprise.list
# echo "deb http://download.proxmox.com/debian/ceph-luminous stretch
main" > /etc/apt/sources.list.d/ceph.list
# apt-get update
# apt-get dist-upgrade
---
* Obs: Novo display gráfico padrão é o std, ao invés do VGA
anteriormente utilizado.

Informações para upgrade de versões:


https://pve.proxmox.com/wiki/Upgrade_from_4.x_to_5.0

Instalação nova (Recomendado):


Detalhes das opções de instalação:
https://pve.proxmox.com/wiki/Installation

[Módulo] Algumas diferenças no PVE 5:


. Nova GUI, exclusão de VMs
. Bulk action: Execução de comandos em lotes, como desligar ou ligar
várias VMs
. Novo Disk Manager: Utiliza o Smart para monitoramento dos discos

[Módulo] Storages no PVE 5:


. LVM e ThinLVM: https://pve.proxmox.com/wiki/Storage
Tipos de storages LVM suportados. Criar um novo VG e LV LVM em novo
disco seguindo os passos abaixo:
---
# fdisk /dev/sdb (Criar partição do tipo LVM)
# pvcreate /dev/sdb1
# vgcreate StorageLVM /dev/sdb1 (Criar o grupo de volumes)
# lvcreate --type thin-pool StorageLVM/dados -l 100%FREE (Criando o
volume lógico)
---
Adicionar o novo Storage do tipo ThinLVM ao nó pela interface gráfica.

. Replicação: https://pve.proxmox.com/wiki/Storage_Replication
.. Pré-requisito: Funciona somente com storages ZFS Local
.. Configurando Storage ZFS, nas duas maquinas, deve ser o mesmo nome
do Zpool

# zpool create -f ZFSDados /dev/vdc
# zfs set compression=on ZFSDados
---
Detalhes sobre o uso do ZFS:
- https://pve.proxmox.com/wiki/ZFS_on_Linux
- https://pve.proxmox.com/wiki/ZFS:_Tips_and_Tricks
- https://pve.proxmox.com/wiki/Storage:_ZFS
.. Criar o agendamento da replicação em Datacenter > Replication
.. Acompanhar a evolução da replicação no LOG
.. Para restaurar a VM em outro nó, utilizar o mesmo procedimento
mostrado no modulo de cluster de dois nós.

. Ceph: https://pve.proxmox.com/wiki/Ceph_Server

[Módulo] Importação de VMS no PVE 5:

- Importação de outros Hypervisors


# qm importdisk
Fonte de pesquisa:
https://pve.proxmox.com/wiki/Qemu/KVM_Virtual_Machines#_importing_virtual_machines_fr
om_foreign_hypervisors
Outra fonte: https://pve.proxmox.com/pve-docs/qm.1.html

. Para imagens suportadas pelo programa qemu-img


. Exportar a imagem (o disco) do Hypervisor em formato válido
. Copiar para o Proxmox
. Executar os comandos abaixo para criar uma nova maquina e importar o
disco:
---
# qm create 999 -net0 e1000,bridge=vmbr0 -name DebImp -memory 1024
-bootdisk sata0
# qm importdisk 999 vmdeb8.vmdk StorageLocal
---
. Alterar na Gui, em Hardware da VM, o disco para Sata.
. Iniciar VM
. Observações que no Windows, pela exigência de hardware deve-se ter
mais cuidados

[Módulo] Cluster no PVE 5:


https://pve.proxmox.com/wiki/Cluster_Manager

- Cluster com 2 nós


. Funcionamento normal
. Caso um dos nós dê problema e precisemos carregar a VM a partir de
um outro nó (exemplo de uso ZFS com replicação):

---
# pvecm status
# pvecm expected 1
# mv /etc/pve/nodes/A/qemu-server/100.conf /etc/pve/nodes/B/qemu-
server/100.conf
Obs: Em caso de Containers:
# mv /etc/pve/nodes/A/lxc/200.conf /etc/pve/nodes/B/lxc/200.conf

- Live Migration utilizando Local Storages


.. Usar storage local e executar o comando abaixo diretamente no nó:
---
# qm migrate <VMID> <PVE_de_Destino> --online --with-local-disks
---

- Configurando o GlusterFS
https://pve.proxmox.com/wiki/Storage:_GlusterFS
https://forum.proxmox.com/threads/how-to-install-proxmox-and-setup-replica-storage-
with-glusterfs.31695/
https://access.redhat.com/documentation/en-
us/red_hat_gluster_storage/3.2/html/administration_guide/

O Guster é um sistema de arquivos descentralizado que permite salvar


os Hds das maquinas virtuais, de forma distribuída, em vários hosts na
Rede.
Utilizando o exemplo da criação de um ambiente Gluster de 2 nós,
executamos a sequencia de comandos abaixo (nos 2 nós)
---
# apt-cache search gluster
# apt install glusterfs-server
# service glusterfs-server start
# lsblk
# fdisk /dev/vdb
# mkfs.xfs /dev/vdb1
# mkdir -p /data/brick1
# echo '/dev/vdb1 /data/brick1 xfs defaults 1 2' >> /etc/fstab
# mount -a
# mount
# mkdir /data/brick1/gv0
# nano /etc/network/interfaces
# nano /etc/hosts
# ip addr show
# gluster peer probe gluster2
# gluster volume create gv0 replica 2 gluster1:/data/brick1/gv0
gluster2:/data/brick1/gv0
# gluster volume start gv0
# gluster volume list
# gluster volume info
# gluster peer status
---
Após as configurações acima, podemos adicionar o storage do tipo
Gluster aos nodes do Cluster.

[Módulo] HA no PVE 5:

- HA com 3 nós
https://pve.proxmox.com/wiki/High_Availability

Ao incluir a opção de Alta disponibilidade na VM, existem algumas


configurações possíveis:
.. Recursos de VM:
Grupo: Identificador do grupo HA
Max Relocate: Número máximo de realocação de serviços, quando um
serviço falha ao inicializar
Max Restart: Número máximo de tentativas de reinicializar o serviço em
um nó, caso falha na inicialização.
State: Estado de recurso solicitado. O HA vai agir conforme o estado
solicitado. Pode ser iniciado, parado ou desabilitado. Este último é
usado em caso de erros, para recuperação.
.. Grupos:
Usados para agrupar nós com funções específicas que são selecionados
pelos recursos de HA.

. HA com 2 nós?
Não é possível, porém em fase de testes, pode-se usar um terceiro nó
através do programa corosync-qdevice instalado em um Linux
tradicional.
Opção ainda sem documentação oficial no wiki:
https://pve.proxmox.com/pipermail/pve-devel/2017-July/027732.html
Referências bibliográficas

No corpo do texto

Você também pode gostar