При установки свежей proxmox 5.1

указываем 30 гигов под систему. Далее, нам понадобиться передать все свободное место на другой раздел а именно 

сервера имеют адреса и имена 192.168.1.164 pve1.local pve1  для меня он является главным мастер сервер

192.168.1.165 pve2.local pve2

Устанавливаем все обновления nano /etc/apt/sources.list

deb http://download.proxmox.com/debian/pve stretch pve-no-subscription

Далее закоментим

/etc/apt/sources.list.d/pve-enterprise.list

Удаление lv и разширение другого lv (на всех нодах)

lvscan

lvremove /dev/pve/data

vgdisplay

lvextend -l +100%FREE /dev/pve/root

resize2fs /dev/pve/root

vgdisplay

в вэб интерфейсе удаляем старое хранилище

nano /etc/pve/storage.cfg (на всех нодах)

Настройка хранилища сохраняется в файле /etc/pve/storage.cfg.

По умолчанию

все файлы будут сохраняться в каталоге /var/lib/vz

reboot

Далее, ставим нужные пакеты (на все ноды)

reboot

apt install glusterfs-server

И запускаем service glusterfs-server start (на всех нодах)

Далее надо подготовить еще один раздел не входящий в / тестил на втором винте, который добавил.

В моем случае fdisk /dev/sdb (на всех нодах)

Далее как создали новый раздел

mkfs.xfs -i size=512 /dev/sdb1 (на всех нодах)

Создаем папку

mkdir -p /data/brick1 (на всех нодах)

echo /dev/sdb1 /data/brick1 xfs defaults 1 2 /etc/fstab  (на всех нодах)

mount -a (на всех нодах)

Создаем еще папку

mkdir -p /data/brick1/gv0  (на всех нодах)

Теперь на матер сервере создадим кластер

Pvecm create cluster

На остальных нодах добавляем в кластер командой

Pve2# Pvecm add pve1

Pvecm status проверяем все ли норм

На pve2 выполняем команду

gluster peer probe pve1

на pve1 выполняем команду

gluster peer probe pve2

Проверяем

gluster peer status

Далее нам надо создать pool

gluster volume create gv0 replica 2 pve1:/data/brick1/gv0 pve2:/data/brick1/gv0

Количество реплик равно количеству нод

И стартуем

gluster volume start gv0

Теперь нам надо создать подключение общего хранилища в proxmox

Заходим

nano /etc/pve/storage.cfg

Приводим к такому виду

glusterfs

Gluster

server 10.2.3.4 # ip адреса наших серверов главный

server2 10.2.3.5 # второй 

volume gv0 content images,iso

что будет содержать эта папка

Теперь создаем вм запускаем и проверяем мигрируем на другую ноду, и все занимает меньше минут, а downtime не превышает 1 секунды.

Теперь, когда создали общее хранилище можем делать backupы и легко их разворачивать.

Вот в принципе и все

Яндекс.Метрика