Proxmox: Доступная виртуализация на русском (Урок 4.4 - Кеш )

preview_player
Показать описание
Урок 4.4 - Кейсы: cache

рассмотрим:
- windows virtIO drivers - драйвера для производительности
- разные режимы кэша для дисковой подсистемы

Курс посвящен вопросу виртуализации сервисов компании используя платформу Proxmox VE 5.

На данном курсе мы рассмотрим вопросы:
- что есть виртуализация и зачем она нужна
- почему я выбрал именно Proxmox
- как его ставить и как им управлять
- как поднять кластер из трех серверов и как его уронить :)
- как настроить heartbeat и перемещение виртуальных машин между нодами (серверами)
- и другие вопросы траблшутинга системы

Быстрые ссылки:

Кластер:
Кейсы:

Линки для работы:

И самое главное: купленный сертификат установят за вас, бесплатно!
Рекомендации по теме
Комментарии
Автор

Спасибо за труды, просмотрел весь курс, так-как нужна информация. Скорость 2x и за полтора дня осилил) Спасибо за старания, подписался.

bfsnhkp
Автор

Посмотрел весь курс, хочу сказать спасибо за проделанную работу! Курс помог структурировать данные в голове, но к сажоления 85% курса проходишь самостоятельно как только у тебя появляется больше 1 ноды. И смотреть можно только на скорости 1.5. Подойдет для новичка который совсем не понимает в виртуализации.

pavelkryachko
Автор

Спасибо, да слушать интересно опытных ребят
Как идеи, видел ты юзаешь гугл клауд, интересно есть ли сертификации у тебя по нему если да то курсик запилить)

Andrew-nhhe
Автор

Правильно понимаю? Если в системе нет никакого кэша - выставлять none. Если есть аппаратный с поддержкой записи плюс батарейка - выставлять write back.

Что выставлять, если используется программный кэш, к примеру bcache на чтение и запись? none или write back?

knbfqjb
Автор

Добрый день!
Спасибо за видео.
А какие по Вашему мнению хранилища лучше использовать для ситуации когда несколько узлов кластера PVE видят одно и то же блочное устройство СХД через SAN с multipath?

По таблице документации больше всего подходит толстый LVM. Проверил, действительно все работает в PVE 5.4.
Но смущает то, что этот толстый LVM не поддерживает snapshot для проведения бэкапов, поэтому восстановление вм будет наудачу, если во время бэкапирования она не была остановлена.
Также смущает безснапшутные переезды с одного shared-LUN на другой, тоже никакой гарантии успеха без остановки вм.

"We developed the KVM live backup feature, which makes it possible to create snapshot backups on any storage type"
"Proxmox VE live backup provides snapshot-like semantics on any storage type. It does not require that the underlying storage supports snapshots."

Мы с коллегой-DBA попробовали забэкапировать тестовый Postgress в вм PVE на shared-LVM под нагрузкой без остановки, все восстановилось успешно, но тень сомнений все равно осталась.
VMware решает эту проблему своей проприетарной кластерной ФС. Документация PVE четкого ответа что использовать не дает. Есть упоминание ZFS over iSCSI, но мне казалось, что с момента своего появления ZFS не была кластерной ФС.

PS. Multipath в Proxmox VE 6.0 у меня не взлетел, хотя с теми же настройками Proxmox VE 5.4 сразу заработал, видимо ядро Debian 10 сырое.
PPS. Чтобы удалить конкретный том lvm команда lvremove data/lv03. В видео про LVM вместо слеша у Вас пробел (29:36), поэтому он и не понимал.

n
Автор

спасибо за видео, подскажите вы не встречались с кейсом, когда нужно пробросить в виртуалку порт LPT(параллельный порт), инструкции, что есть на форуме proxmox все для старой версии, на 4.х не работают

bespomestnykh
Автор

Спасибо за информацию. Подскажите, пожалуйста, говоря "железный рэйд" - Вы имеете в виду отдельный RAID-контроллер который установлен в PCIEx? Можно ли считать "железным RAID" встроенные в материнскую плату контроллеры типа "Intel® C612" и/или "Broadcom 3108 SAS3" и стоит ли вообще строить аппаратный RAID на них т.е. встроенных в мат. плату (из Вашего опыта)? Например для мат. платы X10DRC-LN4+ даже батарейку отдельно продают и блок с кэшем... И если позволите ещё один вопрос: правильно ли я понимаю, что LVM и ZFS хранят всю служебную информацию о дисках (что входит в пул/том и т. п.) на системном разделе и если этот раздел умрёт, то всем данным придет конец?

vitalikos
Автор

Интересный кейс про кластер.
Есть тестовый кластер PVE 5.4 из 2х узлов БЕЗ quorum-device, к узлам подключен по FC shared-storage с толстым LVM и multipath. Официально PVE 2х узловой кластер не поддерживает.
Если выключить один из узлов, то теряем кворум и все вм на оставшемся в живых узле выключаются.
Существует ли какая-нибудь возможность игнорировать кворум и продолжить работу?

Вот что я накопал:
- Опция в GUI HA-ignore - не помогает.
- Есть временное решение ввести команду pvecm expected 1, чтобы прямо сейчас починить кворум (но вм к этому времени уже упадут). Это же решение поможет завести кластер при сбое обоих узлов, если поднялся только один.
- Есть решение по мотивам man votequorum (документация PVE об этом молчит, но на каждом PVE узле этот ман есть) дописать вручную конфиг для coresync (на нем основан кластер PVE) в /etc/pve/corosync.conf и затем убедиться, что изменения транслировались к конфиги /etc/corosync/corosync.conf на узлах:
quorum {
provider: corosync_votequorum
two_node: 1
}
и перезапустить две службы командой systemctl restart corosync; systemctl restart pve-cluster

Хочется узнать Ваше мнение по этому поводу, как опытного "проксмокcвода".

n
Автор

я 4 дня копал .... почему windows, пока не посмотрел, искал в инете везде инфу, не нашёл, только тут. не знаю где вы нашли на хабре про кэш, но я не нашёл

PahaUsd