FAQ
В public cloud, как и в vCloud, виден только виртуальный уровень. В своей инсталляции виден в том числе и физический, как в vSphere.
Сначала нода добавляется в кластер. Затем выполняется миграция ВМ на пересоздаваемые пулы с использованием новых дисков. В версии 2.1 будет реализован механизм увеличение пространства без миграции ВМ, который даст возможность расширения пула на 1 диск.
Можно добавить ресурсы в существующие хосты. Более тяжелый вариант — добавление хостов в кластер.
Квотами vDC управляет владелец системы, а запрос на ресурсы осуществляется внешними процессами.
Стоимость 1GB SSD выше чем HDD, что нивелирует экономический эффект при расчете топологии. На текущий момент мы предлагаем vStack на SSD дисках, так как считаем, что HDD не соответствует современным реалиям. Однако при необходимости мы готовы оперативно добавить поддержку HDD.
В каждой ноде минимальное количество дисков равно количеству нод. Данный постулат выведен математически, в противном случае принцип гиперконвергенции и функции failover бессмыслен, а выход из строя хотя бы одного диска будет фатален.
Презентация ВМ внешнему датастору является конвергентным подходом. В этом случае нарушаются принципы гиперконвергенции.
Бэкапы можно сделать с помощью любой СРК, имеющей поддержку протокола NDMP.
Также можно делать бэкапы средствами агента СРК, работающего внутри гостевой операционной системы. Настройка и эксплуатация такого подхода специфична для каждой СРК.
Да, для этого нужно зафиксировать расположение дисков в слотах сервера, переставить диски в новый сервер, после чего с соблюдением cabling подключить новый сервер к сетевому оборудованию. Всё это – преимущество гиперконвергенции.
На текущий момент возможности добавления дополнительных нод в кластер нет, но она планируется в ближайшем будущем. Сейчас эта возможность доступна без интерфейса управления в услуге Managed vStack.
Мы выдаем отчет об утилизации ресурсов кластера на ежемесячной основе. При необходимости можем внедрить данные отчеты с дискрецией до ВМ.
Мы рекомендуем 10Gbe. Если важна производительность I/O, то приоритетнее 25Gbe.
Да, возможно, но желательно не менее 8-ми ядер. Как правило, на современных материнских платах часть PCI-слотов будет недоступна.
Нет никакой связи между количеством нод и количеством сетевых портов. Рекомендуемый нами минимальный вариант: 4 порта на ноду на двух разных NIC.
В качестве кластерных нод vStack могут быть выбраны любые современные x86 серверы с процессорами Intel в количестве от 4х штук. Пример конфигурации ноды:
- 2U Intel server platform
- 2 x 16-core Xeon 6226R (2.90 GHz)
- 8 x 32GB Dual Rank RDIMM 3200МHz Kit
- 4 x 960TB SSD SAS Read Intensive 12Gbps 512e 2.5in Drive PM5-R
- 2 x Intel 10/25Gbe Intel dual port SFP+ PCIe
- 2 x Power Supply (1 PSU) 750W Hot Plug
Перегруженность уже является весомым отличием. Кроме этого можно отметить семантику синхронности слоёв. В дискретном API придётся это реализовывать «вручную», как следствие – создавать механизмы для подобной синхронизации в пользовательском слое.
Выполнение миграции возможно только в ручном режиме. Для выполнения миграции необходимо подготовить ВМ: переключить гостевую ОС в режим загрузки UEFI, сделать экспорт ВМ в ova/ovf, полученный ova/ovf передать нам, чтобы мы могли его импортировать. Чуть позже будет готов инструмент для выполнения данной задачи пользователем.
Остались вопросы?
Пожалуйста, заполните регистрационную форму. Мы свяжемся с вами в ближайшее время, чтобы ответить на Ваши вопросы.