Как развернуть гиперконвергентную систему в небольшой компании?
TADетали
В сегменте крупных ИТ-сред уже довольно давно апробировано применение конвергентной инфраструктуры и экспертно-интегрированных систем — готовых решений, включающих в себя серверы, СХД, интерконнекты, средства виртуализации и средства управления инфраструктурой. Однако, такие системы плохо подходят для небольших компаний с ограниченными ресурсами. Выход - гиперконвергентные системы, в которых идеи конвергентной инфраструктуры получили дальнейшее развитие.
Содержание |
Конвергентная инфраструктура
Что делать, если требуется развернуть ИТ-инфраструктуру в небольшой компании или филиале? Можно взять серверы, СХД, коммутаторы, установить гипервизоры и развернуть виртуальные машины. Такой подход имеет определенные преимущества, позволяя применять именно те продукты и решения, которые наилучшим образом подходят для конкретного заказчика. Однако этот подход несет трудности, неприемлемые для случаев, когда ИТ-служба компании или филиала не имеет в своем составе полного набора специалистов по серверам, СХД, сетям, виртуализации и прочим инфраструктурным средствам, т.к. при построении ИТ-инфраструктуры с применением такого подхода (будем называть его традиционным) каждая из ее подсистем управляется и обслуживается отдельно специалистом соответствующего профиля. Даже при наличии в компании всех необходимых специалистов (что в случае с небольшими компаниями является скорее исключением) остается проблема отсутствия единой точки управления, что усложняет процессы управления ИТ-инфраструктурой и требует эффективного взаимодействия между администраторами ее подсистем.
В то же время в сегменте крупных ИТ-сред уже довольно давно апробировано применение конвергентной инфраструктуры и экспертно-интегрированных систем — готовых решений, включающих в себя серверы, СХД, интерконнекты, средства виртуализации и средства управления инфраструктурой. Экспертно-интегрированные системы разрабатываются, изготавливаются и внедряются непосредственно вендорами (альянсами вендоров) либо системными интеграторами. Заказчик получает систему, уже готовую для развертывания его приложений. Главными отличительными чертами таких систем являются, во-первых, единая среда управления, включающая в себя средства управления всеми подсистемами, интегрированные таким образом, чтобы процессы, требующиеся для выполнения задач управления и затрагивающие различные подсистемы, выполнялись автоматически и в нужной последовательности. Такое взаимодействие между подсистемами, обеспечиваемое единой средой управления, называется оркестрацией (англ. orchestration), а сама среда управления или ее компонент, обеспечивающие такое взаимодействие, — оркестратором (англ. orchestrator). Во-вторых, экспертно-интегрированным системам свойственна единая точка взаимодействия со службой поддержки поставщика, в то время как при традиционном подходе требуется взаимодействовать со службами поддержки каждого компонента системы, что значительно усложняет процедуру разрешения комплексных инцидентов. Единая точка обслуживания также обеспечивает централизованный процесс обновления системы и ее компонентов. В-третьих, такие системы обычно построены на основе принципов конвергентной инфраструктуры: при таком подходе оборудование (серверы, СХД, сетевые коммутаторы и т.д.) представлено в виде ресурсов (процессорного времени, памяти, дискового пространства, сетевых портов), а управление оборудованием в общих чертах сводится к добавлению этих ресурсов в тот или иной пул. Приложениям ресурсы назначаются уже из пулов без привязки к тому оборудованию, на котором эти ресурсы физически размещаются. Это позволяет гибко управлять ресурсами и упрощает операции при необходимости вывода оборудования из эксплуатации для обслуживания либо замены.
К сожалению, конвергентные экспертно-интегрированные системы, будучи нацеленными прежде всего на enterprise-сегмент, плохо подходят для небольших компаний с ограниченными ресурсами. Лучше всего эти системы подходят для развертывания в крупных ИТ-средах и центрах обработки данных.
При этом небольшие компании, проблемы которых при развертывании ИТ-инфраструктуры описаны в первом абзаце, тоже способны оценить изложенные выше преимущества интегрированных систем. В ответ на требования таких заказчиков в последнее время ведущие поставщики ИТ-решений стали предлагать гиперконвергентные системы, в которых идеи конвергентной инфраструктуры получили дальнейшее развитие. В гиперконвергентных системах вычислительные ресурсы и система хранения объединены конструктивно в небольшой блок стандартного рэкового конструктива. Такой блок является законченной системой, готовой к развертыванию сервисов заказчика и включающей в себя серверные лезвия, объединенные в кластер виртуализации, и виртуализованное дисковое хранилище, объединяющее дисковое пространство серверов в одну виртуальную СХД. Гиперконвергентная система масштабируется путем добавления в систему таких блоков. Гиперконвергентные системы обладают всеми преимуществами интегрированных систем, но при этом доступны не только крупным заказчикам, но и сравнительно небольшим компаниям, и хорошо подходят для развертывания основных ИТ-сервисов, что также позволяет применять их для организации удаленных филиалов. В целом гиперконвергентные системы являются продуктом философии программно-определяемого ЦОД и могут являться примером реализации программно-определяемого подхода к построению ИТ-инфраструктуры.
На практике
Примером гиперконвергентной системы является серия HPE HyperConverged. Например, модель HC250 построена на базе шасси высокой плотности HPE Apollo 2000 с четырьмя серверами-лезвиями и занимает 2U в стойке. Шасси поддерживает установку 24 дисков малого форм-фактора, при этом к каждому серверному лезвию физически подключено шесть дисковых отсеков. В варианте ConvergedSystem серверы поставляются с предустановленными гипервизорами ESXi 5.5 или 6.0, на одном из которых размещена виртуальная машина управления. На каждом из узлов также расположен СХД-компонент гиперконвергентной системы — виртуальная машина StoreVirtual VSA.
Установка
Система поставляется с крепежом для установки в стойку. Как отмечалось ранее, система занимает в стойке два юнита. Вес системы в сборе превышает 35 кг, поэтому для монтажа необходимо удалить из нее серверные лезвия, диски и блоки питания, запомнив, какие серверы какие отсеки занимали изначально. Монтировать систему рекомендуется силами двух человек. После монтажа системы в стойку требуется установить ее компоненты в шасси в те же отсеки, в которых они находились изначально, подключить ее блоки питания двумя стандартными кабелями C13-C14, затем подключить порты 10GbE SFP+ серверных лезвий к двум коммутаторам производственной сети. Опционально также можно подключить порты управления iLO серверных лезвий к коммутатору сети управления (для штатной работы эти порты не требуются, но могут использоваться при необходимости сброса системы в заводское состояние).
Здесь следует сделать важное замечание. Для работы системы необходимо подключать ее в 10-гигабитную сеть. Работа в гигабитной сети, хотя технически возможна (с применением соответствующих трансиверов или с заказом 4-портовых адаптеров 1 GbE вместо двухпортовых 10 GbE), может серьезно снизить производительность дисковой подсистемы.«Трансформация 2.0». Опыт роста технологической зрелости ритейлера «Лента» представлен на TAdviser SummIT
Схема коммутации системы показана на рисунке ниже.
После монтажа и коммутации системы следует убедиться, что на нее подано питание и серверные лезвия включены. После загрузки серверов (может занять 10−15 минут) система готова к развертыванию.
Развертывание
По состоянию на март 2016 года, средство OneView InstantOn активно обновляется, поэтому выполнение описанных ниже процедур может отличаться в версии средства, актуальной на момент чтения этого текста. Рекомендуем ознакомиться с текущей редакцией инструкции по развертыванию системы, предоставляемой производителем.
Процедура развертывания системы подробно описана в документе HPE HyperConverged 250 Installation Guide, доступном на сайте HPE. Ниже приведено описание для случая развертывания новой системы, состоящей из одного шасси и четырех серверов.
Для развертывания системы следует подключить ноутбук либо ПК управления к порту RJ-45 №2 сервера №1 (нижний правый, если смотреть на систему сзади) и сконфигурировать сетевому интерфейсу IP-адрес 192.168.42.99/24, после чего по протоколу RDP войти на виртуальную машину управления (имеет адрес 192.168.42.100).
Развертывание системы производится с помощью средства OneView InstantOn. Мастер развертывания запустится автоматически при входе в систему (также его можно запустить ярлыком на рабочем столе и из меню «Пуск»).
При запуске мастера развертывания следует принять условия пользовательских соглашений, отметив соответствующие флажки, и щелкнуть Next:
На экране Health отобразится текущее состояние обнаружения узлов системы и доступность предустановленного на ВМ управления сервера vCenter:
На каждом узле системы установлена специально подготовленная версия гипервизора ESXi, с состав которого входят агенты, обеспечивающие взаимодействие узла с OneView InstantOn. Нужно дождаться, пока индикаторы станут зеленого цвета (это не займет больше одной-двух минут), и щелкнуть Next.
На следующем экране нужно задать IP-адреса хостов ESXi, интерфейсов vMotion и интерфейсов iSCSI. Всего потребуется выделить 23 адреса: 5 — для ESXi и vCenter, 4 — для vMotion и 14 — для iSCSI. Все адреса могут принадлежать одной подсети, но также можно задать для каждой группы адресов свою подсеть. Вводим адреса и щелкаем Next:
На экране Credentials необходимо ввести имя и пароль администратора системы хранения StoreVirtual. Эти реквизиты будут использоваться для управления хранилищем. Щелкаем Next и попадаем на экран Settings, где указываем имя хранилища (можно оставить предложенное мастером), адреса серверов DNS, NTP, а дакже адрес электронной почты, на которой система будет отсылать уведомления, и адрес SMTP-сервера, затем щелкаем Next. Откроется экран Review Configuration:
На этом экране отображается состояние проверки готовности компонентов системы к развертыванию и корректности введенных данных. Убеждаемся, что все пункты отмечены зеленым цветом, и щелкаем Deploy. Начинается процесс развертывания системы, в ходе которого компонентам системы задаются указанные IP-адреса и другие настройки, хосты ESXi системы объединяются в кластер vSphere, создается кластер VSA и т.д. Развертывание системы занимает около десяти минут. После развертывания откроется страница с MAC-адресами узлов VSA, которые требуются для активации лицензий. Лицензии активируются на портале поддержки HPE.
После развертывания следует установить лицензии на vSphere и vCenter в веб-консоли vSphere на виртуальной машине управления.
Подготовка хранилища
После установки лицензий нужно создать хранилище на VSA. Для этого в веб-консоли vSphere следует выбрать нужный кластер, перейти на вкладку Manage и щелкнуть HP Management. Откроется раздел HP Management, добавляемый предустановленным плагином HPE OneView for vCenter. Этот плагин обеспечивает интеграцию vCenter с компонентами системы и позволяет выполнять управление системой и мониторинг из консоли vCenter.
В разделе HP Management переходим на вкладку Storage и щелкаем по меню Actions. Выбираем пункт Create Datastore.
Откроется мастер создания хранилища. Выбираем расположение создаваемого хранилища — кластер vSphere и щелкаем Next. На следующей странице мастера выбираем пул хранения (в данном случае имеется только один пул), указываем количество создаваемых хранилищ и их размер. Также можно выбрать уровень сетевого RAID — для конфигурации кластера VSA из четырех узлов (то есть для одной системы HC250) рекомендуется Network RAID 10. Щелкаем Next. На следующем шаге задаем имя хранилища и щелкаем Next. На следующем шаге производится валидация введенных данных. Следует дождаться ее завершения и щелкнуть Next, затем — Finish. Хранилище будет создано в течение нескольких секунд и сразу станет доступно для использования. Теперь система готова к работе. Развертывание виртуальных машин и другие повседневные операции не отличаются от таковых в обычных версиях vSphere.
Сброс системы
Если что-то пошло не так, систему можно сбросить в заводское состояние. Все данные при этом будут потеряны.
Для сброса системы необходимо скачать набор инструментов с сайта HPE. В него входят кастомизированный дистрибутив ESXi с интегрированным образом виртуальной машины VSA, скрипты для развертывания и образ виртуальной машины управления.
В общих чертах процедура сброса системы выглядит следующим образом: сначала создается установочный USB-носитель путем записи образа инструментом dd или аналогичным, затем на него записываются скрипты для развертывания конкретной модели системы, после чего каждый из серверов загружается с носителя (здесь рекомендуется воспользоваться модулем управления iLO) и устанавливается гипервизор. Затем на сервер №1 разворачивается образ виртуальной машины управления, после чего система готова к автоматизированному развертыванию.
Подробно процедура восстановления описана в документе HPE HyperConverged 250 User Guide, доступном на сайте HPE.
Материал подготовлен при поддержке компаний HPE и "Ланит"