Страница 1 из 1

Идеальный кластер Hyper-V

Добавлено: 19 янв 2016 09:05
VasilKaa
Приветствую сообщество и администрацию форума!
Суть топика такова: в составе оборудования предприятия, на котором я работаю чуть больше года, имеются парочка всё ещё приличных серверов, hp proliant dl580 gen7. Работавший ранее админ, видимо желая освоить возможности виртуализации, поднял на одном из них Hyper-V на базе Windows Server 2008 R2, который так и работает с 2011 года. И вроде бы всё и хорошо, работает, мощности позволяют и ещё немного наращивать количество виртуальных машин для многопользовательских задач, но пришло понимание, что всё это хорошо ровно до того момента, пока это всё исправно работает. Второй сервер использовался довольно вяло: сервер SQL, файловая шара, несколько приложений, доступных по сети и т.п. Пересмотрев сценарии использования имеющегося оборудования, оценив текущие и планируемые нагрузки, в целях обеспечения высокой доступности и отказоустойчивости инфраструктуры было принято решение организовать на мощностях указанных серверов кластер Hyper-V на базе Windows Server 2012 R2. Выбрал ряд статей в качестве плана по развёртыванию задуманной структуры, всё как будто и понятно, но хотелось бы узнать некоторые тонкости, и кроме того, может быть подскажете - как же это всё правильнее и так сказать, "красивее", сделать.
Собственно, имеется - пара упомянутых абсолютно идентичных hp proliant dl580 gen7, каждый из них 4x10 Xeon, 256 GB RAM, встроенные 4x1Gb/s сетевых интерфейсов, в каждом по PCI плате 2-х портовых 6Gb/s FibreChannel. Имеется возможность добавить по одной NIC-плате HP NC360T DualPort Gigabit, т.е. ещё пару гигабитных сетевых интерфейсов в каждый из серверов.
Так же имеется hp proliant dl580 gen5 (2 процессора и 64 GB RAM, 2x1Gb/s NIC, 2x6Gb/s FC), в него тоже можно добавить один HP NC360T DualPort Gigabit и хранилище hp p2000g3 о двух полках, на борту имеет 4x6Gb/s FC и 4x1Gb/s iSCSI. Для обеспечения сети используются пара Allied Telesis AT-GS950/48 Eco, опять же в целях отказоустойчивости.
Рассматривается только окружение Windows (лицензирование EAS), на имеющемся оборудовании, FC коммутаторов нет и не будет ближайший год точно, в данный момент обслуживается 500 пользователей сети, из них 300 постоянно в 1С, в планах поголовное использование 1С. В планах развёртывание RDS-фермы из виртуальных серверов для терминальной работы пользователей, развёртывание Microsoft System Center. Конечно же, множество вспомогательных задач, сервисов и сетевых папок, почты, сайт, сервер печати и тому подобное. Под все задачи стараюсь выделять по отдельному виртуальному серверу, чтобы если уж останавливать, то выполнение какого-либо одного сервиса.
Как бы всё вот это обтянуть кабелями? Интересуют пока именно физические подключения серверов. И вообще, прошу озвучить рекомендации по организации и использованию имеющихся мощностей, поскольку всё глубже погружаясь в информацию по теме обнаруживаю, что нюансов очень уж много, и разобраться с ходу довольно сложно, все эти jumbo frames, NLB, CSV, MPIO.
В статьях по развёртываю кластера везде фигурирует сервер хранилищ, какие параметры должен иметь этот сервер цели iSCSI или это не важно и коннект узлов кластера и хранилища будет выполняться напрямую, а сервер-цель выполняет роль именно коннектора и можно отдать эту роль старенькому физическому Depo Storm с одним процессором и 4 GB RAM и одним гигабитным сетевым интерфейсом? Либо же при подключении по FC данная роль вообще не нужна и связь напрямую по оптике с хранилищем разумнее?
На сегодняшний день с одного из будущих узлов выведены все задачи, установлен Windows Server 2012 R2 со всеми обновлениями, с помощью HP SPP обновлены все прошивки аппаратной части, драйверов и вспомогательного ПО от HP, поднята роль HV с компонентом отказоустойчивой кластеризации. Завис я на моменте подключения хранилищ - второй сервер пока нет возможности обновлять, т.к. сначала нужно перевести все имеющиеся ВМ на новый узел будущего кластера. Интересует использование виртуальных машин именно Gen2, и прямая миграция виртуальных машин с HV2008 на HV2012 пока не видится простой (а скорее, она невозможна). И это лишь часть вопросов, как я понимаю, в процессе установки и настройки будут появляться дополнительные. Буду премного благодарен откликнувшимся за советы, ссылки, комментарии!

Re: Идеальный кластер Hyper-V

Добавлено: 19 янв 2016 10:23
Алексей Максимов
Что-то как-то всё одним скопом. Думаю надо логически разделить вопросы на группы, каждую из которых обсуждать последовательно. Из того, что я увидел:
1. Вопросы выбора архитектуры и физической организации выбранной архитектуры
2. Вопросы построения кластера Hyper-V
3. Вопросы миграции Hyper-V Gen1 > Gen2
4. Лирика

Начнём с п.1.
Предполагаю, что можно попробовать собрать двух-узловой кластер Hyper-V из серверов DL580 G7 с подключением к общему дисковому хранилищу P2000 G3 по FC (наверное всё-таки имеется ввиду 8Gbps а не 6Gbps как Вы везде написали) под общий кластерный CSV-том. Если FC-коммутаторов нет, то можно серверы подключить к хранилищу напрямую.
Только тут возникает вопрос, взлетят ли все имеющиеся и планируемые виртуальные машины на ресурсах одного хоста DL580 G7 (по памяти и процессорным потребностям) в случае выхода из строя (или же просто во время необходимости перезагрузить хост после установки обновлений) одного их таких хостов виртуализации.

G5 сервер тоже можно попробовать добавить в кластер, когда тот уже будет работать, но уверенности что мастер валидации кластера проглотит то, что у узлов кластера сильно разная аппаратная начинка (как минимум разные поколения процессоров). Если не получится добавить его в кластер, то просто использовать его как отдельный хост виртуализации (у меня вся виртуализация на G5 построена)

Куда приладить старый сервер Depo, не знаю. Если только для него есть возможность организовать большой объём дешёвой дисковой ёмкости уровня SATA 7200 и использовать его для резервного копирования System Center DPM. Опять же тут нужно сначала выяснить поддерживается ли процессором этого сервера 64-битная архитектура.

То есть сначала нужно обсудить п.1, а затем думать про остальные.

Re: Идеальный кластер Hyper-V

Добавлено: 19 янв 2016 12:02
VasilKaa
Спасибо за ответ, Алексей! Да, Вы правы, написал много, скорость именно 8Gbps, разворачивать кластер планирую именно на DL580 G7. Конечно же нужно будет подбирать количество ВМ с избыточностью ресурсов нод, чтобы переполнение не происходило. По нагрузке на ЦПУ ситуация сносная и сегодня, а память будем наращивать в этом году, ещё по 128Гб в каждый из серверов, в этом я смог убедить руководство.
На данном этапе я завис после установки 2012R2 на ноду, и сейчас пытаюсь разобраться с подключениями к хранилищу. Благоразумнее подключать обе ноды парой кабелей FC, к каждому из контроллеров хранилища? Этим я займу все имеющиеся порты FC хранилища и серверов, но как я понимаю, это и будет самое нагруженное место в конфигурации. Или будет достаточно подключения по одному кабелю? Скорее всего DL580 G5 сделаю физическим сервером SQL, а там тоже скорость доступа к хранилищу ой как пригодится.

Re: Идеальный кластер Hyper-V

Добавлено: 19 янв 2016 12:27
Алексей Максимов
Подключать FC-контроллер каждого сервера к разным контроллерам СХД имеет только в том случае, если Вы хотите застраховать себя от выхода из строя одного из контроллеров СХД. И да если вы подключите оба порта на двух серверах у вас на СХД не останется свободный FC портов, и если потребуется ёмкость СХД отдать ещё какому-то серверу, например тому же G5, то делать это уже придётся через iSCSI, хотя я бы SQL на iSCSI делать не решился :)

Re: Идеальный кластер Hyper-V

Добавлено: 19 янв 2016 14:02
VasilKaa
Сейчас имеется одна нода, только сервер, роль HV и отказоустойчивость. Далее по всем мануалам следует настраивать сервер на базе Windows Server 2012 R2 в качестве сервера-цели iSCSI. Вот и вопрос - подключение ведь выполнено с помощью кабеля FC, шаг с сервером-целью так же необходим? Или же VDisk хранилища напрямую в ноду можно цеплять? Понимаю, вопросы совершенно простые, но я имел мало опыта работы с хранилищами, прошу простить заранее.

Re: Идеальный кластер Hyper-V

Добавлено: 19 янв 2016 14:12
Алексей Максимов
Почитайте про понятия таргета и инициатора в iSCSI (инициатор - ISCSI клиент, таргет - СХД). К FC это отношения не имеет. Если подключаете 2 сервера к СХД напрямую оптическими патч-кордами, то c iSCSI можно не заморачиваться вообще. Когда подключите оба сервера по FC к СХД, создадите кластер с CSV томом, на котором в последствии будут размещаться файлы виртуальных машин (файлы конфигурации и VHDX диски)