Сценарии использования вычислительного кластера в
Windows Compute Cluster Server 2003
Старосоцкая О.А., Ладыженский Ю.В.
С развитием высокопроизводительной вычислительной техники, все чаще
используются кластера стандартных производственных серверов. Эти кластеры могут
содержать как несколько узлов (отдельных компьютеров), так и достаточно большое
количество. Сопровождение, настройка, мониторинг и управление этим узлами
осуществляется одновременно. В целях тестирования можно сформировать кластер,
содержащий только главный узел, который будет принимать задачи, подобно
вычислительным узлам.
Для облегчения пользования и управления кластерами создана система
Microsoft® Windows® Compute Cluster Server 2003. Любой кластер в этой системе
состоит из одного главного узла и одного или более вычислительных узлов. Доступ к
ресурсам узлов кластера, а также установка и управление осуществляется через
главный узел.
В зависимости от целей установки кластера необходимо выбрать его топологию.
Windows Compute Cluster Server 2003 поддерживает 5 различных топологий
кластера, согласно которым кластер строится на основе объединения различных сетей:
общего доступа, частные, сеть MPI.
Под сетью общего доступа понимается организационная сеть, подключенная к
главному узлу и необязательно к вычислительным узлам кластера. Сеть общего
доступа - это часто сети организаций и предприятий, большинство пользователей
которых входят в сеть для выполнения своей работы. Частная сеть представляет собой
выделенную сеть, которая заключает в себе внутрикластерную связь между узлами.
Сеть MPI - это выделенная сеть, предпочтительно с высокой пропускной способностью
и минимальным временем ожидания.
Сценарий 1 топологии предполагает, что все узлы кластера находятся в частой
сети и получают доступ к сети общего доступа только через NAT на главном узле, т.е.
вычислительные узлы изолированы в частной сети. При этом ведущий узел имеет два
сетевых интерфейса : для сети общего доступа и частной сети, а каждый
вычислительный – один. Так как в этом сценарии вычислительные узлы не доступны
непосредственно пользователям в сети общего доступа, разработка и отладка
приложений более затруднительна.
По сценарию 2, главный узел и все вычислительные узлы подключены и к
частной сети и к сети общего доступа и имеют по 2 сетевых интерфейса, но все связи
между узлами, включая разработку, управление и MPI трафик, заключаются в частной
сети. Наличие сети общего доступа между узлами кластера способствует простоте
разработки приложений. При использовании этого сценария упрощен доступ
пользователями в сети общего доступа к узлам кластера, и уменьшается скорость
получения доступа узлами кластера к ресурсам сети общего доступа.
Сценарий 3 топологии отличается от сценария 1 тем, что узлы кластера
объединяет не только частная сеть, но и MPI сеть, но к сети общего доступа по-
прежнему подсоединен только главный узел. Для использования этого сценария
38
требуется наличие дополнительного сетевого адаптера для MPI сети на всех узлах
кластера.
Отличие сценария 4 от сценария 2 состоит в наличии MPI сети, объединяющей
все узлы кластера, при этом частная сеть содержит только поток разработки и
управления. Все узлы кластера должны содержать по 3 сетевых адаптера: для сети
общего доступа, частной и MPI сетей.
При необходимости объединения всех узлов кластера только сетью общего
доступа используют сценарий 5. В этом сценарии доступ к вычислительным узлам
пользователями в сети общего доступа и к ресурсам сети общего доступа
вычислительными узлами кластера осуществляется быстрее. При этом достаточно
наличие одного сетевого адаптера на всех узлах кластера. Весь трафик переносится по
сети общего доступа. Это максимизирует доступ к вычислительным узлам
пользователями и разработчиками в сети общего доступа.
Каждая топология предлагает различные степени производительности и
достижимости из сети общего доступа.
Производительность кластера повышается за счет отдельных
специализированных сетей, которые несут внутрикластерный и MPI трафик между
вычислительными узлами и главным узлом кластера и выгружают этот трафик из сети
общего доступа. Это свойственно всем сценариям, кроме 5-го.
Простоте разработки и отладки приложения способствует наличие сетевого
интерфейса непосредственно в сети общего доступа, как в сценариях 2,4,5. Эти
топологии рекомендуется использовать при необходимости запуска отладчика на
каждом узле кластера.
Топологию кластера необходимо выбирать в зависимости от поставленных
задач. При необходимости частого обращения к ресурсам сети общего доступа
рекомендуется использовать сценарии 2,4,5. Если таковых требований не
предъявляется, то приемлема изоляция вычислительных узлов в частной сети.
При выборе топологии кластера необходимо также определиться с методом
предоставления DHCP и DNS вычислительным узлам в каждой сети. Каждый сетевой
интерфейс на вычислительном узле в сети общего доступа и частной сети нуждается в
IP-адресе (статически или динамически присвоенном) и может требовать разрешения
имен. В сценариях топологий кластера, где существует частная сеть, и вычислительные
узлы кластера не подсоединены в сети общего доступа, требуется NAT на главном узле.
При использовании сценариев 1 или 3 рекомендуется включение ICS. В сценариях 2 и
4 включение ICS на ведущем узле необязательно, однако, для использования метода
автоматического добавления узлов в кластер, следует сконфигурировать DHCP сервер
в частной сети для динамического предоставления IP-адресов частным интерфейсам
вычислительных узлов. Что касается сценария 5, то для него нет требований для ICS на
главном узле. Все узлы получают сетевые службы, включая DHCP и DNS, от серверов в
сети общего доступа.
Все перечисленные сценарии широко используются при установке кластеров.
Правильно выбранный и примененный сценарий топологии кластера способствует
эффективности выполнения поставленных задач.
Литература:
[1] Windows Compute Cluster Server 2003 Administrator’s Guide