Сценарии использования вычислительного кластера в
Windows Compute Cluster Server 2003
Старосоцкая О.А., Ладыженский Ю.В.
       С развитием высокопроизводительной вычислительной техники, все чаще используются кластера стандартных производственных серверов. Эти кластеры могут содержать как несколько узлов (отдельных компьютеров), так и достаточно большое количество. Сопровождение, настройка, мониторинг и управление этим узлами осуществляется одновременно. В целях тестирования можно сформировать кластер, содержащий только главный узел, который будет принимать задачи, подобно вычислительным узлам.
       Для облегчения пользования и управления кластерами создана система Microsoft® Windows® Compute Cluster Server 2003. Любой кластер в этой системе состоит из одного главного узла и одного или более вычислительных узлов. Доступ к ресурсам узлов кластера, а также установка и управление осуществляется через главный узел.
       В зависимости от целей установки кластера необходимо выбрать его топологию. Windows Compute Cluster Server 2003 поддерживает 5 различных топологий кластера, согласно которым кластер строится на основе объединения различных сетей: общего доступа, частные, сеть MPI.
       Под сетью общего доступа понимается организационная сеть, подключенная к главному узлу и необязательно к вычислительным узлам кластера. Сеть общего доступа - это часто сети организаций и предприятий, большинство пользователей которых входят в сеть для выполнения своей работы. Частная сеть представляет собой выделенную сеть, которая заключает в себе внутрикластерную связь между узлами. Сеть MPI - это выделенная сеть, предпочтительно с высокой пропускной способностью и минимальным временем ожидания.
       Сценарий 1 топологии предполагает, что все узлы кластера находятся в частой сети и получают доступ к сети общего доступа только через NAT на главном узле, т.е. вычислительные узлы изолированы в частной сети. При этом ведущий узел имеет два сетевых интерфейса : для сети общего доступа и частной сети, а каждый вычислительный – один. Так как в этом сценарии вычислительные узлы не доступны непосредственно пользователям в сети общего доступа, разработка и отладка приложений более затруднительна.
       По сценарию 2, главный узел и все вычислительные узлы подключены и к частной сети и к сети общего доступа и имеют по 2 сетевых интерфейса, но все связи между узлами, включая разработку, управление и MPI трафик, заключаются в частной сети. Наличие сети общего доступа между узлами кластера способствует простоте разработки приложений. При использовании этого сценария упрощен доступ пользователями в сети общего доступа к узлам кластера, и уменьшается скорость получения доступа узлами кластера к ресурсам сети общего доступа.
       Сценарий 3 топологии отличается от сценария 1 тем, что узлы кластера объединяет не только частная сеть, но и MPI сеть, но к сети общего доступа по- прежнему подсоединен только главный узел. Для использования этого сценария 38 требуется наличие дополнительного сетевого адаптера для MPI сети на всех узлах кластера.
       Отличие сценария 4 от сценария 2 состоит в наличии MPI сети, объединяющей все узлы кластера, при этом частная сеть содержит только поток разработки и управления. Все узлы кластера должны содержать по 3 сетевых адаптера: для сети общего доступа, частной и MPI сетей.
       При необходимости объединения всех узлов кластера только сетью общего доступа используют сценарий 5. В этом сценарии доступ к вычислительным узлам пользователями в сети общего доступа и к ресурсам сети общего доступа вычислительными узлами кластера осуществляется быстрее. При этом достаточно наличие одного сетевого адаптера на всех узлах кластера. Весь трафик переносится по сети общего доступа. Это максимизирует доступ к вычислительным узлам пользователями и разработчиками в сети общего доступа.        Каждая топология предлагает различные степени производительности и достижимости из сети общего доступа.
       Производительность кластера повышается за счет отдельных специализированных сетей, которые несут внутрикластерный и MPI трафик между вычислительными узлами и главным узлом кластера и выгружают этот трафик из сети общего доступа. Это свойственно всем сценариям, кроме 5-го.
       Простоте разработки и отладки приложения способствует наличие сетевого интерфейса непосредственно в сети общего доступа, как в сценариях 2,4,5. Эти топологии рекомендуется использовать при необходимости запуска отладчика на каждом узле кластера.
       Топологию кластера необходимо выбирать в зависимости от поставленных задач. При необходимости частого обращения к ресурсам сети общего доступа рекомендуется использовать сценарии 2,4,5. Если таковых требований не предъявляется, то приемлема изоляция вычислительных узлов в частной сети.
       При выборе топологии кластера необходимо также определиться с методом предоставления DHCP и DNS вычислительным узлам в каждой сети. Каждый сетевой интерфейс на вычислительном узле в сети общего доступа и частной сети нуждается в IP-адресе (статически или динамически присвоенном) и может требовать разрешения имен. В сценариях топологий кластера, где существует частная сеть, и вычислительные узлы кластера не подсоединены в сети общего доступа, требуется NAT на главном узле. При использовании сценариев 1 или 3 рекомендуется включение ICS. В сценариях 2 и 4 включение ICS на ведущем узле необязательно, однако, для использования метода автоматического добавления узлов в кластер, следует сконфигурировать DHCP сервер в частной сети для динамического предоставления IP-адресов частным интерфейсам вычислительных узлов. Что касается сценария 5, то для него нет требований для ICS на главном узле. Все узлы получают сетевые службы, включая DHCP и DNS, от серверов в сети общего доступа.
Все перечисленные сценарии широко используются при установке кластеров. Правильно выбранный и примененный сценарий топологии кластера способствует эффективности выполнения поставленных задач.

Литература:
[1] Windows Compute Cluster Server 2003 Administrator’s Guide