Назад в библиотеку

 

 

 

РОЗПОДІЛЕНЕ ПАРАЛЕЛЬНЕ МОДЕЛЮЮЧЕ СЕРЕДОВИЩЕ

 

 

B.A.  Святний,  O.M.  СолонінД.В.  Надєєв,  I.  Степано в кафедр а   EOM  ДонДТУ sviatnvi@cs.dgtu.donetsk.ua

K.  Ротермель ,  (IPVR)  M.  Цайтц  (ISR)  Штуттгартський університет zeitz@uni-stuttqart.de

 

 

Abstract

Distributed parallel modeling environment  (DPME).  In  this  article  is  described hardware  and  software      tools  of DPME1     and methods for  access   to  its  resources.

 

 

1.        Bcmyn

 

Паралельне моделююче середовище для динамічних систем з зосередже- ними (ДСЗП) та розподіленими параметрами (ДСРП) - це нова форма системної організації сучасних засобів моделювання [l,2]. Реалізація середовища прово- диться в рамках наукового співробітництва факультету OT I ДонДТ У та інститутів IPVR та ISR Штугтгартського університету. Паралельні обчислювальні ресурси середовища, робочі місця та засоби доступу розташовані в Штуттгарті (HLRS - надпотужний комп'ютерний центрта Донецьку на відстані коло 3 тис. км. Це обумовлює функціонування ресурсів за  принципами  розподілених  обчислюваль- них систем [3]. Розглянемо побудову розподіленого паралельного моделюючого середовища (РПМС) та методику доступу до його ресурсів.

 

 

2.  Структура    технічних   засобів     РПМС

 

Загальна структурна схема розподіленого паралельного моделюючого се- редовища (РПМС) представлена на рис. 1. Основними ресурсами є паралельні обчислювальні системи Cray та Hitachi. Лабораторії факультету OT I мають комп'ютери класу Пентіум (робочі станції), що об'єднані локальною мережею з виходом в INTERNET. Вони також об'єднані в МРІ-кластери на базі операційної системи Windows NT.    Intel Parago - це паралельна обчислювальна машина класу MMD , містить 11 вузлів, з'єднаних між собою двомірною решіткою. Intel Paragon використовується як тестова паралельна машина.

Система Cray ТЗЕ-900/512 має такі технічні характеристики:  обчислюваль- на потужність - 461 GFLOP/S;  кількість вузлів  - 512; загальний об'єм  оператив- ної пам'яті - 64 GB DRAM ; об'єм оперативної пам'яті на вузлі - 128 MB DRAM ; загальний об'єм дискової пам'яті 507 GB.  Як особливості  системи  можна зазна- чити наявність розподіленої пам'яті, здатність до розширюємості, обмін повідом- леннями, високу пропускну спроможність мережі комутації вузлів та підсистеми вводу/виводу,  низьку  латентність.

Система Hitachi SR8000 має обчислювальну потужність 128 GFLOP/S, 16 вузлів з 128 процесорами, з швидкістю передачі даних від вузла до вузла 1  GB/S та  8GB  оперативної  пам'яті  у  кожному  вузлі.  До  позитивних  властивостей  сис-


 

 

Рис.  Структура технічш к засобів РПМС

 

теми треба віднести оперативну пам'ять c високою пропускною здібністю, векто- рне та скалярне програмування під SMP-кластер, Pseudo-Vector-Processing (PVP), наявність комерційних пакетів та систем COMPAS, MPI, OpenMP.

Файловий  сервер  SGI  Power  Challenge  містить  2  центральних  процесора Mips R4400 250 MHz, пам'ять 512 MB DRAM , дисковий накопичувач  1260 GB.

 

 

 

 

3.     Структура     системних   програмних   засобів

 

До системних програмних засобів  відноситься усе програмне забезпечення, що  підтримує функціонування компонентів  структури РПМС.

 

Системні програмні засоби повинні:

дозволяти   виконання  операцій  з  файловими  даними  (копіювання  PM<-

>D?VR<->HLRS, упорядкування файлів у домашніх каталогах та ін.)


 

 

 

-       дозволяти створювати двоїчні виконувані модулі з програм, написаних на мові високого рівня;

виконувати процедуру авторизації при вході користувача в систему;

-       забезпечувати взаємодію системних програм комп'ютерів з різною архіте- ктурою.

 

Існує кілька засобів копіювання даних між віддаленими системами, але ча- стіше використовуються ftp та scp/rc[4]Пр и використанні  ftp на комп'ютери встановлюються ftp-сервер (ftpd) та ftp-клієнт  (ftp). Клієнтська програма ініціює зв'язок з сервером та отримує від нього дозвіл на роботу з файловими даними на сервері (читання/запис). Недолік підходу - необхідність знати команди ftp-cep- вера; щоб скопіювати файл на віддалений комп'ютер, часто потрібно ввести кіль- ка  довгих  команд,  особливо,  якщо  копіюється  кілька  файлів  з  багаторівневою

 

 

 

 

 

-Рис.2. Структура програмних засобів РПМС.

 

структурою каталогів. Крі м того, на комп'ютер мало встановити клієнтську про- граму - треба  ще займатися адмініструванням  сервера.  Позитивна  сторона під-


 

 

 

ходу - повний  контроль за виконанням операцій,  можливість продовжити  копію- вання після аварійної зупинки.

 

Використання команд віддаленого копіювання rcp або scp, які базуються на віддаленому доступі до системи через rsh або ssh, відрізняється тим, що у s- формі виконується шифрування сесії, яке підвищує ступінь захисту при передачі даних. Для успішного використання команд необхідно, щоб на віддаленій системі було встановлено ssh- сервер (sshd). Простота та натуральність використання пов'язані тут з неможливістю продовжити операцію з місця аварійної зупинки.

 

Для операцій упорядковування даних використовуються класичні команди системи UNI X (mkdir, cp, rm і т.д.). Для виконання будь якої команди на віддале- ній системі необхідно спочатку підключитись та ввійти до системи. Це можна здійснити використанням програмних засобів telnet або ssh. TeInet дозволяє вико- нати повний вхід у віддалену систему, як у  локальну, a ssзапускає командну оболонку на віддаленій системі з шифруванням сесії. Telnet вимагає наявності на віддаленій системі telnet- сервера (telnetd), a  ssh - ssh- сервера (sshd).

До засобів побудови програмного забезпечення відносяться компілятори C/C++, що  встановлено  на MBVTO-  системах,  з підтримкою MP (команди  шрісс, mpiCC, mpirun), а також команди маніпулювання з чергами завдань (qsub, qstat та ін.).

Таким чином, необхідні  системні програмні засоби можуть бути представ- лені структурою, показаною на рис. 2.

Ha робочих місцях (PM) повинні бути встановлені ftp- сервер, якщо дані з n>VR копіюються через ftp, або ssh- сервер у разі з scp, а також програма telnet для отримання доступу до IPVR.

Ha rPVR встановлені: ssh для підключення до HLRS, scp та ssh- сервер для обміну файловими даними з HLRS та PM, ftp для альтернативного зв'язку з PM, telnet- сервер для надання доступу з PM.

Ha комп'ютерах HLRS встановлені scp та ssh-  сервер  для  обміну  файло- вими даними, а також комплект MP I для розробки паралельних програм.

 

 

 

4.     Проведення    тестових    випробувань

 

Процес тестових випробувань РПМС розбивається на наступну  послідов- ність  операцій:

1)   Підключення до комп'ютера у IPVR та копіювання тестових даних з PM. Підключення до   ffV відбувається через telnet (рис.2.). Після входу до си-

стеми  визначається  похідна  EP-  адреса  (команда  who) та  робиться  перехід у  ка-

талог, де зберігаються тестові програми (cd MPI_Tests).

Для копіювання даних з PM використовується  ftp  (рис.2).  Після  входу на ftp- сервер PM робиться перехід у каталог, де знаходяться похідні файли (cd incoming), потім викликається командна оболонка для  створення  потрібної  сис- теми  каталогів  (команда  !),  далі  виконується  процес завантаження  даних (mget).


 

 

Після закінчення роботи з ftp- сервером (виконання quit) тестові дані знаходяться у каталозі на комп'ютері EPVR.

 

2)  Підключення до MMD-систем и  Cray у HLRS та копіювання даних з  ffVR.

 

Підключення до Cray (рис.2) виконується через ssh, що запускається на комп'ютері у TPVR

Копіювання даних виконується через команду scp.

 

3)   Компіляція та виконання програм на Cray.

Для компіляції програми необхідно зробити перехід у відповідний каталог (команда cd), відкомпілювати програму (команда mpicc) та запустити, вказавши потрібне число процесорів для виконання (mpirun з ключем np).

 

4)   Копіювання результатів з HLRS на IPVR та вихід з HLRS.

Після завершення роботи з супер-ЕОМ можна скопіювати результати ви- конання програми на комп'ютер у IPVR. У попередньому прикладі результати бу- ли записані в файл log2, який копіюється через scp, для виходу треба ввести ко- манду exit.

 

Bci ці стани роботи з віддаленими паралельними ресурсами перевірені екс- периментально з виконанням тестової задачі з документації на MPI. Протокол дій на всіх станах задокументовано та наведено у звіті  та  в  інструкції для  користу- вачів РПМС.

 

5.  Висновки    та    перспективи    подальших    досліджень

 

Виконано перший етап робіт з компонування та експериментальної переві- рки працездатності апаратної частини розподіленого паралельного моделюючого середовища. B результаті користувачі отримали можливість реалізовувати та до- сліджувати як паралельні моделі складних динамічних систем, так і підсистеми діалогу, балансування завантаження ресурсів, обміну інформацією моделюючого середовища, а також побудувати  мову  паралельного  моделювання.  Вирішення цих проблем заплановане в угоді про співробітництво між IS R E3 VR та факульте- том OT I на 2000-2003 pp.

 

6.    Література

 

1.   Святний B.A. Проблеми паралельного моделювання складних динамічних систем,- Наукові праці ДонДТУ, серія "Інформатика, кібернетика та обчи- слювальнатехніка", випуск 6, Донецьк,  1999, c. 6-14.

2.   Parallele Simulationstechnik ^eldman L.P., Lapko V.V., Svjatnyj V.A., Grilles ED. , Reuter A., Rothermel K., Zeitz M./ - Наукові праці ДонДТУ, серія "Проблеми моделювання...", вип.  10, Донецьк, 1999, c. 9-19

3.   Tanenbaum A.S. Distributed Operating Systems. Practice hall,  1995.

4.   http://www.hlrs.deflw-access  -  HW&Access