Розподілене паралельне моделююче середовище

 

Вступ

Прогрес сучасних галузей техніки, технологій та біотехнологій, технологій довкілля залежить від рівня теорії та практичної реалізації методів проектування автоматизованих технічних об’єктів, технологічних установок та ліній, що визначаються як складні динамічні системи (ДС). На прикінці 90-х років моделювання стало вирішальним фактором забезпечення високої якості проектування динамічних систем з зосередженими та розподіленими параметрами, розширилося коло об’єктів моделювання – від “традиційних” технічних систем до керованих біотехнологічних процесів та систем.

Центральною проблемою проектів ДС є гарантування новизни та якості проектних рішень. У переліку факторів безумовного вирішення цієї проблеми чільне місце займають методи та засоби моделювання динамічних систем, які можуть використовуватись на всіх етапах проекту ДС від формулювання техніко-економічних вимог до випробувань та початку  експлуатації. Основи такого модельного супроводження проектів ДС були в значній мірі відпрацьовані на аналогових та аналого-цифрових засобах моделювання. З середини 80-х років почався інтенсивний перехід до засобів цифрового моделювання: розроблені та реалізовані  на всіх типах цифрових ЕОМ блоково - та рівняння-орієнтовані мови моделювання ДС, швидко розвивається апаратна  база моделювання – персональні та супер- ЕОМ, паралельні обчислювальні системи SIMD та MIMD-архітектур. Саме останні покликані компенсувати відсутність надпотужних паралельних процесорів в моделюючих комплексах, які свого часу відіграли вирішальну роль у розробці аерокосмічних та технологічних ДС. Застосування паралельних ресурсів потребує нової системної організації засобів моделювання ДС, відкриває принципово нові можливості побудови моделей реальної складності та модельної підтримки проектів ДС, призводить до більш високих вимог до системотехнічної та системопрограмної організації засобів моделювання та інтерфейсів користувача.

Перспективним напрямком удосконалення та розвитку засобів моделювання є широке застосування паралельних обчислювальних систем до побудови моделюючих середовищ.

Цілі роботи

-        дослідження можливостей РПМС

-        розробка методик роботи з РПМС

-        аналіз перспектив використання РПМС

Зміст досліджень

-        апаратна структура РПМС

-        структура програмного забезпечення РПМС

-        MPI- програмування у РПМС

-        практичні дослідження

Структура апаратних засобів

До апаратних засобів РПМС відноситься сукупність комп’ютерних систем з великою обчислювальною потужністю, периферійних систем та засобів комунікації між вузлами. Структура РПМС приведена на рис.2.1.

 

Доступ до обчислювальних ресурсів HLRS (високопродуктивного комп’ютерного центру Штутгартського університету) відбувається з робочого місця (РМ) через мережу Internet та вузол IPVR (Інституту паралельних систем Штутгартського університету). Ресурсі комп’ютерного центру захищені від доступу зовні завдяки firewall – особливим вузлам, яки відфільтровують пакети, що надходять з “невідомих” хостів, для запобігання несанкціонованого використання обчислювальної потужності. Комп’ютер у IPVR є відомий для firewall, тому через нього можна отримати доступ до паралельних ресурсів.

Крім паралельних обчислювальних машин у HLRS (MIMD- систем Cray і Hitachi) надається можливість додаткового доступу до файлового сервера, де можна зберігати додаткові дані внаслідок обмеження дискової квоти на машинах.

Характеристики MIMD- системи CrayT3E (рис.2.2):

-        обчислювальна потужність: 461GFLOP/s

-        кількість вузлів: 512

-        пам’ять: 64 GB DRAM, на вузлі: 128 MB DRAM

-        дисковий накопичувач: 507 GB

-        підтримка стандартів паралельного програмування: Message Passing, Remote Copy

-        операційна система: Chorus Based OS

Bild der Cray T3E

Рис.2.2. MIMD- система CrayT3E.

Характеристики MIMD- системи Hitachi SR2201 (рис.2.3):

-        обчислювальна потужність: 9.6 GFLOP/s

-        кількість вузлів: 32

-        пам’ять: 10 GB DRAM, на вузлі: 256 MB DRAM

-        дисковий накопичувач: 54 GB

-        підтримка стандартів паралельного програмування: Message Passing (MPI)

-        операційна система: HI-UX/MPP based on OSF/1 MK-AD

Bild der Hitachi SR2201

Рис.2.3. MIMD- система Hitachi SR2201.

Характеристики файлового сервера SGI Power Challenge (рис.2.4):

-        2 центральних процесора: Mips R4400 250 MHz

-        пам’ять: 512 MB DRAM

-        дисковий накопичувач: 1260 GB

SGI Power Challenge

2.4. Файловий сервер

SGI Power Challenge.

Структура системних програмних засобів.

До системних програмних засобів РПМС відноситься усе програмне забезпечення, що дозволяє системі функціонувати.

Системне програмне забезпечення повинно:

-        дозволяти виконувати операції з файловими даними (копіювання РМ<->IPVR<->HLRS, упорядкування файлів у домашніх каталогах та ін.)

-        дозволяти створювати двоїнні виконавчі модулі з похідних, що на мові високого рівня

-        виконувати процедуру авторизації при вході користувача на систему

-        системні програмні засобі находяться на різних комп’ютерах з різною архітектурою, але вони повинні взаємодіяти один з іншим.

Існує кілька засобів копіювання даних між віддаленими системами, але частіше використовуються ftp та scp/rcp [20].

При використанні ftp на комп’ютери встановлюються ftp-сервер (ftpd) та ftp-клієнт (ftp). Клієнтська програма ініціює зв’язок з сервером та отримає від нього дозвіл на роботу з файловими даними на серверу (читання/запис). Недолік підходу – потрібність знати команди (ftp- серверу): часто щоб скопіювати файл на віддалений комп’ютер, потрібно ввести кілька довгих команд, особливо, якщо копіюється кілька файлів з багаторівневою структурою каталогів. Крім того, на комп’ютер мало встановити клієнтську програму – треба ще займатися адмініструванням сервера. Позитивна сторона підходу – повний контроль за виконанням операції, можливість продовжити копіювання після аварійної зупинки.

Інший засіб копіювання – використання команд віддаленого копіювання rcp або scp, які базуються на віддаленому доступі до системи через rsh або ssh відповідно. Команди відрізняються тим, що у s- формі виконується шифрування сесії, що підвищує ступінь захисту при передачі даних. Для успішного використання команд необхідно, щоб на віддаленій системі було встановлено ssh- сервер (sshd). До позитивних сторін відносяться: простота та натуральність у використанні. Недоліки: неможливість продовжити операцію з місця аварійної зупинки.

Для операцій упорядковування даних використовуються класичні команди системи UNIX (mkdir, cp, rm і т.д.) [20].

Для  одержання можливості виконати якусь команду на віддаленій системі необхідно спочатку підключитись та війти до системи. Це може здійснити завдяки використанню особливих програмних засобів: telnet або ssh. Telnet [2-6] дозволяє виконати повний вхід на віддалену систему, як на локальну, а ssh – запускає командну оболонку на віддаленій системі з шифруванням сесії. Telnet вимагає наявності на віддаленій системі telnet- сервера (telnetd), а  ssh – ssh- сервера (sshd).

До засобів побудови програмного забезпечення відносяться компілятори C/C++, що встановлено на MIMD- системах, з підтримкою MPI (команди mpicc, mpiCC, mpirun) [18], а також команди маніпулювання з чергами завдань (qsub, qstat та ін.).

Таким чином, структура необхідних системних програмних засобів має вигляд, як на рис.2.5.

На РМ повинні бути встановлені: ftp- сервер, якщо дані з IPVR копіюються через ftp, або ssh- сервер у разі з scp, програма telnet для отримання доступу до IPVR.

На IPVR встановлені: ssh для підключення до HLRS, scp та ssh- сервер для обміну файловими даними з HLRS та РМ, ftp для альтернативного зв’язку з РМ, telnet- сервер для надання доступу з РМ.

На комп’ютерах HLRS встановлені scp та ssh- сервер для обміну файловими даними, а також комплект mpi для розробки паралельних програм.


Проведення тестових випробувань

          Процес тестових випробувань РПМС розбивається на певну послідовність простих дій, суттю яких є:

-        підключення до віддаленої системи

-        відправка тестового завдання

-        компіляція та запуск експериментальної програми на віддаленій системі

-        отримання результатів

-        вихід з віддаленої системи

Висновки

-        проаналізовані різні методики роботи з віддаленими системами у складі РПМС

-        розроблені тестові програми

-        отримані практичні результати

Перспективи подальших досліджень

-        дослідження реалізації MPI на Hitachi

-        використання файлового сервера при роботі з РПМС

-        дослідження моделей складних динамічних систем