ДонНТУ   Портал магистров

Ссылки по теме выпускной работы

    Материалы магистров ДонНТУ

  1. Кучереносова Ольга Владимировна

    Исследование эффективности параллельных вычислительных систем

    Руководитель: д.т.н., проф. Башков Е.A.

  2. Дяченко Татьяна Федоровна

    Исследование параллельного алгоритма построения Марковских моделей вычислительных систем

    Руководитель: к.физ-мат.н., доц. Дацун Н.Н.

  3. Мищук Юлия Константиновна

    Анализ эффективности вычислительных систем с использованием Марковской модели

    Руководитель: д.т.н., проф. Фельдман Л.П.

  4. Завалкин Дмитрий Александрович

    Анализ и оценка эффективности параллельных разностных методов решения ОДУ на кластере

    Руководитель: д.т.н., проф. Фельдман Л.П.

  5. Ремизов Константин Анатольевич

    Исследование и анализ эффективности работы кластерных систем типа клиент-сервер с неразделяемыми серверами приложений

    Руководитель: д.т.н., проф. Фельдман Л.П.

  6. Душинская Наталья Александровна

    Исследование эффективности параллельных одношаговых алгоритмов решения задачи Коши для ОДУ

    Руководитель: д.т.н., проф. Фельдман Л.П..

  7. Алтынпара Евгений Олегович

    Решение задач большой размерности на кластере

    Руководитель: к.т.н., доц. Ладыженский Юрий Валентинович

  8. Астахов Алексей Вячеславович

    Распределенное моделирование задач оптимизации компьютерных сетей на вычислительном кластере

    Руководитель: к.т.н., доц. Ладыженский Юрий Валентинович

  9. АльМасри Мохаммед Рида

    Параллельные методы решения систем линейных алгебраических уравнений на вычислительном кластере

    Руководитель: к.т.н., доц. Ладыженский Юрий Валентинович

  10. Кияшко Антон Александрович

    Разработка и исследование алгоритмов формирования топологий MIMD-моделей сетевых объектов на базе MPI-стандарта

    Руководитель: д.т.н., проф. Святный В.А.

  11. Специализированные Интернет-ресурсы

  12. The IEEE Computer Society

    The IEEE Computer Society is the computing professional’s single, unmatched source for technology information, inspiration, and collaboration. By making the most up-to-date and advanced information in the computing world easily accessible, we are the source that computing professionals trust to provide high-quality, state-of-the-art information on an on-demand basis.

  13. Лаборатория параллельных информационных технологий

    На страницах нашего сервера мы попытались собрать и систематизировать информацию, которая так или иначе связана с параллельными вычислениями - бурно развивающейся областью современной науки, активно проникающей во все новые и новые стороны нашей жизни. В самом деле, проектирование автомобилей и самолетов, нефтедобыча и фармакология, прогноз климатических изменений, синтез новых материалов и многие другие направления деятельности человека просто немыслимы без использования параллельных информационных технологий.

  14. Центр суперкомпьютерных технологий

    Официальный сайт центра суперкомпьютерных технологий Нижегородского государственного университета им. Н.И. Лобачевского

  15. TOP500 Supercomputing Sites

    The TOP500 project was started in 1993 to provide a reliable basis for tracking and detecting trends in high-performance computing. Twice a year, a list of the sites operating the 500 most powerful computer systems is assembled and released.

  16. Суперкомпьютер ИК НАН Украины

    Система управления суперкомпьютером СКИТ ИК НАН Украины

  17. Linux. Кластер. Практическое руководство по параллельным вычислениям

    Этот сайт посвящен вопросу организации параллельных вычислений, без использования суперкомпьютеров. Или, если угодно, как построить суперкомпьютер из подручных материалов.

  18. TopCrunch

    The TopCrunch project was initiated to track the aggregate performance trends of high performance computer systems and engineering software. Instead of using a synthetic benchmark, actual engineering software applications are used with real data and are run on high performance computer systems.

  19. Сибирский Суперкомпьютерный Центр СО РАН

    Сутью концепции ССКЦ является концентрация усилий в рамках ССКЦ на следующих пяти основополагающих направлениях: распределенные высокопроизводительные многопроцессорные информационно-вычислительные системы и комплексы; высокоскоростные корпоративные сети передачи данных; программное обеспечение для высокопроизводительных вычислений в интересах проведения фундаментальных и междисциплинарных исследований; программно-аппаратные средства хранения, обработки и доступа к данным на основе распределенных баз данных, знаний, геоинформационных систем, современных технологий визуализации и интеллектуального интерфейса; Internet-технологии (WWW-технологии, мультимедиа, Intranet, электронные библиотеки и пр.);

  20. Межведомственный Суперкомпьютерный Центр

    МСЦ является крупнейшим и самым мощным суперкомпьютерным центром в России в сфере науки и образования, в десять раз превышающим по производительности другие крупные вычислительные центры России.

  21. Mendeley

    Mendeley is a free reference manager and academic social network that can help you organize your research, collaborate with others online, and discover the latest research.

  22. Computational Information Systems Laboratory

    The Computational & Information Systems Lab provides computing resources, advances science, enhances education

  23. Научные работы и статьи

  24. Параллельный алгоритм построения дискретной марковской модели неоднородного кластера

    Авторы: Кучереносова О.В.

    Описание: В статье рассмотрен неоднородный кластер с совместным использованием дискового пространства. Предложен параллельный алгоритм построния дискретной марковской модели для рассматриваемой структуры

  25. Моделирование параллельной реализации марковских моделей в многопроцессорных вычислительных системах

    Авторы: Мищук Ю.К., Фельдман Л.П.

    Описание: В статье рассматривается вопрос возможности распараллеливания и моделирования марковских моделей в вычислительных системах с целью рационального использования ресурсов вычислительной среды.

  26. Управление потоками заданий в интегрированных кластерных системах

    Авторы: И.В. Бычков, Г.А. Опарин, А.П. Новопашин, А.Г. Феоктистов, А.С. Корсунов

    Описание: В докладе рассматривается подход к управлению потоками заданий в интегрированных кластерных системах, базирующийся на применении методологии концептуального программирования и технологии многоагентных систем.

  27. Об исследовании параллельных алгоритмов построения марковских моделей вычислительных кластеров

    Авторы: Михайлова Т.В., Абдулина О.Р.

    Описание: Рассмотрены параллельные алгоритмы построения дискретной модели Маркова однородного и неоднородного кластеров

  28. Оценка эффективности высокопроизводительных вычислительных систем с использованием аналитических методов

    Авторы: Т.В. Михайлова

    Описание: Предлагаются модифицированные методы анализа и синтеза высокопроизводительных вычислительных ресурсов различной топологии с помощью вероятностных моделей, позволяющие анализировать и проектировать более широкий класс высокопроизводительных параллельных вычислительных сред

  29. Дискретная модель Маркова однородного кластера

    Авторы: Л.П. Фельдман Т.В. Михайлова

    Описание: В статье предлагается дискретная марковская модель однородного кластера и оценка ее трудоемкости.

  30. Реализация параллельного алгоритма построения марковских моделей

    Авторы: Фельдман Л.П., Михайлова Т.В., Ролдугин А.В.

    Описание: In the work there is presented a discreet Markov’s model algorithm, which allows fastening a Markov’s model’s computation.

  31. Achieving Power-Efficiency in Clusters without Distributed File System Complexity

    Авторы: Hrishikesh Amur, Karsten Schwan

    Описание: Power-efficient operation is a desirable property, particularly for large clusters housed in datacenters. Recent work has advocated turning off entire nodes to achieve power-proportionality, but this leads to problems with availability and fault tolerance because of the resulting limits imposed on the replication strategies used by the distributed file systems (DFS) employed in these environments, with counter-measures adding substantial complexity to DFS designs. To achieve power- efficiency for a cluster without impacting data availability and recovery from failures and maintain simplicity in DFS design, our solution exploits cluster nodes that have the ability to operate in at least two extreme system- level power states, characterized by minimum vs. maximum power consumption and performance. The paper describes a cluster built with power-efficient node prototypes and presents experimental evaluations to demonstrate power-efficiency.

  32. An Efficient Load Balancing Algorithm for Cluster System

    Авторы: Chunkyun Youn, Ilyoung Chung

    Описание: Load balancing is one of the best efficient methods for performance improvement of cluster system. Recently, WLC algorithm is used for the load balancing of cluster system. But, the algorithm also has load imbalance between servers, because it uses inaccurate static load status of servers. In this paper, I suggest a more efficient dynamic load balancing algorithm base on various load status information of servers by real time. It shows that load imbalance phenomenon is improved greatly and response time is also improved compare with WLC algorithm.

  33. Implementing shared memory on clustered machines

    Авторы: Carlo Fantozzi, Andrea Alberto Pietracaprina, Geppino Pucci

    Описание: We present a general deterministic scheme to implement a shared memory abstraction on any distributed-memory machine which exhibits a clustered structure. More specifically, we develop a memory distribution strategy and an access protocol for the Decomposable BSP (D-BSP), a generic machine model whose bandwidth/latency parameters can be instantiated to closely reflect the characteristics of machines that admit a hierarchical decomposition into independent clusters. Our scheme achieves provably optimal slowdown for those machines where delays due to latency dominate over those due to bandwidth limitations. For machines where this is not the case, the slowdown is a mere logarithmic factor away from the natural bandwidth-based lower bound. An important feature of the scheme is that it can be made fully constructive for small memory sizes, while for larger sizes it relies solely on nonconstructive graphs of weak expansion

  34. Exploring instruction caching strategies for tightly-coupled shared-memory clusters

    Авторы: Bortolotti Daniele, Paterna Francesco, Pinto Christian, Marongiu Andrea, Ruggiero Martino, Benini Luca

    Описание: Several Chip-Multiprocessor designs today leverage tightly-coupled computing clusters as a building block. These clusters consist of a fairly large number N of simple cores, featuring fast communication through a shared multibanked L1 data memory and approximately equal 1 Instruction-Per-Cycle (IPC) per core. Thus, aggregated I-fetch bandwidth approaches f * N, where f is the cluster clock frequency. An effective instruction cache architecture is key to support this I-fetch bandwidth. In this paper we compare two main architectures for instruction caching targeting tightly coupled CMP clusters: (i) private instruction caches per core and (ii) shared instruction cache per cluster. We developed a cycle-accurate model of the tightly coupled cluster with several configurable architectural parameters for exploration, plus a programming environment targeted at efficient data-parallel computing. We conduct an in-depth study of the two architectural templates based on the use of both synthetic microbenchmarks and real program workloads. Our results provide useful insights and guidelines for designers.

  35. A highly efficient multi-core algorithm for clustering extremely large datasets

    Авторы: Johann M Kraus, Hans A Kestler

    Описание: In recent years, the demand for computational power in computational biology has increased due to rapidly growing data sets from microarray and other high-throughput technologies. This demand is likely to increase. Standard algorithms for analyzing data, such as cluster algorithms, need to be parallelized for fast processing. Unfortunately, most approaches for parallelizing algorithms largely rely on network communication protocols connecting and requiring multiple computers. One answer to this problem is to utilize the intrinsic capabilities in current multi-core hardware to distribute the tasks among the different cores of one computer. Results: We introduce a multi-core parallelization of the k-means and k-modes cluster algorithms based on the design principles of transactional memory for clustering gene expression microarray type data and categorial SNP data. Our new shared memory parallel algorithms show to be highly efficient. We demonstrate their computational power and show their utility in cluster stability and sensitivity analysis employing repeated runs with slightly changed parameters. Computation speed of our Java based algorithm was increased by a factor of 10 for large data sets while preserving computational accuracy compared to single-core implementations and a recently published network based parallelization. Conclusions: Most desktop computers and even notebooks provide at least dual-core processors. Our multi-core algorithms show that using modern algorithmic concepts, parallelization makes it possible to perform even such laborious tasks as cluster sensitivity and cluster number estimation on the laboratory computer.

  36. Open MPI: A Flexible High Performance MPI

    Авторы: Richard L Graham, Timothy S Woodall, Jeffrey M Squyres

    Описание: A large number of MPI implementations are currently available, each of which emphasize different aspects of high-performance computing or are intended to solve a specific research problem. The result is a myriad of incompatible MPI implementations, all of which require separate installation, and the combination of which present significant logistical challenges for end users. Building upon prior research, and influenced by experience gained from the code bases of the LAM/MPI, LA-MPI, FT-MPI, and PACX-MPI projects, Open MPI is an all-new, productionquality MPI-2 implementation that is fundamentally centered around component concepts. Open MPI provides a unique combination of novel features previously unavailable in an open-source, production-quality implementation of MPI. Its component architecture provides both a stable platform for third-party research as well as enabling the run-time composition of independent software add-ons. This paper presents a high-level overview the goals, design, and implementation of Open MPI, as well as performance results for its point-to-point implementation.

  37. MPI cluster system software

    Авторы: N Desai, R Bradshaw, A Lusk, E Lusk

    Описание: We describe the use of MPI for writing system software and tools, an area where it has not been previously applied. By "system software" we mean collections of tools used for system management and operations. We describe the common methodologies used for system software development, together with our experiences in implementing three items of system software with MPI. We demonstrate that MPI can bring significant performance and other benefits to system software.

  38. Efficient Programming and Optimization of Parallel Applications for Cluster Systems

    Авторы: Ullrich Becker-Lemgau

    Описание: Designing parallel applications and parallelizing sequential applications for cluster systems require powerful development tools to achieve scalable, reliable and highly efficient applications. The Intel Cluster Toolkit offers a toolset for development of MPI based applications and enables the developer to build, analyze, and optimize the parallel application. This article will describe the basic functionality and use of these tools.

  39. Учебные материалы и справочная литература

  40. High Performance Computing and Communications Glossary

    High Performance Computing and Communications Glossary

  41. Glossary of Supercomputing Terms

    Glossary of Supercomputing Terms

  42. The Message Passing Interface (MPI) standard

    MPI is a library specification for message-passing, proposed as a standard by a broadly based committee of vendors, implementors, and users.

  43. Параллельные вычисления (базовый курс)

    В учебном курсе рассмотрены следующие основные вопросы: архитектура параллельных вычислительных систем; программирование параллельных вычислительных систем; параллельные численные методы для решения основных классов вычислительных задач.

  44. Введение в методы параллельного программирования

    Дается краткая характеристика принципов построения параллельных вычислительных систем, рассматриваются математические модели параллельных алгоритмов и программ для анализа эффективности параллельных вычислений, приводятся примеры конкретных параллельных методов для решения типовых задач вычислительной математики.

  45. Designing and Building Parallel Programs

    My goal in this book is to provide a practitioner's guide for students, programmers, engineers, and scientists who wish to design and build efficient and cost-effective programs for parallel and distributed computer systems. I cover both the techniques used to design parallel programs and the tools used to implement these programs. I assume familiarity with sequential programming, but no prior exposure to parallel computing.

  46. Архитектура параллельных вычислительных систем

    Излагаются основные структурные решения, воплощённые в параллельных вычислительных системах и способствующие их высокой производительности. Изучаются основные популярные архитектуры. Исследуются принципы оптимизации выполнения параллельных программ.

  47. Параллельная обработка данных

    Рассматриваются основные разновидности параллельной обработки данных

  48. Параллельное программирование

    Предлагаются методы параллельных вычислений при решении ряда задач оптимизации, методы организации оптимальных параллельных вычислительных процессов управления и информационного обслуживания, методы диспетчирования и синхронизации. Обсуждается применение методов параллельного программирования при разработке GRID-технологий.

  49. Программирование для высокопроизводительных ЭВМ

    Настоящий курс является вводным курсом в технологии высокопроизводительных расчетов. Мы видим своим читателем пользователя, занимающегося прикладным программированием и не являющегося специалистом по компьютерным архитектурам. Нам хотелось бы познакомить такого читателя с основными принципами работы высокопроизводительных вычислительных систем и основами программирования для них. Нам хотелось, кроме того, дать читателю возможность оценить трудоемкость такого программирования и осознать, требуется ли ему в действительности суперкомпьютер, а если требуется, то какой путь к получению конечного результата самый оптимальный.

  50. Теория и практика параллельных вычислений

    Дается краткая характеристика принципов построения параллельных вычислительных систем, рассматриваются математические модели параллельных алгоритмов и программ для анализа эффективности параллельных вычислений, приводятся примеры конкретных параллельных методов для решения типовых задач вычислительной математики.

  51. Основы параллельных вычислений для многопроцессорных вычислительных систем

    В учебном пособии излагается учебный материал, достаточный для успешного начала работ в области параллельного программирования. Для этого в пособии дается краткая характеристика принципов построения параллельных вычислительных систем, рассматриваются математические модели параллельных алгоритмов и программ для анализа эффективности параллельных вычислений, приводятся примеры конкретных параллельных методов для решения типовых задач вычислительной математики.

  52. Параллельное программирование с использованием OpenMP

    В курсе изложены сведения о параллельном программировании с использованием OpenMP для современных параллельных высокопроизводительных вычислительных систем с общей памятью.

  53. Параллельные вычислительные системы

    В книге рассматриваются параллельные вычислительные системы (вычислительные системы параллельной обработки информации): многомашинные, многопроцессорные, магистральные (конвейерные), матричные, ассоциативные, с комбинированной и перестраиваемой структурой и некоторые другие. Системы таких типов отличаются повышенной гибкостью и обладают высокими характеристиками производительности и надежности. Дается систематическое описание организации структуры и функционирования параллельных вычислительных систем. В описании приводятся структурные схемы и основные характеристики нескольких десятков отечественных и зарубежных параллельных вычислительных систем

  54. Параллельное программирование с использованием технологии MPI

    Технология MPI является основным средством программирования для кластерных систем и компьютеров с распределенной памятью, но может применяться также и на вычислительных системах других типов.