Эта книга рассказывает о совместной работе OpenMP (Open Multi-Processing) и MPI (Message Passing Interface) на многозадачных вычислительных кластерах. Чтобы понять, насколько эффективна такая совместная работа, авторы анализируют аспекты реальной жизни проекта, в котором возникают такие проблемы.
В книге можно найти информацию о простых методах определения эффективности параллельных процессов. Обычно, вычисления трудоемкости проводится при помощи подхода на основе пооператорного анализа. Открытые технологии OpenMP, позволяют работать с различными типами процессоров, системами памяти и архитектурами. MPI, с другой стороны, имеет дело с удалёнными межпроцессными взаимодействиями. Авторы рассматривают эти технологии и анализируют влияние различных факторов, таких как обмен данными, распределение памяти, размер вычислительной работы и другие.
Основная часть книги посвящена научному изучению методов улучшения производительности, представленных выше систем, на примере конкретного проекта в частном секторе для промышленной автоматизации. Эксперименты проходили на нескольких узлах различных вычислительных систем. Результаты показали высокую эффективность совмещение технологий, они позволили ускорить процессы параллельно запускаемых приложений на кластере и снизить время решения задач.
Работа посвящена эффективному использованию параллельных технологий на вычислительных кластерах и является актуальным подходом к решению проблем эффективного распределения интенсивно используемых вычислительных ресурсов, отвечающих за значительную долю в общей стоимости компьютерной обработки данных и поддержки качественных показателей параллельной компьютерной архитектуры.
Основная проблема данной работы заключается в эффективном распределении ресурсов вычислительного кластера с использованием технологии OpenMP и инфраструктуры MPI. Работа стремится достичь глобального увеличения производительности параллельных задач путем комбинированного использования обеих технологий. Автор обзора также вводит понятие теоретических и аппаратных факторов, которые оказывают непосредственное влияние на скорость отклика вычислений в параллельной среде. Для проведения исследований автор разрабатывает тестовые OpenMP-параллельные и параллельные программы MPI с определенным соотношением между вычислительными операциями и операциями коммуникации. Экспериментальные исследования с помощью этих программ и множественных вычислительных узлов приводят к выводу о том, что эффективная интеграция обеих технологий открывает новые перспективы для достижения высокой производительности в рамках вычислительных кластеров.
Электронная Книга «Совместное использование технологий OpenMP и MPI на узлах вычислительного кластера» написана автором А. С. Федулов в 2021 году.
Минимальный возраст читателя: 0
Язык: Русский
Серии: Прикладная информатика. Научные статьи
Описание книги от А. С. Федулов
Данная работа посвящена проблеме реализации эффективной параллельной программы, решающей поставленную задачу с использованием максимально доступного количества ресурсов вычислительного кластера, с целью получения соответствующего выигрыша в производительности по отношению к последовательной версии алгоритма. Основная цель работы заключалась в исследовании возможностей совместного использования технологий распараллеливания OpenMP и MPI с учетом характеристик и особенностей решаемых задач для повышения производительности выполнения параллельных алгоритмов и программ на вычислительном кластере. В статье проведен краткий обзор подходов к вычислению функции трудоемкости для последовательных программ. Для определения трудоемкости параллельных программ в работе был использован подход на основе пооперационного анализа. Описаны особенности технологий распараллеливания последовательных программ OpenMP и MPI. Приведены основные программно-аппаратные факторы, влияющие на скорость выполнения параллельных программ на узлах вычислительного кластера. Основное внимание в работе уделено исследованию влияния на производительность соотношения количества вычислительных и обменных операций в программе. Для реализации исследований были разработаны тестовые параллельные OpenMP- и MPI-программы, в которых задается общее количество операций и соотношение между вычислительными и обменными операциями; также в тестовых программах был предусмотрен замер времени их выполнения. В качестве программно-аппаратной платформы был использован вычислительный кластер, состоящий из нескольких узлов. Проведенные экспериментальные исследования позволили подтвердить эффективность гибридной модели параллельной программы в многоузловых системах с разнородной памятью с использованием OpenMP в подсистемах с общей памятью, а MPI – в подсистеме с распределенной памятью.