Л.И. Рубанов

О распараллеливании неоднородных циклов на суперкомпьютерах с распределённой памятью

Рассматривается задача построения типового алгоритма для параллельного исполнения независимых итераций многократного цикла на мультипроцессорной вычислительной системе с распределённой памятью. Алгоритм должен обеспечивать эффективное использование вычислительной мощности системы при существенно различающейся трудоёмкости отдельных итераций и/или производительности отдельных процессоров, независимо от числа используемых процессоров. Предполагается, что межпроцессорный обмен данными и управление параллельными вычислениями реализуются посредством стандартного интерфейса передачи сообщений (MPI), широко применяемого на подобных системах. Проанализированы существующие методы распараллеливания циклов и получены эмпирические оценки их эффективности для различных моделей неоднородности итераций.

 

КЛЮЧЕВЫЕ СЛОВА: высокопроизводительные вычисления, распараллеливание, распределённая память, MPI, неоднородный цикл