ЦКП ССКЦ ИВМиМГ СО РАН
Проводится регулярный семинар «Высокопроизводительные вычисления» на базе ССКЦ, кафедры Вычислительных систем НГУ и Центра Компетенции по высокопроизводительным вычислениям СО РАН - Intel.
Заседания семинара проходят в конференц-зале ИВМиМГ СО РАН по четвергам в 11-00.
Архивы других лет: 2014 2015 2016 2017 2019 2020 2021 2022 2023 Последние (2024)
Архив семинара "Высокопроизводительные вычисления" (2018 года):
к.ф.-м.н. И.Г. Черных (ИВМиМГ СО РАН)
Аннотация
В докладе будет приведен обзор суперкомпьютерных новинок, представленных на выставке SC18 (Dallas, TX, USA). Будет дано описание самых мощных суперкомпьютеров из ноябрьского списка Top-500 суперкомпьютеров. Отдельно будет выделен в докладе прототип экзафлопсного суперкомпьютера из Китая, в основе которого лежит процессор Hygon x86. Будет приведен обзор: инфраструктурных суперкомпьютерных тенденций, облачных ресурсов для высокопроизводительных вычислений, российских суперкомпьютерных решений, тензорных компьютеров, квантовых компьютеров.
Д.Д. Смирнов (ИВМиМГ СО РАН)
Аннотация
В докладе будет приведено описание комплексов программ для численного решения стохастических дифференциальных уравнений (СДУ) и стохастических дифференциальных уравнений с частными производными (СДУЧП) на суперкомпьютере. Будут приведены оценки вероятностных характеристик решения СДУ и СДУЧП, полученные с помощью метода Монте-Карло, как в численном виде, так и в графическом. Будут приведены численные эксперименты для осциллирующих СДУ и двумерного СДУЧП. Все расчёты проведены на вычислительном кластере Центра коллективного пользования Сибирского суперкомпьютерного центра при ИВМиМГ СО РАН.
к.ф.-м.н. Д.А. Караваев (ИВМиМГ СО РАН)
Аннотация
В работе рассматривается решение динамической задачи геофизики для двухмерного случая в постановке для скоростей и напряжений. Численное моделирование проводится на основе конечно-разностного метода. Представлена организация параллельных вычислений и разработано программное обеспечение для расчетов с применением суперкомпьютеров. По результатам работы создана двухмерная модель Байкальской рифтовой зоны и проведено численное моделирование полного сейсмического поля. Расчеты выполнены с использованием вычислительных ресурсов Центра коллективного пользования Сибирский суперкомпьютерный центр.
Использование технологии Intel® Optane™ (расширение оперативной памяти вычислительных узлов с помощью твердотельных накопителей) на базе ЦКП ССКЦ ИВМиМГ СО РАН
к.ф.-м.н. И.Г. Черных (ИВМиМГ СО РАН)
Аннотация
В докладе будет приведено описание технологии Intel Optane, описаны режимы работы твердотельных накопителей Intel® Optane™ DC P4800X, установленных на одном из узлов кластера НКС-1П. Также будут приведены примеры использования технологии по материалам доклада Vladimir Mironov (МГУ), Andrey Kudryavtsev (Intel), Yuri Alexeev (Argonne National Laboratory), Alexander Moskovsky (РСК), Igor Kulikov(ИВМиМГ СО РАН), Igor Chernykh (ИВМиМГ СО РАН) «Evaluation of Intel Memory Drive Technology Performance for Scientific Applications»
П.А. Титов (ИВМиМГ П.А.СО РАН)
Аннотация
В работе рассматриваются аспекты применения криволинейных сеток для моделирования сейсмополей для 2D и 3D областей, имеющих существенную кривизну свободной поверхности. Для 2D-задачи представлены результаты моделирования при помощи двух методов – конечно-разностного по пространственным и временной переменным, а также комбинации пошагового метода преобразований Лагерра по времени и конечно-разностного по пространственным переменным. Для 3D-задачи применялся только метод конечных разностей. Численные расчеты проводились на кластерах ССКЦ СО РАН и МСЦ РАН.
к.ф.-м.н. В.А. Дедок (ИМ СО РАН)
Аннотация
Доклад посвящен решению обратной задачи аномальной диффузии методом искусственных нейронных сетей. Рассматривается задача восстановления показателя дробного дифференцирования и параметра среды по набору данных измерений концентрации вещества в фиксированной точке в различные моменты времени. Исследуется возможность восстановления указанных данных, точность восстановления и значимость исходных данных.
к.ф.-м.н. А.В. Снытников (ИВМиМГ СО РАН)
Аннотация
Круг задач, решаемых на высокопризводительных вычислительных системах, очень обширен. Все эти очень различные задачи объединяет одно: они предъявляют очень высокие требования к оборудованию и системному программному обеспечению вычислительной системы (ВС). Это означает необходимость создания специализированных программ-тестов для определения быстродействия конкретной ВС. Желательно, чтобы тесты создавались на базе программ, используемых для решения реальных задач для того, чтобы результатом работы теста были бы не только числовые показатели, но и конкретное подтверждение способности тестируемой ВС решать сложные задачи, актуальные с научной или производственной точки зрения. Для сокращения временных и ресурсных затрат на проведение тестирования необходимо создавать тесты на базе программ, реализующих такие математические методы, которые предъявляют высокие требования сразу к нескольким, в идеале - ко всем подсистемам тестируемой ВС. Одним из таких методов является метод частиц в ячейках. Его достоинством является, с одной стороны, использование в качестве инструментов нескольких существенно различных вычислительных методов, что позволяет исходя из тестирования на методе частиц в ячейках достоверно прогнозировать производительность данной ВС на многих других задачах. С другой стороны, достоинством метода частиц как теста является трудность его эффективной реализации на высокопроизводительных ВС, в частности нерегулярный доступ к памяти, недетерминированный объем и частота межпроцессорных пересылок и очень больший объем выдач - проблемы с которыми не всегда и не в полном объёме удается справляться на уровне прикладного ПО (программного обеспечения).
к.ф.-м.н. А.Ю. Амбос (ИВМиМГ СО РАН)
Аннотация
Метод Монте-Карло особенно эффективен в тех случаях, когда численно реализуемая вероятностная модель (например, базовый ансамбль траекторий каких-либо частиц) содержит случайные параметры, определяющие распределения элементов траекторий, в частности, длин свободных пробегов квантов излучения. В этих случаях эффективен метод "двойной рандомизации". При решении задач переноса этим методом для каждой реализации среды достаточно моделировать лишь одну траекторию частицы. Кратность рандомизации возрастает при вычислении корреляционных характеристик потоков частиц, дисперсий функционалов и параметров соответствующих асимптотик. Дисперсии статистических оценок существенно возрастают при увеличении кратности рандомизации, поэтому здесь необходимы параллельные вычисления, по-видимому, с использованием сопроцессоров, так как алгоритмы реализации параметров среды и базовых траекторий имеют разную структуру и масштаб. Практически важны реалистические модели случайных сред, которые получаются суммированием независимых реализаций элементарных пуассоновских поле, что можно учесть при организации супервычислений.
В.А. Иващенко (ИТ СО РАН, НГУ)
Аннотация
В работе при помощи прямого численного моделирования уравнений Навье-Стокса (DNS) и метода моделирования крупных вихрей (LES) проводится исследование процессов перемешивания в турбулентных затопленных струях. Рассматривается импульсный и стационарный поток воздуха, вытекающий из длинной трубы круглого сечения в безграничное пространство, затопленное воздухом, гелием или углекислым газом. Входные условия идентичны во всех трёх случаях, что важно для их прямого сравнения, и соответствуют полностью развитому турбулентному течению в трубе, характеристики которого определяются только числом Рейнольдса. Для получение данных активно используется кластер НКС-1П ССКЦ.
к.ф.-м.н. С.А. Соловьев (ИНГГ СО РАН)
Аннотация
Сравнивается производительность двух акустических решателей в контексте геофизической задачи полного обращения волновых полей. Используя высококонтрастную 3-мерную скоростную модель, проводится серия экспериментов с различным числом кластерных узлов и числом источников. При увеличении числа узлов решатель во временной области (TD) работает быстрее решателя в частотной области (FD разработанный автором). Это происходит благодаря идеальной масштабируемости TD решателя. Также при увеличении числа источников FD становится быстрее TD, начиная с некоторого числа источников. Такое поведение FD основано на используемых подходах: факторизация матрицы, переупорядоченная алгоритмом вложенных сечений, и сжатие данных, используя аппроксимацию матрицами малого ранга и иерархический (HSS) формат данных. Таким образом, оба решателя являются актуальными: область использования каждого решателя определяется мощностью кластера (количество узлов) и размером геофизической модели (количество источников).
А.В. Кашковский, А.А. Шершнев, П.В. Ващенков (ИТПМ СО РАН)
Аннотация
Рассмотрен подход, который позволяет использовать расчетный код на различных типах вычислительных устройств, в том числе ГПУ, многоядерных ЦПУ и ускорителях Intel Xeon Phi. Основная идея заключается в конвертировании исходного текста программы, написанной для выполнения на ГПУ с использованием технологии CUDA, в многопоточную параллельную программу, основанную на использовании технологии OpenMP. Дано сравнение времени вычислений на различных архитектурах процессоров (ГПУ, ЦПУ, Intel Xeon Phi) и показана эффективность параллелизации. Часть расчетов проводилась на кластерах НКС-30 и НКС-1П ССКЦ, и были выявлены некоторые особенности вычисления на этих кластерах. На примере гибридного (ГПУ+ЦПУ) расчета продемонстрированы возможности и особенности гибридных вычислений.
И.И. Кулагин (СибГУТИ)
Аннотация
Работа посвящена разработке и исследованию средств архитектурно-ориентированной оптимизации выполнения параллельных программ для вычислительных систем (ВС) с многоуровневым параллелизмом. Предложены алгоритмы оптимизации использования параллелизма для основных функциональных уровней ВС. На уровне вычислительных узлов (ВУ) реализован алгоритм, выполняющий оптимизирующую трансформацию циклических конструкций в параллельных PGAS-программах. Алгоритм реализован в виде расширения компилятора IBM X10. На уровне многопроцессорного ВУ с общей памятью рассмотрены задачи оптимизации реализаций программной транзакционной памяти (software transactional memory - STM). Для параллельных STM-программ разработан метод сокращения числа ложных конфликтов по результатам их предварительного профилирования. Для известных алгоритмов автоматической векторизации циклов в открытых компиляторах GCC и LLVM/Clang выявлены классы трудно векторизуемых циклов из тестового набора ETSVC (J. Dongarra, D. Padua). Построенное подмножество циклов составляет базисный набор для анализа эффективности ядер автовекторизаторов оптимизирующих компиляторов для векторных процессоров класса «регистр-регистр».