Суперкомпьютеры
Игорь Николаевич Коньшин (инк)

Занятия в 14:55-18:10 по вторникам ОЧНО в НИЦ, этаж 8, ауд. 5 (8.112).
Выполненные задания присылайте на почту, указанную в списке нашей объединенной группы >>>здесь<<<.

Структура курса:
- Теоретическая часть: классификация суперкомпьютеров, параллельные компьютеры с общей и распредененной памятью, OpenMP и MPI, оценка параллельной эффективности, статический и динамический параллелизм, открытое ПО и коммерческие пакеты
- Практика
- Написание итоговой программы для суперкомпьютера (mvm)
- Подготовка к ЦТ
- Сдача ЦТ

16.09.2025:
История развития вычислительной техники (продолжение...). TOP500
09.09.2025:
История развития вычислительной техники (продолжение...)
02.09.2025:
Цели и задачи курса. История развития вычислительной техники.
Задание 1: (а) Попробуйте определить какой был самый мощный суперкомпьютер на момент вашего рождения и его производительность.
(b) Напишите, на каких языках программирования вы можете писать программы? Приходилось ли вам раньше работать с OpenMP или MPI?
(c) Напишите также ваши ФИО, номер группы и пришлите ответ на почту, указанную в списке нашей объединенной группы.



Лирература:
[1-2] - теория параллельных вычислений и некоторые альтернативные мысли
[3-4] - справочники по OpenMP и MPI
[5-7] - оценка параллельной эффективности
[8-9] - параллельная программная платформа INMOST
[10-12] - описания некоторых примеров из практического задания
[13-...] - для экспертов при подготовке дополнительных лекций

[1] В.В.Воеводин, Вл.В.Воеводин, Параллельные вычисления, СПб, 2002, 602 с. (pdf)
[2] Г.В.Байдин, О некоторых стереотипах параллельного программирования, ВАНТ, Матем. модел. физ. проц., 2008, No.1, 67-75. (pdf)

[3] А.С.Антонов, Параллельное программирование с использованием технологии OpenMP, МГУ, Москва, 2009 (pdf)
[4] А.С.Антонов, Параллельное программирование с использованием технологии MPI, МГУ, Москва, 2004 (pdf)

[5] G.M.Amdahl, Validity of the single processor approach to achieving large scale computing capabilities. AFIPS, 1967. (pdf - закон Амдала)
[6] И.Н.Коньшин, Модели параллельных вычислений для оценки реального ускорения исследуемого алгоритма. Труды международной конференции: Суперкомпьютерные дни в России, М.: Изд-во МГУ, 2016, 269-280. (pdf)
[7] И.Н.Коньшин, Оценка эффективности алгоритмов математической физики для компьютеров с распределенной памятью. Труды международной конференции: Суперкомпьютерные дни в России, М.: Изд-во МГУ, 2018, 183-194. (pdf)

[8] INMOST - Параллельная платформа для распределенного математического моделирования. http://inmost.org/
[9] Ю.В.Василевский, И.Н.Коньшин, Г.В.Копытов, К.М.Терехов, INMOST - программная платформа и графическая среда для разработки параллельных численных моделей на сетках общего вида. Изд-во Московского университета, Москва, 2013, 144 c. (pdf)

[10] С.Д.Тулебаев, Параллельное программирование с использованием технологии MPI, 2010, 60 с. (pdf)
[11] И.Е.Федотов, Некоторые приемы параллельного программирования, МГИРЭА, Москва, 2008, 188 с. (pdf)
[12] В.Д.Корнеев, Параллельное программирование в MPI, Новосибирск, 2002 (pdf)

[13] MPI Forum. MPI standards efforts: from 2.0 to 4.0 (mpi-forum.org)
[14] Э.Уильямс, Параллельное программирование на C++ в действии. ДМК, Москва, 2012, 672 с. (pdf)
[15] Дж.Закконе, Книга рецептов параллельного программирования на Python, 2019. (html)
[16] Куан Нгуен, Полное руководство параллельного программирования на Python, 2018. (html)

Справочные файлы для работы на кластере ИВМ РАН находятся здесь: http://cluster2.inm.ras.ru/~student/yy-xxx.
Официальный краткий рекламный текст нашего курса находится здесь.