Был заслушан доклад на тему «Параллельное программирование: анализ основных подходов»

14 Февраль 2020 - 15:45 | Конференции, собрания

В Институте информационных технологий НАНА состоялся очередной научный семинар Отдела №4. Заместитель директора по технологиям, доктор философии по технике, доцент Рашид Алекперов отметил, что семинар посвящен теме «Параллельное программирование: анализ основных подходов».

Представив доклад, лаборант Института Юсиф Имамвердиев отметил, что в традиционных методах программы выполняются одним процессором на компьютере, записываются в виде последовательных расчетов, вопросы разбиваются на разные команды, каждая команда обрабатывается после другой, и в то же время выполняется только одна команда.

По его словам, при решении задачи методом параллельного программирования одновременно используется более одного процессора, он делится на разные части задачи, которые должны быть решены одновременно, и команды выполняются одновременно на разных процессорах.

Докладчик отметил, что параллельное программирование широко используется в решении вопросов, требующих больших вычислительных и памяти ресурсов, возникающих в различных областях науки.

Ю.Имамвердиев подробно рассказал об архитектуре вычислительных систем, одном процессе, одной информации (Single instruction, single data (SISD), одной операции, нескольких данных (Single instruction, multiple data (SIMD), нескольких операциях, одной передаче (Multiple instruction, single data), нескольких операциях, нескольких данных (Multiple instruction, multiple data (MIMD).

Говоря о законе Amdal, используемом для оценки экономии времени в многопроцессорных средах, в результате параллельной работы в решении вопроса, докладчик сказал, что в соответствии с этим правилом, разработанным Amdahl, в результате параллельной работы была сформирована экономия времени: «Ускорение времени решения при параллелизме программы, написанной для решения любого вопроса, определяется законом Amdal. В соответствии с этим законом, хотя вопрос разделен на несколько частей и параллелизм, время, затрачиваемое на получение результата, не может быть кратким самому длинному фрагменту параллельного вопроса».

По словам докладчика, в параллельном программировании используются различные программные интерфейсы, такие как OpenMP, MPI (массивный параллельный интерфейс), PVM (параллельная виртуальная машина), CUDA. OpenMP, который имеет какой-то интерфейс программирования приложений, сохраняет библиотеки (прикладные приложения), директивы компилятора и настройки операционной системы и нацелен только на общие (общие) системы памяти.

В заключение он рассказал о программном интерфейсе MPI, который обеспечивает параллельное выполнение программы, разделенной на шесть программ в распределенной памяти и многопроцессорных вычислительных системах (архитектура MPP).

Были проведены обсуждения вокруг доклада и даны ответы на вопросы.

© Все права защищены. При использовании информации гиперссылка на сайт www.iсt.az обязательна.