игра брюс 2048
Главная / Программирование / Теория и практика параллельных вычислений / Тест 5

Теория и практика параллельных вычислений - тест 5

Упражнение 1:
Номер 1
Для организации параллельных вычислений в вычислительных системах с распределенной памятью необходимо:

Ответ:

 (1) обеспечить информационное взаимодействие между процессорами 

 (2) выделить информационно независимые фрагменты вычислений, провести их программную реализацию, разместить полученные части программы на разных процессорах и затем организовать информационное взаимодействие между процессорами 

 (3) распределить исполняемые модули параллельной программы по узлам системы 


Номер 2
Для распределения вычислений между процессорами в вычислительных системах с распределенной памятью необходимо:

Ответ:

 (1) выделить информационно независимые фрагменты вычислений, провести их программную реализацию и затем разместить полученные части программы на разных процессорах 

 (2) разделить программу на равные части и распределить между процессорами 

 (3) распределить исполняемые модули параллельной программы по узлам системы 


Номер 3
Минимально необходимый набор операций для организации информационного взаимодействия между процессорами в вычислительных системах с распределенной памятью включает в себя только:

Ответ:

 (1) операции приема и передачи данных 

 (2) операции передачи данных и коллективные операции 

 (3) только коллективные операции 


Упражнение 2:
Номер 1
Под параллельной программой в рамках MPI понимается:

Ответ:

 (1) множество одновременно выполняемых процессов 

 (2) множество одновременно выполняемых потоков 

 (3) множество одновременно работающих процессоров 


Номер 2
Процессы параллельной программой в рамках MPI:

Ответ:

 (1) могут выполняться на разных процессорах, на одном процессоре могут располагаться несколько процессов 

 (2) могут выполняться только на разных процессорах 

 (3) обязательно выполняются на одном процессоре 


Номер 3
Номер процесса в рамках MPI именуется:

Ответ:

 (1) рангом процесса 

 (2) идентификатором процесса 

 (3) дескриптором процесса 


Упражнение 3:
Номер 1
Среди предусмотренных в составе MPI операций передачи сообщений различают:

Ответ:

 (1) парные и коллективные операции 

 (2) парные и групповые операции 

 (3) индивидуальные и коллективные операции 


Номер 2
Под коммуникатором в MPI понимается:

Ответ:

 (1) специально создаваемый служебный объект, объединяющий в своем составе группу процессов и ряд дополнительных параметров, используемых при выполнении операций передачи данных 

 (2) группу процессов, в рамках которой выполняются операции передачи данных 

 (3) пару процессов, в рамках которой происходит информационное взаимодействие 


Номер 3
Указание используемого коммуникатора является:

Ответ:

 (1) обязательным для всех операций передачи данных в MPI 

 (2) необязательным для некоторых операций передачи данных в MPI 

 (3) обязательным для некоторых операций передачи данных в MPI 


Упражнение 4:
Номер 1
Все данные для передачи в качестве сообщения MPI описываются с помощью триады:

Ответ:

 (1) адрес памяти, количество и тип элементов данных 

 (2) адрес памяти, ранг процесса-отправителя, используемый коммуникатор 

 (3) адрес памяти, ранг процесса-получателя, используемый коммуникатор 


Номер 2
Процессы, между которыми выполняется передача данных:

Ответ:

 (1) обязательно должны принадлежать одному коммуникатору 

 (2) обязательно должны принадлежать двум коммуникаторам 

 (3) не обязаны принадлежать одному коммуникатору 


Номер 3
Завершение функции MPI_Send означает, что:

Ответ:

 (1) операция передачи начала выполняться и пересылка сообщения будет рано или поздно будет выполнена 

 (2) сообщение находится в состоянии передачи 

 (3) сообщение принято процессом-получателем при помощи функции MPI_Recv 


Упражнение 5:
Номер 1
Прием сообщения при помощи функции MPI_Recv может быть инициирован:

Ответ:

 (1) до момента, в момент или после момента начала отправки сообщения 

 (2) только в момент начала отправки сообщения 

 (3) только после момента начала отправки сообщения 


Номер 2
Функция MPI_Recv:

Ответ:

 (1) блокирует процесс-получатель до момента фактического получения сообщения 

 (2) принимает сообщение в фоновом режиме, процесс в это время может продолжать вычисления 

 (3) в зависимости от используемой операции передачи может, как заблокировать, так и не заблокировать процесс-получатель 


Номер 3
Прием сообщений при помощи функции MPI_Recv может быть осуществлен:

Ответ:

 (1) от любого адресата и с любым тегом при указании специальных значений в качестве параметров вызова функции 

 (2) от любого адресата, однако, тег сообщения должен быть указан однозначно 

 (3) от однозначно определяемого адресата с заданным тегом 


Упражнение 6:
Номер 1
В синхронном режиме передачи завершение функции отправки сообщения происходит:

Ответ:

 (1) при получении от процесса-получателя подтверждения о начале приема отправленного сообщения, при этом отправленное сообщение или полностью принято процессом-получателем или находится в состоянии приема 

 (2) при старте передачи данных процессом-отправителем по сети 

 (3) при завершении копирования сообщения в системный буфер 


Номер 2
В буферизованном режиме функция отправки сообщения завершается:

Ответ:

 (1) сразу же после копирования сообщения в системный буфер 

 (2) при получении от процесса-получателя подтверждения о начале приема отправленного сообщения 

 (3) при начале фактической передачи сообщения 


Номер 3
Режим передачи по готовности может быть использован только если:

Ответ:

 (1) операция приема сообщения уже инициирована 

 (2) при достаточном малом размере сообщения, менее размера системного буфера 

 (3) операция приема сообщения гарантированно будет запущена позднее момента начала передачи сообщения 


Упражнение 7:
Номер 1
Применение неблокирующего способа выполнения обменов позволяет:

Ответ:

 (1) уменьшить потери эффективности параллельных вычислений из-за медленных по сравнению с быстродействием процессоров коммуникационных операций 

 (2) уменьшить нагрузку на коммуникационную сеть 

 (3) уменьшить нагрузку на процессоры системы 


Номер 2
Завершение вызова функции неблокирующего обмена приводит:

Ответ:

 (1) к инициации запрошенной операции передачи, но ничего не говорит о завершенности обмена 

 (2) к фактическому выполнению приема данных (для функции неблокирующего приема) или началу фоновой передачи (для функции неблокирующей передачи) 

 (3) к фактическому выполнению обмена 


Номер 3
Функция блокирующего ожидания завершения одного обмена в MPI называется:

Ответ:

 (1) MPI_Wait 

 (2) MPI_Waitall 

 (3) MPI_Waitone 


Упражнение 8:
Номер 1
В коллективных операциях передачи данных обязаны принимать участие:

Ответ:

 (1) все процессы используемого коммуникатора 

 (2) некоторые процессы используемого коммуникатора 

 (3) все процессы используемой группы процессов 


Номер 2
Коллективные операции MPI:

Ответ:

 (1) могут быть реализованы при помощи парных операций, однако такое решение, скорее всего, будет не эффективным 

 (2) принципиально не могут быть реализованы при помощи парных операций 

 (3) могут быть реализованы при помощи парных операций, но не в полном объеме 


Номер 3
Под коллективными операциями в MPI понимаются:

Ответ:

 (1) операции передачи данными, в которых принимают участие все процессы используемого коммуникатора 

 (2) операции над группами процессов 

 (3) операции над коммуникаторами 


Упражнение 9:
Номер 1
Операцию редукции данных MPI_Reduce можно описать:

Ответ:

 (1) как операцию передачи данных, при которой над собираемыми значениями осуществляется обработка в процессе передачи, при этом результат обработки получает только ведущий процесс 

 (2) как операцию передачи данных, при которой над собираемыми значениями осуществляется обработка, при этом частичные значения результатов редуцирования получают все процессы параллельной программы 

 (3) операцию передачи данных, при которой над собираемыми значениями осуществляется та или иная обработка, при этом результат обработки получают все процессы 


Номер 2
Обобщенная передача данных от всех процессов всем процессам может быть описана как:

Ответ:

 (1) операция, при которой происходит передача различающихся данных от всех процессов всем процессам 

 (2) операция, при которой происходит передача одинаковых данных от всех процессов всем процессам 

 (3) операция, при которой данные от всех процессов собираются на ведущем процессе и затем рассылаются всем процессам 


Номер 3
Операция широковещательной рассылки данных это:

Ответ:

 (1) операция рассылки значений ведущим процессом всем остальным процессам, все процессы получают рассылаемые данные целиком 

 (2) операция рассылки значений ведущим процессом всем остальным процессам, все процессы получают часть исходных данных 

 (3) операция рассылки различающихся значений ведущим процессом всем остальным процессам 


Упражнение 10:
Номер 1
Производным типом данных в MPI называется:

Ответ:

 (1) описание набора значений предусмотренного в MPI типа, причем в общем случае описываемые значения не обязательно непрерывно располагаются в памяти 

 (2) последовательность описаний входящих в тип значений, каждое отдельное значение в которой описывается при помощи смещения адреса месторасположения от некоторого базового адреса 

 (3) описание набора значений базового алгоритмического языка в терминах самого этого языка 


Номер 2
Сигнатурой производного типа в MPI именуется:

Ответ:

 (1) часть карты типа с указанием только типов значений 

 (2) часть карты типа с указанием только смещений для входящих в тип элементов 

 (3) размер памяти в байтах, который нужно отводить для одного элемента типа 


Номер 3
Протяженность производного типа в MPI это:

Ответ:

 (1) размер памяти в байтах, который нужно отводить для одного элемента рассматриваемого типа 

 (2) число байтов, которые занимает один элемент данных рассматриваемого типа 

 (3) смещение первого байта значений рассматриваемого типа 


Упражнение 11:
Номер 1
При векторном способе новый производный тип создается как:

Ответ:

 (1) набор блоков из элементов исходного типа, при этом между блоками могут иметься регулярные промежутки по памяти 

 (2) непрерывная последовательно элементов исходного типа 

 (3) набор блоков разного размера из элементов исходного типа, при этом между блоками могут иметься разные промежутки по памяти 


Номер 2
При индексном способе новый производный тип создается как:

Ответ:

 (1) набор блоков разного размера из элементов исходного типа, при этом между блоками могут иметься разные промежутки по памяти 

 (2) набор блоков из элементов исходного типа, при этом между блоками могут иметься регулярные промежутки по памяти 

 (3) непрерывная последовательно элементов исходного типа 


Номер 3
H-векторный и H-индексный способы создания данных отличаются от векторного и индексного способов тем, что:

Ответ:

 (1) интервалы между блоками задаются в байтах, а не в элементах исходного типа данных 

 (2) разрешают использовать последовательность элементов исходного типа, между которыми могут быть одинаковые промежутки памяти 

 (3) разрешают использовать разные промежутки памяти между блоками 


Упражнение 12:
Номер 1
MPI поддерживает топологии вида:

Ответ:

 (1) прямоугольная решетка произвольной размерности и граф произвольного вида 

 (2) тор произвольной размерности и граф произвольного вида 

 (3) только граф произвольного вида 


Номер 2
В декартовой топологии множество процессов представляется в виде:

Ответ:

 (1) прямоугольной решетки 

 (2) графа произвольного вида 

 (3) полного графа 


Номер 3
Топология типа тор в MPI является частным видом топологии типа:

Ответ:

 (1) декартовой топологии 

 (2) графа произвольного вида 

 (3) полный граф 




Главная / Программирование / Теория и практика параллельных вычислений / Тест 5