Главная /
Введение в методы параллельного программирования /
Все данные для передачи в качестве сообщения MPI описываются с помощью триады:
Все данные для передачи в качестве сообщения MPI описываются с помощью триады:
вопросПравильный ответ:
адрес памяти, количество и тип элементов данных
адрес памяти, ранг процесса-отправителя, используемый коммуникатор
адрес памяти, ранг процесса-получателя, используемый коммуникатор
Сложность вопроса
94
Сложность курса: Введение в методы параллельного программирования
92
Оценить вопрос
Комментарии:
Аноним
Если бы не эти подсказки - я бы не осилил c этими тестами intuit.
20 окт 2016
Другие ответы на вопросы из темы программирование интуит.
- # За основу организации параллельных вычислений при реализации метода сопряженных градиентов выбирается:
- # Трудоемкость параллельного алгоритма чет-нечетной сортировки оценивается выражением:
- # В худшем случае трудоемкость быстрой сортировки оценивается выражением:
- # При построении графических зависимостей для экспериментов, проведенных в режиме имитации, используются:
- # Прием сообщений при помощи функции MPI_Recv может быть осуществлен: