Главная /
Теория и практика параллельных вычислений
Теория и практика параллельных вычислений - ответы на тесты Интуит
Учебное пособие содержит материал, для работы в области параллельного программирования.
Список вопросов:
- # В чем состоят необходимые условия для возможности организации параллельных вычислений:
- # Режим разделения времени:
- # Распределенные вычислительные системы:
- # Какую компьютерную систему можно отнести к суперкомпьютерам:
- # К числу суперкомпьютеров относятся:
- # Суперкомпьютеры:
- # Под кластером обычно понимается:
- # К основным преимуществам кластерных вычислительных систем относится:
- # Кластерные вычислительные системы:
- # В основе классификации вычислительных систем в систематике Флинна используются:
- # Под мультипроцессором понимается:
- # Под мультикомпьютером понимается:
- # Типовые топологии сети передачи данных определяются:
- # Среди рассмотренных в лекции типовых топологий приведены:
- # К числу характеристик топологии сети передачи данных относятся:
- # Какая из приведенных в лекции топологий (при одинаковом количестве процессоров) обладает наименьшим диаметром:
- # Какая из приведенных в лекции топологий (при одинаковом количестве процессоров) обладает наибольшей связностью:
- # Какая из приведенных в лекции топологий (при одинаковом количестве процессоров) обладает наименьшей стоимостью:
- # Граф это:
- # Взвешенный граф это:
- # Матрица смежности это:
- # Задача поиска всех кратчайших путей обычно формулируется как:
- # Сложность последовательного алгоритма Флойда имеет порядок:
- # Показатели ускорения и эффективности параллельного алгоритма Флойда имеют вид (без учета затрат на передачу данных):
- # Число итераций параллельного алгоритма Флойда равно:
- # Один из возможных способов агрегации вычислений для увеличения эффективности параллельного алгоритма Флойда состоит:
- # При горизонтальном разбиении матрицы исходных данных на каждой итерации алгоритма Флойда потребуется передавать между подзадачами:
- # Охватывающим деревом (или остовом) неориентированного графа называется:
- # Минимально охватывающим деревом называется:
- # Задача нахождения МОД формулируется как:
- # Количество выполняемых операций при определении номера ближайшей вершины до охватывающего дерева и корректировке расстояний после расширения МОД ограничивается сверху величиной:
- # Показатели ускорения и эффективности параллельного алгоритма Прима имеют вид (без учета затрат на передачу данных):
- # Трудоемкость нахождения МОД характеризуется:
- # Задача оптимального разделения графа состоит в разбиении вершин графа на непересекающиеся подмножества:
- # Равновесность подмножеств вершин в задаче оптимального разделения графа:
- # Задача разделения вычислительной сети, на которую разбивается область обрабатываемых данных, между процессорами может быть сведена:
- # Метод бинарного деления для решения задачи оптимального разделения графов заключается:
- # Для разбиения графа на k частей в методе бинарного деления для решения задачи оптимального разделения графов необходимо:
- # Для разбиения графа на k частей в методе бинарного деления для решения задачи оптимального разделения графов необходимо выполнить:
- # Метод покоординатного разбиения для решения задачи оптимального разделения графов отличается от метода бинарного деления тем, что:
- # На одном из этапов метода покоординатного разбиения для решения задачи оптимального разделения графов:
- # Для определения угла поворота в рекурсивном инерционном методе деления пополам при решении задачи оптимального разделения графов, используется:
- # Основное отличие комбинаторных алгоритмов от геометрических методов, применяемых для решения задачи оптимального разделения графов, заключается:
- # В отличие от геометрических схем комбинаторные методы решения задачи оптимального разделения графов не принимают во внимание:
- # Комбинаторные методы решения задачи оптимального разделения графов обычно обеспечивают:
- # Какие способы распределения данных между процессорами вычислительной системы изложены в данной лекции?
- # С какими проблемами сталкивается программист, разрабатывая параллельные программы для систем с общей памятью?
- # При разработке параллельных алгоритмов решения дифференциальных уравнений в частных производных за основу выбирается разделение данных, потому что:
- # При выполнении параллельного алгоритма, основанного на разделении данных на горизонтальные полосы, сбор данных полученных результатов выполняется при помощи:
- # Как исключается неоднозначность вычислений в параллельном алгоритме метода сеток на системах с общей памятью?
- # Каким образом обеспечивается балансировка вычислительной нагрузки процессоров для параллельных алгоритмов для систем с общей памятью,?
- # Для параллельных алгоритмов для систем с общей памятью при проведении вычислительных экспериментов может наблюдаться сверхлинейное ускорение. Каковы возможные причины достижения этого эффекта?
- # Какой способ наиболее эффективен при подсчете общей для всех процессоров погрешности вычислений, которые используются в параллельной реализации метода сеток на системах с распределенной памятью?
- # Каковы причины значительного снижения полезной вычислительной нагрузки для процессоров при организации волновых вычислений в системах с распределенной памятью?
- # За счет чего увеличивается число передач данных между процессорами при блочном представлении сетки области расчетов на системах с распределенной памятью?
- # Какие проблемы параллельного программирования являются общими для систем с общей и распределенной памятью?
- # Чем определяется эффективность параллельных вычислений?
- # В чем состоит первая проблема, которую приходится решать при организации параллельных вычислений на системах с распределенной памяти?
- # В рассматриваемой учебной задаче по решению задачи Дирихле при использовании разделенной памяти, какие возможны способы разделения данных?
- # Какие механизмы передачи данных могут быть задействованы?
- # Какие достоинства имеет синхронный механизм передачи сообщений?
- # Какие достоинства и недостатки имеет асинхронный механизм передачи сообщений?
- # Вычислительный эксперимент в системе ПараЛаб – это:
- # Для постановки задачи в системе ПараЛаб необходимо выбрать:
- # К числу параметров вычислительной системы в системе ПараЛаб относятся:
- # В каком из режимов можно провести вычислительный эксперимент?
- # Эксперименты в режиме имитации возможно проводить:
- # При проведении серии экспериментов системой ПараЛаб может автоматически варьироваться:
- # При построении графических зависимостей для экспериментов, проведенных в режиме имитации, используются:
- # При построении графических зависимостей для экспериментов, проведенных в режиме удаленного доступа к параллельной вычислительной системы, используется:
- # При анализе результатов проведенных экспериментов пользователю предоставляется возможность:
- # Какие из перечисленных ниже классы задач поддерживает система имитационного моделирования ПараЛаб:
- # Какие топологий сети не поддерживает система имитационного моделирования ПараЛаб:
- # Какие режимы передачи данных поддерживает система имитационного моделирования ПараЛаб:
- # На каких топологиях сети в системе ПараЛаб реализована быстрая сортировка:
- # На каких топологиях сети в системе ПараЛаб реализованы алгоритмы перемножения матриц:
- # На каких топологиях сети в системе ПараЛаб не реализованы алгоритмы обработки графов:
- # В рамках системы ПараЛаб какие допускаются схемы выполнения вычислений при проведении экспериментов:
- # В рамках системы ПараЛаб какие присутствуют средства для детального изучения и исследования параллельных алгоритмов решения сложных вычислительных задач:
- # Помимо выполнения экспериментов в режиме имитации, в системе ПараЛаб предусмотрена возможность проведения реальных экспериментов в режиме удаленного доступа к вычислительному кластеру. Какие возможны операции после выполнения реальных параллельных вычислений:
- # Модель вычислений – это:
- # В модели вычислений вершинами графа являются:
- # В модели вычислений дуги графа определяют:
- # Ускорение параллельных вычислений – это:
- # Эффективность параллельных вычислений – это:
- # Стоимость вычислений - это:
- # Каскадная схема используется для:
- # В модифицированной каскадной схеме:
- # При вычислении общей суммы последовательности числовых значений стоимостно-оптимальным алгоритмом является:
- # Пусть есть задача вычисление суммы следующего вида . Пусть N = 8 и применяется каскадная схема, аналогичная схеме описанной в лекции для суммирования элементов вектора. Какая в этом случае минимально возможная высота дерева модели вычисления:
- # Пусть есть задача вычисления произведения всех элементов вектора . Пусть N = 10 и применяется каскадная схема, аналогичная схеме описанной в лекции для суммирования элементов вектора. Какая в этом случае минимально возможная высота дерева модели вычисления:
- # Пусть есть задача вычисление суммы следующего вида . Пусть N = 4 и применяется каскадная схема, аналогичная схеме описанной в лекции для суммирования элементов вектора. Какая в этом случае минимально возможная высота дерева модели вычисления:
- # Пусть есть задача вычисления произведения всех элемента вектора . Пусть N = 6 и применяется каскадная схема с минимально возможной высотой дерева модели вычисления. Чему в этом случае равно ускорение при использовании неограниченного числа вычислительных элементов:
- # Пусть есть задача вычисления суммы следующего вида . Пусть N = 8 и применяется каскадная схема с минимально возможной высотой дерева модели вычисления. Чему в этом случае равна эффективность при использовании восьми вычислительных элементов:
- # Пусть есть задача вычисления суммы следующего вида . Пусть N = 6 и применяется каскадная схема с минимально возможной высотой дерева модели вычисления. Чему в этом случае равна стоимость вычислений при использовании восьми вычислительных элементов:
- # Пусть в решаемой задаче последовательная часть составляет четыре единицы времени, а часть, допускающая линейное распараллеливание, шесть единицы времени. Если использовать закон Амдаля, сколько потребуется процессоров для достижения ускорения в два раза:
- # Пусть в решаемой задаче последовательная часть составляет четыре единицы времени, а часть, допускающая линейное распараллеливание, шесть единицы времени. Если использовать закона Густавсона-Барсиса, сколько потребуется процессоров для достижения ускорения в два раза (результат округлите в большую сторону):
- # Пусть в решаемой задаче последовательная часть составляет четыре единицы времени, а часть, допускающая линейное распараллеливание, шесть единицы времени. Если использовать закон Амдаля, какая достигается эффективность, если используются три вычислительных элемента:
- # Алгоритмы маршрутизации определяют:
- # В методах покоординатной маршрутизации поиск путей передачи данных осуществляется:
- # Метод покоординатной маршрутизации в приложении к топологии типа гиперкуб состоит:
- # Длительность времени передачи одного слова данных по одному каналу передачи данных определяется:
- # Время начальной подготовки (tн) характеризует:
- # Основной набор параметров, описывающих время передачи данных, состоит из следующего набора величин:
- # При использовании метода передачи сообщений:
- # В методе передачи пакетов:
- # Метод передачи пакетов в большинстве случаев приводит к:
- # Для рассылки от одного процессора всем остальным процессорам сети при использовании топологии типа гиперкуб достаточно (N=log2p):
- # Задача редукции определяется в общем виде как:
- # Циклический q-сдвиг, это операция, при которой:
- # Уплотнение дуг это:
- # Способы логического представления (отображения) топологий характеризуются следующими тремя основными характеристиками:
- # Увеличение вершин:
- # Двоичный код Грея используется для определения соответствия между:
- # Соседние вершины в нумерации кода Грея имеют:
- # Соседние вершины в кольцевой топологии отображаются кодом Грея:
- # Для кластерных систем характерна:
- # В модели Хокни используются параметры:
- # Топология полный граф сети кластерной вычислительной системы может иметь ограничения на:
- # Распределение подзадач между процессорами должно быть выполнено таким образом, чтобы:
- # Масштабирование разрабатываемого параллельного алгоритма это процесс:
- # Качество разрабатываемых параллельных методов определяется:
- # Граф "подзадачи – сообщения" представляет собой:
- # Рассмотрение графа "подзадачи – сообщения" концентрирует внимание на вопросах:
- # Граф "процессы – каналы" используется:
- # Канал передачи данных можно рассматривать как:
- # Для снижения сложности моделирования и анализа параллельных методов операции передачи и приема данных считаются выполняющимися:
- # Под процессом понимают:
- # Выбор способа разделения вычислений на независимые части основывается:
- # При выборе способа разделения вычислений при прочих равных условиях нужно отдавать предпочтение:
- # Разработка параллельных алгоритмов включает в себя этапы:
- # Для локальной схемы передачи данных характерно:
- # При асинхронном способе взаимодействия участники взаимодействия:
- # В статической схеме передачи данных:
- # Управление распределением нагрузки для процессоров необходимо:
- # Основным показателем успешности выполнения этапа распределения подзадач между процессорами является:
- # Этап распределения подзадач между процессорами является избыточным, если:
- # Для организации параллельных вычислений в вычислительных системах с распределенной памятью необходимо:
- # Для распределения вычислений между процессорами в вычислительных системах с распределенной памятью необходимо:
- # Минимально необходимый набор операций для организации информационного взаимодействия между процессорами в вычислительных системах с распределенной памятью включает в себя только:
- # Под параллельной программой в рамках MPI понимается:
- # Процессы параллельной программой в рамках MPI:
- # Номер процесса в рамках MPI именуется:
- # Среди предусмотренных в составе MPI операций передачи сообщений различают:
- # Под коммуникатором в MPI понимается:
- # Указание используемого коммуникатора является:
- # Все данные для передачи в качестве сообщения MPI описываются с помощью триады:
- # Процессы, между которыми выполняется передача данных:
- # Завершение функции MPI_Send означает, что:
- # Прием сообщения при помощи функции MPI_Recv может быть инициирован:
- # Функция MPI_Recv:
- # Прием сообщений при помощи функции MPI_Recv может быть осуществлен:
- # В синхронном режиме передачи завершение функции отправки сообщения происходит:
- # В буферизованном режиме функция отправки сообщения завершается:
- # Режим передачи по готовности может быть использован только если:
- # Применение неблокирующего способа выполнения обменов позволяет:
- # Завершение вызова функции неблокирующего обмена приводит:
- # Функция блокирующего ожидания завершения одного обмена в MPI называется:
- # В коллективных операциях передачи данных обязаны принимать участие:
- # Коллективные операции MPI:
- # Под коллективными операциями в MPI понимаются:
- # Операцию редукции данных MPI_Reduce можно описать:
- # Обобщенная передача данных от всех процессов всем процессам может быть описана как:
- # Операция широковещательной рассылки данных это:
- # Производным типом данных в MPI называется:
- # Сигнатурой производного типа в MPI именуется:
- # Протяженность производного типа в MPI это:
- # При векторном способе новый производный тип создается как:
- # При индексном способе новый производный тип создается как:
- # H-векторный и H-индексный способы создания данных отличаются от векторного и индексного способов тем, что:
- # MPI поддерживает топологии вида:
- # В декартовой топологии множество процессов представляется в виде:
- # Топология типа тор в MPI является частным видом топологии типа:
- # Какие способы распределения элементов матрицы между процессорами вычислительной системы изложены в данной лекции?
- # Какие способы разделения элементов матрицы между процессорами вычислительной системы используются для разработки параллельных алгоритмов умножения матрицы на вектор?
- # При разработке параллельных алгоритмов для матричных вычислений за основу выбирается разделение данных, потому что:
- # При выполнении параллельного алгоритма, основанного на разделении матрицы на горизонтальные полосы, сбор данных результирующего вектора выполняется при помощи:
- # Какая коммуникационная операция используется при выполнении параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы на вертикальные полосы?
- # Какая коммуникационная операция используется в параллельном алгоритме умножения матрицы на вектор, основанном на блочном разделении матрицы, для получения блоков результирующего вектора на процессорах, составляющих одну строку процессорной решетки?
- # Для эффективного выполнения параллельного алгоритма умножения матрицы на вектор, основанного на блочном разделении матрицы, необходимо, чтобы процессоры вычислительной системы были объединены в топологию:
- # Для эффективного выполнения параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы на горизонтальные полосы, необходимо, чтобы процессоры вычислительной системы были объединены в топологию:
- # Для эффективного выполнения параллельного алгоритма умножения матрицы на вектор, основанного на разделении матрицы на вертикальные полосы, необходимо, чтобы процессоры вычислительной системы были объединены в топологию:
- # На основании результатов экспериментов, представленных в лекции, можно сказать, что наибольшее ускорение демонстрирует:
- # С ростом числа процессоров, согласно теоретической оценке, наибольшее ускорение демонстрирует:
- # Какие алгоритмы обладают наилучшими теоретическими показателями ускорения и эффективности (в случае, когда не учитываются затраты на передачу данных между процессорами):
- # Рассмотрим задачу перемножения матрицы на вектор. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на строки чему будет равно теоретическое ускорение при использовании 2 процессоров:
- # Рассмотрим задачу перемножения матрицы на вектор. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на строки чему будет равно ускорение при использовании 4 процессоров:
- # Рассмотрим задачу перемножения матрицы на вектор. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на строки, чему будет равна теоретическая стоимость при использовании 2 процессоров:
- # Пусть перед программистом поставлена задача перемножения матрицы на вектор. Размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на блоки (количество блоков по строкам и по строкам равно и равно , где p – количество процессоров), чему будет равно теоретическое ускорение при использовании 16 процессоров:
- # Пусть перед программистом поставлена задача перемножения матрицы на вектор. Размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети 60 Мбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на блоки (количество блоков по строкам и по строкам равно и равно , где p – количество процессоров), чему будет равно теоретическая эффективность при использовании 4 процессоров:
- # Какие схемы разделения данных используются при разработке параллельных алгоритмов умножения матриц?
- # Какая схема разделения данных используется при разработке параллельных алгоритмов Фокса и Кэннона?
- # При разработке параллельного алгоритма умножения матриц, основанного на ленточной схеме разделения данных, может быть использован подход:
- # При выполнении параллельного алгоритма, основанного на ленточной схеме разделения данных, основной коммуникационной операцией является:
- # Какие коммуникационные операции используются при выполнении параллельного алгоритма Фокса?
- # Какие коммуникационные операции используются при выполнении параллельного алгоритма Кэннона?
- # Для эффективного выполнения алгоритма Фокса необходимо, чтобы процессоры вычислительной системы были организованы в топологию:
- # Для эффективного выполнения параллельного алгоритма умножения матриц, основанного на ленточной схеме разделения данных, необходимо, чтобы процессоры вычислительной системы были организованы в топологию:
- # Для эффективного выполнения алгоритма Кэннона необходимо, чтобы процессоры вычислительной системы были организованы в топологию:
- # Из представленных в лекции алгоритмов, лучшей масштабируемостью обладает:
- # С ростом числа процессоров, наибольшее ускорение демонстрируют:
- # Какие алгоритмы обладают наилучшими теоретическими показателями ускорения и эффективности (в случае, когда не учитываются затраты на передачу данных между процессорами):
- # Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на ленты, чему будет равно теоретическое ускорение при использовании 4 процессоров:
- # Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать алгоритм Фокса, чему будет равно теоретическое ускорение при использовании 4 процессоров:
- # Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать алгоритм Кеннона, чему будет равно теоретическое ускорение при использовании 4 процессоров:
- # Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать алгоритм Кеннона, чему будет равна теоретическая эффективность при использовании 4 процессоров:
- # Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании использовать разделение матрицы на ленты, чему будет равна теоретическая эффективность при использовании 4 процессоров:
- # Рассмотрим задачу перемножения матриц. Пусть размер перемножаемой матрицы 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы имеют тип double и занимают w = 8 байт. Если при распараллеливании использовать алгоритм Фокса, чему будет равна теоретическая эффективность при использовании 4 процессоров:
- # Какая схема разделения данных используется при реализации параллельного алгоритма Гаусса?
- # При реализации параллельного алгоритма Гаусса рекомендуется использовать ленточную циклическую схему разделения данных, потому что
- # Какое расположение вектора правых частей и вектора неизвестных используется при реализации параллельного алгоритма Гаусса:
- # При выполнении параллельного алгоритма Гаусса основными коммуникационными операциями являются:
- # На каждой итерации прямого хода алгоритма Гаусса для нахождения ведущей строки используется
- # На каждой итерации обратного хода метода Гаусса используется
- # За основу организации параллельных вычислений при реализации метода сопряженных градиентов выбирается:
- # При реализации параллельного алгоритма для метода сопряженных градиентов вычисления над векторами дублируются на всех процессорах для того, чтобы:
- # За основу организации параллельных вычислений при реализации метода сопряженных градиентов выбирается параллельное выполнение операции умножения матрицы на вектор, потому что:
- # Из представленных в лекции алгоритмов, лучшей масштабируемостью обладает:
- # С ростом числа процессоров, наибольшее ускорение демонстрирует:
- # Можно ли утверждать, что представленные в лекции алгоритмы обладают идеальными теоретическими показателями ускорения и эффективности (в случае, когда не учитываются затраты на передачу данных между процессорами):
- # Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма Гауса использовалось 4 процессора, то какое в этом случае достигается теоретическое ускорение:
- # Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма Гауса использовалось 4 процессора, то какая в этом случае достигается теоретическая эффективность:
- # Рассмотрим задачу поиска решения системы линейных уравнений. Размер матрицы системы линейных уравнений 10x10. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и в системе занимают w = 8 байт. Если при распараллеливании алгоритма Гауса использовалось 4 процессора, то какая в этом случае достигается теоретическая стоимость параллельного алгоритма:
- # Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 200x200. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма сопряженных градиентов использовалось 4 процессора, то какая в этом случае достигается теоретическая эффективность:
- # Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 20x20. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма сопряженных градиентов использовалось 4 процессора, то какая в этом случае достигается теоретическая стоимость параллельного алгоритма:
- # Рассмотрим задачу поиска решения системы линейных уравнений. Пусть размер матрицы системы линейных уравнений 100x100. На вычислительной системе все операции сложения и умножения выполняются одинаковое время нсек. Латентности сети нсек. Пропускная способность сети Mбайт/сек. Элементы матрицы системы линейных уравнений имеют тип double и занимают w = 8 байт. Если при распараллеливании алгоритма сопряженных градиентов использовалось 4 процессора, то какое в этом случае достигается теоретическое ускорение:
- # Задача сортировки данных обычно формулируется как:
- # Внутренняя сортировка это:
- # Нижняя оценка необходимого количества операций для упорядочивания набора из n значений определяется выражением:
- # Базовая операция "сравнить и переставить" состоит из:
- # Базовая операция "сравнить и переставить" обычно используется в:
- # Базовая операция "сравнить и разделить" отличается от операции "сравнить и переставить":
- # Трудоемкость алгоритма пузырьковой сортировки оценивается выражением:
- # Трудоемкость параллельного алгоритма чет-нечетной сортировки оценивается выражением:
- # Общее число итераций параллельного алгоритма чет-нечетной сортировки при использовании p процессоров равно:
- # Параллельный вариант алгоритма Шелла состоит в следующем:
- # Основными отличиями параллельного алгоритма Шелла от метода чет-нечетной перестановки являются:
- # Общее наименьшее количество итераций параллельного алгоритма Шелла равно:
- # Алгоритм быстрой сортировки основан на:
- # При надлежащем выборе ведущих элементов в алгоритме быстрой сортировки исходный массив данных оказывается упорядоченным после выполнения:
- # В худшем случае трудоемкость быстрой сортировки оценивается выражением:
- # При применении параллельных алгоритмов быстрой сортировки одним из основных моментов является:
- # Оптимальная стратегия выбора ведущего элемента при применении параллельных алгоритмов быстрой сортировки состоит в выборе такого значения ведущего элемента, при котором:
- # Три схемы распараллеливания алгоритма быстрой сортировки различаются:
- # Для того чтобы выбрать ведущий элемент в параллельном алгоритме быстрой сортировки выполняются следующие действия:
- # Один из этапов параллельного алгоритма быстрой сортировки состоит том, что:
- # В результате выполнения одной итерации параллельного алгоритма быстрой сортировки исходное множество процессоров разделяется на:
- # В обобщенном алгоритме быстрой сортировки в дополнение к обычному методу быстрой сортировки предлагается:
- # При выполнении алгоритма обобщенной быстрой сортировки в качестве ведущего элемента обычно выбирается:
- # Для поддержки упорядоченности в ходе выполнения алгоритма обобщенной быстрой сортировки процессоры должны выполнять: