Главная /
Технологии построения и использования кластерных систем
Технологии построения и использования кластерных систем - ответы на тесты Интуит
Курс направлен на представление обзора технологий построения и эффективного использования одного из наиболее широкого распространенного класса параллельных систем – кластеров.
Список вопросов:
- # Какие из формулировок эмпирического закона Мура верны:
- # По какому показателю выстраиваются самые высокопроизводительные вычислительные системы мира в списке TOP500:
- # В 2008 году мощность лидера TOP500:
- # Какие системы были наиболее широко представлены в первом списке TOP500:
- # К основным преимуществам кластерных вычислительных систем относится:
- # Кластерные вычислительные системы:
- # Пиковая производительность вычислительной системы:
- # Тактовая частота серийно-выпускаемых процессоров компании Intel:
- # Основным способом повышения производительности:
- # Лидер 31-го списка TOP500 система "Roadrunner":
- # Какие из следующих утверждений верны:
- # Какие из перечисленных процессоров использует внеочередное (out-of-order) исполнение команд:
- # Какие из перечисленных систем могут быть отнесены к ускорителям:
- # Программы для настольного суперкомпьютера NVIDIA® Tesla™ D870 могут быть написаны:
- # Для работы с ускорителем ClearSpeed™ Advance™ X620 необходимы:
- # Какие из перечисленных систем относятся к мини-кластерам:
- # Мини-кластер T-Forge Mini построен на процессорах:
- # Узлы мини-кластера T-Edge Mini могут быть соединены сетью:
- # Программный продукт Intel Thread Checker решает следующие задачи:
- # Программный продукт Intel Thread Profiler решает следующие задачи:
- # Необходимость создания инструментов для отладки и профилирования параллельных программ вызвана следующими причинами:
- # Назначение программного продукта Intel Thread Checker состоит в следующем:
- # Назначение программного продукта Intel Thread Checker состоит в следующем:
- # Цикл разработки параллельных программ обычно устроен следующим образом:
- # Процесс оптимизации параллельных программ обычно устроен следующим образом:
- # Успешная отладка и оптимизация параллельных программ в системах с общей памятью требуют:
- # Процесс обнаружения ошибки в параллельных программах обычно устроен следующим образом:
- # Под "гонками данных" понимается ситуация, когда:
- # Под "тупиками" понимается ситуация, когда:
- # Под ситуацией "заброшенные замки" понимается:
- # К чему приводит неравномерное распределение вычислительной нагрузки между потоками?
- # Признаками наличия неравномерной вычислительной нагрузки между потоками являются:
- # На эффективность работы параллельной программы существенное влияние оказывают следующие факторы:
- # Какие из следующих утверждений являются верными?
- # Какие из следующих утверждений являются верными?
- # Какие из следующих утверждений являются верными?
- # Какова цель балансировки нагрузки между потоками:
- # Учебное приложение Factorization решает следующую задачу:
- # В чем состоит основная причина низкой производительности исходной версии программы Factorization:
- # Подход, состоящий в разделении множества чисел на одинаковые части по числу потоков (например, первый поток получает множество чисел от 1 до 50000, второй - от 50001 до 100000; двухъядерный процессор):
- # Причина того, что при разделении множества чисел на одинаковые части по числу потоков (например, первый поток получает множество чисел от 1 до 50000, второй - от 50001 до 100000; двухъядерный процессор) приложение большую часть времени проводит в последовательном режиме состоит в:
- # При разделении множества чисел на одинаковые части по числу потоков (например, первый поток получает множество чисел от 1 до 50000, второй - от 50001 до 100000; двухъядерный процессор) наблюдаются следующее поведение:
- # Подход, состоящий в разделении множества чисел между потоками на четные и нечетные (двухъядерный процессор):
- # Причина того, что при разделении множества чисел между потоками на четные и нечетные (двухъядерный процессор) приложение большую часть времени проводит в последовательном режиме, состоит в:
- # При разделении множества чисел на четные и нечетные (например, первый поток получает нечетные числа, второй - четные; двухъядерный процессор) наблюдаются следующее поведение:
- # Подход, состоящий в разделении множества чисел на последовательность пачек небольшой длины с последующей последовательной раздачей этих пачек потокам (пачки раздаются поровну), приводит к следующим результатам:
- # Подход, состоящий в разделении множества чисел на последовательность пачек небольшой длины с последующей последовательной раздачей этих пачек потокам (пачки раздаются поровну), обладает следующими свойствами:
- # Подход, состоящий в разделении множества чисел на последовательность пачек небольшой длины с последующей последовательной раздачей этих пачек потокам (пачки раздаются поровну), демонстрирует хорошую производительность по следующим причинам:
- # Какие из следующих утверждений являются верными:
- # Какие из следующих утверждений являются верными:
- # Какие из следующих утверждений являются верными:
- # Время, затраченное на следующие операции, может быть причислено к непроизводительным издержкам при работе с потоками:
- # Время, затраченное на следующие операции, может быть причислено к непроизводительным издержкам при работе с потоками:
- # Время, затраченное на следующие операции, может быть причислено к непроизводительным издержкам при работе с потоками:
- # Особенностями тестового приложения, имитирующего архитектуру клиент-сервер путем создания клиентского и серверного потока в рамках одного процесса, является:
- # Особенностями тестового приложения, имитирующего архитектуру клиент-сервер путем создания клиентского и серверного потока в рамках одного процесса, является:
- # Особенностями тестового приложения, имитирующего архитектуру клиент-сервер путем создания клиентского и серверного потока в рамках одного процесса, является:
- # Работа многих серверов связана с обработкой большого количества коротких запросов от какого-либо удаленного клиента. Какие из следующих схем применимы для организации указанного взаимодействия:
- # Работа многих серверов связана с обработкой большого количества коротких запросов от какого-либо удаленного клиента. Обработка всех запросов в одном потоке обладает следующими особенностями:
- # Работа многих серверов связана с обработкой большого количества коротких запросов от какого-либо удаленного клиента. Обработка всех запросов в одном потоке обладает следующими особенностями:
- # Работа многих серверов связана с обработкой большого количества коротких запросов от какого-либо удаленного клиента. При организации пула потоков наблюдаются следующие особенности:
- # Работа многих серверов связана с обработкой большого количества коротких запросов от какого-либо удаленного клиента. При организации пула потоков наблюдаются следующие особенности:
- # Работа многих серверов связана с обработкой большого количества коротких запросов от какого-либо удаленного клиента. При организации пула потоков наблюдаются следующие особенности:
- # Какие основные операционные системы используются для организации параллельных вычислений на кластерах:
- # Какой стандарт передачи сообщений между параллельными процессами лежит в основе Microsoft High Performance Server 2008:
- # Какая интегрированная среда разработки является рекомендуемой и предоставляет максимум возможностей для использования с High Performance Server 2008:
- # Какие дополнительные возможности предоставляет стандарт HPC Basic Profile:
- # Какие дополнительные возможности предоставляет стандарт Network Direct:
- # Какие требования к аппаратному обеспечению накладывает High Performance Server 2008:
- # Какая операционная система должна быть установлена на узлах под управлением High Performance Server 2008:
- # В чем отличие задачи (task) и задания (job) в терминах High Performance Server 2008:
- # На какой популярной реализации стандарта MPI основан Microsoft MPI:
- # Какие сети можно определить в High Performance Server 2008:
- # Что определяет задание конфигурации сети в High Performance Server 2008 (окно Network Configuration Wizard):
- # Использование MS MPI вместо других реализаций MPI гарантирует:
- # Какие возможности предоставляют клиентские утилиты, устанавливаемые через инсталлятор High Performance Server 2008:
- # Параметрическое множество задач служит для:
- # Поток задач позволяет:
- # Основным инструментом поиска ошибок в программах является:
- # Важным нововведением Microsoft Visual Studio 2008 является:
- # Как задаются точки остановки в программе:
- # Окно "Call Stack" в Microsoft Visual Studio 2008:
- # Окно "Autos" в Microsoft Visual Studio 2008
- # Окно "Watch" в Microsoft Visual Studio 2008:
- # Окно "Threads" в Microsoft Visual Studio 2008:
- # В чем особенность отладочной конфигурации программы:
- # Как называется ситуация, когда процессы параллельной программы взаимодействуют между собой без выполнения каких-либо синхронизирующих действий, что приводит к появлению трудно воспроизводимых ошибок, проявляющихся и исчезающих от запуска к запуску:
- # Каким образом можно дать указание в окне Watch распечатать 10 первых элементов массива int myArray[10]:
- # Как связаны между собой идентификатор MPI процесса в группе MPI_COMM_WORLD (получаемый функцией MPI_Comm_rank) и идентификатор процесса операционной системы (отображаемый в окне Processes в колонке ID):
- # Макрос ASSERT используется для:
- # В чем основной недостаток "printf отладки":
- # В чем основной недостаток последовательного отладчика (например, отладчика предыдущих версий среды разработки Microsoft Visual Studio) при отладке MPI программ (по сравнению с параллельным отладчиком Microsoft Visual Studio 2008):
- # В каких случаях на рабочую станцию необходимо устанавливать High Performance Computing SDK:
- # Какой прием поможет избежать взаимной блокировки процессов при циклической посылке сообщений с использованием функций MPI_Send/MPI_Recv (под циклической посылкой здесь понимается ситуация, когда процесс с индексом i передает информацию процессу с индексом i+1, i=0,…,n-2, а процесс с индексом n-1 передает информацию процессу с индексом 0):
- # При использовании неблокирующих функций передачи сообщений в MPI:
- # Для запуска сеанса параллельной отладки в Microsoft Visual Studio 2008 в качестве запускаемой команды (пункт MPIRun Command) в окне настройки MPI Cluster Debugger необходимо выбрать:
- # Зачем тестируют производительность кластерных систем:
- # Результаты тестирования позволяют:
- # Наборы тестов должны обладать свойствами:
- # toy benchmarks это:
- # Синтетические тесты (synthetic benchmarks) это:
- # Ядра (kernels) это:
- # Тест производительности Linpack относится к классу:
- # NAS Parallel Benchmarks относится к классу:
- # Netperf относится к классу:
- # Рейтинг TOP500 составляется по результатам теста:
- # Тест Linpack представляет собой:
- # Какие из перечисленных утверждений являются верными:
- # NAS Parallel Benchmarks был разработан:
- # NAS Parallel Benchmarks это:
- # NAS Parallel Benchmarks включает в себя:
- # Тесты НИВЦ МГУ:
- # С помощью теста transfer может быть измерена:
- # Какие из перечисленных утверждений являются верными:
- # Для компиляции теста Linpack следующие компоненты являются необходимыми:
- # Укажите продукты, необходимые для сборки адаптированного теста Linpack, входящего в комплект поставки Intel® Math Kernel Library 9.1 Cluster Edition:
- # Какие из следующих утверждений являются верными:
- # Intel® Math Kernel Library Cluster Edition необходима для компиляции теста Linpack, потому что:
- # Тест Linpack может быть откомпилирован:
- # Intel® Visual Fortran Compiler for Windows необходим для выполнения лабораторной работы потому что:
- # Для запуска теста Linpack, скомпилированного в ходе лабораторной работы, необходимо наличие следующих компонентов:
- # Тест Linpack может быть запущен:
- # Результаты, показываемые тестом Linpack (при условии неизменности характеристик тестируемого программно-аппаратного комплекса) зависят:
- # Для проведения серии экспериментов, различающихся размерностью задачи, необходимо:
- # Для проведения серии экспериментов, отличающихся размерностями сеток, необходимо:
- # Какие параметры, как правило, оказывают наибольшее значение на результат теста:
- # Результатом работы теста Linpack является:
- # Являются ли приведенные рекомендации по выбору параметров теста верными:
- # Запуск теста в случае использования MPICH2 выглядит следующим образом:
- # Для организации параллельных вычислений в вычислительных системах с распределенной памятью необходимо:
- # Для распределения вычислений между процессорами в вычислительных системах с распределенной памятью необходимо:
- # Минимально необходимый набор операций для организации информационного взаимодействия между процессорами в вычислительных системах с распределенной памятью включает в себя только:
- # Под параллельной программой в рамках MPI понимается:
- # Процессы параллельной программой в рамках MPI:
- # Номер процесса в рамках MPI именуется:
- # Среди предусмотренных в составе MPI операций передачи сообщений различают:
- # Под коммуникатором в MPI понимается:
- # Указание используемого коммуникатора является:
- # Все данные для передачи в качестве сообщения MPI описываются с помощью триады:
- # Процессы, между которыми выполняется передача данных:
- # Завершение функции MPI_Send означает, что:
- # Прием сообщения при помощи функции MPI_Recv может быть инициирован:
- # Функция MPI_Recv:
- # Прием сообщений при помощи функции MPI_Recv может быть осуществлен:
- # В синхронном режиме передачи завершение функции отправки сообщения происходит:
- # В буферизованном режиме функция отправки сообщения завершается:
- # Режим передачи по готовности может быть использован только если:
- # Применение неблокирующего способа выполнения обменов позволяет:
- # Завершение вызова функции неблокирующего обмена приводит:
- # Функция блокирующего ожидания завершения одного обмена в MPI называется:
- # В коллективных операциях передачи данных обязаны принимать участие:
- # Коллективные операции MPI:
- # Под коллективными операциями в MPI понимаются:
- # Операцию редукции данных MPI_Reduce можно описать:
- # Обобщенная передача данных от всех процессов всем процессам может быть описана как:
- # Операция широковещательной рассылки данных это:
- # Производным типом данных в MPI называется:
- # Сигнатурой производного типа в MPI именуется:
- # Протяженность производного типа в MPI это:
- # При векторном способе новый производный тип создается как:
- # При индексном способе новый производный тип создается как:
- # H-векторный и H-индексный способы создания данных отличаются от векторного и индексного способов тем, что:
- # MPI поддерживает топологии вида:
- # В декартовой топологии множество процессов представляется в виде:
- # Топология типа тор в MPI является частным видом топологии типа:
- # Для организации параллельных вычислений в вычислительных системах с общей памятью необходимо:
- # Для распределения вычислений между потоками в вычислительных системах с общей памятью необходимо:
- # Минимально необходимый набор операций для организации информационного взаимодействия между потоками в вычислительных системах с общей памятью включает в себя только:
- # Под параллельной программой в рамках OpenMP понимается:
- # Потоки параллельной программой в рамках OpenMP:
- # Количество потоков в рамках OpenMP программы:
- # Среди предусмотренных в составе OpenMP директив, для организации параллельных фрагментов, существует:
- # При применении директивы #pragma omp paralle:
- # При применении директивы #pragma omp paralle все данные используемые до директивы по умолчанию считаются:
- # Среди параметров директивы OpenMP присутствуют:
- # Потоки, между которыми выполняется передача данных, должны использовать общую память. Путь переменные объявлены внутри параллельного фрагмента. Тогда для того что бы их использовать для коммуникации необходимо использовать следующие свойство директивы #pragma omp paralle:
- # Если в параллельном фрагменте используються переменные, объявленные вне параллельного фрагмента, но требуется, что бы они использовались локально в каждом потоке необходимо использовать следующее свойство директивы #pragma omp paralle:
- # Для распределения итераций циклов между потоками необходимо использовать следующую директиву:
- # Если нужно распараллелить следующий фрагмент через первый цикл for (i=0; i < NMAX; i++) for (j=0; j < NMAX; j++) то нужно использовать следующую директиву:
- # Если при распараллеливании цикла использовалась директива #pragma omp parallel for, и программист решил распределить по три итерации на поток, то необходимо использовать следующее свойство:
- # При статическом (static) распределении итераций цикла итерации распределяются:
- # При динамическом (dynamic) распределении итераций цикла итерации распределяются:
- # При управляемом (guided) распределении итераций цикла итерации распределяются:
- # Если по завершению параллельного цикла по алгоритму нет необходимости в синхронизации, тогда в этом случае нужно использовать следующее свойство директивы:
- # При сборе результатов со всех потоков используется операция редукции reduction. Какие операции редукции поддерживает OpenMP:
- # Какая директива OpenMP может быть использована для синхронизации потоков:
- # Для атомарного выполнения операций всеми потоками могут быть применены следующие директивы OpenMP:
- # В критические секции:
- # Для написания кода отдельно для каждого потока необходимо использовать следующую директиву OpenMP:
- # При помощи каких директив возможно определить однопотоковый участков для параллельных фрагментов:
- # Каким образом в OpenMP можно управлять количеством создаваемых потоков потоков:
- # Какую информацию возможно получить при помощи библиотечных функций OpenMP:
- # Каким образом возможно включить динамический режим создания потоков:
- # Каким образом можно разрешить режим вложенного параллелизма:
- # Если применялись все способы задания количества потоков, то какой способ задания потоков обладает наибольшим приоритетом:
- # Какая последовательность применения семафоров правильная:
- # Для чего применяются симафоры:
- # Каким образом действует функция int omp_test_lock (omp_lock_t &lock);:
- # Каким образом можно ограничить случаи, когда будет создан параллельный фрагмент:
- # Каким образом можно засечь время OpenMP программы:
- # В каких операционных системах могут выполняться OpenMP программы:
- # Основным инструментом поиска ошибок в программах является:
- # Важным нововведением Microsoft Visual Studio 2008 является:
- # Как задаются точки остановки в программе:
- # Окно "Call Stack" в Microsoft Visual Studio 2008:
- # Окно "Autos" в Microsoft Visual Studio 2008:
- # Окно "Watch" в Microsoft Visual Studio 2008:
- # Окно "Threads" в Microsoft Visual Studio 2008:
- # В чем особенность отладочной конфигурации программы:
- # Как называется ситуация, когда процессы параллельной программы взаимодействуют между собой без выполнения каких-либо синхронизирующих действий, что приводит к появлению трудно воспроизводимых ошибок, проявляющихся и исчезающих от запуска к запуску:
- # Каким образом можно дать указание в окне Watch распечатать 10 первых элементов массива int myArray[10]:
- # Как связаны между собой идентификатор MPI процесса в группе MPI_COMM_WORLD (получаемый функцией MPI_Comm_rank) и идентификатор процесса операционной системы (отображаемый в окне Processes в колонке ID):
- # Макрос ASSERT используется для:
- # В чем основной недостаток "printf отладки":
- # В чем основной недостаток последовательного отладчика (например, отладчика предыдущих версий среды разработки Microsoft Visual Studio) при отладке MPI программ (по сравнению с параллельным отладчиком Microsoft Visual Studio 2008):
- # В каких случаях на рабочую станцию необходимо устанавливать High Performance Computing SDK:
- # Какой прием поможет избежать взаимной блокировки процессов при циклической посылке сообщений с использованием функций MPI_Send/MPI_Recv (под циклической посылкой здесь понимается ситуация, когда процесс с индексом i передает информацию процессу с индексом i+1, i=0,…,n-2, а процесс с индексом n-1 передает информацию процессу с индексом 0):
- # При использовании неблокирующих функций передачи сообщений в MPI:
- # Для запуска сеанса параллельной отладки в Microsoft Visual Studio 2008 в качестве запускаемой команды (пункт MPIRun Command) в окне настройки MPI Cluster Debugger необходимо выбрать: