Главная /
Нейрокомпьютерные системы
Нейрокомпьютерные системы - ответы на тесты Интуит
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
Список вопросов:
- # Что в наибольшей степени влияет на результат работы нейронной сети?
- # Что является главным результатом Розенблатта?
- # Какую парадигму искусственного интеллекта реализуют нейронные сети?
- # К чему приводит отказ компонента (нейрона или синаптической связи) сети?
- # В чем заключается обучение нейронной сети?
- # На какие классы нейронные сети делятся по структуре?
- # Каковы типичные приложения нейронных сетей?
- # Какие из перечисленных ниже свойств характерны для нейронных сетей?
- # Какую функцию реализует ассоциативная память?
- # Какие из нижеперечисленных особенностей присущи традиционным вычислительным системам?
- # Что представляет собой задачник при обучении нейронных сетей?
- # Как нейрон МакКаллока-Питса определяет свое состояние?
- # В каких областях применяются нейрокомпьютеры?
- # Какие состояния имеют нейроны МакКаллока-Питса?
- # Как должен изменяться вес входа нейрона по правилу Хебба?
- # Какие условия являются достаточными для сходимости переходных процессов в сети Хопфилда?
- # Как связаны между собой нейроны второго слоя сети Хемминга?
- # Какие нейроны используются в устройствах ассоциативной памяти?
- # Чему равно расстояние Хемминга между двумя векторами?
- # На запоминание каких систем векторов рассчитана сеть Хопфилда при обучении по правилу Хебба?
- # В каком слое сети Хемминга вычисляется расстояние Хемминга между входным вектором и вектором весов нейрона?
- # К какому типу относится двунаправленная ассоциативная память?
- # Какой из нейронов второго слоя сети Хемминга побеждает все остальные нейроны этого слоя?
- # Какие пары векторов запоминает двунаправленная ассоциативная память?
- # Что является общей чертой рекуррентных сетей?
- # В каком режиме функционирует второй слой сети Хемминга?
- # Что такое автосвязь?
- # Благодаря чему рекуррентные сети можно использовать в качестве ассоциативной памяти?
- # Какой метод обучения обеспечивает большую емкость ассоциативной памяти на основе сети Хопфилда?
- # Что считается достоинством сети Хемминга?
- # Какие сети Хопфилда дают лучшие по качеству решения задачи коммивояжера?
- # Какие значения функции энергии соответствуют более коротким маршрутам в задаче коммивояжера?
- # Как ведет себя сеть Хопфилда при малых значениях производной сигмовидной функции активации в окрестности нуля?
- # Какое состояние машины Больцмана считается соседним для данного состояния?
- # Какие значения консенсуса соответствуют более коротким маршрутам в задаче коммивояжера?
- # Как изменяется при понижении температуры вероятность перехода машины Больцмана в состояние с меньшим консенсусом?
- # Как интерпретируется отрицательный весовой коэффициент связи в машине Больцмана?
- # Какие связи в машине Больцмана, решающей задачу коммивояжера, обеспечивают хотя бы по одной единице в каждом столбце и в каждой строке матрицы нейронов?
- # Какая сеть дает лучшие решения задачи коммивояжера?
- # Какой член функции энергии равен нулю, если каждая строка матрицы нейронов содержит не более одной единицы?
- # Какой член функции энергии равен нулю, если каждый столбец матрицы нейронов в задаче коммивояжера содержит не более одной единицы?
- # Какой член функции энергии равен нулю, если матрица нейронов содержит количество единиц, равное числу городов в маршруте коммивояжера?
- # Что гарантируют связи смещений в машине Больцмана при решении задачи коммивояжера?
- # Какой член функции энергии численно равен длине маршрута коммивояжера?
- # Когда активна связь (Xi,Yj) ∈ Ed машины Больцмана?
- # Как задана обратная связь в сети RMLP?
- # В каких случаях рекуррентные нейронные сети являются удобным инструментом прогнозирования временных рядов?
- # Для чего используется идентифицированная модель объекта?
- # Для чего предназначена сеть Эльмана?
- # Что понимается под "памятью" экстраполятора?
- # Как задана обратная связь в сети Эльмана?
- # Чем сеть RTRN отличается от сети Эльмана?
- # Какая величина минимизируется при идентификации динамического объекта нейронной сетью?
- # Для чего используется сеть RTRN?
- # Чему равно значение погрешности, управляющей процессом уточнения параметров нейронной сети RMLP?
- # Какие данные образуют множество входных сигналов скрытого слоя сети Эльмана?
- # Какие данные образуют множество входных сигналов скрытого слоя сети RMLP?
- # Какие методы можно применять для прогноза временных рядов?
- # Применим ли алгоритм обратного распространения ошибки к обучению рекуррентных персептронных сетей?
- # К какой задаче в общем случае сводится задача прогноза данных на нейронной сети?
- # По какому признаку в методе динамических ядер вектор сигналов относится к заданному классу?
- # Когда производится слияние двух классов?
- # Когда в задаче классификации без учителя можно перейти от использования квадрата евклидова расстояния между входным сигналом и ядром к скалярному произведению входного сигнала и ядра?
- # Какое правило обучения реализует алгоритм WTM?
- # Какой тип соседства дает лучшие результаты обучения карты Кохонена?
- # Какой алгоритм самоорганизации поощряет нейроны с наименьшей активностью?
- # Какой вариант компрессии данных реализует сеть Кохонена?
- # На каком свойстве сети Кохонена основана компрессия данных?
- # Что минимизируется при компрессии данных сетью Кохонена?
- # Каким образом производится отнесение объекта к определенному классу при классификации без учителя?
- # Какие нейроны изменяют свои веса при обучении сети Кохонена алгоритмом WTM?
- # Какой тип соседства используется в классическом алгоритме Кохонена?
- # Какие данные образуют кодовую таблицу при компрессии?
- # Каким образом определяется количество классов в методе динамических ядер?
- # Чем определяется степень адаптации нейронов-соседей при использовании соседства гауссовского типа?
- # Какой слой сети АРТ осуществляет запоминание векторов данных?
- # Благодаря какому свойству слоя распознавания только один нейрон в слое может быть активирован?
- # Способна ли сеть АРТ классифицировать зашумленные векторы?
- # Когда схема сброса считает плохим сходство векторов x и С?
- # Какой сигнал разрешает работу слоя распознавания?
- # Чему равен порог нейрона в слое сравнения?
- # В каком случае вектор x проходит на выход слоя сравнения без изменений?
- # На каком этапе решения задачи классификации сетью АРТ модуль сброса вычисляет второй критерий сходства?
- # Какое устройство тормозит нейроны в слое распознавания?
- # В чем заключаются положительные качества сети АРТ?
- # Из какого интервала берется значение порога схемы сброса?
- # Как влияет значение порога схемы сброса на качество работы слоя распознавания?
- # Какой тип обучения используется в сетях АРТ?
- # Какого типа нелинейность используется в нейронах слоя сравнения?
- # Какой нейрон в слое распознавания подавляет все остальные?
- # Какие из перечисленных ниже свойств присущи традиционным (четким) нейронным сетям?
- # Какие методы включает в себя вычислительный интеллект (мягкие вычисления)?
- # Какие из следующих особенностей отличают мягкие экспертные системы от нечетких?
- # Какой из модулей системы нечеткого вывода суммирует результаты срабатывания произвольного множества правил вывода?
- # Какие слои сети TSK выполняют фазификацию переменных?
- # Какая из функций принадлежности обладает наибольшим числом параметров?
- # Параметры какой функции рассчитываются при обучении нечетких нейронных сетей?
- # В каких слоях сети TSK производится настройка параметров при обучении?
- # Какая из форм произведения функций принадлежности использует операцию выбора минимального значения?
- # Какие параметры сети ТСК изменяются в процессе обучения?
- # Почему модель Мамдани-Заде называют нечеткой нейронной сетью?
- # Что утверждает принцип "конструктивной неопределенности"?
- # Каким методом можно выполнить дефазификацию нечеткого множества?
- # Какая функция фазификации используется в сети ТСК?
- # Какие части должна содержать база знаний мягкой экспертной системы?
- # Что понимается под редукцией (сокращением) входных сигналов?
- # Как вычисляется оценка значимости сигнала (параметра) на всей выборке входных сигналов?
- # Каковы цели редукции (контрастирования) нейронной сети?
- # Как оценивается значимость входных сигналов сети?
- # Как оценивается значимость параметра, изменяющегося во времени (например, в результате обучения)?
- # Какой показатель должен изменяться минимально при редукции нейронной сети?
- # Какие варианты редукции существуют?
- # Что собой представляет бинаризация сумматора?
- # Какой должна быть проекция вектора F на каждом шаге ортогонализации базиса?
- # Какой вариант процедуры отбрасывания наименее значимых параметров является простейшим?
- # Какой вариант процедуры отбрасывания наименее значимых параметров является наилучшим?
- # К каким функциям применим метод исключения параметров "сверху вниз" с ортогонализацией?
- # Какие этапы включает в себя оценивание показателя значимости?
- # Когда определение значимости через изменение выходного сигнала не имеет альтернатив?
- # В чем заключается рекурсивное контрастирование нейронной сети?
- # Какими свойствами обладают нейрокомпьютеры для решения задач распознавания образов?
- # Какими свойствами обладают нейрокомпьютеры для решения задач комбинаторной оптимизации?
- # Что является наиболее сложной проблемой при создании нейрочипов?
- # На какие типы подразделяются нейрочипы?
- # В качестве каких устройств используются электронные нейронные сети в персональных ЭВМ?
- # Какие подходы сочетают в себе гибридные нейрочипы?
- # В чем заключаются преимущества оптической реализации нейронных сетей?
- # Что используется для реализации матрицы весовых коэффициентов в оптических умножителях?
- # Какой фактор является решающим для обеспечения высокой плотности соединений в оптических реализациях нейронных сетей?
- # Что используется в качестве единицы производительности нейросетей?
- # Почему взаимное соединение нейронов с помощью световых лучей не требует изоляции между сигнальными путями?
- # Какова разрядность векторного процессора NM6403?
- # На какие категории подразделяются оптические НС?
- # Какова плотность записи оптических весов в голограммах?
- # Каким образом можно объединять нейропроцессоры NM6403 в параллельную систему?
- # Какой является функция активации персептрона?
- # В чем заключается преимущество использования нейрона с непрерывной функцией активации?
- # Какую функцию реализует адалайн?
- # Какую задачу решает персептрон?
- # Какую функцию реализует Паде-нейрон?
- # Требуется ли обучающая выборка (учитель) для обучения нейрона Хебба?
- # В чем заключается обучение персептрона?
- # Требуется ли обучающая выборка (учитель) для обучения нейронов WTA?
- # Какое преобразование реализует кубический нейрон ?
- # Что такое персептрон?
- # В каком интервале изменяются значения биполярной функции сигмоидального нейрона?
- # Какой метод позволяет выйти из окрестности локального минимума?
- # В каком интервале изменяются значения униполярной функции сигмоидального нейрона?
- # Что является важным свойством сигмоидальной функции?
- # Какая величина минимизируется при аппроксимации функции нейроном?
- # Какой способ построения линейного решающего правила является простейшим?
- # Если возможно безошибочное разделение классов, то можно ли его получить методом центров масс?
- # Чем полезен метод центров масс?
- # В каком случае выходной сигнал персептрона будет положительным?
- # Как нужно модифицировать вектор весов, если входной вектор ошибочно отнесен персептроном ко второму классу (выходной сигнал – 0)?
- # Что реализует персептрон в пространстве входных сигналов?
- # Какой вариант алгоритма обучения персептрона обладает наилучшей сходимостью?
- # Что является условием остановки выполнения алгоритма обучения персептрона?
- # Чем ограничивается размер страницы в методе обучения персептрона по страницам?
- # Как нужно модифицировать вектор весов, если входной вектор ошибочно отнесен персептроном к первому классу (выходной сигнал – 1)?
- # Как соотносятся вектор весовых коэффициентов и разделяющая гиперплоскость?
- # Из какого интервала выбирается значение скорости обучения?
- # Следует ли хранить все входные векторы, на которых нейрон ошибается, при обучении по всему задачнику?
- # Какой способ построения решающего правила всегда достигает безошибочного линейного разделения классов, если оно возможно?
- # Какой тип обучения назван обучением с учителем?
- # Как формулируется решающее правило, основанное на формуле Байеса?
- # Какой функцией описывается оптимальная разделяющая поверхность при нормальном распределении объектов двух классов?
- # Какое устройство реализует оптимальную разделяющую поверхность при нормальном распределении объектов двух классов?
- # Сколько разделяющих гиперплоскостей необходимо для реализации функции ИСКЛЮЧАЮЩЕЕ ИЛИ на нейронной сети?
- # Сколько слоев должна содержать нейронная сеть для выделения невыпуклой области?
- # Каким уравнением описывается гиперплоскость, реализующая функцию И?
- # Сколько слоев должна содержать нейронная сеть для выделения выпуклой области?
- # Что реализуют нейроны первого слоя многослойной нейронной сети при решении задачи нелинейного разделения двух классов?
- # Может ли персептрон реализовать функцию ИСКЛЮЧАЮЩЕЕ ИЛИ?
- # Что является формализацией влияния возбуждения в одних областях мозга на возбуждение в других?
- # В каком слое следует увеличить число нейронов, чтобы повысить точность аппроксимации выпуклых областей?
- # Чему должно быть равно значение t в уравнении x1 + x2 + x3= t, чтобы соответствующий нейрон реализовал функцию И?
- # Каким уравнением описывается гиперплоскость, реализующая функцию ИЛИ?
- # В каком слое следует увеличить число нейронов, чтобы увеличить число выпуклых областей, реализуемых сетью?
- # Чему должно быть равно значение t в уравнении x1 + x2 + x3= t, чтобы соответствующий нейрон реализовал функцию ИЛИ?
- # Какие из нижеперечисленных сетей после подачи набора входных сигналов функционируют непрерывно?
- # Какая из многослойных сетей используется наиболее часто?
- # Сколько нейронов полносвязной сети может быть использовано для выдачи выходных сигналов?
- # Какой из видов интерпретации выходных сигналов сети обеспечивает максимальное количество классов при заданном числе нейронов в выходном слое?
- # Для чего выполняется предобработка входных данных нейронной сети?
- # Какие из нижеперечисленных сетей относятся к сетям периодического функционирования?
- # Что позволяет установить сравнение констант Липшица нейронной сети и аппроксимируемой функции?
- # Какое правило интерпретации выходных данных сети является наиболее распространенным?
- # Что нужно сделать для повышения константы Липшица многослойной сети?
- # Какие связи между слоями являются возбуждающими?
- # В какой сети каждый нейрон передает выходной сигнал на вход самому себе?
- # Какие точки функции наиболее трудно аппроксимировать?
- # В чем заключается нормировка входных данных нейронной сети?
- # Какое правило интерпретации дает минимальное число классов?
- # Что такое контрастер?
- # На каком этапе алгоритма обратного распространения ошибки вычисляются производные функций активации нейронов многослойной сети?
- # В каком направлении осуществляется минимизация целевой функции в алгоритме обратного распространения ошибки?
- # Зависят ли выходные сигналы скрытых слоев оригинальной нейронной сети от весовых коэффициентов нейронов выходного слоя?
- # В чем заключается цель одномерной оптимизации?
- # Что подается на входы сети обратного распространения?
- # На чем основан поиск минимума целевой функции в заданном направлении?
- # Что может вызвать неправильный выбор диапазона случайных значений весов?
- # К чему может привести чрезмерное увеличение коэффициента обучения?
- # Чем обусловлена возможность попадания целевой функции многослойной сигмоидальной сети в седловую зону?
- # Когда завершается действие алгоритма обратного распространения?
- # В каком интервале обычно лежат модули допустимых начальных значений весовых коэффициентов сети?
- # Как влияет увеличение числа входов нейронов на выбор начальных значений их весовых коэффициентов (кроме порогов)?
- # Что способствует ускорению процесса обучения сети?
- # Какую операцию следует выполнить в алгоритме обратного распространения там, где дуги сходятся к одной вершине?
- # Почему следует избегать насыщения нейронов?
- # Какие ограничения возникают при попытке осуществить обучение нейронной сети как решение задачи оптимизации?
- # Какие методы используются для учета ограничений параметров сети при обучении?
- # Каких значений может достигать число параметров нейронной сети?
- # В чем преимущество метода случайного выбора направления минимизации оценки?
- # Какой из партан-методов дает лучшие результаты обучения сети?
- # Чем обусловлена неэффективность алгоритма наискорейшего спуска?
- # В чем заключается сложность использования метода Ньютона для обучения нейронных сетей?
- # Чем обусловлено преимущество квазиньютоновских методов перед методом наискорейшего спуска?
- # Когда производится рестарт алгоритма сопряженных градиентов?
- # В каких случаях BFGS-метод превращается в метод сопряженных градиентов?
- # Какие этапы подготовки предшествуют обучению?
- # Как обеспечить ортогональность нового градиента предыдущему направлению спуска в BFGS-методе?
- # Как обеспечить приобретение нейрокомпьютером новых навыков без существенной утраты старых?
- # Каковы требования к реализации наиболее трудоемких этапов алгоритма обучения нейрокомпьютера?
- # Каким образом в квазиньютоновских и партан-методах выбирается начальное направление спуска?
- # В каком случае новое решение в алгоритме имитации отжига принимается случайным образом?
- # При каких значениях температуры увеличение значения целевой функции становится невозможным?
- # Что происходит с температурой при увеличении числа итераций алгоритма имитации отжига?
- # Чему пропорционален размер популяции?
- # Что такое мутация?
- # В чем заключается принцип элитарности?
- # Какой способ генерации новых виртуальных частиц является наиболее консервативным?
- # Какие цели преследует метод виртуальных частиц?
- # Какой способ генерации новых виртуальных частиц является наиболее перспективным?
- # Как ускорить имитацию отжига?
- # Какая доля хромосом подвергается мутации?
- # Как происходит отбор хромосом?
- # К чему приводит слишком малая популяция хромосом?
- # К каким типам возмущений должны быть устойчивы навыки обучения нейрокомпьютера?
- # Когда завершается генетический процесс?
- # Почему радиальные функции называют функциями локальной аппроксимации?
- # Почему аппроксимация, реализуемая сигмоидальной нейронной сетью, называется глобальной?
- # Какое утверждение лежит в основе функционирования радиальных сетей?
- # Что реализует радиальный нейрон в пространстве входных сигналов?
- # Почему для решения задачи классификации (т.е. разбиения пространства входных сигналов на области) в радиальной сети достаточно иметь два слоя нейронов?
- # Какая операция лежит в основе функционирования радиального нейрона?
- # Какую функцию обычно реализует выходной нейрон радиальной сети?
- # К чему приводит чрезмерное количество весовых коэффициентов сети?
- # Какими параметрами описывается радиальная функция Гаусса?
- # Каким образом радиальная сеть реализует преобразование всего множества данных?
- # Какие значения принимает радиальная функция в окрестности центра?
- # Чем могут отличаться друг от друга функции радиальных нейронов?
- # В каких случаях целесообразно использовать радиальную сеть?
- # Что является аргументом радиальной функции?
- # Как вычисляется вектор весов выходного нейрона радиальной сети?