Главная /
Основы теории нейронных сетей
Основы теории нейронных сетей - ответы на тесты Интуит
Одним из популярных направлений Artificial Intelligence является теория нейронных сетей (neuron nets). Данный курс является систематизированным вводным курсом в это направление. Нашей целью является познакомить слушателей с основными нейроно-сетевыми парадигмами, показать область применения этого направления.
Список вопросов:
- # Что является входом искусственного нейрона?
- # Что такое множество весовых значений нейрона?
- # Что означает величина NET?
- # Что означает величина OUT?
- # Активационной функцией называется:
- # Матричное умножение XW вычисляет:
- # Активационная функция применяется для:
- # Значение активационной функции является:
- # В каком случае многослойные сети не могут привести к увеличению вычислительной мощности по сравнению с однослойной сетью?
- # Сетью без обратных связей называется сеть,
- # Активационная функция называется "сжимающей", если
- # Слоем нейронной сети называется множество нейронов,
- # Какие сети характеризуются отсутствием памяти?
- # Входным слоем сети называется:
- # Можно ли построить однослойную нейронную сеть с обратными связями?
- # Сети прямого распространения - это:
- # Сети с обратными связями это:
- # "Обучение без учителя" характеризуется отсутствием:
- # При каком алгоритме обучения обучающее множество состоит только из входных векторов?
- # При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?
- # Как происходит обучение нейронной сети?
- # "Обучение с учителем" это:
- # Синапсами называются:
- # Дендритами называются:
- # Искусственный нейрон
- # Память называется гетероассоциативной, если:
- # Память называется автоассоциативной, если:
- # К какому типу памяти относится ДАП?
- # Гетероассоциативность ДАП достигается путем:
- # Автоассоциативность памяти обусловлена:
- # Сеть ДАП достигает стабильного состояния, когда:
- # В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?
- # В сети ДАП выходы второго слоя нейронов являются:
- # Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?
- # Внутренней памятью нейрона называется:
- # Кратковременной памятью сети ДАП называется:
- # Долговременной памятью сети ДАП называется:
- # Метод восстановления ассоциаций заключается в том, что:
- # Способность ДАП к обобщению заключается в:
- # Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?
- # Кодированием ассоциаций называется:
- # Кодирование ассоциаций - это:
- # Обучение сети ДАП происходит:
- # Всегда ли обученная сеть ДАП является устойчивой?
- # В каком случае сеть ДАП превращается в сеть Хопфилда?
- # Сеть ДАП называется негомогенной, если:
- # В чем преимущество негомогенной сети ДАП перед гомогенной?
- # Сеть ДАП называется асинхронной, если:
- # Сеть ДАП называется адаптивной, если:
- # Сеть ДАП называется конкурирующей, если:
- # Стабильностью называется способность памяти:
- # Пластичностью называется способность памяти:
- # Обладает ли сеть Хопфилда свойством стабильности-пластичности?
- # Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?
- # Шаблоном критических черт называется:
- # Самоадаптацией алгоритма обучения сети АРТ называется:
- # Говорят, что в сети АРТ возник адаптивный резонанс, если:
- # В чем заключается отличие АРТ-1 от АРТ-2?
- # Шаблон критических черт используется, когда:
- # Задачей сети АРТ является:
- # Если входной вектор соответствует одному из запомненных образов, то:
- # Если входной вектор не соответствует ни одному из запомненных образов, то
- # В сети АРТ запомненный образ подвергается изменению:
- # Сколько функциональных модулей включает в себя сеть АРТ?
- # В слой сравнения информация поступает из:
- # Из слоя сравнения информация поступает в:
- # Правило двух третьих заключается в том, что:
- # Лотарально-тормозящая связь используется :
- # Из слоя распознавания информация поступает в:
- # В начальный момент времени выходом слоя распознавания является:
- # В начальный момент времени выходом слоя сравнения является
- # В момент времени, отличный от начального, выходом слоя распознавания является
- # Работа блока сброса заключается в:
- # Если блок сброса выработал сигнал сброса, то:
- # Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:
- # Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:
- # Если параметр сходства выбрать неоправданно высоким, то:
- # Если параметр сходства выбрать неоправданно низким, то:
- # Фаза распознавания инициализируется:
- # В фазе распознавания свертка вычисляется при помощи скалярного произведения
- # Процесс лотерального торможения обеспечивает, что
- # В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:
- # В фазе сравнения блок сброса:
- # В фазе сравнения значение приемника 1 устанавливается равным:
- # Фаза поиска инициализируется, если:
- # Фаза поиска считается успешно завершенной, если:
- # Фаза поиска считается неуспешно завершенной, если:
- # Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?
- # Алгоритм обучения сети АРТ является...
- # Суть алгоритма медленного обучения в том, что:
- # Суть алгоритма быстрого обучения в том, что:
- # Если в процессе обучения некоторый вес был обнулен, то:
- # После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:
- # В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:
- # Характеристика "прямого доступа" заключается в том, что:
- # Устойчивость процесса поиска заключается в том, что:
- # Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:
- # Проблема локализованности памяти АРТ заключается в том, что:
- # Когнитрон является:
- # Областью связанности данного нейрона называется:
- # Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?
- # Величиной NET нейрона когнитрона является:
- # В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?
- # Область связи пресиноптического тормозящего нейрона:
- # Весовые значения тормозящих нейронов:
- # Выходом тормозящего пресиноптического нейрона является:
- # Весовые значения тормозящих нейронов из области связи задаются так, чтобы:
- # Принцип "элитного обучения" когнитрона заключается в том, что:
- # Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?
- # Если тормозящий вход данного нейрона слишком мал, то выходной сигнал OUT будет вычисляться по формуле:
- # Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:
- # При обучении когнитрона обучаются:
- # Обучение тормозящего входа возбуждающего нейрона
- # Стратегия обучения когнитрона заключается в том, что:
- # Приращение веса возбуждающего входа данного постсиноптического нейрона зависит от:
- # Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:
- # После окончания алгоритма обучения информация о "шаблоне" данного класса образов хранится:
- # При предъявлении на вход обученного когнитрона некоторого вектора
- # Латеральное торможение данный нейрон получает:
- # В чем заключается главный недостаток процедуры латерального торможения?
- # Если области связи нейронов имеют постоянный размер во всех слоях, то:
- # Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?
- # Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?
- # Каждый слой неокогнитрона состоит из:
- # Слой неокогнитрона состоит из
- # Информация, поступающая из предыдущего слоя неокогнитрона, подается
- # В каждом слое неокогнитрона выходы из массива простых плоскостей поступают на вход
- # В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход
- # Каждой плоскости простых узлов сопоставлено:
- # В каждом слое неокогнитрона
- # Рецептивной областью данного простого узла называется:
- # Каждая плоскость простых узлов реагирует
- # Способна ли одна и та же плоскость простых узлов реагировать как на заданный образ, так и на его произвольный поворот?
- # Различные узлы в одной плоскости простых узлов реагируют:
- # Месторасположением узла в данной плоскости простых узлов определяется
- # Каждый узел в плоскости простых узлов получает вход:
- # Рецептивные области узлов каждой плоскости простых узлов
- # Простой узел возбуждается, если:
- # Задачей комплексных узлов является:
- # Рецепторной областью комплексного узла называется:
- # Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?
- # Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?
- # При использовании неокогнитрона как классификатора, можем ли мы классифицировать образы независимо от их позиции, ориентации, размера и т.п.?
- # При обучении неокогнитрона обучаются:
- # При каких из ниже перечисленных условий, в алгоритме обучения неокогнитрона "без учителя" происходит обучение данной синоптической связи?
- # Способность неокогнитрона к самовосстановлению выражается в:
- # В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:
- # Какой тип обучения можно использовать при обучении неокогнитрона?
- # Теория обучения Хэбба подразумевает:
- # В алгоритме обучения Хэбба предполагается обучение:
- # В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:
- # В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :
- # Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:
- # Входная звезда Гроссберга используется для:
- # Выходом входной звезды Гроссберга является:
- # Выходом выходной звезды Гроссберга является
- # Хорошо обученная входная звезда Гроссберга способна реагировать:
- # В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит
- # Алгоритм обучения персептрона является:
- # В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит
- # При обучении персептрона предполагается обучение:
- # Обучение персептрона считается законченным, когда:
- # Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона
- # В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:
- # Статистические методы обучения являются:
- # В статистических алгоритмах обучения искусственная температура используется для:
- # Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?
- # Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?
- # Самоорганизующиеся сети используются для:
- # В алгоритме обучения Кохонена обучению подвергаются:
- # Алгоритм обучения Кохонена является:
- # В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:
- # В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:
- # Персептроном Розенблатта называется:
- # Сколько слоев имеет персептрон Розенблатта?
- # Выходом персептрона являются:
- # Входом персептрона являются:
- # Какая активационная функция используется в персептроне?
- # Способность персептрона решать определенную задачу называется:
- # Персептронной представимостью называется:
- # Представима ли персептроном любая интуитивно вычислимая задача?
- # Какая из следующих функций непредставима персептроном?
- # Однонейронный персептрон с двумя входами:
- # Функция называется линейно неразделимой, если:
- # Персептрон Розенблатта решает задачи:
- # В однонейронном персептроне длина входного вектора характеризует:
- # Однонейронным персептроном размерность разделяемого пространства определяется
- # Сколько булевых функций от двух переменных можно представить персептроном?
- # В однонейронном персептроне размерность разделяющей гиперплоскости определяется:
- # Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?
- # Выпуклой областью называется:
- # Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?
- # Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?
- # Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?
- # Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?
- # Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?
- # Где в нейронной сети хранится информация о классификации образов?
- # Что такое "неподатливое" множество образов?
- # Алгоритм обучения персептрона – это:
- # Обучением называют:
- # Однослойный персептрон решает задачи:
- # На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?
- # Что называется "эпохой" в алгоритме обучения персептрона?
- # Что называется обучающей выборкой для обучения персептрона?
- # Нейронная сеть является обученной, если:
- # Алгоритм обучения персептрона завершает свою работу, когда
- # В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?
- # Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?
- # Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?
- # Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?
- # Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:
- # Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно
- # Теорема о сходных персептронах утверждает, что:
- # Теорема о "зацикливании" персептрона утверждает, что:
- # В каком случае персептрон может обучиться решать данную задачу?
- # Когда алгоритм обучения персептрона зацикливается?
- # Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?
- # Если данный персептрон заменить персептроном с целочисленными весами, то:
- # Вопрос о выборе шага при применении процедуры обучения решается следующим образом:
- # Теорема о двухслойности персептрона утверждает, что:
- # Все ли нейроны многослойного персептрона возможно обучить?
- # Сколько слоев может содержать персептрон?
- # Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?
- # Обобщенным многослойным персептроном называется:
- # Входным слоем обобщенного многослойного персептрона называется:
- # Скрытым слоем обобщенного многослойного персептрона называется:
- # Выходным слоем обобщенного многослойного персептрона называется:
- # Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?
- # Обучающей парой называется пара векторов,...
- # Обучающим множеством называется:
- # Какие весовые значения должны быть навешаны на сеть до начала процедуры обучения?
- # Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то
- # Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "прохода вперед"?
- # Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "обратного прохода"?
- # В алгоритме обратного распространения при "проходе вперед"
- # В алгоритме обратного распространения при "проходе вперед"
- # Алгоритм обратного распространения работает, пока:
- # Сигналом ошибки данного выходного нейрона называется:
- # При обучении выходного нейрона величина δ является:
- # При обучении скрытого нейрона величина δ является:
- # Алгоритм обратного распространения заканчивает свою работу, когда:
- # Чем отличается обучение скрытого нейрона от обучения выходного нейрона?
- # Добавление нейронного смещения позволяет:
- # Метод импульса позволяет:
- # Метод импульса заключается в:
- # Метод ускорения сходимости заключается в:
- # Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:
- # К переобучению склонны сети с:
- # Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?
- # Проблема переобучения заключается в:
- # Если сеть имеет очень большое число нейронов в скрытых слоях, то:
- # Если сеть имеет небольшое число нейронов в скрытых слоях, то:
- # При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:
- # При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:
- # При методе кросс-проверки считается, что сеть начала переобучаться, если:
- # Механизм контрольной кросс-проверки необходим для того, чтобы:
- # Механизм контрольной кросс-проверки заключается в:
- # Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:
- # Сеть начала переобучаться, если:
- # Тестовое множество необходимо для:
- # Чем тестовое множество отличается от контрольного множества?
- # Если ошибка сети на контрольном множестве стала расти, это означает, что:
- # Дискриминантной функцией называется:
- # Если нейронная сеть не содержит скрытых элементов, то она:
- # Если сеть содержит один промежуточный слой, то она моделирует:
- # Если сеть содержит два промежуточных слоя, то она моделирует:
- # Для решения любой задачи классификации достаточно иметь:
- # Паралич сети может наступить, когда:
- # Чтобы избежать паралича сети, необходимо:
- # Если размер шага очень мал, то:
- # Если размер шага очень большой, то:
- # Если сеть находится в постоянно меняющейся внешней среде, то:
- # Принцип работы слоя Кохонена заключается в том, что:
- # "Победителем" считается нейрон Кохонена
- # Если данный нейрон Кохонена является "победителем", то его значение OUT
- # Значением NET нейрона слоя Гроссберга является:
- # По принципу "победитель забирает все" действуют:
- # Задачей слоя Кохонена является:
- # При обучении слоя Кохонена подстраиваются весовые значения:
- # При обучении слоя Кохонена процесс обучения состоит в:
- # В процессе обучения слоя Кохонена "победителем" объявляется нейрон
- # Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:
- # Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:
- # Модификация алгоритма обучения методом "чувства справедливости" заключается в:
- # Метод коррекции весов пропорционально входу заключается в:
- # Метод аккредитации заключается в:
- # Метод интерполяции заключается в:
- # Обучение слоя Гроссберга является:
- # Обучение сети встречного распространения является:
- # Обучение слоя Кохонена является:
- # При обучении сети встречного распространения обучающей парой является:
- # Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является
- # Сеть встречного распространения считается обученной, если:
- # Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:
- # Способна ли сеть встречного распространения аппроксимировать обратимые функции?
- # Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор x , на выходе мы получим:
- # Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор y, на выходе мы получим:
- # Детерминистским методом обучения называется:
- # Стохастическим методом обучения называется:
- # При стохастическом методе обучения изменения весовых значений сохраняются, если
- # Целевой функцией называется:
- # При стохастическом методе обучения , если целевая функция увеличивается, то:
- # Если случайные изменения весовых значений очень малы, то:
- # Если случайные изменения весовых значений очень велики, то:
- # Стратегия избежания локальных минимумов при сохранении стабильности заключается в
- # Метод "имитации отжига" заключается в
- # При обучении сеть не сможет выбраться из локального минимума, если:
- # Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?
- # Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?
- # Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:
- # Какова роль искусственной температуры при Больцмановском обучении?
- # В чем преимущество метода Коши перед Больцмановским методом обучения?
- # Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?
- # Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?
- # Для какого алгоритма необходимо гораздо большее время сходимости?
- # Для какого алгоритма более опасен сетевой паралич?
- # Для какого алгоритма скорость обучения более высокая?
- # Комбинирование методов распространения Коши и обратного распространения заключается в:
- # При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:
- # В чем состоит минус метода ограничения диапазона изменений весовых значений?
- # Метод изменений сигналов OUT заключается в том, что:
- # В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...
- # Отсутствие обратных связей гарантирует:
- # Сеть с обратным распространением называется устойчивой, если:
- # Сеть с обратным распространением называется неустойчивой, если:
- # Сеть называется сетью с обратными связями, если:
- # Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:
- # Сколько слоев полноценных нейронов используется в сети Хопфилда?
- # Состоянием сети Хопфилда называется :
- # Задача сети Хопфилда заключается в
- # Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:
- # Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :
- # Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:
- # Если два образца сильно похожи, то:
- # Сеть Хопфилда заменяется на сеть Хэмминга, если:
- # Какая сеть требует меньших затрат вычислительных ресурсов?
- # Сколько слоев полноценных нейронов имеет сеть Хэмминга?
- # Задача сети Хэмминга заключается в:
- # Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?
- # Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?
- # Синаптические связи называются тормозящими, если :
- # Какими должны быть весовые значения тормозящих синаптических связей?
- # При каком условии сеть обратного распространения является устойчивой?
- # Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?
- # Память называется ассоциативной, если извлечение необходимой информации происходит по:
- # Задачей распознавания образов называется:
- # В чем основное отличие ассоциативной памяти от адресной?
- # Ортогонализация исходных образов позволяет:
- # При ортогонализации исходных образов отрицательным фактором является:
- # Метод обучения сети называется локальным, если:
- # Метод отказа от симметрии синапсов позволяет:
- # При методе отказа от симметрии синапсов отрицательным фактором является:
- # Алгоритмы разобучения применяются для:
- # В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:
- # Непрерывная сеть Хопфилда является устойчивой, если:
- # Есть ли вероятность того, что в алгоритме разобучения сеть "забудет" правильный образ?
- # Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:
- # Метод машины Больцмана позволяет сети Хопфилда:
- # В методе машины Больцмана изменение состояний нейронов обусловлено:
- # В статической сети Хопфилда вероятность изменения веса является функцией от:
- # Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:
- # Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:
- # Обучение обобщенной машины Больцмана является:
- # В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:
- # В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:
- # В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:
- # В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:
- # В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:
- # Сколько нейронов необходимо для реализации задачи коммивояжера, где n - число городов?
- # В задаче коммивояжера каждый город представляется:
- # Задачей аналого-цифрового преобразователя является то, что:
- # В аналого-цифровом преобразователе весовые значения интерпретируют: