Главная /
Логические нейронные сети /
Дополните нейронную сеть, фрагмент которой приведен на рисунке, положительными обратными связями, усиливающими предположение об участии Пети в рассматриваемых ситуациях в тех случаях, когда предположения о местонахождении Васи имеют высокую достоверность.
Дополните нейронную сеть, фрагмент которой приведен на рисунке, положительными обратными связями, усиливающими предположение об участии Пети в рассматриваемых ситуациях в тех случаях, когда предположения о местонахождении Васи имеют высокую достоверность.
Такое дополнение показано на рисунке. Вес обратной связи к нейрону А2
находится на основе информации о Васе:
Проанализируйте два цикла "работы" нейронной сети, выявив лишь влияние обратной положительной связи на возможность "участия" Пети в событиях в связи с "занятостью" Васи. Для этого рассмотрите варианты повторного запроса к Васе до истечения 4 единиц времени с момента предыдущего запроса к нему.
Δt = 1.
вопрос
Правильный ответ:
положительная обратная связь к нейрону
А2
формируется одним из нейронов выходного слоя, который учитывает возбуждение нейрона А1
, в первом цикле ωА2= 0,25
,
во втором цикле ωА2= 0,125
положительная обратная связь к нейрону
А2
формируется одним из нейронов выходного слоя, который учитывает возбуждение нейрона А1
,
в первом цикле ωА2= 0,125
,
во втором цикле ωА2= 0,0625
положительная обратная связь к нейрону
А2
формируется одним из нейронов выходного слоя, который учитывает возбуждение нейрона А1
,
в первом цикле ωА2= 0,5
,
во втором цикле ωА2= 0,25
Сложность вопроса
67
Сложность курса: Логические нейронные сети
81
Оценить вопрос
Комментарии:
Аноним
Это очень простой решебник по интуиту.
16 сен 2019
Другие ответы на вопросы из темы искусственный интеллект и робототехника интуит.
- # Минимизируйте длину логических цепочек с помощью "размножения" решений. [Большая Картинка]
- # Произведите оптимальное закрепление рецепторов за событиями для графического или "схемотехнического" представления "бабушкиной" нейронной сети для оптимального программирования нейросетевой приставки к компьютеру. Логические выражения, определяющие СПР: 1. (x1 ∨ x3) ∧ (x4 ∨ x7) → R1= "Прогулка на велосипеде"; 2. (x1 ∧ x6) ∨ (x2 ∧ x4) → R2= "Шахматы"; 3. (x2 ∧ x5) ∨ (x1 ∧ x7) → R3= "Верховая езда"; 4. (x1 ∧ x5) ∨ (x2 ∧ x6) → R4= "Байдарка"; 5. x3 ∧ (x4 ∨ x6) → R5= "Дискотека"; 6. x2 ∧ x7 → R6= "Пешая прогулка"; 7. x3 ∧ (x5 ∨ x7) → R6= "Пешая прогулка"
- # Обучите нейронную сеть двум буквам А и В, как показано на рисунке, согласно логическим выражениям А: (1,1)∧ (1,3)∧ (2,1)∧ ((2,2)∨ (3,2))∧ (2,3)∧ (3,1)∧ (3,3) )∧ (4,1)∧ (4,3) ∧ (5,2). В: (1,1)∧ (1,2)∧ (1,3)∧ (2,1)∧ (2,3)∧ (3,1)∧ (3,2)∧ ((4,1)∨ (5,1))∧ (4,3)∧ ((5,2)∨ (5,3)). Используйте передаточную функцию суммирования значений сигналов на входах нейрона при нулевом пороге. Различает ли сформированная нейросеть эталоны этих букв? [Большая Картинка]
- # Произведите трассировку нейронной сети, заданной матрицей следования S, обучив ее на основе системы обобщенных эталонов x1 & x2 & x3 → R1, x2 & x3 & x4 → R2, x1 & x3 & x4 → R3 Сохраните информацию о том, в получении каких решений участвует каждый нейрон, не являющийся рецептором и не принадлежащий выходному слою. "Доучите" нейросеть на основе уточненного обобщенного эталона, порождающего решение R1 : x1 & x2 & x3 & x4 → R1 Матрица S имеет вид: [Большая Картинка]
- # Для передаточной функции V_i:=\left \{ \begin{array}{ll} V, & \mbox{при } V \ge h, \\ 0, & \mbox{в противном случае;} \end{array}\right h=0,5 произведите верификацию нейросети, задавая допустимые комбинации единичных значений аргументов (эталонные ситуации). Нейросеть, полученная в результате трассировки матрицы следования: [Большая Картинка]