игра брюс 2048
Главная / Искусственный интеллект и робототехника / Основы теории нейронных сетей / Тест 7

Основы теории нейронных сетей - тест 7

Упражнение 1:
Номер 1
Детерминистским методом обучения называется:

Ответ:

 (1) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети 

 (2) метод, выполняющий псевдослучайные изменения весовых значений 

 (3) детерминированный метод обучения с учителем 

 (4) детерминированный метод обучения без учителя 


Номер 2
Стохастическим методом обучения называется:

Ответ:

 (1) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети 

 (2) метод, выполняющий псевдослучайные изменения весовых значений 

 (3) недетерминированный метод "обучения с учителем" 

 (4) недетерминированный метод "обучения без учителя" 


Номер 3
При стохастическом методе обучения изменения весовых значений сохраняются, если

Ответ:

 (1) они уменьшают целевую функцию 

 (2) они увеличивают целевую функцию 

 (3) в любом случае 


Номер 4
Целевой функцией называется:

Ответ:

 (1) вероятностное распределение весовых значений 

 (2) разность между желаемым и фактическим выходом сети 

 (3) функция, которую аппроксимирует данная сеть 


Номер 5
При стохастическом методе обучения , если целевая функция увеличивается, то:

Ответ:

 (1) изменения весовых значений скидываются и производятся новые вычисления 

 (2) производятся повторные изменения весовых значений 

 (3) объявляется, что сеть не может обучиться данной задаче 


Упражнение 2:
Номер 1
Если случайные изменения весовых значений очень малы, то:

Ответ:

 (1) сеть может попасть в локальный минимум 

 (2) процесс обучения может оказаться нестабильным и сеть никогда не обучится 

 (3) потребуются очень большие затраты вычислительных ресурсов 


Номер 2
Если случайные изменения весовых значений очень велики, то:

Ответ:

 (1) сеть может попасть в локальный минимум 

 (2) процесс обучения может оказаться нестабильным и сеть никогда не обучится 

 (3) потребуются очень большие затраты вычислительных ресурсов 


Номер 3
Стратегия избежания локальных минимумов при сохранении стабильности заключается в

Ответ:

 (1) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов 

 (2) малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов 

 (3) достаточно малых изменениях весовых значений 

 (4) достаточно больших изменениях весовых значений 


Номер 4
Метод "имитации отжига"  заключается в

Ответ:

 (1) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов 

 (2) малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов 

 (3) достаточно малых изменениях весовых значений 

 (4) достаточно больших изменениях весовых значений 


Номер 5
При обучении сеть не сможет выбраться из локального минимума, если:

Ответ:

 (1) изменения весовых значений слишком малы 

 (2) изменения весовых значений слишком велики 

 (3) используется детерминированный метод обучения 


Упражнение 3:
Номер 1
Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

Ответ:

 (1) да 

 (2) нет 


Номер 2
Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

Ответ:

 (1) да 

 (2) нет 


Номер 3
Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:

Ответ:

 (1) вероятность данного изменения выше случайно выбранного порога 

 (2) данное изменение достаточно мало 

 (3) значение искусственной температуры достаточно велико 


Номер 4
Какова роль искусственной температуры при Больцмановском обучении?

Ответ:

 (1) при снижении температуры вероятно возможными становятся более маленькие изменения 

 (2) для регулирования скорости сходимости алгоритма обучения 


Номер 5
В чем преимущество метода Коши перед Больцмановским методом обучения?

Ответ:

 (1) для обучения Коши нужно гораздо меньше времени 

 (2) в процессе обучения Коши используются гораздо более малые вычислительные ресурсы 

 (3) в более точной подстройке весовых значений 


Упражнение 4:
Номер 1
Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?

Ответ:

 (1) время сходимости бесконечно 

 (2) нет доказательства сходимости при конечных изменениях весовых значений 

 (3) сходимость имеет место только при бесконечно больших изменениях весовых значений 


Номер 2
Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?

Ответ:

 (1) после окончания обучения нет способа проверки, находится ли сеть в локальном или глобальном минимуме 

 (2) при попадании в локальный минимум сеть не может оттуда выбраться 

 (3) нет гарантии, что после конечного числа использований алгоритма обратного распространения глобальный минимум будет найден 


Номер 3
Для какого алгоритма необходимо гораздо большее время сходимости?

Ответ:

 (1) алгоритма обратного распространения 

 (2) алгоритма распределения Коши 


Номер 4
Для какого алгоритма более опасен сетевой паралич?

Ответ:

 (1) алгоритма обратного распространения 

 (2) алгоритма распределения Коши 


Номер 5
Для какого алгоритма скорость обучения более высокая?

Ответ:

 (1) алгоритма обратного распространения 

 (2) алгоритма распределения Коши 


Упражнение 5:
Номер 1
Комбинирование методов распространения Коши и обратного распространения заключается в:

Ответ:

 (1) применении распределения Коши всякий раз, когда обратное распространение дает плохой результат 

 (2) применении обратного распространения всякий раз, когда распределение Коши дает плохой результат 

 (3) для каждого веса изменение вычисляется по обоим алгоритмам, а результат складывается 


Номер 2
При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:

Ответ:

 (1) оно уменьшает целевую функцию 

 (2) оно увеличивает целевую функцию 

 (3) оно увеличивает целевую функцию и вероятность данного изменения достаточно большая 


Номер 3
В чем состоит минус метода ограничения диапазона изменений весовых значений?

Ответ:

 (1) в повышении вероятности сетевого паралича 

 (2) есть ряд задач, к которым он неприменим 

 (3) нет доказательства сходимости для данного алгоритма 


Номер 4
Метод изменений сигналов OUT заключается в том, что:

Ответ:

 (1) на весовые значения накладывают сжимающую функцию 

 (2) на величины OUT накладывают дополнительную сжимающую функцию 

 (3) если величина OUT велика, то веса, питающие этот нейрон, уменьшаются 


Номер 5
В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...

Ответ:

 (1) сильном уменьшение значения очень больших весов 

 (2) сохранение практически без изменений значений малых весов 

 (3) поддержание симметрии, сохраняющей небольшие различия между большими весами 




Главная / Искусственный интеллект и робототехника / Основы теории нейронных сетей / Тест 7