игра брюс 2048
Главная / Искусственный интеллект и робототехника / Основы теории нейронных сетей / Тест 15

Основы теории нейронных сетей - тест 15

Упражнение 1:
Номер 1
Теория обучения Хэбба подразумевает:

Ответ:

 (1) только локальное обучение нейронов 

 (2) как локальное, так и глобальное обучение 


Номер 2
В алгоритме обучения Хэбба предполагается обучение:

Ответ:

 (1) всех синоптических связей 

 (2) синоптических связей, соединяющих одновременно возбужденные нейроны 

 (3) синоптических связей только первого слоя нейронов 


Номер 3
В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:

Ответ:

 (1) от уровня возбуждения пресиноптического нейрона 

 (2) от уровня возбуждения постсиноптического нейрона 

 (3) от разности между реальным и желаемым выходом системы 


Номер 4
В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :

Ответ:

 (1) от уровней возбуждения этих нейронов 

 (2) от выходных уровней этих нейронов 

 (3) от разности между реальным и желаемым выходом системы 


Номер 5
Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:

Ответ:

 (1) выходы нейронов в разные моменты времени 

 (2) производные от выходов нейронов 

 (3) производные от целевой функции 


Упражнение 2:
Номер 1
Входная звезда Гроссберга используется для:

Ответ:

 (1) распознавании определенного образа 

 (2) классификации образов 

 (3) сбора информации о сходных образах 


Номер 2
Выходом входной звезды Гроссберга является:

Ответ:

 (1) мера сходства входного вектора с весовым вектором 

 (2) статическая характеристика обучающего набора 

 (3) номер класса сходных образов 


Номер 3
Выходом выходной звезды Гроссберга является

Ответ:

 (1) мера сходства входного вектора с весовым вектором 

 (2) статическая характеристика обучающего набора 

 (3) номер класса сходных образов 


Номер 4
Хорошо обученная входная звезда Гроссберга способна реагировать:

Ответ:

 (1) только на определенный единичный вектор 

 (2) на любой вектор из данного класса векторов 


Номер 5
В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит

Ответ:

 (1) от уровней возбуждения этих нейронов 

 (2) от выходных уровней этих нейронов 

 (3) от разности между реальным и желаемым выходом 


Упражнение 3:
Номер 1
Алгоритм обучения персептрона является:

Ответ:

 (1) алгоритмом "обучения с учителем" 

 (2) алгоритмом "обучения без учителя" 


Номер 2
В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит

Ответ:

 (1) от уровня возбуждения пресиноптического нейрона 

 (2) от уровня возбуждения постсиноптического нейрона 

 (3) от разности между реальным и желаемым выходами нейрона 


Номер 3
При обучении  персептрона предполагается обучение:

Ответ:

 (1) всех синоптических связей 

 (2) синоптических связей, соединяющих одновременно возбужденные нейроны 

 (3) синоптических связей только "победившего" нейрона 


Номер 4
Обучение персептрона считается законченным, когда:

Ответ:

 (1) ошибка выхода становится достаточно малой 

 (2) по одному разу запущены все вектора обучающего множества 

 (3) достигнута достаточно точная аппроксимация заданной функции 


Номер 5
Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона

Ответ:

 (1) способом вычисления ошибки нейрона 

 (2) способом вычисления модификации весовых значений 

 (3) количеством синоптических связей, которые необходимо обучить 


Упражнение 4:
Номер 1
В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

Ответ:

 (1) от уровня возбуждения пресиноптического нейрона 

 (2) от уровня возбуждения постсиноптического нейрона 

 (3) от разности между реальным и желаемым выходами нейрона 

 (4) изменяется случайным образом 


Номер 2
Статистические методы обучения являются:

Ответ:

 (1) алгоритмами "обучения с учителем" 

 (2) алгоритмами "обучения без учителя" 


Номер 3
В статистических алгоритмах обучения искусственная температура используется для:

Ответ:

 (1) управления размером случайных изменений весовых значений 

 (2) минимизации целевой функции 

 (3) уменьшения полной энергии сети 


Номер 4
Всегда ли в статистических алгоритмах обучения  производится изменение весовых значений?

Ответ:

 (1) да 

 (2) нет 


Номер 5
Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?

Ответ:

 (1) использование распределения Коши существенно уменьшает время обучения 

 (2) использование распределения Коши дает более точные аппроксимации заданных функций 

 (3) использование распределения Коши позволяет избегать локальных минимумов 


Упражнение 5:
Номер 1
Самоорганизующиеся сети используются для:

Ответ:

 (1) аппроксимации функций 

 (2) классификации образов 

 (3) распознавания образов 


Номер 2
В алгоритме обучения Кохонена обучению подвергаются:

Ответ:

 (1) все синоптические связи 

 (2) синоптические связи только "победившего" нейрона 

 (3) синоптические связи всех нейронов, чье расстояние до входного вектора меньше заданного порога 


Номер 3
Алгоритм обучения Кохонена является:

Ответ:

 (1) алгоритмом обучения с учителем 

 (2) алгоритмом обучения без учителя 


Номер 4
В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:

Ответ:

 (1) объединения нескольких классов образов 

 (2) разбиения множества входных образов на более мелкие классы 


Номер 5
В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:

Ответ:

 (1) от уровней возбуждения этих нейронов 

 (2) от выходных уровней этих нейронов 

 (3) от разности между реальным и желаемым выходами системы 

 (4) от разности между весовым значением и входами системы 




Главная / Искусственный интеллект и робототехника / Основы теории нейронных сетей / Тест 15