Главная / Искусственный интеллект и робототехника /
Основы теории нейронных сетей / Тест 15
Основы теории нейронных сетей - тест 15
Упражнение 1:
Номер 1
Теория обучения Хэбба подразумевает:
Ответ:
 (1) только локальное обучение нейронов 
 (2) как локальное, так и глобальное обучение 
Номер 2
В алгоритме обучения Хэбба предполагается обучение:
Ответ:
 (1) всех синоптических связей 
 (2) синоптических связей, соединяющих одновременно возбужденные нейроны 
 (3) синоптических связей только первого слоя нейронов 
Номер 3
В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:
Ответ:
 (1) от уровня возбуждения пресиноптического нейрона 
 (2) от уровня возбуждения постсиноптического нейрона 
 (3) от разности между реальным и желаемым выходом системы 
Номер 4
В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :
Ответ:
 (1) от уровней возбуждения этих нейронов 
 (2) от выходных уровней этих нейронов 
 (3) от разности между реальным и желаемым выходом системы 
Номер 5
Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:
Ответ:
 (1) выходы нейронов в разные моменты времени 
 (2) производные от выходов нейронов 
 (3) производные от целевой функции 
Упражнение 2:
Номер 1
Входная звезда Гроссберга используется для:
Ответ:
 (1) распознавании определенного образа 
 (2) классификации образов 
 (3) сбора информации о сходных образах 
Номер 2
Выходом входной звезды Гроссберга является:
Ответ:
 (1) мера сходства входного вектора с весовым вектором 
 (2) статическая характеристика обучающего набора 
 (3) номер класса сходных образов 
Номер 3
Выходом выходной звезды Гроссберга является
Ответ:
 (1) мера сходства входного вектора с весовым вектором 
 (2) статическая характеристика обучающего набора 
 (3) номер класса сходных образов 
Номер 4
Хорошо обученная входная звезда Гроссберга способна реагировать:
Ответ:
 (1) только на определенный единичный вектор 
 (2) на любой вектор из данного класса векторов 
Номер 5
В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит
Ответ:
 (1) от уровней возбуждения этих нейронов 
 (2) от выходных уровней этих нейронов 
 (3) от разности между реальным и желаемым выходом 
Упражнение 3:
Номер 1
Алгоритм обучения персептрона является:
Ответ:
 (1) алгоритмом "обучения с учителем" 
 (2) алгоритмом "обучения без учителя" 
Номер 2
В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит
Ответ:
 (1) от уровня возбуждения пресиноптического нейрона 
 (2) от уровня возбуждения постсиноптического нейрона 
 (3) от разности между реальным и желаемым выходами нейрона 
Номер 3
При обучении персептрона предполагается обучение:
Ответ:
 (1) всех синоптических связей 
 (2) синоптических связей, соединяющих одновременно возбужденные нейроны 
 (3) синоптических связей только "победившего" нейрона 
Номер 4
Обучение персептрона считается законченным, когда:
Ответ:
 (1) ошибка выхода становится достаточно малой 
 (2) по одному разу запущены все вектора обучающего множества 
 (3) достигнута достаточно точная аппроксимация заданной функции 
Номер 5
Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона
Ответ:
 (1) способом вычисления ошибки нейрона 
 (2) способом вычисления модификации весовых значений 
 (3) количеством синоптических связей, которые необходимо обучить 
Упражнение 4:
Номер 1
В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:
Ответ:
 (1) от уровня возбуждения пресиноптического нейрона 
 (2) от уровня возбуждения постсиноптического нейрона 
 (3) от разности между реальным и желаемым выходами нейрона 
 (4) изменяется случайным образом 
Номер 2
Статистические методы обучения являются:
Ответ:
 (1) алгоритмами "обучения с учителем" 
 (2) алгоритмами "обучения без учителя" 
Номер 3
В статистических алгоритмах обучения искусственная температура используется для:
Ответ:
 (1) управления размером случайных изменений весовых значений 
 (2) минимизации целевой функции 
 (3) уменьшения полной энергии сети 
Номер 4
Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?
Ответ:
 (1) да 
 (2) нет 
Номер 5
Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?
Ответ:
 (1) использование распределения Коши существенно уменьшает время обучения 
 (2) использование распределения Коши дает более точные аппроксимации заданных функций 
 (3) использование распределения Коши позволяет избегать локальных минимумов 
Упражнение 5:
Номер 1
Самоорганизующиеся сети используются для:
Ответ:
 (1) аппроксимации функций 
 (2) классификации образов 
 (3) распознавания образов 
Номер 2
В алгоритме обучения Кохонена обучению подвергаются:
Ответ:
 (1) все синоптические связи 
 (2) синоптические связи только "победившего" нейрона 
 (3) синоптические связи всех нейронов, чье расстояние до входного вектора меньше заданного порога 
Номер 3
Алгоритм обучения Кохонена является:
Ответ:
 (1) алгоритмом обучения с учителем 
 (2) алгоритмом обучения без учителя 
Номер 4
В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:
Ответ:
 (1) объединения нескольких классов образов 
 (2) разбиения множества входных образов на более мелкие классы 
Номер 5
В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:
Ответ:
 (1) от уровней возбуждения этих нейронов 
 (2) от выходных уровней этих нейронов 
 (3) от разности между реальным и желаемым выходами системы 
 (4) от разности между весовым значением и входами системы