Главная / Искусственный интеллект и робототехника /
Нейрокомпьютерные системы / Тест 7
Нейрокомпьютерные системы - тест 7
Упражнение 1:
Номер 1
Какие ограничения возникают при попытке осуществить обучение нейронной сети как решение задачи оптимизации?
Ответ:
 (1) астрономическое число параметров 
 (2) необходимость высокого параллелизма при обучении 
 (3) необходимость найти достаточно широкую область, в которой значения всех минимизируемых функций близки к минимальным 
 (4) необходимость использования алгоритмов целочисленной оптимизации 
Номер 2
Какие методы используются для учета ограничений параметров сети при обучении?
Ответ:
 (1) метод штрафных функций 
 (2) метод проекций 
 (3) партан-метод 
Номер 3
Каких значений может достигать число параметров нейронной сети?
Ответ:
 (1) не более 103 
 (2) около 105 
 (3) более 108 
Упражнение 2:
Номер 1
В чем преимущество метода случайного выбора направления минимизации оценки?
Ответ:
 (1) быстродействие 
 (2) простота 
Номер 2
Какой из партан-методов дает лучшие результаты обучения сети?
Ответ:
 (1) итерационный партан-метод 
 (2) модифицированный партан-метод 
Номер 3
Чем обусловлена неэффективность алгоритма наискорейшего спуска?
Ответ:
 (1) большой объем вычислений 
 (2) неиспользование информации о кривизне функции оценки  
 (3) резкое замедление минимизации в окрестности точки оптимального решения 
Упражнение 3:
Номер 1
В чем заключается сложность использования метода Ньютона для обучения нейронных сетей?
Ответ:
 (1) низкая точность вычислений 
 (2) большие вычислительные затраты 
 (3) большой объем используемой памяти 
Номер 2
Чем обусловлено преимущество квазиньютоновских методов перед методом наискорейшего спуска?
Ответ:
 (1) использованием результатов предыдущего шага 
 (2) использованием матрицы вторых производных оценки 
Номер 3
Когда производится рестарт алгоритма сопряженных градиентов?
Ответ:
 (1) когда число выполненных шагов минимизации превышает заданный порог 
 (2) когда движение вдоль очередного выбранного направления спуска приводит к слишком маленькому шагу либо вообще не дает улучшения 
Упражнение 4:
Номер 1
В каких случаях BFGS-метод превращается в метод сопряженных градиентов?
Ответ:
 (1) когда матрица вторых производных функции оценки положительно определена 
 (2) когда новый градиент практически ортогонален предыдущему направлению спуска 
Номер 2
Какие этапы подготовки предшествуют обучению?
Ответ:
 (1) создание обучающей выборки 
 (2) выбор функции оценки 
 (3) контрастирование нейронной сети 
 (4) предобработка входных данных 
Номер 3
Как обеспечить ортогональность нового градиента предыдущему направлению спуска в BFGS-методе?
Ответ:
 (1) как можно точнее проводить одномерную оптимизацию в поиске шага 
 (2) учесть изменение градиента на предыдущем шаге 
Упражнение 5:
Номер 1
Как обеспечить приобретение нейрокомпьютером новых навыков без существенной утраты старых?
Ответ:
 (1) нужно найти общую точку минимума большого числа функций 
 (2) следует искать такую точку минимума оценки, что в достаточно большой ее окрестности значения оценки незначительно отличаются от минимума 
Номер 2
Каковы требования к реализации наиболее трудоемких этапов алгоритма обучения нейрокомпьютера?
Ответ:
 (1) распараллеливание вычислений 
 (2) снижение разрядности обрабатываемых данных 
 (3) использование нейронной сети 
Номер 3
Каким образом в квазиньютоновских и партан-методах выбирается начальное направление спуска?
Ответ:
 (1) случайным образом 
 (2) методом Ньютона 
 (3) по антиградиенту функции оценки