игра брюс 2048
Главная / Искусственный интеллект и робототехника / Нейрокомпьютерные системы / Тест 7

Нейрокомпьютерные системы - тест 7

Упражнение 1:
Номер 1
Какие ограничения возникают при попытке осуществить обучение нейронной сети как решение задачи оптимизации?

Ответ:

 (1) астрономическое число параметров 

 (2) необходимость высокого параллелизма при обучении 

 (3) необходимость найти достаточно широкую область, в которой значения всех минимизируемых функций близки к минимальным 

 (4) необходимость использования алгоритмов целочисленной оптимизации 


Номер 2
Какие методы используются для учета ограничений параметров сети при обучении?

Ответ:

 (1) метод штрафных функций 

 (2) метод проекций 

 (3) партан-метод 


Номер 3
Каких значений может достигать число параметров нейронной сети?

Ответ:

 (1) не более 103 

 (2) около 105 

 (3) более 108 


Упражнение 2:
Номер 1
В чем преимущество метода случайного выбора направления минимизации оценки?

Ответ:

 (1) быстродействие 

 (2) простота 


Номер 2
Какой из партан-методов дает лучшие результаты обучения сети?

Ответ:

 (1) итерационный партан-метод 

 (2) модифицированный партан-метод 


Номер 3
Чем обусловлена неэффективность алгоритма наискорейшего спуска?

Ответ:

 (1) большой объем вычислений 

 (2) неиспользование информации о кривизне функции оценки  

 (3) резкое замедление минимизации в окрестности точки оптимального решения 


Упражнение 3:
Номер 1
 В чем заключается сложность использования метода Ньютона для обучения нейронных сетей?

Ответ:

 (1) низкая точность вычислений 

 (2) большие вычислительные затраты 

 (3) большой объем используемой памяти 


Номер 2
Чем обусловлено преимущество квазиньютоновских методов перед методом наискорейшего спуска?

Ответ:

 (1) использованием результатов предыдущего шага 

 (2) использованием матрицы вторых производных оценки 


Номер 3
Когда производится рестарт алгоритма сопряженных градиентов?

Ответ:

 (1) когда число выполненных шагов минимизации превышает заданный порог 

 (2) когда движение вдоль очередного выбранного направления спуска приводит к слишком маленькому шагу либо вообще не дает улучшения 


Упражнение 4:
Номер 1
В каких случаях BFGS-метод превращается в метод сопряженных градиентов?

Ответ:

 (1) когда матрица вторых производных функции оценки положительно определена 

 (2) когда новый градиент практически ортогонален предыдущему направлению спуска 


Номер 2
Какие этапы подготовки предшествуют обучению?

Ответ:

 (1) создание обучающей выборки 

 (2) выбор функции оценки 

 (3) контрастирование нейронной сети 

 (4) предобработка входных данных 


Номер 3
Как обеспечить ортогональность нового градиента предыдущему направлению спуска в BFGS-методе?

Ответ:

 (1) как можно точнее проводить одномерную оптимизацию в поиске шага 

 (2) учесть изменение градиента на предыдущем шаге 


Упражнение 5:
Номер 1
Как обеспечить приобретение нейрокомпьютером новых навыков без существенной утраты старых?

Ответ:

 (1) нужно найти общую точку минимума большого числа функций 

 (2) следует искать такую точку минимума оценки, что в достаточно большой ее окрестности значения оценки незначительно отличаются от минимума 


Номер 2
Каковы требования к реализации наиболее трудоемких этапов алгоритма обучения нейрокомпьютера?

Ответ:

 (1) распараллеливание вычислений 

 (2) снижение разрядности обрабатываемых данных 

 (3) использование нейронной сети 


Номер 3
Каким образом в квазиньютоновских и партан-методах выбирается начальное направление спуска?

Ответ:

 (1) случайным образом 

 (2) методом Ньютона 

 (3) по антиградиенту функции оценки 




Главная / Искусственный интеллект и робототехника / Нейрокомпьютерные системы / Тест 7