Главная / Искусственный интеллект и робототехника /
Машинное обучение / Тест 39
Машинное обучение - тест 39
Упражнение 1:
Номер 1
Какая формула, из ниже перечисленных, позволяет организовать итерационный процесс?
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Номер 2
Как будет выглядеть градиент функционала Q в точке ?
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Номер 3
Как выглядит гессиан функционала Q в точке ?
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Упражнение 2:
Номер 1
В какой из формул указан итерационный процесс уточнения вектора коэффициентов ?
Ответ:
 
(1)  
 
(2)  
 
(3)  
Номер 2
Выражение для градиента будет выглядеть:
Ответ:
 
(1)  
 
(2)  
 
(3)  
Номер 3
Выражение для гессиана будет выглядеть:
Ответ:
 
(1)  
 
(2)  
 
(3)  
Упражнение 3:
Номер 1
Что представляет собой матрица ?
Ответ:
 (1) матрицу признаковых описаний объектов; 
 (2) диагональную матрицу весов объектов; 
 (3) взвешенную матрицу признаковых описаний объектов; 
 (4) взвешенный вектор ответов. 
Номер 2
Что представляет собой матрица?
Ответ:
 (1) матрицу признаковых описаний объектов; 
 (2) диагональную матрицу весов объектов; 
 (3) взвешенную матрицу признаковых описаний объектов; 
 (4) взвешенный вектор ответов. 
Номер 3
Что представляет собой матрица ?
Ответ:
 (1) матрицу признаковых описаний объектов; 
 (2) диагональную матрицу весов объектов; 
 (3) взвешенную матрицу признаковых описаний объектов; 
 (4) взвешенный вектор ответов. 
Упражнение 4:
Номер 1
Что подается на вход в алгоритме IRLS?
Ответ:
 (1) матрица "объекты-признаки" и вектор ответов; 
 (2) обучающая выборка; 
 (3) обучающая выборка и дискриминантная функция. 
Номер 2
Что получают на выходе в алгоритме IRLS?
Ответ:
 (1) функцию преобразования признаков; 
 (2) вектор коэффициентов линейной комбинации; 
 
(3) коэффициент
. 
Номер 3
Что, из ниже перечисленного, не подается на вход в алгоритме IRLS?
Ответ:
 (1) матрица "объекты-признаки" и вектор ответов; 
 (2) обучающая выборка; 
 (3) обучающая выборка и дискриминантная функция. 
Упражнение 5:
Номер 1
Верно ли, что любая непрерывная функция n аргументов на единичном кубе представлена в виде суперпозиции непрерывных функций одного аргумента и операции сложения: ?
Ответ:
 (1) Да 
 (2) Нет 
Номер 2
Функция F будет называться разделяющими точками множества X, если:
Ответ:
 
(1) для любых различных
существует функция
такая, что
; 
 
(2) для любого
выполено
; 
 (3) на произвольном компакте X можно приблизить не только многочленом от исходных переменных, но и многочленом от любого конечного набора функций F, разделяющие точки. 
Номер 3
Набор функций будет называться замкнутым относительно функции , если:
Ответ:
 
(1) для любых различных
существует функция
такая, что
; 
 
(2) для любого
выполено
; 
 (3) на произвольном компакте X можно приблизить не только многочленом от исходных переменных, но и многочленом от любого конечного набора функций F, разделяющие точки. 
Упражнение 6:
Номер 1
Как называется метод, который позволял вычислять градиент, при котором каждый градиентный шаг выполняется за число операций, лишь немногим больше, чем при обычном вычислении сети на одном объекте?
Ответ:
 (1) градиентный спуск; 
 (2) обратное распространение ошибки; 
 (3) метод стохастического градиента; 
 (4) метод сопряженных градиентов. 
Номер 2
Какая сеть будет называться полносвязной?
Ответ:
 (1) в которой каждый нейрон предыдущего слоя связан со всеми нейронами последующего слоя; 
 (2) в которой нейроны скрытого слоя не связаны с нейронами последующего слоя; 
 (3) в которой нейроны предыдущего слоя связаны с нейронами скрытого слоя. 
Номер 3
Какие будут входные данные, если сеть обучать методом обратного распространения ошибки?
Ответ:
 
(1) обучающая выборка
; 
 (2) число нейронов в скрытом слое; 
 (3) темп обучения; 
 (4) характеристика. 
Упражнение 7:
Номер 1
Как называется метод, который удаляет те связи, к изменению которых функционал Q наименее чувствителен?
Ответ:
 (1) метод сопряженных градиентов; 
 (2) метод стохастического градиента; 
 (3) метод оптимального прореживания сети; 
 (4) метод обратного распространения ошибки. 
Номер 2
Верно ли что, если обучающая выборка имеет большой объем или если решается задача классификации, то можно использовать метод стохастического градиента с адаптивным шагом?
Ответ:
 (1) Да 
 (2) Нет 
Номер 3
Верно ли что, если обучающая выборка имеет большой объем, то можно использовать метод Хебба?
Ответ:
 (1) Да 
 (2) Нет 
Упражнение 8:
Номер 1
Что означает, если веса между входными и скрытым слоем будут обнулены?
Ответ:
 (1) диагональные элементы доминируют в гессиане. 
 (2) после стабилизации функционала ошибки Q вектор весов w находится в локальном минимуме. 
 (3) информация, накопленная в сети, является полезной и не теряется при добавлении новых нейронов. 
 (4) h-ый нейрон скрытого слоя не будет учитывать j-й признак. 
Номер 2
Что означает обнуление веса между скрытым и входным слоями?
Ответ:
 (1) диагональные элементы доминируют в гессиане. 
 (2) после стабилизации функционала ошибки Q вектор весов w находится в локальном минимуме. 
 (3) информация, накопленная в сети, является полезной и не теряется при добавлении новых нейронов. 
 (4) m-е выходное значение не зависит от h-го нейрона скрытого слоя. 
 (5) h-ый нейрон скрытого слоя не будет учитывать j-й признак. 
Номер 3
Процесс упрощения сети, в алгоритме OBD, останавливается, когда:
Ответ:
 (1) внутрений критерий стабилизируется; 
 (2) заданный внешний критерий начинает возрастать; 
 (3) градиентный алгоритм находит новый локальный минимум Q; 
 (4) информация, накопленная в сети, является полезной и не теряется при добавлении новых нейронов.