Главная / Искусственный интеллект и робототехника /
Машинное обучение / Тест 15
Машинное обучение - тест 15
Упражнение 1:
Номер 1
На локальной аппроксимации плотности в окрестности классифицируемого объекта основано:
Ответ:
 (1) эмпирическая оценка плотности 
 (2) восстановление смеси плотностей 
 (3) параметрическое восстановление плотности 
 (4) непараметрическое восстановление плотности 
Номер 2
На предположении, что плотность распределения известна с точностью до параметра, , где - фиксированная функция, основано:
Ответ:
 (1) эмпирическая оценка плотности 
 (2) восстановление смеси плотностей 
 (3) параметрическое восстановление плотности 
 (4) непараметрическое восстановление плотности 
Номер 3
Эмпирической оценкой плотности является функция:
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Упражнение 2:
Номер 1
Выберите неверные утверждения:
Ответ:
 (1) Наивный байесовский классификатор может быть только параметрическим. 
 (2) Наивный байесовский классификатор будет оптимальным, если признаки действительно независимы. 
 (3) При классификации объекта заодно оцениваются априорные вероятности его принадлежности каждому из классов. 
 (4) Наивный байесовский классификатор может быть только непараметрическим. 
Номер 2
Укажите, что входит в преимущества байесовского подхода.
Ответ:
 (1) На его основе строятся многие методы классификации. 
 (2) При классификации объекта заодно оцениваются априорные вероятности его принадлежности каждому из классов. 
 (3) Байесовское решающее правило удобно использовать в качестве эталона при тестировании алгоритмов классификации на модельных данных. 
 (4) На практике функция правдоподобия классов приходится восстанавливать по конечным выборкам данных. 
 (5) Известно довольно много методов восстановления плотности, но ни один из них не является безусловно лучшим. 
Номер 3
Верно ли утверждение. Наивный байесовский классификатор может быть как параметрическим, так и непараметрическим.
Ответ:
 (1) Да 
 (2) Нет 
Упражнение 3:
Номер 1
Что, из ниже перечисленного, относится к недостаткам квадратичного дискриминанта?
Ответ:
 
(1) Если
, то матрица
вырождена. 
 
(2) Чем меньше
, тем менее устойчива оценка
 
 
(3) Оценки
,
неустойчивы к шуму. 
 
(4) Если длина выборки меньше размерности пространства,
, то матрица
становится вырожденной, поскольку ее ранг превышает
. 
 (5) Выборочные оценки чувствительны к нарушениям нормальности распределений. 
Номер 2
Есть гипотеза, где классы имеют -мерные гауссовские плотности: , где - , то вектором матожидания класса будет:
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Номер 3
Есть гипотеза, где классы имеют -мерные гауссовские плотности: , где - , то ковариационной матрицей класса будет:
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Упражнение 4:
Номер 1
Разделяющая поверхность квадратичная для всех , будет вырождена в линейную, если:
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Номер 2
Что называют -мерным нормальным (гауссовским) распределением с вектором матожидания и ковариационной матрицей ?
Ответ:
 (1) Скользящий контроль с исключением объектов по одному. 
 
(2) Вероятностное распределение с плотностью
 
 
(3) Алгоритм классификации с параметром ширины окна
 
 
(4) Оценку априорной вероятности классов
 
Номер 3
Верно ли, что если классы имеют нормальные функции правдоподобия, то байесовское решающее правило имеет квадратичную разделяющую поверхность.
Ответ:
 (1) Да 
 (2) Нет 
Упражнение 5:
Номер 1
Если матрица близка к вырожденной, то это называется:
Ответ:
 (1) вероятностным распределением 
 (2) гаусовским распределением 
 (3) мультиколлинеарностью 
 (4) байесовским решающим правилом 
Номер 2
Если нормаль разделяет гиперплоскость неустойчива, то это проявление:
Ответ:
 (1) вероятностного распределения 
 (2) гаусовского распределения 
 (3) мультиколлинеарности 
 (4) байесовского решающего правила 
Номер 3
Если при переобучении: на всё хорошо, на всё плохо, то это проявление:
Ответ:
 (1) вероятностного распределения 
 (2) гаусовского распределения 
 (3) мультиколлинеарности 
 (4) байесовского решающего правила 
Упражнение 6:
Номер 1
Что применяют для проверки на равенство нулю элементов ковариационной матрицы .
Ответ:
 (1) нормальное гауссовское распределение 
 (2) критерий Стьюдента 
 
(3)  
 
(4) спектральное разложение
 
Номер 2
С помощью чего, из ниже перечисленного, можно определить сходство неизвестной и известной выборки?
Ответ:
 (1) критерия Стьюдента 
 
(2) спектрального разложения
 
 (3) расстояния Махаланобиса 
 (4) нормального гауссовского распределения 
Номер 3
Чтобы использовать расстояние Махаланобиса в задаче определения принадлежности заданной точки одному из классов, нужно найти матрицы ковариации всех классов.
Ответ:
 (1) Да 
 (2) Нет 
Упражнение 7:
Номер 1
Какая функция, из перечисленных ниже, является кусочно-постоянной?
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Номер 2
В какой из выборок является гистограммой значений для оценки плотности:
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Номер 3
Чему соответствует прямоугольное ядро
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Упражнение 8:
Номер 1
Если выполнены условия:
1) выборка простая, получена из плотности распределения ;
2) ядро непрерывно, его квадрат ограничен: ;
3) последовательность такова, что и , тогда:
Ответ:
 
(1) Непараметрическая оценка плотности в точке
записывается в следующем виде:
 
 
(2) Точечное ядро
при единичной ширине окна
соответствует
 
 
(3) сходится к
при
для почти всех
, причем скорость сходимости имеет порядок
. 
 
(4) Эмперическая оценка плотности определяется как доля точек выборки, лежащих внутри отрезка
. 
Номер 2
Если объекты описываются числовыми признаками , тогда:
Ответ:
 
(1) Непараметрическая оценка плотности в точке
записывается в следующем виде:
 
 
(2) Точечное ядро
при единичной ширине окна
соответствует
 
 
(3) сходится к
при
для почти всех
, причем скорость сходимости имеет порядок
. 
 
(4) Эмперическая оценка плотности определяется как доля точек выборки, лежащих внутри отрезка
. 
Номер 3
Чему соответствует точечное ядро при единичной ширине окна :
Ответ:
 
(1)  
 
(2)  
 
(3)  
 
(4)  
Упражнение 9:
Номер 1
Плотность распределения на имеет вид смеси распределений , где - это:
Ответ:
 
(1) функция правдоподобия
-ой компоненты смеси; 
 (2) априорная вероятность функции правдоподобия 
 
(3) вектор параметров
 
 
(4) -й столбец матрицы
 
 (5) порог 
Номер 2
Плотность распределения на имеет вид смеси распределений , где - это:
Ответ:
 
(1) функция правдоподобия
-ой компоненты смеси; 
 (2) априорная вероятность функции правдоподобия 
 
(3) вектор параметров
 
 
(4) -й столбец матрицы
 
 (5) порог 
Номер 3
Верно ли утверждение. Функции правдоподобия принадлежат параметрическому семейству распределений и отличаются только значениями параметра .
Ответ:
 (1) Да 
 (2) Нет 
Упражнение 10:
Номер 1
Идея алгоритма EM заключается в следующем:
Ответ:
 
(1) при слишком узком окне
плотность концентрируется вблизи обучающих объектов, при слишком широком окне плотность чрезмерно сглаживается и в пределе
вырождается в константу. 
 
(2) задаются функции правдоподобия
и априорные вероятности
. Согласно распределению
генерируются 2 выборки: обучающая
и контрольная
. По обучающей выборке
настраивается тестируемый алгоритм
. По контрольной выборке вычисляется эмпарическая оценка среднего риска. 
 
(3) имея некоторый набор компонент, можно выделить объекты
, которые хуже всего описываются смесью - это объекты с наименьшими значениями правдоподобия
. По этим объектам строится еще одна компонента. Затем она добавляется в смесь и запускаются EM - итерации, чтобы новая компонента и старые "притёрлись друг к другу". Так продолжается до тех пор, пока все объекты не окажутся покрыты компонентами. 
 
(4) искусственно вводится вспомогательный вектор скрытых переменных
, обладающий 2-мя свойствами: первое - он может быть вычислен, если известны значения вектора параметров
; второе - поиск максимума правдоподобия сильно упрощается, если известны значения скрытых переменных. 
Номер 2
Идея EM-алгоритма с последовательным длбавлением компоненты заключается в следующем:
Ответ:
 
(1) при слишком узком окне
плотность концентрируется вблизи обучающих объектов, при слишком широком окне плотность чрезмерно сглаживается и в пределе
вырождается в константу. 
 
(2) задаются функции правдоподобия
и априорные вероятности
. Согласно распределению
генерируются 2 выборки: обучающая
и контрольная
. По обучающей выборке
настраивается тестируемый алгоритм
. По контрольной выборке вычисляется эмпарическая оценка среднего риска. 
 
(3) имея некоторый набор компонент, можно выделить объекты
, которые хуже всего описываются смесью - это объекты с наименьшими значениями правдоподобия
. По этим объектам строится еще одна компонента. Затем она добавляется в смесь и запускаются EM - итерации, чтобы новая компонента и старые "притёрлись друг к другу". Так продолжается до тех пор, пока все объекты не окажутся покрыты компонентами. 
 
(4) искусственно вводится вспомогательный вектор скрытых переменных
, обладающий 2-мя свойствами: первое - он может быть вычислен, если известны значения вектора параметров
; второе - поиск максимума правдоподобия сильно упрощается, если известны значения скрытых переменных. 
Номер 3
Выберите верные утверждения:
Ответ:
 (1) EM-алгоритм состоит из итерационного повторения 4-х шагов; 
 (2) на шаге E вычисляется ожидаемое значение вектора открытых переменных G; 
 
(3) на шаге M вычисляется приближение вектора параметров
; 
 (4) задача максимизации правдоподобия решается на шаге M; 
 (5) алгоритм EM можно применить в задачах кластеризации и восстановления пропусков данных. 
Упражнение 11:
Номер 1
Константы смеси имеют -мерные нормальные распределения с параметрами , где - это:
Ответ:
 (1) вектор матожидания; 
 (2) ковариационная матрица; 
 (3) диагональная матрица; 
 
(4) объекты выборки
. 
Номер 2
Константы смеси имеют -мерные нормальные распределения с параметрами , где - это:
Ответ:
 (1) вектор матожидания; 
 (2) ковариационная матрица; 
 (3) диагональная матрица; 
 
(4) объекты выборки
. 
Номер 3
Радиальными функциями принято называть функции:
Ответ:
 
(1) правдоподобия классов
; 
 
(2) зависящие только от расстояния
и фиксированной точкой пространства
; 
 
(3) плотности распределения класса
 
 
(4)