игра брюс 2048
Главная / Искусственный интеллект и робототехника / Машинное обучение / Тест 15

Машинное обучение - тест 15

Упражнение 1:
Номер 1
На локальной аппроксимации плотности math в окрестности классифицируемого объекта math основано: 

Ответ:

 (1) эмпирическая оценка плотности 

 (2) восстановление смеси плотностей 

 (3) параметрическое восстановление плотности 

 (4) непараметрическое восстановление плотности 


Номер 2
На предположении, что плотность распределения известна с точностью до параметра, math, где math - фиксированная функция, основано:

Ответ:

 (1) эмпирическая оценка плотности 

 (2) восстановление смеси плотностей 

 (3) параметрическое восстановление плотности 

 (4) непараметрическое восстановление плотности 


Номер 3
Эмпирической оценкой плотности является функция:

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Упражнение 2:
Номер 1
Выберите неверные утверждения:

Ответ:

 (1) Наивный байесовский классификатор может быть только параметрическим. 

 (2) Наивный байесовский классификатор будет оптимальным, если признаки действительно независимы. 

 (3) При классификации объекта заодно оцениваются априорные вероятности его принадлежности каждому из классов. 

 (4) Наивный байесовский классификатор может быть только непараметрическим. 


Номер 2
Укажите, что входит в преимущества байесовского подхода.

Ответ:

 (1) На его основе строятся многие методы классификации. 

 (2) При классификации объекта заодно оцениваются априорные вероятности его принадлежности каждому из классов. 

 (3) Байесовское решающее правило удобно использовать в качестве эталона при тестировании алгоритмов классификации на модельных данных. 

 (4) На практике функция правдоподобия классов приходится восстанавливать по конечным выборкам данных. 

 (5) Известно довольно много методов восстановления плотности, но ни один из них не является безусловно лучшим. 


Номер 3
Верно ли утверждение. Наивный байесовский классификатор может быть как параметрическим, так и непараметрическим.

Ответ:

 (1) Да 

 (2) Нет 


Упражнение 3:
Номер 1
Что, из ниже перечисленного, относится к недостаткам квадратичного дискриминанта?

Ответ:

 (1) Если math, то матрица math вырождена. 

 (2) Чем меньше math, тем менее устойчива оценка math 

 (3) Оценки math, math неустойчивы к шуму. 

 (4) Если длина выборки меньше размерности пространства, math, то матрица math становится вырожденной, поскольку ее ранг превышает math

 (5) Выборочные оценки чувствительны к нарушениям нормальности распределений. 


Номер 2
Есть гипотеза, где классы имеют math-мерные гауссовские плотности: math, где - math, то вектором матожидания класса math будет:

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Номер 3
Есть гипотеза, где классы имеют math-мерные гауссовские плотности: math, где - math, то ковариационной матрицей класса math будет:

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Упражнение 4:
Номер 1
Разделяющая поверхность math квадратичная для всех math, math будет вырождена в линейную, если:

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Номер 2
Что называют math-мерным нормальным (гауссовским) распределением с вектором матожидания math и ковариационной матрицей math?

Ответ:

 (1) Скользящий контроль с исключением объектов по одному. 

 (2) Вероятностное распределение с плотностью math 

 (3) Алгоритм классификации с параметром ширины окна math 

 (4) Оценку априорной вероятности классов math 


Номер 3
Верно ли, что если классы имеют нормальные функции правдоподобия, то байесовское решающее правило имеет квадратичную разделяющую поверхность.

Ответ:

 (1) Да 

 (2) Нет 


Упражнение 5:
Номер 1
Если матрица math близка к вырожденной, то это называется:

Ответ:

 (1) вероятностным распределением 

 (2) гаусовским распределением 

 (3) мультиколлинеарностью 

 (4) байесовским решающим правилом 


Номер 2
Если нормаль разделяет гиперплоскость math неустойчива, то это проявление:

Ответ:

 (1) вероятностного распределения 

 (2) гаусовского распределения 

 (3) мультиколлинеарности 

 (4) байесовского решающего правила 


Номер 3
Если при переобучении: на math всё хорошо, на math всё плохо, то это проявление:

Ответ:

 (1) вероятностного распределения 

 (2) гаусовского распределения 

 (3) мультиколлинеарности 

 (4) байесовского решающего правила 


Упражнение 6:
Номер 1
Что применяют для проверки на равенство нулю элементов math ковариационной матрицы math.

Ответ:

 (1) нормальное гауссовское распределение 

 (2) критерий Стьюдента 

 (3) math 

 (4) спектральное разложение math 


Номер 2
С помощью чего, из ниже перечисленного, можно определить сходство неизвестной и известной выборки?

Ответ:

 (1) критерия Стьюдента 

 (2) спектрального разложения math 

 (3) расстояния Махаланобиса 

 (4) нормального гауссовского распределения 


Номер 3
Чтобы использовать расстояние Махаланобиса в задаче определения принадлежности заданной точки одному из math классов, нужно найти матрицы ковариации всех классов.

Ответ:

 (1) Да 

 (2) Нет 


Упражнение 7:
Номер 1
Какая функция, из перечисленных ниже, является кусочно-постоянной?

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Номер 2
В какой из выборок math является гистограммой значений для оценки плотности:

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Номер 3
Чему соответствует прямоугольное ядро math

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Упражнение 8:
Номер 1
Если выполнены условия:
			1) выборка math простая, получена из плотности распределения math;
			2) ядро math непрерывно, его квадрат ограничен: math;
			3) последовательность math такова, что math и math, тогда:

Ответ:

 (1) Непараметрическая оценка плотности в точке math записывается в следующем виде: math 

 (2) Точечное ядро math при единичной ширине окна math соответствует math 

 (3) math сходится к math при math для почти всех math, причем скорость сходимости имеет порядок math

 (4) Эмперическая оценка плотности определяется как доля точек выборки, лежащих внутри отрезка math


Номер 2
Если объекты описываются math числовыми признаками math, тогда:

Ответ:

 (1) Непараметрическая оценка плотности в точке math записывается в следующем виде: math 

 (2) Точечное ядро math при единичной ширине окна math соответствует math 

 (3) math сходится к math при math для почти всех math, причем скорость сходимости имеет порядок math

 (4) Эмперическая оценка плотности определяется как доля точек выборки, лежащих внутри отрезка math


Номер 3
Чему соответствует точечное ядро math при единичной ширине окна math:

Ответ:

 (1) math 

 (2) math 

 (3) math 

 (4) math 


Упражнение 9:
Номер 1
Плотность распределения на math имеет вид смеси math распределений math, где math - это:

Ответ:

 (1) функция правдоподобия math-ой компоненты смеси; 

 (2) априорная вероятность функции правдоподобия 

 (3) вектор параметров math 

 (4) math-й столбец матрицы math 

 (5) порог 


Номер 2
Плотность распределения на math имеет вид смеси math распределений math, где math - это:

Ответ:

 (1) функция правдоподобия math-ой компоненты смеси; 

 (2) априорная вероятность функции правдоподобия 

 (3) вектор параметров math 

 (4) math-й столбец матрицы math 

 (5) порог 


Номер 3
Верно ли утверждение. Функции правдоподобия принадлежат параметрическому семейству распределений math и отличаются только значениями параметра math.

Ответ:

 (1) Да 

 (2) Нет 


Упражнение 10:
Номер 1
Идея алгоритма EM заключается в следующем:

Ответ:

 (1) при слишком узком окне math плотность концентрируется вблизи обучающих объектов, при слишком широком окне плотность чрезмерно сглаживается и в пределе math вырождается в константу. 

 (2) задаются функции правдоподобия math и априорные вероятности math. Согласно распределению math генерируются 2 выборки: обучающая math и контрольная math. По обучающей выборке math настраивается тестируемый алгоритм math. По контрольной выборке вычисляется эмпарическая оценка среднего риска. 

 (3) имея некоторый набор компонент, можно выделить объекты math, которые хуже всего описываются смесью - это объекты с наименьшими значениями правдоподобия math. По этим объектам строится еще одна компонента. Затем она добавляется в смесь и запускаются EM - итерации, чтобы новая компонента и старые "притёрлись друг к другу". Так продолжается до тех пор, пока все объекты не окажутся покрыты компонентами. 

 (4) искусственно вводится вспомогательный вектор скрытых переменных math, обладающий 2-мя свойствами: первое - он может быть вычислен, если известны значения вектора параметров math; второе - поиск максимума правдоподобия сильно упрощается, если известны значения скрытых переменных. 


Номер 2
Идея EM-алгоритма с последовательным длбавлением компоненты заключается в следующем:

Ответ:

 (1) при слишком узком окне math плотность концентрируется вблизи обучающих объектов, при слишком широком окне плотность чрезмерно сглаживается и в пределе math вырождается в константу. 

 (2) задаются функции правдоподобия math и априорные вероятности math. Согласно распределению math генерируются 2 выборки: обучающая math и контрольная math. По обучающей выборке math настраивается тестируемый алгоритм math. По контрольной выборке вычисляется эмпарическая оценка среднего риска. 

 (3) имея некоторый набор компонент, можно выделить объекты math, которые хуже всего описываются смесью - это объекты с наименьшими значениями правдоподобия math. По этим объектам строится еще одна компонента. Затем она добавляется в смесь и запускаются EM - итерации, чтобы новая компонента и старые "притёрлись друг к другу". Так продолжается до тех пор, пока все объекты не окажутся покрыты компонентами. 

 (4) искусственно вводится вспомогательный вектор скрытых переменных math, обладающий 2-мя свойствами: первое - он может быть вычислен, если известны значения вектора параметров math; второе - поиск максимума правдоподобия сильно упрощается, если известны значения скрытых переменных. 


Номер 3
Выберите верные утверждения:

Ответ:

 (1) EM-алгоритм состоит из итерационного повторения 4-х шагов; 

 (2) на шаге E вычисляется ожидаемое значение вектора открытых переменных G; 

 (3) на шаге M вычисляется приближение вектора параметров math

 (4) задача максимизации правдоподобия решается на шаге M; 

 (5) алгоритм EM можно применить в задачах кластеризации и восстановления пропусков данных. 


Упражнение 11:
Номер 1
Константы смеси имеют math-мерные нормальные распределения math с параметрами math, где math - это:

Ответ:

 (1) вектор матожидания; 

 (2) ковариационная матрица; 

 (3) диагональная матрица; 

 (4) объекты выборки math


Номер 2
Константы смеси имеют math-мерные нормальные распределения math с параметрами math, где math - это:

Ответ:

 (1) вектор матожидания; 

 (2) ковариационная матрица; 

 (3) диагональная матрица; 

 (4) объекты выборки math


Номер 3
Радиальными функциями принято называть функции:

Ответ:

 (1) правдоподобия классов math

 (2) зависящие только от расстояния math и фиксированной точкой пространства math

 (3) плотности распределения класса math 

 (4) math 




Главная / Искусственный интеллект и робототехника / Машинное обучение / Тест 15