Главная / Базы данных /
Алгоритмы интеллектуальной обработки больших объемов данных / Тест 8
Алгоритмы интеллектуальной обработки больших объемов данных - тест 8
Упражнение 1:
Номер 1
Даны четыре примера (наблюдения) в трехмерном пространстве признаков: A(1;4;10), B(2;5;6), C(1;3;8) и D(2;4;8). В результате применения метода главных компонент исходное пространство признаков свели к двумерному пространству признаков на плоскости. Какую часть общей дисперсии сохранило редуцированное пространство? Ответ укажите с точностью до трех знаков после запятой:
Ответ:
 0,974 
Упражнение 2:
Номер 1
Даны четыре примера (наблюдения) в трехмерном пространстве признаков: A(1;4;10), B(2;5;6), C(1;3;8) и D(2;4;8). В результате применения метода главных компонент исходное пространство признаков свели к двумерному пространству признаков на плоскости. Найдите евклидово расстояние между примерами C и D в редуцированном пространстве с точностью до одного знака после запятой:
Ответ:
 1,3 
Номер 2
Дан единичный интервал [0,1]. Сколько равномерно разбросанных точек будет достаточно, чтобы покрыть этот интервал с частотой не менее 0,01?
Ответ:
 (1) 100 
 (2) 10 
 (3) 1000 
 (4) 100000 
Упражнение 3:
Номер 1
Даны четыре примера (наблюдения) в трехмерном пространстве признаков: A(1;4;10), B(2;5;6), C(1;3;8) и D(2;4;8), при этом известно, что первый и третий примеры относятся к классу "1", а второй и четвертый – к классу "0". Проведите процедуру отбора признаков (feature selection) методом minimum redundancy maximum relevance (mRMR), используя логарифм по основанию 2. Укажите, какие признаки нужно оставить:
Ответ:
 (1) Все три 
 (2) Первый и второй 
 (3) Первый и третий 
 (4) Второй и третий 
 (5) Только первый 
 (6) Только второй 
 (7) Только третий 
Номер 2
Какая мотивация для сдерживания размерности признакового описания данных?
Ответ:
 (1) визуализация
+ Отве. скорость обучения
 
 (2) экономия при эксплуатации 
 (3) аппроксимация данных 
 (4) гибкость построения новых моделей 
Упражнение 4:
Номер 1
Укажите два основных подхода к снижению размерности.
Ответ:
 (1) Feature Extraction 
 (2) Feature Extrapolation 
 (3) Feature Selection 
 (4) Feature Encoding 
Номер 2
Какова идея метода главных компонент?
Ответ:
 (1) поиск гиперплоскости заданной размерности, такой что бы ошибка проектирования выборки на данную гиперплоскость была минимальной 
 (2) поиск проекции на гиперплоскость с сохранением большей части дисперсии в данных 
 (3) проекция данных на гиперплоскость с критической ошибкой проектирования 
Упражнение 5:
Номер 1
Укажите верное утверждение
Ответ:
 (1) Метод главных компонент использует меньшее количество компонент, в отличие от метода независимых компонент 
 (2) Метод главных компонент добивается ортогональности между полученными компонентами, а метод независимых компонент - не ортогональности 
 (3) Метод независимых компонент работает с коррелированными данными, в отличие от метода главных компонент 
 (4) Метод главных компонент применяется в основном для задач, где необходимо разделять сигналы, а метод независимых компонент - для визуального разделения данных 
Номер 2
Каковы недостатки метода главных компонент?
Ответ:
 (1) координаты объектов в новом пространстве определены не однозначно 
 (2) проблема с вычислением собственных векторов ковариационной матрицы, при большом количестве данных 
 (3) существует произвол в выборе координат объектов в новом пространстве 
 (4) общая сложность алгоритма 
Упражнение 6:
Номер 1
Если в сети автоэнкодера находится всего один скрытый слой, то чему будет эквивалентен результат?
Ответ:
 (1) PCA 
 (2) ICA 
 (3) BCA 
 (4) SVD 
Номер 2
Что может служить мотивацией для снижения размерности пространства
Ответ:
 (1) Визуализация 
 (2) Скорость обучения 
 (3) Качество обучения 
 (4) все перечисленное 
Упражнение 7:
Номер 1
Выберите сферы применения PCA
Ответ:
 (1) Визуализация данных; 
 (2) Построение деревьев решений; 
 (3) Обработка изображений; 
 (4) Выявление максимальной избыточности; 
 (5) Отбор признаков; 
Номер 2
Укажите достоинство использования PCA
Ответ:
 (1) Простой алгоритм 
 (2) Координаты объектов в новом пространстве определены однозначно 
 (3) Легкость с вычислением собственных векторов ковариационной матрицы в случае большого количества данных 
 (4) все перечисленное 
Номер 3
Выберите неверное высказывание при использовании "Жадных алгоритмов отбора признаков"
Ответ:
 (1) Не все признаки "полезны" 
 (2) Отбор признаков проводится по внешним критериям (CV) 
 (3) Для сокращения перебора хороши любые эвристики 
 (4) Не надо переобучать алгоритм