игра брюс 2048
Главная / Базы данных / Алгоритмы интеллектуальной обработки больших объемов данных / Тест 8

Алгоритмы интеллектуальной обработки больших объемов данных - тест 8

Упражнение 1:
Номер 1
Даны четыре примера (наблюдения) в трехмерном пространстве признаков: A(1;4;10), B(2;5;6), C(1;3;8) и D(2;4;8). В результате применения метода главных компонент исходное пространство признаков свели к двумерному пространству признаков на плоскости. Какую часть общей дисперсии сохранило редуцированное пространство? Ответ укажите с точностью до трех знаков после запятой:

Ответ:

 0,974 


Упражнение 2:
Номер 1
Даны четыре примера (наблюдения) в трехмерном пространстве признаков: A(1;4;10), B(2;5;6), C(1;3;8) и D(2;4;8). В результате применения метода главных компонент исходное пространство признаков свели к двумерному пространству признаков на плоскости. Найдите евклидово расстояние между примерами C и D в редуцированном пространстве с точностью до одного знака после запятой:

Ответ:

 1,3 


Номер 2
Дан единичный интервал [0,1]. Сколько равномерно разбросанных точек будет достаточно, чтобы покрыть этот интервал с частотой не менее 0,01?

Ответ:

 (1) 100 

 (2) 10 

 (3) 1000 

 (4) 100000 


Упражнение 3:
Номер 1
Даны четыре примера (наблюдения) в трехмерном пространстве признаков: A(1;4;10), B(2;5;6), C(1;3;8) и D(2;4;8), при этом известно, что первый и третий примеры относятся к классу "1", а второй и четвертый – к классу "0". Проведите процедуру отбора признаков (feature selection) методом minimum redundancy maximum relevance (mRMR), используя логарифм по основанию 2. Укажите, какие признаки нужно оставить:

Ответ:

 (1) Все три 

 (2) Первый и второй 

 (3) Первый и третий 

 (4) Второй и третий 

 (5) Только первый 

 (6) Только второй 

 (7) Только третий 


Номер 2
Какая мотивация для сдерживания размерности признакового описания данных?

Ответ:

 (1) визуализация + Отве. скорость обучения  

 (2) экономия при эксплуатации 

 (3) аппроксимация данных 

 (4) гибкость построения новых моделей 


Упражнение 4:
Номер 1
Укажите два основных подхода к снижению размерности.

Ответ:

 (1) Feature Extraction 

 (2) Feature Extrapolation 

 (3) Feature Selection 

 (4) Feature Encoding 


Номер 2
Какова идея метода главных компонент?

Ответ:

 (1) поиск гиперплоскости заданной размерности, такой что бы ошибка проектирования выборки на данную гиперплоскость была минимальной 

 (2) поиск проекции на гиперплоскость с сохранением большей части дисперсии в данных 

 (3) проекция данных на гиперплоскость с критической ошибкой проектирования 


Упражнение 5:
Номер 1
Укажите верное утверждение

Ответ:

 (1) Метод главных компонент использует меньшее количество компонент, в отличие от метода независимых компонент 

 (2) Метод главных компонент добивается ортогональности между полученными компонентами, а метод независимых компонент - не ортогональности 

 (3) Метод независимых компонент работает с коррелированными данными, в отличие от метода главных компонент 

 (4) Метод главных компонент применяется в основном для задач, где необходимо разделять сигналы, а метод независимых компонент - для визуального разделения данных 


Номер 2
Каковы недостатки метода главных компонент?

Ответ:

 (1) координаты объектов в новом пространстве определены не однозначно 

 (2) проблема с вычислением собственных векторов ковариационной матрицы, при большом количестве данных 

 (3) существует произвол в выборе координат объектов в новом пространстве 

 (4) общая сложность алгоритма 


Упражнение 6:
Номер 1
Если в сети автоэнкодера находится всего один скрытый слой, то чему будет эквивалентен результат?

Ответ:

 (1) PCA 

 (2) ICA 

 (3) BCA 

 (4) SVD 


Номер 2
Что может служить мотивацией для снижения размерности пространства

Ответ:

 (1) Визуализация 

 (2) Скорость обучения 

 (3) Качество обучения 

 (4) все перечисленное 


Упражнение 7:
Номер 1
Выберите сферы применения PCA

Ответ:

 (1) Визуализация данных; 

 (2) Построение деревьев решений; 

 (3) Обработка изображений; 

 (4) Выявление максимальной избыточности; 

 (5) Отбор признаков; 


Номер 2
Укажите достоинство использования PCA

Ответ:

 (1) Простой алгоритм 

 (2) Координаты объектов в новом пространстве определены однозначно 

 (3) Легкость с вычислением собственных векторов ковариационной матрицы в случае большого количества данных 

 (4) все перечисленное 


Номер 3
Выберите неверное высказывание при использовании "Жадных алгоритмов отбора признаков"

Ответ:

 (1) Не все признаки "полезны" 

 (2) Отбор признаков проводится по внешним критериям (CV) 

 (3) Для сокращения перебора хороши любые эвристики 

 (4) Не надо переобучать алгоритм 




Главная / Базы данных / Алгоритмы интеллектуальной обработки больших объемов данных / Тест 8