Главная / Искусственный интеллект и робототехника /
Нейрокомпьютинг и его применения в экономике и бизнесе / Тест 4
Нейрокомпьютинг и его применения в экономике и бизнесе - тест 4
Упражнение 1:
Номер 1
Какие типы кодирования информации применяются в нейрокомпьютинге?
Ответ:
 (1) понижение размерности данных 
 (2) квантование данных 
 (3) выделение типов данных 
Номер 2
При понижении размерности сколько слоев должны содержать нелинейные автоассоциативные сети?
Ответ:
 (1) не более трех скрытых слоев нейронов 
 (2) три скрытых слоев нейронов 
 (3) минимум три скрытых слоев нейронов 
Упражнение 2:
Номер 1
Чему равна совместная энтропия входов и их кодового представления в автоассоциативной сети
Ответ:
 (1) параметрам сети 
 (2) числу бит, требуемых для описания данных 
 (3) энтропии самих входов 
Номер 2
Соревновательный слой нейронов широко используется…
Ответ:
 (1) для квантования данных 
 (2) для кластеризации данных 
 (3) как для квантования, так и для кластеризации данных 
Номер 3
Какой тип уменьшения избыточности позволяет снизить разнообразие данных, уменьшая число бит, требуемых для описания данных?
Ответ:
 (1) понижение размерности 
 (2) кластеризация 
 (3) квантование 
Упражнение 3:
Номер 1
В каких сетях учителем для выхода является значение входа?
Ответ:
 (1) самообучающиеся сети 
 (2) аппроксимационные сети 
 (3) автоассоциативные сети 
Номер 2
Какую функцию выполняет первый скрытый слой автоассоциативной сети?
Ответ:
 (1) выдача сжатого представления данных 
 (2) осуществление произвольного нелинейного кодирования 
 (3) нахождение соответствующего декодера 
Номер 3
В автоассоциативной сети размер сетей - предикторов определяется…
Ответ:
 (1) суммарным количеством входов и выходов сети 
 (2) количеством выходов сети 
 (3) размеров декодера 
Упражнение 4:
Номер 1
За счет чего максимизируется выходная информация соревновательного слоя нейронов?
Ответ:
 (1) за счет равномерного распределения многомерных входных векторов 
 (2) за счет ячеек Воронова 
 (3) за счет равномерной загрузки нейронов 
Номер 2
На чем основывается обучение отдельного нейрона-индикатора?
Ответ:
 (1) на информации непосредственно доступной самому нейрону 
 (2) на информации непосредственно доступной из скрытого слоя 
 (3) на информации непосредственно доступной от соседних нейронов 
Номер 3
Увеличить входную информацию можно…
Ответ:
 (1) уменьшением числа нейронов 
 (2) наращиванием числа нейронов 
 (3) усреднением числа нейронов 
Упражнение 5:
Номер 1
Декодер автоассоциативной сети опирается…
Ответ:
 (1) на выход значений своих входов 
 (2) на кодированную информацию скрытых слоев нейронов 
 (3) на кодированную информацию в узком горле сети 
Номер 2
Для сжатия информации можно использовать…
Ответ:
 (1) квантование данных 
 (2) метод предикторов 
 (3) латеральные связи 
Номер 3
Для визуализации многомерной информации применяется…
Ответ:
 (1) алгоритм Ойа 
 (2) алгоритм Кохонена 
 (3) алгоритм Хебба 
Упражнение 6:
Номер 1
Какой слой будет осуществлять оптимальное кодирование данных?
Ответ:
 (1) скрытый слой автоассоциативной сети с узким горлом 
 (2) самообучающийся слой Ойа 
 (3) скрытый слой, расположенный в гипер-сфере 
Номер 2
Что позволяет нейрону быть более чувствительным к различиям входной информации?
Ответ:
 (1) минимизация амплитуды выхода 
 (2) минимизация амплитуды входа 
 (3) максимизация амплитуды выхода 
Номер 3
Что такое максимальная энтропия?
Ответ:
 (1) статистическое распределение данных неотличимо от случайного шума 
 (2) анализ главных компонентов не способен выявить одномерный характер данных 
 (3) распределение данных в обучающей выборке не поддается максимальному сжатию 
Упражнение 7:
Номер 1
Чем измеряется качество воспроизведения данных по их кодированному представлению?
Ответ:
 (1) условной энтропией 
 (2) разрядностью 
 (3) оптимальным кодированием 
Номер 2
Выход какого нейрона может усиливаться до единичного?
Ответ:
 (1) нейрон-прототипа 
 (2) нейрон-победителя 
 (3) мертвого нейрона 
Номер 3
В каком случае в аппроксимации участвуют ближайшие нейроны скрытого слоя?
Ответ:
 (1) в глобальном методе 
 (2) в локальном методе 
 (3) в гибридном методе