Главная / Безопасность /
Основы теории информации и криптографии / Тест 3
Основы теории информации и криптографии - тест 3
Упражнение 1:
Номер 1
Энтропия дискретной случайной величины представляет собой:
Ответ:
 (1) среднее количество бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины, чтобы полностью описать ее 
 (2) максимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины 
 (3) минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины 
Номер 2
Энтропия определяет:
Ответ:
 (1) теорию информации 
 (2) меру уравновешенности системы 
 (3) раздел кибернетики 
 (4) способ кодирования информации 
Номер 3
Префиксным называется кодирование:
Ответ:
 (1) при котором каждый код не является префиксом другого кода 
 (2) при котором каждый код является префиксом другого кода 
 (3) при котором каждому коду соответствует определенный префикс из таблицы значений 
Упражнение 2:
Номер 1
Перед испытуемым человеком зажигается одна из N
лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной вероятностью pi
, где i
- это номер лампочки. Среднее время, необходимое для правильного ответа испытуемого, пропорционально:
Ответ:
 
(1)  
 (2) числу лампочек N
 
 
(3) величине энтропии
 
Номер 2
Вычислить предложения , про которое известно, что оно достоверно на 50%, и предложения , достоверность которого 25%:
Ответ:
 
(1)  
 
(2)  
 
(3)  
Номер 3
Вычислить предложения s1
, про которое известно, что оно достоверно на 50%, и предложения s2
, достоверность которого 25%:
Ответ:
 
(1)  
 
(2)  
 
(3)  
Упражнение 3:
Номер 1
Если задана функция , где s
-это предложение, смысловое содержание которого измеряется, p(s)
- вероятность истинности s
, то эта функция обладает свойствами:
Ответ:
 
(1) если
s
-истинно, то
 
 
(2)  
 
(3) если
- истинно, то
 
 
(4)  
 
(5) если
- истинно, то
 
Номер 2
Если задана функция , где s
-это предложение, смысловое содержание которого измеряется, p(s)
- вероятность истинности s
, то если :
Ответ:
 
(1)  
 
(2)  
 
(3)  
Номер 3
Если задана функция , где s
-это предложение, смысловое содержание которого измеряется, p(s)
- вероятность истинности s
, то:
Ответ:
 
(1)  
 
(2)  
 
(3) при условии, что
s
- истинно 
Упражнение 4:
Номер 1
Найти среднюю длину code1
для дискретной случайной величины X
:
Ответ:
 (1) ML1(X)=2.2 бит/сим
 
 (2) ML1(X)=3.5 бит/сим
 
 (3) ML1(X)=3 бит/сим
 
Номер 2
Найти среднюю длину code2
для дискретной случайной величины X
:
Ответ:
 (1) ML2(X)=3 бит/сим
 
 (2) ML2(X)=2.2 бит/сим
 
 (3) ML2(X)=3.2 бит/сим
 
Номер 3
Найти среднюю длину code3
для дискретной случайной величины X
:
Ответ:
 (1) ML3(X)=2.2 бит/сим
 
 (2) ML3(X)=2.8 бит/сим
 
 (3) ML3(X)=3 бит/сим
 
Упражнение 5:
Номер 1
Найти среднюю длину code4
для дискретной случайной величины X
:
Ответ:
 (1) ML3(X)=2.8 бит/сим
 
 (2) ML3(X)=3 бит/сим
 
 (3) ML4(X)=2.2 бит/сим
 
Номер 2
Найти энтропию дискретной случайной величины X
:
Ответ:
 
(1)  
 
(2)  
 
(3)  
Номер 3
Дискретная случайная величина X
равна количеству "гербов", выпавших на двух идеальных монетках. Найти энтропию X
:
Ответ:
 (1) HX=1.5 бит/сим
 
 (2) HX=2.5 бит/сим
 
 (3) HX=1.8 бит/сим
 
Упражнение 6:
Номер 1
Дискретная случайная величина X
задана распределением P(X=2n)=1/2n, n=1,2,...
, Найти энтропию X
:
Ответ:
 (1) HX = 1 бит/сим
 
 (2) HX = 2.2 бит/сим
 
 (3) HX = 2 бит/сим
 
Номер 2
Про дискретную случайную величину X
известно, что ее значениями являются буквы кириллицы. Произведен ряд последовательных измерений X
, результат которых - "ТЕОРИЯИНФОРМАЦИИ". Составить на основании этого результата приблизительный закон распределения вероятностей этой дискретной случайной величины и оценить минимальную среднюю длину кодов для X
:
Ответ:
 
(1)  
 
(2)  
 
(3)  
Номер 3
По теории Шеннона:
Ответ:
 (1) смысл сообщений НЕ имеет никакого отношения к теории информации 
 (2) смысл сообщений имеет прямое отношения к теории информации 
 (3) нельзя дать точный ответ насчет зависимости между смыслом сообщений и теории информации