Главная /
Основы теории информации и криптографии /
Укажите свойства меры информации и энтропии:
Укажите свойства меры информации и энтропии:
вопросПравильный ответ:
если
X
константа, то HX = 0
I(X,Y) = HX + HY - H(X,Y)
, где
если
X
, Y
независимы, то I(X,Y) = 0
I(X,Y) = 0
только если I(X,Y) = I(Y,X)
Сложность вопроса
62
Сложность курса: Основы теории информации и криптографии
88
Оценить вопрос
Комментарии:
Аноним
Я завалил сессию, почему я не увидел этот великолепный сайт с всеми ответами по тестам интуит до зачёта
21 фев 2019
Аноним
Если бы не эти ответы - я бы сломался c этими тестами интуит.
17 июн 2016
Другие ответы на вопросы из темы безопасность интуит.
- # Если дискретные случайные величины X и Y заданы законами распределения P(X=Xi)=pi, P(Y=Yj)=qj и совместным распределением P(X=Xi,Y=Yj)=pij, то количество информации, содержащейся в X относительно Y равно:
- # Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Дискретная случайная величина Y равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е. Y=X1+X2. Вычислить I(X1,Y):
- # Недостатками кодирования, основанного на основной теореме о кодировании при отсутствии помех, являются:
- # Распаковать сообщение 'A'0'F'00'X'0111110101011011110100101, полученное по адаптивному алгоритму Хаффмена с упорядоченным деревом
- # Закодировать сообщения "СИНЯЯ СИНЕВА СИНИ", вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь - 12 байт, буфер - 4 байта):