Курс лекций по дисциплине «Информационно-измерительные системы», страница 22

;

;

Свойства энтропии:

1)  log2P < 0, так как P < 1

H > 0 положительная;

2)  P(0) = 0; P(1) = 1;

;

H1 = 0, при Pi = 0 или 1

Энтропия > 0, при  , т+огда существует экстремум (max)

3)   

P(1)

P(0)

H

1

0

0

 1/4

 3/4

0,56

 3/4

 1/4

0,56

 1/2

 1/2

1

H0 = H1 (при P(0) = P(1) = 1/2) ШеннонХартли

Из рассмотренного ранее материала мы видим, что для повышения эффективности необходимо кодировать неравновероятные сообщения так, чтобы получить равновероятные символы.

5.3 Источник Маркова

До сих пор мы не учитывали того фактора, что во всех сообщениях символы коррелированны между собой – это дополнительно уменьшает энтропию.