Курс лекций по дисциплине «Информационно-измерительные системы», страница 21

0 1                1 1

Источник Хартли: 

;

mi – алфавит сообщения;

Пример: mi = 32 – чиссло букв алфавита;

(бит/букву)

 – энтропия источника Хартли;

 – информационная производительность источника;

 – 1(бит/символ) – максимальная энтропия Хартли;

5.2 Источник Шеннона

Источник состоит из N – независимых символов.Символ обозначается hi

P(hi) = Pi – вероятность появления символа hi.

N – общая длина характерного сообщения.

Если сообщения эргодические и достаточно длинные, то получаем:

;

;

ni – число hi в сообщении;

;

Т.к. вероятность появления типового сообщения длиной n – одинакова, то:

, где

N – число типовых сообщений источника Хартли.

;

;

;

;

;

При P0 = P1 = 1/2;     H1=H0 = 1 (Хартли).

1)  Граничный переход Шеннон – Хартли при Pi = const.

2)  Информативность источника Шеннона меньше информативности источника Хартли.

H0 – энтропия источника Хартли;

m – число элементов алфавита;