0 1 1 1
Источник Хартли:
;
mi – алфавит сообщения;
Пример: mi = 32 – чиссло букв алфавита;
(бит/букву)
– энтропия источника Хартли;
– информационная производительность источника;
– 1(бит/символ) – максимальная энтропия Хартли;
5.2 Источник Шеннона
Источник состоит из N – независимых символов.Символ обозначается hi
P(hi) = Pi – вероятность появления символа hi.
N – общая длина характерного сообщения.
Если сообщения эргодические и достаточно длинные, то получаем:
;
;
ni – число hi в сообщении;
;
Т.к. вероятность появления типового сообщения длиной n – одинакова, то:
, где
N – число типовых сообщений источника Хартли.
;
;
;
;
;
При P0 = P1 = 1/2; H1=H0 = 1 (Хартли).
1) Граничный переход Шеннон – Хартли при Pi = const.
2) Информативность источника Шеннона меньше информативности источника Хартли.
H0 – энтропия источника Хартли;
m – число элементов алфавита;
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.