6 Статистическое (эффективное) кодирование
Статистическое кодирование предполагает уменьшение избыточности сообщений, обусловленной неравно вероятностью элементов. Уменьшение избыточности сообщений называют так же сжатием.
Важнейшей характеристикой источника информации является энтропия – количественная оценка информации, переносимая одним битом, и определяется по формуле:
, (6.1)
где m – основание кода.
Если известно вероятность ноля или единицы, то для двоичного кодирования энтропию сообщения можно записать так:
, (6.2)
По заданию вероятность появление единицы p(1) = 0,9 , по формуле 6.2 найдем H(a):
бит/символ.
Найдем коэффициент избыточности :
, (6.3)
Где - максимальная энтропия сообщения и равна 1бит/символ, т.е. появление ноля и единицы равновероятные события:
Т.к. коэффициент избыточности , то необходимо провести статистическое (эффективное) кодирование.
Суть такого кодирования заключается в следующем: для передачи информации по каналу используется некий алфавит с n числом букв (кодовых комбинаций). Появления разных букв разновероятно, поэтому возможно кодировать разные кодовые комбинации различной длиной. Статистическое кодирование проводится по методу Шеннона-Фано или Шаффмана.
Применим в нашем случае метод Хаффмана, отличие его от метода Шеннона-Фано заключается в том, что построение кода идет от наименее вероятных символов.
Запишем в столбец символы, их код и вероятность появления этих символов (таблица 6.1).
Таблица 6.1 – Расчет вероятностей знаков
Знаки |
Код |
Формула вероятности |
Вероятность |
z1 |
000 |
0,001 |
|
z2 |
001 |
0,009 |
|
z3 |
010 |
0,009 |
|
z4 |
011 |
0,081 |
|
z5 |
100 |
0,009 |
|
z6 |
101 |
0,081 |
|
z7 |
110 |
0,081 |
|
z8 |
111 |
0,729 |
Запишем в таблице 6.2 знаки в порядке убывания и попарно обьеденим близко вероятные знаки.
Таблица 6.2 – Построение кода Хаффмана
Знаки |
Вероятности |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
z8 |
0,729 |
0,729 |
0,729 |
0,729 |
0,729 |
0,729 |
0,729 |
1 |
z4 |
0,081 |
0,081 |
0,081 |
0,081 |
0,109 |
0,162 |
0,271 |
|
z6 |
0,081 |
0,081 |
0,081 |
0,081 |
0,081 |
0,109 |
||
z7 |
0,081 |
0,081 |
0,081 |
0,081 |
0,081 |
|||
z2 |
0,009 |
0,01 |
0,018 |
0,028 |
||||
z3 |
0,009 |
0,009 |
0,01 |
|||||
z5 |
0,009 |
0,009 |
||||||
z1 |
0,001 |
По таблице 6.2 построим граф для построения кода (рисунок 6.1). По данному графу запишем в таблице 6.3 полученные коды знаков и их длины.
Рисунок 6.1 – граф кода Хаффмана
Таблица 6.3 – К расчету эффективной энтропии сообщения
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.