Определение статистических характеристик источника информации по заданному его сообщению (длина сообщения n=100, число букв в алфавите N=3, их перечень А=(А, Б, В))

Страницы работы

Содержание работы

Вариант №3.

А А А В А А А Б Б В А А А Б В В А А А Б

А В В А А А Б В В А Б А А А Б В А А А Б

Б В А А А Б В В В В А А А В В В В А А А

Б А Б А В В А А А Б А А А Б Б А В Б Б Б

А А А В А А А А В Б В А А В А А Б Б В В

1. Определение статистических характеристик источника информации по заданному его сообщению.

Длина сообщения n=100, число букв в алфавите N=3, их перечень А=(А,Б, В)

Вероятность появления букв в сообщении.

Ai

Ni

Pi

А

52

0,52

Б

21

0,21

В

27

0,27

Вероятность двубуквенных сочетаний.

AiAj

Nij

Pij

PiPj

АА

31

0,31

0,27

АБ

13

0,13

0,11

АВ

8

0,08

0,14

ББ

6

0,06

0,05

БВ

8

0,08

0,06

БА

7

0,07

0,11

ВВ

11

0,11

0,07

ВБ

2

0,02

0,06

ВА

14

0,14

0,14

Марковский источник, т. к. Pij не равно PiPj.

Переходные (условные) вероятности P(Ai/Aj).

Последующие буквы Aj

А

Б

В

Предыдущие буквы Ai

А

0,596

0,25

0,154

Б

0,333

0,286

0,381

В

0,519

0,074

0,407

Сумма этих вероятностей в каждой строке таблицы должна равняться единице.

Граф функционирования Марковского источника.

2.Определение информационных характеристик источника и оценка влияния на них неравновероятности и взаимозависимости букв.

Значения энтропии источника:

- В предположении равновероятности и взаимонезависимости букв

log2N=log23=1.585

-  Без учета взаимозависимости букв

- С учетом взаимозависимости букв

, где

Характеристика источника.

Использованная модель источника

Марковская

С независимыми буквами

С равновероятными и независимыми буквами

Энтропия Н, бит/букву

1,388

1,437

1,585

Относительная избыточность Е, %

0,124

0,071

0

Информативность Д

0,876

0,929

1

Степень уменьшения энтропии показывает число букв переносимых источником. Наличие наибольшего числа букв в сообщении, чем это минимально необходимо вызвано наличием неравновероятного и взаимозависимого появления букв.

Количество информации в сообщении J=n*H=100*1.58=158,5 минимальное количество двоичных символов nmin=n*H=100*1.585=158

Число двоичных букв 2Кравн≥N, N=3, Кравн=2

3. Статистическое кодирование сообщений источника.

Необходимо для исключения избыточности.

Построение статистического кода по алгоритму Фэно.

Ai

Pi

1

2

Кодовая комбинация

Число символов

А

0,52

1

1

1

В

0,27

0

1

01

2

Б

0,21

0

0

00

2

AiAj

PiPj

1

2

3

4

5

6

7

Кодовая комбинация

Число символов

АА

0,31

1

1

2

ВА

0,14

1

0

2

АБ

0,13

0

1

1

3

ВВ

0,11

0

1

0

1

4

АВ

0,08

0

1

0

0

4

БВ

0,08

0

0

1

1

4

БА

0,07

0

0

1

0

4

ББ

0,06

0

0

0

1

4

ВБ

0,02

0

0

0

0

4

Вычислить количество букв статистического кода, необходимое для кодирования стобуквенного сообщения источника.

nст1=52*1+27*2+21*2=148

nст2 = (31*2+14*2+13*3+11*4+8*4+8*4+7*4+6*4+2*5)/2 = 144,5

Остаточная избыточность и информативность сообщения после статистического кодирования его.

       Е=0,062

        Е=0,039

Побуквенное статистическое кодирование существенно уменьшает только избыточность, возникающую за счет неравновероятности букв, не влияет на избыточность, определяемую взаимозависимостью букв.

Эффективность статистического кодирования.

Модель источника

Марковская

nмин

E

0,124

Еост

При стат. кодировании по буквам

0,062

То же, по двубуквенным сочетаниям

0,039


            Вывод: при кодировании источника по двубуквенным сочетаниям снижается избыточность, по сравнению с отдельными буквами.

МПС

ПГУПС

Кафедра «Электрическая связь»

Лабораторная работа №5

Тема: «Исследование дискретного источника информации»

Выполнил: Елгашин А. В.

АТТ-104

Проверил:

Вариант №3

Санкт-Петербург

2003г.

Похожие материалы

Информация о работе

Тип:
Отчеты по лабораторным работам
Размер файла:
84 Kb
Скачали:
0