Вариант №3.
А А А В А А А Б Б В А А А Б В В А А А Б
А В В А А А Б В В А Б А А А Б В А А А Б
Б В А А А Б В В В В А А А В В В В А А А
Б А Б А В В А А А Б А А А Б Б А В Б Б Б
А А А В А А А А В Б В А А В А А Б Б В В
1. Определение статистических характеристик источника информации по заданному его сообщению.
Длина сообщения n=100, число букв в алфавите N=3, их перечень А=(А,Б, В)
Вероятность появления букв в сообщении.
Ai |
Ni |
Pi |
А |
52 |
0,52 |
Б |
21 |
0,21 |
В |
27 |
0,27 |
Вероятность двубуквенных сочетаний.
AiAj |
Nij |
Pij |
PiPj |
АА |
31 |
0,31 |
0,27 |
АБ |
13 |
0,13 |
0,11 |
АВ |
8 |
0,08 |
0,14 |
ББ |
6 |
0,06 |
0,05 |
БВ |
8 |
0,08 |
0,06 |
БА |
7 |
0,07 |
0,11 |
ВВ |
11 |
0,11 |
0,07 |
ВБ |
2 |
0,02 |
0,06 |
ВА |
14 |
0,14 |
0,14 |
Марковский источник, т. к. Pij не равно PiPj.
Переходные (условные) вероятности P(Ai/Aj).
Последующие буквы Aj |
||||
А |
Б |
В |
||
Предыдущие буквы Ai |
А |
0,596 |
0,25 |
0,154 |
Б |
0,333 |
0,286 |
0,381 |
|
В |
0,519 |
0,074 |
0,407 |
Сумма этих вероятностей в каждой строке таблицы должна равняться единице.
Граф функционирования Марковского источника.
2.Определение информационных характеристик источника и оценка влияния на них неравновероятности и взаимозависимости букв.
Значения энтропии источника:
- В предположении равновероятности и взаимонезависимости букв
log2N=log23=1.585
- Без учета взаимозависимости букв
- С учетом взаимозависимости букв
, где
Характеристика источника.
Использованная модель источника |
|||
Марковская |
С независимыми буквами |
С равновероятными и независимыми буквами |
|
Энтропия Н, бит/букву |
1,388 |
1,437 |
1,585 |
Относительная избыточность Е, % |
0,124 |
0,071 |
0 |
Информативность Д |
0,876 |
0,929 |
1 |
Степень уменьшения энтропии показывает число букв переносимых источником. Наличие наибольшего числа букв в сообщении, чем это минимально необходимо вызвано наличием неравновероятного и взаимозависимого появления букв.
Количество информации в сообщении J=n*H=100*1.58=158,5 минимальное количество двоичных символов nmin=n*H=100*1.585=158
Число двоичных букв 2Кравн≥N, N=3, Кравн=2
3. Статистическое кодирование сообщений источника.
Необходимо для исключения избыточности.
Построение статистического кода по алгоритму Фэно.
Ai |
Pi |
1 |
2 |
Кодовая комбинация |
Число символов |
А |
0,52 |
1 |
1 |
1 |
|
В |
0,27 |
0 |
1 |
01 |
2 |
Б |
0,21 |
0 |
0 |
00 |
2 |
AiAj |
PiPj |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
Кодовая комбинация |
Число символов |
АА |
0,31 |
1 |
1 |
2 |
||||||
ВА |
0,14 |
1 |
0 |
2 |
||||||
АБ |
0,13 |
0 |
1 |
1 |
3 |
|||||
ВВ |
0,11 |
0 |
1 |
0 |
1 |
4 |
||||
АВ |
0,08 |
0 |
1 |
0 |
0 |
4 |
||||
БВ |
0,08 |
0 |
0 |
1 |
1 |
4 |
||||
БА |
0,07 |
0 |
0 |
1 |
0 |
4 |
||||
ББ |
0,06 |
0 |
0 |
0 |
1 |
4 |
||||
ВБ |
0,02 |
0 |
0 |
0 |
0 |
4 |
Вычислить количество букв статистического кода, необходимое для кодирования стобуквенного сообщения источника.
nст1=52*1+27*2+21*2=148
nст2 = (31*2+14*2+13*3+11*4+8*4+8*4+7*4+6*4+2*5)/2 = 144,5
Остаточная избыточность и информативность сообщения после статистического кодирования его.
Е=0,062
Е=0,039
Побуквенное статистическое кодирование существенно уменьшает только избыточность, возникающую за счет неравновероятности букв, не влияет на избыточность, определяемую взаимозависимостью букв.
Эффективность статистического кодирования.
Модель источника |
||
Марковская |
||
nмин |
||
E |
0,124 |
|
Еост |
При стат. кодировании по буквам |
0,062 |
То же, по двубуквенным сочетаниям |
0,039 |
Вывод: при кодировании источника по двубуквенным сочетаниям
снижается избыточность, по сравнению с отдельными буквами.
МПС
ПГУПС
Кафедра «Электрическая связь»
Лабораторная работа №5
Тема: «Исследование дискретного источника информации»
Выполнил: Елгашин А. В. АТТ-104 Проверил: |
Вариант №3
Санкт-Петербург
2003г.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.