Информация, язык, общество. Измерение информации. Энтропия и её свойства. Определение информационных потерь в каналах связи. Передача информации по дискретным каналам связи. Код Хэминга, страница 10

  Теорема Шеннона (другая). Если источник информации имеет энтропию Н(z), то сообщение всегда можно закодировать так, чтобы средняя длина кода lср была близка к величине

Доказательство:  В качестве доказательства будем использовать методику Шеннона-Фана. Предположим, что при последовательном делении совокупности кодируемых букв по методу Шеннона-Фана на меньшие группы, каждый раз удается добиться равенства вероятностей двух получаемых групп.

 1. После первого деления, получается группа с вероятностью ½;

 2. После второго деления, получается группа с вероятностью ¼;

 и т. д. ….

После -делений получим группы с вероятностью .

Если после -делений в группе будет одна буква, то она будет иметь -значное кодовое обозначение.

При выполнении этого условия длина кодового обозначения  li будет связана с вероятностью pi соотношением pi=½×li  или, преобразуя это выражение, получим li = log= - log pi.

В общем случае величина log pi целым числом не будет, поэтому в качестве i  выбирают ближайшее большее целое число.

Величина i будет лежать:

Далее Шеннон утверждал, что существует такой метод кодирования, при котором длина

i = - log pi

В качестве доказательства рассмотрим процедуру кодирования:

Пусть имеется алфавит с буквами и заданы вероятности их появления. Расположим буквы алфавита в порядке убывания их вероятностей.

коды

z1        Q1              - числа Qi будем определять следующим образом; Q1 = 0

z2        Q2        Q2=p(z1)

…               …                Q3=p(z1) + p(z2)

zn        Qn          …

                       Qn = p(z1) + p(z2) + … + p(zn-1)

Все Qi≠0, кроме первого, следовательно, совпадения с первым не будет, все Qi – разные и меньше единицы.  Шеннон предлагает перевести каждое Qi число в двоичную дробь.

В целом   .

Эти числа можно определить из соотношения:

 

qi – либо 1, либо 0.

Пример:  …               

Разложение каждого числа ограничивается до тех пор, пока не будет выполняться равенство:

Пример:    Дан алфавит состоит из восьми букв и их вероятности. Рассмотрим процедуру кодирования

Буква

Вероятность

- log pi

li

Qi

коды

z1

1/4

2

2

0

00

z2

1/4

2

2

1/4

01

z3

1/8

3

3

2/4

100

z4

1/8

3

3

5/8

101

z5

1/8

3

3

6/8

110

z6

1/16

4

4

7/8

1110

z7

1/32

5

5

15/16

11110

z8

1/32

5

5

31/32

11111

Средняя длина кодового сообщения

Теорема доказана

В случае кодирования буквенных блоков по N букв, получаем новый алфавит z’.

m – количество символов во вторичном алфавите, в двоичном - m = 2.

Скорость передачи                                                              Максимальная скорость

                                                                                

  Пример:  Сообщения передаются в двоичном коде. Время передачи от нуля до одной секунды, r0 = 1 сек, секунд. Определить скорость передачи информации для случая:

1) Символы равновероятны и независимы.

2) Символы неравновероятны

Дискретный канал с помехами

Характеризуется канальной матрицей

 

Взаимная информация

 

 

- это максимальное значение определить сложно.

 

Средняя условная энтропия

 

Энтропия на выходе приёмника

 

Определим пропускную способность канала связи, по которому передаются двоичные сигналы со скоростью vx, если вероятность искажения сигнала равна p.