Основы информатики и вычислительной техники: Учебно-практическое пособие, страница 24

Табл. 1.2

Предположим, что в результате приема M сигналов ί-тый символ повторяется Кi раз и каждый раз вносит информацию, количество которой оценивается как Ii . Тогда средняя информации, доставляемая в результате одного опыта

,                                       (1.62)

но количество информации от одного символа Ii связано с вероятностью его появления Рi в соответствии с (1.61)

                                                                                  (1.63)

Тогда

или

      (1.64)

Отношения  представляют собой частоты повторения символов, а следовательно могут быть заменены их вероятностями, т.е. . Поэтому средняя информация в битах

                  (1.64)

или                                                                (1.65)

Другими словами, если Ii – частное количество информации от одного символа (1.63), то среднее количество информации Iср равно математическому ожиданию частных количеств информации, т.е.

При равновероятных и независимых символах все P=1/N и формула (1.65) преобразуется в формулу Хартли (1.60).

Формулу (1.65) называют формулой Шеннона (по имени математика К. Шеннона). Величину H называют энтропией, которая является мерой неопределенности. Поясним смысл формулы Шеннона. Для этого рассмотрим серию опытов, в результате каждого из которых имеет место одно из несовместимых событий Х1, Х2, Х3 …ХN, образующих полную группу событий, для которой справедливо

Для примера пусть число событий N=8, каждое событие содержит 3 символа и имеет вероятность Рi (табл. 1.3)

Хi

Номер в двоичной системе сигналов

Рi

Вероятность

 в форме

Двоичное кодовое слово

Х1

Х2

Х3

Х4

Х5

Х6

Х7

Х8

000

001

010

011

100

101

110

111

1/4

1/4

1/8

1/16

1/16

1/16

1/16

1/16

2-2

2-2

2-3

2-3

2-4

2-4

2-4

2-4

2

2

3

3

4

4

4

4

00

01

11

100

101

1100

1101

1111