Табл. 1.2
Предположим, что в результате приема M сигналов ί-тый символ повторяется Кi раз и каждый раз вносит информацию, количество которой оценивается как Ii . Тогда средняя информации, доставляемая в результате одного опыта
, (1.62)
но количество информации от одного символа Ii связано с вероятностью его появления Рi в соответствии с (1.61)
(1.63)
Тогда
или
(1.64)
Отношения представляют
собой частоты повторения символов, а следовательно могут быть заменены их
вероятностями, т.е.
. Поэтому средняя
информация в битах
(1.64)
или (1.65)
Другими словами, если Ii – частное количество информации от одного символа (1.63), то среднее количество информации Iср равно математическому ожиданию частных количеств информации, т.е.
При равновероятных и независимых символах все P=1/N и формула (1.65) преобразуется в формулу Хартли (1.60).
Формулу (1.65)
называют формулой Шеннона (по имени математика К. Шеннона). Величину H называют энтропией, которая является мерой неопределенности.
Поясним смысл формулы Шеннона. Для этого рассмотрим серию опытов, в результате
каждого из которых имеет место одно из несовместимых событий Х1, Х2,
Х3 …ХN, образующих полную группу
событий, для которой справедливо
Для примера пусть число событий N=8, каждое событие содержит 3 символа и имеет вероятность Рi (табл. 1.3)
Хi |
Номер в двоичной системе сигналов |
Рi |
Вероятность в форме |
|
Двоичное кодовое слово |
Х1 Х2 Х3 Х4 Х5 Х6 Х7 Х8 |
000 001 010 011 100 101 110 111 |
1/4 1/4 1/8 1/16 1/16 1/16 1/16 1/16 |
2-2 2-2 2-3 2-3 2-4 2-4 2-4 2-4 |
2 2 3 3 4 4 4 4 |
00 01 11 100 101 1100 1101 1111 |
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.