Табл. 1.3
Предположим, что вероятности всех возможных результатов выражаются числами
![]()
,
где
– целые положительные числа. причем
Из таблицы 1.3
видно, что если вероятность какого-либо события равна
,
то его двоичный номер (двоичное кодовое слово) выразится
-значным двоичным числом.
При проведении
опытов количество двоичных знаков в числе, соответствующем номеру опыта, будет
случайной величиной с возможными средними значениями
и
с вероятностями
.
Естественно, за
меру неопределенности H принять среднее арифметическое
значение числа двоичных знаков необходимых, чтобы полностью определить общий
результат, т.е. определить величину
.
Среднее
арифметическое значение случайной величины
равно

или
(1.66)
В нашем примере

Это и есть математическое ожидание числа двоичных знаков на одно сообщение.
Если
предположить, что вероятности всех восьми сообщений равны друг другу, т.е.
каждое сообщение имеет одинаковое количество информации, то
, что соответствует мере информации
по Хартли
бита. Таким образом может иметь
место экономия в числе передаваемых символов при одной и той же информации.
Понятие информации, как было показано выше, тесно связано с понятием неопределенности. Мера неопределенности есть непрерывная функция вероятностей состояний источника информации. Чем больше вероятность, не получая информацию, правильно угадать состояние системы, тем меньше неопределенность источника, и наоборот, чем меньше априорная вероятность события, тем большее количество информации оно несет, тем больше его неопределенность.
Например, имеются 2 источника (Табл. 1.4а и 1.4б)
|
Х1 |
Х2 |
|
0,5 |
0,5 |
|
Х1 |
Х2 |
|
0,99 |
0,01 |
а) б)
Табл. 1.4
Ясно, что у 2-ого источника неопределенность меньше: он на 99% находится в состоянии Х1; 1-ый источник с вероятностью 0,5 (или на 50%) находится в состоянии Х1.
Таким образом сообщение несет полезную информацию тогда, когда имеется энтропия – неопределенность состояний источника сообщений. Если опыт имеет один исход, то получатель знает исход опыта заранее и не получает никакой информации (неопределенность отсутствует). Если опыт имеет два исхода – имеет место определенная информация и неопределенность. Чем меньше априори вероятность события, тем большее количество информации оно имеет.
Рассмотрим основные свойства энтропии.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.