Табл. 1.3
Предположим, что вероятности всех возможных результатов выражаются числами
,
где
– целые положительные числа. причем
Из таблицы 1.3
видно, что если вероятность какого-либо события равна ,
то его двоичный номер (двоичное кодовое слово) выразится
-значным двоичным числом.
При проведении
опытов количество двоичных знаков в числе, соответствующем номеру опыта, будет
случайной величиной с возможными средними значениями и
с вероятностями
.
Естественно, за
меру неопределенности H принять среднее арифметическое
значение числа двоичных знаков необходимых, чтобы полностью определить общий
результат, т.е. определить величину .
Среднее
арифметическое значение случайной величины равно
или
(1.66)
В нашем примере
Это и есть математическое ожидание числа двоичных знаков на одно сообщение.
Если
предположить, что вероятности всех восьми сообщений равны друг другу, т.е.
каждое сообщение имеет одинаковое количество информации, то , что соответствует мере информации
по Хартли
бита. Таким образом может иметь
место экономия в числе передаваемых символов при одной и той же информации.
Понятие информации, как было показано выше, тесно связано с понятием неопределенности. Мера неопределенности есть непрерывная функция вероятностей состояний источника информации. Чем больше вероятность, не получая информацию, правильно угадать состояние системы, тем меньше неопределенность источника, и наоборот, чем меньше априорная вероятность события, тем большее количество информации оно несет, тем больше его неопределенность.
Например, имеются 2 источника (Табл. 1.4а и 1.4б)
Х1 |
Х2 |
0,5 |
0,5 |
Х1 |
Х2 |
0,99 |
0,01 |
а) б)
Табл. 1.4
Ясно, что у 2-ого источника неопределенность меньше: он на 99% находится в состоянии Х1; 1-ый источник с вероятностью 0,5 (или на 50%) находится в состоянии Х1.
Таким образом сообщение несет полезную информацию тогда, когда имеется энтропия – неопределенность состояний источника сообщений. Если опыт имеет один исход, то получатель знает исход опыта заранее и не получает никакой информации (неопределенность отсутствует). Если опыт имеет два исхода – имеет место определенная информация и неопределенность. Чем меньше априори вероятность события, тем большее количество информации оно имеет.
Рассмотрим основные свойства энтропии.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.