Информация, язык, общество. Измерение информации. Энтропия и её свойства. Определение информационных потерь в каналах связи. Передача информации по дискретным каналам связи. Код Хэминга, страница 5

Частная информация о системе

Пусть имеется две системы X и Y и они взаимосвязаны. Определим частную информацию о системе X, содержащуюся в отдельном сообщении.

                                

По теореме умножения вероятностей:

pi,j = rj * p(xi / yj) – подставим в

;                   

Частная информация  как и полная, не может быть отрицательной величиной. Для вычисления частной информации через совместные вероятности используют преобразования.

, тогда                       

Пример: Система X и Y характеризуется таблицей вероятностей.

Определить частную информацию о системе х, содержащуюся в сообщении y1.

 
xi & yi

x1

x2

rj

y1

0.1

0.2

0.3

y2

0.3

0.4

0.7

pi

0.4

0.6

 бит

Частная информация о событии, получаемая в результате сообщения о другом событии.

Если вероятность события pi увеличивает вероятность, т.е. p(xi, yj) больше pi, то информация больше нуля (). В противном случае, информация .

Энтропия и информация для систем с непрерывным множеством состояний

Существуют непрерывные системы. Например, время безотказной работы прибора, координаты точки попадания при выстреле.

Рассмотрим систему х, которая определяется непрерывной случайной величиной х с плотностью распределения f(x).

Определим энтропию системы. Заменим непрерывную кривую f(x) ступенчатой.

Площади прямоугольников f(xi)*Dx – вероятности попадания в них случайных величин.


 
 


Энтропия системы:

При достаточно малых сумму можно заменить интегралами

            , т.к. интеграл вероятностей, следовательно

- энтропия непрерывной системы

Когда величина, особый случай. В этом случае  и , т.е. чем выше точность определения состояния системы, тем выше неопределённость (H(x)).

 - приведённая энтропия

Условная энтропия непрерывной системы

Пусть имеется две системы: X и Y, они взаимозависимы и непрерывны.

f(x, y) – плотность распределения для состояния определнной системы.

f1(x) – плотность распределения системы X.

f2(y) – плотность распределения системы Y.

f(y/x), f(x/y) – условная плотность распределения. Имея эти плотности, можно определить

условную энтропию.

Частная условная энтропия

Полная средняя условная энтропия получившаяся в результате осреднения

Для непрерывных систем – энтропия совместимых систем равна сумме энтропий.

H(x, y) = H(x) + H(y / x)

Пример: Найти энтропию непрерывной системы X, все состояния которой на участке от до  равновероятны.

H* = =

Пример: Для нормального закона распределения.

H(x) =

Подставляем f(x) и log в интеграл, получим после вычисления

Проводимые исследования различных законов распределения показали, что наилучшим законом распределения является равномерный закон. Если накладываются ограничения - мощность сигнала равная постоянной величине, - наилучшим законом распределения является нормальный.

Количественное определения избыточности

Наличие вероятностных зависимостей между элементами сообщения уменьшает количество информации, приходящейся на каждый элемент сообщения.

Пример, который подтверждает справедливость данного утверждения.

Пример: Пусть имеется два элемента a, в.   Рассмотрим случаи передачи информации с помощью этих элементов:

 1)   Элементы независимы и равновероятны

1 бит/символ               m – количество переданных символов

2)  Элементы независимы и неравновероятны

       

 бит/символ

3)  Элементы взаимозависимы и равновероятны

p(a) = p(b) = ½

Пусть p(a / a) = p(b / b) = p1 – вероятность повторения символов

           p(a / b) = p(b / a) = p- вероятность чередования символов

p1,p2

½, ½

¼, ¾

1/8, 4/8

0, 1

1

0.815

0.541

0

4)  Элементы взаимозависимы и неравновероятны

p(a) = ¾;                      p(b) = ¼