Пусть имеется две системы X и Y и они взаимосвязаны. Определим частную информацию о системе X, содержащуюся в отдельном сообщении.
По теореме умножения вероятностей:
pi,j = rj * p(xi / yj) – подставим в
;
Частная информация как и полная, не может быть отрицательной величиной. Для вычисления частной информации через совместные вероятности используют преобразования.
, тогда
Пример: Система X и Y характеризуется таблицей вероятностей.
|
x1 |
x2 |
rj |
||
y1 |
0.1 |
0.2 |
0.3 |
||
y2 |
0.3 |
0.4 |
0.7 |
||
pi |
0.4 |
0.6 |
бит
Частная информация о событии, получаемая в результате сообщения о другом событии.
Если вероятность события pi увеличивает вероятность, т.е. p(xi, yj) больше pi, то информация больше нуля (). В противном случае, информация .
Энтропия и информация для систем с непрерывным множеством состояний
Существуют непрерывные системы. Например, время безотказной работы прибора, координаты точки попадания при выстреле.
Рассмотрим систему х, которая определяется непрерывной случайной величиной х с плотностью распределения f(x).
Определим энтропию системы. Заменим непрерывную кривую f(x) ступенчатой.
Площади прямоугольников f(xi)*Dx – вероятности попадания в них случайных величин.
|
Энтропия системы:
При достаточно малых сумму можно заменить интегралами
, т.к. интеграл вероятностей, следовательно
- энтропия непрерывной системы
Когда величина, особый случай. В этом случае и , т.е. чем выше точность определения состояния системы, тем выше неопределённость (H(x)).
- приведённая энтропия
Условная энтропия непрерывной системы
Пусть имеется две системы: X и Y, они взаимозависимы и непрерывны.
f(x, y) – плотность распределения для состояния определнной системы.
f1(x) – плотность распределения системы X.
f2(y) – плотность распределения системы Y.
f(y/x), f(x/y) – условная плотность распределения. Имея эти плотности, можно определить
условную энтропию.
Частная условная энтропия
Полная средняя условная энтропия получившаяся в результате осреднения
Для непрерывных систем – энтропия совместимых систем равна сумме энтропий.
H(x, y) = H(x) + H(y / x)
Пример: Найти энтропию непрерывной системы X, все состояния которой на участке от до равновероятны.
H* = =
Пример: Для нормального закона распределения.
H(x) =
Подставляем f(x) и log в интеграл, получим после вычисления
Проводимые исследования различных законов распределения показали, что наилучшим законом распределения является равномерный закон. Если накладываются ограничения - мощность сигнала равная постоянной величине, - наилучшим законом распределения является нормальный.
Наличие вероятностных зависимостей между элементами сообщения уменьшает количество информации, приходящейся на каждый элемент сообщения.
Пример, который подтверждает справедливость данного утверждения.
Пример: Пусть имеется два элемента a, в. Рассмотрим случаи передачи информации с помощью этих элементов:
1) Элементы независимы и равновероятны
1 бит/символ m – количество переданных символов
2) Элементы независимы и неравновероятны
бит/символ
3) Элементы взаимозависимы и равновероятны
p(a) = p(b) = ½
Пусть p(a / a) = p(b / b) = p1 – вероятность повторения символов
p(a / b) = p(b / a) = p2 - вероятность чередования символов
p1,p2 |
½, ½ |
¼, ¾ |
1/8, 4/8 |
0, 1 |
|
1 |
0.815 |
0.541 |
0 |
4) Элементы взаимозависимы и неравновероятны
p(a) = ¾; p(b) = ¼
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.