Максимальное количество информации возможно при равновероятных исходах источника. Второй член этого выражения (*), т.е. H(X|Y) – это потеря информации. Она может быть вызвана помехами, потерями преобразований при восстановлении и т.д. В любом случае, процесс передачи информации – это единое гармоническое целое из источника, приёмника и канала связи.
Свойства количества информации:
За единицу количества информации принята величина информации, содержащейся в сообщении об одном из двух равновероятных событий.
Единица измерения количества информации
За единицу количества информации принято такое количество информации, которое содержит сообщение уменьшающее неопределённость знания в 2 раза. Такая единица названа бит.
Компьютер оперирует числами в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.
Следующей по величине единицей измерения количества информации является байт, причём
1 байт = 23 бит = 8 бит.
Кратные байту единицы измерения количества информации вводятся следующим образом:
1 Кбайт = 210 байт = 1024 байт
1 Мбайт = 210 Кбайт =1024 Кбайт = 220 байт
1 Гбайт = 210 Мбайт = 1024 Мбайт = 220 Кбайт = 230 байт.
Количество возможных событий и количество информации
Существует формула, которая связывает между собой количество возможных событий N и количество информации I:
N=2I
Энтропия неперерывных сообщений:
Любой отрезок конечной длины L имеет бесконечное множество внутренних точек. С отрезком отождествляется физ. параметр, поддающийся измерению. Необходимо определить количество информации, получаемое от этого измерения. Для этого разделим интервал длины L на N равных частей. Если вероятности попадания в каждый интервал одинаковы, то энтропию можно определить следующим образом:
H(x)»log2N= log2(L/DL), где DL – погрешность измерений, длина отрезка одного деления. Это выражение эквивалентно энтропии по Хартли. Фактически эти события не равновероятны, поэтому запишем выражение по Шеннону:
, где l – текущий параметр длины, f(l) – плотность распределения вероятности. Одномерная плотность распределения вероятностей графически представляется в виде плоскости, двумерная – в виде поверхности.
В инф. системах непрерывного действия необходимо учитывать источник и приемник, для этого вводится двумерная плотность распределения вероятностей. Она описывает поверхность распределения вероятностей 3-х мерного пространства, подчиняется формуле Байеса: f2(x,y)=f1(x)f2(y|x).
Пользуясь аналогией для дискретных событий запишем: , где р* - интервальные вероятности. Проинтегрируем по всем возможным вероятностям.
, I(X,Y)=H(X)-H(X|Y
,
Потери информации возникают вследствие ограниченной точности преобразования (внутренняя нестабильность объекта) и помех.
Нe(х) – эпсилон-энтропия (e-энтропия) соответствует минимальному количеству информации, которую необходимо получить от объекта для определения его параметра (состояния) с точностью e.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.