Таблица 1.1
В общем случае, при числе символов S в алфавите и числе букв n в слове, число возможных слов
N=Sn. (1.53)
Число N называется комбинаторной мерой информации. Однако величина N неудобна для практической оценки информационной емкости, так как при заданном S количество информации растет экспоненциально с увеличином n - числом букв в слове, причем вклад каждого последующего значения n нарастает.
Для того, чтобы мера информации имела практическую ценность необходимо, чтобы количество информации I было пропорционально числу n, т.е. должно обеспечиваться соотношение:
I=Kn, (1.54)
где K– постоянная, не зависящая от S.
Допустим, что имеются две системы символов S1 и S2; им соответствует K1 и K2 такие, что если
, (1.55)
то и
I=K1n1=K2n2. (1.56)
Из (1.55) и (1.56) следует, что
или
. (1.57)
Это соотношение тождественно, если K=logs, т.е.
K1=logS1, (1.58)
K2=logS2.
Подставив (1.58) в (1.54) и используя (1.53) получим:
I=nlogS=logSn=logN, (1.59)
т.е. в качестве меры информации I может быть принят логарифм числа возможных слов (состояний) N.
Рассмотрим насколько функция I отражает количественную оценку информации. Для этого должны выполняться 3 условия:
1. Априори известно, что количество информации системы, имеющей одно состояние, равно 0. Действительно, в соответствии с (1.59) I=I(1)=log1=0, т.е. условие выполняется.
2. Допустим, что физическая система состоит из двух независимых систем и является их объединением.
Обозначим:
N; I – общее число состояний и количество информации всей системы соответственно;
N1; I1 – число состояний и количество информации первой системы;
N2; I2 – число состояний и количество информации второй системы.
Очевидно, что N=N1N2 (одному состоянию первой системы соответствует N2 состояний второй системы и т.д.) Общее количество информации I=I(N)=I(N1N2).Естественно считать, что суммарная информация должна быть равна сумме информации первой и второй системе, т.е. обладать свойством аддитивности, т.е. I(N1N2)=I(N1)+I(N2)
Действительно, в соответствии с (1.59)
I=I(N)=logN=log(N1N2)=logN1+logN2, т.е. условие выполняется.
3. Естественно потребовать, чтобы зависимость количества информации от числа состояний была монотонной, т.е. I(N2) > I(N1) при N2>N1. Действительно в соответствии с (1.59) I(N2)=logN2; I(N1)=logN1, I(N2)>I(N1) при N2>N1.
Таким образом оценка меры информации I в соответствии с (1.59) удовлетворяет всем трем условиям.
Величина I называется хартлиевской (аддитивной) мерой информации по имени ученого Р.В.Л. Хартли, который, рассматривал процесс получения информации, как выбор одного сообщения (символа) из конечного наперед заданного множества N равновероятных и независимых сообщений, а количество информации I , содержащееся в выбранном сообщении, определял как двоичный логарифм N, т.е.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.