Основы информатики и вычислительной техники: Учебно-практическое пособие, страница 21

                                                        Таблица 1.1

В общем случае, при числе символов S в алфавите и числе букв n в слове, число возможных слов

N=Sn.                                                                  (1.53)

Число N называется комбинаторной мерой информации. Однако величина N неудобна для практической оценки информационной емкости, так как при заданном S количество информации растет экспоненциально с увеличином n - числом букв в слове, причем вклад каждого последующего значения  n нарастает.

         Для того, чтобы мера информации имела практическую ценность необходимо, чтобы количество информации I было пропорционально числу n, т.е. должно обеспечиваться соотношение:

I=Kn,                                                                                                        (1.54)

где K– постоянная, не зависящая от S.

         Допустим, что имеются две системы символов S1 и S2; им соответствует K1 и K2 такие, что если

,                                                       (1.55)

то и

I=K1n1=K2n2.                                                      (1.56)

         Из (1.55) и (1.56) следует, что

  или  .                    (1.57)

         Это соотношение тождественно, если K=logs, т.е.

K1=logS1,                               (1.58)

 K2=logS2.

Подставив (1.58) в (1.54) и используя (1.53) получим:

I=nlogS=logSn=logN,                                         (1.59)

т.е. в качестве меры информации I может быть принят логарифм числа возможных слов (состояний) N.

Рассмотрим насколько функция I отражает количественную оценку информации. Для этого должны выполняться 3 условия:

1.  Априори известно, что количество информации системы, имеющей одно состояние, равно 0. Действительно, в соответствии с (1.59) I=I(1)=log1=0, т.е. условие выполняется.

2.  Допустим, что физическая система состоит  из двух независимых систем и является их объединением.

Обозначим:

N; I – общее число состояний и количество информации всей системы соответственно;

N1; I1 – число состояний и количество информации первой системы;

N2; I2 – число состояний и количество информации второй системы.

     Очевидно, что N=N1N2 (одному состоянию первой системы соответствует N2 состояний второй системы и т.д.) Общее количество информации I=I(N)=I(N1N2).Естественно считать, что суммарная информация должна быть равна сумме информации первой и второй системе, т.е. обладать свойством аддитивности, т.е. I(N1N2)=I(N1)+I(N2)

Действительно, в соответствии  с (1.59)

I=I(N)=logN=log(N1N2)=logN1+logN2, т.е. условие выполняется.

3.  Естественно потребовать, чтобы зависимость количества информации от числа состояний была монотонной, т.е. I(N2) > I(N1) при N2>N1. Действительно в соответствии с (1.59) I(N2)=logN2; I(N1)=logN1,  I(N2)>I(N1) при N2>N1.

Таким образом оценка меры информации I в соответствии с (1.59) удовлетворяет всем трем условиям.

Величина I называется хартлиевской (аддитивной) мерой информации по имени ученого Р.В.Л. Хартли, который, рассматривал процесс получения информации, как выбор одного сообщения (символа) из конечного наперед заданного множества N равновероятных и независимых сообщений, а количество информации I , содержащееся в выбранном сообщении, определял как двоичный логарифм N, т.е.