Один біт - це ентропія найпростішої фізичної системи, що може бути тільки в одному з двох станів, причому ці стани рівноможливі.
Дійсно, нехай система А володіє двома станами А1 і А2 з імовірностями p1 = 0,5 і p2 = 0,5. Відповідно до формули (2.7), ентропія такої системи дорівнює
H(A) = - (0,5·log2 0,5 + 0,5·log2 0,5) = 1,
тобто одному бітові.
В класичної теорії інформації кількість інформації, укладеної в повідомленні, виміряється зменшенням ентропії системи під дією цього повідомлення. Нехай, наприклад, до надходження повідомлення ентропія системи була дорівнює двом бітам, а після нього стала рівної одному бітові. З цього ми укладаємо, що інформація, укладена в повідомленні, дорівнює одному бітові.
Поняттю "інформація в бітах" можна дати дуже наочне тлумачення: вона дорівнює числу відповідей "так" і "ні" на розумно поставлені питання, за допомогою яких можна одержати ту ж інформацію.
Нехай, наприклад, система А може мати два равновероятных стани: А1 і А2. Тоді повне з'ясування стану цієї системи несе інформацію один біт, і, виходить, можна неї одержати в результаті відповіді на одне питання. Дійсно, задавши один-єдине питання: " чи Знаходиться система в стані А1?" і одержавши на нього відповідь "так" або "ні", ми цілком з'ясуємо стан системи.
Ентропія має наступні властивості:
а) ентропія завжди ненегативна, тому що значення імовірностей виражаються величинами, що не перевершують одиницю, а їхні логарифми - негативними числами або нулем, так що члени суми (2.7) ненегативні;
б) якщо pі = 1 (а всі інші pj = 0, j = 1, ..., (n-1)), те Н(А) = 0. Це той випадок, коли про досвід або величину все відомо заздалегідь і результат не подає нову інформацію;
в) H(A) = Hmax при p1 = p2 = ... = pn = 1 / n,
при цьому
H(A)= – log2 (1/k)= log2 k ;
г) ентропія системи, що складає з двох підсистем А и В (стану системи утворяться спільною реалізацією об'єктів А и В), тобто :
Н(АВ) = Н(А) + Н(У).
Якщо події рівноімовірні і статистично незалежні, то оцінки кількості інформації, по Хартлі і Шеннону, збігаються. Це свідчить про повне використання інформаційної ємності системи. У випадку нерівних імовірностей кількість інформації, по Шеннону, менше інформаційної ємності системи.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.