Если происходят 2 независимых события, то количество информации равно сумме информаций, которое несет каждое из этих событий.
Доказано, что количество информации будет некоторой функцией
![]()
![]()
X px 
Y py
Частные количества информации
Х – некоторое событие, которое может иметь L исходов. Вероятность каждого исхода: pi; (i – номер исхода)
![]()
Тогда количество информации, которое содержится в этом исходе:
![]()
L-значений частного количества информации. Так как процессы случайные, будем рассматривать среднее статическое количество информации.
Среднее количество информации (энтропия)
Энтропия есть математическое ожидание от всех частных количественных информаций.
![]()
Таким образом, энтропия
![]()
(среднее количество информации, которое несет в себе событие, имеющее L исходов).
Единицы количества информации

Пример:
![]()
Тогда

Пусть теперь L возможных исходов, вероятность исхода
![]()
![]()
Энтропия источника сообщения.
Пусть ИС имеет объем алфавита L=32=25 (без пробела и без буквы «ё»), n - длина сообщения (число буквенных символов), число букв может быть произвольным. Поэтому в определении энтропии от n надо избавиться. В дальнейшем не будем применять значение «буква» (будем говорить «символ»).
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.