– . Свойство
аналогично предыдущему.
– . Это позволяет
интерпретировать энтропию как собственную информацию.
Итак,
– энтропия ансамбля представляет
собой максимальное количество информации, которое может содержаться в
относительно любого другого ансамбля
;
– для того, чтобы восстановить реализацию ансамбля в точности, необходимо передать в
среднем количество информации, равное его энтропии.
3.2. Информация в непрерывных сигналах
Обобщим
понятие энтропии и взаимной информации на ансамбли непрерывных сигналов. Пусть s – непрерывная случайная
величина с плотностью вероятности . Разобьем область
значений s на небольшие
интервалы длительностью
. Вероятность
того, что
равна
.
Энтропия дискретного ансамбля равна
. Если устремить
к нулю, то в пределе должна
получиться энтропия непрерывного сигнала
.
Второе слагаемое стремится к бесконечности и не зависит от распределения вероятности сигнала. Это означает, что энтропия (собственная информация) любой непрерывной случайной величины бесконечно велика.
Первое
слагаемое является конечным и полностью определяется плотностью вероятности.
Его называют дифференциальной энтропией и обозначают :
.
Дифференциальная энтропия в отличие от обычной энтропии не является мерой собственной информации. Информационный смысл имеет разность дифференциальных энтропий.
Определим
взаимную информацию между двумя непрерывными случайными величинами и
,
проводя рассуждения аналогичные предыдущим,
.
Таким
образом, взаимная информация между непрерывными величинами и
равна
разности дифференциальной энтропии
и условной
дифференциальной энтропии
. Как видно, форма
выражения для взаимной информации между непрерывными величинами совпадает с
формой аналогичного выражения для дискретных величин.
Найдем
дифференциальную энтропию гауссовской случайной величины с математическим
ожиданием и дисперсией
.
По определению
.
Первый
интеграл по условию нормировки равен 1, второй по определению – дисперсии . Поэтому
.
Таким образом, энтропия гауссовской случайной величины не зависит от математического ожидания и монотонно возрастает с увеличением дисперсии.
Особо следует отметить, что из всех непрерывных случайных величин с одинаковой дисперсией наибольшую дифференциальную энтропию имеет величина с нормальным распределением.
3.3. Пропускная способность дискретного канала связи
Рассмотрим
дискретный канал, через который в единицу времени передается символов из алфавита объемом
. При передаче каждого символа в
среднем по каналу проходит количества информации
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.