– . Свойство аналогично предыдущему.
– . Это позволяет интерпретировать энтропию как собственную информацию.
Итак,
– энтропия ансамбля представляет собой максимальное количество информации, которое может содержаться в относительно любого другого ансамбля ;
– для того, чтобы восстановить реализацию ансамбля в точности, необходимо передать в среднем количество информации, равное его энтропии.
3.2. Информация в непрерывных сигналах
Обобщим понятие энтропии и взаимной информации на ансамбли непрерывных сигналов. Пусть s – непрерывная случайная величина с плотностью вероятности . Разобьем область значений s на небольшие интервалы длительностью . Вероятность того, что равна . Энтропия дискретного ансамбля равна . Если устремить к нулю, то в пределе должна получиться энтропия непрерывного сигнала
.
Второе слагаемое стремится к бесконечности и не зависит от распределения вероятности сигнала. Это означает, что энтропия (собственная информация) любой непрерывной случайной величины бесконечно велика.
Первое слагаемое является конечным и полностью определяется плотностью вероятности. Его называют дифференциальной энтропией и обозначают :
.
Дифференциальная энтропия в отличие от обычной энтропии не является мерой собственной информации. Информационный смысл имеет разность дифференциальных энтропий.
Определим взаимную информацию между двумя непрерывными случайными величинами и , проводя рассуждения аналогичные предыдущим,
.
Таким образом, взаимная информация между непрерывными величинами и равна разности дифференциальной энтропии и условной дифференциальной энтропии . Как видно, форма выражения для взаимной информации между непрерывными величинами совпадает с формой аналогичного выражения для дискретных величин.
Найдем дифференциальную энтропию гауссовской случайной величины с математическим ожиданием и дисперсией . По определению
.
Первый интеграл по условию нормировки равен 1, второй по определению – дисперсии . Поэтому
.
Таким образом, энтропия гауссовской случайной величины не зависит от математического ожидания и монотонно возрастает с увеличением дисперсии.
Особо следует отметить, что из всех непрерывных случайных величин с одинаковой дисперсией наибольшую дифференциальную энтропию имеет величина с нормальным распределением.
3.3. Пропускная способность дискретного канала связи
Рассмотрим дискретный канал, через который в единицу времени передается символов из алфавита объемом . При передаче каждого символа в среднем по каналу проходит количества информации
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.