Система связи. Назначение и виды кодирования, страница 4

Предложим обозначать алфавит, как:

                   

n – вероятность появления буквы (если бы они были равновероятны).

Энтропия – это среднее количество информации, передаваемое 1ой буквой алфавита.

 , H – энтропия

Свойства энтропии.

1. Энтропия величина положительная, действительная и ограниченная.

    Доказательство:  

                                 

                                   - MAX

                               

2. Энтропия бинарного сообщения максимальна, когда p=0,5

   

3. Энтропия дискретного   алфавита максимальна для равновероятного сообщения.

    Из свойства следует, что мера Хартли даёт завышенное количество информации.

4. Энтропия нескольких независимых источников  равна сумме их энтропий.

  

 - пропускная способность  

 - характеризует утечку информации в КС. 

 - имеет место наличие притока ложной информации 

Эти два процесса идут одновременно, и они взаимосвязаны, нельзя изменять один процесс, не затрагивая другой.

    

Информационные характеристики для непрерывных сообщений.

При оценке информационных процессов при передаче информационных сообщений существует 2а подхода:

-учитывая связь непрерывных и дискретных сообщений по Т. Котельникова, можно преобразовать из непрерывного в дискретный  и наоборот.

-вводится специальная информационная характеристика для оценки непрерывного сообщения - дифференциальная энтропия: произв. оценка всех информационных характеристик и каналов.

Сама характеристика дифференциальной энтропии получается путём предельного перехода из дискретной энтропии в дифференциальную.

Оценка количества информации передаваемой непрерывным сообщением по 1му способу:

                  

F – ширина спектра и пусть в канале действует аддитивная помеха.

Будем использовать меру Хартли  

Осуществим квантование по Т. Котельникова с шагом  u

- иначе, нет смысла в квантовании.

       

т. е.    - объём сигнала