Разработка системы связи для передачи дискретных сообщений (способ передачи – амплитудная телеграфия), страница 3

Если символы алфавита не равновероятны и независимы, то более вероятным символам ставятся в соответствие более короткие кодовые комбинации. Значит, для кодирования неоптимального источника нужно использовать неравномерный код. Для неравномерных кодов непременно должно выполняться префиксное условие: код должен быть неперекрываемым, т.е. никакая кодовая комбинация не является началом другой кодовой комбинации.

Производительность источника:  Н'(А) = Н(А)/τ               [Бит/с]

где τ-время выдачи одного символа

Скорость передачи информации:I’(А, В)xy = Ixy(А, В)/τ             [Бит/с],

где Ixy(А, В) - количество информации, переданной от источника к приёмнику

Пропускная способность канала: С = max I’xy(А,В)

 

Теорема Шеннона (для канала с помехами): Если производительность источника меньше пропускной способности канала, то существует процедура кодирование-декодирование, при которой вероятность ошибочного декодирования сколь угодно мала.

А ) Если Н'С, то для уменьшения вероятности появления ошибки кодовые комбинации нужно делать большими, но это влечет за собой задержку во времени.

Б ) В противном случае ошибка неизбежна.

4.2.1. Расчёты энтропии, избыточности источника для источника.

Энтропия – это среднее количество информации, приходящееся на один символ.

Энтропия источника:

Hmax(А) – максимальная энтропия источника,

Н(А) max =  -, но при условии равных вероятностей, а это необходимо для достижения максимума, формула сокращается до Hmax(А) = log214

Hmax(А) =3,808

Н(А) – энтропия источника,

Н(А)  =  - = -(0,121·(-3,047)+ 0,113·(-3,146)+0,107·(-3,146)+0,099·                  (-3,336)+0,097·(-3,366)+0,089·(-3,49)+0,085·(-3,556)+0,083·(-3,591)+0,077·                   (-3,699)+0,042·(-4,573)+0,041·(-4,608)+0,021·(-5,573)+0,014·(-6,158)+0,011·(-6,506))

Н(А)  =3,209 

c - избыточность источника,

c = (Hmax(А) – H(А)) / Hmax(А) = 0,157

4.2.2. Расчёты энтропии, избыточности кода,  вероятности двоичных символов, передаваемых по каналу, скорость передачи информации по каналу без помех (СПИ)

 μср - средняя длина кодовой комбинации,

μср=,

μср = 0,121·3+0,113·3+0,107·3+0,099·3+0,097·3+0,089·4+0,085·4+0,083·4+0,077·4+0,042· 5+0,041·5+0,021·5+0,014·6+0,011·6

μср  = 3,617

Вероятность символа ноль: p(0)=, где

νср=- среднее количество нулей,

Noi-количество нулей в i-ой кодовой строке,

P(xi)-вероятность символа xi, закодированного i-ой кодовой строкой

νср = 0,121·2+0,113·1+0,107·2+0,099·2+0,097·3+0,089·0+0,085·1+0,083·1+0,077·1+0,042· 2+0,041·3+0,021·3+0,014·2+0,011·3

νср = 1,634

p(0) = 1,634/3,617= 0,452

Вероятности p(0) и p(1) связаны соотношением: p(0)+ p(1)=1, откуда вероятность символа один:

p(1)=0,548

Энтропия для двоичного кода

Нк = -(0,452·log(0,452) + 0,548·log(0,548)) = 0,517992 + 0,475664 = 0,993656.

При передаче бинарного кода: Нк мах = μср bi=1 (исходя из условия равенства вероятностей сигналов)

Избыточность кода: χ к= (1-0,993656) / 1 = 0,006344288

Скорость передачи информации:I ' (А) = H (А) / τ· μср = 1,774398·106 бит/с.

 

 

 

 

 

 

 

5 Описание процесса принятия приемником решения при приеме сигнала.

На вход демодулятора поступает аддитивная смесь переданного    сигнала  и помехи, т.е. z(t)=S(t) + x(t)

В курсовой работе рассматривается канал с постоянными параметрами и аддитивной помехой, т.е. белый гауссовский шум.

Демодулятор в результате анализа принятой реализации смеси z(t) на интервале времени 0≤t≤τ устанавливает, какой из возможных сигналов S1(t) или S2(t) присутствует в наблюдаемом случайном процессе z(t), и принять решение о приеме символа 1 или 0. Для различения сигналов в приемнике необходимо устанавливать начало и конец интервала анализа каждой реализации z(t). Эта задача решается устройством синхронизации (позволяет определять начало и  окончание каждого элемента сигнала). В  данной работе предполагается, что     синхронизация идеальна, т.е. моменты   начала и  окончания  каждой посылки известны точно.

Гауссовский белый шум характеризуется нормальной плотностью распределения вероятности:

,

где m – мат. ожидание, s2 – дисперсия шума.

Введем гипотезы: Н0 – «сигнала нет», Н1 – «сигнал есть»