Временные диаграммы

Рис2. Сигнал на выходе от источника.

Рис.3 Закодированный сигнал на выходе кодера.

Рис.4 Сигнал на выходе модулятора.

Рис.5 Сигнал в канале с шумом.

Рис.6 Сигнал на выходе демодулятора.
.
1.2.2 Кодирование источника.
Расположим алфавит в порядке убывания вероятности.
| bi | pi | 
| б | 0.11 | 
| к | 0.11 | 
| п | 0.098 | 
| н | 0.097 | 
| с | 0.096 | 
| д | 0.089 | 
| р | 0.078 | 
| и | 0.077 | 
| м | 0.064 | 
| о | 0.06 | 
| в | 0.049 | 
| ж | 0.036 | 
| а | 0.035 | 
| е | 0.001 | 
  
Таблица3
Произведем кодирование с помощью кода Хаффмона.
Схема кодирования приведена в приложении 1
После кодирования получаем следующие значения
| bi | код | μ i | 
| б | 011 | 3 | 
| к | 100 | 3 | 
| п | 110 | 3 | 
| н | 111 | 3 | 
| с | 0000 | 4 | 
| д | 0001 | 4 | 
| р | 0010 | 4 | 
| и | 0011 | 4 | 
| м | 0101 | 4 | 
| о | 1010 | 4 | 
| в | 1011 | 4 | 
| ж | 01000 | 5 | 
| а | 010010 | 6 | 
| е | 010011 | 6 | 
Таблица 4
Так как появления символов не равновероятно, то для кодирования нужно использовать неравномерный код. Для таких кодов должно выполняться префиксное свойство.
Префиксное свой свойство – ни одна кодовая комбинация не является началом другого.
Как видно из таблицы 4. префиксное свойство выполняется. Следовательно кодирование символов произведено правильно.
С помощью полученных кодовых комбинаций закодируем фразу:
«Держи вора крепко»
«0001010011001001000001110111010001001001010000100100111101001010»
Энтропия- средние количество информации приходящиеся на один символ сообщений порождаемого данного источника.
Энтропия количества информации содержащееся в алфавите:

Энтропия алфавита:



Избыточность:

Среднее число двоичных символов:



Вероятность появления 1 и 0.
а) Появления 1



б) Появления 0



Скорость передачи информации без помех:
 
           
        
1.2.3. Расчет когерентного и не когерентного приема.
Ошибка 1-ого рода «0» → «1» → Р01 Р0
Рср=Р0Р01+Р1Р10
Ошибка 2- ого рода «1»→ «0» → Р10 Р1
где Р0 - Вероятность появления 0.
Р1 - Вероятность появления 1.
Р01 - Вероятность ошибки первого рода.
Р10 - Вероятность ошибки второго рода.

 гдеω0(z) плотность
вероятности ошибки первого рода:
 гдеω0(z) плотность
вероятности ошибки первого рода:

Так как априорные вероятности не равны то помножаем ω0(z) на P0.

 где  ω1(z)  плотность
вероятности ошибки второго рода.
      где  ω1(z)  плотность
вероятности ошибки второго рода. 

Так же помножаем ω1(z) на P1.

Построим графики зависимостиω0(z) и ω1(z) и найдем точку пересечения которая и будет являться идеальным порогом критерия идеального наблюдателя Zп.

Рисунок 7: Графики ω0(z) и ω1(z) при когерентном приеме.


 
            
 
            
 

 
                                    
Найдем скорость передачи информации с шумом при когерентном приеме:




Некогерентный прием.

 где  ω0н(z)
плотность вероятности ошибки первого рода при некогерентном приеме.
  где  ω0н(z)
плотность вероятности ошибки первого рода при некогерентном приеме.

 где ω1н(z)  плотность
вероятности ошибки второго рода при некогерентном приеме.
 где ω1н(z)  плотность
вероятности ошибки второго рода при некогерентном приеме.

        
Рисунок 8: Графики ω0(z) и ω1(z) при не когерентном приеме.
                 





Найдем скорость передачи информации с шумом при некогерентном приеме:




| Р01 | Р10 | Рср | I/τ (бит/с) | |
| Когерентный прием | 0,014 | 0,015 | 0,015 | 
 | 
| Некогерентный прием | 0,043 | 0,077 | 0,058 | 
 | 
Таблица 5: Данные расчетов при когерентном инее
когерентном приеме сигнала.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.