Временные диаграммы
Рис2. Сигнал на выходе от источника.
Рис.3 Закодированный сигнал на выходе кодера.
Рис.4 Сигнал на выходе модулятора.
Рис.5 Сигнал в канале с шумом.
Рис.6 Сигнал на выходе демодулятора.
.
1.2.2 Кодирование источника.
Расположим алфавит в порядке убывания вероятности.
bi |
pi |
б |
0.11 |
к |
0.11 |
п |
0.098 |
н |
0.097 |
с |
0.096 |
д |
0.089 |
р |
0.078 |
и |
0.077 |
м |
0.064 |
о |
0.06 |
в |
0.049 |
ж |
0.036 |
а |
0.035 |
е |
0.001 |
Таблица3
Произведем кодирование с помощью кода Хаффмона.
Схема кодирования приведена в приложении 1
После кодирования получаем следующие значения
bi |
код |
μ i |
б |
011 |
3 |
к |
100 |
3 |
п |
110 |
3 |
н |
111 |
3 |
с |
0000 |
4 |
д |
0001 |
4 |
р |
0010 |
4 |
и |
0011 |
4 |
м |
0101 |
4 |
о |
1010 |
4 |
в |
1011 |
4 |
ж |
01000 |
5 |
а |
010010 |
6 |
е |
010011 |
6 |
Таблица 4
Так как появления символов не равновероятно, то для кодирования нужно использовать неравномерный код. Для таких кодов должно выполняться префиксное свойство.
Префиксное свой свойство – ни одна кодовая комбинация не является началом другого.
Как видно из таблицы 4. префиксное свойство выполняется. Следовательно кодирование символов произведено правильно.
С помощью полученных кодовых комбинаций закодируем фразу:
«Держи вора крепко»
«0001010011001001000001110111010001001001010000100100111101001010»
Энтропия- средние количество информации приходящиеся на один символ сообщений порождаемого данного источника.
Энтропия количества информации содержащееся в алфавите:
Энтропия алфавита:
Избыточность:
Среднее число двоичных символов:
Вероятность появления 1 и 0.
а) Появления 1
б) Появления 0
Скорость передачи информации без помех:
1.2.3. Расчет когерентного и не когерентного приема.
Ошибка 1-ого рода «0» → «1» → Р01 Р0
Рср=Р0Р01+Р1Р10
Ошибка 2- ого рода «1»→ «0» → Р10 Р1
где Р0 - Вероятность появления 0.
Р1 - Вероятность появления 1.
Р01 - Вероятность ошибки первого рода.
Р10 - Вероятность ошибки второго рода.
гдеω0(z) плотность вероятности ошибки первого рода:
Так как априорные вероятности не равны то помножаем ω0(z) на P0.
где ω1(z) плотность вероятности ошибки второго рода.
Так же помножаем ω1(z) на P1.
Построим графики зависимостиω0(z) и ω1(z) и найдем точку пересечения которая и будет являться идеальным порогом критерия идеального наблюдателя Zп.
Рисунок 7: Графики ω0(z) и ω1(z) при когерентном приеме.
Найдем скорость передачи информации с шумом при когерентном приеме:
Некогерентный прием.
где ω0н(z) плотность вероятности ошибки первого рода при некогерентном приеме.
где ω1н(z) плотность вероятности ошибки второго рода при некогерентном приеме.
Рисунок 8: Графики ω0(z) и ω1(z) при не когерентном приеме.
Найдем скорость передачи информации с шумом при некогерентном приеме:
Р01 |
Р10 |
Рср |
I/τ (бит/с) |
|
Когерентный прием |
0,014 |
0,015 |
0,015 |
|
Некогерентный прием |
0,043 |
0,077 |
0,058 |
Таблица 5: Данные расчетов при когерентном инее
когерентном приеме сигнала.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.