Белорусский государственный университет транспорта
Кафедра «Системы передачи информации»
ОТЧЁТ
ПО ПРАКТИЧЕСКОМУ ЗАНЯТИЮ №3
на тему:
РАСЧЁТ ЭНТРОПИЙНЫХ
ХАРАКТЕРИСТИК
СЛОЖНОГО СИГНАЛА
Вариант №2
Выполнил: ст. гр. ЭМ-31 Яромёнок В.А. |
Проверил: доцент Бурченков В.В. |
Гомель – 2004
ПРАКТИЧЕСКОЕ ЗАНЯТИЕ №3
РАСЧЁТ
ЭНТРОПИЙНЫХ ХАРАКТЕРИСТИК
СЛОЖНОГО СИГНАЛА
Цель работы: Рассчитать характеристики энтропии сложного сигнала, полученного объединением двух сигналов X и Y.
Энтропия сложного сигнала, полученного объединением двух независимых
сигналов, равна сумме энтропий каждого из сигналов. Под объединением двух
сигналов X и Y с возможными состояниями понимается сложный сигнал (X,Y), состояния которого
представляет
собой все возможные комбинации состояний сигналов X и Y. Число возможных состояний сложного сигнала (X,Y) равно
. Вероятность того, что сложный
сигнал будет находиться в состоянии
, в общем случае равна
, где
- вероятность
появления сигнала
;
- условная вероятность того, что
сигнал Y будет находиться в
состоянии
при
условии, что сигнал X принял состояние
.
Для
независимых сигналов ;
. Энтропия
объединенного сигнала (X,Y)
находится по формуле
(1)
С учетом того, что:
;
;
из (1) следует:
.
Энтропия сложного сигнала, полученного объединением двух зависимых сигналов, равна сумме энтропий одного из сигналов и условной энтропии другого:
, где
; (2)
.
величина называется условной энтропией
сигнала Y относительно сигнала X.
- условная энтропия, это
количество информации, которое содержится в сигнале
,
появившемся после сигнала
.
Из (2) видно, что равна математическому
ожиданию величины
которая характеризует
энтропию сигнала Y при условии, что сигнал находится в
состоянии
.
Величина называется частной
условной энтропией сигнала Y. Следовательно,
условная энтропия
равна среднему значению частных
условных энтропий и характеризует среднюю неопределенность сигнала Y при известных состояниях сигнала X. Изложенное относится и к условной энтропии сигнала X относительно сигнала Y, т.е.
. Условная энтропия также является
неотрицательной величиной и изменяется в пределах
, при
этом нижняя граница соответствует случаю жесткой функциональной связи сигналов X и Y, а верхняя – случаю
статистически независимых сигналов.
В данной работе будут использоваться следующие формулы:
- расчёт энтропии объединенного сигнала:
;
- расчет энтропии отдельных сигналов:
;
- расчет вероятности:
Вариант |
|
|
||||
|
|
|
|
|
||
2 |
|
0,23 0.01 0.01 |
0.07 0.02 0.04 |
0.06 0.20 0.05 |
0.03 0.04 0.07 |
0.01 0.01 0.15 |
Найдем энтропию
объединенного сигнала :
.
Подставляя числовые значения, получаем
Найдем вероятности
и
:
По полученным в результате расчета значениям характеристик энтропии сложного сигнала можно сделать вывод о том, что между сигналами X и Y нет жесткой функциональной связи, т.е. энтропия сложного сигнала не определяется энтропией одного из сигналов X или Y.
15.10.2004 |
____________ |
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.