Белорусский государственный университет транспорта
Кафедра «Системы передачи информации»
ОТЧЁТ
ПО ПРАКТИЧЕСКОМУ ЗАНЯТИЮ №3
на тему:
РАСЧЁТ ЭНТРОПИЙНЫХ
ХАРАКТЕРИСТИК
СЛОЖНОГО СИГНАЛА
Вариант №2
| Выполнил: ст. гр. ЭМ-31 Яромёнок В.А. | Проверил: доцент Бурченков В.В. | 
Гомель – 2004
ПРАКТИЧЕСКОЕ ЗАНЯТИЕ №3
РАСЧЁТ
ЭНТРОПИЙНЫХ ХАРАКТЕРИСТИК
СЛОЖНОГО СИГНАЛА
Цель работы: Рассчитать характеристики энтропии сложного сигнала, полученного объединением двух сигналов X и Y.
Энтропия сложного сигнала, полученного объединением двух независимых
сигналов, равна сумме энтропий каждого из сигналов. Под объединением двух
сигналов X и Y с возможными состояниями  понимается сложный сигнал (X,Y), состояния которого
 понимается сложный сигнал (X,Y), состояния которого  представляет
собой все возможные  комбинации состояний сигналов X и Y. Число возможных состояний сложного сигнала (X,Y) равно
 представляет
собой все возможные  комбинации состояний сигналов X и Y. Число возможных состояний сложного сигнала (X,Y) равно  . Вероятность того, что сложный
сигнал будет находиться в состоянии
. Вероятность того, что сложный
сигнал будет находиться в состоянии  , в общем случае  равна
, в общем случае  равна  , где
, где  - вероятность
появления сигнала
 - вероятность
появления сигнала  ;
;  - условная вероятность того, что
сигнал Y будет находиться в
состоянии
- условная вероятность того, что
сигнал Y будет находиться в
состоянии  при
условии, что сигнал X принял состояние
 при
условии, что сигнал X принял состояние  .
.
Для
независимых сигналов  ;
;
 . Энтропия
объединенного  сигнала (X,Y)
находится по формуле
. Энтропия
объединенного  сигнала (X,Y)
находится по формуле
 (1)
                        (1)
С учетом того, что:
 ;
;
 ;
;
из (1) следует:
 .
.
Энтропия сложного сигнала, полученного объединением двух зависимых сигналов, равна сумме энтропий одного из сигналов и условной энтропии другого:
 , где
, где
 ;        (2)
;        (2)
 .
.
величина  называется условной энтропией
сигнала Y относительно сигнала X.
называется условной энтропией
сигнала Y относительно сигнала X.  - условная энтропия, это
количество информации, которое содержится в сигнале
 - условная энтропия, это
количество информации, которое содержится в сигнале  ,
появившемся после сигнала
,
появившемся после сигнала  .
.
Из (2) видно, что  равна математическому
ожиданию величины
 равна математическому
ожиданию величины  которая характеризует
энтропию сигнала Y при условии, что сигнал находится в
состоянии
 которая характеризует
энтропию сигнала Y при условии, что сигнал находится в
состоянии  .
.
Величина  называется частной
условной энтропией сигнала Y. Следовательно,
условная энтропия
 называется частной
условной энтропией сигнала Y. Следовательно,
условная энтропия  равна среднему значению частных
условных энтропий и характеризует среднюю неопределенность сигнала Y при известных состояниях сигнала X. Изложенное относится и к условной энтропии сигнала X относительно сигнала Y, т.е.
равна среднему значению частных
условных энтропий и характеризует среднюю неопределенность сигнала Y при известных состояниях сигнала X. Изложенное относится и к условной энтропии сигнала X относительно сигнала Y, т.е.  . Условная энтропия также является
неотрицательной величиной и изменяется в пределах
. Условная энтропия также является
неотрицательной величиной и изменяется в пределах  , при
этом нижняя граница соответствует случаю жесткой функциональной связи сигналов X и Y, а верхняя – случаю
статистически независимых сигналов.
, при
этом нижняя граница соответствует случаю жесткой функциональной связи сигналов X и Y, а верхняя – случаю
статистически независимых сигналов.
В данной работе будут использоваться следующие формулы:
- расчёт энтропии объединенного сигнала:
 ;
;
- расчет энтропии отдельных сигналов:
 ;
;
- расчет вероятности:

| Вариант | 
 | 
 | ||||
| 
 | 
 | 
 | 
 | 
 | ||
| 2 | 
 
 
 | 0,23 0.01 0.01 | 0.07 0.02 0.04 | 0.06 0.20 0.05 | 0.03 0.04 0.07 | 0.01 0.01 0.15 | 
Найдем энтропию
объединенного сигнала  :
:
 .
.
Подставляя числовые значения, получаем
 Найдем вероятности
Найдем вероятности  и
и  :
:
 
              
                




По полученным в результате расчета значениям характеристик энтропии сложного сигнала можно сделать вывод о том, что между сигналами X и Y нет жесткой функциональной связи, т.е. энтропия сложного сигнала не определяется энтропией одного из сигналов X или Y.
| 15.10.2004 | ____________ | 
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.