Система имеющая пять состояний
|
x1 |
x2 |
x3 |
x4 |
x5 |
||
p1 |
0.01 |
0.01 |
0.01 |
0.01 |
0.96 |
Иногда энтропию определяют через математическое ожидание
H(x) = M[-log2 p(x)] – это позволяет упростить математические выкладки.
Пример: Алфавит состоит из букв a, b, c, d. Даны вероятности pa = pb = 0,25; рс = 0,34; pd = 0.16
H(x) = - (2*0.25 log 0.25 + 0.34 log 0.34 + 0.16 log 0.16) = 1.952 бит/символ
Под объединением двух систем X и Y с возможными состояниями x1,x2,…,xn , y1, y2,…,ym , понимается сложная система (x, y), состояние которых xi,yi; представляют собой все возможные комбинации состояний xi,yi .
Число возможных состояний равно m х n.
Обозначим символом pi,j , вероятность того, что система может находиться в состоянии p(xi,yi). Тогда вероятность pij можно представить в виде таблицы совместных вероятностей.
|
x1 |
x2 |
… |
xn |
||
y1 |
p11 |
p21 |
… |
pn1 |
||
y2 |
p12 |
p22 |
pn2 |
|||
… |
… |
… |
… |
… |
||
ym |
p1m |
p2m |
… |
pnm |
; ; H(x, y) = M[- log p(x, y)].
Пусть системы X, Y независимы. Тогда по теореме умножения вероятностей имеем:
p(x, y) = p(x) * p(y)
Прологарифмируем левую и правую часть
log p(x, y) = log p(x) + log p(y)
H(x, y) = M[- log p(x) – log p(y)]
H(x, y) = H(x) + H(y), если независимые системы, то их энтропии складываются.
Пусть имеем две зависимые системы X и Y. Пусть система X приняла состояние xi, а система Y приняла состояние yi , тогда обозначим p(yi / xi) – это условная вероятность того, что система Y примет состояние yi, при условии, что система X приняла состояние xi.
Неопределённость системы в состоянии Y определяется частной условной энтропией.
- система X находится в конкретном состоянии
; - условное математическое ожидание
Для определения полной условной энтропии, каждая частная условная энтропия умножается на вероятность соответствующего состояния и все произведения складываются.
pi = p(xi) – вероятность наступления события xi
;
pi * p(yj / xi) = pij
Тогда
; H(Y / x) = M[ - log P(y / x)]
В целом полная условная энтропия характеризует степень неопределённости состояния системы Y, оставшуюся после того, как состояние системы X полностью определилось.
Пример: Имеются две системы, объединённые в одну, вероятности состояния которых заданы таблицей совместных вероятностей. Определить полную условную энтропию.
|
xi & yi |
x1 |
x2 |
x3 |
rj |
y1 |
0.1 |
0.2 |
0 |
0.3 |
y2 |
0 |
0.3 |
0 |
0.3 |
y3 |
0 |
0.2 |
0.2 |
0.4 |
pi |
0.1 |
0.7 |
0.2 |
Построить таблицу условных вероятностей p(y / x). в каждой строке
yi& xj |
x1 |
x2 |
x3 |
y1 |
1 |
0.2/0.7 |
0 |
y2 |
0 |
0.3/0.7 |
0 |
y3 |
0 |
0.2/0.7 |
1 |
бит/символ
Составим таблицу условных вероятностей P(x / y).
xi& yi |
x1 |
x2 |
x3 |
y1 |
0.1/0.3 |
0.2/0.3 |
0 |
y2 |
0 |
1 |
0 |
y3 |
0 |
0.2/0.4 |
0.2/0.4 |
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.