(по столбцам) образ-т правильный приём
полную группу событий
Вероятности, стоящие на главной диагонали выражают правильный приём. Вероятности, которые стоят по столбцам, образуют полную группу событий.
Пример: Влияние помех в канале связи описывается канальной матрицей. Требуется вычислить потери при передачи сигналов, если вероятность появления сигналов следующая:
p(x1) = 0.7 p(x2) = 0.2 p(x3) = 0.1
H(y / x) = -[0.7 * (0.98 log 0.98 + 2*0.01 log 0.01) + 0.2 * (0.15 log 0.15 + 0.75 log 0.75 + 0.1 log 0.1) + 0.1 * (0.3 log 0.3 + 0.2 log 0.2 + 0.5 log 0.5)] = 0.463 бит/символ .
Пусть имеется система X с энтропией H(x). После получении информации о состоянии системы; система полностью определилась, т.е энтропия равна нулю, следовательно, информация, получаемая в результате выяснения состояния системы x равна уменьшению энтропии.
Ix = H(x) – 0 = H(x)
Количество информации приобретённое при полном выяснении состояния системы равна энтропии.
- часть информации о системе
- называют частной информацией о системе или информацией от отдельного сообщения.
Для системы с равновозможными состояниями
Полная информация
Пример: На шахматной доске в одной из клеток поставлена фигура. Вероятность нахождения фигуры на любой клетке одинакова. Определить информацию, получаемую от сообщения о нахождении фигуры в какой-либо клетке.
Ix = log 64 = 6 бит
Пример 2: Определить частную информацию от сообщения о нахождении фигуры в одной из четырёх клеток.
P = ; - вероятность сообщения = 4 бит
Пример 3: Определить частную информацию, содержащаяся в сообщении случайного лица о своём дне рожденье.
- вероятность полученного сообщения; бит – количество информации
Пример 4: Определить полную информацию от сообщения о дне рождения случайного лица.
x1 – день рожденье
x2 – не день рожденье
бит
Пример 5: По цели может быть произведено n выстрелов. Вероятность поражения цели при каждом выстреле p. После k-ого выстрела (1£ к á n) производятся разведка, сообщение поражена или не поражена цель. Определить к при условии, чтобы количество информации, доставляемая разведкой была максимальной.
xk – система (цель после к-ого выстрела) имеет два состояния:
x1 – цель поражена;
x2 – промах
p1 = 1 – (1 - p)k p2 = (1 - p)k
Информация будет максимальна, когда p1 = p2, следовательно
1 – (1 - p)k = (1 - p)k , k =
p = 0.2; к = 3
Имеется две системы: X и Y. Они взаимосвязаны. Необходимо определить, какое количество информации по системе X даст наблюдение за системой Y. Такую информацию определяют, как уменьшение энтропии системы X в результате получения сведений о системе Y.
Iy®x = H(x) – H(x / y)
Iy®x = Ix®y = Ix«y
1) Если системы X и Y независимы, то
2) Система полностью зависимы
H(x / y) = H(y / x) = 0 Iy®x = H(x) = H(y)
Выражения для взаимной информации можно получить через взаимную энтропию
H(x / y) = H(x, y) – H(y) Iy®x = H(x) + H(y) – H(x, y)
Формула для расчёта взаимной информации
H(x) = M[ - log p(x)], H(y) = M[ - log p(y)] H(x, y) = M[ - log p(x, y)]
Iy®x = M[ - log p(x) – log p(y) + log p(x, y)]
|
xi & yi |
x1 |
x2 |
x3 |
rj |
y1 |
0.1 |
0.2 |
0 |
0.3 |
y2 |
0 |
0.3 |
0 |
0.3 |
y3 |
0 |
0.2 |
0.2 |
0.4 |
pi |
0.1 |
0.7 |
0.2 |
|
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.