2. Мера неопределенности источника связана с N. Считаем, что мера неопределенности пропорциональна N.
3. Неопределенность источника снимается получения сообщения.
4. Количество информации равно разности неопределенностей до передачи и после получения сообщения.
I = f(N) – 0 – разность неопределенностей.
I = f(N) = неопределенности.
Информация – это снятая неопределенность.
Свойства:
1) свойство аддитивности I=
2) N1= N1 N2 – свойство мультипликативности, где
N1 – число состояний , источник 1.
N2 – число состояний , источник 2.
ab – 4 комбинации aa ab ba bb 22=4 N1
cd – 4 комбинации cc cd dc dd 22=4 N2
abcd=216,
log2(N1N2) = log2N1+ log2N2
I = log2N – формулаХартли;
N = (0,1) = 2;
I = log22 = 1(бит)
I = R: Бит = Бод
Источник Хартли рассматривал все события равновероятными.
N(0) = N(1);
P(0) = P(1) = ;
;
– число возможных состояний;
Например: mi = 2; ni = 2; Ni = 4 0 0 1 0
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.