Курс лекций по дисциплине «Информационно-измерительные системы», страница 20

2.  Мера неопределенности источника связана с N. Считаем, что мера неопределенности пропорциональна N.

3.  Неопределенность источника снимается получения сообщения.

4.  Количество информации равно разности неопределенностей до передачи и после получения сообщения.

I = f(N) – 0 – разность неопределенностей.

I = f(N) = неопределенности.

Информация – это снятая неопределенность.

Свойства:

1)  свойство аддитивности I=

 


2)  N1= N1 N2 – свойство мультипликативности, где

N1 – число состояний , источник 1.

N2 – число состояний , источник 2.

ab – 4 комбинации               aa ab ba bb            22=4              N1

cd – 4 комбинации               cc cd dc dd            22=4              N2

abcd=216,

log2(N1N2) = log2N1+ log2N2

I = log2N – формулаХартли;

N = (0,1) = 2;

I = log22 = 1(бит)

I = R:  Бит = Бод

Источник Хартли рассматривал все события равновероятными.

N(0) = N(1);

P(0) = P(1) = ;

             ;

 – число возможных состояний;

Например: mi = 2; ni = 2; Ni = 4         0 0                1 0