1.6. Количество информации в сообщении. Энтропия.
Пропускная способность канала
Литература:
1. Теория электрической связи /Под ред. Д.Д. Кловского. - М.: Радио и связь, 1999. - С.25-27.
2. Теория передачи сигналов на ж.д. транспорте: Учеб. /Г.В. Горелов и др. - М.: Транспорт, 1999. - С. 128-135.
3. Верещака А.И., Олянюк П.В. Авиационное радиооборудование: Учеб. - М.: Транспорт, 1996. - С. 50-53.
Чтобы сравнивать между собой различные источники сообщений, каналы и другие элементы СПИ, необходимо ввести количественную меру информации, содержащейся в сообщениях и сигналах. Строгие методы такой оценки предложены в 1948 г. К. Шенноном, что послужило началом создания теории информации.
В общем случае сообщению можно поставить в соответствие вероятность того, что источник сформирует и пошлет именно это сообщение. Чем менее вероятно сообщение, тем большее количество информации оно несет.
Для количественной оценки информативности сообщений можно использовать любую монотонно убывающую функцию вероятности . Однако, выбирая указанную функцию, к ней предъявляют еще ряд требований:
а) количество информации должно быть аддитивной мерой, т.е. в двух независимых сообщениях количество информации определяется как сумма количеств информации в каждом из них;
б) количество информации в сообщении о достоверном событии равно 0;
в) количество информации не должно зависеть от качественного содержания сообщения (степени важности, возможных последствий его передачи, эмоциональной окраски и т.п.).
Таким образом, естественной мерой количества информации в сообщении может являться величина
.
Основание логарифма в формуле чаще всего выбирается равным 2. В этом случае количество информации выражается в двоичных единицах или битах (от англ. binary digit - «двоичная цифра»). Бит равен количеству информации, содержащемся в сообщении о событии, происходящем с вероятностью = 0,5 (о событии, которое равновероятно может или происходить или не происходить). Введение двоичных единиц вызвано тем, что в двоичных («цифровых») СПИ используются два символа - 0 и 1. В случае, если эти символы равновероятны = = 0,5, то каждый из них несет 1 бит информации.
Ситуации, когда формируемые сообщения (символы) равновероятны, на практике встречаются редко. Обычно вероятности появления различных сообщений неодинаковы. Для оценки количества информации в сообщениях, различающихся вероятностью появления, служит понятие математического ожидания количества информации в 1 сообщении, позволяющее определить среднее количество информации в сообщениях
. (1.6.1)
Пример
Пусть р(1) - вероятность передачи логической единицы, р(0) - вероятность передачи логического нуля.
.
1 |
|||
0,5 0 |
|||
0 0,5 |
1 |
||
Если р(1)=1 или р(0)=1, то сообщение не несет информации, т.к. оно заранее достоверно известно получателю.
Если сообщение состоит из последовательных независимых двоичных цифр («разрядов»), то количество информации в нем в раз больше ( бит).
Если источник передает последовательность зависимых между собой сообщений, то получение предшествующих сообщений может изменить вероятность последующего сообщения, а следовательно, и количество информации, содержащейся в нем
.
С понятием количества информации тесно связано и понятие энтропии. Энтропия - основная информационная характеристика источника сообщений. Она характеризует в среднем степень неожиданности сообщений источника, их разнообразие, и поэтому называется также мерой неопределенности сообщений.
, где и - значения энтропии до и после передачи сообщения.
Если помех и искажений сигналов в канале связи нет, то = 0.
Основные свойства энтропии:
- энтропия неотрицательна;
- энтропия аддитивна: если рассматривать последовательность сообщений (символов) как одно укрупненное, то энтропия источника таких укрупненных сообщений будет в раз больше энтропии исходного источника;
- значение энтропии ;
- если ансамбль содержит различных сообщений, то ( если все сообщения равновероятны).
В частном случае двоичного источника без памяти (=2, сообщения независимы) энтропия максимальна при р(1)=р(0)=0,5. При этом .
Если сообщения передаются не хаотически, то они передаются не равновероятно и зависимо. При этом энтропия уменьшается.
При =33 (33 буквы) бит/буква.
Для текстов художественной прозы бит/буква.
Для поэтических произведений (за счет ритма и рифмы) бит/буква.
Удельная энтропия - количество информации, в среднем переносимое одним символом.
.
Избыточность источника с алфавитом объемом сообщений
.
Она определяет, какая доля энтропии, максимально возможной для данного алфавита сообщений, не используется источником. Избыточность показывает, насколько можно сократить число символов в последовательности сообщений данного источника, если то же количество информации будет переноситься последовательностью равновероятных и независимых сообщений.
Скорость передачи информации
В дискретных СПИ скорость передачи измеряется числом символов, передаваемых в единицу времени. = 1 Бод.
Количество передаваемой информации принято измерять в битах. Максимальное количество информации, которое можно передать одним двоичным символом, равно 1 биту. При использовании не двоичных, а п-чных символов (например, 16-тиричных) максимальное количество информации, которое можно передать одним таким символом, равно . Поэтому источник может обеспечить максимальную скорость выдачи информации (максимальную производительность) бит/с, где - длительность 1 символа. При =2 и скорость передачи информации численно равна технической скорости .
При 2 возможен случай, когда .
Однако нередко . Это наблюдается, когда часть символов (т.н. «служебные») используются для синхронизации или для обнаружения и исправления ошибок.
Количество информации, переданной по каналу связи в условиях помех, меньше количества информации, поступающей на его вход, из-за разрушения части данных помехами.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.