Информация и энтропия. Единицы их измерения. Мера количества информации. Достоинства меры Хартли

Страницы работы

Уважаемые коллеги! Предлагаем вам разработку программного обеспечения под ключ.

Опытные программисты сделают для вас мобильное приложение, нейронную сеть, систему искусственного интеллекта, SaaS-сервис, производственную систему, внедрят или разработают ERP/CRM, запустят стартап.

Сферы - промышленность, ритейл, производственные компании, стартапы, финансы и другие направления.

Языки программирования: Java, PHP, Ruby, C++, .NET, Python, Go, Kotlin, Swift, React Native, Flutter и многие другие.

Всегда на связи. Соблюдаем сроки. Предложим адекватную конкурентную цену.

Заходите к нам на сайт и пишите, с удовольствием вам во всем поможем.

Содержание работы

Вопрос 1

Информация и энтропия. Единицы их измерения

Мера количества информации характеризует степень уменьшения неопределенности (энтропии) об источнике сообщения.

Хартли предложил логарифмическую меру количества информации.

I – количество информации, М – число возможных сообщений

Достоинства меры Хартли:

- количество информации пропорционально длине сообщения (числу букв)

- количество информации от нескольких независимых источников равно сумме информаций от каждого источника

- удобна математически, т.к. при логарифмировании многие операции упрощаются

Недостаток меры Хартли:

- не учитывает вероятности возможных сообщений

Чем меньше вероятность события, о котором говориться в сообщении, тем оно больше несет информации.

Шеннон предложил количество информации, которое несет одна буква

I – среднее количество информации

МО – математическое ожидание

Н – энтропия совокупности букв, у которых вероятность

Если при получении сообщения неопределенность ликвидируется полностью, то I=H.

Если ликвидируется не полностью, то

Н – энтропия источника до получения сообщения

 - после

Основание логарифма определяет единицу информации:

 - троичная единица информации

 - десятичная (мера Хартли)

ln – натуральная (нат)


Вопрос 2

Основные свойства энтропии дискретных сообщений.

  1. Энтропия – неотрицательная функция.

,

  1. Энтропия максимальна при равновероятных сообщениях.

 при 

Таким образом, максимальное значение энтропии равно логарифму возможных букв ().

Мера Хартли является правильной ( совпадает с мерой Шеннона) когда сообщения равновероятны.

  1. Энтропия независимых источников аддитивна.

X, Y – независимые источники (статистически)

Пусть источник:

Найдем энтропию этих двух источников.

 - источник из 2 – х источников.

Тогда имеем:

:

  1. Пусть источники и  - статистически зависимы.

Пример статистически зависимых источников: рост и вес человека.

,

Далее находим энтропию двух источников и

; - частная условная энтропия

; - условная энтропия

;


Значит источники статистически независимы.

6. 

, т.к.


Вопрос 3

Оптимальное кодирование источника. Код Шеннона-Фано. Кодовое дерево.

Кодирование при котором скорость передачи информации приближается к пропускной способности называется оптимальным, статистическим или эффективным.

Для оптимального кода нужно:

1.  Чтобы буквы большей вероятности кодировались кодовыми комбинациями. В этом случае средняя длина  кодовой комбинации будет минимальной.

2.  Оптимальный код не требует разделительных знаков.

3.  Вероятности 0 и 1 на выходе кодера должны быть примерно равны.

1.  Располагаем буквы в порядке убывания их вероятности.

2.  Все буквы делим на 2 группы с соблюдением примерного равенства суммарной вероятности этих групп

3.  Буквам верхней группы присваиваем знак 0, а нижней 1.

4.  Каждую группу разбиваем на 2 подгруппы с соблюдением примерно такого же равенства суммарной вероятности.

5.  Буквам верхней подгруппы-0, нижней-1

6.  Повторим 4 и 5, пока в каждой подгруппе не останется по 1 букве.

Вычислим среднюю длину кК:

nср= МО{ni}=(xi)ni=

Вычислим энтропию источника сообщения:

R=C, т.к. один бит  информации кодируется одном знаком.

Чтобы код не требовал разделенных знаков, никакая его кодовая комбинация не должна быть началом другой.

Строение кода удобно изобразить в виде кодового дерева

Правило построения кодового дерева:  из каждого узла, как правило, исходное число ветвей, равное основанию кода. Шаг вправо – 0, влево – 1. Длина ветвей не имеет значения. Используемые кК обозначают кружочками. Дерево строят начиная с вершины.

Код не требует раздельных знаков, если на концах ветвей кодовые комбинации.

0,1,2


Вопрос 4

Пропускная способность дискретного канала с помехами

Канал называют дискретным, если его входные и выходные сигналы дискретны. Свойства канала определены, если заданы.

1)  Алфавиты входных и выходных сигналов.

Входные сигналы: S1, S2, …Si, …, Sm;

Выходные сигналы: S1*, S2*, …, Si*,…Sm*

В общем случае m=m*

Существует стирающий канал, в котором m*= m+1. Это сигнал неопределённости.

Пример:

Безымянный.png

 
Если сигнал превышает порог Е2 в момент времени , то считается, что принимается «1», если не превышает, то принят «0».Однако существуют моменты, где опред. символы с низкой надёжностью. Поэтому применяют 2 порога. При попадении сигнала в промежуток между порогами, получается неопределённость (стирающий канал).

2)Техническая скорость передачи сигнала.

     Где .

3)P (Sj*/ Si)- вероятность перехода.

Вероятность перехода удобно располагать в виде канальной матрицы:

Похожие материалы

Информация о работе

Уважаемые коллеги! Предлагаем вам разработку программного обеспечения под ключ.

Опытные программисты сделают для вас мобильное приложение, нейронную сеть, систему искусственного интеллекта, SaaS-сервис, производственную систему, внедрят или разработают ERP/CRM, запустят стартап.

Сферы - промышленность, ритейл, производственные компании, стартапы, финансы и другие направления.

Языки программирования: Java, PHP, Ruby, C++, .NET, Python, Go, Kotlin, Swift, React Native, Flutter и многие другие.

Всегда на связи. Соблюдаем сроки. Предложим адекватную конкурентную цену.

Заходите к нам на сайт и пишите, с удовольствием вам во всем поможем.