Уважаемые коллеги! Предлагаем вам разработку программного обеспечения под ключ.
Опытные программисты сделают для вас мобильное приложение, нейронную сеть, систему искусственного интеллекта, SaaS-сервис, производственную систему, внедрят или разработают ERP/CRM, запустят стартап.
Сферы - промышленность, ритейл, производственные компании, стартапы, финансы и другие направления.
Языки программирования: Java, PHP, Ruby, C++, .NET, Python, Go, Kotlin, Swift, React Native, Flutter и многие другие.
Всегда на связи. Соблюдаем сроки. Предложим адекватную конкурентную цену.
Заходите к нам на сайт и пишите, с удовольствием вам во всем поможем.
Вопрос 1
Информация и энтропия. Единицы их измерения
Мера количества информации характеризует степень уменьшения неопределенности (энтропии) об источнике сообщения.
Хартли предложил логарифмическую меру количества информации.
I – количество информации, М – число возможных сообщений
Достоинства меры Хартли:
- количество информации пропорционально длине сообщения (числу букв)
- количество информации от нескольких независимых источников равно сумме информаций от каждого источника
- удобна математически, т.к. при логарифмировании многие операции упрощаются
Недостаток меры Хартли:
- не учитывает вероятности возможных сообщений
Чем меньше вероятность события, о котором говориться в сообщении, тем оно больше несет информации.
Шеннон предложил количество информации, которое несет одна буква
I – среднее количество информации
МО – математическое ожидание
Н – энтропия совокупности букв, у которых вероятность
Если при получении сообщения неопределенность ликвидируется полностью, то I=H.
Если ликвидируется не полностью, то
Н – энтропия источника до получения сообщения
- после
Основание логарифма определяет единицу информации:
- троичная единица информации
- десятичная (мера Хартли)
ln – натуральная (нат)
Вопрос 2
Основные свойства энтропии дискретных сообщений.
,
при
Таким образом, максимальное значение энтропии равно логарифму возможных букв ().
Мера Хартли является правильной ( совпадает с мерой Шеннона) когда сообщения равновероятны.
X, Y – независимые источники (статистически)
Пусть источник:
,
Найдем энтропию этих двух источников.
- источник из 2 – х источников.
Тогда имеем:
:
Пример статистически зависимых источников: рост и вес человека.
,
Далее находим энтропию двух источников и
; - частная условная энтропия
; - условная энтропия
;
Значит источники статистически независимы.
6.
, т.к.
Вопрос 3
Оптимальное кодирование источника. Код Шеннона-Фано. Кодовое дерево.
Кодирование при котором скорость передачи информации приближается к пропускной способности называется оптимальным, статистическим или эффективным.
Для оптимального кода нужно:
1. Чтобы буквы большей вероятности кодировались кодовыми комбинациями. В этом случае средняя длина кодовой комбинации будет минимальной.
2. Оптимальный код не требует разделительных знаков.
3. Вероятности 0 и 1 на выходе кодера должны быть примерно равны.
1. Располагаем буквы в порядке убывания их вероятности.
2. Все буквы делим на 2 группы с соблюдением примерного равенства суммарной вероятности этих групп
3. Буквам верхней группы присваиваем знак 0, а нижней 1.
4. Каждую группу разбиваем на 2 подгруппы с соблюдением примерно такого же равенства суммарной вероятности.
5. Буквам верхней подгруппы-0, нижней-1
6. Повторим 4 и 5, пока в каждой подгруппе не останется по 1 букве.
Вычислим среднюю длину кК:
nср= МО{ni}=(xi)ni=
Вычислим энтропию источника сообщения:
R=C, т.к. один бит информации кодируется одном знаком.
Чтобы код не требовал разделенных знаков, никакая его кодовая комбинация не должна быть началом другой.
Строение кода удобно изобразить в виде кодового дерева
Правило построения кодового дерева: из каждого узла, как правило, исходное число ветвей, равное основанию кода. Шаг вправо – 0, влево – 1. Длина ветвей не имеет значения. Используемые кК обозначают кружочками. Дерево строят начиная с вершины.
Код не требует раздельных знаков, если на концах ветвей кодовые комбинации.
0,1,2
Вопрос 4
Пропускная способность дискретного канала с помехами
Канал называют дискретным, если его входные и выходные сигналы дискретны. Свойства канала определены, если заданы.
1) Алфавиты входных и выходных сигналов.
Входные сигналы: S1, S2, …Si, …, Sm;
Выходные сигналы: S1*, S2*, …, Si*,…Sm*
В общем случае m=m*
Существует стирающий канал, в котором m*= m+1. Это сигнал неопределённости.
Пример:
|
2)Техническая скорость передачи сигнала.
Где .
3)P (Sj*/ Si)- вероятность перехода.
Вероятность перехода удобно располагать в виде канальной матрицы:
Уважаемые коллеги! Предлагаем вам разработку программного обеспечения под ключ.
Опытные программисты сделают для вас мобильное приложение, нейронную сеть, систему искусственного интеллекта, SaaS-сервис, производственную систему, внедрят или разработают ERP/CRM, запустят стартап.
Сферы - промышленность, ритейл, производственные компании, стартапы, финансы и другие направления.
Языки программирования: Java, PHP, Ruby, C++, .NET, Python, Go, Kotlin, Swift, React Native, Flutter и многие другие.
Всегда на связи. Соблюдаем сроки. Предложим адекватную конкурентную цену.
Заходите к нам на сайт и пишите, с удовольствием вам во всем поможем.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.