Основы теории информации: сущность, основные понятия и свойства. Способы измерения информации в информационных системах

Страницы работы

27 страниц (Word-файл)

Содержание работы

Лекция 1.

Цель лекции – изучить основы теории информации

Задачи лекции:

- изучить основные свойства информации, способы организации сигналов и сообщений,

- изучить способы измерения количества информации в ИВС.

Вопросы, рассматриваемые на лекции:

1. Основы теории информации: сущность, основные понятия и свойства.

2. Способы измерения информации в информационных системах.

Основные понятия

Информацией в математической теории называется упорядоченная количественно оцениваемая совокупность материально энергетических проявлений окружающего мира, способная быть объектом хранения, преобразования и передачи. Данное определение приближает ее к материальным объектам. Однако, при распространении ее количество не уменьшается на передающей стороне, в принимающей обычно увеличивается.

Информация является свойством материи и не может существовать отдельно, без своего материального носителя.

Материальный носитель - средство переноса информации в пространстве и времени.

При отображении на носителе информация кодируется, т.е. ей ставится в соответствии форма, цвет, структура и другие параметры элементов носителя.[1].

Кодирование информации – это ее представление в виде последовательности знаков (символов) определенного алфавита.

«Алфавит» - счетное множество дискретных элементов, используемых для формирования дискретных сообщений. Элементы этого алфавита называются «буквами».

Число «букв» в «алфавите» называется «объемом «алфавита».

Знаки (символы) являются статическими носителями информации (буквы, цифры, условные обозначения и т.д.).

Упорядоченная последовательность символов называется сообщением.

Правило, по которому производится сопоставление символов данного алфавита с сигналами, используемыми для передачи сообщений, или же с символами другого алфавита, называется правилом кодирования (кодом), а сам процесс такого сопоставления называется кодированием. Процесс, обратный произведенному кодированию, называется декодированием.

Информация является объектом науки информатики.

Информатика – это наука, изучающая свойства, структуру и функции информационных систем, основу их проектирования, создания, использования и оценки, а также информационные процессы в них.

Информационные системы – системы, организующие хранение и преобразование информации.

Подавляющее большинство современных информационно-вычислительных систем являются «цифровыми»,то есть используют операции под двоичными дискретными сигналами.

В дискретных моделях информационных систем минимальные неделимые элементы информации называются квантами (например, символы «ø» и «1» и соответствующие им символы).

Свойства информации

В системах управления информация является и предметом и продуктом труда, поэтому от ее качества существенно зависит эффективность и качество функционирования системы управления.

Качество информации – это совокупность свойств, обуславливающих возможность ее использования для удовлетворения определенных (в соответствии с ее назначением) потребностей.

1) Репрезентативность – это правильность, качественная адекватность отражения свойств объекта.

2) Содержательность – удельная семантическая емкость информации S, равная отношению количества семантической информации в сообщении Iс к объему данных его отображающих Vд:

3) Информативность – это отношение количества синтаксической информации к объему данных:

В правильно организованных системах управления Iс=I => S=Y.

4) Достаточность (полнота) информации – информация содержит минимальное, но достаточное для принятия управленческого решения количество каких-либо данных (показателей).

5) Доступность – обеспечивается выполнением соответствие процедур получения и преобразования.

6) Актуальность – свойство сохранять свою полезность во времени.

7) Своевременность – обеспечивает возможность ее использования в заданный момент времени.

8) Точность – степень близости отображаемого информацией значения и истинного значения данного параметра.

9) Достоверность – это свойство информации отображать реально существующие объекты с необходимой точностью измерения.

Достоверность данных – безошибочность данных, измеряемая вероятностью появления ошибок в них.

10) Устойчивость – свойство результатной информации реагировать на изменение исходных данных.

11) Ценность информации – комплексный показатель качества информации на прагматическом уровне, т.е. для принятия управленческих решений.

Способы измерения информации в информационных системах

1) Синтаксические меры информации. - объем данных в сообщении измеряется количеством символов (разрядов) принятого алфавита. Информация кодируется числовыми кодами. В различных системах счисления один разряд имеет различный вес, следовательно, меняется единица измерения данных.

В двоичной – бит, а в десятичной – дит.

Пример:

101110112                   Vд=8 бит

27590310                     Vд=6 дит

1 байт = 8 бит

Определение количества информации на данном синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии).

Пусть до получения информации получатель имел некоторые предварительные (априорные) сведения о системе ; мера неосведомленности о системе  является для него мерой неопределенности состояния системы. После получения некоторого сообщения  получатель приобрел дополнительную информацию , уменьшившую его априорную неосведомленность так, что апостериорная неопределенность состояния системы стала , т.е. количество информации:

,Т.е. энтропия  может рассматриваться как мера недостающей информации, т.е. как мера снятия неопределенности о состоянии системы.

По формуле Шеннона: .

 – вероятность того, что система находится в i-ом состоянии; N – число возможных кодовых комбинаций;, m – символы, используемые при кодировании;n – количество разрядов в сообщении. Т.е. , Информация рассматривается как мера вероятности появления соответствующего события (сообщения). С этой точки зрения, чем событие более вероятно, тем меньшее количество информации в сообщении о нем мы имеем, и наоборот.

Формула Хартли: J= aN=amn= nam. отображает количество информации в сообщении через логарифм числа N возможных сообщений («слов»). Согласно, принятым Р.Хартли допущениям все символы, рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных «слов»:

Следовательно, количество информации в любом из N равновероятных сообщений равно логарифму вероятности появления этого сообщения, взятому с обратным (отрицательным) знаком.

Степень информативности сообщения:.

2) Семантическая мера информации. Измерение смыслового содержания информации, т.е. ее количество на семантическом уровне. Признание получила тезаурусная мера, введенная Шнейдером Ю.М. Она связывает семантические свойства информации со способностью пользователя воспринимать поступившие сообщения.

Т.е. тезаурус – это сведения, которыми располагает система или пользователь.

Количество семантической информации = тезаурус пользователя – тезаурус поступившей информации:

Если Ic=0 и:

Похожие материалы

Информация о работе