Количество и качество информации.

Понятие количества информации.

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

Пример: Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность, и неопределенность исчезает (становится равной нулю).

Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit — сокращенное от binary digit— двоичная единица). Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.

В качестве других моделей получения такого же количества информации могут выступать электрическая лампочка, двухпозиционный выключатель, магнитный сердечник, диод и т. п. Включенное состояние этих объектов обычно обозначают цифрой 1, а выключенное — цифрой 0. Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:

Лампа А
0
0
1
1
Лампа В
0
1
0
1

Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» — по лампочке А и лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы — 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т. д.

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i=log2N,

где i— количество информации в битах;
N — число возможных состояний.

Ту же формулу можно представить иначе:

N=2^i.

Группа из 8 битов информации называется байтом. Если бит — минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (кбайт, кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб).
1 кб = 1024 байта = 210 (1024) байтов.
1 Мб = 1024 кбайта = 220 (1024 х 1024) байтов.
1 Гб = 1024 Мбайта = 230 (1024 х 1024 х 1024) байтов.
Эти единицы чаще всего используют для указания объема памяти ЭВМ.

Качество информации

Потребительские показатели качества информации:
- репрезентативность, содержательность, достаточность
- актуальность, своевременность, точность
- достоверность, устойчивость

Репрезентативность связана с адекватным отраженияем свойств объекта. Важнейшее значение здесь имеют:
- правильность концепции , на базе которой сформулировано исходное понятие;
- обоснованность отбора существенных признаков и связей отобра-жаемого явления.

Содержательность отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е. С= Ic / Vд. С увеличением содержательности информации растет семантическая пропускная способность информационной системы (для получения одних и тех же сведений требуется преобразовать меньший объем данных).

Достаточность (полнота) означает , что она содержит минимальный , но достаточный для принятия правильного решения состав (набор показа-телей).Понятие полноты информации связано с ее смысловым содержани-ем (семантикой) и прагматикой. Как неполная ,т.е. недостаточная для при-нятия правильного решения, так и избыточная информация снижает эффективность принимаемых пользователем решений.

Доступность восприятию обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например , в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме (в частности, и путем согласования ее семантической формы с тезаурусом пользователя).

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования, зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже зара-нее назначенного момента времени , согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта , процесса , явления и т.п. Для информации ,отображаемой цифровым кодом , известны четыре классификационных понятия точности:

- формальная точность , измеряемая значением единицы младшего разряда числа;
- реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется;
- максимальная точность, которую можно получить в конкретных условиях функционирования системы;
- необходимая точность, определяемая функциональным назначением показателя.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью .Измеряется достоверность информации доверительной вероятностью необходимой точности, т.е. вероятностью того , что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации , как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.

Репрезентативность, содержательность, достаточность, доступность, устойчивость определяются на методическом уровне разработки информа-ционных систем.
Актуальность , своевременность , точность и достоверность обуславливаются на методическом уровне , однако на их величину существенно влияет и характер функционирования системы (надежность).
Параметры актуальности и точности жестко связаны соотве-тственно с параметрами своевременности и достоверности.