Лекция
Привет, Вы узнаете о том , что такое Количественная мера информации, Разберем основные их виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое Количественная мера информации , настоятельно рекомендую прочитать все из категории Теория сигналов и линейных систем.
Теория любого явления начинается с появления количественных взаимоотношений между объектами исследований, т.е. при установлении принципов измеряемости каких-либо свойств объектов. Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления. Количество информации Н (в битах), необходимое и достаточное для полного снятия неопределенности состояния объекта, который имеет N равновозможных состояний, измеряется как логарифм по основанию 2 из числа возможных состояний:
H = log 2 N. (1.4.1)
Соответственно, двоичный числовой информационный код одного из N возможных состояний объекта занимает Н двоичных разрядов.
Пример. Необходимо поднять груз на определенный этаж 16 -ти этажного здания (нумерация этажей 0-15, N = 16). Об этом говорит сайт https://intellect.icu . Сколько бит информации полностью определяют задание?
H = log2 N = log2 16 = 4.
Следовательно, 4 бита информации необходимы и достаточны для полного снятия неопределенности выбора. В этом можно убедиться применением логики исчисления с последовательным делением пополам интервалов состояний. Например, для 9-го этажа:
1. Выше 7-го этажа? Да = 1. 2. Выше 11-го этажа? Нет = 0.
3. Выше 9-го этажа? Нет = 0. 4. Выше 8-го этажа? Да = 1.
Итог: этаж номер 9 или 1001 в двоичном исчислении, четыре двоичных разряда.
Если в приведенном примере на этажах имеется по 4 квартиры с нумерацией на каждом этаже 0-3 (М=4), то при адресации груза в квартиру потребуется еще 2 бита информации. Такой же результат получим, если вместо независимой нумерации этажей и квартир на этажах (два источника неопределенности) мы будем иметь только сквозную нумерацию квартир (один обобщенный источник):
H = log 2 N + log 2 M = log 2 16 + log 2 4 = 6 є log 2 (N ґ M) = log 2 64 = 6,
т.е. количество информации отвечает требованию аддитивности: неопределенность объединенного источника равна сумме неопределенностей исходных источников, что соответствует интуитивному требованию к информации: она должна быть однозначной, а ее количество должно быть одним и тем же независимо от способа задания.
Основание логарифма не имеет принципиального значения и определяет только масштаб или единицу неопределенности. Так, если за единицу неопределенности принять три равновероятных состояния, то для определения, например, одной фальшивой золотой монеты (более легкой) из 27 внешне неотличимых монет потребуется только H = log 3 27 = 3, т.е. три взвешивания на равноплечных весах. Логику исчисления взвешиваний предлагается определить самостоятельно.
Двоичная мера информации получила общее признание в связи с простотой реализации информационной техники на элементах с двумя устойчивыми состояниями. В десятичном исчислении единицей информации является один десятичный разряд - ДИТ.
Исследование, описанное в статье про Количественная мера информации, подчеркивает ее значимость в современном мире. Надеюсь, что теперь ты понял что такое Количественная мера информации и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Теория сигналов и линейных систем
Из статьи мы узнали кратко, но содержательно про
Комментарии
Оставить комментарий
Теория сигналов и линейных систем
Термины: Теория сигналов и линейных систем