Лекция
Привет, Вы узнаете о том , что такое энтропия, Разберем основные их виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое энтропия, информация для систем с непрерывным множеством состояний , настоятельно рекомендую прочитать все из категории Теория информации и кодирования.
До сих пор мы рассматривали физические системы, различные состояния которых можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля величины . Такие системы аналогичны прерывным (дискретным) случайным величинам, принимающим значения с вероятностями . На практике часто встречаются физические системы другого типа, аналогичные непрерывным случайным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное состояние имеет вероятность, равную нулю, а распределение вероятностей характеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем называть «непрерывными», в отличие от ранее рассмотренных, которые мы будем называть «дискретными». Наиболее простой пример непрерывной системы - это система, состояние которой описывается одной непрерывной случайной величиной с плотностью распределения . В более сложных случаях состояние системы описывается несколькими случайными величинами с плотностью распределения . Тогда ее можно рассматривать как объединение простых систем .
Рассмотрим простую систему , определяемую одной непрерывной случайной величиной с плотностью распределения (рис. 18.7.1). Попытаемся распространить на эту систему введенное в 18.1 понятие энтропии.
Рис. 18.7.1.
Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину - рост наугад взятого человека - непрерывной случайной величиной, мы отвлекаемся от того, что фактически никто не измеряет рост точнее, чем до 1 см, и что различить между собой два значения роста, разнящиеся, скажем, на 1 мм, практически невозможно. Тем не менее, данную случайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те значения роста, которые различаются менее чем на 1 см.
Точно таким образом, установив предел точности измерений, т. е. некоторый отрезок , в пределах которого состояния системы практически неразличимы, можно приближенно свести непрерывную систему к дискретной. Это равносильно замене плавной кривой ступенчатой, типа гистограммы (рис. 18.7.2); при этом каждый участок (разряд) длины заменяется одной точкой-представителем.
Рис. 18.7.2.
Площади прямоугольников изображают вероятности попадания в соответствующие разряды: . Если условиться считать неразличимыми состояния системы, относящиеся к одному разряду, и объединить их все в одно состояние, то можно приближенно определить энтропию системы , рассматриваемой с точностью до :
. (18.7.1)
При достаточно малом :
,
и формула (18.7.1) принимает вид:
. (18.7.2)
Заметим, что в выражении (18.7.2) первый член получился совсем не зависящим от - степени точности определения состояний системы. Зависит от только второй член , который стремится к бесконечности при . Это и естественно, так как чем точнее мы хотим задать состояние системы , тем большую степень неопределенности мы должны устранить, и при неограниченном уменьшении эта неопределенность растет тоже неограниченно.
Итак, задаваясь произвольно малым «участком нечувствительности» наших измерительных приборов, с помощью которых определяется состояние физической системы , можно найти энтропию по формуле (18.7.2), в которой второй член неограниченно растет с уменьшением . Сама энтропия отличается от этого неограниченно растущего члена на независимую от величину
. (18.7.3)
Эту величину можно назвать «приведенной энтропией» непрерывной системы . Энтропия выражается через приведенную энтропию формулой
. (18.7.4)
Соотношение (18.7.4) можно истолковать следующим образом: от точности измерения зависит только начало отсчета, при котором вычисляется энтропия.
В дальнейшем для упрощения записи мы будем опускать индекс в обозначении энтропии и писать просто ; наличие в правой части всегда укажет, о какой точности идет речь.
Формуле (18.7.2) для энтропии можно придать более компактный вид, если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего перепишем (18.7.2) в виде
. (18.7.5)
Это есть не что иное, как математическое ожидание функции от случайной величины с плотностью :
. (18.7.6)
Аналогичную форму можно придать величине :
. (18.7.7)
Перейдем к определению условной энтропии. Об этом говорит сайт https://intellect.icu . Пусть имеются две непрерывные системы: и . В общем случае эти системы зависимы. Обозначим плотность распределения для состояний объединенной системы ; - плотность распределения системы ; - плотность распределения системы ; - условные плотности распределения.
Прежде всего определим частную условную энтропию , т. е. энтропию системы при условии, что система приняла определенное состояние . Формула для нее будет аналогична (18.4.2), только вместо условных вероятностей будут стоять условные законы распределения и появится слагаемое :
. (18.7.8)
Перейдем теперь к полной (средней) условной энтропии , для этого нужно осреднить частную условную энтропию по всем состояниям с учетом их вероятностей, характеризуемых плотностью :
(18.7.9)
или, учитывая, что
,
. (18.7.10)
Иначе эта формула может быть записана в виде
(18.7.11)
или
. (18.7.12)
Определив таким образом условную энтропию, покажем, как она применяется при определении энтропии объединенной системы.
Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем и будут и , то для объединенной системы роль их будет играть элементарный прямоугольник . Энтропия системы будет
. (18.7.13)
Так как
,
то и
. (18.7.14)
Подставим (18.7.14) в (18.7.13):
,
или, по формулам (18.7.6) и (18.7.12)
, (18.7.15)
т. е. теорема об энтропии сложной системы остается в силе и для непрерывных систем.
Если и независимы, то энтропия объединенной системы равна сумме энтропий составных частей:
. (18.7.16)
Пример 1. Найти энтропию непрерывной системы , все состояния которой на каком-то участке одинаково вероятны:
Решение.
;
или
. (18.7.17)
Пример 2. Найти энтропию системы , состояния которой распределены по нормальному закону:
.
Решение.
.
Но
,
и
. (18.7.18)
Пример 3. Состояние самолета характеризуется тремя случайными величинами: высотой , модулем скорости и углом , определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке ; скорость - по нормальному закону с м.о. и с.к.о. ; угол - с равномерной плотностью на участке . Величины независимы. Найти энтропию объединенной системы.
Решение.
Из примера 1 (формула (18.7.17)) имеем
,
где - «участок нечувствительности» при определении высоты.
Так как энтропия случайной величины не зависит от ее математического ожидания, то для определения энтропии величины воспользуемся формулой (18.7.18):
.
Энтропия величины :
.
Окончательно имеем:
или
. (18.7.19)
Заметим, что каждый из сомножителей под знаком фигурной скобки имеет один и тот же смысл: он показывает, сколько «участков нечувствительности» укладывается в некотором характерном для данной случайной величины отрезке. В случае распределения с равномерной плотностью этот участок представляет собой просто участок возможных значений случайной величины; в случае нормального распределения этот участок равен , где - среднее квадратическое отклонение.
Таким образом, мы распространили понятие энтропии на случай непрерывных систем. Аналогично может быть распространено и понятие информации. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпадает: при вычислении информации, как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связанные с непрерывными величинами, оказываются не зависящими от «участка нечувствительности» .
Выражение для полной взаимной информации, содержащейся в двух непрерывных системах и , будет аналогично выражению (18.5.4), но с заменой вероятностей законами распределения, а сумм - интегралами:
(18.7.20)
или, применяя знак математического ожидания,
. (18.7.21)
Полная взаимная информация как и в случае дискретных систем, есть неотрицательная величина, обращающаяся в нуль только тогда, когда системы и независимы.
Пример 4. На отрезке выбираются случайным образом, независимо друг от друга, две точки и , каждая из них распределена на этом отрезке с равномерной плотностью. В результате опыта одна из точек легла правее, другая - левее. Сколько информации о положении правой точки дает значение положения левой?
Решение. Рассмотрим две случайные точки и на оси абсцисс (рис. 18.7.3).
Рис. 18.7.3.
Обозначим абсциссу той из них, которая оказалась слева, а - абсциссу той, которая оказалась справа (на рис. 18.7.3 слева оказалась точка , но могло быть и наоборот). Величины и определяются через и следующим образом
; .
Найдем закон распределения системы . Так как , то он будет существовать только в области , заштрихованной на рис. 18.7.4.
Рис. 18.7.4.
Обозначим плотность распределения системы и найдем элемент вероятности , т. е. вероятность того, что случайная точка попадет в элементарный прямоугольник . Это событие может произойти двумя способами: либо слева окажется точка , а справа , либо наоборот. Следовательно,
,
где обозначена плотность распределения системы величин .
В данном случае
,
следовательно,
;
и
Найдем теперь законы распределения отдельных величин, входящих в систему:
при ;
аналогично
при .
Графики плотностей и изображены на рис. 18.7.5.
Рис 18.7.5.
Подставляя , и в формулу (18.7.20), получим
.
В силу симметрии задачи последние два интеграла равны, и
(дв. ед.).
Пример 5. Имеется случайная величина , распределенная по нормальному закону с параметрами , . Величина измеряется с ошибкой , тоже распределенной по нормальному закону с параметрами , . Ошибка не зависит от . В нашем распоряжении - результат измерения, т. е. случайная величина
Определить, сколько информации о величине содержит величина .
Решение. Воспользуемся для вычисления информации формулой (18.7.21), т. е. найдем ее как математическое ожидание случайной величины
. (18.7.22)
Для этого сначала преобразуем выражение
.
В нашем случае
,
(см. главу 9).
Выражение (18.7.22) равно:
.
Отсюда
. (18.7.23)
Ho , следовательно,
(18.7.24)
Подставляя (18.7.24) в (18.7.23), получим
(дв. ед.).
Например, при
(дв. ед.).
Если ; , то (дв. ед.).
Информация, изложенная в данной статье про энтропия , подчеркивают роль современных технологий в обеспечении масштабируемости и доступности. Надеюсь, что теперь ты понял что такое энтропия, информация для систем с непрерывным множеством состояний и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Теория информации и кодирования
Комментарии
Оставить комментарий
Теория информации и кодирования
Термины: Теория информации и кодирования