Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

Энтропия непрерывного источника информации кратко

Лекция



Привет, Вы узнаете о том , что такое Энтропия непрерывного источника информации, Разберем основные их виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое Энтропия непрерывного источника информации , настоятельно рекомендую прочитать все из категории Теория сигналов и линейных систем.

Энтропия непрерывного источника информации должна быть бесконечна, т. к. неопределенность выбора из бесконечно большого числа возможных состояний бесконечно велика. (на самом деле это только некорректная математическая модель, так как реальные сигналы занимают ограниченный спектр частот, а значит, могут быть представлены дискретными значениями через некоторый шаг, определяемый теоремой Котельникова; кроме того реальные сигналы не могут быть измерены с бесконечной точностью, так как имеются шумы линии и ошибка измерения, а это значит, что по шкале динамического диапазона непрерывный сигнал тоже может быть представлен конечным числом различимых квантовых уровней - примечание К.А. Хайдарова)

Разобьем диапазон изменения непрерывной случайной величины U на конечное число n малых интервалов Du. При реализации значений u в интервале (un, un+Du) будем считать, что реализовалось значение un дискретной случайной величины U', вероятность реализации которой:

p(un<u<un+Du) =Энтропия непрерывного источника информацииp(u) du » p(un) Du.

Энтропия дискретной величины U':

H(U') = -Энтропия непрерывного источника информацииp(un) Du log (p(un) Du).

Заменяем log (p(un) Du) = log p(un)+log Du, принимаем во внимание, что сумма p(un)Du по всем возможным значениям un равна 1, и получаем:

H(U') = -Энтропия непрерывного источника информацииp(un) Du log p(un) – log Du. Об этом говорит сайт https://intellect.icu . (1.4.4)

В пределе, при Du ® 0, получаем выражение энтропии для непрерывного источника:

H(U) = -Энтропия непрерывного источника информацииp(u) log p(u) du –Энтропия непрерывного источника информации. (1.4.5)

Значение энтропии в (1.4.5), как и ожидалось, стремится к бесконечности за счет второго члена выражения. Для получения конечной характеристики информационных свойств непрерывных сигналов используют только первый член выражения (1.4.5), получивший название дифференциальной энтропии. Ее можно трактовать, как среднюю неопределенность выбора произвольной случайной величины по сравнению со средней неопределенностью выбора случайной величины U', имеющей равномерное распределение в диапазоне (0-1). Действительно, для такого распределения p(un) = 1/N, Du = 1/N, и при N ® Ґ из (1.4.4) следует:

H(U') = - (log N)/N - log Du ® -Энтропия непрерывного источника информации.

Соответственно, разность энтропий дает дифференциальную энтропию:

h(U) = H(U) – H(U') = -Энтропия непрерывного источника информацииp(u) log p(u) du. (1.4.6)

Дифференциальная энтропия не зависит от конкретных значений величины U:

h(U+a) = h(U), a = const,

но зависит от масштаба ее представления:

h(kU) = h(U) + log k.

Практика анализа и обработки сигналов обычно имеет дело с сигналами в определенном интервале [a, b] их значений, при этом максимальной дифференциальной энтропией обладает равномерное распределение значений сигналов:

h(U) = -Энтропия непрерывного источника информацииp(u) log p(u) du = log (b-a).

По мере сужения плотности распределения значение h(U) уменьшается, и в пределе при p(u) ® d(u-c), a<c<b стремится к нулю.

Исследование, описанное в статье про Энтропия непрерывного источника информации, подчеркивает ее значимость в современном мире. Надеюсь, что теперь ты понял что такое Энтропия непрерывного источника информации и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Теория сигналов и линейных систем

Из статьи мы узнали кратко, но содержательно про
создано: 2020-11-27
обновлено: 2021-03-13
4



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей

Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Теория сигналов и линейных систем

Термины: Теория сигналов и линейных систем