Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

10.1 Информационные характеристики источников непрерывных сообщений.

Лекция



Привет, сегодня поговорим про информационные характеристики источников непрерывных сообщений , обещаю рассказать все что знаю. Для того чтобы лучше понимать что такое информационные характеристики источников непрерывных сообщений , настоятельно рекомендую прочитать все из категории Теория информации и кодирования.

Тема 7. информационные характеристики источников непрерывных сообщений . Источники с максимальной энтропией. Максимальная пропускная способность канала связи с помехами.

Лекция 10.

10.1 Информационные характеристики источников непрерывных сообщений.

 

Рассмотрим вопросы, связанные с информативностью и соответствующими характеристиками при передаче непрерывных сообщений (непрерывных функций времени), и выясним, какие особенности имеются в этом случае.

Основные информационные характеристики источников и каналов непрерывных сообщений определяются так же, как и для источников и каналов дискретных сообщений. Формулу для энтропии источника непрерывных сообщений получают путем предельного перехода из формулыдля энтропии дискретного источника.

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

Пусть одномерная плотность распределения вероятностей случайного стационарного процесса X(t) равняется W(x), тогда вероятность того, что X(t) будет находиться в интервале [xi, xi +∆x], равняется pi=W(xi)*∆x. Если сигнал квантован на L уровней, то энтропия источника непрерывных сообщений на один отсчет

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

В результате предельного перехода при ∆x→0получаем величину

 

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

 

которую называют дифференциальной энтропией источника непрерывных сообщений. Дифференциальной- потому что в ней участвует дифференциальный закон распределенияW(x).

Скорость передачи информации, пропускную способность и другие основные информационные характеристики источника сообщенийи канала передачи определяют через разницу дифференциальных энтропий.

Действительно, найдем, например, взаимную информацию между двумя непрерывными случайными процессами X(t) и Y(t) в произвольный момент времени t.

Считая, что

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

 

где W2(xi, yj) - совместимая плотность вероятности X и Y;

p(xi)=W1(xi)*∆x; p(yj)=W1(yj)*∆y ,

получаем выражение для взаимной информации между X и Y.

 

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

 

Применив для этого выражениясокращения, а после этого предельный переход, получаем

 

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

 

 

где h(X) и h(Y) - дифференциальные энтропии на отсчет случайных процессов X(t) и Y(t), а

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

-- условная дифференциальная энтропия отсчета Х(t) при известном отсчете Y(t).

И

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

- условная дифференциальная энтропия отсчета Y(t) при известном отсчете Х(t).

Таким образом, взаимная информация является конечной величиной. Об этом говорит сайт https://intellect.icu . Отметим, что дифференциальная энтропия не является абсолютной мерой собственной информации, она характеризует только ту часть энтропии непрерывного сообщения, которое определяется видом закона распределения вероятностей W(x). Найдем величину дифференциальной энтропии для конкретных законов распределений вероятностей.

 

10.2 Энтропия равномерного закона распределения.

 

Энтропия равномерного закона распределения. Для равномерного распределения W(x)=1/(b-a). По формуле для дифференциальной энтропии получаем

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

 

С увеличением интервала (b-a) значение h(X) также увеличивается.

 

10.3Энтропиягауссовогозаконараспределения.

Энтропия гауссового закона распределения. Найдем плотность вероятности стационарного случайного процесса X(t), с ограниченной средней мощностью, которая обеспечивает максимум h(X). другими словами, необходимо найти максимум функциив следующей постановке: задан целевой функционал:

<![if !vml]>

 
  10.1 Информационные характеристики источников непрерывных сообщений.

<![endif]>

 

<![if !vml]>

 
  10.1 Информационные характеристики источников непрерывных сообщений.

<![endif]>
и ограничения

 

Найти такую W(x), которая доставляет максимум энтропии h(X).

Решение этой задачи известно, и приводит к тому, что искомая плотность вероятности, удовлетворяющая условиям максимизации является гауссовой функцией

<![if !vml]>

 
  10.1 Информационные характеристики источников непрерывных сообщений.

<![endif]>

а максимальная энтропия

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

<![if !supportTextWrap]>
<![endif]>

 

Следовательно, среди всех источников случайного сигнала с ограниченной и одинаковой средней мощностью (дисперсией) наибольшей энтропией владеет источник с гауссовским распределением сигнала.

На практике мы всегда имеем дело с сигналами (сообщениями и помехами) конечной длины и конечной энергии. При этом если продолжительность сигнала Ts, а его ширина спектра ∆f, то без потери информации такое непрерывное сообшение может быть представлено N=Ts*2∆f независимыми отсчетами . Таким образом для гаусового распределенияэнтропия отрезка непрерывного сообщения длительностью Tsбудет равна

<![if !vml]>10.1 Информационные характеристики источников непрерывных сообщений.<![endif]>

 

10.3Контрольныевопросы.

1. Поясните относительность дифференциальной энтропии.

2. У какого закона распределения наибольшая энтропия при одинаковой дисперсии процесса?


Надеюсь, эта статья про информационные характеристики источников непрерывных сообщений , была вам полезна, счастья и удачи в ваших начинаниях! Надеюсь, что теперь ты понял что такое информационные характеристики источников непрерывных сообщений и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Теория информации и кодирования

Из статьи мы узнали кратко, но содержательно про информационные характеристики источников непрерывных сообщений

Ответы на вопросы для самопроверки пишите в комментариях, мы проверим, или же задавайте свой вопрос по данной теме.

создано: 2015-01-24
обновлено: 2021-03-13
132416



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей



Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Теория информации и кодирования

Термины: Теория информации и кодирования