Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

Основные виды энтропииди скретных источников. Условная и взаимная энтропии

Лекция



Привет, сегодня поговорим про основные виды энтропииди скретных источников условная, обещаю рассказать все что знаю. Для того чтобы лучше понимать что такое основные виды энтропииди скретных источников условная, взаимная энтропии , настоятельно рекомендую прочитать все из категории Теория информации и кодирования.

Тема2. Основные виды энтропииди скретных источников. Условная и взаимная энтропии .

Лекция2.

2.1Условнаяэнтропия.

Для дальнейшего изложения нам понадобятся некоторые известные сведения из теории вероятности.

1) Свойства вероятностей для ансамбля случайных событий А и В:

P(A,B)=P(A)*P(B/A); -> P(B/A)=P(A,B)/P(B);

P(A,B)=P(B)*P(B/A); -> P(A/B)=P(A,B)/P(A);

P(A/B)=P(A)*P(B/A)/P(B);P(B/A)=P(B)*P(A/B)/P(A);

Если А и В независимы, то

P(A/B)=P(A); P(B/A)=P(B):

P(A,B)=P(A)*P(B);

Еще раз определение энтропии по Шеннону для источника дискретных сообщений:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Еесвойства:

Н > 0 ;

Нmах = log N;

При независимых источниках H(A,B)=H(A)+H(B);

 

УСЛОВНАЯ ЭНТРОПИЯ

Если состояния элементов системы не зависят друг от друга илиесли состояние одной системы не зависит от состояния другой системы, то неопределенность того, что некоторый элемент системы (или некоторая система) будет находиться в одном из возможных состояний, полностью определялась бы вероятностными характеристиками отдельных элементов системы. В этом случае удельное количество информации на состояние элемента системы или на один символ сообщений называется средней энтропией, а при ее вычислении используется выражение

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

При подсчете среднего количества информации на символ сообщения взаимозависимость учитывают через условные вероятности наступления одних событий относительно других, а полученную при этом энтропиюназывают условной энтропией.

Рассмотрим передачу сообщений источника случайных символов А через канал передачи информации. При это полагается, что при достоверной передаче при передаче символа a1 получаем b1, a2 - b2 и т.д. При этом для канала с помехами передача искажается, и при получении символа b1 можно лишь говорить о вероятности передачи символа a1. Вполне может быть, что были переданы символы a2, a3 и т.д.

Искажения описываются матрицей условных вероятностей канала P(A/B)={p(ai/bi}, как єто изображено на рис. 2.1

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Рис. 2.1

Рассмотрим процесс передачи сигналов по каналу связи с помехами и используем его для уяснения механизма вычисления условной энтропии.

Если источник сообщений выдает символы

al, а2, ..., ai ..., аn

с вероятностями соответственно

р (а1), р (а2) ... ..., р (аi), ..., р (аn),

а на выходе канала передачи мы получаем символы

b1 ,b2, ..., bi ..., bn

с вероятностями соответственно

р (b1), р (b2), ..., р (bi, ..., р (bn),

то понятие условной энтропии Н (B/ai) выражает неопределенность того, что, отправив ai, мы получим bi., понятие H(A/bi) неуверенность, которая остается после получения bi в том, что было отправлено именно ai. Графически это представлено на вышеприведенном рисунке. Если в канале связи присутствуют помехи, то с различной степенью вероятности может быть принят любой из сигналов bj и, наоборот, принятый сигнал bj может появиться и результате отправления любого из сигналов ai. Если в канале связи помехи отсутствуют, то всегда посланному символу а1 соответствует принятый символ b12— b2, ..., аn— bn.

При этом энтропия источника сообщений H(А) равна энтропии приемника сообщений Н (В). Если в канале связи присутствуютпомехи, то они уничтожают или искажают часть передаваемой информации.

Информационные потери полностью описываются через частную и общую условную энтропию. Вычисление частных и общей условной энтропии удобно производить при помощи канальных матриц. Термин «канальная матрица», означающий: матрица, статистически описывающая данный канал связи, применяется для краткости. Если канал связи описывается со стороны источника сообщений (т. е. известен посланный сигнал), то вероятность того, что при передаче сигнала ai по каналу связи с помехами мы получим сигнал bj обозначается как условная вероятность р (bj/ai). а канальная матрица имеет вид

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Вероятности, которые расположены по диагонали (выделенные полужирным шрифтом), определяют вероятности правильного приема, остальные — ложного. Значения цифр, заполняющих колонки канальной матрицы, обычно уменьшаются по мере удаления от главной диагонали и при полном отсутствии помех все, кроме цифр, расположенных на главной диагонали, равны нулю.

Прохождение символа ai со стороны источника сообщений в данном канале связи описывается распределением условных вероятностей вида р(bj/ai), сумма вероятностей которого всегда должна быть равна единице. Например, для сигналаа1

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Потери информации, приходящиеся на долю сигнала ai описываются при помощи частной условной энтропии. Например, для сигналаa1

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Суммирование производится по j, так как i-е состояние (в данном случае первое) остаетсяпостоянным.

Потери при передаче всех сигналов по данному каналу связи описываются при помощи общей условной энтропии. Дли ее вычисления следует просуммировать все частные условные энтропии, т. е. произвести двойное суммирование по i и по j.

В случае неравновероятногопоявлениясимволовисточника сообщений следует учесть вероятность появления каждого символа, умноживнанее соответствующую частную условную энтропию. Об этом говорит сайт https://intellect.icu . Приэтом общаяусловнаяэнтропия

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Если исследовать ситуацию со стороны приемника сообщений (то есть когда известен принятый сигнал) , то с получением символа bj предполагается, что был послан какой-то из символов a1, a2, …, ai,…,am. В этом случае канальная матрица имеет вид:

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

В этом случае единице должны равняться суммы условныхвероятностей не по строкам, а по столбцам канальной матрицы

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Частная условная энтропия

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

А общая условная энтропия

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Общая условная энтропия системы В относительно системы А характеризует количество информации, содержащейся в любом символе источника сообщений, через который мы представляем состояния элементов исследуемых систем.

Общую условную энтропию определяют путем усреднения по всем символам, т. е. по всем состояниям аi с учетом вероятности появления каждого из них. Она равна сумме произведений вероятностей появления символов источника на неопределенность, которая остается после того, как адресат принял символы:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Если в канале связи помехи отсутствуют, то все элементы канальной матрицы, кроме расположенных на главной диагонали, равны нулю. Это говорит о том, что при передаче сигнала а1 мы наверняка получим b1 при передаче а2 -b2, ..., аm— bm. Вероятность получения правильного сигнала станет безусловной, а условная энтропия будет равна нулю.

Своего максимумаусловная энтропия достигает в случае,когда при передаче символа аi может быть с равной вероятностью полученлюбой из сигналовb1, b2, ..., bm.

 

2.2Основныесвойстваусловнойэнтропии.

Свойство 1. Если ансамбли сообщений А и В взаимонезависимы, то условная энтропия А относительно В равна безусловной энтропии А,и наоборот условная энтропия В относительно А равна безусловной энтропии В

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Доказательство. Если сообщения А и В взаимонезависимы, то условные вероятности отдельных символов равны безусловным:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Так какр (аi)* р (bj/ai) = p (ai, bj), то выражение для H(B/A)представим в виде:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

подставив в полученное выражение ,

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

получим

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

так как

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Свойство 2: Если ансамбли сообщений А и В настолько жестко статистически связаны, что появление одного из них непременно подразумевает появление другого, то их условные энтропии равны нулю:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Доказательство.Воспользуемся свойствамивероятностей,согласно которым при полной статистическойзависимости р(bj/ai) = 1, слагаемые р (bj/ai)*log(р (bj/ai)в выражении для энтропии также равны нулю. Если нулю равны отдельные слагаемые, то и сумма равна нулю, откуда

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Выводы:

1. Энтропия сообщения, составленного с учетом неравновероятности символов меньше, чем энтропия сообщения, составленного из равновероятных символов.

2. Энтропия сообщения, составленного с учетом взаимозависимости символов, меньше, чем энтропия того же сообщения, составленного из независимых символов.

3. Максимальную энтропию имеют сообщения, составленные из равновероятных и независимых символов, т. е. те, у которых условная энтропияравнанулю, а вероятностьпоявления символов алфавита pi=1/N.

2.3 Взаимная энтропия. Свойства энтропии объединения.

Энтропия объединения или взаимная энтропия используется для вычисления энтропии совместного появления статистически зависимых сообщений либо энтропии взаимосвязанных систем.

Например, при передаче по каналу связи с шумами цифры 5, из 100 раз цифра 5 была принята 90 раз, цифра 6 — восемь раз,цифра 4 — два раза. Неопределенность возникновения комбинаций вида 5—4; 5—5; 5—6 припередаче цифры 5 может быть описана при помощи энтропии объединенияН (А, В).

Понимание энтропии объединения (иногда употребляют термин «взаимная энтропия») облегчается, если рассуждения сводятся к некоторому условному каналу связи. На примере передачи информации по каналу связи также удобнее проследить взаимосвязь понятий условной энтропии Н (В/А) и взаимной энтропии H(А, В).

Итак, пусть 1, а2, ..., аi .... аn) есть выборочное пространство А, или символы характеризующееисточниксообщений,a(b1, b2, …, bj,…,bm)выборочное пространство В, или символы, характеризующее приемник сообщений. При этом а есть сигнал на входе шумящего капала, а b - сигнал на его выходе. Взаимосвязь переданных и принятых сигналов описывается вероятностями совместных событий вида p(a,b), а взаимосвязь выборочных пространств А и В описывается матрицей вида:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Если матрица описывает канал связи, то число строк матрицы равно числу столбцов m=nи пределы суммирования по i и по j одинаковы. При описании взаимодействия систем равенство m=n необязательно.

Независимо от равенства или неравенства числа строк числу столбцов матрица объединенияобладает свойством:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

В свою очередь,

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

т. е.

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Это свойство позволяет вычислять энтропию источника и приемника сообщений непосредственно по матрице объединения :

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

До знака логарифма суммирование производится по i и j, так как для нахождения безусловных вероятностей необходимо производить суммирование по одной координате (имеется в виду матричное представление вероятностей), а для нахождения соответствующей энтропии суммирование производится по другой координате.

Условные вероятности 'при помощи матрицы объединения находятся следующим образом:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

<![if !vml]>

 
  Основные виды энтропииди скретных источников. Условная и взаимная энтропии

<![endif]>
Энтропия объединения ансамблей А и В при помощи матрицы объединения вычисляется путем последовательного суммирования по строкам или gо столбцам всех вероятностей вида р(а, b), умноженных на логарифм этих же вероятностей

Размерность этой энтропии- «бит/два символа»

Размерность «бит/два символа» объясняетсятем,чтовзаимная энтропиипредставляет собой неопределенность возникновения пары символов, т.е. неопределенность на два символа. В случае отсутствия зависимости междусимволами выражение для H(A,B) принимает вид выражения H(A) или H(B) , и соответственно размерность будет«бит/символ».

Исследуемвыражениедля взаимной энтропии

Из теориивероятностей известно, что (смотрим на основные соотношения в начале лекции)

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Используя это свойство, выражение для взаимной энтропии можно записать как

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Но

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

и ,

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

тогда первое слагаемое выражение принимает вид

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Второе слагаемое, есть не что иное,как H(В/А), что позволяет выражениезаписать в виде

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Энтропия объединения передаваемого ансамбля А и принимаемого ансамбля В равна сумме безусловной энтропииH(A) и условной энтропии Н (В/А).

Последняя в данном случае представляет ту добавочную информацию, которую дает сообщениеВ после того, как стала известна информация, содержащаяся в сообщении А. Таким образом, условная энтропия представляет собой неопределенность того, что при приеме b было послано а, а взаимная энтропия отражает неопределенность возникновения пары вида ab.

Энтропия объединения обладает свойством симметрии.

H(A,B)=H(B,A)

Свойство симметрии энтропии объединения хорошо иллюстрируется матрицей, изображенной на рисунке 2.2

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Рис. 2.2

Действительно, если просуммировать все элементы матрицы объединения по строкам и но столбцам по схеме рисунка а затем сложить полученные результаты, то обе суммы будут равны единице. Свойство симметрии позволяет записать соотношения между условной энтропией и энтропией объединения следующим образом:

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

Если построена матрица вероятностей р(a,b), описывающая взаимосвязь двух произвольных выборочных пространств, в частности взаимосвязь входа и выхода шумящего канала связи, то остальные информационные характеристики могут не задаваться, так как матрица взаимной энтропии обладает информационной полнотой.

Взаимная информациямежду ансамблем сообщений источника А и приемника В выражается формулами

 

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

При отсутствиистатистическойзависимостимеждуэлементами ансамблей А и В условные вероятности превращаются в безусловные

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

В этом случае

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

При полной статистической зависимости между элементами ансамблей А и В (например, когда результат одного события однозначно определяет информацию о другом событии)

Н(В/А) = Н (А/В) = 0,

а взаимнаяэнтропия

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

В случае передачи информации по каналам связи полная статистическая зависимость между передаваемыми и принимаемыми сигналами говорит об отсутствии помех,канальнаяматрицаприобретаетвид

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

условные вероятности правильного приема равны единице, остальные - нулю, что превращает в нуль все частные условные энтропии.

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

аналогично

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

и, следовательно, и общая условная энтропия превращается в нуль и выражение для Н(А,В) приобретает вид

<![if !vml]>Основные виды энтропииди скретных источников. Условная и взаимная энтропии<![endif]>

 

Выводы:

1.Энтропия объединенной системы А, В равна безусловной энтропии одной из них плюс условная энтропия второй относительно первой.

2. Матрица «объединения», описывающая взаимодействие систем или ансамблей сообщений при помощи вероятностей совместных событии,обладает свойствоминформационнойполноты( а сумма ее элементовравна 1).

3. Взаимная энтропия ансамблей произвольных выборочных пространств обладает свойством взаимной симметрии.

4. В случае статистической независимости элементов ансамблей взаимная энтропия любого количества ансамблей ровна сумме их безусловных энтропий.

5. При полной статистической зависимости ансамбля источника сообщений и ансамбля приемника сообщений их взаимная энтропия равна безусловной энтропииисточника сообщений.

 

2.4 Контрольные вопросы.

1. Каков основной смысл понятия условной энтропии.

2. Дайте понятие канальной матрицы канала с помехами.

3. Перечислите основные свойства условной энтропии.

4. Назовите основной взаимной энтропии.

5. Что более полно определяет канал передачи информации: условная или взаимная энтропия?

Надеюсь, эта статья про основные виды энтропииди скретных источников условная, была вам полезна, счастья и удачи в ваших начинаниях! Надеюсь, что теперь ты понял что такое основные виды энтропииди скретных источников условная, взаимная энтропии и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Теория информации и кодирования

Ответы на вопросы для самопроверки пишите в комментариях, мы проверим, или же задавайте свой вопрос по данной теме.

создано: 2015-01-24
обновлено: 2021-03-13
132587



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей



Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Теория информации и кодирования

Термины: Теория информации и кодирования