Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

Лекция



Привет, Вы узнаете о том , что такое энтропия изображений, Разберем основные их виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое энтропия изображений , настоятельно рекомендую прочитать все из категории Цифровая обработка изображений.

Информационная энтропия — мера неопределенности некоторой системы (в статистической физике или теории информации), в частности, непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределенность появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии {\displaystyle n}7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-го порядка, см. ниже) встречаются очень редко, то неопределенность уменьшается еще сильнее.

Энтропия изображения определяется следующим образом:

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ -количество уровней серого (256 для 8-битных изображений), 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ -вероятность того , что пиксель имеет уровень серого 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ , а 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ -основание функции логарифма.

Обратите внимание, что энтропия изображения довольно сильно отличается от энтропийного признака, извлеченного из GLCM (матрицы совпадений на уровне серого) изображения. Взгляните на этот пост , чтобы узнать больше.

В соответствии с вашим запросом я прилагаю пример того, как вычисляется энтропия GLCM:

Сначала мы импортируем необходимые модули:

import numpy as np
from skimage.feature import greycomatrix

Затем мы читаем изображение:

img = io.imread('https://path/img.png')

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

GLCM (соответствующий пикселю справа ) изображения выше вычисляется следующим образом:

glcm = np.squeeze(greycomatrix(img, distances=[1], 
                               angles=[0], symmetric=True, 
                               normed=True))

И, наконец, мы применяем эту формулу для вычисления энтропии:

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ представляет записи GLCM.

Если мы установим 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ в 2, результат будет выражен в битах .

entropy = -np.sum(glcm*np.log2(glcm + (glcm==0)))
# yields 10.7040625

Очевидно, что одни изображения являются более содержательными, чем другие, т. Об этом говорит сайт https://intellect.icu . е. имеют больше деталей или при анализе из них удается извлечь больше данных. Детали, данные и другие подобные понятия являются качественными и довольно расплывчатыми. Поэтому часто бывает необходимо ввести количественные характеристики изображения, позволяющие оценивать предельные свойства алгоритмов кодирования, исправления и анализа изображений. Один из подходов к количественному описанию изображений состоит в применении теории информации [39-42].

Согласно методике, описанной в разд. 5.3, допустим, что матрица 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ размера 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, составленная из квантованных отсчетов изображения, будет заменена вектор-столбцом 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ размера 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ (где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ), полученным путем развертки матрицы 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ по столбцам. В принципе такие векторы можно рассматривать как изображения на выходе некоторого источника, который может генерировать любой из возможных векторов. В одном из крайних случаев получается темное изображение с минимальной яркостью всех элементов, а в противоположном случае — изображение с максимальной яркостью. Между этими крайними случаями заключено множество различных изображений. Если яркость каждого из 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ элементов изображения квантуется на 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ уровней, то данный источник может создать 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ различных изображений. Многие из них имеют хаотическую структуру и похожи на реализации двумерного случайного шума. Лишь очень небольшое число из 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ возможных изображений будут такими, какие дал бы реальный датчик при наблюдении за окружающим миром. В принципе можно считать, что имеется априорное распределение 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ (где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ) вероятности появления каждого из возможных состояний вектора 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. Измерить или промоделировать это распределение очень непросто, но сама идея в конце концов приводит к полезным результатам.

В 1948 г. Шеннон [39] опубликовал свою знаменитую книгу «Математическая теория связи», в которой был дан способ количественного описания свойств источников данных и систем передачи информации. В основе шенноновской теории информации лежит понятие об энтропии. При векторном описании изображения среднее количество информации в изображении равно энтропии источника:

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ (7.6.1)

В данном определении энтропии применяются логарифмы с основанием два и энтропия измеряется в двоичных единицах. Энтропию источника полезно знать при кодировании изображений, поскольку согласно теореме о кодировании при отсутствии помех [39], теоретически можно закодировать без искажений изображения, создаваемые источником с энтропией 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, затратив на кодирование 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ двоичных единиц, где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ — бесконечно малая положительная величина. И наоборот, в принципе невозможно закодировать изображения без искажений, если число двоичных единиц меньше чем 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ.

Вероятность появления 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-го вектора, описывающего изображение, можно выразить через совместное распределение вероятностей уровней яркости элементов изображения

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ (7.6.2)

где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ — значение 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-го уровня квантования для 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-гo элемента. Эту вероятность можно выразить также в виде произведения условных вероятностей:

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.3)

Логарифмируя обе части равенства (7.6.3) по основанию два и учитывая определение энтропии (7.6.1), получаем

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.4)

В равенстве (7.6.4) 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-e слагаемое, обозначенное через 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, можно рассматривать как выражение для средней информации, содержащейся в 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-й компоненте вектор-изображения 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, при условии, что точно известны яркости предшествующих 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ компонент. Таким образом,

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.5)

Это выражение, описывающее энтропию источника изображений, является общим и не зависит от того, в каком порядке берутся элементы изображения. Рассмотрим теперь вид формулы (7.6.5) для двух случаев: 1) изображение развертывается по столбцам и 2) когда все элементы изображения поступают одновременно. Можно показать, что при развертке изображения по столбцам

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, (7.6.6)

где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. Это означает, что информация, содержащаяся в 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ-й точке, с увеличением числа полностью известных предшествующих элементов изображения в среднем только уменьшается. Равенство обеих частей соотношения (7.6.6) достигается только тогда, когда яркости всех элементов распределены независимо. Если количество известных предшествующих элементов неограниченно увеличивается, то правая часть неравенства (7.6.6) стремится к некоторому ненулевому предельному значению, обозначаемому как 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ.

Если пренебречь малосущественными для достаточно крупных изображений краевыми эффектами, то энтропию изображения можно приближенно выразить в виде

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.7)

Таким образом, можно считать, что энтропия всего изображения равна предельному значению условной энтропии одного элемента изображения, умноженному на полное число элементов.

В системах с разверткой изображения предельная условная энтропия определяется на основе конечной последовательности предыдущих элементов. Так, если этих элементов было 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, то

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.8)

В явной форме

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, (7.6.9)

где совместное распределение вероятностей

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ (7.6.10)

(7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ — уровни квантования яркости). Для вычисления условной энтропии (7.6.9) необходимо либо ввести модель совместного распределения вероятностей, либо измерить соответствующие распределения частот для изображения или некоторого класса изображений.

Таблица 7.6.1. Оценки энтропии изображения, полученные Шрайбером

Порядок

Функциональное выражение энтропии

Энтропия, бит/элемент

Первый

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

4,4

Второй

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

1,9

Третий

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ

1,5

Шрайбер [43] оценил энтропию первого, второго и третьего порядка для нескольких изображений, квантованных на 64 уровня, измеряя распределения относительных частот того же порядка. Полученные распределения были подставлены в формулу (7.6.10) вместо соответствующих распределений вероятностей. При таком способе измерений предполагается, что источник изображений является стационарным и эргодическим, т. е. усреднение по ансамблю изображений можно заменить усреднением по отдельному изображению. Результаты измерений, проведенных Шрайбером для конкретного изображения, приведены в табл. 7.6.1. Для кодирования этого изображения с помощью обычной ИКМ требуются шестиразрядные кодовые слова, т. е. затрачивается 6 бит/элемент. Теоретически для его кодирования достаточно 4,4 бит/элемент при условии, что все элементы кодируются по отдельности. Если же использовать значение предыдущего элемента, то теоретический предел уменьшится до 1,9 бит/элемент. Иначе говоря, предыдущий элемент дает 2,5 бита информации об элементе 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. Учет еще одного предшествующего элемента дает всего 0,4 бита дополнительной информации. Таким образом, оказалось, что в данном изображении большая часть дополнительно извлекаемой информации содержится в небольшом числе предыдущих элементов.

Выше был описан метод оценки энтропии изображения, развернутого по столбцам, при котором предельная условная энтропия 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ аппроксимируется условной энтропией, вычисленной с учетом нескольких предыдущих элементов в том же столбце. Такой метод можно применить для оценки энтропии изображения, когда все его элементы поступают одновременно.

Допустим, что 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ обозначает номер центрального элемента вектора 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ с нечетным числом элементов. Тогда совместное распределение вероятностей можно представить в виде

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ (7.6.11)

Повторяя рассуждения, которые привели к соотношению (7.6.7), энтропию источника изображений можно выразить приближенным равенством

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.12)

Полученное «двустороннее» выражение для условной энтропии можно в свою очередь аппроксимировать, учитывая только ближайшие элементы столбца:

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. (7.6.13)

Развивая эту идею, можно включить в выражение для оценки энтропии все элементы вектора, которые имеют достаточно сильные статистические связи с 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ. Во многих случаях такие элементы оказываются геометрически ближайшими к исследуемому. Поэтому можно принять следующую оценку энтропии:

7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ, (7.6.14)

где 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ — длина столбца, а энтропия элемента 7.6. ЭНТРОПИЯ ИЗОБРАЖЕНИЙ определяется значениями ближайших четырех элементов, находящихся сверху, снизу, справа и слева от него.

Прейс [44] вычислял энтропию двухградационных факсимильных документов, используя несколько предшествующих элементов развертки. К сожалению, из-за чрезмерного объема необходимых вычислений трудно оценить энтропию многоградационных изображений даже с использованием упрощенной формулы (7.6.14). Для вычислений по этой формуле необходимо получить распределение частот пятого порядка, причем число возможных значений каждого аргумента равно числу уровней квантования яркости. Приходится делать печальный вывод, что вычисление энтропии в принципе позволяет оценивать «содержательность» изображения, однако для многоградационных изображений такие вычисления практически невыполнимы.

Вау!! 😲 Ты еще не читал? Это зря!

Выводы из данной статьи про энтропия изображений указывают на необходимость использования современных методов для оптимизации любых систем. Надеюсь, что теперь ты понял что такое энтропия изображений и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Цифровая обработка изображений

создано: 2016-09-08
обновлено: 2021-12-23
207



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей

Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Цифровая обработка изображений

Термины: Цифровая обработка изображений