Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Лекция



Привет, Вы узнаете о том , что такое автокодировщик, Разберем основные их виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое автокодировщик, автоассоциатор , настоятельно рекомендую прочитать все из категории Вычислительный интеллект.

автокодировщик (англ. autoencoder, также — автоассоциатор ) — специальная архитектура искусственных нейронных сетей, позволяющая применять обучение без учителя при использовании метода обратного распространения ошибки. Простейшая архитектура автокодировщика — сеть прямого распространения, без обратных связей, наиболее схожая с перцептроном и содержащая входной слой, промежуточный слой и выходной слой. В отличие от перцептрона, выходной слой автокодировщика должен содержать столько же нейронов, сколько и входной слой.

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Архитектура автокодировщика: при обучении стремятся получить выходной вектор x' наиболее близким к входному вектору x

Основной принцип работы и обучения сети автокодировщика — получить на выходном слое отклик, наиболее близкий к входному. Чтобы решение не оказалось тривиальным, на промежуточный слой автокодировщика накладывают ограничения: промежуточный слой должен быть или меньшей размерности, чем входной и выходной слои, или искусственно ограничивается количество одновременно активных нейронов промежуточного слоя — разреженная активация. Эти ограничения заставляют нейросеть искать обобщения и корреляцию в поступающих на вход данных, выполнять их сжатие. Таким образом, нейросеть автоматически обучается выделять из входных данных общие признаки, которые кодируются в значениях весов искусственной нейронной сети. Так, при обучении сети на наборе различных входных изображений, нейросеть может самостоятельно обучиться распознавать линии и полосы под различными углами.

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя
Предобучение многослойного персептрона без учителя с помощью автокодировщиков.

Чаще всего автокодировщики применяют каскадно для обучения глубоких (многослойных) сетей. Автокодировщики применяют для предварительного обучения глубокой сети без учителя. Для этого слои обучаются друг за другом, начиная с первых. К каждому новому необученному слою на время обучения подключается дополнительный выходной слой, дополняющий сеть до архитектуры автокодировщика, после чего на вход сети подается набор данных для обучения. Веса необученного слоя и дополнительного слоя автокодировщика обучаются при помощи метода обратного распространения ошибки. Затем слой автокодировщика отключается и создается новый, соответствующий следующему необученному слою сети. На вход сети снова подается тот же набор данных, обученные первые слои сети остаются без изменений и работают в качестве входных для очередного обучаемого автокодировщика слоя. Так обучение продолжается для всех слоев сети за исключением последних. Последние слои сети обычно обучаются без использования автокодировщика при помощи того же метода обратного распространения ошибки и на маркированных данных (обучение с учителем).

Базовая архитектура автокодировщика

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя
Схема базового автокодировщика

Самая простая форма автокодировщика - это непериодическая нейронная сеть с прямой связью , аналогичная однослойным перцептронам, которые участвуют в многослойных перцептронах (MLP), использующая входной слой и выходной слой, соединенные одним или несколькими скрытыми слоями. Выходной слой имеет такое же количество узлов (нейронов), что и входной слой. Его цель - восстановить входные данные (минимизируя разницу между входом и выходом) вместо прогнозирования целевого значения.Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя данные входы Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя. Следовательно, автокодировщикы - это модели обучения без учителя . (Для обучения им не требуются маркированные входные данные).

автокодировщик состоит из двух частей: кодировщика и декодера, которые можно определить как переходы. Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя такой, что:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

В простейшем случае, учитывая один скрытый слой, этап кодировщика автокодировщика принимает входные данные. Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и сопоставляет его с Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Это изображение Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяобычно называют кодом , скрытыми переменными или скрытым представлением . Здесь,Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяпредставляет собой поэлементную функцию активации, такую ​​как сигмовидная функция или выпрямленный линейный блок . Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя - весовая матрица и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителявектор смещения. Веса и смещения обычно инициализируются случайным образом, а затем обновляются итеративно во время обучения посредством обратного распространения ошибки . После этого этап декодера автокодера отображаетАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителя на реконструкцию Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя такой же формы, как Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя для декодера может не иметь отношения к соответствующему Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя для кодировщика.

автокодировщикы обучены минимизировать ошибки восстановления (такие как ошибки в квадрате ), часто называемые « потерями »:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя обычно усредняется по некоторой входной обучающей выборке.

Как упоминалось ранее, обучение автокодировщика выполняется путем обратного распространения ошибки, как и в обычной нейронной сети с прямой связью .

Если пространство функций Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя имеют меньшую размерность, чем входное пространство Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя, вектор признаков Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяможно рассматривать как сжатое представление входных данныхАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителя. Это случай undercomplete автоассоциатор. Если скрытые слои больше, чем ( избыточные автокодировщикы) , или равны входному слою, или скрытым единицам дана достаточная емкость, автокодировщик потенциально может изучить функцию идентификации и стать бесполезным. Однако экспериментальные результаты показали, что в этих случаях автокодеры могут изучать полезные функции . [13] В идеальном случае нужно иметь возможность адаптировать размерность кода и емкость модели в зависимости от сложности моделируемого распределения данных. Один из способов сделать это - использовать варианты модели, известные как регулярные автокодировщикы.

Варианты

Регулярные автокодировщик

Существуют различные методы для предотвращения обучения автокодировщикам функции идентификации и улучшения их способности захватывать важную информацию и изучать более богатые представления.

Редкий автокодировщик (SAE)

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя
Простая схема однослойного разреженного автокодировщика. Скрытые узлы ярко-желтого цвета активированы, а светло-желтые неактивны. Активация зависит от входа.

Когда представления изучаются таким образом, чтобы поощрять разреженность, повышается производительность при выполнении задач классификации. Об этом говорит сайт https://intellect.icu . Разреженный автокодировщик может включать больше (а не меньше) скрытых единиц, чем входов, но только небольшое количество скрытых единиц может быть активным одновременно. Это ограничение разреженности заставляет модель реагировать на уникальные статистические особенности обучающих данных.

В частности, разреженный автокодировщик - это автокодировщик, критерий обучения которого включает штраф за разреженность. Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя на уровне кода Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Напоминая, что Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя, штраф побуждает модель активировать (т. е. выходное значение, близкое к 1) определенные области сети на основе входных данных, при этом инактивируя все другие нейроны (т. е. иметь выходное значение, близкое к 0).

Этой разреженности можно добиться, сформулировав условия штрафа по-разному.

  • Один из способов - использовать расхождение Кульбака-Лейблера (KL) . Пусть

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

быть средней активацией скрытого блока Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя (в среднем по Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяобучающие примеры). ОбозначениеАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителяопределяет входное значение, вызвавшее активацию. Чтобы стимулировать бездействие большинства нейронов,Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя должно быть близко к 0. Следовательно, этот метод применяет ограничение Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя- параметр разреженности, значение, близкое к нулю. Срок штрафаАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителя принимает форму, которая наказывает Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя за значительное отклонение от Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя, используя дивергенцию KL:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя подводит итоги Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя скрытые узлы в скрытом слое и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяKL-дивергенция между случайной величиной Бернулли со среднимАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и случайная величина Бернулли со средним Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.

  • Другой способ добиться разреженности - применить к активации условия регуляризации L1 или L2, масштабируемые определенным параметром. Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя. [18] Например, в случае L1 функция потерь принимает вид

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

  • Еще одна предлагаемая стратегия принудительной разреженности заключается в ручном обнулении всех активаций скрытых модулей, кроме самых сильных ( k-разреженный автокодировщик ). K-разреженный автокодировщик основан на линейном автокодировщике (то есть с линейной функцией активации) и связанных весах. Идентификация самых сильных активаций может быть достигнута путем сортировки действий и сохранения только первых k значений или использования скрытых блоков ReLU с пороговыми значениями, которые адаптивно регулируются до тех пор, пока не будут идентифицированы k самых больших активностей. Этот выбор действует подобно ранее упомянутым условиям регуляризации в том смысле, что он не позволяет модели реконструировать входные данные с использованием слишком большого количества нейронов. [19]

автокодировщик с шумоподавлением (DAE)

автокодировщикы с шумоподавлением (DAE) пытаются добиться хорошего представления, изменяя критерий восстановления .

Действительно, DAE принимают частично поврежденный ввод и обучаются восстанавливать исходный неискаженный ввод . На практике целью шумоподавления автокодеров является очистка искаженного ввода или уменьшение шума . Этому подходу присущи два допущения:

  • Представления более высокого уровня относительно стабильны и устойчивы к искажению входных данных;
  • Чтобы эффективно выполнять шумоподавление, модель должна извлекать функции, которые фиксируют полезную структуру входного распределения. [

Другими словами, шумоподавление рекомендуется в качестве критерия обучения для обучения извлечению полезных функций, которые будут лучше представлять входные данные на более высоком уровне.

Тренировочный процесс DAE работает следующим образом:

  • Первоначальный ввод Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя поврежден в Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя через стохастическое отображение Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.
  • Поврежденный ввод Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя затем сопоставляется со скрытым представлением с помощью того же процесса стандартного автокодировщика, Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.
  • Из скрытого представления модель реконструирует Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.

Параметры модели Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя обучаются минимизировать среднюю ошибку реконструкции по обучающим данным, в частности, минимизировать разницу между Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и исходный неповрежденный ввод Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя. Обратите внимание, что каждый раз случайный примерАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителя представлена ​​в модель, новая поврежденная версия генерируется стохастически на основе Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.

Вышеупомянутый учебный процесс может применяться к любому коррупционному процессу. Некоторыми примерами могут быть аддитивный изотропный гауссовский шум, маскирующий шум (часть входного сигнала, выбранная случайным образом для каждого примера, принудительно равна 0) или шум соли и перца (часть входного сигнала, выбранного случайным образом для каждого примера, устанавливается равным 0). его минимальное или максимальное значение с равномерной вероятностью).

Искажение ввода выполняется только во время обучения. После того, как модель изучила оптимальные параметры, чтобы извлечь представления из исходных данных, никакие повреждения не добавляются.

Сжимающий автокодировщик (CAE)

Сжимающий автокодировщик добавляет явный регуляризатор в свою целевую функцию, который заставляет модель изучать кодирование, устойчивое к небольшим изменениям входных значений. Это регуляризатор соответствует фробениусовой норме от матрицы Якоби из активаций датчика по отношению к входу. Поскольку штраф применяется только к обучающим примерам, этот термин заставляет модель узнавать полезную информацию о обучающем распределении. Конечная целевая функция имеет следующий вид:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Автокодировщик называется сжимающим, потому что CAE рекомендуется отображать окрестность входных точек в меньшую окрестность выходных точек.

DAE подключается к CAE: в пределе небольшого гауссовского входного шума DAE заставляют функцию восстановления сопротивляться небольшим, но конечным входным возмущениям, в то время как CAE заставляют извлеченные функции сопротивляться бесконечно малым входным возмущениям.

Конкретный автокодировщик

Конкретный автокодировщик - это вариант стандартной архитектуры автокодировщика, предназначенный для выбора дискретных функций. [20] В отличие от стандартного автокодировщика, который изучает скрытое представление, которое является комбинацией потенциально всех входных функций, конкретный автокодировщик заставляет скрытое пространство состоять только из ряда функций, указанных пользователем. Автоассоциатор бетона использует непрерывную релаксацию от категоричных распределения , чтобы градиенты , чтобы пройти через слой селектора особенности, что делает возможным использование стандартного обратного распространения , чтобы узнать оптимальное подмножество ввода функции , которые свести к минимуму потери реконструкции.

Вариационный автокодировщик (VAE)

Вариационные автокодеры (VAE) - это генеративные модели , похожие на генеративные состязательные сети . [21] Их связь с этой группой моделей проистекает в основном из архитектурного сходства с базовым автокодировщиком (конечная цель обучения включает кодировщик и декодер), но их математическая формулировка значительно отличается. VAE представляют собой направленные вероятностные графические модели (DPGM), апостериорные данные которых аппроксимируются нейронной сетью , образуя архитектуру, подобную автокодировщику. В отличие от дискриминативного моделирования, которое направлено на изучение предиктора на основе наблюдения, генеративное моделированиепытается узнать, как генерируются данные, и отразить лежащие в основе причинно-следственные связи. Причинно-следственные связи обладают потенциалом обобщения.

Модели вариационного автокодировщика делают сильные предположения относительно распределения скрытых переменных . Они используют вариационный подход для обучения скрытому представлению, что приводит к дополнительному компоненту потерь и специальной оценке для алгоритма обучения, называемой стохастическим градиентно-вариационным байесовским оценщиком (SGVB).Предполагается, что данные генерируются направленной графической моделью.Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и что кодировщик изучает приближение Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяк апостериорному распределению Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяобозначают параметры кодера (модель распознавания) и декодера (генеративная модель) соответственно. Распределение вероятностей скрытого вектора VAE обычно соответствует таковому для обучающих данных намного ближе, чем у стандартного автокодировщика. Задача VAE имеет следующий вид:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Здесь, Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяозначает расхождение Кульбака – Лейблера . Априорность перед скрытыми переменными обычно устанавливается как центрированная изотропная многомерная гауссова Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя; однако были рассмотрены альтернативные конфигурации. [24]

Обычно форма вариационного распределения и распределения правдоподобия выбирается так, чтобы они были факторизованы гауссианами:

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя выходы энкодера, а Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя и Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителявыходы декодера. Этот выбор оправдан упрощениями [10], которые он производит при оценке как дивергенции KL, так и члена правдоподобия в вариационной цели, определенной выше.

VAE подвергались критике за то, что они создают размытые изображения. [25] Однако исследователи, использующие эту модель, показали только среднее значение распределений,Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя, а не образец изученного гауссовского распределения

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя.

Было показано, что эти образцы слишком зашумлены из-за выбора факторизованного распределения Гаусса. [25] [26] Используя распределение Гаусса с полной ковариационной матрицей,

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

может решить эту проблему, но является трудноразрешимым с вычислительной точки зрения и численно нестабильным, так как требует оценки ковариационной матрицы по единственной выборке данных . Однако более поздние исследования показали, что ограниченный подход, когда обратная матрицаАвтокодировщик -архитектура искусственных нейронных сетей с обучением без учителя редко может создавать изображения с высокочастотными деталями.

Крупномасштабные модели VAE были разработаны в различных областях для представления данных в компактном вероятностном скрытом пространстве. Например, VQ-VAE [27] для генерации изображений и Optimus для языкового моделирования.

Преимущества глубины

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя
Схематическая структура автокодировщика с 3 полностью связанными скрытыми слоями. Код (z или h для ссылки в тексте) является самым внутренним слоем.

автокодировщикы часто обучаются с помощью однослойного кодировщика и однослойного декодера, но использование глубоких (многоуровневых) кодировщиков и декодеров дает много преимуществ.

  • Глубина может экспоненциально снизить вычислительные затраты на представление некоторых функций.
  • Глубина может экспоненциально уменьшить количество обучающих данных, необходимых для изучения некоторых функций.
  • Экспериментально глубокие автокодировщикы дают лучшее сжатие по сравнению с мелкими или линейными автокодировщиками.

Обучение

Джеффри Хинтон разработал методику обучения многослойных глубоких автокодировщиков. Его метод включает в себя обработку каждого соседнего набора из двух слоев как ограниченной машины Больцмана, так что предварительное обучение приближает хорошее решение, а затем использование обратного распространения ошибки для точной настройки результатов. Эта модель получила название сети глубоких убеждений .

Исследователи обсуждали, будет ли совместное обучение (т.е. обучение всей архитектуры вместе с единственной целью глобальной реконструкции для оптимизации) лучше для глубинных автокодировщиков. Исследование 2015 года показало, что при совместном обучении изучаются лучшие модели данных, а также более репрезентативные функции для классификации по сравнению с послойным методом. [30] Однако их эксперименты показали, что успех совместного обучения сильно зависит от принятых стратегий регуляризации.

Применения автокодировщика

В последнее время автокодировщики мало используются для описанного «жадного» послойного предобучения глубоких нейронных сетей. После того, как этот метод был предложен в 2006 г Джеффри Хинтоном и Русланом Салахутдиновым, достаточно быстро оказалось, что новых методов инициализации случайными весами оказывается достаточно для дальнейшего обучения глубоких сетей. Предложенная в 2014 г. пакетная нормализация позволила обучать еще более глубокие сети, предложенный же в конце 2015 г. метод остаточного обучения позволил обучать сети произвольной глубины.

Основными практическими приложениями автокодировщиков остаются уменьшение шума в данных, а также уменьшение размерности многомерных данных для визуализации. С определенными оговорками, касающимися размерности и разреженности данных, автокодировщики могут позволять получать проекции многомерных данных, которые оказываются лучше тех, что дает метод главных компонент либо какой-либо другой классический метод.

Двумя основными приложениями автокодировщиков являются уменьшение размерности и поиск информации , но современные варианты оказались успешными при применении к различным задачам.

Снижение размерности

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя
График первых двух основных компонентов (слева) и двумерного скрытого слоя линейного автокодировщика (справа), примененного к набору данных Fashion MNIST . [32] Две линейные модели учатся охватывать одно и то же подпространство. Проекция точек данных действительно идентична, за исключением вращения подпространства, для которого PCA инвариантен.

Снижение размерности было одним из первых приложений глубокого обучения и одним из первых мотивов изучения автокодировщиков. Задача состоит в том, чтобы найти подходящий метод проецирования, который отображает данные из пространства высоких признаков в пространство низких признаков.

Одной из важных статей по этому вопросу была статья Хинтона 2006 г .: [29] в этом исследовании он предварительно обучил многослойный автокодировщик со стеком RBM, а затем использовал их веса для инициализации глубокого автокодировщика с постепенно уменьшающимися скрытыми слоями, пока не столкнулся с узким местом 30 нейронов. Полученные 30 измерений кода дали меньшую ошибку реконструкции по сравнению с первыми 30 компонентами анализа главных компонентов (PCA) и получили представление, которое было качественно легче интерпретировать, четко разделяя кластеры данных.

Представление данных в пространстве меньшей размерности может повысить производительность таких задач, как классификация. Действительно, многие формы уменьшения размерности помещают семантически связанные примеры рядом друг с другом , способствуя обобщению.

Анализ главных компонентов

Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя

Реконструкция изображений 28x28 пикселей с помощью автокодировщика с размером кода два (двухуровневый скрытый слой) и реконструкция из первых двух основных компонентов PCA. Изображения взяты из набора данных Fashion MNIST . [32]

Если используются линейные активации или только один скрытый сигмовидный слой, то оптимальное решение для автокодировщика сильно связано с анализом главных компонентов (PCA). Веса автокодировщика с одним скрытым слоем размера.Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя (где Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителя меньше размера ввода) охватывает то же векторное подпространство, что и первое, Автокодировщик -архитектура искусственных нейронных сетей с обучением без учителяглавные компоненты, и выход автокодировщика является ортогональной проекцией на это подпространство. Веса автокодера не равны основным компонентам и, как правило, не ортогональны, но главные компоненты могут быть восстановлены из них с использованием разложения по сингулярным значениям .

Однако потенциал автокодировщиков заключается в их нелинейности, что позволяет модели изучать более мощные обобщения по сравнению с PCA и восстанавливать входные данные со значительно меньшими потерями информации.

Поиск информации

Информационный поиск выигрывает, в частности, от уменьшения размерности, поскольку поиск может стать более эффективным в определенных типах низкоразмерных пространств. автокодировщикы действительно были применены к семантическому хешированию, предложенному Салахутдиновым и Хинтоном в 2007 году. Обучая алгоритм для создания низкоразмерного двоичного кода, все записи базы данных могут храниться в хэш-таблице, отображающей двоичные кодовые векторы на записи. Эта таблица затем будет поддерживать поиск информации, возвращая все записи с тем же двоичным кодом, что и запрос, или немного менее похожие записи, перевернув некоторые биты из кодировки запроса.

Обнаружение аномалий

Еще одно применение автокодировщиков - обнаружение аномалий . Научившись воспроизводить наиболее важные особенности обучающих данных при некоторых из описанных ранее ограничений, модель поощряется к тому, чтобы научиться точно воспроизводить наиболее часто наблюдаемые характеристики. При столкновении с аномалиями модель должна ухудшить свои характеристики восстановления. В большинстве случаев для обучения автокодировщика используются только данные с обычными экземплярами; в других случаях частота аномалий мала по сравнению с набором наблюдений, так что их вклад в изученное представление можно игнорировать. После обучения автокодировщик будет точно реконструировать «нормальные» данные, но не сможет сделать это с незнакомыми аномальными данными. Ошибка реконструкции (ошибка между исходными данными и их реконструкцией малой размерности) используется в качестве оценки аномалии для обнаружения аномалий.

Однако недавняя литература показала, что некоторые модели автокодирования могут, как ни странно, очень хорошо восстанавливать аномальные примеры и, следовательно, не могут надежно выполнять обнаружение аномалий.

Обработка изображений

Характеристики автокодировщиков полезны при обработке изображений.

Один из примеров можно найти в сжатии изображений с потерями , когда автокодеры превзошли другие подходы и оказались конкурентоспособными по сравнению с JPEG 2000 .

Еще одно полезное применение автокодировщиков при предварительной обработке изображений - это шумоподавление .

автокодировщикы нашли применение в более сложных контекстах, таких как медицинская визуализация, где они использовались для шумоподавления изображения , а также для сверхвысокого разрешения В диагностике с использованием изображений в экспериментах автокодировщикы применялись для обнаружения рака груди и для моделирования связи между когнитивным снижением болезни Альцгеймера и скрытыми функциями автокодировщика, обученного с помощью МРТ .

Открытие лекарств

В 2019 году молекулы, созданные с помощью вариационных автокодировщиков, были проверены экспериментально на мышах.

Прогноз популярности

Недавно составная структура автокодировщика дала многообещающие результаты в прогнозировании популярности сообщений в социальных сетях , что полезно для стратегий онлайн-рекламы.

Машинный перевод

автокодировщик был применен для машинного перевода , который обычно называют нейронным машинным переводом (NMT). В NMT тексты обрабатываются как последовательности, которые должны быть закодированы в процедуру обучения, в то время как на стороне декодера генерируются целевые языки. Специфичные для языка автокодировщикы включают лингвистические функции в процедуру обучения, такие как функции разложения китайского языка.

Вау!! 😲 Ты еще не читал? Это зря!

Данная статья про автокодировщик подтверждают значимость применения современных методик для изучения данных проблем. Надеюсь, что теперь ты понял что такое автокодировщик, автоассоциатор и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Вычислительный интеллект

создано: 2021-03-30
обновлено: 2024-11-13
5



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей

Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Вычислительный интеллект

Термины: Вычислительный интеллект