Вам бонус- начислено 1 монета за дневную активность. Сейчас у вас 1 монета

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Лекция



Сразу хочу сказать, что здесь никакой воды про активное обучение, и только нужная информация. Для того чтобы лучше понимать что такое активное обучение, active learning, машинное обучение, сокращение дисперсии, variane redution, ожидаемое сокращение ошибки, expeted error redution , настоятельно рекомендую прочитать все из категории Машинное обучение.

активное обучение отличается тем, что обучаемый алгоритм имеет возможность самостоятельно назначать следующую исследуемую ситуацию, на которой станет известен верный ответ

Активное обучение (Active Learning) в машинном обучении

Активное обучение - это особый случай машинного обучения, в котором алгоритм обучения может интерактивно запрашивать пользователя (или какой-либо другой источник информации), чтобы пометить новые точки данных желаемыми выходными данными. В статистической литературе это иногда также называют оптимальным экспериментальным планом . Источник информации также называют учителем или оракулом .

Бывают ситуации, когда немаркированных данных много, а ручная маркировка обходится дорого. В таком сценарии алгоритмы обучения могут активно запрашивать у пользователя / учителя ярлыки. Этот тип итеративного обучения с учителем называется активным обучением. Поскольку учащийся выбирает примеры, количество примеров для изучения концепции часто может быть намного меньше, чем количество, требуемое при обычном обучении с учителем. При таком подходе есть риск, что алгоритм перегружен неинформативными примерами. Последние разработки посвящены многокомпонентному активному обучению [ гибридному активному обучению и активному обучению в однопроходном (он-лайн) контексте , объединяющему концепции из области машинного обучения (например, конфликт и незнание) с адаптивным,Политика инкрементального обучения в области машинного обучения онлайн .

  • Постановка задачи машинного обучения. Основные стратегии: отбор объектов из выборки и из потока, синтез объектов.
  • Сэмплирование по неуверенности. Почему активное обучение быстрее пассивного.
  • Сэмплирование по несогласию в комитете. Сокращение пространства решений.
  • Сэмплирование по ожидаемому изменению модели.
  • Сэмплирование по ожидаемому сокращению ошибки.
  • Синтез объектов по критерию сокращения дисперсии.
  • Взвешивание по плотности.
  • Оценивание качества активного обучения.
  • Введение изучающих действий в стратегию активного обучении. Алгоритмы ε-active и EG-active.
  • Применение обучения с подкреплением для активного обучения. Активное томпсоновское сэмплирование.

Активное обучение в теории обучения людей

Активное обучение — представляет собой такую организацию и ведение учебного процесса, которая направлена на всемерную активизацию учебно-познавательной деятельности обучающихся посредством широкого, желательно комплексного, использования как педагогических (дидактических), так и организационно-управленческих средств .

В классической педагогике для естественого интеллекта выделяются следущие дидактические предпосылки

Дидактические предпосылки

К дидактическим предпосылкам можно отнести педагогические технологии в той или иной мере реализующие и развивающие отдельные принципы активного обучения.

  • Проблемное обучение развивает подход к активизации творческой деятельности обучающихся посредством представления проблемно сформулированных заданий. Теория также содержит положение о научении слушателей решению проблемных задач, но раскрывает его на основе традиционных методик.
  • Программированное обучение внесло серьезный вклад в разработку подходов к индивидуализации обучения на основе специально построенных учебных курсовиндивидуального пользования, получивших новый толчок к развитию в связи с развитием компьютерных технологий и становлением дистанционного обучения.
  • Контекстное обучение отталкивается от положения теории деятельности, в соответствии с которой, усвоение социального опыта осуществляется в результате активной, «пристрастной» деятельности субъекта. В нем получают воплощение следующие принципы: активность личности; проблемность; единство обучения и воспитания; последовательное моделирование в формах учебной деятельности слушателей содержания и условий профессиональной деятельности специалистов. В качестве средств реализации теоретического подхода в контекстном обучении предлагается в полном объеме использовать методы активного обучения.
  • Игровое обучение доказало высокую эффективность использования игровых, соревновательных, командных методов обучения.

Содержание

  • 1 Задачи активного обучения
  • Постановка задачи активного обучения
  • Приложения активного обучения
  • Стратегии активного обучения
  • 2 Стратегии активного обучения
  • Отбор объектов из выборки
  • Синтез объектов (планирование экспериментов)
  • Оценивание качества активного обучения
  • 3 Активное обучение с изучающими действиями
  • Компромисс ѕизучениеприменениеї в активном обучении
  • Экспоненциальный градиент
  • Активное обучение с подкреплением

Постановка задачи активного обучения


Задача: обучение предсказательной модели a : X → Y по выборке (xi , yi), когда получение ответов yi стоит дорого.

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Задача: обучение предсказательной модели a : X → Y по выборке (xi , yi), когда получение ответов yi стоит дорого.


Вход: начальная размеченная выборка Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Активное обучение Active Learning в машинном обучении и искусственном интеллекте выборка(пул) неразмеченных объектов


Выход: модель a и размеченная выборка Активное обучение Active Learning в машинном обучении и искусственном интеллекте

обучить модель a по начальной выборке Активное обучение Active Learning в машинном обучении и искусственном интеллекте

пока

  • остаются неразмеченные объекты выбрать неразмеченный объект xi Активное обучение Active Learning в машинном обучении и искусственном интеллекте;
  • узнать для него yi Активное обучение Active Learning в машинном обучении и искусственном интеллекте;
  • дообучить модель a еще на одном примере (xi, yi) Активное обучение Active Learning в машинном обучении и искусственном интеллекте

конецпока


Цель активного обучения:
достичь как можно лучшего качества модели a, использовав как можно меньше дополнительных примеров k

Примеры приложений активного обучения

  • - сбор асессорских данных для инормационного поиска,анализа текстов, сигналов, речи, изображений, видео;
  • - планирование экспериментов в естественных науках(пример комбинаторная химия);
  • - оптимизация трудно вычислимых ункций(пример поиск в пространстве гиперпараметров);
  • - управление ценами и ассортиментом в торговых сетях;
  • - выбор товара для проведения маркетинговой акции.

Стратегии активного обучения


Отбор объектов из выборки (pool-based sampling): какой следующий xi выбрать из множества Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Синтез объектов (query synthesis):на каждом шаге построить оптимальный объект xi;
Отбор объектов из потока (selective sampling): для каждого приходящего xi решать, стоит ли узнавать yi
Функционал качества модели a(x, θ) с параметром θ: Активное обучение Active Learning в машинном обучении и искусственном интеллекте где L функция потерь, Ci стоимость инормации yi для методов, чувствительных к стоимости (cost-sensitive)

Сэмплирование по неуверенности (unertainty sampling)


Идея: выбирать xi с наибольшей неопределјнностью a(xi).
Задача многоклассовой классиикации: Активное обучение Active Learning в машинном обучении и искусственном интеллекте

где pk (x), k = 1...|Y | ранжированные по убыванию P(y|x), y ∈Y .
Принцип наименьшей достоверности (least condence): Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Принцип наименьшей разности отступов (margin sampling):Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Принцип максимума энтропии (maximum entropy): Активное обучение Active Learning в машинном обучении и искусственном интеллекте

В случае двух классов эти три принципа эквивалентны.
В случае многих классов появляются различия.


Пример. Три класса, p1 + p2 + p3 = 1. Об этом говорит сайт https://intellect.icu . Показаны линии уровни трех критериев выбора объекта xi

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

а) min p1

б) min(p1 − p2)

в) Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Почему активное обучение быстрее пассивного?


Пример 1. Синтетические данные: ℓ = 30, ℓ + k = 400;
(a) два гауссовских класса;
(b) логистическая регрессия по 30 случайным объектам;
(c) логистическая регрессия по 30 объектам, отобранным с помощью активного обучения.

Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Обучение по смещенной неслучайной выборке требует меньше данных для построения алгоритма сопоставимого качества.

Пример 2. Одномерная задача с пороговым классиикатором:

Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Оценим число шагов для определения θ с точностью 1/к.
Наивная стратегия: выбирать Активное обучение Active Learning в машинном обучении и искусственном интеллектечисло шагов О(к).
Бинарный поиск: выбирать хi, ближайший к середине зазора между классами Активное обучение Active Learning в машинном обучении и искусственном интеллекте

число шагов O(log k)

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Сэмплирование по несогласию в комитете (query by committee)

Идея: выбирать xi с наибольшей несогласованностью решений комитета моделей

Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Принцип максимума энтропии:выбираем xi, на котором at(xi) максимально различны:
Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Принцип максимума средней KL-дивергенции:выбираем xi , на котором Pt(y|xi) максимально различны:

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Сокращение пространства решений (version space reduction)


Идея: выбирать хi, максимально сужая множество решений.
Пример. Пространства допустимых решений для линейных и пороговых классиикаторов (двумерный случай):

Активное обучение Active Learning в машинном обучении и искусственном интеллекте


Бустинг и бэггинг находят конечные подмножества решений.
Поэтому сэмплирование по несогласию в комитете это аппроксимация принципа сокращения пространства решений.

Ожидаемое изменение модели (expeted model change)


Идея: выбрать xi , который в методе стохастического градиента привел бы к наибольшему изменению модели.
Параметрическая модель многоклассовой классиикации:

Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Для каждого u ∈ Xk и y ∈ Y оценим длину градиентного шагав пространстве параметров θ при дообучении модели на (u, y);
пусть Активное обучение Active Learning в машинном обучении и искусственном интеллекте вектор градиента функции потерь.


Принцип максимума ожидаемой длины градиента:

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

ожидаемое сокращение ошибки (expeted error redution)


Идея: выбрать Активное обучение Active Learning в машинном обучении и искусственном интеллекте, который после обучения даст наиболее уверенную классиикацию неразмеченной выборки Активное обучение Active Learning в машинном обучении и искусственном интеллекте
.
Для каждого u ∈ Xk и y ∈ Y обучим модель классиикации,добавив к размеченной обучающей выборке Xпример (u, y):

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Принцип максимума уверенности на неразмеченных данных:
Активное обучение Active Learning в машинном обучении и искусственном интеллекте

.
Принцип минимума энтропии неразмеченных данных:
Активное обучение Active Learning в машинном обучении и искусственном интеллекте

сокращение дисперсии (variane redution)


Идея: выбрать Активное обучение Active Learning в машинном обучении и искусственном интеллекте, который после дообучения модели a(x, θ) даст наименьшую оценку дисперсии σ2a(x).
Задача регрессии, метод наименьших квадратов: Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Из теории оптимального планирования экспериментов
(OED, optimal experiment design):

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

В частности, для линейной регрессии
Активное обучение Active Learning в машинном обучении и искусственном интеллекте
где F матрица объекты-признаки.

Взвешивание по плотности (density-weighted methods)


Идея: понижать вес нерепрезентативных объектов.
Пример. Объект A более пограничный, но менее репрезентативный, чем B.

Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Любой критерий сэмплирования объектов, имеющий вид

Активное обучение Active Learning в машинном обучении и искусственном интеллекте
может быть уточнен локальной оценкой плотности:
Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Активное обучение Active Learning в машинном обучении и искусственном интеллектеоценка близости Активное обучение Active Learning в машинном обучении и искусственном интеллекте(чем ближе, тем больше).

Оценивание качества активного обучения


Кривая обучения (learning curve) зависимость точности классиикации на тесте от числа обучающих объектов.

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Кривые обучения для классификации текста: бейсбол против хоккея. Кривая графика точность в зависимости от количества документов, запрошенных для двух выборок стратегии: выборка неопределенности (активное обучение) и случайная выборка (пассивное обучение). Мы видим, что активный подход к обучению здесь выше, потому что его кривая обучения доминирует над кривой случайной выборки.

Необходимость изучающих действий в активном обучении


Недостатки стратегий активного обучения:

  • остаются не обследованные области пространства X ,
  • в результате снижается качество обучения,
  • увеличивается время обучения.

Идеи применения изучающих действий:

  • брать случайный объект с вероятностью ε
  • адаптировать параметр ε в зависимости от успешности изучающих действий
  • использовать обучение с подкреплением (ontextual MAB)


Djallel Bouneouf et al. Contextual bandit for ative learning: ative Thompsonsampling. 2014.
Djallel Bouneouf. Exponentiated Gradient Exploration for Active Learning. 2016.

Алгоритм ε-active


Алгоритм обертка над любой стратегией активного обучения
Вход: начальная размеченная выборка Активное обучение Active Learning в машинном обучении и искусственном интеллекте и пул Активное обучение Active Learning в машинном обучении и искусственном интеллекте;
Выход: модель a и размеченная выборка Активное обучение Active Learning в машинном обучении и искусственном интеллекте;
обучить модель a по начальной выборке Активное обучение Active Learning в машинном обучении и искусственном интеллекте


пока

остаются неразмеченные объекты
выбрать неразмеченный xi случайно с вероятностью ε,
либо Активное обучение Active Learning в машинном обучении и искусственном интеллектес вероятностью 1 − ε;
узнать Активное обучение Active Learning в машинном обучении и искусственном интеллекте для объекта Активное обучение Active Learning в машинном обучении и искусственном интеллекте;
дообучить модель a еще на одном примере Активное обучение Active Learning в машинном обучении и искусственном интеллекте;


Проблема:
как подбирать вероятность ε исследовательских действий?
как ее адаптировать (уменьшать) со временем?

Экспоненциальный градиент (Exponential Gradient)


ε1, . . . , εK сетка значений параметра ε;
p1, . . . , pK вероятности использовать значения ε1, . . . , εK ;
β , τ , κ параметры метода.


Идея алгоритма EG-active: аналогично алгоритму AdaBoost,
экспоненциально увеличивать ph в случае успеха εh :


экспоненциальное обновление весов wh по значению критерия φ(ui) на выбранном объекте ui

Активное обучение Active Learning в машинном обучении и искусственном интеллекте

перенормировка вероятностей:
Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Алгоритм EG-active


Вход: Активное обучение Active Learning в машинном обучении и искусственном интеллекте , параметры ε1, . . . , εh , β , τ , κ;
Выход: модель a и размеченная выборка Активное обучение Active Learning в машинном обучении и искусственном интеллекте


инициализация: Активное обучение Active Learning в машинном обучении и искусственном интеллекте
обучить модель a по начальной выборке Активное обучение Active Learning в машинном обучении и искусственном интеллекте
пока

остаются неразмеченные объекты и модель не обучалась выбрать h из дискретного распределения (p1, . . . , ph );
выбрать неразмеченный ui случайно с вероятностью εh ,
либо Активное обучение Active Learning в машинном обучении и искусственном интеллекте с вероятностью 1 − εh ;
узнать yi * для объекта ui;
дообучить модель a еще на одном примере Активное обучение Active Learning в машинном обучении и искусственном интеллекте
Активное обучение Active Learning в машинном обучении и искусственном интеллекте

Применение обучения с подкреплением для активного обучения


Недостатки стратегий активного обучения:

  • - остаются не обследованные области пространства X ,
  • - в результате снижается качество обучения,
  • - увеличивается время обучения.


Идеи применения контекстного бандита (ontextual MAB):

  • - действия (ручки) это кластеры объектов,
  • - контекст кластера его векторное признаковое описание,
  • - премия поощряет изменение модели a(x, θ),
  • - линейная модель используется для выбора действий.

Томпсоновское сэмплирование (Thompson sampling)


C множество действий (ручек, кластеров объектов),
btc ∈ R
n вектор признаков кластера c ∈ C на шаге t ,
w ∈ R
n вектор коэициентов линейной модели.
Игра агента и среды (
ontextual bandit with linear payo ):
инициализация априорного распределения p1(w);
для всех t = 1, . . . ,T
среда сообщает агенту контексты btc для всех c ∈ C ;
агент сэмплирует вектор линейной модели wt ∼ pt(w);
агент выбирает действие ct = arg max
c∈C
hbtc ,wti;
среда генерирует премию rt
;
агент корректирует распределение по ормуле Байеса:
pt+1(w) ∝ p(rt
|w)pt(w);

Томпсоновское сэмплирование (гауссовский случай)


Априорные и апостериорные распределения гауссовские.
Игра агента и среды (
ontextual bandit with linear payo ):
инициализация: B = InЧn ; w = 0n ; f = 0n ;
для всех t = 1, . . . ,T
среда сообщает агенту контексты btc для всех c ∈ C ;
агент сэмплирует вектор линейной модели
wt ∼ N (w, σ2B
−1
);
агент выбирает действие ct = arg max
c∈C
hbtc ,wti;
среда генерирует премию rt
;
агент корректирует распределение по ормуле Байеса:
B := B + btcb
т
tc ; f := f + btc rt
; w := B
−1
f ;
екомендуемое значение константы σ
2 = 0.25.

Активное томпсоновское сэмплирование


Игра агента и среды (встраиваем активное обучение)
C := кластеризация неразмеченной выборки X
k
;
инициализация: B = InЧn ; w = 0n ; f = 0n ;
для всех t = 1, . . . ,T , пока остаются неразмеченные объекты
вычислить контексты btc для всех кластеров c ∈ C ;
сэмплировать вектор линейной модели wt ∼ N (w, σ2B
−1
);
выбрать кластер ct = arg max
c∈C
hbtc ,wti;
выбрать случайный неразмеченный xi из кластера ct
;
узнать для него yi
;
дообучить модель a ещј на одном примере (xi
, yi);
вычислить премию rt (ормула на следующем слайде);
скорректировать распределение по ормуле Байеса:
B := B + btcb
т
tc ; f := f + btc rt
; w := B
−1
f ;

Как вычисляются премии


Идея: премия поощряет изменение модели a(x, θ).
Ht =

a(xi
, θt)
ℓ+k
i=1 вектор ответов на выборке X
ℓ ∪ X
k
Премия угол между векторами Ht и Ht−1:
rt
:= e
βt
arccos
hHt
, Ht−1i
kHtk kHt−1k
,
где экспоненциальный множитель компенсирует убывание расстояний;
β = 0.121 эмпирически подобранный параметр.
Djallel Bouneouf et al. Contextual bandit for active learning: active Thompson sampling. 2014.

Как вычисляются признаки контекстов (кластеров)


btc =

Mdisc ,Vdisc , |c|, plbtc , MixRatetcy
Mdisc среднее внутрикластерное расстояние;
Vdisc дисперсия внутрикластерных расстояний;
|c| число объектов в кластере;
plbtc доля размеченных объектов в кластере;
MixRatetcy доля объектов класса y ∈ Y в кластере.
Всего признаков: 4 + |

Как оценивается качество Накопленные потери (umulative regret):


R(T) = P
T
t=1

hbtc∗
t
,wti − hbtc ,wti

,
c

t оптимальное действие (R = 0, если все действия оптимальны)
Сравнение накопленных потерь для различных алгоритмов

Активное обучение с подкреплением

Пассивный обучающийся агент руководствуется постоянно заданной стратегией, которая определяет его поведение, а активный агент должен сам принимать решение о том, какие действия следует предпринять. Начнем с описания агента, действующего с помощью адаптивного динамического программирования, и рассмотрим, какие изменения необходимо внести в его проект, чтобы он мог функционировать с учетом этой новой степени свободы.

Прежде всего агенту потребуется определить с помощью обучения полную модель с вероятностями результатов для всех действий, а не просто модель для заданной стратегии. Для этой цели превосходно подходит простой механизм обучения, используемый в алгоритме Passive-ADP-Agent. Затем необходимо принять в расчет тот факт, что агент должен осуществлять выбор из целого ряда действий. Полезности, которые ему потребуются для обучения, определяются оптимальной стратегией; они подчиняются уравнениям Беллмана, приведенным на с. 824, которые мы еще раз приведем ниже для удобства.

Активное обучение Active Learning в машинном обучении и искусственном интеллекте (21.4)

Эти уравнения могут быть решены для получения функции полезности U с помощью алгоритмов итерации по значениям или итерации по стратегиям, приведенных в других статьях (гл17). Последняя задача состоит в определении того, что делать на каждом этапе. Получив функцию полезности U, оптимальную для модели, определяемой с помощью обучения, агент может извлечь информацию об оптимальном действии, составляя одношаговый прогноз для максимизации ожидаемой полезности; еще один вариант состоит в том, что если используется итерация по стратегиям, то оптимальная стратегия уже известна, поэтому агент должен просто выполнить действие, рекомендуемое согласно оптимальной стратегии. Но действительно ли он должен выполнять именно это действие?

Выводы

  • Активное обучение используется для уменьшения обучающей выборки, когда размеченные данные дороги
  • Активное обучение быстрее пассивного
  • При малом объеме размеченных данных оно достигает того же качества, что пассивное при полной разметке
  • Введение изучающих действий в активном обучении позволяет еще быстрее обследовать пространство X
  • Для этого в последние годы стали применяться адаптивные стратегии или обучение с подкреплением

Литература

Djallel Bouneouf et al. Contextual bandit for active learning: active Thompson sampling. 2014.
William R. Thompson. On the likelihood that one unknown probability exeeds another in view of the evidene of two samples. 1933.

Вау!! 😲 Ты еще не читал? Это зря!

А как ты думаешь, при улучшении активное обучение, будет лучше нам? Надеюсь, что теперь ты понял что такое активное обучение, active learning, машинное обучение, сокращение дисперсии, variane redution, ожидаемое сокращение ошибки, expeted error redution и для чего все это нужно, а если не понял, или есть замечания, то не стесняйся, пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории Машинное обучение

создано: 2014-08-21
обновлено: 2023-09-23
330



Рейтиг 9 of 10. count vote: 2
Вы довольны ?:


Поделиться:

Найди готовое или заработай

С нашими удобными сервисами без комиссии*

Как это работает? | Узнать цену?

Найти исполнителя
$0 / весь год.
  • У вас есть задание, но нет времени его делать
  • Вы хотите найти профессионала для выплнения задания
  • Возможно примерение функции гаранта на сделку
  • Приорететная поддержка
  • идеально подходит для студентов, у которых нет времени для решения заданий
Готовое решение
$0 / весь год.
  • Вы можите продать(исполнителем) или купить(заказчиком) готовое решение
  • Вам предоставят готовое решение
  • Будет предоставлено в минимальные сроки т.к. задание уже готовое
  • Вы получите базовую гарантию 8 дней
  • Вы можете заработать на материалах
  • подходит как для студентов так и для преподавателей
Я исполнитель
$0 / весь год.
  • Вы профессионал своего дела
  • У вас есть опыт и желание зарабатывать
  • Вы хотите помочь в решении задач или написании работ
  • Возможно примерение функции гаранта на сделку
  • подходит для опытных студентов так и для преподавателей

Комментарии


Оставить комментарий
Если у вас есть какое-либо предложение, идея, благодарность или комментарий, не стесняйтесь писать. Мы очень ценим отзывы и рады услышать ваше мнение.
To reply

Машинное обучение

Термины: Машинное обучение