Ядерный метод
Ядерные методы в машинном обучении — это класс алгоритмов распознавания образов, наиболее известным представителем которого является метод опорных векторов (МОВ, Шаблон:Lang-en). Общая задача распознавания образов — найти и изучить общие типы связей (например, кластеров, ранжирования, главных компонент, корреляций, классификаций) в наборах данных. Для многих алгоритмов, решающих эти задачи, данные, представленные в сыром виде, явным образом преобразуются в представление в виде вектора признаков посредством специфичной схемы распределения признаков, однако ядерные методы требуют только задания специфичного ядра, т.е. функции сходства пар точек данных в сыром представлении.
Ядерные методы получили своё название из-за использования Шаблон:Нп5, которые позволяют им оперировать в неявном пространстве признаков высокой размерности без вычисления координат данных в пространстве, просто вычисляя скалярные произведения между образами всех пар данных в пространстве признаков. Эта операция часто вычислительно дешевле явных вычислений координат. Этот подход называется «ядерным трюком»Шаблон:Sfn. Ядерные функции были введены для последовательных данных, Шаблон:Нп5, текстов, изображений, а также для векторов.
Среди алгоритмов, способных работать с ядрами, находятся Шаблон:Нп5, методы опорных векторов, гауссовские процессы, метод главных компонент (МГК, Шаблон:Lang-en), канонический корреляционный анализ, гребневая регрессия, спектральная кластеризация, линейные адаптивные фильтры и многие другие. Любая Шаблон:Нп5 может быть переведена в нелинейную модель путём применения к модели ядерного трюка, заменив её признаки (предсказатели) ядерной функцией.
Большинство ядерных алгоритмов базируются на выпуклой оптимизации или нахождении собственных векторов и статистически хорошо обоснованы. Обычно их статистические свойства анализируются с помощью теории статистического обучения (например, используя Шаблон:Нп5).
Причины возникновения и неформальное объяснение
Ядерные методы можно рассматривать как обучение на примерах — вместо обучения некоторым фиксированным наборам параметров, соответствующим признакам входа, они «запоминают» -й тренировочный пример и обучают согласно его весам . Предсказание для непомеченного ввода, т.е. не входящего в тренировочное множество, изучается при помощи функции сходства (называемой ядром) между непомеченным входом и каждым из тренировочных входов . Например, ядерный бинарный классификатор обычно вычисляет взвешенную сумму похожести по формуле
- ,
где
- является ядерным бинарным классификатором предсказанной пометки для непомеченного входа , скрытая верная пометка которого нужна;
- является ядерной функцией, которая измеряет схожесть пары входов ;
- сумма пробегает по всем Шаблон:Mvar помеченным примерам в тренировочном наборе классификатора с ;
- являются весами тренировочных примеров, как определено алгоритмом обучения;
- Функция sgn определяет, будет предсказанная классификация положительной или отрицательной.
Ядерные классификаторы были описаны в начале 1960-х годов с изобретением ядерного перцептронаШаблон:Sfn. Они получили большое распространение вместе с популярностью метода опорных векторов в 1990-х годах, когда обнаружили, что МОВ конкурентоспособна с нейронными сетями на таких задачах, как распознавание рукописного ввода.
Математика: ядерный трюк

Ядерный трюк избегает явного отображения, которое нужно для получения линейного обучающего алгоритма для нелинейной функции или Шаблон:Нп5. Для всех и во входном пространстве некоторые функции могут быть представлены как скалярное произведение в другом пространстве . Функцию часто называют ядром или ядерной функцией. Слово «ядро» используется в математике для обозначения весовой функции или интеграла.
Некоторые задачи машинного обучения имеют дополнительную структуру, а не просто весовую функцию . Вычисления будут много проще, если ядро можно записать в виде "отображения признаков" , которое удовлетворяет равенству
Главное ограничение здесь, что должно быть подходящим скалярным произведением. С другой стороны, явное представление для не обязательно, поскольку является пространством со скалярным произведением. Альтернатива следует из Шаблон:Нп5 — неявно заданная функция существует, если пространство может быть снабжено подходящей мерой, обеспечивающей, что функция удовлетворяет Шаблон:Нп5.
Теорема Мерсера подобна обобщению результата из линейной алгебры, которое связывает скалярное произведение с любой положительно определённой матрицей. Фактически, условие Мерсера может быть сведено к этому простому случаю. Если мы выбираем в качестве нашей меры считающую меру для всех , которая считает число точек внутри множества , то интеграл в теореме Мерсера сводится к суммированию
Если это неравенство выполняется для всех конечных последовательностей точек в и всех наборов вещественнозначных коэффициентов (сравните, Шаблон:Нп5), тогда функция удовлетворяет условию Мерсера.
Некоторые алгоритмы, зависящие от произвольных связей, в исходном пространстве будут, фактически, иметь линейное представление в других условиях — в ранжированном пространстве . Линейная интерпретация даёт нам представление об алгоритме. Более того, часто нет необходимости вычислять прямо во время вычислений, как в случае метода опорных векторов. Некоторые считают уменьшение времени за счёт этого главным преимуществом алгоритма. Исследователи используют его для уточнения смысла и свойств существующих алгоритмов.
Теоретически, матрица Грама по отношению к (иногда называемая «ядерной матрицей»Шаблон:Sfn), где , должна быть положительно полуопределенаШаблон:Sfn. Эмпирически, для эвристики машинного обучения, выбор функции , которая не удовлетворяет условию Мерсера, может оставаться оправданным, если , по меньшей мере, аппроксимирует интуитивную идею похожести[1]. Независимо от того, является ли ядром Мерсера, о могут продолжать говорить как о «ядре».
Если ядерная функция является также Шаблон:Нп5, что используется в гауссовском процессе, тогда матрица Грама может быть названа ковариационной матрицейШаблон:Sfn.
Приложения
Области применения ядерных методов разнообразны и включают геостатистикуШаблон:Sfn, кригинг, Шаблон:Нп5, трёхмерную реконструкцию, биоинформатику, хемоинформатику, извлечение информации и распознавание рукописного ввода.
Популярные ядра
Примечания
Литература
- Шаблон:Статья Процитировано в статье
- Шаблон:Книга
- Шаблон:Книга
- Шаблон:Статья
- Шаблон:Книга
- Шаблон:Статья
Литература
Ссылка
- Kernel-Machines Org — community website
- www.support-vector-machines.org (Literature, Review, Software, Links related to Support Vector Machines - Academic Site)
- onlineprediction.net Kernel Methods Article