Машина опорных векторов
Материал из MachineLearning.
(→Линейно неразделимая выборка) |
(→Линейно разделимая выборка) |
||
Строка 13: | Строка 13: | ||
Рассмотрим задачу нахождения наилучшего в некотором смысле разделения множества векторов на два класса с помощью линейной решающей функции. Пусть имеется множество прецедентов <tex>(\Xi ,Y)</tex>, где <tex>\Xi = \{ {\bf{x}}_1 ,...,{\bf{x}}_N \}</tex> - обучающая выборка, а <tex>Y = (y_1 ,...,y_N )</tex> - множество меток двух классов <tex>\omega _1</tex> и <tex>\omega _2</tex>. Требуется по обучающей выборке построить линейную решающую функции, т.е. такую линейную функцию <tex>f({\bf{x}})</tex>, которая удовлетворяла бы условию | Рассмотрим задачу нахождения наилучшего в некотором смысле разделения множества векторов на два класса с помощью линейной решающей функции. Пусть имеется множество прецедентов <tex>(\Xi ,Y)</tex>, где <tex>\Xi = \{ {\bf{x}}_1 ,...,{\bf{x}}_N \}</tex> - обучающая выборка, а <tex>Y = (y_1 ,...,y_N )</tex> - множество меток двух классов <tex>\omega _1</tex> и <tex>\omega _2</tex>. Требуется по обучающей выборке построить линейную решающую функции, т.е. такую линейную функцию <tex>f({\bf{x}})</tex>, которая удовлетворяла бы условию | ||
- | + | ::<tex>f({\bf{x}}_i ) > 0</tex> для всех <tex>{\bf{x}}_i \in \omega _1</tex>, | |
- | + | ::<tex>f({\bf{x}}_i ) < 0</tex> для всех <tex>{\bf{x}}_i \in \omega _2</tex>. | |
- | + | ||
Без ограничения общности можно считать, что метки классов равны | Без ограничения общности можно считать, что метки классов равны | ||
- | + | ::<tex>y_i = \left\{\:\;1,\;{\bf{x}}_i \in \varpi _1 , \\- 1,\;{\bf{x}}_i \in \varpi _2 . \right. </tex> | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
Тогда поставленную выше задачу можно переформулировать следующим образом. Требуется найти линейную решающую функцию <tex>f({\bf{x}})</tex>, которая бы удовлетворяла условию | Тогда поставленную выше задачу можно переформулировать следующим образом. Требуется найти линейную решающую функцию <tex>f({\bf{x}})</tex>, которая бы удовлетворяла условию | ||
- | + | {{eqno|1}} | |
+ | ::<tex>y_i f({\bf{x}}_i ) > 0 </tex> для всех <tex> {\bf{x}}_i \in \Xi</tex> | ||
- | Умножая, если нужно функцию <tex>f</tex> на некоторое положительное число нетрудно видеть, что система неравенств | + | Умножая, если нужно функцию <tex>f</tex> на некоторое положительное число нетрудно видеть, что система неравенств {{eqref|1}} равносильна системе |
- | + | ::<tex>y_i f({\bf{x}}_i ) > 1</tex> для всех <tex>{\bf{x}}_i \in \Xi </tex>. | |
Кроме того, так как <tex>f({\bf{x}})</tex> линейная функция, то последняя система неравенств примет вид | Кроме того, так как <tex>f({\bf{x}})</tex> линейная функция, то последняя система неравенств примет вид | ||
- | + | {{eqno|2}} | |
+ | ::<tex>y_i (({\bf{w}},{\bf{x}}_i ) + b) \ge 1,\quad i = 1,...,N</tex>, | ||
где <tex>{\bf{w}}</tex> вектор весовых коэффициентов, <tex>b</tex> некоторое число. Тогда разделяющей два класса гиперплоскостью будет <tex>({\bf{w}},{\bf{x}}) + b = 0</tex>. Нетрудно видеть, что и все гиперплоскости вида <tex>({\bf{w}},{\bf{x}}) + b' = 0</tex>, где <tex>b' \in (b - 1,b + 1)</tex> также будут разделяющими (рис.1). Расстояние между граничными гиперплоскостями <tex>({\bf{w}},{\bf{x}}) + b - 1 = 0</tex> и <tex>({\bf{w}},{\bf{x}}) + b + 1 = 0</tex> равно <tex>{{\frac {{2}}{{\left\| {\bf{w}} \right\|}} </tex>. Действительно, <tex>\left( {\frac{{\bf{w}}}{{\left\| {\bf{w}} \right\|}},{\bf{x}}} \right) + \frac{{b - 1}}{{\left\| {\bf{w}} \right\|}} = 0</tex> и <tex>\left( {\frac{{\bf{w}}}{{\left\| {\bf{w}} \right\|}},{\bf{x}}} \right) + \frac{{b + 1}}{{\left\| {\bf{w}} \right\|}} = 0</tex> нормальные уравнения этих гиперплоскостей. Тогда <tex>p_1 = \frac{{b - 1}}{{\left\| {\bf{w}} \right\|}}</tex> и <tex>p_2 = \frac{{b + 1}}{{\left\| {\bf{w}} \right\|}}</tex> расстояния от этих гиперплоскостей до начала координат и <tex>{{\frac {{2}}{{\left\| {\bf{w}} \right\|}} </tex> расстояние между гиперплоскостями. На самих граничных плоскостях может находиться некоторое число (не меньше двух) обучающих векторов. Эти векторы называются ''опорными''.[[Изображение:pic_l_1.jpg|thumb]] | где <tex>{\bf{w}}</tex> вектор весовых коэффициентов, <tex>b</tex> некоторое число. Тогда разделяющей два класса гиперплоскостью будет <tex>({\bf{w}},{\bf{x}}) + b = 0</tex>. Нетрудно видеть, что и все гиперплоскости вида <tex>({\bf{w}},{\bf{x}}) + b' = 0</tex>, где <tex>b' \in (b - 1,b + 1)</tex> также будут разделяющими (рис.1). Расстояние между граничными гиперплоскостями <tex>({\bf{w}},{\bf{x}}) + b - 1 = 0</tex> и <tex>({\bf{w}},{\bf{x}}) + b + 1 = 0</tex> равно <tex>{{\frac {{2}}{{\left\| {\bf{w}} \right\|}} </tex>. Действительно, <tex>\left( {\frac{{\bf{w}}}{{\left\| {\bf{w}} \right\|}},{\bf{x}}} \right) + \frac{{b - 1}}{{\left\| {\bf{w}} \right\|}} = 0</tex> и <tex>\left( {\frac{{\bf{w}}}{{\left\| {\bf{w}} \right\|}},{\bf{x}}} \right) + \frac{{b + 1}}{{\left\| {\bf{w}} \right\|}} = 0</tex> нормальные уравнения этих гиперплоскостей. Тогда <tex>p_1 = \frac{{b - 1}}{{\left\| {\bf{w}} \right\|}}</tex> и <tex>p_2 = \frac{{b + 1}}{{\left\| {\bf{w}} \right\|}}</tex> расстояния от этих гиперплоскостей до начала координат и <tex>{{\frac {{2}}{{\left\| {\bf{w}} \right\|}} </tex> расстояние между гиперплоскостями. На самих граничных плоскостях может находиться некоторое число (не меньше двух) обучающих векторов. Эти векторы называются ''опорными''.[[Изображение:pic_l_1.jpg|thumb]] | ||
- | Для надежного разделения классов необходимо чтобы расстояние между разделяющими гиперплоскостями было как можно большим, т.е. <tex>\left\| {\bf{w}} \right\|</tex> была как можно меньше. Таким образом, ставится задача нахождения минимума квадратичного функционала <tex>0.5({\bf{w}},{\bf{w}})</tex> (коэффициент 0.5 вводится для удобства дифференцирования) в выпуклом многограннике, задаваемым системой неравенств | + | Для надежного разделения классов необходимо чтобы расстояние между разделяющими гиперплоскостями было как можно большим, т.е. <tex>\left\| {\bf{w}} \right\|</tex> была как можно меньше. Таким образом, ставится задача нахождения минимума квадратичного функционала <tex>0.5({\bf{w}},{\bf{w}})</tex> (коэффициент 0.5 вводится для удобства дифференцирования) в выпуклом многограннике, задаваемым системой неравенств {{eqref|2}}. В выпуклом множестве квадратичный функционал всегда имеет единственный минимум (если это множество не пусто). Из теоремы Куна-Таккера следует, что решение этой оптимизационной задачи равносильно поиску седловой точки лагранжиана |
- | + | ::<tex>L({\bf{w}},b,{\bf{\lambda }}) = 0.5({\bf{w}},{\bf{w}}) - \sum\limits_{i = 1}^N {\lambda _i (y_i (({\bf{w}},{\bf{x}}_i ) + b) - 1)} \to \ {\min }\limits_{{\bf{w}},b} \ {\max }\limits_{\bf{\lambda }}</tex> | |
в ортанте по множителям Лагранжа <tex>\lambda _i \ge 0\;\;(i = 1,...,N)</tex>, при условии, что | в ортанте по множителям Лагранжа <tex>\lambda _i \ge 0\;\;(i = 1,...,N)</tex>, при условии, что | ||
- | + | ::<tex>\lambda _i \left( {y_i (({\bf{w}},{\bf{x}}_i ) + b) - 1} \right) = 0,\quad i = 1,...,N</tex>. | |
Последнее условие равносильно тому, что | Последнее условие равносильно тому, что | ||
- | + | {{eqno|3}} | |
+ | ::<tex>\lambda _i = 0 </tex> или <tex>y_i (({\bf{w}},{\bf{x}}_i ) + b) - 1 = 0,\quad i = 1,...,N</tex> | ||
Из необходимых условий существования седловой точки (полагая <tex>{\bf{x}}_i = (x_{i1} ,x_{i2} ,...,x_{in} )</tex>) имеем | Из необходимых условий существования седловой точки (полагая <tex>{\bf{x}}_i = (x_{i1} ,x_{i2} ,...,x_{in} )</tex>) имеем | ||
- | + | ::<tex>\left\{ {\begin{matrix} 0 = \frac{{\partial L}}{{\partial w_j }} = w_j - \sum\limits_{i = 1}^N {\lambda _i y_i x_{ij} } ,\quad j = 1,...,n, \\ 0 = \frac{{\partial L}}{{\partial b}} = \sum\limits_{i = 1}^N {\lambda _i y_i } . \\\end{matrix}} \right\.</tex> | |
Откуда следует, что вектор <tex>{\bf{w}}</tex> следует искать в виде | Откуда следует, что вектор <tex>{\bf{w}}</tex> следует искать в виде | ||
- | + | {{eqno|4}} | |
+ | ::<tex>{\bf{w}} = \sum\limits_{i = 1}^N {\lambda _i y_i {\bf{x}}_i }</tex>, | ||
причем | причем | ||
- | + | {{eqno|5}} | |
+ | ::<tex>\sum\limits_{i = 1}^N {\lambda _i y_i } = 0</tex>. | ||
- | В силу | + | В силу {{eqref|3}} в сумму {{eqref|4}} с ненулевыми коэффициентами <tex>\lambda _i</tex> входят только те векторы, для которых <tex>y_i (({\bf{w}},{\bf{x}}_i ) + b) - 1 = 0</tex>. Такие векторы называют опорными, так как это именно те векторы, через которые будут проходить граничные гиперплоскости, разделяющие классы. Для найденного весового вектора <tex>{\bf{w}}</tex> смещение <tex>b</tex> можно вычислить как <tex>b = {y_s}^{-1} - ({\bf{w}},{\bf{x}}_s )</tex> для любого опорного вектора <tex>{\bf{x}}_s </tex>. |
Найдем значения множителей Лагранжа, как критических точек лагранжиана. Для этого подставим (4) и (5) в лагранжиан, получим | Найдем значения множителей Лагранжа, как критических точек лагранжиана. Для этого подставим (4) и (5) в лагранжиан, получим | ||
- | + | ::<tex>L({\bf{w}},b,{\bf{\lambda }}) = 0.5({\bf{w}},{\bf{w}}) - \sum\limits_{i = 1}^N {\lambda _i (y_i (({\bf{w}},{\bf{x}}_i ) + b) - 1)} = </tex> | |
- | + | ::<tex>0.5({\bf{w}},{\bf{w}}) - \left( {({\bf{w}},{\bf{w}}) - \sum\limits_{i = 1}^N {\lambda _i } } \right) = \sum\limits_{i = 1}^N {\lambda _i } - 0.5({\bf{w}},{\bf{w}}) = </tex> | |
- | + | ::<tex>\sum\limits_{i = 1}^N {\lambda _i } - 0.5\sum\limits_{i,j = 1}^N {\lambda _i \lambda _j y_i y_j ({\bf{x}}_i ,{\bf{x}}_j )} = \sum\limits_{i = 1}^N {\lambda _i } - 0.5\left\| {\sum\limits_{i = 1}^N {\lambda _i y_i {\bf{x}}_i } } \right\|^2 </tex>. | |
Таким образом, задача сводится к нахождению критических точек функции | Таким образом, задача сводится к нахождению критических точек функции | ||
- | + | {{eqno|6}} | |
+ | ::<tex>\Phi ({\bf{\lambda }}) = \sum\limits_{i = 1}^N {\lambda _i } - 0.5\left\| {\sum\limits_{i = 1}^N {\lambda _i y_i {\bf{x}}_i } } \right\|^2 </tex>. | ||
Так как эта функция представляет собой разность линейной и квадратичной функций, причем квадратичная функция отрицательно определена, то требуется найти наибольшее значение функции <tex>\Phi ({\bf{\lambda }})</tex> при условии <tex>\sum\nolimits_{i = 1}^N {\lambda _i y_i } = 0</tex> в области <tex>\lambda _i \ge 0\;\;(i = 1,...,N)</tex>. Существует много алгоритмов (в теории оптимизации) решения этой задачи (например, градиентные методы, метод покоординатного спуска и т.д.). | Так как эта функция представляет собой разность линейной и квадратичной функций, причем квадратичная функция отрицательно определена, то требуется найти наибольшее значение функции <tex>\Phi ({\bf{\lambda }})</tex> при условии <tex>\sum\nolimits_{i = 1}^N {\lambda _i y_i } = 0</tex> в области <tex>\lambda _i \ge 0\;\;(i = 1,...,N)</tex>. Существует много алгоритмов (в теории оптимизации) решения этой задачи (например, градиентные методы, метод покоординатного спуска и т.д.). | ||
- | Замечания. | + | :'''Замечания'''. |
- | + | # Суммирования в {{eqref|6}} осуществляются не по всем векторам, а только по опорным, которых может быть гораздо меньше, чем обучающих. | |
- | + | # Линейная решающая функция в результате имеет вид <tex>f({\bf{x}}) = \textstyle\sum_{i} {\lambda _i y_i ({\bf{x}}_i ,{\bf{x}})} + y_r^{ - 1} - \textstyle\sum_{i} {\lambda _i y_i ({\bf{x}}_i ,{\bf{x}}_r )} </tex>, где <tex>\lambda _i</tex> зависят только <tex>y_i</tex> и от значений скалярного произведения <tex>({\bf{x}}_i ,{\bf{x}}_j )</tex>, причем суммирования осуществляются только по опорным векторам. | |
- | + | # После того, как решающая функция <tex>f({\bf{x}})</tex> вычислена, вектор <tex>{\bf{x}}</tex> следует относить классу <tex>\omega _1</tex>, если <tex>f({\bf{x}}) > 0</tex> и классу <tex>\omega _2</tex>, если <tex>f({\bf{x}}) < 0</tex>. Вероятность неправильной классификации можно оценить с помощью некоторой непрерывно убывающей функции <tex>\varphi (t)</tex>, удовлетворяющей условиям: <tex>\varphi (0) = 0.5</tex>, <tex>\varphi (t) \to 0</tex> при <tex>t \to \infty</tex>. Тогда вероятность <tex>p({\bf{x}})</tex> неправильной классификации вектора <tex>{\bf{x}}</tex> будет равна <tex>\varphi \left( {\rho ({\bf{x}},L_i )} \right)</tex>, если <tex>{\bf{x}} \in \omega _i</tex> (<tex>i = 1,2</tex>), где <tex>{L_i}</tex>: <tex>({\bf{w}},{\bf{x}}) + b + {{\rm sgn}} (\alpha - i) = 0</tex>, <tex>1 < \alpha < 2</tex>. То есть <tex>p({\bf{x}}) = \varphi \left( {\left| {\left( {\frac{{\bf{w}}}{{\left\| {\bf{w}} \right\|}},{\bf{x}}} \right) + \frac{{b + {{\rm sgn}} (\alpha - i)}}{{\left\| {\bf{w}} \right\|}}} \right|} \right)</tex>, если <tex>{\bf{x}} \in \omega _i </tex> <tex>(i = 1,2)</tex>. | |
- | + | # В такой постановке алгоритм линейный классификации был разработан [[Вапник, Владимир Наумович|В. Вапником]] в 1963 году. | |
- | + | ||
- | где <tex>\lambda _i</tex> зависят только <tex>y_i</tex> и от значений скалярного произведения <tex>({\bf{x}}_i ,{\bf{x}}_j )</tex>, причем суммирования осуществляются только по опорным векторам. | + | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | ''' | + | :'''Пример.''' Методом опорных векторов разделите классы <tex>\omega _1 = \left\{ {{\bf{x}}_1 } \right\}</tex> и <tex>\omega _2 = \left\{ {{\bf{x}}_2 ,{\bf{x}}_3 } \right\}</tex>, если <tex>{\bf{x}}_1 = (1,1)^T </tex>, <tex>{\bf{x}}_2 = (1,2)^T </tex>, <tex>{\bf{x}}_3 = (2,3)^T </tex>. |
- | + | :'''Решение'''. Положим <tex>y_1 = 1</tex>, <tex>y_2 = - 1</tex>, <tex>y_3 = - 1</tex>. Тогда функция <tex>\Phi ({\bf{\lambda }})</tex> будет иметь вид | |
- | + | ::<tex>\Phi ({\bf{\lambda }}) = \sum\limits_{i = 1}^3 {\lambda _i } - 0.5\sum\limits_{i,j = 1}^3 {\lambda _i \lambda _j y_i y_j ({\bf{x}}_i ,{\bf{x}}_j )} = </tex><tex>\lambda _1 + \lambda _2 + \lambda _3 - 0.5(2\lambda _1^2 + 5\lambda _2^2 + 13\lambda _3^2 - 6\lambda _1 \lambda _2 - 10\lambda _1 \lambda _3 + 16\lambda _2 \lambda _3 )</tex>, | |
причем <tex>\lambda _1 - \lambda _2 - \lambda _3 = 0 \Rightarrow \lambda _3 = \lambda _1 - \lambda _2 </tex>. Тогда <tex>\Phi (\lambda _1 ,\lambda _2 ) = 2\lambda _1 - 2.5\lambda _1^2 - \lambda _2^2 + 3\lambda _1 \lambda _2</tex>. Составим и решим нормальную систему для функции <tex>\Phi (\lambda _1 ,\lambda _2 )</tex>: | причем <tex>\lambda _1 - \lambda _2 - \lambda _3 = 0 \Rightarrow \lambda _3 = \lambda _1 - \lambda _2 </tex>. Тогда <tex>\Phi (\lambda _1 ,\lambda _2 ) = 2\lambda _1 - 2.5\lambda _1^2 - \lambda _2^2 + 3\lambda _1 \lambda _2</tex>. Составим и решим нормальную систему для функции <tex>\Phi (\lambda _1 ,\lambda _2 )</tex>: | ||
- | + | ::<tex>\left\{ \begin{matrix}{l}\frac{{\partial \Phi }}{{\partial \lambda _1 }} = 0, \\ \frac{{\partial \Phi }}{{\partial \lambda _2 }} = 0 \\ \end{matrix} \right. \Leftrightarrow \left\{ \begin{matrix}{l} 2 - 5\lambda _1 + 3\lambda _2 = 0, \\ - 2\lambda _2 + \lambda _1 = 0 \\ \end{matrix} \right. \Leftrightarrow \left\{ \begin{matrix}{l} \lambda _1 = 4, \\ \lambda _2 = 6. \\ \end{matrix} \right.</tex> | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
Следовательно, <tex>\lambda _1 = 4</tex>, <tex>\lambda _2 = 6</tex>, <tex>\lambda _3 = - 2</tex>. Так как <tex>\lambda _3 < 0</tex>, то исследуем функцию <tex>\Phi ({\bf{\lambda }})</tex> на границе области <tex>\lambda _i \ge 0\;\;(i = 1,2,3)</tex> при условии <tex>\lambda _3 = \lambda _1 - \lambda _2 </tex>. Если <tex>\lambda _1 = 0</tex>, то <tex>\lambda _3 = - \lambda _2 \Rightarrow \lambda _i^{(1)} = 0\;\;(i = 1,2,3) \Rightarrow \Phi ({\bf{\lambda }}^{(1)} ) = 0</tex>. Пусть <tex>\lambda _2 = 0</tex>. Тогда <tex>\lambda _1 = \lambda _3 = \lambda </tex> и <tex>\Phi (\lambda ) = 2\lambda - 2.5\lambda ^2 </tex>, <tex>\Phi '(\lambda ) = 0</tex> при <tex>\lambda ^{(2)} = {2/5}</tex>. Следовательно, <tex>\lambda _1^{(2)} = \lambda _3^{(2)} = {2/5}</tex>, <tex>\lambda _2^{(2)} = 0</tex> и <tex>\Phi ({\bf{\lambda }}^{(2)} ) = {2/5}</tex>.[[Изображение:pic_2.jpg|thumb]] | Следовательно, <tex>\lambda _1 = 4</tex>, <tex>\lambda _2 = 6</tex>, <tex>\lambda _3 = - 2</tex>. Так как <tex>\lambda _3 < 0</tex>, то исследуем функцию <tex>\Phi ({\bf{\lambda }})</tex> на границе области <tex>\lambda _i \ge 0\;\;(i = 1,2,3)</tex> при условии <tex>\lambda _3 = \lambda _1 - \lambda _2 </tex>. Если <tex>\lambda _1 = 0</tex>, то <tex>\lambda _3 = - \lambda _2 \Rightarrow \lambda _i^{(1)} = 0\;\;(i = 1,2,3) \Rightarrow \Phi ({\bf{\lambda }}^{(1)} ) = 0</tex>. Пусть <tex>\lambda _2 = 0</tex>. Тогда <tex>\lambda _1 = \lambda _3 = \lambda </tex> и <tex>\Phi (\lambda ) = 2\lambda - 2.5\lambda ^2 </tex>, <tex>\Phi '(\lambda ) = 0</tex> при <tex>\lambda ^{(2)} = {2/5}</tex>. Следовательно, <tex>\lambda _1^{(2)} = \lambda _3^{(2)} = {2/5}</tex>, <tex>\lambda _2^{(2)} = 0</tex> и <tex>\Phi ({\bf{\lambda }}^{(2)} ) = {2/5}</tex>.[[Изображение:pic_2.jpg|thumb]] | ||
Строка 116: | Строка 101: | ||
Таким образом, наибольшее значение функции <tex>\Phi ({\bf{\lambda }})</tex> в области <tex>\lambda _i \ge 0</tex> <tex>(i = 1,2,3)</tex> при условии <tex>\lambda _3 = \lambda _1 - \lambda _2</tex> достигается в точке <tex>{\bf{\lambda }}^{(3)} = \left( {2,2,0} \right)^T</tex>. В этом случае, | Таким образом, наибольшее значение функции <tex>\Phi ({\bf{\lambda }})</tex> в области <tex>\lambda _i \ge 0</tex> <tex>(i = 1,2,3)</tex> при условии <tex>\lambda _3 = \lambda _1 - \lambda _2</tex> достигается в точке <tex>{\bf{\lambda }}^{(3)} = \left( {2,2,0} \right)^T</tex>. В этом случае, | ||
- | + | ::<tex> \left{ \begin{matrix}{l} \bf{w} = \sum\limits_{i = 1}^3 {\lambda _i y_i {\bf{x}}_i } = 2{\bf{x}}_1 - 2{\bf{x}}_2 = 2\left( \begin{matrix} 1 \\ 1 \\ \end{matrix} \right) - 2\left( \begin{matrix}1\\ 2 \\ \end{matrix} \right) = \left( \begin{matrix} 0 \\ - 2 \\ \end{matrix} \right ),\\ b = \frac {1} {{y_1 }} - ({\bf{w}},{\bf{x}}_1 ) = 1 - (0 - 2) = 3. \end{matrix}\right.</tex> | |
Таким образом, <tex>f({\bf{x}}) = ({\bf{w}},{\bf{x}}) + b = - 2x_2 + 3</tex> и <tex>f({\bf{x}}) = 0 \Leftrightarrow x_2 = 1.5</tex>. Ширина разделяющей полосы будет равна <tex>{{\frac {{2}}{{\left\| {\bf{w}} \right\|}} </tex>, а прямые <tex>f({\bf{x}}) + 1 = 0 \Leftrightarrow f({\bf{x}}) = 0 \Leftrightarrow x_2 = 2</tex> и <tex>f({\bf{x}}) - 1 = 0 \Leftrightarrow x_2 = 1</tex> будут ее границами (см. рис.2). | Таким образом, <tex>f({\bf{x}}) = ({\bf{w}},{\bf{x}}) + b = - 2x_2 + 3</tex> и <tex>f({\bf{x}}) = 0 \Leftrightarrow x_2 = 1.5</tex>. Ширина разделяющей полосы будет равна <tex>{{\frac {{2}}{{\left\| {\bf{w}} \right\|}} </tex>, а прямые <tex>f({\bf{x}}) + 1 = 0 \Leftrightarrow f({\bf{x}}) = 0 \Leftrightarrow x_2 = 2</tex> и <tex>f({\bf{x}}) - 1 = 0 \Leftrightarrow x_2 = 1</tex> будут ее границами (см. рис.2). |
Версия 09:16, 8 августа 2008
Машина опорных векторов — является одной из наиболее популярных методологий обучения по прецедентам, предложенной В. Н. Вапником и известной в англоязычной литературе под названием SVM (Support Vector Machine).
Оптимальная разделяющая гиперплоскость. Понятие зазора между классами (margin). Случай линейной разделимости. Задача квадратичного программирования. Опорные векторы. Случай отсутствия линейной разделимости. Функции ядра (kernel functions), спрямляющее пространство, теорема Мерсера. Способы построения ядер. Примеры ядер. Сопоставление SVM и нейронной RBF-сети. Обучение SVM методом активных ограничений. SVM-регрессия.
Содержание |
Машина опорных векторов в задачах классификации
Понятие оптимальной разделяющей гиперплоскости
Линейно разделимая выборка
Рассмотрим задачу нахождения наилучшего в некотором смысле разделения множества векторов на два класса с помощью линейной решающей функции. Пусть имеется множество прецедентов , где - обучающая выборка, а - множество меток двух классов и . Требуется по обучающей выборке построить линейную решающую функции, т.е. такую линейную функцию , которая удовлетворяла бы условию
- для всех ,
- для всех .
Без ограничения общности можно считать, что метки классов равны
Тогда поставленную выше задачу можно переформулировать следующим образом. Требуется найти линейную решающую функцию , которая бы удовлетворяла условию
- для всех
Умножая, если нужно функцию на некоторое положительное число нетрудно видеть, что система неравенств (1) равносильна системе
- для всех .
Кроме того, так как линейная функция, то последняя система неравенств примет вид
- ,
Для надежного разделения классов необходимо чтобы расстояние между разделяющими гиперплоскостями было как можно большим, т.е. была как можно меньше. Таким образом, ставится задача нахождения минимума квадратичного функционала (коэффициент 0.5 вводится для удобства дифференцирования) в выпуклом многограннике, задаваемым системой неравенств (2). В выпуклом множестве квадратичный функционал всегда имеет единственный минимум (если это множество не пусто). Из теоремы Куна-Таккера следует, что решение этой оптимизационной задачи равносильно поиску седловой точки лагранжиана
в ортанте по множителям Лагранжа , при условии, что
- .
Последнее условие равносильно тому, что
- или
Из необходимых условий существования седловой точки (полагая ) имеем
Откуда следует, что вектор следует искать в виде
- ,
причем
- .
В силу (3) в сумму (4) с ненулевыми коэффициентами входят только те векторы, для которых . Такие векторы называют опорными, так как это именно те векторы, через которые будут проходить граничные гиперплоскости, разделяющие классы. Для найденного весового вектора смещение можно вычислить как для любого опорного вектора .
Найдем значения множителей Лагранжа, как критических точек лагранжиана. Для этого подставим (4) и (5) в лагранжиан, получим
- .
Таким образом, задача сводится к нахождению критических точек функции
- .
Так как эта функция представляет собой разность линейной и квадратичной функций, причем квадратичная функция отрицательно определена, то требуется найти наибольшее значение функции при условии в области . Существует много алгоритмов (в теории оптимизации) решения этой задачи (например, градиентные методы, метод покоординатного спуска и т.д.).
- Замечания.
- Суммирования в (6) осуществляются не по всем векторам, а только по опорным, которых может быть гораздо меньше, чем обучающих.
- Линейная решающая функция в результате имеет вид , где зависят только и от значений скалярного произведения , причем суммирования осуществляются только по опорным векторам.
- После того, как решающая функция вычислена, вектор следует относить классу , если и классу , если . Вероятность неправильной классификации можно оценить с помощью некоторой непрерывно убывающей функции , удовлетворяющей условиям: , при . Тогда вероятность неправильной классификации вектора будет равна , если (), где : , . То есть , если .
- В такой постановке алгоритм линейный классификации был разработан В. Вапником в 1963 году.
- Пример. Методом опорных векторов разделите классы и , если , , .
- Решение. Положим , , . Тогда функция будет иметь вид
- ,
причем . Тогда . Составим и решим нормальную систему для функции :
Если же , то и , при . Следовательно, , и .
Таким образом, наибольшее значение функции в области при условии достигается в точке . В этом случае,
Таким образом, и . Ширина разделяющей полосы будет равна , а прямые и будут ее границами (см. рис.2).
Линейно неразделимая выборка
В 1992 году в работе Бернарда Бозера (Boser B.), Изабелл Гийон (Guyon I.) и Владимира Вапника был предложен способ адаптации машины опорных векторов для нелинейного разделения классов. В этом случае нужно вложить пространство признаков в пространство большей размерности с помощью отображения . Будем считать, что пространство со скалярным произведением. Тогда, рассматривая алгоритм опорных векторов для образов обучающей выборки, сведем решение задачи к линейно разделимому случаю, т.е. разделяющую функцию будем искать в виде
, ,
где коэффициенты зависят от и от значения . Таким образом, для нахождения решающей функции нужно знать значения скалярных произведений . Для этого исследуем свойства функции , которая называется ядром. Следующая теорема, известная в теории интегральных операторов и доказанная Джеймсом Мерсером в 1909 году, полностью характеризует ядро.
Теорема 1. Функция является ядром тогда и только тогда, когда она удовлетворяет условиям:
1) (симметричность);
2) неотрицательно определена, т.е. матрица , является неотрицательно определенной для любых векторов .
Упражнение. Докажите, что следующие функции являются ядрами:
1) ;
2) ;
3) .
Теорема 2. Справедливы следующие свойства ядер:
1) сумма ядер – ядро;
2) произведение ядер – ядро;
3) сумма равномерно сходящегося ряда ядер – ядро;
4) композиция ядра и любого отображения (т.е. ) – ядро.
Следствие.
1) многочлен с положительными коэффициентами от ядра – ядро;
2) экспонента от ядра – ядро;
3) функция ядро.
Доказательство. Утверждения 1 и 2 следуют из пунктов 1, 2 и 3 теоремы. Справедливость утверждения 3 вытекает из того, что , а симметричность и положительная определенность функций проверяется непосредственно.
Любые векторов могут быть разделены на любые два класса с помощью мономиального отображения степени не больше . Поэтому, если , такое отображение, то ядро, соответствующее этому отображению можно искать в виде
.
Таким образом, это ядро гарантирует разделение любых векторов на любые два класса. В этом случае нахождение разделяющих функций осуществляется следующим образом:
1) найдем наибольшее значение функции
при условии в области , получим вектор ;
2) разделяющую функцию ищем в виде
.
Преимущества и недостатки SVM:
1) это наиболее быстрый метод нахождения решающих функций;
2) метод сводится к решению задачи квадратичного программирования в выпуклой области, которая всегда имеет единственное решение;
3) метод находит разделяющую полосу максимальной ширины, что позволяет в дальнейшем осуществлять более уверенную классификацию;
4) метод чувствителен к шумам и стандартизации данных;
5) не существует общего подхода к автоматическому выбору ядра (и построению спрямляющего подпространства в целом) в случае линейной неразделимости классов.
Пример. Методом опорных векторов разделите классы и , если , , (рис.1).Решение. Так как количество векторов обучающей выборки равно трем, то и в качестве ядра возьмем функцию . Тогда
.
Составим нормальную систему
Можно показать, что в точке будет достигаться наибольшее значение функции при условии в области . Следовательно,
.Таким образом, и , , . Тогда , или . Если рассмотреть вложение двумерного пространства признаков в трехмерное по правилу и проекцию последнего на плоскость , то можно проиллюстрировать разделение элементов обучающей выборки графиками функций , (см. рис.2).
Ядра и спрямляющие пространства
Наиболее распространенные ядра:
- Полиномиальное:
- Полиномиальное:
- Радиальное: , для
Алгоритмы настройки
Машина опорных векторов в задачах регрессии
Программные реализации
Литература
- Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с. (подробнее)
- Hastie, T., Tibshirani, R., Friedman, J. The Elements of Statistical Learning, 2nd edition. — Springer, 2009. — 533 p. (подробнее)