• 0

  • 124

深入理解SVM,软间隔与对偶问题

机器猫

机器学习

1个月前

今天是机器学习专题的第33篇文章,我们继续来聊聊SVM模型。

在上一篇文章当中我们推到了SVM模型在线性可分的问题中的公式推导,我们最后得到的结论是一个带有不等式的二次项:

 

想要了解具体推导过程的同学,可以参考我的上一篇文章:

机器学习 | 深入SVM原理及模型推导(一)

其实上一篇的文章当中遗留了一个问题,就是我们希望得到 ∣ ∣ ω ∣ ∣ ||\omega|| 最小,为什么不直接求 ∣ ∣ ω ∣ ∣ ||\omega|| 最小,而非要求 ∣ ∣ ω ∣ ∣ 2 ||\omega||^2 最小呢?原因就在它的解法上,因为我们要将它转化成一个凸二次规划问题(Quadratic Programming)。QP问题也是计算科学当中一个很重要的领域,也是比较困难的领域,因为需要对计算机以及数学都有很深的造诣。

我个人感觉和实际的机器学习以及工程结合不是非常紧密,目前主要在SVM模型的原理推导上用到,所以我们可以只需要把SVM用到的公式原理理解就可以了。

求解过程

QP问题其实有专门的QP计算包可以求它的极值,我也曾经用过,但这并不是唯一的解法,并且这种解法有一个很大的缺点在于没办法套用核函数。所以我们一般不使用QP规划的方法来求解。

我们观察一下原式,很自然的会有一种感觉,就是那些不等式很烦人。我们希望消除掉这些不等式,也有办法,就是通过使用拉格朗日乘子法来将有约束的优化目标转化成无约束的优化函数。

我们来看下拉格朗日乘子法的使用过程,给定一个不等式约束问题:

对于这个看起来很复杂的方程组,我们引入一个广义朗格朗日函数,将它改写成这样:

L ( x , α , β ) = f ( x ) + ∑ i = 1 k α i g i ( x ) + ∑ j = 1 m β j h j ( x ) , α i ≥ 0 L(x, \alpha, \beta)=f(x) + \sum_{i=1}^k \alpha_ig_i(x)+\sum_{j=1}^m \beta_jh_j(x), \quad \alpha_i \ge 0

这个式子相比于上面的方程组看起来要简单一些,但是它有什么用呢?我们简单分析一下,会发现 L ≤ f ( x ) L \le f(x) 。因为 α i ≥ 0 \alpha_i \ge 0 ,并且 g i ( x ) ≤ 0 g_i(x) \le 0 。所以两者相加, L ≤ f ( x ) L \le f(x) ,当 α i = 0 \alpha_i = 0 时L可以取到最大值,这时 L = f ( x ) L = f(x) 。所以我们要求的是 max ⁡ L ( x , α , β ) \max L(x, \alpha, \beta)

又由于我们要求的目标是 f ( x ) f(x) 的极小值,我们最终的目标是 min ⁡ x max ⁡ α i ≥ 0 L ( x , α , β ) \min_{x} \max_{\alpha_i \ge 0} L(x, \alpha, \beta)

对偶问题

接下来我们就要讨论著名的对偶问题了,所谓的对偶问题,实质上是将一个带有两个不等式的方程的不等式进行调换顺序。把 min ⁡ max ⁡ L \min \max L 转变成 max ⁡ min ⁡ L \max \min L ,但问题是不等号的位置显然是有讲究的,不可以随意调换顺序,所以我们需要证明这样调换成立的。

为了方便起见,我们把原问题写成 θ P ( x ) = min ⁡ x max ⁡ α , β L ( x , α , β ) \theta_P(x)=\min_x \max_{\alpha, \beta}L(x, \alpha, \beta) ,我们再定义一个关于 α \alpha β \beta 有关的方程: θ D ( α , β ) = min ⁡ x L ( x , α , β ) \theta_D(\alpha, \beta) = \min_{x}L(x, \alpha, \beta) 。这个方程等式的右边是拉格朗日函数的最小化,因为x确定了之后,方程的结果就只和 α \alpha 以及 β \beta 相关,所以它是一个关于 α \alpha β \beta 的函数。

我们对这个函数求极大值:

max ⁡ α i ≥ 0 θ D ( α , β ) = max ⁡ α i ≥ 0 min ⁡ x L ( x , α , β ) \max_{\alpha_i \ge 0} \theta_D(\alpha, \beta) = \max_{\alpha_i \ge 0} \min_{x} L(x, \alpha, \beta)

不知道这个式子看起来是不是觉得有些眼熟,因为它和我们刚才推导得出来的原问题非常相似,只是不等号的位置不同。我们为什么要列出这两个式子呢?当然不是为了好玩的,主要是为了想要得到这样一条不等式:

θ D ( α , β ) = max ⁡ α i ≥ 0 min ⁡ x L ( x , α , β ) ≤ min ⁡ x max ⁡ α i ≥ 0 L ( x , α , β ) = θ P ( x ) \theta_D(\alpha, \beta) = \max_{\alpha_i \ge 0} \min_x L(x, \alpha, \beta) \le \min_x \max_{\alpha_i \ge 0} L(x, \alpha, \beta) = \theta_P(x)

我们用拉格朗日方程做过度,就可以很容易证明这个式子:

min ⁡ x L ( x , α , β ) ≤ L ( x , α , β ) ≤ max ⁡ α i ≥ 0 L ( x , α , β ) \min_x L(x, \alpha, \beta) \le L(x, \alpha, \beta) \le \max_{\alpha_i \ge 0} L(x, \alpha, \beta)

我们想要用对偶问题代替原问题,就需要上面这个不等号取等。对于拉格朗日方程取等的条件,数学家们已经有了严谨的证明,只需要满足Karush-Kuhn-Tucker条件(简称KTT条件)。KTT的条件推导也是一个挺复杂的过程,我们不做深入研究, 只需要知道它的存在就可以了。

KTT条件有这么几条,看起来多其实并不复杂。

我们对照KTT条件,求解 θ P ( x ) \theta_P(x) 的极小值,这个就是高中数学的部分了。我们首先对原式进行化简:

L ( x , ω , b ) = 1 2 ∣ ∣ ω ∣ ∣ 2 + ∑ i = 1 m α i ( 1 − y i ( ω T x i + b ) ) = 1 2 ∣ ∣ ω ∣ ∣ 2 + ∑ i = 1 m ( α i − α i y i ω T x i − α i y i b ) = 1 2 ∣ ∣ ω ∣ ∣ 2 + ∑ i = 1 m α i − ∑ i = 1 m α i y i ω T x i − ∑ i = 1 m α i y i b \begin{aligned} L(x, \omega, b) &= \frac{1}{2}||\omega||^2 + \sum_{i=1}^m\alpha_i(1 - y_i(\omega^T x_i + b))\\ &= \frac{1}{2}||\omega||^2 + \sum_{i=1}^m (\alpha_i - \alpha_i y_i \omega^Tx_i - \alpha_i y_ib) \\ &= \frac{1}{2}||\omega||^2 + \sum_{i=1}^m \alpha_i - \sum_{i=1}^m \alpha_i y_i\omega^Tx_i - \sum{i=1}^m \alpha_i y_ib \end{aligned}

再对 ω \omega b b 进行求导:

我们通过求导得出了 ω \omega α \alpha 之间的关系,也就是说只要我们确定了 α \alpha 也就确定了 ω \omega ,另外我们可以神奇地发现上面的式子当中已经没有了b,说明b已经被我们消去了。我们把上面求导得到的取极值时的 ω \omega b b 代入原式,消去 ω \omega b b ,可以得到:

min ⁡ ω , b L ( x , ω , b ) = 1 2 ω T ω + ∑ i = 1 m α i − ∑ i = 1 m α i y i ω T x i − ∑ i = 1 m α i y i b = − 1 2 ω T ∑ i = 1 m α i y i x i + ∑ i = 1 m α i − b ∑ i = 1 m α i y i = − 1 2 ω T ∑ i = 1 m α i y i x i + ∑ i = 1 m α i = ∑ i = 1 m α i − 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j x i T x j \begin{aligned} \min_{\omega, b} L(x, \omega, b) &= \frac{1}{2}\omega^T\omega + \sum_{i=1}^m \alpha_i - \sum_{i=1}^m \alpha_iy_i\omega^Tx_i - \sum_{i=1}^m \alpha_iy_i b \\ &= -\frac{1}{2}\omega^T\sum_{i=1}^m \alpha_iy_i x_i + \sum_{i=1}^m \alpha_i - b\sum_{i=1}^m \alpha_iy_i \\ & = -\frac{1}{2}\omega^T\sum_{i=1}^m \alpha_iy_i x_i + \sum_{i=1}^m \alpha_i \\ & = \sum_{i=1}^m \alpha_i - \frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m \alpha_i \alpha_j y_i y_j x_i^T x_j \end{aligned}

我们观察一下是这个式子,会发现x和y都是固定的值由样本确定,唯一的变量就只有 α \alpha 了。我们要求的是上式的极大值,唯一的变量是 α \alpha ,求出了 α \alpha 就可以推导得到对应的 ω \omega 和b。

那么这个 α \alpha 怎么求呢?相关的内容我们放到下一篇文章。

今天的文章到这里就结束了,如果喜欢本文的话,请来一波素质三连,给我一点支持吧(关注、转发、点赞)。

原文链接,求个关注

免责声明:文章版权归原作者所有,其内容与观点不代表Unitimes立场,亦不构成任何投资意见或建议。

机器学习

124

相关文章推荐

未登录头像

暂无评论