常见的几种最优化方法

  • Post author:
  • Post category:其他



参考:http://blog.csdn.net/majinlei121/article/details/47260917


http://www.cnblogs.com/maybe2030/p/4751804.html


http://mp.weixin.qq.com/s?__biz=MzI5NzA3NjIwMA==&mid=2247483799&idx=1&sn=12c549869e05efa17aeb2bd3e4cd03f3&mpshare=1&scene=1&srcid=0222ltGcXjacwXGwwTmYSdzg#rd



1. 前言


熟悉

机器学习

的童鞋都知道,优化方法是其中一个非常重要的话题,最常见的情形就是利用目标函数的导数通过多次迭代来求解无约束最优化问题。实现简单,coding 方便,是训练模型的必备利器之一。









2. 几个数学概念









1) 梯度(一阶导数)




考虑一座在 (x1, x2) 点高度是 f(x1, x2) 的山。那么,某一点的梯度方向是在该点坡度最陡的方向,而梯度的大小告诉我们坡度到底有多陡。

注意,梯度也可以告诉我们不在最快变化方向的其他方向的变化速度




二维情况下,按照梯度方向倾斜的圆在平面上投影成一个椭圆


)。


对于一个含有 n 个变量的标量函数,即函数输入一个 n 维 的向量,输出一个数值,梯度可以定义为:










2) Hesse 矩阵(二阶导数)




Hesse 矩阵常被应用于



牛顿法解决的大规模优化问题


(


后面会介绍),主要形式如下:





当 f(x) 为二次函数时,梯度以及 Hesse 矩阵很容易求得。二次函数可以写成下列形式:






其中 x为列向量,A 是 n 阶对称矩阵,b 是 n 维列向量, c 是常数。


f(x) 梯度是 Ax+b, Hesse 矩阵等于 A












3) Jacobi 矩阵


Jacobi 矩阵实际上是向量值函数的梯度矩阵,假设F:Rn→Rm 是一个从n维欧氏空间转换到m维欧氏空间的函数。这个函数由m个实函数组成:



。这些函数的偏导数(如果存在)可以组成一个


m行n列的矩阵


(m by n),这就是所谓的雅可比矩阵:





总结一下,




a)

如果 f(x) 是一个标量函数,那么雅克比矩阵是一个向量,等于 f(x) 的梯度, Hesse 矩阵是一个二维矩阵。如果 f(x) 是一个向量值函数,那么Jacobi 矩阵是一个二维矩阵,Hesse 矩阵是一个三维矩阵。



b)

梯度是 Jacobian 矩阵的特例,梯度的 jacobian 矩阵就是 Hesse 矩阵(一阶偏导与二阶偏导的关系)。



常见的最优化方法有梯度下降法、牛顿法和拟牛顿法、共轭梯度法等等。


1. 梯度下降法(Gradient Descent)


梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。


梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。


梯度下降法的搜索迭代示意图如下图所示:









牛顿法的缺点:





(1)靠近极小值时收敛速度减慢,如下图所示;





(2)直线搜索时可能会产生一些问题;





(3)可能会“之字形”地下降。








从上图可以看出,梯度下降法在接近最优解的区域收敛速度明显变慢,利用梯度下降法求解需要很多次的迭代。


在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。


比如对一个线性回归(Linear Logistics)模型,假设


下面的h(x)是要拟合的函数,J(theta)为损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的样本个数,n是特征的个数。







其迭代公式如下:



1)批量梯度下降法(Batch Gradient Descent,BGD)


(1)将J(theta)对theta求偏导,得到每个theta对应的的梯度:




(2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向,来更新每个theta:




(3)从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果m很大,那么可想而知这种方法的迭代速度会相当的慢。所以,这就引入了另外一种方法——随机梯度下降。


对于批量梯度下降法,样本个数m,x为n维向量,一次迭代


需要把m个样本全部带入计算,迭代一次计算量为m*n

2






2)随机梯度下降(Stochastic Gradient Descent,SGD)


(1)上面的风险函数可以写成如下这种形式,损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:




(2)每个样本的损失函数,对theta求偏导得到对应梯度,来更新theta:




(3)随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。


随机梯度下降每次迭代只使用一个样本,迭代一次计算量为n

2

,当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法。


两者的关系可以这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。







对批量梯度下降法和随机梯度下降法的总结:






批量梯度下降

—最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小,但是对于大规模样本问题效率低下。






随机梯度下降

—最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。


2. 牛顿法和拟牛顿法(Newton’s method & Quasi-Newton Methods)








1)牛顿法(Newton’s method)



相比最速下降法,牛顿法通常有更快的收敛速度,并且具有一定的全局预测性。其算法利用局部的一阶和二阶偏导信息,推测整个函数的性状,进而求得近似函数的全局最小值。然后将当前最小值设定成近似函数的最小值。


具体步骤:






第一步,利用Taylor级数切得原函数的二阶近似:




第二步,把x看作是自变量,所有带

x



k


的项看做常量,令一阶倒数为0,即可求近似函数的最小值:




即:



第三步,将当前的最小值设定近似函数的最小值(或乘以步长)。




关于牛顿法和梯度下降法的效率对比:







从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。(牛顿法目光更加长远,所以少走弯路;相对而言,梯度下降法只考虑了局部的最优,没有全局思想。)







根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优下降路径。



注:红


色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径。




牛顿法的优缺点总结:






优点:

二阶收敛,收敛速度快;





缺点:

牛顿法是一种迭代算法,每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂。Hesse 矩阵不可逆时无法计算;矩阵的逆的计算复杂度为n的立方,当问题规模比较大时,计算量很大,解决方法是采用拟牛顿法,比如 BFGS,L-BFGS,DFP,Broyden’s Algorithm 进行近似;



2)拟牛顿法(Quasi-Newton Methods)


拟牛顿法是求解非线性优化问题最有效的方法之一,于20世纪50年代由美国Argonne国家实验室的物理学家W.C.Davidon所提出来。Davidon设计的这种算法在当时看来是非线性优化领域最具创造性的发明之一。不久R. Fletcher和M. J. D. Powell证实了这种新的算法远比其他方法快速和可靠,使得非线性优化这门学科在一夜之间突飞猛进。




拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度。




拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法,尤其对于困难的问题。另外,因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效。如今,优化软件中包含了大量的拟牛顿算法用来解决无约束,约束,和大规模的优化问题。



具体步骤:




拟牛顿法的基本思想如下。首先构造目标函数在当前迭代x

k



的二次模型:


这里B

k

是一个对称正定矩阵,于是我们取这个二次模型的最优解作为搜索方向,并且得到新的迭代点:




其中我们要求步长a

k


满足Wolfe条件。这样的迭代与牛顿法类似,区别就在于用近似的Hesse矩阵B

k


代替真实的Hesse矩阵。所以拟牛顿法最关键的地方就是每一步迭代中矩阵B

k


的更新。现在假设得到一个新的迭代x

k+1

,并得到一个新的二次模型:


我们尽可能地利用上一步的信息来选取B

k

。具体地,我们要求



从而得到


这个公式被称为割线方程。


常用的拟牛顿法有DFP算法和BFGS算法。


3. 共轭梯度法(Conjugate Gradient)




共轭梯度法是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。


在各种优化算法中,共轭梯度法是非常重要的一种。其优点是所需存储量小,具有步收敛性,稳定性高,而且不需要任何外来参数。

具体的实现步骤请参加

wiki百科共轭梯度法



下图为共轭梯度法和梯度下降法搜索最优解的路径对比示意图:


注:绿色为梯度下降法,红色代表共轭梯度法

MATLAB代码:
function [x] = conjgrad(A,b,x)
    r=b-A*x;
    p=r;
    rsold=r'*r;

    for i=1:length(b)
        Ap=A*p;
        alpha=rsold/(p'*Ap);
        x=x+alpha*p;
        r=r-alpha*Ap;
        rsnew=r'*r;
        if sqrt(rsnew)<1e-10
              break;
        end
        p=r+(rsnew/rsold)*p;
        rsold=rsnew;
    end
end

4. 启发式优化方法


启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特点是在解决问题时,利用过去的经验,选择已经行之有效的方法,而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多,包括经典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等等。


还有一种特殊的优化算法被称之多目标优化算法,它主要针对同时优化多个目标(两个及两个以上)的优化问题,这方面比较经典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等。



这部分的内容会在之后的博文中进行详细总结,敬请期待。

这部分内容的介绍已经在博客




[Evolutionary Algorithm] 进化算法简介

》进行了概要式的介绍,有兴趣的博友可以进行参考(2015.12.13)。

5. 解决约束优化问题——拉格朗日乘数法


有关拉格朗日乘数法的介绍请见我的另一篇博客:

《拉格朗日乘数法》