在上一篇博客中,自己介绍了Levenberg_Marquardt的算法流程,特点以及在非线性最小二乘问题上的应用,信赖域算法也是自己曾经研究过的算法,并且在姿态估计上进行了应用,比较下来,得到的精度和Levenberg_Marquardt算法不相上下,但是收敛速度却不如LM。本文介绍一下自己对信赖域算法的理解,与童鞋们分享一下。
相信做过机器学习的童鞋,一定使用过搜索算法,例如梯度下降法,牛顿法,拟牛顿法,BFGS算法,LM算法等,这些算法有一个共同的特点,它们的基本策略,也就是所谓的算法思想,都是“定方向,定步长”,不知道我这么概括准确不准确,比如说经典到骨子里的梯度下降,先选择梯度相反方向作为搜索方向,然后要么一维搜索,要么索性定个步长公式,沿着既定方向根据步长确定变量更新值,无一例外。
然而,半路杀出了个程咬金,信赖域算法却不是这样干的,人家采用的方法是“定区域,定极值”的方法,来达到同样的目的。
牛逼吧?我替你回答, 是的。这个毁三观的行为,造就了有趣的信赖域算法。
信赖域算法是在一个球形区域内进行搜索,具体说来,先定好一个球形区域,然后在这个球形区域的中心点进行二阶泰勒近似(和LM是不是很像?LM是一阶泰勒近似),如公式(1)所示,这个近似美其名曰“子问题”,由于二阶泰勒近似其实就是一个二次规划问题,可以直接求取极值,得到了子问题的最优解之后,下一步就要考察这个最优解(也就是参数变化量d)是否能够使得“原问题”不断的下降,这里,引入了一个比较巧妙的度量方式,用于度量函数值实际下降量和预测下降量之间的比值,如公式(2)所示,如果这个比值大于一定的数值,说明参数变化量d是正确的,进一步,调整球形的半径r,否则,就要摒弃这个d,减小半径r,重新搜索。精髓一句话,每一步迭代都会转化为子问题来处理,不断地更新参数,最终得到收敛解。
(1)
(2)
正如上一篇博客一样,担心大家听不懂我在说什么,我还是画个算法流程图,如下所示:
同样也附上算法代码,这里我还是用信赖域算法,去解决任何一个非线性最小二乘问题,输入变量的含义均已进行注释。
下一篇博客,我会比较LM与信赖域算法之间对于同一问题的处理速度和算法精度,我觉得这两个算法有必要好好的比较一下。
如果有bug或error,还请多多指教啊!小弟嗷嗷感激!!
%% 信赖域算法
function[x, iter] = Trust_Region(f, var, x0, r0, miu, yita, eps)
% 目标函数: f
% 自变量向量: var
% 初始点: x0
% 初始信赖域半径: r0
% 初始参数: miu
% 初始参数: yita
% 精度: eps
% 目标函数取最小值的自变量值: x
% 迭代次数: iter
tol = 1;
r = r0;
x = x0;
% 迭代次数
iter = 1;
while tol > eps
jacf = jacobian(f, var); % 雅可比矩阵
hessen = jacobian(jacf, var); % 赫森矩阵
% 计算目标函数值
fx = double(subs(f, var, x));
% 计算雅克比矩阵值
v = subs(jacf, var, x);
% 计算赫森矩阵值
pv = subs(hessen, var, x);
tol = double(norm(v));
M_2 = double(pv); % 二次规划 中的二次项矩阵
M_1 = double(transpose(v)); % 二次规划 中的一次项矩阵
lb = -r * ones(length(var), 1); % r为信赖域半径,自变量下界约束
ub = r * ones(length(var), 1); % 自变量上界约束
% 求解二次规划
[y, fy, EXITFLAG] = quadprog(M_2, M_1, [], [], [], [], lb, ub);
% 重新计算目标函数值
fx_n = double(subs(f, var, x + y));
% 计算目标函数实际下降与预测下降之比
p = (fx - fx_n) / (-fy);
if p <= miu % 目标函数实际下降不明显
r = 0.5 * r;
else % 目标函数值下降明显
x = x + y; % 更新参数, 扩大信赖域半径
if p >= yita % 如果 p > yita
r = 2 * r;
end
end
iter = iter + 1;
end
end
感慨一下,matlab具有强大的符号计算能力,实在是太方便了,总有人说matlab不能算是编程语言,我是超级不同意的,matlab是一门强大的编程语言好不好。尤其是在算法方面。