国外手机网站设计,做网站需要哪些技能,wordpress 做图片,免费微信微网站模板下载机器人中的数值优化|【七】线性搜索牛顿共轭梯度法、可信域牛顿共轭梯度法 Line Search Newton-CG, Trust Region Newton-CG
往期回顾
机器人中的数值优化|【一】数值优化基础 机器人中的数值优化|【二】最速下降法#xff0c;可行牛顿法的python实现#xff0c;以Rosenbro…机器人中的数值优化|【七】线性搜索牛顿共轭梯度法、可信域牛顿共轭梯度法 Line Search Newton-CG, Trust Region Newton-CG
往期回顾
机器人中的数值优化|【一】数值优化基础 机器人中的数值优化|【二】最速下降法可行牛顿法的python实现以Rosenbrock function为例 机器人中的数值优化|【三】无约束优化拟牛顿法理论与推导 机器人中的数值优化|【四】L-BFGS理论推导与延伸 机器人中的数值优化|【五】BFGS算法非凸/非光滑处理 机器人中的数值优化|【六】线性共轭梯度法牛顿共轭梯度法
线性搜索牛顿共轭梯度法 Line Search Newton-CG
线性搜索牛顿-CG方法也称为截断牛顿方法。最基础的Newton step是通过求解线性系统的方程 ∇ 2 f k d k N − ∇ f k \nabla^2 f_k d_k^N -\nabla f_k ∇2fkdkN−∇fk来实现的。然而CG方法是用来求解正定系统的当 x k x_k xk不接近解时hessian阵 ∇ 2 f k \nabla^2 f_k ∇2fk可能具有负特征值。因此一旦产生了一个负曲率的方向我们就终止了CG迭代。
可信域牛顿共轭梯度法 Trust Region Newton Conjugate Gradient Method