作为一位SLAM领域的从业者,优化是永远绕不开的问题。当我娴熟地运用g2o、ceres等优化工具翻天覆地的时候,却很少去思考这个优化问题到底是怎么求解的。所谓的Gauss-Newton、Levenberg-Marquardt是什么?所谓的Trust-Region、Conjugate Gradient又是什么?
为了获得内心的安宁,我决定阅读《数值最优化》这部经典书籍,从中寻找问题的答案。同时开通的这个专栏将会记录书中最有价值的部分,与各位同胞分享我的见解。
以2016年出版的《数值最优化》影印版为准。

虽然本专栏不会覆盖书中所有内容,但列出目录可以给我们一个整体的认识。
- Introduction
- Fundamentals of Unconstrained Optimization
- Line Search Methods
- Trust-Region Methods
- Conjugate Gradient Methods
- Practical Newton Methods
- Calculating Derivatives
- Quasi-Newton Methods
- Large-Scale Quasi-Newton and Partially Separable Optimization
- Nonlinear Least-Squares Problems
- Nonlinear Equations
- Theory of Constrained Optimization
- Linear Programming: The Simplex Method
- Linear Programming: Interior-Point Methods
- Fundamentals of Algorithms for Nonlinear Constrained Optimization
- Quadratic Programming
- Penalty, Barrier, and Augmented Lagrangian Methods
- Sequential Quadratic Programming
现在,让我们开始阅读吧!
- 初识优化
- 线搜索与信赖域
- 线搜索(一):步长的选取
- 线搜索(二):收敛性和收敛速度
- 信赖域(一):Cauchy Point与Dogleg
- 信赖域(二):确切方法
- 共轭梯度法(一):线性共轭梯度
- 共轭梯度法(二):非线性共轭梯度
- 牛顿法进阶
- 数值求导和自动求导
- 拟牛顿法进阶
- 如何处理大规模问题?
- 非线性最小二乘
欢迎关注《阅读经典》系列的其它专题: