当前位置: 首页 > news >正文

Levenberg-Marquardt算法详解和C++代码示例

Levenberg-Marquardt(LM)算法是非线性最小二乘问题中常用的一种优化算法,它融合了高斯-牛顿法梯度下降法的优点,在数值计算与SLAM、图像配准、机器学习等领域中应用广泛。


一、Levenberg-Marquardt算法基本原理

1.1 问题定义

我们希望最小化一个非线性残差平方和目标函数:

min ⁡ x f ( x ) = 1 2 ∑ i = 1 m r i ( x ) 2 = 1 2 ∥ r ( x ) ∥ 2 \min_{\mathbf{x}} \, f(\mathbf{x}) = \frac{1}{2} \sum_{i=1}^m r_i(\mathbf{x})^2 = \frac{1}{2} \| \mathbf{r}(\mathbf{x}) \|^2 xminf(x)=21i=1mri(x)2=21r(x)2

其中,

  • x ∈ R n \mathbf{x} \in \mathbb{R}^n xRn:参数向量
  • r ( x ) = [ r 1 ( x ) , … , r m ( x ) ] T \mathbf{r}(\mathbf{x}) = [r_1(\mathbf{x}), \ldots, r_m(\mathbf{x})]^T r(x)=[r1(x),,rm(x)]T:残差向量

我们要最小化的是残差的平方和。


二、高斯-牛顿法回顾

在当前点 x k \mathbf{x}_k xk 处,对残差函数进行一阶泰勒展开:

r ( x k + Δ x ) ≈ r ( x k ) + J ( x k ) Δ x \mathbf{r}(\mathbf{x}_k + \Delta \mathbf{x}) \approx \mathbf{r}(\mathbf{x}_k) + J(\mathbf{x}_k) \Delta \mathbf{x} r(xk+Δx)r(xk)+J(xk)Δx

其中 J ∈ R m × n J \in \mathbb{R}^{m \times n} JRm×n 是 Jacobian:

J i j = ∂ r i ∂ x j J_{ij} = \frac{\partial r_i}{\partial x_j} Jij=xjri

代入目标函数:

min ⁡ Δ x 1 2 ∥ r + J Δ x ∥ 2 \min_{\Delta \mathbf{x}} \frac{1}{2} \| \mathbf{r} + J \Delta \mathbf{x} \|^2 Δxmin21r+JΔx2

导出正规方程(Normal Equation):

J T J Δ x = − J T r J^T J \Delta \mathbf{x} = - J^T \mathbf{r} JTJΔx=JTr

这就是高斯-牛顿法。


三、LM算法推导:阻尼的高斯-牛顿

LM法通过引入一个阻尼因子 λ \lambda λ 来平衡 Gauss-Newton 与 Gradient Descent:

( J T J + λ I ) Δ x = − J T r (J^T J + \lambda I) \Delta \mathbf{x} = - J^T \mathbf{r} (JTJ+λI)Δx=JTr

  • λ → 0 \lambda \to 0 λ0,接近高斯-牛顿法;
  • λ → ∞ \lambda \to \infty λ,趋于梯度下降法。

为了更稳定地调整 λ \lambda λ,可以采用如下对角矩阵:

( J T J + λ ⋅ diag ( J T J ) ) Δ x = − J T r (J^T J + \lambda \cdot \text{diag}(J^T J)) \Delta \mathbf{x} = - J^T \mathbf{r} (JTJ+λdiag(JTJ))Δx=JTr

这种处理使 LM 更具有数值稳定性。


四、LM算法伪代码

x = x0
lambda = lambda_initwhile not converged:r = residual(x)J = jacobian(x)H = J^T * Jg = J^T * rsolve (H + lambda * diag(H)) * dx = -gif cost(x + dx) < cost(x):x = x + dxlambda = lambda / factorelse:lambda = lambda * factor

五、Levenberg-Marquardt 算法实现步骤

步骤 1:初始化

  • 初始化参数向量 x 0 \mathbf{x}_0 x0
  • 设置初始阻尼系数 λ \lambda λ,通常取 10 − 3 ∼ 10 − 1 10^{-3} \sim 10^{-1} 103101
  • 设置调整系数(如增长因子 ν = 2 \nu = 2 ν=2
  • 设置收敛条件(如最大迭代次数、步长阈值、误差阈值)

步骤 2:计算当前残差与 Jacobian

  • 在当前参数 x \mathbf{x} x 处计算残差向量 r ( x ) \mathbf{r}(\mathbf{x}) r(x)
  • 计算残差的 Jacobian 矩阵 J ( x ) J(\mathbf{x}) J(x)

步骤 3:构建 LM 修正的正规方程

构造修正的线性系统:

( J T J + λ ⋅ diag ( J T J ) ) Δ x = − J T r (J^T J + \lambda \cdot \text{diag}(J^T J)) \Delta \mathbf{x} = -J^T \mathbf{r} (JTJ+λdiag(JTJ))Δx=JTr

  • J T J J^T J JTJ:近似 Hessian 矩阵
  • λ ⋅ diag ( J T J ) \lambda \cdot \text{diag}(J^T J) λdiag(JTJ):用于平滑(阻尼),避免步长过大

步骤 4:求解增量 Δ x \Delta \mathbf{x} Δx

  • 使用 Cholesky / LDLT 分解求解线性方程组,得到参数增量 Δ x \Delta \mathbf{x} Δx
  • 可选:添加线性求解器条件数检查以保证稳定性

步骤 5:评估新参数点

  • 更新新参数: x new = x + Δ x \mathbf{x}_{\text{new}} = \mathbf{x} + \Delta \mathbf{x} xnew=x+Δx

  • 计算新误差 ∥ r ( x new ) ∥ 2 \| \mathbf{r}(\mathbf{x}_{\text{new}}) \|^2 r(xnew)2

  • 如果误差变小,接受更新,并降低 λ \lambda λ

    λ ← λ / factor \lambda \leftarrow \lambda / \text{factor} λλ/factor

  • 否则,拒绝更新,提高阻尼系数以减小步长:

    λ ← λ × factor \lambda \leftarrow \lambda \times \text{factor} λλ×factor


步骤 6:检查收敛条件

  • 如果满足以下任一条件,则终止:

    • 残差变化非常小: ∥ Δ x ∥ < ϵ \| \Delta \mathbf{x} \| < \epsilon ∥Δx<ϵ
    • 最大迭代次数达到
    • 梯度足够小: ∥ J T r ∥ < ϵ \| J^T \mathbf{r} \| < \epsilon JTr<ϵ
  • 否则返回步骤 2,继续迭代


六、总结为流程图结构

初始化 x, lambda↓
计算残差 r(x), Jacobian J↓
构建系统 (JᵀJ + λI)Δx = -Jᵀr↓
求解 Δx↓
计算新误差 cost(x + Δx)↓
误差减少?┌─────────────┐↓             ↓
Yes           No
↓              ↓
x ← x + Δx     λ ← λ × factor
λ ← λ / factor ↓↓
满足终止条件?↓Yes → 退出No  → 回到迭代

七、应用示例:拟合二次函数 y = a x 2 + b x + c y = ax^2 + bx + c y=ax2+bx+c

我们以拟合二次函数为例,给定数据点 ( x i , y i ) (x_i, y_i) (xi,yi),最小化以下残差:

r i ( a , b , c ) = y i − ( a x i 2 + b x i + c ) r_i(a, b, c) = y_i - (a x_i^2 + b x_i + c) ri(a,b,c)=yi(axi2+bxi+c)

Jacobian:

J i = [ − x i 2 , − x i , − 1 ] J_i = \left[ -x_i^2, -x_i, -1 \right] Ji=[xi2,xi,1]


八、C++代码实现

#include <iostream>
#include <vector>
#include <Eigen/Dense>using namespace Eigen;
using namespace std;struct DataPoint {double x, y;
};struct LMResult {Vector3d params;double final_cost;int iterations;
};LMResult LevenbergMarquardt(const vector<DataPoint>& data, Vector3d init, int max_iter = 100) {Vector3d x = init;double lambda = 1e-3;double v = 2.0;int n = data.size();double last_cost = 1e20;for (int iter = 0; iter < max_iter; ++iter) {MatrixXd J(n, 3);VectorXd r(n);for (int i = 0; i < n; ++i) {double xi = data[i].x;double yi = data[i].y;double yi_est = x(0) * xi * xi + x(1) * xi + x(2);r(i) = yi - yi_est;J(i, 0) = -xi * xi;J(i, 1) = -xi;J(i, 2) = -1.0;}Matrix3d H = J.transpose() * J;Vector3d g = J.transpose() * r;Matrix3d H_lm = H + lambda * H.diagonal().asDiagonal();Vector3d dx = H_lm.ldlt().solve(-g);Vector3d x_new = x + dx;// compute new costdouble new_cost = 0.0;for (int i = 0; i < n; ++i) {double xi = data[i].x;double yi = data[i].y;double yi_est = x_new(0) * xi * xi + x_new(1) * xi + x_new(2);double ri = yi - yi_est;new_cost += ri * ri;}if (new_cost < last_cost) {x = x_new;lambda *= 0.8;last_cost = new_cost;} else {lambda *= 2.0;}if (dx.norm() < 1e-6) break;}return {x, last_cost, max_iter};
}

九、输出与测试

int main() {vector<DataPoint> data;for (int i = 0; i <= 10; ++i) {double x = i;double y = 2.0 * x * x + 3.0 * x + 1.0 + ((rand() % 100) / 50.0 - 1.0); // 加噪声data.push_back({x, y});}Vector3d init(0.0, 0.0, 0.0);auto result = LevenbergMarquardt(data, init);cout << "Estimated parameters: " << result.params.transpose() << endl;cout << "Final cost: " << result.final_cost << endl;return 0;
}

十、总结

方法特点
梯度下降法收敛稳定但慢
高斯-牛顿法快速但易发散
Levenberg-Marquardt二者结合,自动调节,收敛稳定

实用建议

  • 阻尼初始化值 λ \lambda λ:设置为初始 Hessian 的最大对角元素的某个比例(如 λ = τ ⋅ max ⁡ ( diag ( J T J ) ) \lambda = \tau \cdot \max(\text{diag}(J^T J)) λ=τmax(diag(JTJ))

  • 梯度与步长判断条件

    • 使用 ∥ Δ x ∥ < 1 e − 6 \| \Delta \mathbf{x} \| < 1e{-6} ∥Δx<1e6 ∥ g ∥ < 1 e − 6 \| g \| < 1e{-6} g<1e6

相关文章:

  • 代驾数据库
  • Java逻辑运算符常见错误分析与规避指南
  • 使用 Python 和 HuggingFace Transformers 进行对象检测
  • 位运算(Bitwise Operations)深度解析
  • 基于J2EE架构的在线考试系统设计与实现【源码+文档】
  • 机器学习算法时间复杂度解析:为什么它如此重要?
  • C/C++ 中附加包含目录、附加库目录与附加依赖项详解
  • 波士顿房价预测(线性回归模型)
  • c++重点知识总结
  • VMware 安装 CentOS8详细教程 (附步骤截图)附连接公网、虚拟机yum源等系统配置
  • SQLAlchemy 中的 func 函数使用指南
  • CVAT标注服务
  • Python训练营---Day46
  • 使用pwm控制舵机来回摆动的中心位置
  • 深入解析JVM工作原理:从字节码到机器指令的全过程
  • Unity | AmplifyShaderEditor插件基础(第五集:简易移动shader)
  • 大模型编程助手-windsurf
  • QT自定义资源管理器
  • 代付业务怎么理解?
  • JDK21 虚拟线程原理剖析与性能深度解析
  • 用vs做网站界面/semester是什么意思
  • 动态web网站怎么做/新闻稿代写
  • 无经验可以做网站编辑吗/seo关键词优化是什么意思
  • 如何做盗版小说网站/网站设计论文
  • 郑州网站建设网站推广/网络营销活动策划方案模板
  • 手机版网站建设开发/中国时事新闻网