数学知识--Methods for Non-Linear Least Squares Problems(第三章)
Methods for Non-Linear Least Squares Problems 非线性最小二乘问题的方法
2nd Edition, April 2004
K. Madsen, H.B. Nielsen, O. Tingleff
3 Non-linear least squares problems 非线性最小二乘问题
接下来我们主要关注非线性最小二乘问题的讨论。给定一个向量函数 f: Rn --> Rm 其中 m>=n . 我们希望最小化 ||f(x)||
最小二乘问题可以通过普通优化算法来求解,但是这里我们介绍一类特别算法,其更加的高效。多数情况下,它们收敛的速度好于线性收敛,有时甚至达到二次收敛,但是它们不需要计算二阶导数。在算法的推导中我们需要 F 的导数计算公式,假定 f 的泰勒展开如下:
3.1. The Gauss–Newton Method
这个方法是下面我们将要介绍的方法的基础。它的实现依赖于向量函数的一阶导数。在特殊情况下,它能够给出二阶收敛,正如牛顿方法在广义优化问题中的表现。泰勒展开如下
将上式带入(3.1)得到
L’(0)=JTf=F’(x)
如果 J has full rank,那么 L(h) has a unique minimizer: L’(h_gn)=0
Newton’s method 和 Gauss-Newton method 的区别
两者的 search directions 分别如下所示:
区别在于:
所以当 f(x*)=0 则 对 离x* 很近的 x 来说 L’’(h) 约等于F’’(x)
we get quadratic convergence also with the Gauss-Newton method
3.2. The Levenberg–Marquardt Method
damping parameter µ 有几个效果:
a)对所有 µ>0 参数矩阵是正定的,所以这保证了 h_lm 是一个下降方向
b) 对于较大的 µ 值 我们得到
a short step in the steepest descent direction。 This is good if the current iterate is far from the solution
c) 当 µ 值 很小时, h_lm == h_gn, 在迭代的后期,这是一个很好的步长,当 x 离 x* 很近的时候
If F(x* )=0 (or very small), then we can get (almost) quadratic final convergence
所以 damping parameter 影响 方向和 步长大小。这让我们拥有两种方法的优势。
https://blog.csdn.net/pi9nc/article/details/11922835
问题:为什么通常牛顿法比梯度下降法能更快的收敛?
解答:牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。
根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优下降路径。
11
数学知识--Methods for Non-Linear Least Squares Problems(第三章)相关推荐
- 数学知识--Methods for Non-Linear Least Squares Problems(第二章)
Methods for Non-Linear Least Squares Problems 非线性最小二乘问题的方法 2nd Edition, April 2004 K. Madsen, H.B. N ...
- 数学知识--Methods for Non-Linear Least Squares Problems(第一章)
Methods for Non-Linear Least Squares Problems 非线性最小二乘问题的方法 2nd Edition, April 2004 K. Madsen, H.B. N ...
- METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS 翻译(三)
METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS(三) 3. 非线性最小二乘问题 在本手册的其余部分中,我们将讨论求解非线性最小二乘问题的方法.给定一个向量函 ...
- 人工智能中的核心数学知识体系
下面讨论重要的问题:AI用到了数学体系中的哪些核心知识? 当你成为一个AI领域的熟手之后,每当遇到难以解决的问题时,其实最常见的问题多半是找不到解决当前问题的思路,即没有好的算法解决当前遇到的问题.有 ...
- 机器学习中的基本数学知识
注:本文的代码是使用Python 3写的. 机器学习中的基本数学知识 线性代数(linear algebra) 第一公式 矩阵的操作 换位(transpose) 矩阵乘法 矩阵的各种乘积 内积 外积 ...
- 机器学习从入门到创业手记-1.4 难以理解的数学知识
第二天的李里准时站在了培训用的会议室当中. 李里:昨天我们进度不是很快,培训的内容也比较简单,今天开始我们要进入比较枯燥的数学理论的培训,你们要做好准备,可能最多进入机器学习领域而后又放弃的人都是由于 ...
- 总结:机器学习中的基本数学知识
注:本文的代码是使用Python 3写的. 机器学习中的基本数学知识 线性代数(linear algebra) 第一公式 矩阵的操作 换位(transpose) 矩阵乘法 矩阵的各种乘积 内积 外积 ...
- 今天开始学Convex Optimization:第2章 背景数学知识简述
文章目录 第2章 背景数学知识简述 2.1 数学分析和微积分基础 函数性质 集合Sets Norms 线性函数.仿射函数 函数的微分(导数) 2.2 线性代数基础 Matrix Subspaces 正 ...
- 机器学习所需要的数学知识
作者:Dahua 苦逼的数学啊~! 感觉数学似乎总是不够的.这些日子为了解决research中的一些问题,又在图书馆捧起了数学的教科书.从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过 ...
最新文章
- UIView翻译 (参考)
- 2017 ACM/ICPC(西安)赛后总结
- Qt Remote Object(QtRO)动态Replica实现进程间通信
- bzoj 1232: [Usaco2008Nov]安慰奶牛cheer【最小生成树】
- spring mvc ajax 400解决
- mysql一对一级联_MySQL 表的一对一、一对多、多对多问题
- 二维数组转datatable的代码
- ADO 错误:0x80004005,连接字符串属性无效
- XILINX FPGA数字信号处理——3、数字的表示和运算的实现
- SecureCRT自动化脚本编写
- cad批量打印_CAD批量打印插件的安装与使用方法
- 软件测试概述基本介绍
- ibm服务器开机显示如何设置,IBM服务器开机进入WEBBIOS界面配置RAID
- iOS项目开发中的知识点与问题收集整理①
- TiDB2.1 报错statement count 5001 exceeds the transaction limitation, autocommit = false
- xshell左边的菜单栏目,显示会话连接的不见了怎么办?
- java 基本语法
- 程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
- 悼念512汶川大地震遇难同胞——来生一起走(dfs+打表)
- Win10输入法不能用切换不了
热门文章
- np.reshape 中的 -1 参数
- TensorFlow中的random_normal()函数
- Nat. Biotechnol.| 基于生物活性建模识别抗SARS-CoV-2药物
- 分享一下我的初中生活
- oracle的高级分组函数,group by 高级函数使用
- “昊论坛”热力来袭!一网打尽【微生物绝对定量】技术特色和应用
- 相关分析在微生物生态学中的应用与误用
- NewPhy.-揭秘优势种dominant species
- R语言使用caret包构建gbdt模型(随机梯度提升树、Stochastic Gradient Boosting )构建回归模型、通过method参数指定算法名称
- R语言使用moments包计算偏度(Skewness)和峰度(Kurtosis)实战:计算偏度(Skewness)和峰度(Kurtosis)、确定样本数据是否具有与正态分布匹配的偏度和峰度(假设检验)