UA SIE545 优化理论基础0 优化建模3 线性回归的参数估计问题
UA SIE545 优化理论基础0 优化建模3 线性回归的参数估计问题
- OLS
- Least Absolute Deviation (LAD)
- Least Max Deviation (LMD)
- Least Weighted Deviation
考虑一元线性回归问题,假设数据集为{(xi,yi),i=1,⋯,n}\{(x_i,y_i),i=1,\cdots,n\}{(xi,yi),i=1,⋯,n},假设被解释变量为yyy,解释变量为xxx,并且二者是线性关系:
y=β0+β1xy = \beta_0 + \beta_1 xy=β0+β1x
OLS
考虑最小二乘法,优化问题可以写成
min∑i=1n(yi−(β0+β1xi))2\min\ \ \sum_{i=1}^n (y_i-(\beta_0+\beta_1 x_i))^2min i=1∑n(yi−(β0+β1xi))2
决策变量是系数β0\beta_0β0与β1\beta_1β1,目标函数是二次函数。由此是可以看出优化与统计的区别的,优化研究的是最优β0,β1\beta_0,\beta_1β0,β1的存在性,以及最优性条件、稳定性以及数值解法;统计在此基础上研究在数据具有一定随机性时,最优的β0,β1\beta_0,\beta_1β0,β1具有怎么样的统计性质(无偏、有效、渐近分布等)以及怎样基于这些性质做统计推断(假设检验、区间估计)。
Least Absolute Deviation (LAD)
考虑最小一乘法,
min∑i=1n∣yi−(β0+β1xi)∣\min\ \ \sum_{i=1}^n |y_i-(\beta_0+\beta_1 x_i)|min i=1∑n∣yi−(β0+β1xi)∣
目标函数不可导,我们可以用一些技巧来重构这个优化问题:定义ui=∣yi−(β0+β1xi)∣u_i = |y_i-(\beta_0+\beta_1 x_i)|ui=∣yi−(β0+β1xi)∣,则这个优化问题等价于
min∑i=1nuis.t.ui=∣yi−(β0+β1xi)∣\min\ \ \sum_{i=1}^n u_i \\ s.t.\ \ u_i=|y_i-(\beta_0+\beta_1 x_i)|min i=1∑nuis.t. ui=∣yi−(β0+β1xi)∣
可以将这个优化问题等价地写成:
min∑i=1nuis.t.ui≥∣yi−(β0+β1xi)∣\min\ \ \sum_{i=1}^n u_i \\ s.t.\ \ u_i \ge |y_i-(\beta_0+\beta_1 x_i)|min i=1∑nuis.t. ui≥∣yi−(β0+β1xi)∣
注意到ui≥0u_i \ge 0ui≥0,目标函数是最小化uiu_iui的和,因此uiu_iui必定倾向于取等。这个结果可以进一步化简为
min∑i=1nuis.t.ui≥[yi−(β0+β1xi)]ui≤−[yi−(β0+β1xi)]\min\ \ \sum_{i=1}^n u_i \\ s.t.\ \ u_i \ge [y_i-(\beta_0+\beta_1 x_i)] \\ u_i \le -[y_i-(\beta_0+\beta_1 x_i)] min i=1∑nuis.t. ui≥[yi−(β0+β1xi)]ui≤−[yi−(β0+β1xi)]
这就是一个典型的线性规划问题。
Least Max Deviation (LMD)
LMD的优化问题为
minβ0,β1maxi∣yi−(β0+β1xi)∣\min_{\beta_0,\beta_1}\ \ \max_i |y_i-(\beta_0+\beta_1 x_i)|β0,β1min imax∣yi−(β0+β1xi)∣
用LAD的思路,定义u=maxi∣yi−(β0+β1xi)∣u=\max_i |y_i-(\beta_0+\beta_1 x_i)|u=maxi∣yi−(β0+β1xi)∣,则优化问题可以等价变形为:
minβ0,β1us.t.u=maxi∣yi−(β0+β1xi)∣\min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u=\max_i |y_i-(\beta_0+\beta_1 x_i)|β0,β1min us.t. u=imax∣yi−(β0+β1xi)∣
现在放松等式约束,
minβ0,β1us.t.u≥maxi∣yi−(β0+β1xi)∣⟺minβ0,β1us.t.u≥∣yi−(β0+β1xi)∣,∀i⟺minβ0,β1us.t.u≥[yi−(β0+β1xi)],∀iu≤−[yi−(β0+β1xi)],∀i\min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u \ge \max_i |y_i-(\beta_0+\beta_1 x_i)| \\ \Longleftrightarrow \\ \min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u \ge |y_i-(\beta_0+\beta_1 x_i)|,\forall i \\ \Longleftrightarrow \\ \min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u \ge [y_i-(\beta_0+\beta_1 x_i)],\forall i \\ u \le -[y_i-(\beta_0+\beta_1 x_i)],\forall iβ0,β1min us.t. u≥imax∣yi−(β0+β1xi)∣⟺β0,β1min us.t. u≥∣yi−(β0+β1xi)∣,∀i⟺β0,β1min us.t. u≥[yi−(β0+β1xi)],∀iu≤−[yi−(β0+β1xi)],∀i
Least Weighted Deviation
这种情形类似于UA MATH574提到的监督学习unequal cost的情况,因为yi−(β0+β1xi)y_i-(\beta_0+\beta_1 x_i)yi−(β0+β1xi)的符号是有含义的,大于0表示低估;小于0表示高估。有时低估和高估的cost不一样,可以分别定义为w+,w−w^+,w^{-}w+,w−,则最优化可以写成:
minw+∑i=1nmax{0,yi−(β0+β1xi)}+w−∑i=1nmax{0,−yi+(β0+β1xi)}\min w^+\sum_{i=1}^n \max\{0,y_i-(\beta_0+\beta_1 x_i)\}+w^-\sum_{i=1}^n \max\{0,-y_i+(\beta_0+\beta_1 x_i)\}minw+i=1∑nmax{0,yi−(β0+β1xi)}+w−i=1∑nmax{0,−yi+(β0+β1xi)}
这个最优化问题也可以重写成线性规划:定义ui+=max{0,yi−(β0+β1xi)},ui−=max{0,−yi+(β0+β1xi)}u_i^+=\max\{0,y_i-(\beta_0+\beta_1 x_i)\},u_i^-=\max\{0,-y_i+(\beta_0+\beta_1 x_i)\}ui+=max{0,yi−(β0+β1xi)},ui−=max{0,−yi+(β0+β1xi)},把这两个作为决策变量,可以把等式约束放松为
ui+≥max{0,yi−(β0+β1xi)}ui−≥max{0,−yi+(β0+β1xi)}u_i^+\ge \max\{0,y_i-(\beta_0+\beta_1 x_i)\} \\ u_i^-\ge \max\{0,-y_i+(\beta_0+\beta_1 x_i)\}ui+≥max{0,yi−(β0+β1xi)}ui−≥max{0,−yi+(β0+β1xi)}
进而
ui+≥0,ui+≥yi−(β0+β1xi)ui−≥0,ui−≥−yi+(β0+β1xi)u_i^+\ge 0,\ u_i^+\ge y_i-(\beta_0+\beta_1 x_i) \\ u_i^-\ge 0,\ u_i^-\ge -y_i+(\beta_0+\beta_1 x_i)ui+≥0, ui+≥yi−(β0+β1xi)ui−≥0, ui−≥−yi+(β0+β1xi)
因此上面的优化问题可以表示为线性规划:
minw+∑i=1nui++w−∑i=1nui−s.t.ui+≥0,ui+≥yi−(β0+β1xi)ui−≥0,ui−≥−yi+(β0+β1xi)\min w^+\sum_{i=1}^n u_i^++w^-\sum_{i=1}^n u_i^- \\ s.t. \ \ u_i^+\ge 0,\ u_i^+\ge y_i-(\beta_0+\beta_1 x_i) \\ u_i^-\ge 0,\ u_i^-\ge -y_i+(\beta_0+\beta_1 x_i)minw+i=1∑nui++w−i=1∑nui−s.t. ui+≥0, ui+≥yi−(β0+β1xi)ui−≥0, ui−≥−yi+(β0+β1xi)
UA SIE545 优化理论基础0 优化建模3 线性回归的参数估计问题相关推荐
- UA SIE545 优化理论基础0 优化建模7 二值变量的应用
UA SIE545 优化理论基础0 优化建模7 二值变量的应用 包含决策变量的绝对值的约束 包含决策变量的最值的约束 包含决策变量的任意分位点的约束 应用:Least Median Squared E ...
- UA SIE545 优化理论基础0 优化建模6 罐头的尺寸设计
UA SIE545 优化理论基础0 优化建模6 罐头的尺寸设计 我们的目标是设计一种罐头,这种罐头产品按件出售,一件12个罐头,按3行一行四个的形式排列,同时有以下信息: V0V_0V0:罐头的最小 ...
- UA SIE545 优化理论基础0 优化建模1 优化问题的基本形式
UA SIE545 优化理论基础0 优化建模1 优化问题的基本形式 优化问题的基本形式 确定性优化问题 随机优化问题 Stochastic Programming(SP) Robust Optimiz ...
- UA SIE545 优化理论基础1 例题1 常见的凸集
UA SIE545 优化理论基础1 例题1 常见的凸集 一些例题 在优化理论中,我们主要讨论下面几种凸集: 超平面:{x:pTx=β}\{x:p^Tx=\beta\}{x:pTx=β} 半空间:{x: ...
- UA SIE545 优化理论基础 用Farkas定理证明Farkas类的结论
UA SIE545 优化理论基础 用Farkas定理证明Farkas类的结论 Farkas定理 AAA是一个m×nm\times nm×n的矩阵,下面两个系统有且仅有一个有解: I:Ax≤0,cTx& ...
- UA SIE545 优化理论基础 函数凸性的一些有趣的判断方法
UA SIE545 优化理论基础 函数凸性的一些有趣的判断方法 Convex function f:S→Rf:S \to \mathbb{R}f:S→R where SSS is a nonempty ...
- UA SIE545 优化理论基础 例题 对偶函数的凸性与次梯度计算
UA SIE545 优化理论基础 例题 对偶函数的凸性与次梯度计算 例 考虑对偶函数 θ(u1,u2)=minx12+x22≤4x1(2−u1)+x2(3−u2)\theta(u_1,u_2) = ...
- UA SIE545 优化理论基础2 凸函数 概念 理论 总结
UA SIE545 优化理论基础2 凸函数 概念 理论 总结 凸函数的概念与简单性质 Convex function f:S→Rf:S \to \mathbb{R}f:S→R where SSS is ...
- UA SIE545 优化理论基础3 Fritz-John与Kuhn-Tucker理论总结 带等式约束与不等式约束的极值问题
UA SIE545 优化理论基础3 Fritz-John与Kuhn-Tucker理论总结 带等式约束与不等式约束的极值问题 对于函数f:X→Yf:X \to Yf:X→Y,我们希望XXX是一个凸的度量 ...
最新文章
- 在Mac和Linux之间用Rsync 拷贝文件
- java对象的访问定位_JVM创建对象及访问定位过程详解
- html meta页面自适应,【转载·收藏】 html5手机网站自适应需要加的meta标签
- php 画图 坐标,说说PHP作图(一)_php
- 下标索引必须为正整数类型或逻辑类型_Python3 基本数据类型
- 创校史纪录!26岁女博导发顶刊
- 常用并发工具类(锁和线程间通信工具类)
- SSIS变量属性中EvaluateAsExpression设置的作用
- LeetCode 198 打家劫舍
- 云计算交流会计算机操作,计算机二级考试真题-word-小王-云计算技术交流大会...
- Gradle依赖的统一管理
- 初探 Linux操作系统 (一):站在巨人的肩膀上
- Android最新技术-Android11周
- java魂斗罗_魂斗罗java源代码分享
- 爱了爱了,这样的文字动画让你爱不释手
- 毕设题目:Matlab车牌识别
- Object C基础
- html5期末大作业——HTML+CSS公益关爱残疾人( 6个页面)
- Lucene 7.5.0 索引文件之liv
- 形式逻辑(05)假言判断 和 推理
热门文章
- 【数据平台】Eclipse+MapReduce开发环境(集群运行模式)
- (转载)大数据实战:站在JMP分析平台上的FIT足迹识别技术
- JVM的XX参数之布尔类型 || KV设值类型
- JVM的标配参数和X参数
- 软件设计原则——合成复用原则
- MappedByteBuffer,可以让文件直接在内存(堆外内存)修改,操作系统不需要拷贝一次。而如何同步到文件由NIO来完成
- 系统模块——什么是系统模块、path 路径操作、相对路径VS绝对路径
- spring中基于XML的AOP配置步骤
- 数据预处理——数据清洗、异常值与重复数据的检测
- mysql批量插入定时器