局部多项式回归

局部多项式回归是非参数回归的一种方法,主要是由于Nadaraya−WatsonNadaraya-WatsonNadaraya−Watson估计方法的加权是基于整个样本点,而且往往在边界上的估计效果并不理想。

局部线性回归

解决上述问题的办法就是用一个变动的函数取代局部固定的权重。局部线性回归就是在待估计点xxx的领域内用一个线性函数Yi=β0+β1XiY_i=\beta_0+\beta_1X_iYi​=β0​+β1​Xi​,Xi∈[x−h,x+h]X_i\in[x-h,x+h]Xi​∈[x−h,x+h]来取代YiY_iYi​的平均,β0,β1\beta_0,\beta_1β0​,β1​是局部参数,首先回顾一下Nadaraya-Watson估计:
m^h=n−1∑i=1nKh(x−Xi)Yin−1∑j=1nKh(x−Xj)=1n∑i=1n(Kh(x−Xi)n−1∑j=1nKh(x−Xj))Yi=1n∑i=1nWhi(x)Yi\begin{aligned} \hat{m}_h &= \frac{n^{-1}\sum_{i=1}^nK_h(x-X_i)Y_i}{n^{-1}\sum_{j=1}^nK_h(x-X_j)}\\ &=\frac{1}{n}\sum_{i=1}^n \left( \frac{K_h(x-X_i)}{n^{-1}\sum_{j=1}^nK_h(x-X_j)}\right)Y_i \\ &=\frac{1}{n}\sum_{i=1}^nW_{hi}(x)Y_i \end{aligned} m^h​​=n−1∑j=1n​Kh​(x−Xj​)n−1∑i=1n​Kh​(x−Xi​)Yi​​=n1​i=1∑n​(n−1∑j=1n​Kh​(x−Xj​)Kh​(x−Xi​)​)Yi​=n1​i=1∑n​Whi​(x)Yi​​
其中Kh(x−Xi)=1hK(x−Xih)K_h(x-X_i)=\frac{1}{h}K\left( \frac{x-X_i}{h} \right)Kh​(x−Xi​)=h1​K(hx−Xi​​).接下来我们考虑一个估计量a≡mh^(x)a\equiv \hat{m_h}(x)a≡mh​^​(x)来使得目标函数(误差平方和)12∑i=1n(Yi−a)2\frac{1}{2}\sum_{i=1}^n(Y_i-a)^221​∑i=1n​(Yi​−a)2达到最小,很明显它的解是:
∑i=1n(Yi−a)=0∑i=1nYi=naa=Yˉ=mh^(x)\begin{aligned} \sum_{i=1}^n(Y_i-a)&=0 \\ \sum_{i=1}^nY_i&=na\\ a &= \bar{Y}=\hat{m_h}(x) \end{aligned} i=1∑n​(Yi​−a)i=1∑n​Yi​a​=0=na=Yˉ=mh​^​(x)​
它显然不是m(x)m(x)m(x)的一个好的估计,现在定义权函数wi(x)=K((xi−x)/h)w_i(x)=K((x_i-x)/h)wi​(x)=K((xi​−x)/h),再使得下述加权平方和达到最小:
12∑i=1nwi(x)(Yi−a)2\frac{1}{2}\sum_{i=1}^nw_i(x)(Y_i-a)^2 21​i=1∑n​wi​(x)(Yi​−a)2
显然它的解是:
mh^(x)=∑i=1nwi(x)Yi∑i=1nwi(x)\hat{m_h}(x)=\frac{\sum_{i=1}^nw_i(x)Y_i}{\sum_{i=1}^nw_i(x)} mh​^​(x)=∑i=1n​wi​(x)∑i=1n​wi​(x)Yi​​
它刚好就是核回归估计,也说明NW估计是一种由局部加权最小二乘得到的局部常数估计。很明显如果利用线性函数而不是一个常数的话就能得到局部线性回归:
∑i=1n{(Yi−β0−β1Xi)}2wi(x)\sum_{i=1}^n\{ (Y_i-\beta_0-\beta_1X_i)\}^2w_i(x) i=1∑n​{(Yi​−β0​−β1​Xi​)}2wi​(x)
容易得当不存在wi(x)w_i(x)wi​(x)时上述解为:
{β0=∑Yin−β1∑Xinβ1=n∑XiYi−∑XiYin∑Xi2−∑Xi∑Xi\begin{cases} \beta_0=\frac{\sum Y_i}{n}-\frac{\beta_1\sum X_i}{n} \\ \beta_1=\frac{n\sum X_iY_i-\sum X_iY_i}{n\sum X_i^2-\sum X_i\sum X_i} \end{cases} {β0​=n∑Yi​​−nβ1​∑Xi​​β1​=n∑Xi2​−∑Xi​∑Xi​n∑Xi​Yi​−∑Xi​Yi​​​
当存在wi(x)w_i(x)wi​(x)时上述解为:
{∑wi(x)Yi=β0∑wi(x)+β1∑wi(x)Xi∑wi(x)YiXi=β0∑wi(x)Xi+β1∑wi(x)Xi2\begin{cases} \sum w_i(x)Y_i=\beta_0\sum w_i(x)+\beta_1 \sum w_i(x)X_i \\ \sum w_i(x)Y_iX_i=\beta_0\sum w_i(x)X_i+\beta_1\sum w_i(x)X_i^2 \end{cases} {∑wi​(x)Yi​=β0​∑wi​(x)+β1​∑wi​(x)Xi​∑wi​(x)Yi​Xi​=β0​∑wi​(x)Xi​+β1​∑wi​(x)Xi2​​

局部多项式回归(local polynomial regression)

如果我们把上述中的常数aaa换为一个ppp阶的局部多项式就能得到局部多项式回归.令xxxw为在其上想要估计m(x)m(x)m(x)的某个固定值.则对于在xxx一个邻域中的值uuu,定义多项式
Px(u;a)=a0+a1(u−x)+a22!(u−x)2+⋯+app!(u−x)pP_x(u;a)=a_0+a_1(u-x)+\frac{a_2}{2!}(u-x)^2+\cdots+\frac{a_p}{p!}(u-x)^p Px​(u;a)=a0​+a1​(u−x)+2!a2​​(u−x)2+⋯+p!ap​​(u−x)p
能够在目标值xxx的一个邻域用下面的多项式来近似一个光滑回归函数m(u)m(u)m(u):
m(u)≈Px(u;a)m(u)\thickapprox P_x(u;a) m(u)≈Px​(u;a)
有些书籍中的多项式定义为:m(⋅)m(\cdot)m(⋅)
m(t)≈m(x)+m′(x)(t−x)+⋯+m(p)(x)(t−x)p1p!m(t)\approx m(x)+m'(x)(t-x)+\cdots+m^{(p)}(x)(t-x)^p\frac{1}{p!} m(t)≈m(x)+m′(x)(t−x)+⋯+m(p)(x)(t−x)pp!1​
此时的目标函数为:
min⁡β∑i=1n{Yi−β0−β1(Xi−x)−⋯−βp(Xi−x)p}2Kh(x−Xi)\min_\beta\sum_{i=1}^n\{Y_i-\beta_0-\beta_1(X_i-x)-\dots-\beta_p(X_i-x)^p \}^2K_h(x-X_i) βmin​i=1∑n​{Yi​−β0​−β1​(Xi​−x)−⋯−βp​(Xi​−x)p}2Kh​(x−Xi​)
其中β\betaβ表示系数向量(β0,β1,…,βp)T(\beta_0,\beta_1,\dots,\beta_p)^{\rm{T}}(β0​,β1​,…,βp​)T.
X=(1X1−x(X1−x)2⋯(X1−x)p1X2−x(X2−x)2⋯(X2−x)p⋮⋮⋮⋱⋮1Xn−x(Xn−x)2⋯(Xn−x)p),Y=(Y1Y2⋮Yn)X= \begin{pmatrix} 1& X_1-x & (X_1-x)^2 & \cdots & (X_1-x)^p \\ 1& X_2-x & (X_2-x)^2 & \cdots & (X_2-x)^p \\ \vdots & \vdots & \vdots & \ddots & \vdots\\ 1& X_n-x & (X_n-x)^2 & \cdots & (X_n-x)^p \\ \end{pmatrix} , Y= \begin{pmatrix} Y_1 \\ Y_2 \\ \vdots \\ Y_n \\ \end{pmatrix} X=⎝⎜⎜⎜⎛​11⋮1​X1​−xX2​−x⋮Xn​−x​(X1​−x)2(X2​−x)2⋮(Xn​−x)2​⋯⋯⋱⋯​(X1​−x)p(X2​−x)p⋮(Xn​−x)p​⎠⎟⎟⎟⎞​,Y=⎝⎜⎜⎜⎛​Y1​Y2​⋮Yn​​⎠⎟⎟⎟⎞​

W=(Kh(x−X1)0⋯00Kh(x−X2)⋯0⋮⋮⋱⋮00⋯Kh(x−Xn)),W= \begin{pmatrix} K_h(x-X_1) & 0 & \cdots & 0 \\ 0 & K_h(x-X_2) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & K_h(x-X_n) \\ \end{pmatrix}, W=⎝⎜⎜⎜⎛​Kh​(x−X1​)0⋮0​0Kh​(x−X2​)⋮0​⋯⋯⋱⋯​00⋮Kh​(x−Xn​)​⎠⎟⎟⎟⎞​,
根据加权最小二乘估计可以得到β^\hat{\beta}β^​:
β^(x)=(XTWX)−1XTWY\hat{\beta}(x)=(X^{\rm{T}}WX)^{-1}X^{\rm{T}}WY β^​(x)=(XTWX)−1XTWY
利用上篇文章中的数据举个栗子:


上图中,在相同核函数和窗宽的条件下,红线代表了上篇文章讲到的核回归的结果,蓝线代表了本文中局部多项式回归的结果.可以看到,局部多项式回归的结果更加平缓,极值点处的拟合效果更好.

  • R语言代码如下:
par(mfrow=c(2,2))
fit1 <- ksmooth(x=data$length,y=data$luminous,kernel='normal',bandwidth = 0.1,range.x = range(data$length),n.points = length(x))
fit2 <- ksmooth(x=data$length,y=data$luminous,kernel='normal',bandwidth = 0.5,range.x = range(data$length),n.points = length(x))
fit3 <- ksmooth(x=data$length,y=data$luminous,kernel='normal',bandwidth = 1.5,range.x = range(data$length),n.points = length(x))
fit4 <- ksmooth(x=data$length,y=data$luminous,kernel='normal',bandwidth = 3.0,range.x = range(data$length),n.points = length(x))polyfit <- locpoly(x1,x2,bandwidth = 0.1)
plot(x1,x2,xlab = 'length' ,ylab = 'luminous' ,main='bandwidth=0.1')
lines(polyfit,lwd=2.0,col='blue')
lines(fit1,lwd=2.0,col='red')polyfit <- locpoly(x1,x2,bandwidth = 0.5)
plot(x1,x2,xlab = 'length' ,ylab = 'luminous' ,main='bandwidth=0.5')
lines(polyfit,lwd=2.0,col='blue')
lines(fit2,lwd=2.0,col='red')polyfit <- locpoly(x1,x2,bandwidth = 1.5)
plot(x1,x2,xlab = 'length' ,ylab = 'luminous' ,main='bandwidth=1.5')
lines(polyfit,lwd=2.0,col='blue')
lines(fit3,lwd=2.0,col='red')polyfit <- locpoly(x1,x2,bandwidth = 3.0)
plot(x1,x2,xlab = 'length' ,ylab = 'luminous' ,main='bandwidth=3.0')
lines(polyfit,lwd=2.0,col='blue')
lines(fit4,lwd=2.0,col='red')

非参数统计之局部多项式回归相关推荐

  1. 在R语言中进行局部多项式回归拟合(LOESS)

    局部多项式回归拟合是对两维散点图进行平滑的常用方法,它结合了传统线性回归的简洁性和非线性回归的灵活性.当要估计某个响应变量值时,先从其预测变量附近取一个数据子集,然后对该子集进行线性回归或二次回归,回 ...

  2. 核平滑方法——局部多项式回归

    Kernel Smoothing - Local polynomial regression 1. 核平滑方法 代码实现 2. 局部多项式核回归 2.1 加权最小二乘法(Weighted least ...

  3. 非参数统计中的核平滑方法/Kernel smoother

    Kernel Smoother   核函数Khλ(X0,X)K_{h_\lambda}(X_0,X)Khλ​​(X0​,X)定义为 Khλ(X0,X)=D(∣∣X−X0∣∣hλ(X0))K_{h_\l ...

  4. The Elements of Statistical Learning的笔记

    1. The Problem of Overfitting 1 还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图. 如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上 ...

  5. 机器学习算法基础知识

    在我们了解了需要解决的机器学习问题的类型之后,我们可以开始考虑搜集来的数据的类型以及我们可以尝试的机器学习算法.在这个帖子里,我们会介绍一遍最流行的机器学习算法.通过浏览主要的算法来大致了解可以利用的 ...

  6. 三人表决器逻辑表达式与非_机器学习 | 关于参数模型与非参数模型研究

    关注并标星索信达 每天打卡阅读 更快走进金融人工智能世界 ━━━━━━ 我们是索信达集团旗下的金融人工智能实验室团队,微信公众号(datamargin)将不定期推送原创AI科学文章.我们的作品都是由实 ...

  7. 网络KPI异常检测之时序分解算法

    [摘要] 如何去发现时间序列中的规律.找出其中的异常点呢?接下来,我们将揭开这些问题的面纱. 时间序列数据伴随着我们的生活和工作.从牙牙学语时的"1, 2, 3, 4, 5, --" ...

  8. 因果推断笔记——自整理因果推断理论解读(七)

    之前有整理过一篇:因果推断笔记-- 相关理论:Rubin Potential.Pearl.倾向性得分.与机器学习异同(二) 不过,那时候刚刚开始学,只能慢慢理解,所以这边通过一轮的学习再次整理一下手里 ...

  9. 【机器学习百科全书目录】PRML ESL MLAPP 西瓜书 花书 RLAI 统计学习方法 蒲公英书

    文章目录 机器学习百科全书目录 Pattern Recognition and Machine Learning The Elements of Statistical Learning (Secon ...

  10. 【R】【课程笔记】07 分位数回归与VaR(ES)计算

    本文是课程<数据科学与金融计算>第7章的学习笔记,主要介绍计算VaR/ES风险测度的各种方法和极值理论等,用于知识点总结和代码练习,Q&A为问题及解决方案. 往期回顾: 博文 内容 ...

最新文章

  1. 【人工智能】人工智能革命与机遇
  2. 多维数组和C#中的数组数组有什么区别?
  3. hdu4768 非常规的二分
  4. Windows Mobile 获取基站信息(LAC,CellID)
  5. gridview中如果文字太多指点要显示的文字
  6. how to debug connector indexing
  7. jqGrid('setSelection',rowid)报Cannot read property 'multiple' of undefined
  8. 二分 poj 3273
  9. php获得指定目录文件,PHP遍历指定文件夹获取路径及大小(包含子文件夹)
  10. mysql 连接 分组_MySQL 基础 (四) 分组查询及连接查询
  11. 基于模板的通用代码生成器LKGenerator(四)-核心技术之各种数据库查询表信息sql整理...
  12. C# 基础系列--程序集三
  13. 15.TCP/IP 详解卷1 --- TFTP:简单文件传送协议
  14. 【web前端基础 | H5】HTML简介
  15. unity塔防游戏怪物转向_玩一玩这款塔防游戏?
  16. packet tracer配置ssh、telnet
  17. google有自定义文章流畅度的伪原创工具吗
  18. MATLAB作图时值为0的点不画出来
  19. QOpenGLWidget显示视频流数据
  20. matlab 变分贝叶斯,变分法和变分贝叶斯推断

热门文章

  1. 企业微信网页授权初试
  2. SimpleLPR车牌自动识别,一张图片就可识别
  3. 通达信资金净流入公式_资金净流入公式——股票实战技术指标公式研究有缘看本博定多活30年——东方财富网博客...
  4. 节点通讯共享信息的问题
  5. java获取汉字首字母
  6. Testbench编写
  7. 计算机应用基础考试excel操作题,计算机应用基础上机操作试题
  8. SQLPrompt 注册失效方法
  9. [NLP]论文笔记-A SIMPLE BUT TOUGH-TO-BEAT BASELINE FOR SENTENCE EMBEDDINGS
  10. [网络安全自学篇] 九十二.《Windows黑客编程技术详解》之病毒启动技术创建进程API、突破SESSION0隔离、内存加载详解(3)