文章目录

  • 本节目的
  • 解决过程
    • 损失函数
    • 解损失函数(by梯度下降)
  • 改进模型
    • 矫枉过正
    • 解决方案
  • 本课结论

本节目的


找到这样一个函数,输入宝可梦当前的CP(Combat Point)值,得到它进化后的CP值。

解决过程

损失函数

函数的函数:衡量一个函数的好坏(参数决定函数,即衡量一组参数的好坏),输出越大越不好

其中y加一个小尖帽是实际的数值

找一个f使得L(f)最小,能使L(f)最小的f记作f*,f对应的参数是w和b*。

这里用梯度下降来解左边的方程,注意,并不是梯度下降只有该用途。

解损失函数(by梯度下降)

梯度下降的原理(以只有一个参数w的损失函数为例)
背景:暴力穷举的效率低,怎么办?
①选择一个w0作为起点(可以是随机可以不是)
②当前点的斜率是正的,则减小w;反之增加x(我们希望L(w)越小越好)
③具体增加或减少多少,取决于
i)现在的斜率绝对值,现在的斜率的绝对值越大,说明越陡峭,增量越大
ii)学习率 eta Learning rate越大,增量越大(学习速度快)
重复②③w0更新为w1,再更新为w2……(每次减去学习率×微分)

但是,解得的可能只是局部最小值,不是全局最小值。
不过这在回归当中不是个问题。下面考虑两个参数的损失函数。
原理一样,全微分变成偏微分。
梯度下降的梯度其实就是

更新参数过程

下面这幅图中颜色越冷表示损失函数的值越小。

但是梯度下降方法似乎有个让人担心的地方——起点选的不对,也许会走的局部最小值点。但实际不会,因为这是个convex,没有局部最小值,随便从哪个起点开始,都会到全局最小值点。(左边是设想,右边是实际)

偏微分具体求法

结果

发现得到的最好的那个线性函数也不能拟合所有训练集所有实例。再抓10只,发现拟合测试集(真正关心的)的效果还可以。
如何做得更好?->引入二次模型

改进模型

矫枉过正

过拟合 overfitting
想拟合得更好,不断增加函数的次数直到……

上一个Average Error是在训练集上,但是在训练集上,发现结果很离谱

比较不同次数的函数,只看训练集的图,理论上可以找到一个function,使average error越来越低,但是如果结合测试集上的average error来看呢?

结论:不是越复杂的函数,在测试集上结果越好。我们要选最合适的而不是最复杂的模型。
当收集更多的宝可梦,发现还有一个影响CP值的隐藏因素——宝可梦的物种。将不同物种用不同颜色标注。

说明最开始的Model选择就是错误的,需要改进,改进结果如下

按照刚才的方法,最终结果如何?

解决方案

初衷-把一些之前没考虑到的因素加进去,重新定义模型
增加Regularization项(正则化)
改变Loss函数,希望w更小
这样输出对输入就越不敏感,函数更光滑
输入的delta x在输出中表现为w*delta x

为什么希望不敏感?
抵抗噪声干扰的能力更强

改变Lambda的大小,Lambda越小,regularization项的影响力越小,
Lambda越大,函数越光滑,对输入越不敏感,结果如下图所示
原因是:Lambda越大,越倾向于考虑w本来的值,考虑error就越少,故训练集上的error是上升了
结论:我们倾向比较平滑的函数,因为对结果不怎么敏感,但是过于平滑,想象一条水平线,什么也干不成。反而在测试集上得到一个糟糕的结果。

到底 how smooth 最好?
问题转化为调整Lambda

做regularization不需要考虑偏置b。

本课结论

1)宝可梦进化后的CP值和进化前的CP值与物种有很大关系。
2)提到了梯度下降方法,之后会讲原理和技巧。theory and tips
3) overfitting 和它的一个解决方案regularization

hung-yi lee_p3_线性回归相关推荐

  1. 深度学习原理-----线性回归+梯度下降法

    系列文章目录 深度学习原理-----线性回归+梯度下降法 深度学习原理-----逻辑回归算法 深度学习原理-----全连接神经网络 深度学习原理-----卷积神经网络 深度学习原理-----循环神经网 ...

  2. PolicyGradientMethods-强化学习

    文章目录 Neural network as Actor Gradient Ascent Monte Carlo Policy Gradient Add a Baseline On-policy an ...

  3. 机器学习入门笔记(二):线性模型

    文章目录 一.基本形式 二.线性回归 2.1 离散属性连续化 2.2 最小二乘法 2.3 多元线性回归 2.4 广义线性模型 三.对数几率回归(逻辑回归) 3.1 最大似然估计 四.线性判别分析(LD ...

  4. 西瓜书笔记--第三章 线性模型

    3.1 基本形式 线性模型(linear model)试图学得一个通过属性的线性组合来进行预测的函数,即:f(xi)=w1x1+...wdxd+bf(x_i)=w_1x_1+...w_dx_d+bf( ...

  5. Machine Learning——Linear Model

    本系列博客是我学习周志华的<机器学习(西瓜书)>的自学笔记. 我是零基础学习,因此所写只是书上的知识,肯定不全面,以后随着学习的深入,慢慢补充吧. 基本形式 给定由ddd个属性描述的示例x ...

  6. 周志华 机器学习初步 线性模型

    周志华 <机器学习初步> 线性模型 还未更新完,会持续更新 文章目录 周志华 <机器学习初步> 线性模型 一.线性回归 1.线性模型 线性模型的特点和重要性 线性模型的基本形式 ...

  7. 机器学习中的损失函数(Loss Function)介绍、说明

    损失函数 损失函数介绍 常见的损失函数 1.对数损失函数(Logloss) 2. hinge loss 合页损失函数 3. exp-loss 指数损失函数 4. cross-entropy loss ...

  8. 支持向量机(SVM)基本原理

    SVM 看了很多关于SVM的博客,但是常常只能保存书签之后看,有时候有的博客就突然没了,这里就作为搬运工总结一下之后自己看吧.主要内容来自于: 支持向量机通俗导论(理解SVM的三层境界) 分类标准的起 ...

  9. ML (Chapter 3): 线性模型

    目录 基本形式 线性回归 (linear regression) 单变量线性回归 多变量线性回归 (multivariate linear regression) 广义线性模型 (generalize ...

最新文章

  1. oracle--with as
  2. Makefile写法入门心得
  3. 应届算法岗,选择巨头还是AI明星创业公司
  4. 4由通道检测_大唐阜新煤制天然气「榜样力量」实训做实出实效——废水总酚检测时间由4小时缩短至10分钟...
  5. 提交的时候过程很长,出现等待处理效果。
  6. html背景设置为彩色,CSS3 彩色网格背景
  7. QT 5.9.0下载安装及配置教程(自动化运维环境)
  8. dirent struct_关于readdir返回值中struct dirent.d_type的取值有关问题(转)
  9. 发生异常: ModuleNotFoundError No module named ‘XXXX‘可优先尝试的解决方式
  10. 广义表的概念及其存储结构
  11. 使用ABAP批量下载有道云笔记中的图片
  12. vscode离线下载对应版本的插件,避免版本兼容问题
  13. 大数据计算框架及引擎介绍
  14. 微信V3APP支付2022,全网最新+踩坑(已实现)
  15. Unity中实现隐藏iPhoneX底部横条
  16. cdn日志文件导入mysql进行分析,核心用到 Python
  17. 如何直接运行.pyc文件?
  18. adb发送什么命令能在手机屏幕弹窗显示_常用命令之adb指令
  19. js textarea换行
  20. Java随机生成大乐透号码

热门文章

  1. 微信小程序图片自适应宽高比例显示解决方法
  2. Swift 字符串去除换行符空格符
  3. 如何设计一个 iOS 控件?(iOS 控件完全解析)
  4. Storybook 5.0正式发布:有史以来变化最大的版本\n
  5. GitBook本地的安装与查看
  6. Maven项目Spring Boot启动
  7. Linux下des对称性加密
  8. 上周回顾:微软与苹果比赛谁更“不安全”
  9. MySql练习题参考答案
  10. python内置数据结构之dict