视频来源:

李宏毅机器学习(2017)_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili

https://www.bilibili.com/video/av10590361/?p=3

机器学习的目的就是找到最优函数,而回归的目的就是我们要找的函数的输出是一个数值。例如下面的例子,不管是输入怎样的特征,我们都是需要通过学习输出它的明天产品的平均值,方向盘的角度,以及商户购买这些商品可能性(而这些都是数值)

估计宝可梦进化的CP值

输入数据:   进化前的数据(属性或特征)  Xs(种类),Xcp,Xhp,Xw(体重),Xh(高度)

第一步:有数据的输入之后,需要从我们的函数集合(或者是模型)带入每一个的数据,w是权重,b是偏移量;根据b和w的不同可以在model中创建不同的函数比如f1,f2,f3.....  符合y=a+bx类型的为线性模型


假设进化后的y值和进化前的数据属性的关系如下:

步骤二:在Model集中那么多的model怎么评测那个是最好的model(函数)??引入另一个function专门的衡量model的好坏程度-----loss function

使用统计学中的误差分析:    最小二乘法的计算    (预测值-真值)^2   =  loss

这里的使用与y^表示真实值 

loss function  中的主导的变量w和b

步骤三:获得最优的函数,也就是损失函数最小。通过高数求偏导的思路可以获得损失函数对各个变量的偏导。然后使得导数的值为0,或者是趋于零。从而得到最优

arg表示受限于---------argmin受限于最小化##

通常我们获得最优的函数使用---------------梯度下降的方法

步骤:

(1)随机初始化变量比如w0,b0

(2)计算导数(一个变量)or 偏导(多个变量),根据具体的趋势更新w1,b1,迭代的使用该方法直到偏导数为0

具体的意思:比如只有一个变量w的损失函数L(w)


当偏导数为负的时候说明是一个局部的递减,要使得函数L(w)的函数值逐渐的小的话就需要向右增加w的值从而跟新w1

当偏导数为正的时候说明是一个局部的递增,要使得函数L(w)的函数值逐渐的小的话就需要向左减小w的值从更新w1

问题来了:怎么更新数据

借助于学习率:评价学习的步伐(在上一步的基础上学习了的步子)


逐渐的迭代直到使得导数 的值为0

梯度下降不能保证找到全局最优,但是一定可以找到解(局部或者是全局)


多变量额时候使用偏导数

偏导数表示方法:



过拟合Overfitting


如图所示:函数值不超过15.3的时候loss 较小,但是超过以后误差飞涨。  也就是只是在前面的具有很好的符合后面不具有通用型。我们在机器学习中需要综合的找到通用型的。而不是着眼于几个线索,陷入误区,那些使的强烈符合的就是过拟合。过度的依赖一些数据使得数据普遍性小

解决Overfitting

所以更多的线索带入:


将种类作为一个特征参数分类,然后再进行训练。

但是其任然是一个线性模型,当一个类型成立的时候其他的无关的类别的参数就是0



其他的参数和值的关系:可以通关“关联规则”评测那个属性是最有关的




也是就是说W比较小,函数比较平滑(对输入有些变化,而输出的变化变化的比较小)


输出的变为:

是需要自己去调整的。例如:



李宏毅机器学习笔记(三)——Regression: output a scalar amp;amp; Gradient Descent相关推荐

  1. 李宏毅svm_【李宏毅机器学习笔记】 18、支持向量机(Support Vector Machine,SVM)...

    [李宏毅机器学习笔记]1.回归问题(Regression) [李宏毅机器学习笔记]2.error产生自哪里? [李宏毅机器学习笔记]3.gradient descent [李宏毅机器学习笔记]4.Cl ...

  2. 【李宏毅机器学习笔记】 23、循环神经网络(Recurrent Neural Network,RNN)

    [李宏毅机器学习笔记]1.回归问题(Regression) [李宏毅机器学习笔记]2.error产生自哪里? [李宏毅机器学习笔记]3.gradient descent [李宏毅机器学习笔记]4.Cl ...

  3. 2021李宏毅机器学习笔记--21 Anomaly Detection

    2021李宏毅机器学习笔记--21 Anomaly Detection(异常侦测) 摘要 一.问题描述 二.Anomaly异常 三.Anomaly Detection(异常侦测)做法 3.1 Bina ...

  4. 2021李宏毅机器学习笔记--22 Generative Adversarial Network 01

    @[TOC](2021李宏毅机器学习笔记–22 Generative Adversarial Network 01(GAN,生成式对抗网络)) 摘要 GAN是建立于神经网络的基础上的,其核心思想是&q ...

  5. 【李宏毅机器学习笔记】 17、迁移学习(Transfer Learning)

    [李宏毅机器学习笔记]1.回归问题(Regression) [李宏毅机器学习笔记]2.error产生自哪里? [李宏毅机器学习笔记]3.gradient descent [李宏毅机器学习笔记]4.Cl ...

  6. 2021李宏毅机器学习笔记--12 attack ML models

    2021李宏毅机器学习笔记--12 attack ML models 摘要 一.图像模型的攻击 1.1原理 1.2Constraint 1.3参数训练 1.4一个例子 1.5攻击方法 1.5.1FGS ...

  7. 机器学习笔记三—卷积神经网络与循环神经网络

    系列文章目录 机器学习笔记一-机器学习基本知识 机器学习笔记二-梯度下降和反向传播 机器学习笔记三-卷积神经网络与循环神经网络 机器学习笔记四-机器学习可解释性 机器学习笔记五-机器学习攻击与防御 机 ...

  8. 三种梯度下降法对比(Batch gradient descent、Mini-batch gradient descent 和 stochastic gradient descent)

    梯度下降(GD)是最小化风险函数.损失函数的一种常用方法,随机梯度下降(stochastic gradient descent).批量梯度下降(Batch gradient descent)和mini ...

  9. 【李宏毅机器学习】Logistic Regression 逻辑回归(p11) 学习笔记

    李宏毅机器学习学习笔记汇总 课程链接 文章目录 Logistic Regression Step 1: Function Set Step 2: Goodness of a Function Step ...

最新文章

  1. Responsive设计——meta标签
  2. 【mysql dump】 备份原理及脚本
  3. mysql锁的一些理解简书_MySQL锁系列之锁的种类和概念
  4. 查询过去一个月有付款mysql_MySQL_mysql 月份查询该月有付款的数据,ktime 开始时间串 dtime 到期时间 - phpStudy...
  5. 从零开始编写自己的C#框架(17)——Web层后端首页
  6. 清洗弹幕数据,去不相关的列和空值,MapReduce
  7. linux虚拟机cpu一分钟内负载,虚拟机性能调优-CPU篇
  8. 软件测试:QQ登录测试用例
  9. App进行内测麻烦吗?如何进行App内测?
  10. python去中心化_EOS区块链dApp去中心化应用汇总
  11. OpencCV制作相框效果
  12. 参加“互联网+“比赛心得与体会
  13. 上班族致富五大途径解密
  14. 判断推理----类比推理
  15. Python中self用法详解
  16. hdu-2814-Interesting Fibonacci-斐波那契循环节
  17. MySQL数据库(安装配置 语句语法使用 项目中操作MySQL)
  18. Protobuf是什么?
  19. A1111. 填数字(dfs遍历模板)【1】
  20. 考勤系统 人员排班设置

热门文章

  1. 亚信安全服务器深度安全防护系统中标“世界最长”的城轨网络
  2. 《智能数据时代:企业大数据战略与实战》一3.5 步步为营
  3. neutron CLI is deprecated and will be removed in the future. Use openstack CLI instead
  4. Java泛型 通配符? extends与super
  5. jQuery获取带点的id元素
  6. c实现面向对象编程(3)
  7. win7下解决Android SDK Manger慢
  8. keras神经网络回归预测_如何使用Keras建立您的第一个神经网络来预测房价
  9. 韩国文档的编码方式_像韩国学生学习英语一样学习编码
  10. java连接mysql8的坑