文章目录

  • 1. 监督学习和无监督学习
  • 2. 线性回归模型
  • 3. 代价函数
  • 4. 梯度下降
  • 5. 多维特征
  • 6. 多元线性回归的梯度下降
  • 7. 特征缩放
  • 8. 判断梯度下降是否收敛
  • 9. 学习率
  • 10. 正规方程
  • 11. 逻辑回归
  • 12. 决策边界
  • 13. 逻辑回归的代价函数
  • 14. 实现逻辑回归梯度下降
  • 15. 过拟合问题
  • 16. 正则化
  • 17. 神经网络
    • 17.1 需求预测
    • 17.2 神经网络中的网络层
    • 17.3 复杂的神经网络
    • 17.4 神经网络前向传播(手写识别案例)
    • 17.5 TensorFlow实现代码推理
    • 17.6 TensorFlow中的数据格式
    • 17.7 搭建神经网络
    • 17.8 单个网络层的前向传播
    • 17.9 前向传播的一般实现

本章主要回顾吴恩达老师机器学习快速入门视频,以便夯实基础,适合零基础小白~

1. 监督学习和无监督学习

监督学习(Supervised Learning):对于数据集中每一个样本都有对应的标签,包括回归(regression)和分类(classification);

无监督学习(Unsupervised Learning):数据集中没有任何的标签,包括聚类(clustering)

2. 线性回归模型

[见机器学习入门笔记—周志华. 《机器学习》–线性模型]

3. 代价函数

代价函数(cost function)J(θ),通常使用平方误差函数,如下:

4. 梯度下降


如果α太小,梯度下降会变得缓慢;如果α太大,梯度下降可能无法收敛甚至发散。

线性回归中的梯度下降


5. 多维特征

矢量化

6. 多元线性回归的梯度下降


7. 特征缩放

定义

特征缩放是用来标准化数据特征的范围。

  • 数量级的差异将导致量级较大的属性占据主导地位
  • 数量级的差异将导致迭代收敛速度减慢
  • 依赖于样本距离的算法对于数据的数量级非常敏感

作用与原理

特征缩放是针对多特征情况的。当有多个特征向量的时候,如果其中一个变化范围比较大,根据上次所说的多特征梯度下降法算法,该特征向量的参数可能会变化范围很大,从而主导整个梯度下降的过程,使得整个收敛轨迹变得复杂,让收敛的时间更长

优点

  • 提升模型的精度:在机器学习算法的目标函数中使用的许多元素,都是假设所有的特征都是零均值并且具有同一阶级上的方差。如果某个特征的方差比其他特征大几个数量级,那么它就会在学习算法中占据主导位置,导致学习器并不能像我们期望的那样,从其他特征中学习
  • 提升收敛速度:对于线性模型来说,数据归一化后,寻找最优解的过程明显会变得平缓,更容易正确地收敛到最优解

Standardization (Z-score normalization)

通过减去均值然后除以标准差,将数据按比例缩放,使之落入一个小的特定区间,处理后的数据均值为0,标准差为1

x′=x−mean(x)std(x)x'=\frac{x-mean(x)}{std(x)}x′=std(x)x−mean(x)​

  • 数据本身的分布就服从正态分布
  • 最大值和最小值未知的情况,或有超出取值范围的离群数据的情况
  • 在分类、聚类算法中需要使用距离来度量相似性、或者使用PCA(协方差分析)技术进行降维时,使用该方法表现更好

Rescaling (min-max normalization)

将原始数据线性变换到用户指定的最大-最小值之间,处理后的数据会被压缩到 [0,1] 区间上
x′=x−min(x)max(x)−min(x)x'=\frac{x-min(x)}{max(x)-min(x)}x′=max(x)−min(x)x−min(x)​

  • 对输出范围有要求
  • 数据较为稳定,不存在极端的最大最小值
  • 在不涉及距离度量、协方差计算、数据不符合正太分布的时候,可以使用该方法

Mean normalization

x′=x−mean(x)max(x)−min(x)x′=\frac{x-mean(x)}{max(x)-min(x)}x′=max(x)−min(x)x−mean(x)​

8. 判断梯度下降是否收敛



9. 学习率


如何正确选择学习率。

  • 如果α太小:收敛慢

  • 如果α太大:每一次迭代过程中J(θ)将会不断的越过最小值,无法收敛

  • choose α:0.001,0.003,0.01,0.03,0.1,0.3,1,…

  • 寻找一个合适的较小值和较大值,保证结果和速度的同时选取较大的值,或者稍小的合理值。

10. 正规方程


正规方程存在条件:

  • XTX是可逆矩阵,若不可逆,可计算广义可逆矩阵。

    梯度下降算法:需要选择学习速率α ; 需要许多次迭代;当特征数量n较大时也能够运转正常;
    正规方程: 无需选择参数;无需迭代;需要计算( XTX )−1;当n较大时计算缓慢

11. 逻辑回归




12. 决策边界




13. 逻辑回归的代价函数




简化逻辑回归的代价函数



14. 实现逻辑回归梯度下降

  • X(i) j 意味着训练样例i的j特征

  • 同步更新:means compute the right-hand side for all of these updates and then simultaneously overwrite all the values on the left at the same time.

15. 过拟合问题

相关概念

欠拟合,高偏差:说明没有很好的拟合训练数据
解决办法:增加特征,如增加多项式

过拟合,高方差:拟合训练数据过于完美,J ( θ ) ≈ 0 ,导致模型的泛化能力很差,对于新样本不能准确预测;
解决办法

  • 减少特征个数
    a)人工保留合适的特征
    b)采用模型选择算法
  • 正则化
    a)保留所有特征,减小参数θj的维度

解决过拟合


16. 正则化




线性回归的正则方法

对θj 加入惩罚项:





逻辑回归的正则方法

对θj 加入惩罚项:


17. 神经网络

17.1 需求预测


17.2 神经网络中的网络层



17.3 复杂的神经网络

17.4 神经网络前向传播(手写识别案例)

手写识别案例


17.5 TensorFlow实现代码推理


17.6 TensorFlow中的数据格式


17.7 搭建神经网络


17.8 单个网络层的前向传播

17.9 前向传播的一般实现

[机器学习入门笔记] 2. 2022吴恩达机器学习Deeplearning.ai课程(回顾)相关推荐

  1. 第一章-机器学习简介 深度之眼_吴恩达机器学习作业训练营

    目录 专栏简介: 一,机器学习简介 1.1 机器学习定义 1.1 机器学习的重要性 1.2 应用领域 二.监督学习 三.无监督学习 四.总结 专栏简介: 本栏主要内容为吴恩达机器学习公开课的学习笔记, ...

  2. 吴恩达老师DeepLearning系列课程最详细学习笔记之4—为什么深度学习会兴起?

    教程是本人学习吴恩达老师DeepLearing系列课程中整理的最为详细的学习笔记.学习视频主要来自B站[双语字幕]吴恩达深度学习deeplearning.ai_哔哩哔哩_bilibili?,以及Dee ...

  3. 吴恩达老师DeepLearning系列课程最详细学习笔记之23—Jupyter Ipython笔记本的快速指南

    教程是本人学习吴恩达老师DeepLearing系列课程中整理的最为详细的学习笔记.学习视频主要来自B站[双语字幕]吴恩达深度学习deeplearning.ai_哔哩哔哩_bilibili?,以及Dee ...

  4. 这 28 张精炼图,将吴恩达的 deeplearning.ai 总结得恰到好处!

    点击上方"AI有道",选择"星标"公众号 重磅干货,第一时间送达 吴恩达--人工智能领域的大 IP,他在 Coursera 上开设的 deeplearning. ...

  5. 吴恩达创建deeplearning.ai讲授AI课程 ,向全世界普及深度学习知识

    吴恩达称正在做的AI项目有三个,deeplearning.ai只是其中的第一个. 昨晚,前百度首席科学家吴恩达在其Twitter上发布重磅消息称,deeplearning.ai课程正式登录Couser ...

  6. 【2022吴恩达机器学习】决策树

    决策树 1.1决策树模型 决策树是一种典型的分类方法 比如说有一组数据,特征量是"是不是折耳"."是不是圆脸"."有没有胡须",输入特征x是 ...

  7. 吴恩达机器学习入门 2018 高清视频公开,还有习题解答和课程拓展,网友:找不到理由不学!...

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 机器学习入门课程哪家最强? 斯坦福吴恩达的CS229称第二,恐怕没人敢称第一. 最近,吴恩达在斯坦福的最新CS229 2018课程,已经完 ...

  8. 吴恩达机器学习笔记-梯度下降

    通过前面的文章我们现在已经有了假设函数$h_\theta(x)$并知道如何度量这个函数与数据的符合程度,即代价函数$J(\theta_0,\theta_1)$取得最小值.那么现在要做的,就是如何去预估 ...

  9. 吴恩达机器学习入门2018高清视频公开,还有习题解答和课程拓展,网友:找不到理由不学!...

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 机器学习入门课程哪家最强? 斯坦福吴恩达的CS229称第二,恐怕没人敢称第一. 最近,吴恩达在斯坦福的最新CS229 2018课程,已经完 ...

  10. 吴恩达机器学习手写笔记(持续更新ing)

    吴恩达机器学习笔记 文章目录 吴恩达机器学习笔记 1.Introduction 2.Linear regression with one variable 3.Linear Algebra revie ...

最新文章

  1. (python)Graph_tools模块学习
  2. mysql数据库的增删改查
  3. 比较好的一些 ConcurrentHashMap讲解博客
  4. yota3墨水屏设置_汉阳环卫工节前给道路隔音屏“洗澡”
  5. 超5400亿!教育部公布2022年部门预算
  6. SAP License:定义在制品和结果分析过账OKG8
  7. php屏蔽ip时间段,php中限制ip段访问、禁止ip提交表单的代码分享/用PHP打印出前一天的时间格式:...
  8. 二叉搜索树bst_二进制搜索树(BST)–搜索插入和删除
  9. 爱国者MID产品介绍
  10. 汇编语言王爽第四版实验三(第一个程序)
  11. 投资理财之基金四:指数基金
  12. 分布式调度架构:单体调度
  13. 14.PIO源码详解4-PIO_EP模块(PIO_EP.v)剖析
  14. Python faker函数
  15. 13.MD5对用户密码进行加密
  16. 当“长期主义”遇上“流量生意”,轻松筹与水滴筹谁更胜一筹?
  17. Selenium:元素判断
  18. PTA 顺序表的基本操作
  19. 杭电和深大计算机专业哪个好,杭州电子科技大学 还是 深圳大学?
  20. Linux搭建FTP,并使用Windows和IE浏览器访问FTP服务

热门文章

  1. linux qt 屏幕亮度,调整14.04.1 屏幕亮度
  2. 国庆节未休假的你,领到了三倍的工资吗?
  3. 【UCSC Genome Browser】- Genes and Gene Predictions - NCBI RefSeq
  4. 史上最全CAD快捷键大全汇总
  5. win10操作系统上编译assimp库
  6. python每日一记目标
  7. 远程教育英语和计算机难吗,网络教育英语统考难么?
  8. 8.NLTK之分析句子结构
  9. crmeb 一号通使用方法
  10. 下载win10镜像_安装配置win10虚拟机_获取win10产品密钥