文章目录

  • 第五课
  • 第四课
  • 第三课
  • 第二课
  • 第一课

第五课

《序列模型》 笔记列表
Week 1 循环序列模型
Week 1 传送门 —> 1.1 为什么选择序列模型
1.2 数学符号
1.3 循环神经网络
1.4 通过时间的方向传播
1.5 不同类型的循环神经网络
1.6 语言模型和序列生成
1.7 对新序列采样
1.8 带有神经网络的梯度消失
1.9 GRU 单元
1.10 长短期机器 (LSTM)
1.11 双向神经网络
1.12 深层循环神经网络
1.13 总结
Week 2 自然语言处理与词嵌入
Week 2 传送门 —> 2.1 词汇表征
2.2 使用词嵌入
2.3 词嵌入的特性
2.4 嵌入矩阵
2.5 学习词嵌入
2.6 Word2Vec
2.7 负采样
2.8 GloVe 词向量
2.9 情绪分类
2.10 词嵌入除偏
2.11 总结
Week 3 序列模型和注意力机制
Week 3 传送门 —> 3.1 基础模型
3.2 选择最可能的句子
3.3 定向搜索
3.4 改进定向搜索
3.5 定向搜索的误差分析
3.6 Bleu 得分
3.7 注意力模型直观理解
3.8 注意力模型
3.9 语音辨识
3.10 触发字检测
3.11 结论和致谢
3.12 总结

第四课

《卷积神经网络》 笔记列表
Week 1 卷积神经网络
Week 1 传送门 —> 1.1 计算机视觉
1.2 边缘检测示例
1.3 更多边缘检测内容
1.4 Padding
1.5 卷积步长
1.6 三维卷积
1.7 单层卷积网络
1.8 简单卷积网络示例
1.9 池化层
1.10 卷积神经网络示例
1.11 为什么使用卷积?
1.12 总结
Week 2 深度卷积网络:实例探究
Week 2 传送门 —> 2.1 为什么要进行实例探究?
2.2 经典网络
2.3 残差网络
2.4 残差网络为什么有用?
2.5 网络中的网络以及1x1卷积
2.6 谷歌 Inception 网络简介
2.7 Inception 网络
2.8 使用开源的实现方案
2.9 迁移学习
2.10 数据扩充
2.11 计算机视觉现状
2.12 总结
Week 3 目标检测
Week 3 传送门 —> 3.1 目标定位
3.2 特征点检测
3.3 目标检测
3.4 卷积的滑动窗口实现
3.5 Bounding Box 预测
3.6 交并比
3.7 非极大值抑制
3.8 Anchor Boxes
3.9 YOLO 算法
3.10 候选区域
3.11 总结
Week 4 特殊应用:人脸识别和神经风格转换
Week 4 传送门 —> 4.1 什么是人脸识别?
4.2 One-Shot 学习
4.3 Siamese 网络
4.4 Triplet 损失
4.5 面部验证与二分类
4.6 什么是神经风格转换?
4.7 什么是深度卷积网络?
4.8 代价函数
4.9 内容代价函数
4.10 风格代价函数
4.11 一维到三维推广
4.12 总结

第三课

《结构化机器学习项目》 笔记列表
Week 1 机器学习策略一
Week 1 传送门 —> 1.1 为什么是ML策略
1.2 正交化
1.3 单一数字评估指标
1.4 满足和优化指标
1.5 训练/开发/测试集划分
1.6 开发集和测试集的大小
1.7 什么时候该改变开发_测试集和指标
1.8 为什么是人的表现
1.9 可避免误差
1.10 理解人的表现
1.11 超越人的表现
1.12 改善你的模型的表现
[1.13 总结]
Week 2 机器学习策略二
Week 2 传送门 —> 2.1 误差分析
2.2 清除标注错误的数据
2.3 快速搭建你的第一个系统,并进行迭代
2.4 在不同的划分上进行训练并测试
2.5 不匹配数据划分的偏差和误差
2.6 定位数据不匹配
2.7 迁移学习
2.8 多任务学习
2.9 什么是端到端的深度学习
2.10 是否要使用端到端的深度学习
2.11 总结
采访 大牛采访
传送门 —> Andrej Karpathy
Ruslan Salakhutdinov

第二课

《改善神经网络》 笔记列表
Week 1 深度学习的实用层面
Week 1 传送门 —> 1.1 训练/开发/测试集
1.2 偏差/方差
1.3 机器学习基础
1.4 正则化
1.5 为什么正则化可以减少过拟合
1.6 Dropout 正则化
1.7 理解 Dropout
1.8 其他正则化方法
1.9 归一化输入
1.10 梯度消失与梯度爆炸
1.11 神经网络的权重初始化
1.12 梯度的数值逼近
1.13 梯度检验
1.14 关于梯度检验实现的注记
1.15 总结
Week 2 优化算法
Week 2 传送门 —> 2.1 Mini-batch 梯度下降
2.2 理解 mini-batch 梯度下降法
2.3 指数加权平均
2.4 理解指数加权平均
2.5 指数加权平均的偏差修正
2.6 动量梯度下降法
2.7 RMSprop
2.8 Adam 优化算法
2.9 学习率衰减
2.10 局部最优的问题
2.11 总结
Week 3 超参数调试、Batch正则化和程序框架
Week 3 传送门 —> 3.1 调试处理
3.2 为超参数选择合适的范围
3.3 超参数训练的实践: Pandas vs. Caviar
3.4 正则化网络的激活函数
3.5 将 Batch Norm 拟合进神经网络
3.6 Batch Norm 为什么奏效
3.7 测试时的 Batch Norm
3.8 Softmax 回归
3.9 训练一个 Softmax 分类器
3.10 深度学习框架
3.11 TensorFlow
3.12 总结
采访 大牛采访
传送门 —> Yoshua
Yuanqing Lin

第一课

《神经网络与深度学习》 笔记列表
Week 1 深度学习概论
Week 1 传送门 —> 1.1 欢迎
1.2 什么是神经网络
1.3 用神经网络进行监督学习
1.4 为什么深度学习会兴起
1.5 关于这门课
1.6 课程资源
1.7 总结习题
Week 2 神经网络基础
Week 2 传送门 —> 2.1 二元分类
2.2 Logistic 回归
2.3 Logistic 回归损失函数
2.4 梯度下降法
2.5 导数
2.6 更多导数的例子
2.7 计算图
2.8 计算图的导数计算
2.9 Logistic 回归的梯度下降法
2.10 m 个样本的梯度下降
2.11 向量化
2.12 向量化的更多例子
2.13 向量化 Logistic 回归
2.14 向量化 Logistic 回归的梯度输出
2.15 Python 中的广播
2.16 关于 Python Numpy 向量的说明
2.17 Jupyter/iPython 笔记本的快速指南
2.18 Logistic 损失函数的解释
2.19 总结习题
Week 3 浅层神经网络
Week 3 传送门 —> 3.1 神经网络概览
3.2 神经网络表示
3.3 计算神经网络的输出
3.4 多个例子中的向量化
3.5 向量化实现的解释
3.6 激活函数
3.7 为什么需要非线性激活函数
3.8 激活函数的导数
3.9 神经网络的梯度下降法
3.10 直观理解反向传播
3.11 随机初始化
3.12 总结习题
Week 4 深层神经网络
Week 4 传送门 —> 4.1 深层神经网络
4.2 深层网络中的前向传播
4.3 核对矩阵的维数
4.4 为什么使用深层表示
4.5 搭建深层神经网络块
4.6 前向和反向传播
4.7 参数 vs. 超参数
4.8 这和大脑有什么关系
4.9 总结习题
采访 大牛采访
传送门 —> Geoffery Hinton
Pieter Abbeel
Ian Goodfellow

0.0 目录-深度学习第三课《结构化机器学习项目》-Stanford吴恩达教授相关推荐

  1. 0.0 目录-深度学习第五课《序列模型》-Stanford吴恩达教授

    文章目录 目录 第五课 第四课 第三课 第二课 第一课 目录 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1. ...

  2. 0.0 目录-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    文章目录 第五课 第四课 第三课 第二课 第一课 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1.2 数学符号 ...

  3. 3.11 结论和致谢-深度学习第五课《序列模型》-Stanford吴恩达教授

    结论和致谢 (Conclusion and thank you) 恭喜你能走到这一步,在最后这节视频中,只想做个总结,并给你一些最后的想法. 我们一起经历了一段很长的旅程,如果你已经学完了整个专业的课 ...

  4. 2.2 经典网络-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.1 为什么要进行实例探究? 回到目录 2.3 残差网络 经典网络 (Classic Networks) 这节课,我们来学习几个经典的神经网络结构,分别是LeNet-5.A ...

  5. 1.9 池化层-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.8 简单卷积网络示例 回到目录 1.10 卷积神经网络示例 池化层 (Pooling Layers) 除了卷积层,卷积网络也经常使用池化层来缩减模型的大小,提高计算速度, ...

  6. 1.7 单层卷积网络-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.6 三维卷积 回到目录 1.8 简单卷积网络示例 单层卷积网络 (One Layer of a Convolutional Network) 今天我们要讲的是如何构建卷积 ...

  7. 3.4 改进集束搜索-深度学习第五课《序列模型》-Stanford吴恩达教授

    改进集束搜索 (Refinements to Beam Search) 上个视频中, 你已经学到了基本的束搜索算法(the basic beam search algorithm),这个视频里,我们会 ...

  8. 4.4 Triplet 损失-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 4.3 Siamese 网络 回到目录 4.5 面部验证与二分类 Triplet 损失 (Triplet Loss) 要想通过学习神经网络的参数来得到优质的人脸图片编码,方法 ...

  9. 3.1 目标定位-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.12 总结 回到目录 3.2 特征点检测 目标定位 (Object Localization) 大家好,欢迎回来,这一周我们学习的主要内容是对象检测,它是计算机视觉领域中 ...

  10. 2.9 迁移学习-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.8 使用开源的实现方案 回到目录 2.10 数据扩充 迁移学习 (Transfer Learning) 如果你要做一个计算机视觉的应用,相比于从头训练权重,或者说从随机初 ...

最新文章

  1. 周日21点50:关注电子阅读的大潮到来
  2. centos 7 Chrony 集群同步时间
  3. java web 请求跟踪_IT兄弟连 JavaWeb教程 Servlet会话跟踪 Cookie技术
  4. 字节跳动 计算机视觉方向算法实习生 招聘!
  5. Asp.Net学习-Cache高速缓存
  6. pycharm 无法安装模块 nothing to show
  7. CAN、CAN FD
  8. C++使用Socks5协议进行代理上网(三)
  9. 图像检索:颜色聚合向量(CCV)及matlab实现
  10. 2020 博客之星评选【票数排行榜】每日更新
  11. OpenCV剪切图片圆形区域
  12. 常用eclips快捷键小结
  13. 【图文详解】canvas插件安装方法及常用插件推荐
  14. php 画布插入图像,PHP图片处理之图片背景、画布操作
  15. 千万别小瞧九宫格 一道题就能让候选人原形毕露!
  16. 快看!!!北极点的气温在零度以上!比平常高了30度!!!!!!
  17. VS2015正式版出炉-----
  18. 中国美妆市场消费潜力与销售渠道研究报告2022版
  19. August(八月)的来源
  20. 《HFSS电磁仿真设计从入门到精通》一2.2 T形波导内场分析

热门文章

  1. Python入门学习笔记13(线程锁与信号量)
  2. leetcode刷题笔记342 4的幂
  3. Netlink 介绍(译)
  4. string to byte[]
  5. DSP6455的EMIFA口
  6. 代码中设置excel自定义格式为[红色]的处理方法
  7. HTML5 随机弹跳的小球
  8. [Android]反编译apk + eclipse中调试smali
  9. 算法导论笔记- 二叉查找树问题
  10. 组合恒等式3 母函数与形式幂级数的运算