文章目录

  • 第五课
  • 第四课
  • 第三课
  • 第二课
  • 第一课

第五课

《序列模型》 笔记列表
Week 1 循环序列模型
Week 1 传送门 —> 1.1 为什么选择序列模型
1.2 数学符号
1.3 循环神经网络
1.4 通过时间的方向传播
1.5 不同类型的循环神经网络
1.6 语言模型和序列生成
1.7 对新序列采样
1.8 带有神经网络的梯度消失
1.9 GRU 单元
1.10 长短期机器 (LSTM)
1.11 双向神经网络
1.12 深层循环神经网络
1.13 总结
Week 2 自然语言处理与词嵌入
Week 2 传送门 —> 2.1 词汇表征
2.2 使用词嵌入
2.3 词嵌入的特性
2.4 嵌入矩阵
2.5 学习词嵌入
2.6 Word2Vec
2.7 负采样
2.8 GloVe 词向量
2.9 情绪分类
2.10 词嵌入除偏
2.11 总结
Week 3 序列模型和注意力机制
Week 3 传送门 —> 3.1 基础模型
3.2 选择最可能的句子
3.3 定向搜索
3.4 改进定向搜索
3.5 定向搜索的误差分析
3.6 Bleu 得分
3.7 注意力模型直观理解
3.8 注意力模型
3.9 语音辨识
3.10 触发字检测
3.11 结论和致谢
3.12 总结

第四课

《卷积神经网络》 笔记列表
Week 1 卷积神经网络
Week 1 传送门 —> 1.1 计算机视觉
1.2 边缘检测示例
1.3 更多边缘检测内容
1.4 Padding
1.5 卷积步长
1.6 三维卷积
1.7 单层卷积网络
1.8 简单卷积网络示例
1.9 池化层
1.10 卷积神经网络示例
1.11 为什么使用卷积?
1.12 总结
Week 2 深度卷积网络:实例探究
Week 2 传送门 —> 2.1 为什么要进行实例探究?
2.2 经典网络
2.3 残差网络
2.4 残差网络为什么有用?
2.5 网络中的网络以及1x1卷积
2.6 谷歌 Inception 网络简介
2.7 Inception 网络
2.8 使用开源的实现方案
2.9 迁移学习
2.10 数据扩充
2.11 计算机视觉现状
2.12 总结
Week 3 目标检测
Week 3 传送门 —> 3.1 目标定位
3.2 特征点检测
3.3 目标检测
3.4 卷积的滑动窗口实现
3.5 Bounding Box 预测
3.6 交并比
3.7 非极大值抑制
3.8 Anchor Boxes
3.9 YOLO 算法
3.10 候选区域
3.11 总结
Week 4 特殊应用:人脸识别和神经风格转换
Week 4 传送门 —> 4.1 什么是人脸识别?
4.2 One-Shot 学习
4.3 Siamese 网络
4.4 Triplet 损失
4.5 面部验证与二分类
4.6 什么是神经风格转换?
4.7 什么是深度卷积网络?
4.8 代价函数
4.9 内容代价函数
4.10 风格代价函数
4.11 一维到三维推广
4.12 总结

第三课

《结构化机器学习项目》 笔记列表
Week 1 机器学习策略一
Week 1 传送门 —> 1.1 为什么是ML策略
1.2 正交化
1.3 单一数字评估指标
1.4 满足和优化指标
1.5 训练/开发/测试集划分
1.6 开发集和测试集的大小
1.7 什么时候该改变开发_测试集和指标
1.8 为什么是人的表现
1.9 可避免误差
1.10 理解人的表现
1.11 超越人的表现
1.12 改善你的模型的表现
[1.13 总结]
Week 2 机器学习策略二
Week 2 传送门 —> 2.1 误差分析
2.2 清除标注错误的数据
2.3 快速搭建你的第一个系统,并进行迭代
2.4 在不同的划分上进行训练并测试
2.5 不匹配数据划分的偏差和误差
2.6 定位数据不匹配
2.7 迁移学习
2.8 多任务学习
2.9 什么是端到端的深度学习
2.10 是否要使用端到端的深度学习
2.11 总结
采访 大牛采访
传送门 —> Andrej Karpathy
Ruslan Salakhutdinov

第二课

《改善神经网络》 笔记列表
Week 1 深度学习的实用层面
Week 1 传送门 —> 1.1 训练/开发/测试集
1.2 偏差/方差
1.3 机器学习基础
1.4 正则化
1.5 为什么正则化可以减少过拟合
1.6 Dropout 正则化
1.7 理解 Dropout
1.8 其他正则化方法
1.9 归一化输入
1.10 梯度消失与梯度爆炸
1.11 神经网络的权重初始化
1.12 梯度的数值逼近
1.13 梯度检验
1.14 关于梯度检验实现的注记
1.15 总结
Week 2 优化算法
Week 2 传送门 —> 2.1 Mini-batch 梯度下降
2.2 理解 mini-batch 梯度下降法
2.3 指数加权平均
2.4 理解指数加权平均
2.5 指数加权平均的偏差修正
2.6 动量梯度下降法
2.7 RMSprop
2.8 Adam 优化算法
2.9 学习率衰减
2.10 局部最优的问题
2.11 总结
Week 3 超参数调试、Batch正则化和程序框架
Week 3 传送门 —> 3.1 调试处理
3.2 为超参数选择合适的范围
3.3 超参数训练的实践: Pandas vs. Caviar
3.4 正则化网络的激活函数
3.5 将 Batch Norm 拟合进神经网络
3.6 Batch Norm 为什么奏效
3.7 测试时的 Batch Norm
3.8 Softmax 回归
3.9 训练一个 Softmax 分类器
3.10 深度学习框架
3.11 TensorFlow
3.12 总结
采访 大牛采访
传送门 —> Yoshua
Yuanqing Lin

第一课

《神经网络与深度学习》 笔记列表
Week 1 深度学习概论
Week 1 传送门 —> 1.1 欢迎
1.2 什么是神经网络
1.3 用神经网络进行监督学习
1.4 为什么深度学习会兴起
1.5 关于这门课
1.6 课程资源
1.7 总结习题
Week 2 神经网络基础
Week 2 传送门 —> 2.1 二元分类
2.2 Logistic 回归
2.3 Logistic 回归损失函数
2.4 梯度下降法
2.5 导数
2.6 更多导数的例子
2.7 计算图
2.8 计算图的导数计算
2.9 Logistic 回归的梯度下降法
2.10 m 个样本的梯度下降
2.11 向量化
2.12 向量化的更多例子
2.13 向量化 Logistic 回归
2.14 向量化 Logistic 回归的梯度输出
2.15 Python 中的广播
2.16 关于 Python Numpy 向量的说明
2.17 Jupyter/iPython 笔记本的快速指南
2.18 Logistic 损失函数的解释
2.19 总结习题
Week 3 浅层神经网络
Week 3 传送门 —> 3.1 神经网络概览
3.2 神经网络表示
3.3 计算神经网络的输出
3.4 多个例子中的向量化
3.5 向量化实现的解释
3.6 激活函数
3.7 为什么需要非线性激活函数
3.8 激活函数的导数
3.9 神经网络的梯度下降法
3.10 直观理解反向传播
3.11 随机初始化
3.12 总结习题
Week 4 深层神经网络
Week 4 传送门 —> 4.1 深层神经网络
4.2 深层网络中的前向传播
4.3 核对矩阵的维数
4.4 为什么使用深层表示
4.5 搭建深层神经网络块
4.6 前向和反向传播
4.7 参数 vs. 超参数
4.8 这和大脑有什么关系
4.9 总结习题
采访 大牛采访
传送门 —> Geoffery Hinton
Pieter Abbeel
Ian Goodfellow

0.0 目录-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授相关推荐

  1. 0.0 目录-深度学习第五课《序列模型》-Stanford吴恩达教授

    文章目录 目录 第五课 第四课 第三课 第二课 第一课 目录 第五课 <序列模型> 笔记列表 Week 1 循环序列模型 Week 1 传送门 -> 1.1 为什么选择序列模型 1. ...

  2. 1.11 双向循环神经网络-深度学习第五课《序列模型》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.10 长短期机器 (LSTM) 回到目录 1.12 深层循环神经网络 双向循环神经网络 (Bidirectional RNN) 现在,你已经了解了大部分RNN模型的关键的 ...

  3. 1.3 循环神经网络模型-深度学习第五课《序列模型》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.2 数学符号 回到目录 1.4 通过时间的方向传播 循环神经网络模型 (Recurrent Neural Network Model) 上节视频中,你了解了我们用来定义序 ...

  4. 3.8 注意力模型-深度学习第五课《序列模型》-Stanford吴恩达教授

    注意力模型 (Attention Model) 在上个视频中你已经见到了,注意力模型如何让一个神经网络只注意到一部分的输入句子.当它在生成句子的时候,更像人类翻译.让我们把这些想法转化成确切的式子,来 ...

  5. 1.7 对新序列采样-深度学习第五课《序列模型》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.6 语言模型和序列生成 回到目录 1.8 带有神经网络的梯度消失 对新序列采样 (Sampling novel sequences) 在你训练一个序列模型之后,要想了解到 ...

  6. 3.12 总结-深度学习第五课《序列模型》-Stanford吴恩达教授

    习题 第二周 - 自然语言处理与词嵌入 第 151 题 假设你为10000个单词学习词嵌入,为了捕获全部范围的单词的变化以及意义,那么词嵌入向量应该是10000维的. A.正确 B.错误 第 152 ...

  7. 3.11 结论和致谢-深度学习第五课《序列模型》-Stanford吴恩达教授

    结论和致谢 (Conclusion and thank you) 恭喜你能走到这一步,在最后这节视频中,只想做个总结,并给你一些最后的想法. 我们一起经历了一段很长的旅程,如果你已经学完了整个专业的课 ...

  8. 3.1 基础模型-深度学习第五课《序列模型》-Stanford吴恩达教授

    基础模型 (Basic Model) 在这一周,你将会学习seq2seq(sequence to sequence)模型,从机器翻译到语音识别,它们都能起到很大的作用,从最基本的模型开始.之后你还会学 ...

  9. 2.5 学习词嵌入-深度学习第五课《序列模型》-Stanford吴恩达教授

    学习词嵌入 (Learning Word Embeddings) 在本节视频中,你将要学习一些具体的算法来学习词嵌入.在深度学习应用于学习词嵌入的历史上,人们一开始使用的算法比较复杂,但随着时间推移, ...

  10. 2.3 词嵌入的特性-深度学习第五课《序列模型》-Stanford吴恩达教授

    词嵌入的特性 (Properties of Word Embeddings) 到现在,你应该明白了词嵌入是如何帮助你构建自然语言处理应用的.词嵌入还有一个迷人的特性就是它还能帮助实现类比推理,尽管类比 ...

最新文章

  1. final关键字_Dart核心语言基础const关键字与final关键字的区别
  2. 生产订单成本的计划、控制和结算
  3. Struts2框架--学习笔记(上):搭建struts2工程、struts2基本概念、struts2对页面数据的操作
  4. [Python人工智能] 十.Tensorflow+Opencv实现CNN自定义图像分类案例及与机器学习KNN图像分类算法对比
  5. mysql简单分表_mysql分区分表哪个好
  6. 学习索引结构的一些案例——Jeff Dean在SystemML会议上发布的论文(下)
  7. canny算子_在Python中逐步检测Canny边缘 计算机视觉
  8. Java-Collection、List
  9. 插入排序,二分查找插入排序,使用二叉树的插入排序
  10. Linux下passwd和shadow文件内容详解
  11. vb6引用vbRichClient5 下载对象 cDownloads 简单示例
  12. 高速服务器充电桩位置,最全高速服务区充电站汇总,再也不担心过年回家趴半路啦!...
  13. b5纸尺寸_画册设计一般多大 宣传册设计用多大尺寸比较合适
  14. Scroller的用法
  15. Markdown文档数学公式的使用
  16. adb命令获取设备IMEI
  17. 诚之和:字节再迎裁员潮温州百人“大撤退”、ohayoo应届生“团灭”
  18. Eclipse中将Tab键换成Space键
  19. Ubuntu 图文安装教程------2020年最新版
  20. java日期与时间戳相互转换大全

热门文章

  1. w10查询自己电脑ip
  2. [hdu] 5696 区间的价值 || 序列分治
  3. selenium python (七)层级定位(二次定位)
  4. mvc中循环遍历分配的代码
  5. 使用vs测试时的问题
  6. UA MATH563 概率论的数学基础 鞅论初步2 条件期望的应用:推导二元随机变量的条件概率与条件期望
  7. IDA Pro 权威指南阅读摘要1
  8. Python+selenium用法 上
  9. 游戏编程十年总结(下)(转)
  10. 学容器必须懂 bridge 网络 - 每天5分钟玩转 Docker 容器技术(32)