三种典型神经网络

standard NN :
传统神经网络 解决一般问题

卷积神经网络 convolutional NN :
CNN 网络 适用于图像

循环神经网络 Recurrent NN
适用于一维时间序列

监督学习的数据

结构化数据
非结构数据

数据量对传统机器学习和深度学习的驱动力

lost函数和cost函数

cost函数是loss函数在全体样本上的一种集中体现
比如平均损失。

反向传播 更新参数

如果中间有倒数趋近于0 这个更新公式就很困难了

第二周课程总结

神经元节点计算对象:线性函数和激活函数

第三周课程

神经网络就是单个的神经元的组合连接

神经网络层的表示

第一层:输入层 input layer
中间层:隐藏层 hidden layer
最后一层: 输出层 output layer
每一层的数量是随意自由的,中间层可以有很多层
中间层w一般是矩阵,b是向量

激活函数

不同层的激活函数可以不一样
激活函数种类 :
sigmoid函数
tanh函数
这两个函数的确定是当z的值很大或者很小,其梯度会很小

可以求导看以下,也可以看函数图像得知。

rule激活函数

隐藏层比较适合使用relu函数和tanh函数作为激活函数
sigmoid函数尽量只用在二分类问题的输出层
带泄露的激活函数也可以尝试

为什么要用非线性激活函数

不使用非线性函数,则输出到输入的映射变成了线性映射
激活函数实现了非线性映射

激活函数的导数

sigmoid函数的导数
这个推到对于程序很有用 a(1-a)就是导数值

tanh函数的导数

relu函数和leaf rule的导数:

神经网络的梯度下降法



关于上面dz = A - Y的表示

看上面的求导公式

初始化问题注意

不能把参数全部初始化相同,用随机函数初始化

第三周总结

神经网络步骤
第一:正向计算输出
第二:计算误差代价
第三:最小化代价 求得参数变化的方向
第四:更新参数
第五:循环一到四,四个步骤

第四周

深度神经网络的核矩阵

深度神经网络架构

当有m个样本时,把1换成m就可以了

为什么要用深度网络

可以让每一层干尽量简单的事情
最后完成一件复杂的事情

较深的网络能力可以替代较浅的但是很多节点的网络

深度神经网络前馈和后馈的形象表示

前馈网络和后馈网络的实现

什么是超参数

w b是神经网络的固有参数,自己调整
但是学习率 迭代次数 隐藏层等就是属于超参数
超参数在某种程度上决定了参数的值

吴恩达深度学习一:神经网络相关推荐

  1. 【深度学习】吴恩达深度学习-Course1神经网络与深度学习-第四周深度神经网络的关键概念编程(下)——深度神经网络用于图像分类:应用

    在阅读这篇文章之前,请您先阅读:[深度学习]吴恩达深度学习-Course1神经网络与深度学习-第四周深度神经网络的关键概念编程(上)--一步步建立深度神经网络,这篇文章是本篇文章的前篇,没有前篇的基础 ...

  2. 吴恩达深度学习笔记——神经网络与深度学习(Neural Networks and Deep Learning)

    文章目录 前言 传送门 神经网络与深度学习(Neural Networks and Deep Learning) 绪论 梯度下降法与二分逻辑回归(Gradient Descend and Logist ...

  3. 吴恩达深度学习 | (2) 神经网络与深度学习专项课程第二周学习笔记

    课程视频 第二周PPT汇总 吴恩达深度学习专项课程共分为五个部分,本篇博客将介绍第一部分神经网络和深度学习专项的第二周课程:神经网络基础.由于逻辑回归算法可以看作是一个单神经元(单层)的网络结构,为了 ...

  4. 吴恩达深度学习—02神经网络和深度学习(视频笔记)

    02神经网络和深度学习 第一周:深度学习的深实用层面 第二周:优化算法 第三周:超参数调试.Batch正则化和程序框架 第一周:深度学习的深实用层面 第二周:优化算法 第三周:超参数调试.Batch正 ...

  5. 吴恩达深度学习卷积神经网络学习笔记(2)——经典神经网络

    目录 1.经典网络 1.1 LeNet-5(1998) 1.2 AlexNet 1.3 VGG-16 2 ResNets(残差网络) 2.1残差块(Residual block) 2.2 残差网络为什 ...

  6. 吴恩达深度学习L2W1——神经网络权重初始化方法、正则化

    文章目录 神经网络的初始化 初始化数据 模型搭建 简单函数 零初始化--initialize_parameters_zeros 随机初始化--initialize_parameters_random ...

  7. 吴恩达深度学习 ——深层神经网络(选择题)

    1.在实现前向传播和反向传播中使用的"cache"是什么?(D) A.它用于跟踪我们正在搜索的超参数,以加速计算. B.用于在训练期间缓存代价函数的中间值. C.我们使用它传递反向 ...

  8. 花书+吴恩达深度学习(十五)序列模型之循环神经网络 RNN

    目录 0. 前言 1. RNN 计算图 2. RNN 前向传播 3. RNN 反向传播 4. 导师驱动过程(teacher forcing) 5. 不同序列长度的 RNN 如果这篇文章对你有一点小小的 ...

  9. 花书+吴恩达深度学习(十四)卷积神经网络 CNN 之经典案例(LetNet-5, AlexNet, VGG-16, ResNet, Inception Network)

    目录 0. 前言 1. LeNet-5 2. AlexNet 3. VGG-16 4. ResNet 残差网络 5. Inception Network 如果这篇文章对你有一点小小的帮助,请给个关注, ...

  10. 花书+吴恩达深度学习(十三)卷积神经网络 CNN 之运算过程(前向传播、反向传播)

    目录 0. 前言 1. 单层卷积网络 2. 各参数维度 3. CNN 前向传播反向传播 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~ 花书+吴恩达深度学习(十)卷积神经网络 ...

最新文章

  1. 利用C#语言实现小闹钟
  2. windows 远程连接debian_用Windows的远程桌面连接访问Debian和Ubuntu图形界面
  3. 通过IIS操作修改服务器文件没有权限的解决办法
  4. python【蓝桥杯vip练习题库】ADV-309进制转换
  5. Kubernetes存储之volume
  6. 如何遍历维数和各维上限未定的多维数组
  7. php珠心算源码,深度解析珠心算的“开智”功能
  8. EventBus源码分析
  9. C++和Java函数传递数组参数比较
  10. li下的ul----多级列表
  11. 博弈-尼姆博弈(nimm)
  12. 【AD封装】贴片插件晶振(带3D)
  13. android7添加小工具,为Android应用添加桌面小工具(App Widget)
  14. <C++>多态的实战,详解三个具体案例
  15. 一位阿里p9的自述——关于年薪和资产
  16. 摄像头采集图像本地HDMI输出延迟测试
  17. 使用spark.streaming.kafka.consumer.poll.ms和reconnect.backoff.ms解决spark streaming消费kafka时任务不稳定的问题
  18. 阿里云服务器的购买、基本配置、(xshell)远程连接、搭建环境、设置安全组、域名备案、申请ssl证书
  19. JMeter 图片上传接口进行压力测试
  20. 用ios企业证书发布ipa到服务器上扫码下载

热门文章

  1. readUnsignedInt () 自动移动字节流位置,和.net是一样的
  2. 微信小程序 小程序源码包括后台完整版分享
  3. h5网页在移动端(安卓)head里的title为空,默认显示url地址。js代码将head的title设置为空
  4. 机器人码垛手持式编程_三分钟告诉你企业为什么要使用全自动码垛机械手!
  5. 阅读分析下列html,阅读下列说明和HTML文本,分析其中嵌入的JavaScdpt脚本, [说明]..._考试资料网...
  6. java poi excel 单元格样式_java poi批量导出excel 设置单元格样式
  7. canvas的简单实例集合
  8. localStorage.setItem()前后端分离情况下使用
  9. echarts地图 编辑颜色
  10. [09-01]JavaScript 基础语法