假设神经网络结构如下图所示:有2个输入单元;隐含层为2个神经元;输出层也是2个神经元,隐含层和输出层各有1个偏置。

为了直观,这里初始化权重和偏置量,得到如下效果:

----前向传播----

隐含层神经元h1的输入:

代入数据可得:

假设激励函数用logistic函数,计算得隐含层神经元h1的输出:

同样的方法,可以得到隐含层神经元h2的输出为:

对输出层神经元重复这个过程,使用隐藏层神经元的输出作为输入。这样输出层神经元O1的输出为:

代入数据:

输出层神经元O1的输出:

同样的方法,可以得到输出层神经元O2的输出为:

----统计误差----

假如误差公式为:

如上图,O1的原始输出为0.01,而神经网络的输出为0.75136507,则其误差为:

同理可得,O2的误差为:

这样,总的误差为:

----反向传播----

对于w5,想知道其改变对总误差有多少影响,得求偏导:

根据链式法则:

在这个过程中,需要弄清楚每一个部分。

首先:

其次:

最后:

把以上三部分相乘,得到:

根据梯度下降原理,从当前的权重减去这个值(假设学习率为0.5),得:

同理,可以得到:

这样,输出层的所以权值就都更新了(先不管偏置),接下来看隐含层

w1求偏导:

用图表来描述上述链式法则求导的路径:

接下来,又是一部分一部分的计算:

>>>>>>>> 1

上式中,第一部分前边已经计算过了:

第二部分中,因为:

所以:

两部分相乘,得:

>>>>>>>> 2

>>>>>>>> 3

>>>>>>>> 4

这样对W1的偏导就出来了:

更新权值:

同理得到:

最后,更新了所有的权重! 当最初前馈传播时输入为0.05和0.1,网络上的误差是0.298371109。 在第一轮反向传播之后,总误差现在下降到0.291027924。 它可能看起来不太多,但是在重复此过程10,000次之后。例如,错误倾斜到0.000035085。

在这一点上,当前馈输入为0.05和0.1时,两个输出神经元产生0.015912196(相对于目标为0.01)和0.984065734(相对于目标为0.99)。

前向传播和反向传播(举例说明)相关推荐

  1. 3.3 前向传播与反向传播-机器学习笔记-斯坦福吴恩达教授

    前向传播与反向传播 前向传播过程(Forward Propagation) 神经网络每层都包含有若干神经元,层间的神经元通过权值矩阵 ΘlΘ^lΘl 连接.一次信息传递过程可以如下描述: 第 j 层神 ...

  2. 003-神经网络基础-最优化,前向传播,反向传播

    最优化: 包括前向传播和反向传播 前向传播: 由w和x到损失函数loss的过程叫做前向传播 反向传播: 根据梯度下降的概念,找到最优的w的过程叫做反向传播. 做一件什么事情呢? 根据前向传播的w得到的 ...

  3. 花书+吴恩达深度学习(十三)卷积神经网络 CNN 之运算过程(前向传播、反向传播)

    目录 0. 前言 1. 单层卷积网络 2. 各参数维度 3. CNN 前向传播反向传播 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~ 花书+吴恩达深度学习(十)卷积神经网络 ...

  4. 深度学习基础笔记——前向传播与反向传播

    相关申明及相关参考: 体系学习地址 主要学习笔记地址 由于是文章阅读整合,依据个人情况标注排版, 不确定算不算转载,主要学习围绕AI浩的五万字总结,深度学习基础 如有侵权,请联系删除. 1前向传播与反 ...

  5. 神经网络的前向传播与反向传播

    神经网络的前向传播和反向传播 相信一开始,大家可能都对神经网络的前向传播和反向传播很头疼,我之前也是一样,后来慢慢懂了,现在深感知识传递的重要性.因此现在我就把我的一点点对两者的理解表达一下,希望能帮 ...

  6. 神经网络理解:前向传播与反向传播

    文章目录 参考资料 神经网络 前向传播 1. 输入层->隐含层 2. 隐含层->输出层 反向传播 1. 计算总误差 2. 隐藏层与输出层之间的权重更新 3. 输入层与隐藏层之间的权重更新 ...

  7. 对于CNN卷积神经网络的前向传播和反向传播的理解

    对于CNN卷积神经网络的前向传播和反向传播的理解 前向传播示意图: ​ 咋一看这张图,作为初学者可能会不知所云( ̄ω ̄=)?但是想要很好的理解前向传播的原理,我们得从这张图细说. 文章目录 对于CNN ...

  8. (二十四) 手推BP神经网络的前向传播和反向传播

    手推BP神经网络的前向传播和反向传播 一.基本术语 1.监督学习与非监督学习 Supervised Learning有监督式学习: 输入的数据被称为训练数据,一个模型需要通过一个训练过程,在这个过程中 ...

  9. 神经网络前向传播和反向传播公式推导(公式+图解)

    以如下的预测是否是猫的双层神经网络为例进行公式推导: 符号注解: n_x :  输入特征的数量 n_h : 隐藏层的节点数量 n_y : 输出层的节点数量 m : 样本数量 W :权重矩阵 b :偏置 ...

  10. 前向传播、反向传播(后向传播)、梯度下降、导数、链式法则

    日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) 2.4 神经网络最优化过程 2.4.1 最优化(Optimiz ...

最新文章

  1. Column 'Column Name' does not belong to table Table
  2. MVC系列——一个异常消息传递引发的思考
  3. kafka删除队列_没想到 Kafka 还会这样问,学会这些带你轻松搞定大厂面试!
  4. endnote 参考文献加序号_Endnote教程|页码缩写
  5. u-boot与bootloader及其区别
  6. python grid函数_(转)Python Tkinter Grid布局管理器详解
  7. Intellij插件之JRebel
  8. 【设计模式】第五章 责任链模式
  9. Realme XT发布会PPT曝光:后置6400万四摄+骁龙712
  10. 网恋奔现发现对方长得很好看是什么样的体验?
  11. 【Javascript Demo】图片瀑布流实现
  12. 记一次centos 7.3下的steam安装(该“STEAM”软件为美国valve开发的游戏平台)
  13. vcm驱动芯片原理_手机摄像头VCM音圈马达,原理、结构
  14. centos 7.6安装WeADMIN ITOSS步骤
  15. matlab教程黄金分割,Matlab程序设计在黄金分割法教学中的应用
  16. python进阶day13
  17. 基于Web的电子商务解决方案(1)(转)
  18. 实验c语言程序数据类型,C语言编程实验.doc
  19. java 面向对象编程之二
  20. css compressor java_javascript/css压缩工具---yuicompressor使用方法

热门文章

  1. 半年TeamLeader总结
  2. 原生js html insert,原生js添加节点appendChild、insertBefore
  3. 西普CTF-最低位的亲吻
  4. Java,张丘建《算经》中提出“百鸡问题”:鸡翁一值钱五,鸡母一值钱三,鸡雏三值钱一。百钱买百鸡,问鸡翁、母、雏各几何?
  5. hyperf redis哨兵连接池 读写分离
  6. jQuery checkbox 选中事件小案例.
  7. Escript氨基酸对比图怎么看_太神奇!看完了这8张NBA对比图发现,真的可以有一模一样的动作...
  8. 最个性创意的圣诞礼物 忆恋拼图
  9. CSS计算 CSS运算 calc函数的使用方法
  10. Python-opencv 实现图片的镜像翻转