文章目录

  • 神经网络简介
  • 感知机与多层网络
  • 误差逆传播算法(BP)

神经网络简介

在生物神经网络中1 每个神经元与其他神经元相连,当它"兴奋"时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位:如果某神经元的电位超过了一个"阈值" (threshold) , 那么它就会被激活, 即"兴奋"起来,向其他神经元发送化学物质。

1943 年, [McCulloch and Pitts, 1943] 将上述情形抽象为下图所示的简单模型,这就是一直沿用至今的"M-P 神经元模型" 在这个模型中, 神经元接收到来自N个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接( connection)进行传递,神经元接收到的总输入值将与神经元的阀值进行比较,然后通过"激活函数" (activation function) 处理以产生神经元的输出。

理想中的激活函数是下图所示的阶跃函数:

然而,阶跃函数并不连续,不光滑的性质,所以常用其他函数作为激活函数(我之前写过一期激活函数的文章 https://blog.csdn.net/No_Game_No_Life_/article/details/89511056 )。比如,sigmoid函数:

把许多个这样的神经元按-定的层次结构连接起来,就得到了神经网络。

感知机与多层网络

两个输入神经元的感知机网络结构:

感知机能容易地实现逻辑且、或、非运算.。注意到y=f(∑iwixi−θ)y=f(\sum_{i}w_ix_i-\theta)y=f(∑i​wi​xi​−θ),其中f是激活函数。一般给定数据集,需要求的的就是权重wTw^TwT(向量),和阈值θ\thetaθ。阈值和权重是通过学习得到的,可以统一称为权重的学习。

感知机学习规则非常简单,对训练样例(x,y)(x,y)(x,y),若当前感知机的输出为y^\hat yy^​,那么感知机权重将通过下面两个公式调整:
(1)Δwi=η(y−y^)xi\Delta w_i=\eta (y-\hat y)x_iΔwi​=η(y−y^​)xi​
(2)wi+Δwi→wiw_i+\Delta w_i → w_iwi​+Δwi​→wi​
其中η∈(0,1)\eta \in (0,1)η∈(0,1)称为学习率。

从上面可以看出,,若感知机对训练样例(x,y)(x,y)(x,y)预测正确,即y^=y\hat y=yy^​=y,则感知机不会发生变化,否则将做出一定程度的调整。

需注意的是,感知机只有输出层神经元进行激活函数处理,即只拥有层功能神经元(functional neuron) ,其学习能力非常有限。事实上,上述描述的都是线性可分的问题,若两类模式是线性可分的,即存在一个线性超平面能将它们分开。

要解决非线性可分问题,需考虑使用多层功能神经元。如下图的两层感知机,输出层与输入居之间的一层神经元,被称为隐层或隐含层(hidden layer) ,隐含层和输出层神经元都是拥有激活函数的功能神经元。

更一般的,常见的神经网络如下图所示,每层神经元与下层神经元全互连,神经元之间不存在同层连接,也不存在跨层连接.。这样的神经网络结构通常称为" 多层前馈神经网络"。

误差逆传播算法(BP)

多层网络的学习能力比单层感知机强得多,要想训练多层网络,前面提到的两个公式显然就不够了,需要更强大的学习算法。误差逆传播(BP)就是其中的一种算法。
值得指出的是, BP 算法不仅可用于多层前馈神经网络,还可用于其他类型
的神经网络,例如训练递归神经网络。但通常提到BP网络的时候,还是说的前者。

给定训练集D={(x1,y1),(x2,y2),(x3,y3)...(xm,ym)}D=\{(x_1,y_1),(x_2,y_2),(x_3,y_3)...(x_m,y_m)\}D={(x1​,y1​),(x2​,y2​),(x3​,y3​)...(xm​,ym​)},输入xix_ixi​由ddd个属性描述,输出yiy_iyi​由lll个属性描述。

对于训练样例(xk,yk)(x_k,y_k)(xk​,yk​),有神经网络输出为yk^=(y1^k,y2^k,y3^k...yl^k)\hat {y_k}=(\hat{y_1}^k,\hat{y_2}^k,\hat{y_3}^k...\hat{y_l}^k)yk​^​=(y1​^​k,y2​^​k,y3​^​k...yl​^​k),那么网络在(xk,yk)(x_k,y_k)(xk​,yk​)上的均方误差为:
Ek=12∑j=1l(yj^k−yjk)2E_k=\frac{1}{2} \sum_{j=1}^{l}(\hat{y_j}^k-{y_j}^k)^2Ek​=21​∑j=1l​(yj​^​k−yj​k)2

BP 算法基于梯度下降(gradient descent)策略, 以目标的负梯度方向对参数进行调整。对于均方误差EkE_kEk​,给定一个学习率η\etaη(太大容易震荡,太小则收敛速度又会过慢),有:
Δwhj=−η∂Ek∂whj\Delta w_{hj}=-\eta \frac{\partial {E_k}}{\partial w_{hj}}Δwhj​=−η∂whj​∂Ek​​

这个公式求解的推导在此略过。
最后,BP算法的目标是最小化训练集D上的积累误差:
E=1m∑k=1mEkE=\frac{1}{m} \sum_{k=1}^{m}E_kE=m1​∑k=1m​Ek​

BP算法的工作流程如下所示:
对于每个训练样例,输入给输入层神经元,然后逐层将信号前传,直到产生输出层的结果,然后计算输出层的误差,再将误差逆向传播到隐层神经元,最后根据隐层神经元的误差来对连接权和阈值进行调整。
该迭代过程循环进行,直到达到某个条件。比如,训练误差足够小的时候。

没看懂上面的栗子不要紧,下面举例说明一下,马上就能明白是如何计算的。


  • 举例

假设,你有这样一个网络层:

第一层是输入层,包含两个神经元i1,i2,和截距项b1;第二层是隐含层,包含两个神经元h1,h2和截距项b2,第三层是输出o1,o2,每条线上标的wi是层与层之间连接的权重,激活函数我们默认为sigmoid函数。

现在对他们赋上初值,如下图:

其中,输入数据 i1=0.05,i2=0.10;i1=0.05,i2=0.10;i1=0.05,i2=0.10;

输出数据 o1=0.01,o2=0.99;o1=0.01,o2=0.99;o1=0.01,o2=0.99;

初始权重 w1=0.15,w2=0.20,w3=0.25,w4=0.30;w1=0.15,w2=0.20,w3=0.25,w4=0.30;w1=0.15,w2=0.20,w3=0.25,w4=0.30;

w5=0.40,w6=0.45,w7=0.50,w8=0.55w5=0.40,w6=0.45,w7=0.50,w8=0.55w5=0.40,w6=0.45,w7=0.50,w8=0.55

目标:给出输入数据i1,i2(0.05和0.10),使输出尽可能与原始输出o1,o2(0.01和0.99)接近。

Step 1 前向传播:
输入层—->隐含层
计算神经元h1的输入加权和:

神经元h1的输出o1:(此处用到激活函数为sigmoid函数):


同理,可计算出神经元h2的输出o2:


隐含层—->输出层:
计算输出层神经元o1和o2的值:

同理:

这样前向传播的过程就结束了,我们得到输出值为[0.75136079 , 0.772928465],与实际值[0.01 , 0.99]相差还很远,现在我们对误差进行反向传播,更新权值,重新计算输出。

Step 2 反向传播
计算总误差

但是有两个输出,所以分别计算o1和o2的误差,总误差为两者之和:


所以:

隐含层—->输出层的权值更新:
以权重参数w5为例,如果我们想知道w5对整体误差产生了多少影响,可以用整体误差对w5求偏导求出:(链式法则)

下面的图可以更直观的看清楚误差是怎样反向传播的:

注意分清楚net和out的区别。
现在我们来分别计算每个式子的值:
计算∂Etotal∂outo1\frac{\partial {E_{total}}}{\partial {out_{o1}}}∂outo1​∂Etotal​​:

计算∂outo1∂neto1\frac{\partial {out_{o1}}}{\partial {net_{o1}}}∂neto1​∂outo1​​:

计算∂neto1∂w5\frac{\partial {net_{o1}}}{\partial w_5}∂w5​∂neto1​​:

最后,三者相乘得出答案:

这样我们就计算出整体误差EtotalE_{total}Etotal​对w5的偏导值。

最后我们来更新w5的值:

η\etaη是学习速率,我们这里取0.5
同理,可更新w6,w7,w8:

隐含层—->隐含层的权值更新:
方法其实与上面说的差不多,但是有个地方需要变一下,在上文计算总误差对w5的偏导时,是从out(o1)—->net(o1)—->w5,但是在隐含层之间的权值更新时,是out(h1)—->net(h1)—->w1,而out(h1)会接受E(o1)和E(o2)两个地方传来的误差,所以这个地方两个都要计算。


其中:

只需要分别计算这两个值即可。这两个值的求法,我们提一下:




同理,计算出:

两者相加得到总值:

接着计算后面两个乘法因子的值:


最后三者相乘:

更新w1的权值:

同理,额可更新w2,w3,w4的权值:

这样误差反向传播法就完成了,最后我们再把更新的权值重新计算,不停地迭代,在这个例子中第一次迭代之后,总误差E(total)由0.298371109下降至0.291027924。迭代10000次后,总误差为0.000035085,输出为[0.015912196,0.984065734] (原输入为[0.01,0.99]),证明效果还是不错的。


我们上面介绍的"标准BP算法"每次仅针对一个训练样例更新连接权和阈值。也就是说,算法的更新规则是基于单个的EkE_kEk​推导而得。如果类似地推导出基于累积误差最小化的更新规则,就得到了累积误差逆传播算法,累积BP算法与标准BP算法都很常用。一般来说,标准BP算法每次更新只针对单个样例,参数更新得非常频繁,而且对不同样例进行更新的效果可能出现"抵消"现象.因此,为了达到同样的累积误差极小点, 标准BP算法往往需进行更多次数的迭代。累积BP 算法直接针对累积误差最小化,它在读取整个训练集D 一遍后才对参数进行更新,其参数更新的频率低得多。但在很多任务中,累积误差下降到一定程度之后,进一步下降会非常缓慢,这时标准BP往往会更快获得较好的解,尤其是在训练集D 非常大时更明显。

正是由于其强大的表示能力,BP神经网络经常遭遇过拟合,其训练误差持续降低,但测试误差却可能上升。

通常有两种策略来缓解BP网络的过拟合。第一种策略是**“早停”(early stopping)**:将数据分成训练集合验证集,训练集用来计算梯度、更新连接权和阈值,验证集用来估计误差,若训练集误差降低但验证集误差升高,则停止训练,同时返回具有最小验证集误差的连接权和阈值。

第二种策略是**“正则化”(regularization)**,其基本思想是在误差目标函数中增加一个用于描述网络复杂度的部分,例如连接权和阈值的平方和。

One PUNCH Man——神经网络相关推荐

  1. 前馈神经网络中的前馈_前馈神经网络在基于趋势的交易中的有效性(1)

    前馈神经网络中的前馈 This is a preliminary showcase of a collaborative research by Seouk Jun Kim (Daniel) and ...

  2. TensorFlow神经网络(九)VGG net论文阅读笔记

    [注]内容来自MOOC人工智能实践TensorFlow笔记课程第8讲 来源:2015 ICLR 用于图像分类的文章: Very Deep Convolutional Networks for Larg ...

  3. 深度学习与TensorFlow实战(十)卷积神经网络—VGG(16)神经网络

    架构: 训练输入:固定尺寸224x224的RGB图像. 预处理:每个像素减去训练集上的RGB均值. 卷积核:一系列3X3卷积核堆叠,步长为1,采用padding保持卷积后图像空间分辨率不变. 空间池化 ...

  4. 机器学习笔记 - 将循环神经网络用于视频分类

    一.循环神经网络概述 循环神经网络(Recurrent Neural Network,RNN),它是专为视频等序列输入而设计的.作为一种实际应用,我们将它们与卷积神经网络(Convolutional ...

  5. 为什么神经网络的激活函数必须使用线性函数?

    什么是线性函数? 函数本来是输入某个值后会返回一个值的转换器.向这个转换器输入某个值后,输出值是输入值的常数倍的函数称为线性函数(用数学式表示为h(x) = cx. c为常数).因此,线性函数是一条笔 ...

  6. 【机器学习】RNN循环神经网络

    循环神经网络归属: 领域:机器学习 方向:自然语言处理 贡献:自动文本生成 循环神经网络实际应用: 生活中因为原始数据都是序列化的,比如自然语言,语音处理,时间序列问题(股票价格)等问题, 这个时候需 ...

  7. Hopfiled 神经网络实例解释

    Hopfiled 神经网络入门 进击吧程序猿 2018-01-01 23:04:27 本文参考 Hinton 的机器学习课程,总结了 Hopfield 神经网络,整个学习的脉络是:Hopfield 网 ...

  8. 卷积神经网络之卷积计算、作用与思想 深度学习

    博客:blog.shinelee.me | 博客园 | CSDN 卷积运算与相关运算 在计算机视觉领域,卷积核.滤波器通常为较小尺寸的矩阵,比如3×33×3.从这个角度看,多层卷积是在进行逐层映射,整 ...

  9. 机器都会学习了,你的神经网络还跑不动?来看看这些建议

    在很多机器学习的实验室中,机器已经进行了上万小时的训练.在这个过程中,研究者们往往会走很多弯路,也会修复很多bug,但可以肯定的是,在机器学习的研究过程中,学到经验和知识的并不仅仅是机器,我们人类也积 ...

最新文章

  1. Python-循环控制--个人课堂笔记
  2. 删除列表重复元素 python_在Python中删除列表列表中的重复元素
  3. 【渝粤教育】国家开放大学2018年秋季 1018t国际公法 参考试题
  4. Linux安装搜狗拼音和谷歌拼音输入法
  5. AndroidX使用
  6. Spark常见面试题及解答
  7. 八图片在线图片设置付费
  8. gmsv源代码c语言,石器时代ABLua的原理、简介、过程、运用、收发
  9. centOS7的vi中如何使用汉语拼音和五笔
  10. 08---HTML+CSS---float浮动
  11. 虚幻4渲染编程(图元汇编篇)【第五卷:游戏中的动力学模拟】
  12. python海龟编辑器中询问并获得输入咱弄出来的积木_海龟Python编辑器下载|海龟编辑器下载 0.8.0_咕噜下载...
  13. pytorch使用gpu(linux服务器上)
  14. SpringCloud+MySQL+Vue实现人脸识别智能考勤管理系统
  15. 什么是B2B电子商务模式
  16. JSP之数据库连接池·笔记
  17. 短信从iphone迁移到android,将iPhone短信完整迁移到安卓系统上的方法
  18. 板式塔操作演示实验装置
  19. 5个受欢迎的微信小程序UI组件库
  20. 解决win10,win11一开机内存占用率70%多问题

热门文章

  1. 重庆电信助力新一代物联网商用平台
  2. 挑战还是机遇?无所不在的影子IT
  3. 在Docker中配置AdGuard Home
  4. 敏捷mini培训总结
  5. python短信验证码登录_Python手机验证码登录
  6. 浅谈 Linux 内核开发之网络设备驱动[转]
  7. mogrt格式动态字幕模板安装和使用
  8. C语言标题下面程序用于输入三角形的三条边a,b,c,判断它们能否构成三角形,若能,则指出是何种三角形:等腰三角形、直角三角形、等腰直角三角形,一般三角形。若不能,则输出“不是三角形\n”
  9. ZOJ - 4049 Halting Problem 题解【c++】
  10. 黑产攻击来势汹汹,应用如何从“头”防御