最近在研究Deep Learning在个性化推荐中的应用,由于DL跟神经网络有很大的关系,索性开篇就介绍下神经网络和自己所了解到的知识。接触ML时间不是很长,难免有描述不当的地方,旨在于交流学习,有啥想法直接后面回复。

在这篇博文中,你将会看到如下知识:

神经网络的基本模型,前向神经网络(Feed-forward neural network),General Feed-forward  NN 的组件,优化目标函数,逆向误差传播算法。

“ 根据一个简化的统计,人脑由百亿条神经组成 ― 每条神经平均连结到其它几千条神经。通过这种连结方式,神经可以收发不同数量的能量。神经的一个非常重要的功能是它们对能量的接受并不是立即作出响应,而是将它们累加起来,当这个累加的总和达到某个临界阈值时,它们将它们自己的那部分能量发送给其它的神经。大脑通过调节这些连结的数目和强度进行学习。尽管这是个生物行为的简化描述。但同样可以充分有力地被看作是神经网络的模型。 ”

人的大脑是非常复杂的,特别是大脑神经系统,可以说没有它,大脑就是一些组织,细胞而已。在机器学习领域,对神经网络的研究应该是希望从大脑的工作机制和神经系统结构中获得启发,一方面可以设计高效的学习算法,让机器也能够对问题进行大规模学习,另一方面可以从神经元的并行工作方式中得到启发,设计高效的并行计算算法,让机器拥有更强的实时处理大规模数据的能力。

在这里就不介绍生物上的神经网络了,一来是不懂,二来这里的神经网络一概指机器学习领域的神经网络模型(人工神经网络),如果你对这个生物的神经网络感兴趣的话,可以参考《A Brief Introduction toNeural Networks · D. Kriesel》,这篇文章有讲到不同类型的神经网络,大多数跟生物神经系统的基本结构有关系。在机器学习领域的神经网络一般会指前向传播神经网络 (Feed-forward neural network),这种模型较为通用。

人工神经网络的基本模型

前向神经网络

上图描述的是一个目前研究最为成熟Shallow 结构的神经网络(只含有单层隐藏层神经元的结构)。第一层为输入层 (input layer ),第二层称为隐藏层 ( hidden layer ),最后一层为输出层( output layer )。神经元之间都是由低层出发,终止于高层神经元的一条有向边进行连接,每条边都有自己的权重。每个神经元都是一个计算单元,如在Feed-forward neural network 中,除输入层神经元外,每个神经元为一个计算单元,可以通过一个计算函数 f()  来表示,函数的具体形式可以自己定义,现在用的较多的是感知器计算神经元,如果你对感知器有所了解的话,理解起来会容易很多。可以计算此时神经元所具有的能量值,当该值超过一定阀值的时候神经元的状态就会发生改变,神经元只有两种状态,激活或未激活。在实际的人工神经网络中,一般是用一种概率的方式去表示神经元是否处于激活状态,可以用 h(f) 来表示,f 代表神经元的能量值,h(f) 代表该能量值使得神经元的状态发生改变的概率有多大,能量值越大,处于激活状态的概率就越高。到这部分你已经接触到了关于神经网络的几个基本术语,下面用更加规范的符号来表示,神经元的激活值(activations)  f() ,表示计算神经元的能量值, 神经元的激活状态 h(f) ,h 表示激活函数。

激活函数有好几种形式,这里列举两种,

GeneralFeed-forward  NN 的组件

假设有包涵有N个样本的数据集 = { (X1,T1) , (X2,T2) , (X3,T3)...... (Xn,Tn)} ,其中T的取值可以根据你的任务不同而不同,比如你要用神经网络进行回归分析,T ( target value)就是一个连续值,如果你面对的是一个回归问题的话,T 的取值就是离散的,比如二分类问题 T = { 0,1 },输入样本的每个观测值(Observation) Xi 都具有相同的维度数量 m ,与之对应的输入层的神经元个数也为(m + 1)个,包含有一个偏置神经元( bais unit )。

这里采用了Andrew Ng的 Deep Learning tutorials 上的符号系统。nl表示神经网络具有的总层数,  表示最后一层神经网络,下标就是表示第几层,L1表示第一层,也就是输入层。低层与高层的神经元之间都是通过带权重的单向边进行连接,(W,b)表示整个神经网络中的参数,W 表示连边的权重,b表示偏置。在上图中(W,b) = (W(1),b(1),W(2),b(2)),上角标表示第 i 层与(i + 1)层之间的权重系数矩阵(如无特殊说明,下文中的上角标都表示层号,当然对于系数矩阵和神经元来说,上角标的意思是不太一样的),表示第L层的第 j 个神经元与第 L + 1 层的第 i 个神经元之间的权重系数。在上图的例子中 , 。该部分采用向量化的表述方式,这个为后面的向量化编程会带来非常大的好处,不用一个一个的去记哪个跟哪个权重系数对应,直接一个矩阵,非常简洁。整个神经网络可以用一个函数  hW,b(x) 来表示。

接着来看下跟每个神经元都相关的符号,表示第L层的第i个神经元的激活状态(activations),该过程是非线性操作,这个概念非常重要,要牢记。当L = 1的时候,可以认为 就是等于输入神经元的值, 表示该神经元具有的能量值。

到此为止,你已经可以掌握一个神经网络中的基本符号和表示方法,尽快熟悉这些符号,在你的脑子里面神经网络已经不再是抽象的神经元之间的连接方式了,可以通过上述的符号来刻画,这对后面公式的理解会有很大的帮助。

下面来看下神经网络的基本成分( neural network components)

对线性模型 (Linear Model ) 比较了解的人应该非常熟悉这个公式

线性模型可以表示成有限个基函数(basis function)的线性融合,基函数的形式可以自己定义,举个简单的例子,可以是关于输入 m 次幂的多项式 x^m(顺便吐槽一下,这里敲公式实在麻烦)。实际上神经网络也可以看成是一些线性函数的叠加,不过中间有了一个激活函数,情况就变得跟线性模型不一样了。还是以FNN(Feed-forward Neural Network)为例对除输入层之外的每个神经元进行  的操作就可以得到神经元的能量值,每个神经元的激活状态就可以表示成  ( 非线性操作 ) ,下面对整个网络进行同样的操作就可以得到

上述过程的向量化表示,这里的f和h函数就都变成了向量函数,如 f([z1,z2,z3])= [f(z1),f(z2),f(z3)]

到该部分,你已经基本掌握了一个神经网络的结构,如何执行得到输出,但是还差如何去训练得到我们的参数 (W,b)。上面都是以单隐藏层的神经网络而且输出只有一个神经元,如果你知道了如何去训练这个简易的神经网络,那下面这个看起来更复杂一些的例子你同样知道该如何去训练。

优化目标函数

这个是在用机器学习方式为问题建模的第二部,确定你的损失函数(Loss Function),也就是你的优化目标。该过程会涉及到一些基本的优化方法,统计学概念以及一些实际的应用经验。当然如果你跟我一样是刚接触机器学习(Machine Learning)不久的话,了解了一些关于梯度优化方法的话,你就能掌控这里的一切啦。

假设我们有m个样本   ,这里采用的是二次平方和最小化 (最小二乘)作为损失函数(关于损失函数的类型可以参考《统计学习方法》- 李航)  ,用该公式表示损失函数,在实际优化目标函数需要表示成如下形式,比上面的公式多了一个 "+"好后面的内容,该项也称作 weight decay,该部分是起正则作用,防止过拟合。

之所以采用二次损失函数,我想应该是为了构建一个具有 convex 性质的目标函数,便于使用梯度优化的方法寻找最优值。下图就是在参数(w,b)下的误差曲面(error surface)。

下面公式表示了权重系数更新的方式,也就是为了找到一个使得目标函数最小值的系数 (w,b) 。在整个优化的过程中,最重要的就是如何求解不同的梯度信息,为了求解这个东西,又要来一个新的概念了,逆误差传播(error backpropagation)学习算法。机器学习的问题总是会这样,找到优化目标以后,就需要相应的学习算法寻找最优值,此时的系数就是我们所要选择的模型的参数了。

逆向误差传播算法 (error backpropagation)

如其名,该方法就是让输出层的y 与输入 x 的误差往回传播。因为我们在求每个参数的梯度的时候是通过对真值与预测值之间的误差项求导得到的,对于输出神经元还可以做到,但是我们无法获取隐藏层的真值,这就造成了隐藏层的神经元梯度不可求的尴尬局面。还好领域大牛们想到了这种方式,让输出层的误差往回传播,计算出底层神经元的激活状态要为该误差付出多大的责任,也可以理解成该神经元的误差值,用表示,表示输出层神经元的误差。

逆误差传播算法执行过程:

1,先执行一次前向传播,计算出每一层的神经元的激活值,直到输出层为止

2,对于每一个输出层神经元,采用如下方式计算误差(实际上在Andrew的资料中省略了很多推到部分,该部分我后面会放上,你们先理解个大概过程)

3,对于较低层的神经元的误差用如下公式进行表示,

4,关于不同参数的梯度

下面来看下项的具体推导过程。

PS:其实要想更好的理解该推导过程可以参考《Pattern Recognition and Machine Learning》中5.3节部分关于估计误差函数梯度的内容,由于里面采用的符号系统跟Andrew的是相反的,我就没有放上来,借用了一个简易的推导过程。

摘自《Deep Learning 教程中文版》--邓侃老师主导,各路英雄好汉共同翻译

下面来看一个利用神经网络拟合不同函数(Linear Regression)的例子,你可以在《Pattern Recognition and Machine Learning》的5.1节中找到。4副图分别对应四个不同的函数,红色的实线表示利用神经网络拟合的函数,圆点表示原函数生成的样本点,虚线表示不同的神经元在对应于不同 x 取值的输出值,几条虚线经过线性添加后得到的就是拟合后的曲线。

总结:

1,简易的神经网络结构并不复杂,但在实际训练一个神经网络的时候是会遇见很多问题的,比如选择线上梯度下降还是Batch梯度下降,隐藏层神经元个数的选择,是选择多层神经网络还是单层。这些都需要多多实践才行。

2,从理论上来讲,神经网络是可以拟合任何函数,但实际上并非如此。就我个人的实际经验来看,对于某些数据神经网络是失败的。

3,模型不是万能,还需要做很多功课。

#梯度信息在训练 NN 中的使用

#Batch 梯度上升和线上梯度上升的比较

理解了该部分的神经网络知识对后面理解深度神经网络会很大帮助,包括其中的优化方法,能量模型(Energy-based Model),以及RBM(EBM的一个特例)

参考文献:

《Pattern Recognition and Machine Learning》

Andrew Ng's WikiPage http://deeplearning.stanford.edu/wiki/index.php/Neural_Networks

http://www.cppblog.com/billhsu/archive/2008/08/30/60455.html

Geoff Hinton'sCoursera Lectures  https://d396qusza40orc.cloudfront.net/neuralnets/lecture_slides%2Flec1.pdf

本文引用地址:http://blog.sciencenet.cn/blog-696950-697101.html  此文来自科学网余露博客,转载请注明出处。

深度学习中对神经网络的理解相关推荐

  1. 深度学习中基本神经网络(二)

    深度学习中的循环神经网络 1. 循环神经网络的引入与简介 1.1 延时神经网络 1.2 同步学习模式和异步学习模式 2. 梯度训练BPTT算法与RTRL算法 2.1 BPTT算法 2.2 RTRL算法 ...

  2. 【Attention】深度学习中的注意机制:理解序列模型中的注意机制How Attention works in Deep Learning

    [学习资源] How Attention works in Deep Learning: understanding the attention mechanism in sequence model ...

  3. 深度学习中的 BN (BatchNormalization)理解

    CNN 三大算子: CONV + BN +RELU 1.为什么 BN 指导思想: 机器学习领域有个很重要的假设:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的. 具有统一规格的数据, ...

  4. 深度学习中的IoU概念理解

    1.什么是IoU(Intersection over Union) IoU是一种测量在特定数据集中检测相应物体准确度的一个标准.IoU是一个简单的测量标准,只要是在输出中得出一个预测范围(boundi ...

  5. 关于深度学习中三维矩阵的理解(RGB图像的输入)

    #! /usr/bin/env python # -*- coding: utf-8 -*-""" =================================== ...

  6. 卷积为什么如此强大?理解深度学习中的卷积

    译自Tim Dettmers的Understanding Convolution in Deep Learning有太多的公开课.教程在反复传颂卷积神经网络的好,却都没有讲什么是"卷积&qu ...

  7. 深度 | 理解深度学习中的卷积

    译者按:本文译自 Tim Dettmers 的 Understanding Convolution in Deep Learning.有太多的公开课.教程在反复传颂卷积神经网络的好,却都没有讲什么是「 ...

  8. 理解深度学习中的卷积

    译者按:本文译自 Tim Dettmers 的 Understanding Convolution in Deep Learning.有太多的公开课.教程在反复传颂卷积神经网络的好,却都没有讲什么是「 ...

  9. 如何理解深度学习中的卷积?

    原文地址: http://www.yangqiu.cn/aicapital/2382000.html 译自Tim Dettmers的Understanding Convolution in Deep ...

  10. 干货|一文全解深度学习中的卷积

    来源:1024深度学习 概要:卷积现在可能是深度学习中最重要的概念.正是靠着卷积和卷积神经网络,深度学习才超越了几乎其他所有的机器学习手段. 译自Tim Dettmers的Understanding ...

最新文章

  1. [R语言画图]气泡图symbols
  2. 核显也能玩游戏,OS X Yosemite优化指南
  3. 《侠侣天下》资料片武魂大揭晓
  4. shiro+thymeleaf 整合
  5. Apache RocketMQ 的 Service Mesh 开源之旅
  6. extern用法详解(转)
  7. 这100道Python面试题,你会几道?
  8. Linux(CentOS)配置IP设置ssh访问权限
  9. Excel组件使用配置文档下载
  10. Java基础之Maven
  11. 华为云怎么样_为什么阿里云要迁移到华为云?详细过程分析
  12. 川崎机器人f控制柜接线图_东莞Kawasaki机器人控制柜维修中心
  13. 在哪能查到英文论文?
  14. 什么是直方图,如何使用它来改善照片?
  15. 八皇后问题解法大全及编写八皇后小游戏
  16. Springboot Actuator未授权访问漏洞复现
  17. 菜鸟学习 - Unity中的热更新 - Lua和C#通信
  18. ANTLR4: No method for rule r or it has arguments
  19. 企业人事管理系统软件测试计划,人事管理系统软件测试计划.docx
  20. 6岁男孩向他们敬礼2分钟,夏日炎炎,你们都辛苦了!

热门文章

  1. 揭秘淘宝搜索量快速暴增的秘密
  2. android code修改border颜色,BorderColor没有在Android上选择linearGradient颜色
  3. ASP.NET实现日期转为大写的汉字
  4. HTML5系列代码:使用空格符号
  5. 苹果6plus几核处理器_iOS 13.4 Beta3发布:苹果在布局,越狱软件也更新!
  6. VM8无intnet访问权限
  7. Java实现坦克大战小游戏
  8. 用虚拟串口实现串口数据收发
  9. bat脚本_更改文件夹访问权限
  10. 活动|域名转入专场活动