1. 神经元

神经元(neuron)是神经网络的基本计算单元,也被称作节点(node)或者单元(unit)。它可以接受来自其他神经元的输入或者是外部的数据,然后计算一个输出。每个输入值都有一个权重(weight),权重的大小取决于这个输入相比于其他输入值的重要性。然后在神经元上执行一个特定的函数 f, 定义如下图所示,这个函数会该神经元的所有输入值以及其权重进行一个操作。

由上图可以看到,除了权重外,还有一个输入值是1的偏置值bias。而这里的函数f就是一个被称为激活函数的非线性函数。它的目的是给神经元的输出引入非线性。因为在现实世界中的数据都是非线性的,因此我们希望神经元都可以学习到这些非线性的表示。

下面是一些比较常见的激活函数:

Sigmoid: 输出范围是[0,1]

tanh: 输出范围是[-1,1]

ReLU:在负区间为零,正区间上函数为y=x

2. 前向神经网络

前向神经网络是第一个也是最简单的一种人工神经网络了。下面给出一个前向神经网络的简单例子示意图。

如上图所示,这个神经网络分为3个网络层,分别是输入层隐藏层输出层,每个网络层都包含有多个神经元,每个神经元都会跟相邻的前一个层的神经元有连接,这些连接其实也是该神经元的输入。根据神经元所在层的不同,前向神经网络的神经元也分为三种,分别为:

  1. 输入神经元:位于输入层,主要是传递来自外界的信息进入神经网络中,比如图片信息,文本信息等,这些神经元不需要执行任何计算,只是作为传递信息,或者说是数据进入隐藏层。
  2. 隐藏神经元:位于隐藏层,隐藏层的神经元不与外界有直接的连接,它都是通过前面的输入层和后面的输出层与外界有间接的联系,因此称之为隐藏层,上图只是有1个网络层,但实际上隐藏层的数量是可以有很多的,远多于1个,当然也可以没有,那就是只有输入层和输出层的情况了。隐藏层的神经元会执行计算,将输入层的输入信息通过计算进行转换,然后输出到输出层。
  3. 输出神经元:位于输出层,输出神经元就是将来自隐藏层的信息输出到外界中,也就是输出最终的结果,如分类结果等。

前向网络中,信息是从输入层传递到输出层,只有前向这一个方向,没有反向传播,也不会循环(不同于RNN,它的神经元间的连接形成了一个循环)。

下面是两个前向神经网络的例子:

  1. 单层感知器——最简单的前向神经网络,并且不含任何隐藏层。
  2. 多层感知器——拥有1个或多个隐藏层。

3. 多层感知器(MLP)

单层感知器只有输入层和输出层,所以只能学习线性函数,而多层感知器拥有1个或多个隐藏层,因此也就可以学习非线性函数了。下面是拥有一个隐藏层的MLP的例子示意图:

上图显示该MLP有两个输入值X1X2,隐藏层有两个神经元,然后有两个输出值Y1Y2。图中还展示了其中一个隐藏层神经元的计算:

4. 反向传播算法

MLP要能够获得更好的结果,单单通过前向传播计算是不够的,神经网络除了前向传播计算,还有反向传播算法,通过反向传播来更新权值,从而获得更好的训练结果。

反向传播误差,也被简称为反向传播,是用于训练神经网络的方法之一,它是一个有监督学习方法,也就是说它是从训练数据的标签来进行学习,即相当于有一个监督者负责指导它的学习。
简单来说,反向传播是“从错误中进行学习”,监督者会在神经网络出错的时候修正它。
学习的目的主要是为了给隐藏层的每个节点的连接的权重分配一个正确的数值。当给定一个输入向量,这些权重可以决定输出的向量。
在监督学习中,训练集是有标签的,这意味着,对于给定的一些输入,我们是可以知道一些期望的输出值,也就是标签是什么的。
反向传播算法:
在初始阶段,所有权重都是随机分配的。对于训练集的每个输入值,经过神经网络的前向计算后,得到的输出值将会与期望的输出进行比较,然后得到的误差会传回给前面的网络层。这个误差会被记下,然后权重会进行相应的调整。这个过程会不断重复,知道输出的误差低于一个设定好的阈值。
当上述算法结束,我们就会得到一个训练好的网络,可以应用于一些新的输入数据。

下图展示了一个MLP的反向传播过程

图中展示的是一个给定的例子的训练数据,训练数据如下:

要预测的例子如下:

这个例子中输入数据,或者说输入的特征是学习时间和中期考试成绩,输出结果是期末考试结果,并且是用0和1表示,即这是一个二分类问题。

上图展示的就是MLP是一个拥有1个隐藏层的例子,输入层有 3 个节点,其中 1 个是数值为 1,也就是它与节点的连接上的数值表示的是偏置值,另外两个节点传递的就是两个输入数据;隐藏层中,除了表示偏置值节点外,有两个节点,而输出层也是有两个输出节点,上面的节点表示通过(Pass)的概率,而下面的节点表示不通过(Fail)的概率。

在分类任务中,我们通常使用 Softmax function 作为输出层的激活函数,这是为了保证输出值是概率值,并且输出值的和是1。Softmax函数会将输入的一个包含任意实数的向量变成一个包含范围在0到1的数值的向量。因此,在这里的例子中,有 Probability(Pass)+Probability(Fail)= 1

Step 1: 前向传播

这里将上图中标记为V的隐藏层的节点拿出来介绍下前向传播的过程。假设其连接的节点上的权重分别是 w1,w2,w3

网络首先接受第一个训练输入,也就是输入35和67,并且期望的输出值是1,也就是通过的结果。

  • 网络的输入 = [35, 67]
  • 网络的期望输出 = [1, 0]

在节点V上执行的计算为:

其他节点的计算也类似这个。最终在输出层的两个节点将分别得到两个概率值,假设分别是 0.4 和 0.6(因为权重是随机分配的,所以输出值也是随机的)。很明显,这两个数值不符合期望的数值,因此上图中左上角也说明这是一个错误的输出。

Step 2: 反向传播和权重更新

下图展示了反向传播和权重更新的过程:

这里会计算输出节点的误差,然后使用反向传播计算梯度,并将误差传回前面的网络层,进行权重的更新。这里权重的更新使用一种优化方法,比如梯度下降算法,目的是减小输出层的误差值。

这里假设经过权重更新,节点V的连接上的权重更新为新的权重 w4,w5,w6

然后继续还是刚才的输入,此时由于经过反向传播,权重是在向着减小误差的方向下调整的,所以应该有一个更好的输出结果,如下图所示,此时输出层的误差变成[0.2, -0.2],相比于之前的[0.6, -0.4],这意味着网络已经学习到正确分类第一个训练数据了。

接下来就可以对整个训练集重复上述过程,然后就可以得到一个训练好的神经网络。此时,需要对测试例子进行输出,则只需要传递测试数据,并执行前向传播,就可以得到输出结果。

详解神经网络的基本原理相关推荐

  1. 详解Docker的基本原理与实践操作

    详解Docker的基本原理与实践操作,Web时代,应用变得越来越强大,与此同时也越来越复杂.集群部署.隔离环境.灰度发布以及动态扩容缺一不可,而容器化则成为中间的必要桥梁. 本文我们就来探索Docke ...

  2. 鱼眼:一:一分钟详解鱼眼镜头标定基本原理及实现

    目录 一.目的 1.想知道:一分钟详解鱼眼镜头标定基本原理及实现 1.将其转载,避免作者删除,就没有了 二.参考 1.一分钟详解鱼眼镜头标定基本原理及实现 三.注意 四.操作:备份原文 前言 一 理论 ...

  3. Andrej Karpathy | 详解神经网络和反向传播(基于micrograd)

    只要你懂 Python,大概记得高中学过的求导知识,看完这个视频你还不理解反向传播和神经网络核心要点的话,那我就吃鞋:D Andrej Karpathy,前特斯拉 AI 高级总监.曾设计并担任斯坦福深 ...

  4. 【中英字幕】Andrej Karpathy | 详解神经网络和反向传播(基于micrograd)- 知识点目录

    [中英字幕]Andrej Karpathy | 详解神经网络和反向传播(基于micrograd) 00:00:00 介绍 00:00:25 micrograd概述 00:08:08 只有一个输入的简单 ...

  5. 一文详解神经网络与激活函数的基本原理

    ©PaperWeekly 原创 · 作者|王东伟 单位|致趣百川 研究方向|深度学习 本文介绍神经网络(Neural Network)及激活函数(Activation Function)的基本原理. ...

  6. 打开深度学习的黑盒,详解神经网络可解释性

    深度学习的可解释性研究在近年来顶会的录取文献词云上频频上榜,越来越多的研究工作表明,打开深度学习的黑盒并不是那么遥不可及.这些工作令人们更加信赖深度学习算法生成的结果,也通过分析模型工作的机理,让新的 ...

  7. 手算梯度下降法,详解神经网络迭代训练过程

    神经网络本质上是一个计算流程,在前端接收输入信号后,经过一层层复杂的运算,在最末端输出结果.然后将计算结果和正确结果相比较,得到误差,再根据误差通过相应计算方法改进网络内部的相关参数,使得网络下次再接 ...

  8. 神经网络训练过程详解,神经网络的训练算法

    神经网络原理及应用 神经网络原理及应用1.什么是神经网络?神经网络是一种模拟动物神经网络行为特征,进行分布式并行信息处理的算法. 这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从 ...

  9. 一分钟详解鱼眼镜头标定基本原理及实现

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 3D视觉工坊的第61篇文章 前言 在VSLAM中,经常会使用鱼眼镜头或者广角镜头.本文主要分为理论部分 ...

最新文章

  1. SAP RETAIL 寄售模式公司间STO流程里收货过账不能基于外向交货单?
  2. 科学界5个终极难题,如果有一个被解决,人类文明将升级
  3. windows错误:Failed to import pydot. You must install pydot and graphviz for `pydotprint` to work.
  4. lvs+keepalived 集群
  5. 数据结构与算法,每日一道
  6. Centos常用系统命令
  7. 豆瓣9.0,35万读者“搜不到信息”的神秘作者,我们帮你找到了
  8. Linux(CentOS)网络流量实时监控(iftop)
  9. debugfs dd恢复误删数据
  10. delphi控件属性大全-详解-简介
  11. w ndows10隐藏桌面设置,Win10双击桌面隐藏/显示图标?这个可以有
  12. Redis客户端工具如何连接宝塔Redis服务器
  13. 怎么将多张图片批量转为 Word 、Excel 、PPT 、PDF 等文档格式
  14. 清除tomcat缓存HTML,清除Tomcat缓存
  15. ngnix 端口映射
  16. ShinyApp中的表格:第三天笔记
  17. 一个C语言编写的坦克大战游戏
  18. 1. 在 SAP ABAP 事物码 SEGW 里创建 SAP OData 项目
  19. You have not concluded your cherry-pick (CHERRY_PICK_HEAD exists).Please, commit your changes
  20. 微积分:闭区间上 有界、可积、连续、可导 的强弱关系

热门文章

  1. 压敏电阻烧坏的原因后果及解决办法
  2. TCP网络编程模型从入门到实战基础篇,单服务器单个用户非并发版本
  3. 【15NOIP提高组】跳石头题解
  4. 软件测试回归案例,什么是回归测试?
  5. 子域间互访文件服务器,搭建子域dns服务器
  6. 【Jenkins】Windows 10:Jenkins的下载和安装
  7. 嵌入式 视频编码 hisi
  8. C语言读写bmp位图文件
  9. 媒体层图形技术之Core Animation 学习笔记
  10. 带动300亿元产能 良品铺子的产业观与胜利法