python 反传播_反向传播算法详解和Python代码实现
反向传播算法是训练神经网络的经典算法,是深度学习的最重要的基础,适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上,通过迭代的方法求出目标损失函数(loss function)的近似最小值。
本文通过理论和代码相结合的方式详细讲述了反向传播算法的原理和实现。
作者:Great Learning Team
deephub.ai翻译组译
神经网络
什么是反向传播?
反向传播是如何工作的?
损失函数
为什么我们需要反向传播?
前馈网络
反向传播的类型
案例研究
在典型的编程中,我们输入数据,执行处理逻辑并接收输出。如果输出数据可以某种方式影响处理逻辑怎么办?那就是反向传播算法。它对以前的模块产生积极影响,以提高准确性和效率。
让我们来深入研究一下。
神经网络(Neural network)
神经网络是连接单元的集合。每个连接都有一个与其相关联的权重。该系统有助于建立基于海量数据集的预测模型。它像人类的神经系统一样工作,有助于理解图像,像人类一样学习,合成语音等等。
什么是反向传播(What is backpropagation?)
我们可以将反向传播算法定义为在已知分类的情况下,为给定的输入模式训练某些给定的前馈神经网络的算法。当示例集的每一段都显示给网络时,网络将查看其对示例输入模式的输出反应。之后,测量输出响应与期望输出与误差值的比较。之后,我们根据测量的误差值调整连接权重。
在深入研究反向传播之前,我们应该知道是谁引入了这个概念以及何时引入。它最早出现在20世纪60年代,30年后由大卫·鲁梅尔哈特、杰弗里·辛顿和罗纳德·威廉姆斯在1986年的著名论文中推广。在这篇论文中,他们谈到了各种神经网络。今天,反向传播做得很好。神经网络训练是通过反向传播实现的。通过这种方法,我们根据前一次运行获得的错误率对神经网络的权值进行微调。正确地采用这种方法可以降低错误率,提高模型的可靠性。利用反向传播训练链式法则的神经网络。简单地说,每次前馈通过网络后,该算法根据权值和偏差进行后向传递,调整模型的参数。典型的监督学习算法试图找到一个将输入数据映射到正确输出的函数。反向传播与多层神经网络一起工作,学习输入到输出映射的内部表示。
反向传播是如何工作的?(How does backpropagation work?)
让我们看看反向传播是如何工作的。它有四层:输入层、隐藏层、隐藏层II和最终输出层。
所以,主要的三层是:
1.输入层
2.隐藏层
3.输出层
每一层都有自己的工作方式和响应的方式,这样我们就可以获得所需的结果并将这些情况与我们的状况相关联。让我们讨论有助于总结此算法所需的其他细节。
这张图总结了反向传播方法的机能。
1.输入层接收x
2.使用权重w对输入进行建模
3.每个隐藏层计算输出,数据在输出层准备就绪
4.实际输出和期望输出之间的差异称为误差
5.返回隐藏层并调整权重,以便在以后的运行中减少此错误
这个过程一直重复,直到我们得到所需的输出。训练阶段在监督下完成。一旦模型稳定下来,就可以用于生产。
损失函数(Loss function)
一个或多个变量被映射到实数,这些实数表示与这些变量值相关的某个数值。为了进行反向传播,损失函数计算网络输出与其可能输出之间的差值。
为什么我们需要反向传播?(Why do we need backpropagation?)
反向传播有许多优点,下面列出一些重要的优点:
•反向传播快速、简单且易于实现
•没有要调整的参数
•不需要网络的先验知识,因此成为一种灵活的方法
•这种方法在大多数情况下都很有效
•模型不需要学习函数的特性
前馈网络(Feed forward network)
前馈网络也称为MLN,即多层网络。之所以称为前馈,是因为数据仅在NN(神经网络)中通过输入节点,隐藏层并最终到达输出节点。它是最简单的人工神经网络。
反向传播的类型(Types of backpropagation)
有两种类型的反向传播网络。
•静态反向传播(Static backpropagation)
•循环反向传播(Recurrent backpropagation)
静态反向传播(Static backpropagation)
在这个网络中,静态输入的映射生成静态输出。像光学字符识别这样的静态分类问题将是一个适合于静态反向传播的领域。
循环反向传播(Recurrent backpropagation)
反复进行反向传播,直到达到某个阈值为止。在到达阈值之后,将计算误差并向后传播。
这两种方法的区别在于,静态反向传播与静态映射一样快。
案例研究(Case Study)
让我们使用反向传播进行案例研究。为此,我们将使用Iris数据(鸢尾花卉数据集),该数据包含诸如萼片和花瓣的长度和宽度之类的特征。在这些帮助下,我们需要确定植物的种类。
为此,我们将构建一个多层神经网络,并使用sigmoid函数,因为它是一个分类问题。
让我们看一下所需的库和数据。
import numpy as np
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
为了忽略警告,我们将导入另一个名为warnings的库。
import warnings
warnings.simplefilter(action='ignore', category=FutureWarning)
接着让我们读取数据。
iris = pd.read_csv("iris.csv")
iris.head()
现在我们将把类标记为0、1和2。
iris. replace (, , inplace=True)
我们现在将定义函数,它将执行以下操作。
1.对输出执行独热编码(one hot encoding)。
2.执行sigmoid函数
3.标准化特征
对于独热编码,我们定义以下函数。
defto_one_hot(Y):
n_col = np.amax(Y) + 1
binarized = np.zeros((len(Y), n_col))
for i in range(len(Y)):
binarized ] = 1.return binarized
现在我们来定义一个sigmoid函数
defsigmoid_func(x):return1/(1+np.exp(-x))
defsigmoid_derivative(x):return sigmoid_func(x)*(1 – sigmoid_func(x))
现在我们将定义一个用于标准化的函数。
defnormalize(X, axis=-1, order=2):
l2 = np. atleast_1d (np.linalg.norm(X, order, axis))
l2 = 1return X / np.expand_dims(l2, axis)
现在我们将对特征进行规范化,并对输出应用独热编码。
x = pd.DataFrame(iris, columns=columns)
x = normalize(x.as_matrix())
y = pd.DataFrame(iris, columns=columns)
y = y.as_matrix()
y = y.flatten()
y = to_one_hot(y)
现在是时候应用反向传播了。为此,我们需要定义权重和学习率。让我们这么做吧。但在那之前,我们需要把数据分开进行训练和测试。
#Split data to training and validation data(将数据拆分为训练和验证数据)
X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.33)
#Weights
w0 = 2*np.random.random((4, 5)) - 1#forinput - 4 inputs, 3 outputs
w1 = 2*np.random.random((5, 3)) - 1#for layer 1 - 5 inputs, 3 outputs
#learning rate
n = 0.1
我们将为错误设置一个列表,并通过可视化查看训练中的更改如何减少错误。
errors = []
让我们执行前馈和反向传播网络。对于反向传播,我们将使用梯度下降算法。
for i in range (100000):
#Feed forward network
layer0 = X_train
layer1 = sigmoid_func(np.dot(layer0, w0))
layer2 = sigmoid_func(np.dot(layer1, w1))
Back propagation using gradient descent
layer2_error = y_train - layer2
layer2_delta = layer2_error * sigmoid_derivative(layer2)
layer1_error = layer2_delta.dot (w1.T)
layer1_delta = layer1_error * sigmoid_derivative(layer1)
w1 += layer1.T.dot(layer2_delta) * n
w0 += layer0.T.dot(layer1_delta) * n
error = np.mean(np.abs(layer2_error))
errors.append(error)
准确率将通过从训练数据中减去误差来收集和显示
accuracy_training = (1 - error) * 100
现在让我们直观地看一下如何通过减少误差来提高准确度。(可视化)
plt.plot(errors)
plt.xlabel('Training')
plt.ylabel('Error')
plt.show()
现在让我们查看一下准确率。
print ("Training Accuracy of the model " + str (round(accuracy_training,2)) + "%")
Output: Training Accuracy of the model 99.04%
我们的训练模型表现很好。现在让我们看看验证的准确性。
#Validate
layer0 = X_test
layer1 = sigmoid_func(np.dot(layer0, w0))
layer2 = sigmoid_func(np.dot(layer1, w1))
layer2_error = y_test - layer2
error = np.mean(np.abs(layer2_error))
accuracy_validation = (1 - error) * 100print ("Validation Accuracy of the model "+ str(round(accuracy_validation,2)) + "%")
Output: Validation Accuracy 92.86%
这个性能符合预期。
应遵循的最佳实践准则(Best practices to follow)
下面讨论一些获得好模型的方法:
•如果约束非常少,则系统可能不起作用
•过度训练,过多的约束会导致过程缓慢
•只关注少数方面会导致偏见
反向传播的缺点(Disadvantages of backpropagation)
•输入数据是整体性能的关键
•有噪声的数据会导致不准确的结果
•基于矩阵的方法优于小批量方法(mini-batch)
综上所述,神经网络是具有输入和输出机制的连接单元的集合,每个连接都有相关联的权值。反向传播是"误差的反向传播",对训练神经网络很有用。它快速、易于实现且简单。反向传播对于处理语音或图像识别等易出错项目的深度神经网络非常有益。
python 反传播_反向传播算法详解和Python代码实现相关推荐
- python随机森林 交叉验证_随机森林算法详解及Python实现
一 简介 随机森林是一种比较有名的集成学习方法,属于集成学习算法中弱学习器之间不存在依赖的一部分,其因为这个优点可以并行化运行,因此随机森林在一些大赛中往往是首要选择的模型. 随机森立中随机是核心,通 ...
- python决策树 value_机器学习之ID3算法详解及python代码实现
在生活中我们经常会用到决策树算法,最简单的就是二叉树了:相信大家也会又同样的困扰,手机经常收到各种短信,其中不乏很多垃圾短信.此时只要设置这类短信为垃圾短信手机就会自动进行屏蔽.减少被骚扰的次数,同时 ...
- AdaBoost算法详解与python实现
AdaBoost算法详解与python实现 https://tangshusen.me/2018/11/18/adaboost/
- RRT(Rapidly-Exploring Random Trees)算法详解及python实现
RRT(Rapidly-Exploring Random Trees)算法详解及python实现 前言 一.原理 二.伪代码 三.代码详解 总结 前言 快速探索随机树(RRT):作为一种随机数据结构, ...
- 排序算法(五)——堆排序算法详解及Python实现
本文目录 一.简介 二.算法介绍 三.代码实现 排序算法系列--相关文章 一.简介 堆排序(Heap Sort)算法,属于选择排序类,不稳定排序,时间复杂度O(nlogn). 堆排序由Floyd和Wi ...
- Simhash算法详解及python实现
Simhash算法详解及python实现 GoogleMoses Charikar发表的一篇论文"detecting near-duplicates for web crawling&quo ...
- kmeans算法详解和python代码实现
kmeans算法详解和python代码实现 kmeans算法 无监督学习和监督学习 监督学习: 是通过已知类别的样本分类器的参数,来达到所要求性能的过程 简单来说,就是让计算机去学习我们已经创建好了的 ...
- 编辑距离算法详解和python代码
编辑距离(Levenshtein Distance)算法详解和python代码 最近做NLP用到了编辑距离,网上学习了很多,看到很多博客写的有问题,这里做一个编辑距离的算法介绍,步骤和多种python ...
- python直线拟合_RANSAC算法详解(附Python拟合直线模型代码)
之前只是简单了解RANSAC模型,知道它是干什么的.然后今天有个课程设计的报告,上去讲了一下RANSAC,感觉这个东西也没那么复杂,所以今天就总结一些RASAC并用Python实现一下直线拟合. RA ...
- 相位 unwrap 与 wrap 算法详解(附代码)
相位 unwrap 与 wrap 算法详解(附代码) 最近接手了一个项目,光通信方面的,我负责编写初测结果的数据处理算法,其中有一个算法叫做 unwrap 与 wrap,之前没有听说过.通过询问同事与 ...
最新文章
- hadoop W3SCHOOL
- jenkins 命令找不到
- linux存储--虚拟内存详解MMU、页表(十)
- Spring Boot 自动配置之条件注解
- GDT,LDT,GDTR,LDTR 详解,包你理解透彻
- 四边偏移lisp_双向偏移lisp
- java阿里云短信服务开通验证码功能实现(1)
- 如何用 Python 快速开发一个区块链数据结构?
- vs2015 mysql edmx_VS2015+MySql EF的配置问题
- CodeForces 621C 数学概率期望计算
- T61|NV显卡门|根据售后维修部数据显示爆发期来临|预防显卡门|解决显卡门
- 【MapReduce】猫眼电影数据库传输数据
- 如何在没有手机号的情况下注册Yahoo邮箱
- 治具 ,手顺 是外来词,他们的含义
- 微信小程序页面数量限制问题
- 【Linux驱动编程】Linux中断上半部和下半部
- 使用Amazon Elasticache构建你的专属内存缓存服务集群
- 他两次都没感动CCTV,却真正感动了中国
- 计算机配置怎么开启,ipv6怎么设置? ipv6的开启方法
- java输入代码快捷键是什么_eclipse自动补全代码快捷键是什么