一、基于BP算法的多层感知器模型

采用BP算法的多层感知器是至今为止应用最广泛的神经网络,在多层感知器的应用中,以图3-15所示的单隐层网络的应用最为普遍。一般习惯将单隐层前馈网称为三层感知器,所谓三层包括了输入层、隐层和输出层。

算法最终结果采用梯度下降法,具体详细过程此处就省略了!

二、BP算法的程序实现流程

三、标准BP算法的改进——增加动量项

标准BP算法在调整权值时,只按t时刻误差的梯度降方向调整,而没有考虑t时刻以前的梯度方向,从而常使训练过程发生振荡,收敛缓慢。为了提高网络的训练速度,可以在权值调整公式中增加一动量项。若用W代表某层权矩阵,X代表某层输入向量,则含有动量项的权值调整向量表达式为

可以看出,增加动量项即从前一次权值调整量中取出一部分迭加到本次权值调整量中,α称为动量系数,一般有a∈ (0,1)。动量项反映了以前积累的调整经验,对于t时刻的调整起阻尼作用。当误差曲面出现骤然起伏时,可减小振荡趋势,提高训练速度。目前,BP算法中都增加了动量项,以致于有动量项的BP算法成为一种新的标准算法。

四、Python实现BP神经网络及其学习算法

这里为了运用算法,简要的举了一个例子(不需归一化或标准化的例子)

输入 X=-1:0.1:1;
输出 D=.....(具体查看代码里面的数据)

为了便于查看结果我们输出把结果绘制为图形,如下:

其中黄线和蓝线代表着训练完成后的输出与输入

五、程序如下:

# -*- coding: utf-8 -*-
import math
import string
import matplotlib as mpl
############################################调用库(根据自己编程情况修改)
import numpy.matlib
import numpy as np
np.seterr(divide='ignore',invalid='ignore')
import matplotlib.pyplot as plt
from matplotlib import font_manager
import pandas as pd
import random#生成区间[a,b]内的随机数
def random_number(a,b):return (b-a)*random.random()+a#生成一个矩阵,大小为m*n,并且设置默认零矩阵
def makematrix(m, n, fill=0.0):a = []for i in range(m):a.append([fill]*n)return np.array(a)#函数sigmoid(),两个函数都可以作为激活函数
def sigmoid(x):#return np.tanh(x)return (1-np.exp(-1*x))/(1+np.exp(-1*x))
#函数sigmoid的派生函数
def derived_sigmoid(x):return 1-(np.tanh(x))**2#return (2*np.exp((-1)*x)/((1+np.exp(-1*x)**2)))#构造三层BP网络架构
class BPNN:def __init__(self, num_in, num_hidden, num_out):#输入层,隐藏层,输出层的节点数self.num_in = num_in + 1  #增加一个偏置结点self.num_hidden = num_hidden + 1   #增加一个偏置结点self.num_out = num_out#激活神经网络的所有节点(向量)self.active_in = np.array([-1.0]*self.num_in)self.active_hidden = np.array([-1.0]*self.num_hidden)self.active_out = np.array([1.0]*self.num_out)#创建权重矩阵self.wight_in = makematrix(self.num_in, self.num_hidden)self.wight_out = makematrix(self.num_hidden, self.num_out)#对权值矩阵赋初值for i in range(self.num_in):for j in range(self.num_hidden):self.wight_in[i][j] = random_number(0.1, 0.1)for i in range(self.num_hidden):for j in range(self.num_out):self.wight_out[i][j] = random_number(0.1, 0.1)#偏差for j in range(self.num_hidden):self.wight_in[0][j] = 0.1for j in range(self.num_out):self.wight_in[0][j] = 0.1#最后建立动量因子(矩阵)self.ci = makematrix(self.num_in, self.num_hidden)self.co = makematrix(self.num_hidden, self.num_out)      #信号正向传播def update(self, inputs):if len(inputs) != self.num_in-1:raise ValueError('与输入层节点数不符')#数据输入输入层self.active_in[1:self.num_in]=inputs#数据在隐藏层的处理self.sum_hidden=np.dot(self.wight_in.T,self.active_in.reshape(-1,1)) #点乘self.active_hidden=sigmoid(self.sum_hidden)   #active_hidden[]是处理完输入数据之后存储,作为输出层的输入数据self.active_hidden[0]=-1#数据在输出层的处理self.sum_out=np.dot(self.wight_out.T,self.active_hidden) #点乘self.active_out = sigmoid(self.sum_out)   #与上同理return self.active_out#误差反向传播def errorbackpropagate(self, targets, lr,m):   #lr是学习率if self.num_out==1:targets=[targets]if len(targets) != self.num_out:raise ValueError('与输出层节点数不符!')#误差error=(1/2)*np.dot((targets.reshape(-1,1)-self.active_out).T,(targets.reshape(-1,1)-self.active_out))#输出误差信号self.error_out=(targets.reshape(-1,1)-self.active_out)*derived_sigmoid(self.sum_out)#隐层误差信号#self.error_hidden=np.dot(self.wight_out.reshape(-1,1),self.error_out.reshape(-1,1))*self.active_hidden*(1-self.active_hidden)self.error_hidden=np.dot(self.wight_out,self.error_out)*derived_sigmoid(self.sum_hidden)#更新权值#隐藏self.wight_out=self.wight_out+lr*np.dot(self.error_out,self.active_hidden.reshape(1,-1)).T+m*self.coself.co=lr*np.dot(self.error_out,self.active_hidden.reshape(1,-1)).T#输入self.wight_in=self.wight_in+lr*np.dot(self.error_hidden,self.active_in.reshape(1,-1)).T+m*self.ciself.ci=lr*np.dot(self.error_hidden,self.active_in.reshape(1,-1)).Treturn error#测试def test(self, patterns):for i in patterns:print(i[0:self.num_in-1], '->', self.update(i[0:self.num_in-1]))return self.update(i[0:self.num_in-1])#权值def weights(self):print("输入层权重")print(self.wight_in)print("输出层权重")print(self.wight_out)def train(self, pattern, itera=100, lr = 0.2, m=0.1):for i in range(itera):error = 0.0for j in pattern:inputs = j[0:self.num_in-1]targets = j[self.num_in-1:]self.update(inputs)error = error+self.errorbackpropagate(targets, lr,m)if i % 10 == 0:print('########################误差 %-.5f######################第%d次迭代' %(error,i))#实例
X=list(np.arange(-1,1.1,0.1))
D=[-0.96, -0.577, -0.0729, 0.017, -0.641, -0.66, -0.11, 0.1336, -0.201, -0.434, -0.5, -0.393, -0.1647, 0.0988, 0.3072, 0.396, 0.3449, 0.1816, -0.0312, -0.2183, -0.3201]
A=X+D
patt=np.array([A]*2)#创建神经网络,21个输入节点,21个隐藏层节点,1个输出层节点
n = BPNN(21, 21, 21)#训练神经网络
n.train(patt)#测试神经网络
d=n.test(patt)#查阅权重值
n.weights() plt.plot(X,D)
plt.plot(X,d)
plt.show()

来源:小凌のBlog—Good Times|一个不咋地的博客

[1]   韩力群,人工神经网络理论及应用 [M]. 北京:机械工业出版社,2016.

神经网络——Python实现BP神经网络算法(理论+例子+程序)相关推荐

  1. Python实现bp神经网络识别MNIST数据集

    title: "Python实现bp神经网络识别MNIST数据集" date: 2018-06-18T14:01:49+08:00 tags: [""] cat ...

  2. 如何提高bp神经网络精度,改进bp神经网络的方案

    1.BP神经网络的核心问题是什么?其优缺点有哪些? 人工神经网络,是一种旨在模仿人脑结构及其功能的信息处理系统,就是使用人工神经网络方法实现模式识别.可处理一些环境信息十分复杂,背景知识不清楚,推理规 ...

  3. bp神经网络预测模型原理,BP神经网络预测模型

    深度学习与神经网络有什么区别 深度学习与神经网络关系2017-01-10最近开始学习深度学习,基本上都是zouxy09博主的文章,写的蛮好,很全面,也会根据自己的思路,做下删减,细化. 五.DeepL ...

  4. 提高bp神经网络预测精度,bp神经网络数据预处理

    bp神经网络对输入数据和输出数据有什么要求 p神经网络的输入数据越多越好,输出数据需要反映网络的联想记忆和预测能力.BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数 ...

  5. 简述BP神经网络的流程,BP神经网络的实现包括

    (1)BP算法的学习过程中有两个过程是什么?(2)写出BP神经网络的数学模型,并以20 bp(backpropagation)网络是1986年由rumelhart和mccelland为首的科学家小组提 ...

  6. bp神经网络时间序列预测,bp神经网络有几个阶段

    什么是BP神经网络? . BP算法的基本思想是:学习过程由信号正向传播与误差的反向回传两个部分组成:正向传播时,输入样本从输入层传入,经各隐层依次逐层处理,传向输出层,若输出层输出与期望不符,则将误差 ...

  7. bp神经网络的训练方法,bp神经网络训练流程图

    BP人工神经网络方法 (一)方法原理人工神经网络是由大量的类似人脑神经元的简单处理单元广泛地相互连接而成的复杂的网络系统.理论和实践表明,在信息处理方面,神经网络方法比传统模式识别方法更具有优势. 人 ...

  8. bp神经网络训练流程图,BP神经网络训练过程

    (1)BP算法的学习过程中有两个过程是什么?(2)写出BP神经网络的数学模型,并以20 bp(backpropagation)网络是1986年由rumelhart和mccelland为首的科学家小组提 ...

  9. bp神经网络预测模型优点,bp神经网络缺点及克服

    BP神经网络的核心问题是什么?其优缺点有哪些? 人工神经网络,是一种旨在模仿人脑结构及其功能的信息处理系统,就是使用人工神经网络方法实现模式识别.可处理一些环境信息十分复杂,背景知识不清楚,推理规则不 ...

最新文章

  1. Win64 驱动内核编程-1.环境搭建
  2. 邮件:事务失败。 服务器响应为:DT:SPM 163 smtp
  3. Shell脚本的学习笔记一:变量
  4. 武汉大学计算机学院 情感分析,跨语言情感分析方法研究
  5. Jetson Nano编译opencv-python和opencv-contrib-python
  6. 数据安全的四个新挑战有哪些
  7. 四、 vSphere 6.7 U1(四):部署VCSA
  8. 2.1 新版个人所得税计算
  9. 什么是PMU(PMIC)【转】
  10. layui 实现下拉多选功能 [xm-select]
  11. Java数据结构---hashMap
  12. java核心技术卷I-映射
  13. 超级电容容量、耐压值、电容值计算方法
  14. python 搜索引擎 词位置加权_网站搜索引擎推广公司,360关键词推广
  15. iOS 重力感应之箭头指向重力方向
  16. 录像加文档,双管齐下!腾讯内部大热的Java知识宝典
  17. SRS:流媒体服务器如何实现负载均衡
  18. SAP中Quant份的理论及应用解析
  19. 小傻蛋的妹妹跟随小甲鱼学习Python的第六节006
  20. 3-PHP代码审计——PHPCMSV9.6.1文件下载漏洞

热门文章

  1. Linux服务器搭建Pulsar集群
  2. JavaScript中childNodes默认格式问题
  3. java 周几_java根据年月日判断周几
  4. 修改华硕电脑的instantfun键
  5. 实例分析join、left join、right join、fulljoin间的区别
  6. Mac新手必看:Mac电脑多桌面管理小技巧
  7. linux查看端口情况
  8. 乐观锁与悲观锁原理及实现
  9. 纵览2023世界人工智能大会:百模大战4个月,中国AI产业怎么样了?
  10. 明朝那些事_读史有感