如何利用matlab做BP神经网络分析(包括利用matlab神经网络工具箱)
如何利用matlab做BP神经网络分析(包括利用matlab神经网络工具箱)
转载:https://blog.csdn.net/xgxyxs/article/details/53265318
最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测
- clc
- clear all
- close all
- %bp 神经网络的预测代码
- %载入输出和输入数据
- load C:\Users\amzon\Desktop\p.txt;
- load C:\Users\amzon\Desktop\t.txt;
- %保存数据到matlab的工作路径里面
- save p.mat;
- save t.mat;%注意t必须为行向量
- %赋值给输出p和输入t
- p=p;
- t=t;
- %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
- %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,
- %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]
- %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
- [p1,ps]=mapminmax(p);
- [t1,ts]=mapminmax(t);
- %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据
- %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
- %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
- [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);
- [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);
- %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
- %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据
- %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,
- %purelin函数为输出层的传输函数
- %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
- %TF1 = 'tansig';TF2 = 'logsig';
- %TF1 = 'logsig';TF2 = 'purelin';
- %TF1 = 'logsig';TF2 = 'logsig';
- %TF1 = 'purelin';TF2 = 'purelin';
- TF1='tansig';TF2='purelin';
- net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建
- %网络参数的设置
- net.trainParam.epochs=10000;%训练次数设置
- net.trainParam.goal=1e-7;%训练目标设置
- net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
- net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
- net.trainParam.show=25;%显示的间隔次数
- % 指定训练参数
- % net.trainFcn = 'traingd'; % 梯度下降算法
- % net.trainFcn = 'traingdm'; % 动量梯度下降算法
- % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
- % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
- % (大型网络的首选算法)
- % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
- % 共轭梯度算法
- % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
- % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
- % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
- % (大型网络的首选算法)
- %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
- % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
- % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
- % (中型网络的首选算法)
- %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
- % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
- % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'
- %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
- net.trainFcn='trainlm';
- [net,tr]=train(net,trainsample.p,trainsample.t);
- %计算仿真,其一般用sim函数
- [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
- [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
- [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
- %将所得的结果进行反归一化,得到其拟合的数据
- trainoutput=mapminmax('reverse',normtrainoutput,ts);
- validateoutput=mapminmax('reverse',normvalidateoutput,ts);
- testoutput=mapminmax('reverse',normtestoutput,ts);
- %正常输入的数据的反归一化的处理,得到其正式值
- trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据
- validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据
- testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据
- %做预测,输入要预测的数据pnew
- pnew=[313,256,239]';
- pnewn=mapminmax(pnew);
- anewn=sim(net,pnewn);
- anew=mapminmax('reverse',anewn,ts);
- %绝对误差的计算
- errors=trainvalue-trainoutput;
- %plotregression拟合图
- figure,plotregression(trainvalue,trainoutput)
- %误差图
- figure,plot(1:length(errors),errors,'-b')
- title('误差变化图')
- %误差值的正态性的检验
- figure,hist(errors);%频数直方图
- figure,normplot(errors);%Q-Q图
- [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
- [h1,sig,ci]= ttest(errors,muhat);%假设检验
- figure, ploterrcorr(errors);%绘制误差的自相关图
- figure, parcorr(errors);%绘制偏相关图
运行之后的,结果如下:
BP神经网络的结果分析图
训练数据的梯度和均方误差之间的关系图
验证数据的梯度与学习次数
残差的正态的检验图(Q-Q图)
在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:
1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面
2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)
3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可
4:隐层神经元的确定
5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序
6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好
最终的结果图
7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度
8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值
MATLAB 与神经网络相关的函数总结如下:
- 图形用户界面功能
- nnstart - 神经网络启动GUI
- nctool - 神经网络分类工具
- nftool - 神经网络的拟合工具
- nntraintool - 神经网络的训练工具
- nprtool - 神经网络模式识别工具
- ntstool - NFTool神经网络时间序列的工具
- nntool - 神经网络工具箱的图形用户界面。
- 查看 - 查看一个神经网络。
- 网络的建立功能
- cascadeforwardnet - 串级,前馈神经网络。
- competlayer - 竞争神经层。
- distdelaynet - 分布时滞的神经网络。
- elmannet - Elman神经网络。
- feedforwardnet - 前馈神经网络。
- fitnet - 函数拟合神经网络。
- layrecnet - 分层递归神经网络。
- linearlayer - 线性神经层。
- lvqnet - 学习矢量量化(LVQ)神经网络。
- narnet - 非线性自结合的时间序列网络。
- narxnet - 非线性自结合的时间序列与外部输入网络。
- newgrnn - 设计一个广义回归神经网络。
- newhop - 建立经常性的Hopfield网络。
- newlind - 设计一个线性层。
- newpnn - 设计概率神经网络。
- newrb - 径向基网络设计。
- newrbe - 设计一个确切的径向基网络。
- patternnet - 神经网络模式识别。
- 感知 - 感知。
- selforgmap - 自组织特征映射。
- timedelaynet - 时滞神经网络。
- 利用网络
- 网络 - 创建一个自定义神经网络。
- SIM卡 - 模拟一个神经网络。
- 初始化 - 初始化一个神经网络。
- 适应 - 允许一个神经网络来适应。
- 火车 - 火车的神经网络。
- DISP键 - 显示一个神经网络的属性。
- 显示 - 显示的名称和神经网络属性
- adddelay - 添加延迟神经网络的反应。
- closeloop - 神经网络的开放反馈转换到关闭反馈回路。
- formwb - 表格偏见和成单个向量的权重。
- getwb - 将它作为一个单一向量中的所有网络权值和偏差。
- noloop - 删除神经网络的开放和关闭反馈回路。
- 开环 - 转换神经网络反馈,打开封闭的反馈循环。
- removedelay - 删除延迟神经网络的反应。
- separatewb - 独立的偏见和重量/偏置向量的权重。
- setwb - 将所有与单个矢量网络权值和偏差。
- Simulink的支持
- gensim - 生成Simulink模块来模拟神经网络。
- setsiminit - 集神经网络的Simulink模块的初始条件
- getsiminit - 获取神经网络Simulink模块的初始条件
- 神经元 - 神经网络Simulink的模块库。
- trainb - 批具有重量与偏见学习规则的培训。
- trainbfg - 的BFGS拟牛顿倒传递。
- trainbr - 贝叶斯规则的BP算法。
- trainbu - 与重量与偏见一批无监督学习规则的培训。
- trainbuwb - 与体重无监督学习规则与偏见一批培训。
- trainc - 循环顺序重量/偏见的培训。
- traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。
- traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。
- traincgp - 共轭波拉克- Ribiere更新梯度反向传播。
- traingd - 梯度下降反向传播。
- traingda - 具有自适应LR的反向传播梯度下降。
- traingdm - 与动量梯度下降。
- traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。
- trainlm - 采用Levenberg -马奎德倒传递。
- trainoss - 一步割线倒传递。
- trainr - 随机重量/偏见的培训。
- trainrp - RPROP反向传播。
- trainru - 无监督随机重量/偏见的培训。
- 火车 - 顺序重量/偏见的培训。
- trainscg - 规模化共轭梯度BP算法。
- 绘图功能
- plotconfusion - 图分类混淆矩阵。
- ploterrcorr - 误差自相关时间序列图。
- ploterrhist - 绘制误差直方图。
- plotfit - 绘图功能适合。
- plotinerrcorr - 图输入错误的时间序列的互相关。
- plotperform - 小区网络性能。
- plotregression - 线性回归情节。
- plotresponse - 动态网络图的时间序列响应。
- plotroc - 绘制受试者工作特征。
- plotsomhits - 小区自组织图来样打。
- plotsomnc - 小区自组织映射邻居的连接。
- plotsomnd - 小区自组织映射邻居的距离。
- plotsomplanes - 小区自组织映射重量的飞机。
- plotsompos - 小区自组织映射重量立场。
- plotsomtop - 小区自组织映射的拓扑结构。
- plottrainstate - 情节训练状态值。
- plotwb - 图寒春重量和偏差值图。
- 列出其他神经网络实现的功能
- nnadapt - 适应职能。
- nnderivative - 衍生功能。
- nndistance - 距离函数。
- nndivision - 除功能。
- nninitlayer - 初始化层功能。
- nninitnetwork - 初始化网络功能。
- nninitweight - 初始化权函数。
- nnlearn - 学习功能。
- nnnetinput - 净输入功能。
- nnperformance - 性能的功能。
- nnprocess - 处理功能。
- nnsearch - 线搜索功能。
- nntopology - 拓扑结构的功能。
- nntransfer - 传递函数。
- nnweight - 重量的功能。
- nndemos - 神经网络工具箱的示威。
- nndatasets - 神经网络工具箱的数据集。
- nntextdemos - 神经网络设计教科书的示威。
- nntextbook - 神经网络设计教科书的资讯。
Save
如何利用matlab做BP神经网络分析(包括利用matlab神经网络工具箱)相关推荐
- 齿轮箱诊断,基于小波特征和BP神经网络分析
齿轮箱诊断,基于小波特征和BP神经网络分析 数据预处理:齿轮箱数据采集过程中周围环境和设备本身的噪声,来齿轮箱信号的变化.所以采集的齿轮箱数据提取幅度信息后有很多毛刺,难以直接的提取到有效的行为特征. ...
- 全连接神经网络的BP算法(BP神经网络模型)与卷积神经网络的BP算法
1.神经网络模型 1.1神经网络模型的演变: 神经元模型------->感知机模型------->神经网络模型 神经元模型:1943年,W.S.McCulloch和W.Pitts根据生物学 ...
- matlab 有理逼近,BP神经网络函数逼近
模糊神经网络函数逼近 ====比较简单,直接贴出来就好 % 利用BP网络实现函数逼近 clear % NEWFF--生成一个新的前向神经网络 %TRAIN---对BP网络进行训练 % SIM----对 ...
- matlab做的脑网络分析,eeg脑网络分析
[实例简介] 用于使用eeg数据构建脑网络指标,并且能够对这些指标进行分析 [实例截图] [核心代码] BrainNetwork └── BrainNetwork ├── callbacks │ ...
- 用MATLAB做周期三角波的傅里叶级数,Matlab 周期方波信号傅里叶级数展开
方波信号为: 傅里叶级数展开为: 程序运行结果: 程序代码: clear x = -6:0.01:6; T = 4; f = x; for N = 1:length(f) temp = rem(abs ...
- php利用微博做图床最新2019,利用微博当图床-php语言实现
什么是微博图床? 微博图床,指把图片上传到新浪微博的图库,然后用这个图片外链达到节约本地服务器空间及加快图片加载速度的目的. 相比于其它的图床,利用微博当图床具有加载速度快.不限流量.不限容量等优点. ...
- 用matlab做文字水印,3 一个用MATLAB编写的数字水印算法实例
3 一个用MATLAB编写的数字水印算法实例 为证明MATLAB的高效性与实现简便性,给出在Windows98环境下MATLAB5.3中调试通过的完整源程序. l 嵌入水印 %定义常量size=256 ...
- 用matlab做谱分析程序,经典功率谱分析Matlab程序
一.直接法 clear;clc;close all; %清除变量:清屏:关闭当前图形窗口 Fs=1000; t=0:1/Fs:1; nfft=2048; %改变nfft的值可对比不同采样值时的谱估计效 ...
- matlab 做偏回归分析,偏最小二乘回归分析|MATLAB 数学统计与优化|MATLAB技术论坛 - Powered by Discuz!...
clear;clc; pz = load('pz.txt'); mu = mean(pz); % 均值 sig = std(pz); % 方差 rr = corrcoe ...
最新文章
- Java中的文件下载
- php5 函数,2017PHP5函数大全
- 【四种解法】剑指 Offer 39. 数组中出现次数超过一半的数字
- 关于[一个基于WF的业务流程平台]表设计的说明
- CentOS/Linux 卸载MATLAB
- 第五届省赛(软件类)真题----Java大学C组答案及解析
- Windows安装WSL进行机器学习(windows和Ubuntu同时使用)
- Geodatabase概述(翻译)
- Java学习笔记:BlockingQueue接口
- Java虚拟机专题之类加载机制
- 汤普森算法_Eamp;E算法在汽车之家推荐系统中的应用
- python win7 win10_Python如何获取Win7,Win10系统缩放大小
- Macbook用Terminal启动Matlab
- 优炫数据库收到来自重庆市统计局的感谢信
- 自动化构建工作流--grunt
- SPSS T检测原理及结果分析
- 手机屏幕分辨率真的是越高越清晰吗?
- Go语言之return语句的几种用法
- 三维地图开发三维地图服务器
- APP推广真的有捷径么?
热门文章
- Docker当中安装Emqx(Mqtt)
- [ 报错记录 ]使用springboot时@Runwith报红
- 计算机系学生thinkbook,设计师笔记本电脑推荐 ThinkBook 15p视觉系创造本你值得拥有...
- catia制作物料明细_CATIA导出装配文件的部件列表BOM清单到Excel文件 | 坐倚北风
- 美团codeM资格赛 优惠券
- 什么是人工智能?人工智能如何系统的学习
- html5用语义元素做旅游网站,HTML5语义元素
- 八卦与六十卦unicode符号python打印
- 6.5世界环境日!来聊聊那些你想不到的环保黑科技?
- ossec是干什么的?