matlab神经网络的简单程序设计,BP神经网络设计的matlab简单实现
例1 采用动量梯度下降算法训练 BP 网络。用matlab自带的神经网络训练样本定义如下:
输入矢量为
p =[-1 -2 3 1
-1 1 5 -3]
目标矢量为 t = [-1 -1 1 1]
解:本例的 MATLAB 程序如下:
close all
clear
echo on
clc
% NEWFF——生成一个新的前向神经网络
% TRAIN——对 BP 神经网络进行训练
% SIM——对 BP 神经网络进行仿真
pause
% 敲任意键开始
clc
% 定义训练样本
% P 为输入矢量
P=[-1, -2, 3, 1; -1, 1, 5, -3];
% T 为目标矢量
T=[-1, -1, 1, 1];
pause;
clc
% 创建一个新的前向神经网络
net=newff(minmax(P),[3,1],{'tansig','purelin'},'traingdm')
% 当前输入层权值和阈值
inputWeights=net.IW{1,1}
inputbias=net.b{1}
% 当前网络层权值和阈值
layerWeights=net.LW{2,1}
layerbias=net.b{2}
pause
clc
% 设置训练参数
net.trainParam.show = 50;
net.trainParam.lr = 0.05;
net.trainParam.mc = 0.9;
net.trainParam.epochs = 1000;
net.trainParam.goal = 1e-3;
pause
clc
% 调用 TRAINGDM 算法训练 BP 网络
[net,tr]=train(net,P,T);
pause
clc
% 对 BP 网络进行仿真
A = sim(net,P)
% 计算仿真误差
E = T - A
MSE=mse(E)
pause
clc
echo off
2、自己编写的bp神经网络
%严格按照BP网络计算公式来设计的一个matlab程序,对BP网络进行了优化设计
%yyy,即在o(k)计算公式时,当网络进入平坦区时(<0.0001)学习率加大, 出来后学习率又还原
%v(i,j)=v(i,j)+deltv(i,j)+a*dv(i,j); 动量项
clear all
clc %清除命令窗口
load data2;
d=data';
da=d(:,1:2);
c=ones(3000,1)*(-1);
dat = [c da];%组成输入增广矩阵
labels=d(:,3);
inputNums=3; %输入层节点
outputNums=1; %输出层节点
hideNums=10; %隐层节点数
maxcount=1000; %最大迭代次数
samplenum=3000; %一个计数器,无意义
precision=0.001; %预设精度
yyy=1.3; %yyy是帮助网络加速走出平坦区
alpha=0.01; %学习率设定值
a=0.5; %BP优化算法的一个设定值,对上组训练的调整值按比例修改
error=zeros(1,maxcount+1); %error数组初始化;目的是预分配内存空间
errorp=zeros(1,samplenum); %同上
v=rand(inputNums,hideNums); %3*10;v初始化为一个3*10的随机归一矩阵; v表输入层到隐层的权值
deltv=zeros(inputNums,hideNums); %3*10;内存空间预分配
dv=zeros(inputNums,hideNums); %3*10;
w=rand(hideNums,outputNums); %10*3;w表隐层到输出层的权值
deltw=zeros(hideNums,outputNums);%10*3
dw=zeros(hideNums,outputNums); %10*3
samplelist=dat;
expectlist=labels;
%samplelist=[0.1323,0.323,-0.132;0.321,0.2434,0.456;-0.6546,-0.3242,0.3255]; %3*3;指定输入值3*3(实为3个向量)
%expectlist=[0.5435,0.422,-0.642;0.1,0.562,0.5675;-0.6464,-0.756,0.11]; %3*3;期望输出值3*3(实为3个向量)
count=1;
while (count<=maxcount) %结束条件1迭代1000次
c=1;
while (c<=samplenum)%对于每个样本输入,计算输出,进行一次BP训练
for k=1:outputNums %获得每个样本的期望输出
d(k)=expectlist(c,k); %获得期望输出的向量,d(1:3)表示一个期望向量内的值
end
for i=1:inputNums %获得每个样本的输入向量
x(i)=samplelist(c,i); % x(1:3)表一个训练向量
end
%Forward();
for j=1:hideNums %对于每个隐藏节点,求其输出为样本各维乘以相应权重的累加和
net=0.0;
for i=1:inputNums
net=net+x(i)*v(i,j);
end
y(j)=1/(1+exp(-net));
end
for k=1:outputNums %求每个输出节点的值
net=0.0;
for j=1:hideNums
net=net+y(j)*w(j,k);
end
if count>=2&&error(count)-error(count+1)<=0.0001
o(k)=1/(1+exp(-net)/yyy); %平坦区加大学习率
else o(k)=1/(1+exp(-net));
end
end
%BpError(c)反馈/修改;
errortmp=0.0;
for k=1:outputNums
errortmp=errortmp+(d(k)-o(k))^2; % 第一组训练后的误差计算
end
errorp(c)=0.5*errortmp;
%end
%Backward();
for k=1:outputNums
yitao(k)=(d(k)-o(k))*o(k)*(1-o(k)); %输出层误差偏导
end
for j=1:hideNums
tem=0.0;
for k=1:outputNums
tem=tem+yitao(k)*w(j,k); %为了求隐层偏导,而计算的∑
end
yitay(j)=tem*y(j)*(1-y(j)); %隐层偏导
end
%调整各层权值
for j=1:hideNums %调节到每个隐藏点到输出点的权重
for k=1:outputNums
deltw(j,k)=alpha*yitao(k)*y(j); %权值w的调整量deltw(已乘学习率)
w(j,k)=w(j,k)+deltw(j,k)+a*dw(j,k);%权值调整,这里的dw=dletw(t-1),实际是对BP算法的一个
dw(j,k)=deltw(j,k); %改进措施--增加动量项目的是提高训练速度
end
end
for i=1:inputNums %调节每个输入点到隐藏点的权重
for j=1:hideNums
deltv(i,j)=alpha*yitay(j)*x(i); %同上deltw
v(i,j)=v(i,j)+deltv(i,j)+a*dv(i,j);
dv(i,j)=deltv(i,j);
end
end
c=c+1; %输入下一个样本数据
end %第二个while结束;表示一次BP训练结束
double tmp;
tmp=0.0; %字串8
for i=1:samplenum
tmp=tmp+errorp(i)*errorp(i);%误差求和
end
tmp=tmp/c;
error(count)=sqrt(tmp);%求迭代第count轮的误差求均方根,即精度
if (error(count)
break;
end
count=count+1;%训练次数加1
end% 第一个while结束
error(maxcount+1)=error(maxcount);
p=1:count;
pp=p/50;
plot(pp,error(p),'-'); %显示误差
matlab神经网络的简单程序设计,BP神经网络设计的matlab简单实现相关推荐
- matlab神经网络(二)-bp神经网络,MATLAB神经网络(2) BP神经网络的非线性系统建模——非线性函数拟合...
2.1 案例背景 在工程应用中经常会遇到一些复杂的非线性系统,这些系统状态方程复杂,难以用数学方法准确建模.在这种情况下,可以建立BP神经网络表达这些非线性系统.该方法把未知系统看成是一个黑箱,首先用 ...
- 《MATLAB 神经网络43个案例分析》:第25章 基于MIV的神经网络变量筛选----基于BP神经网络的变量筛选
<MATLAB 神经网络43个案例分析>:第25章 基于MIV的神经网络变量筛选----基于BP神经网络的变量筛选 1. 前言 2. MATLAB 仿真示例 3. 小结 1. 前言 < ...
- 【PID优化】基于matlab粒子群算法优化BP神经网络PID控制【含Matlab源码 2022期】
⛄一.粒子群算法优化BP神经网络PID控制简介 BP神经网络PID控制算法 传统PID控制器作为一种线性控制器,具备结构,容易实现的优点,其基本原理是将系统的实际输出值和期望输出值之间的偏差按照比例. ...
- matlab麻雀搜索算法(SSA)优化BP神经网络,权值和阈
matlab麻雀搜索算法(SSA)优化BP神经网络,权值和阈值,一个压缩包共三个文件,包括有数据和代码,放入自己的数据即可得出仿真图形 ID:296679013048817MATLAB
- BP神经网络优化 | MATLAB基于飞蛾扑火算法优化BP神经网络(MFO-BP)的预测模型(完整代码在文末)
飞蛾扑火( Moth-flame optimization algorithm,MFO) 是Seyedali Mirjalili等于2015年提出的一种新型智能优化算法.该算法具有并行优化能力强,全局 ...
- bp神经网络数据预测实例,bp神经网络实例分析
BP人工神经网络方法 (一)方法原理人工神经网络是由大量的类似人脑神经元的简单处理单元广泛地相互连接而成的复杂的网络系统.理论和实践表明,在信息处理方面,神经网络方法比传统模式识别方法更具有优势. 人 ...
- bp神经网络实验报告结论,bp神经网络实验报告
bp神经网络 BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络 ...
- bp神经网络performance怎么看,BP神经网络用什么软件
1.除了MATLAB能做BP神经网络,还有其他什么软件能做 除了MATLAB能做BP神经网络,还有其他什么软件能做 理论上编程语言都可以,比如VB,C语言,过程也都是建模.量化.运算及结果输出(图.表 ...
- bp神经网络需要多少样本,bp神经网络训练时间
1.BP神经网络的训练集需要大样本吗?一般样本个数为多少? BP神经网络的训练集需要大样本吗?一般样本个数为多少? BP神经网络样本数有什么影响 学习神经网络这段时间,有一个疑问,BP神经网络中训练的 ...
最新文章
- 2020年PHP中级面试知识点及答案
- RocketMQ架构模块解析
- Windows PE 第八章 延迟加载导入表
- 关于NHibernate中关系表的操作
- java如何加载lambda_Java 8 lambda表达式引入及简单使用
- [mybatis]Configuration XML_properties
- 将Spring Boot应用程序与Amazon Cognito集成
- 图论与java_算法笔记_150:图论之双连通及桥的应用(Java)
- 十三种技术文档模板_在线文档,知多少?
- 【转载】Python线程、进程和协程详解
- 【BZOJ2152】聪聪可可,dfs+递推/点分治
- mysql任务计划怎么定制_mysql计划任务
- 剑指offer题目系列一
- 维特比算法( viterbi)
- Jzoj 一维数组(包括排序)部分代码(共42题)
- Elasticsearch优化原理
- Python eval()和exec()函数详解
- 2022高教社杯 国赛数学建模 A题思路
- Michael喜欢滑雪百这并不奇怪(记忆化搜索)
- S2SH水费管理系统-JAVA【毕业设计、快速开发、源码、开题报告】
热门文章
- 【java】在分页查询结果中对最后的结果集List进行操作add()或remove()操作,报错:java.lang.UnsupportedOperationException...
- Android 自定义Toast实现多次触发只会显示一次toast
- 【机器学习实战】第3章 决策树(Decision Tree)
- leetcode63. Unique Paths II
- [JavaWebService-axis]-环境搭建
- 干粮 -- 计算机程序设计艺术(The Art of Computer Design) - 2
- mysql集群安装配置
- 安装第三方包查看python版本/第三方包版本
- Python filter() 函数
- 新手探索NLP(七)——情感分析