一、DBN算法简介

DBN是深度学习方法中的一种常用模型,是一种融合了深度学习与特征学习的神经网络。DBN网络结构是由若干层受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)和一层BP组成的一种深层神经网络。DBN结构如图2所示。


图2 DBN结构示意图
DBN训练过程由预训练和微调构成,数据首先由输入层输入到网络结构中,生成一个向量V,通过权重值W传给隐藏层得到H,单独无监督训练每一层RBM网络,确保特征向量映射到不同特征空间,最后由BP网络接收RBM的输出特征向量作为它的输入特征向量,反向传播网络自顶向下将错误信息传播给每一层RBM,微调整个DBN网络,进行有监督的训练,最终得到网络中的权重以及偏置。

1 受限玻尔兹曼机
RBM是1986年由Smolensky提出的一种可通过输入数据集学习概率分布的随机生成神经网络。RBM模型是包含一种可观察变量(v)和单层隐藏变量(h)的无向概率图,RBM只有两层神经元,它是一个二分图,两层间的单元相互连接,层内的任何单元之间不存在连接。RBM结构见图3。

图3 RBM结构示意图
RBM是一种基于能量的模型,任何两个连接的神经元之间都有一个权重W来表示连接权重Wij, Wij表示可观察变量单元i和隐藏变量单元j之间的权重,观察层与隐藏层分别用v和h来表示,则连接权重与偏差决定的观察层变量v和隐藏层变量h的联合配置能量如下:

其中ai是可观察层单元的偏置,bj是隐藏层单元的偏置,Wij为可观察层单元与隐藏层单元之间的连接权重,基于能量函数的可观察层和隐藏层可以得到概率分布:

其中Z为配分函数的归一化常数,即所有参数下的能量之和,该函数累加所有可观察向量和隐藏向量的可能组合。

RBM中的每层中的神经元只存在两种状态0或1,给定任意层中的各神经元的状态,可以得到可观察层神经元和隐藏层神经元的状态概率如下:

根据Hinton在2002年提出的对比散度,可知参数的变化规则如下:

其中,ε是学习率,⟨⋅⟩data表示训练原始数据集的模型定义的分布,⟨⋅⟩recon表示一步重构后模型定义的分布。

二、部分源代码

tic;
clear all
close all
format compact
format long
%% 1.数据加载
fprintf(1,'加载数据 \n');
load('drivFace600');%其中1-173为1类,174-343为2类 344-510为3类 511-600为4类,各选择20%作为测试集
%第一类173组
[i1 i2]=sort(rand(173,1));
train(1:139,:)=input(i2(1:139),:);     train_label(1:139,1)=output(i2(1:139),1);
test(1:34,:)=input(i2(140:173),:);     test_label(1:34,1)=output(i2(140:173),1);
%第二类有170组
[i1 i2]=sort(rand(170,1));
train(140:275,:)=input(173+i2(1:136),:);    train_label(140:275,1)=output(173+i2(1:136),1);
test(35:68,:)=input(173+i2(137:170),:);     test_label(35:68,1)=output(173+i2(137:170),1);
%第三类有167
[i1 i2]=sort(rand(167,1));
train(276:408,:)=input(343+i2(1:133),:);    train_label(276:408,1)=output(343+i2(1:133),1);
test(69:102,:)=input(343+i2(134:167),:);     test_label(69:102,1)=output(343+i2(134:167),1);
%第4类有90
[i1 i2]=sort(rand(90,1));
train(409:480,:)=input(510+i2(1:72),:);    train_label(409:480,1)=output(510+i2(1:72),1);
test(103:120,:)=input(510+i2(73:90),:);     test_label(103:120,1)=output(510+i2(73:90),1);
clear i1 i2 input output
%%打乱顺序
k=rand(480,1);[m n]=sort(k);
train=train(n(1:480),:);train_label=train_label(n(1:480),:);
k=rand(120,1);[m n]=sort(k);
test=test(n(1:120),:);test_label=test_label(n(1:120),:);
clear k m n%no_dims = round(intrinsic_dim(train, 'MLE')); %round四舍五入
%disp(['MLE estimate of intrinsic dimensionality: ' num2str(no_dims)]);
numcases=48;%每块数据集的样本个数
numdims=size(train,2);%单个样本的大小
numbatches=10;  %%原则上每块的样本个数要大于分块数% 训练数据
x=train;%将数据转换成DBN的数据格式
for i=1:numbatchestrain1=x((i-1)*numcases+1:i*numcases,:);batchdata(:,:,i)=train1;
end%将分好的10组数据都放在batchdata中% rbm参数
maxepoch=20;%训练rbm的次数
numhid=500; numpen=200; numpen2=100;%dbn隐含层的节点数
disp('构建一个3层的置信网络');
clear i
%% 2.训练RBM
fprintf(1,'Pretraining Layer 1 with RBM: %d-%d \n',numdims,numhid);%256-200
restart=1;
rbm;%使用cd-k训练rbm,注意此rbm的可视层不是二值的,而隐含层是二值的
vishid1=vishid;hidrecbiases=hidbiases;fprintf(1,'\nPretraining Layer 2 with RBM: %d-%d \n',numhid,numpen);%200-100
batchdata=batchposhidprobs;%将第一个RBM的隐含层的输出作为第二个RBM 的输入
numhid=numpen;%将numpen的值赋给numhid,作为第二个rbm隐含层的节点数
restart=1;
rbm;
hidpen=vishid; penrecbiases=hidbiases; hidgenbiases=visbiases;fprintf(1,'\nPretraining Layer 3 with RBM: %d-%d \n',numpen,numpen2);%200-100batchdata=batchposhidprobs;%显然,将第二哥RBM的输出作为第三个RBM的输入
numhid=numpen2;%第三个隐含层的节点数
restart=1;
rbm;
hidpen2=vishid; penrecbiases2=hidbiases; hidgenbiases2=visbiases;
function per_accuracy_crossvalindation= pso_fitnessnew(xx,batchdata,train,train_label)maxepoch=20;%训练rbm的次数
%% 训练第1层RBM
numhid=xx(1,1);
restart=1;
rbm1;%使用cd-k训练rbm,注意此rbm的可视层不是二值的,而隐含层是二值的
vishid1=vishid;hidrecbiases=hidbiases;
%% 训练第2层RBMbatchdata=batchposhidprobs;%将第一个RBM的隐含层的输出作为第二个RBM 的输入
numhid=xx(1,2);%将numpen的值赋给numhid,作为第二个rbm隐含层的节点数
restart=1;
rbm1;
hidpen=vishid; penrecbiases=hidbiases; hidgenbiases=visbiases;
%% 训练第3层RBMbatchdata=batchposhidprobs;%显然,将第二个RBM的输出作为第三个RBM的输入
numhid=xx(1,3);%第三个隐含层的节点数
restart=1;
rbm1;
hidpen2=vishid; penrecbiases2=hidbiases; hidgenbiases2=visbiases;
%% 训练第4层RBMbatchdata=batchposhidprobs;%显然,将第二哥RBM的输出作为第三个RBM的输入
numhid=xx(1,4);%第三个隐含层的节点数
restart=1;
rbm1;
hidpen3=vishid; penrecbiases3=hidbiases; hidgenbiases3=visbiases;%% 训练极限学习机% 训练集特征输出
w1=[vishid1; hidrecbiases];
w2=[hidpen; penrecbiases];
w3=[hidpen2; penrecbiases2];
w4=[hidpen3; penrecbiases3];
digitdata = [train ones(size(train,1),1)];%x表示train数据集
w1probs = 1./(1 + exp(-digitdata*w1));%w1probs = [w1probs  ones(size(train,1),1)];%
w2probs = 1./(1 + exp(-w1probs*w2));%w2probs = [w2probs ones(size(train,1),1)];%
w3probs = 1./(1 + exp(-w2probs*w3)); %w3probs = [w3probs ones(size(train,1),1)];%
w4probs = 1./(1 + exp(-w3probs*w4)); % H_dbn = w4probs;  %%第4个rbm的实际输出值,也是elm的隐含层输出值H%% 交叉验证
indices = crossvalind('Kfold',size(H_dbn,1),10);%对训练数据进行10折编码
%[Train, Test] = crossvalind('HoldOut', N, P) % 将原始数据随机分为两组,一组做为训练集,一组做为验证集
%[Train, Test] = crossvalind('LeaveMOut', N, M) %留M法交叉验证,默认M为1,留一法交叉验证
sum_accuracy = 0;
for i = 1:10%%cross_test = (indices == i); %每次循选取一个fold作为测试集cross_train = ~cross_test;   %取corss_test的补集作为训练集,即剩下9个fold%%P_train = H_dbn(cross_train,:)';P_test= H_dbn(cross_test,:)';T_train= train_label(cross_train,:)';T_test=train_label(cross_test,:)';
% 训练ELM
lamda=0.001;  %% 正则化系数在0.0007-0.00037之间时,一个一个试出来的
H1=P_train+1/lamda;% 加入regularization factorT =T_train;            %训练集标签
T1=ind2vec(T);              %做分类需要先将T转换成向量索引
OutputWeight=pinv(H1') *T1';
Y=(H1' * OutputWeight)';temp_Y=zeros(1,size(Y,2));
for n=1:size(Y,2)[max_Y,index]=max(Y(:,n));temp_Y(n)=index;
end
Y_train=temp_Y;
%Y_train=vec2ind(temp_Y1);
H2=P_test+1/lamda;
T_cross=(H2' * OutputWeight)';                       %   TY: the actual output of the testing data
temp_Y=zeros(1,size(T_cross,2));
for n=1:size(T_cross,2)[max_Y,index]=max(T_cross(:,n));temp_Y(n)=index;
end
TY1=temp_Y;
% 加载输出
TV=T_test;
sum_accuracy=sum_accuracy+sum(TV==TY1) / length(TV);
endper_accuracy_crossvalindation=sum_accuracy/10;%利用交叉验证的平均精度做适应度函数
%========================================================
%===================交叉验证结束==========================
end

三、运行结果


四、matlab版本及参考文献

1 matlab版本
2014a

2 参考文献
[1] 包子阳,余继周,杨杉.智能优化算法及其MATLAB实例(第2版)[M].电子工业出版社,2016.
[2]张岩,吴水根.MATLAB优化算法源代码[M].清华大学出版社,2017.
[3]周品.MATLAB 神经网络设计与应用[M].清华大学出版社,2013.
[4]陈明.MATLAB神经网络原理与实例精解[M].清华大学出版社,2013.
[5]方清城.MATLAB R2016a神经网络设计与应用28个案例分析[M].清华大学出版社,2018.

【优化预测】基于matlab粒子群算法优化DBN预测【含Matlab源码 1420期】相关推荐

  1. 【ELM回归预测】基于matlab粒子群算法优化ELM回归预测【含Matlab源码 036期】

    一.获取代码方式 获取代码方式1: 完整代码已上传我的资源: [优化预测]基于matlab粒子群算法优化ELM神经网络预测[含Matlab源码 036期] 二.粒子群算法及ELM简介 1 粒子群算法简 ...

  2. 【数字信号去噪】基于matlab粒子群算法优化VMD分解分量选择数字信号降噪【含Matlab源码 1979期】

    ⛄一.获取代码方式 获取代码方式1: 完整代码已上传我的资源:[数字信号去噪]基于matlab粒子群算法优化VMD分解分量选择数字信号降噪[含Matlab源码 1979期] 点击上面蓝色字体,直接付费 ...

  3. 【Matlab肌电信号】肌电信号处理【含GUI源码 966期】

    一.代码运行视频(哔哩哔哩) [Matlab肌电信号]肌电信号处理[含GUI源码 966期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 包子阳,余继周,杨 ...

  4. 【Matlab图像检索】综合特征图像检索【含GUI源码 395期】

    一.代码运行视频(哔哩哔哩) [Matlab图像检索]综合特征图像检索[含GUI源码 395期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 蔡利梅.MAT ...

  5. 【Matlab语音处理】声音信号频谱分析仪【含GUI源码 325期】

    一.代码运行视频(哔哩哔哩) [Matlab语音处理]声音信号频谱分析仪[含GUI源码 325期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1]韩纪庆,张磊, ...

  6. 【Matlab条形码识别】二维条形码识别【含GUI源码 607期】

    一.代码运行视频(哔哩哔哩) [Matlab条形码识别]二维条形码识别[含GUI源码 607期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 蔡利梅.MAT ...

  7. 【ELM数据预测】基于matlab粒子群算法优化ELM数据预测(含前后对比)【含Matlab源码 449期】

    一.粒子群算法优化极限学习机ELM简介 PSO-ELM优化算法预测模型 ELM模型在训练之前可以随机产生ω和b, 只需要确定隐含层神经元个数及隐含层神经元激活函数, 即可实现ELM预测模型的构建.在E ...

  8. 【布局优化】基于改进粒子群算法实现充电桩选址优化问题附matlab代码

    1 简介 当前世界环境污染和能源危机问题凸显,电动汽车以零排放和低耗能的优势得到各国的大力关注和支持.以电动汽车为代表新能源汽车产业,成为国家七大战略性新兴产业之一.电动汽车具有良好的发展前景,市场规 ...

  9. 【SVM回归预测】基于matlab粒子群算法优化SVM回归预测【含Matlab源码 1424期】

    ⛄一.粒子群算法简介 1 引言 自然界中的鸟群和鱼群的群体行为一直是科学家的研究兴趣所在.生物学家Craig Reynolds在1987年提出了一个非常有影响的鸟群聚集模型,在他的仿真中,每一个个体都 ...

  10. 【SVM回归预测】基于matlab粒子群算法优化SVM回归预测(多输入多输出)【含Matlab源码 1421期】

    一.粒子群算法简介 1 引言 自然界中的鸟群和鱼群的群体行为一直是科学家的研究兴趣所在.生物学家Craig Reynolds在1987年提出了一个非常有影响的鸟群聚集模型,在他的仿真中,每一个个体都遵 ...

最新文章

  1. c# 的 textbox 默认情况下是有最大字符长度限制的
  2. opengl如何画出一个球_少儿美术绘画教程:毛线球
  3. 面试官最常问的问题总结(一)
  4. 二级菜单不同方法的实现
  5. 径向误差、偏心误差和薄棱镜误差
  6. Day10_界面叠加处理
  7. python maketrans函数_python中maketrans
  8. amd核芯显卡控制面板自定义分辨率_显卡是哪个
  9. 支持傲腾技术的服务器主板,采用英特尔® 傲腾™ 技术的数据中心存储
  10. java log4j jar下载_Apache Log4j1.2jar包
  11. vuecli3代码压缩混淆
  12. Java奖学金评定系统设计与实现
  13. 金蝶K3系统单据审核时报错:无效的过程调用或参数 处理方法
  14. 【CV系列】图像算法之一:Randon变换
  15. html代码向左居右对齐
  16. 关于syslog4j写syslogd服务器的参考代码
  17. 【Unity3D实战项目:疯狂杀戮】角色模型的行走控制(一)
  18. python正则表达式(关于提取数字)
  19. 你觉得程序员适合干一辈子吗?
  20. DNS服务器优化的几种方式

热门文章

  1. Redis简单入门认识
  2. GIMP的Path的import和export
  3. 535. Encode and Decode TinyURL - LeetCode
  4. AngularJS图片上传功能的实现
  5. 不同浏览器对URL最大长度的限制(转)
  6. 第7章 PCA与梯度上升法 学习笔记下
  7. 在相近背景中找圆和直线
  8. 190613每日一句
  9. Proe创建零件剖视图
  10. HTC Vive手柄实现在平面上划线