【ELMAN回归预测】基于matlab鲸鱼算法优化ELMAN回归预测【含Matlab源码 1667期】
一、鲸鱼算法优化BP神经网络简介
1 鲸鱼优化算法(Whale Optimization Algorithm,WOA)简介
鲸鱼优化算法(WOA),该算法模拟了座头鲸的社会行为,并引入了气泡网狩猎策略。
1.1 灵感
鲸鱼被认为是世界上最大的哺乳动物。一头成年鲸可以长达 30 米,重 180 吨。这种巨型哺乳动物有 7 种不同的主要物种,如虎鲸,小须鲸,鳁鲸,座头鲸,露脊鲸,长须鲸和蓝鲸等。鲸通常被认为是食肉动物,它们从不睡觉,因为它们必须到海洋表面进行呼吸,但事实上,鲸鱼有一半的大脑都处于睡眠状态。
鲸鱼在大脑的某些区域有与人类相似的细胞,这些细胞被称为纺锤形细胞(spindle cells)。这些细胞负责人类的判断、情感和社会行为。换句话说,纺锤形细胞使我们人类有别于其他生物。鲸鱼的这些细胞数量是成年人的两倍,这是它们具有高度智慧和更富情感的主要原因。已经证明,鲸鱼可以像人类一样思考、学习、判断、交流,甚至变得情绪化,但显然,这都只是在一个很低的智能水平上。据观察,鲸鱼(主要是虎鲸)也能发展自己的方言。
另一个有趣的点是关于鲸鱼的社会行为,它们可独居也可群居,但我们观察到的大多数仍然是群居。它们中的一些物种(例如虎鲸)可以在整个生命周期中生活在一个家族中。最大的须鲸之一是座头鲸,一头成年座头鲸几乎和一辆校车一样大。它们最喜欢的猎物是磷虾和小鱼群。图1显示的就是这种哺乳动物。
图1 座头鲸的气泡网进食行为
关于座头鲸最有趣的事情是它们特殊的捕猎方法了。这种觅食行为被称为气泡网觅食法(bubble-net feeding method)。座头鲸喜欢在接近海面的地方捕食磷虾或小鱼。据观察,这种觅食是通过在圆形或类似数字“9”形路径上制造独特的气泡来完成的,如图 1 所示。在 2011 年之前,这一行为仅仅是基于海面观测的。然而,有研究者利用标签传感器研究了这种行为。他们捕获了9头座头鲸身上300个由标签得到的气泡网进食事件。他们发现了两种与气泡有关的策略,并将它们命名为上升螺旋(upward-spirals)和双螺旋(doubleloops)。在前一种策略中,座头鲸会潜到水下 12 米左右,然后开始在猎物周围制造一个螺旋形的泡泡,并游向水面;后一种策略包括三个不同的阶段:珊瑚循环,用尾叶拍打水面以及捕获循环。这里不展开详细描述。
但是气泡网捕食是只有座头鲸独有的一种特殊行为,而鲸鱼优化算法就是模拟了螺旋气泡网进食策略达到优化的目的。
1.2 数学建模和优化算法
1.2.1 包围捕食(Encircling prey)
座头鲸可以识别猎物的位置并将其包围。由于最优设计在搜索空间中的位置不是先验已知的,WOA 算法假设当前的最佳候选解是目标猎物或接近最优解。在定义了最佳搜索代理之后,其他搜索代理将因此尝试向最佳搜索代理更新它们的位置。这种行为由下列方程表示:
图 2a 描述了等式(2)针对2D问题的基本原理,搜索代理的位置( X , Y )可以根据当前最优解的位置( X ∗ , Y ∗ )进行更新,通过调整向量 A ⃗ 和C的值,可以找到相对于当前位置下一时刻最优代理附近的不同地方。在 3D 空间中搜索代理可能的更新位置如图 2b。通过定义随机向量 r ,可以到达图 2 中所示关键点之间的搜索空间内任何位置,因此等式(2)允许任何搜索代理在当前最优解的邻域内更新其位置,从而模拟了鲸鱼的包围捕食。相似的概念也可以扩展到 n 维搜索空间。注意图2中的两幅图均是在a=1和C=1情况下的。
图2 2D和3D位置向量及其可能的下一个位置
1.2.2 气泡网攻击方式(Bubble-net attacking method)(利用阶段)
共设计了两种方法来对座头鲸的气泡网行为进行建模:
收缩包围机制:通过降低式(3)中 a 的值实现。注意 A的波动范围也通过 a降低,换句话说,A 是一个区间[-a,a]内的随机值,a 随着迭代进行从 2 降为 0。设置 A中的随机值在[-1,1]之间,搜索代理的新位置可以定义为代理原始位置与当前最优代理位置之间的任意位置。图 3a 显示了 2D 空间中当 0 ≤ A ≤ 1 0 时从 ( X , Y )靠近 ( X ∗ , Y ∗ ) 所有可能的位置。这种机制本质上就是包围捕食。
螺旋更新位置。如图 3b,该方法首先计算鲸鱼位置 ( X , Y ) 与猎物位置 ( X ∗ , Y ∗ ) 之间的距离,然后在鲸鱼与猎物位置之间创建一个螺旋等式,来模仿座头鲸的螺旋状移动:
(a)收缩包围机制
(b)螺旋更新位置
图3 WOA中实现的气泡网搜索机制
值得注意的是,座头鲸在一个不断缩小的圆圈内绕着猎物游动,同时沿着螺旋形路径游动。为了对这种同时发生的行为进行建模,假设有 50%的可能性在收缩包围机制和螺旋模型之间进行选择,以便在优化过程中更新鲸鱼的位置,数学模型如下:
其中 p pp 为[0,1]之间的随机数。
1.2.3搜索猎物(Search for prey)(exploration phase)
除了泡泡网方法,座头鲸还会随机寻找猎物,同样基于可变 A向量,事实上,座头鲸会根据彼此的位置进行随机搜索,因此使用随机值大于1或小于-1的 A ⃗ 来迫使搜索代理远离参考鲸鱼。与利用阶段相反,这里将根据随机选择的搜索代理来更新搜索代理在探索阶段的位置,而不是根据目前为止最优的搜索代理。该机制和 ∣ A ⃗ ∣ > 1 强调了探索,并允许WOA算法执行全局搜索。数学模型如下:
其中 X → r a n d 为从当前种群中选择的随机位置向量(表示一头随机鲸鱼)。
特定解附近满足 A ⃗ > 1的一些可能解如图 4 所示。
图4 WOA中的探索机制(X*是一个随机选择的搜索代理)
WOA算法首先随机初始化一组解,在每次迭代中,搜索代理根据随机选择的搜索代理或到目前为止获得的最优解更新它们的位置。将 a aa 参数由 2 随迭代次数降为 0,从而由探索逐步到利用。当 ∣ A ⃗ ∣ > 1 时选择随机搜索代理,∣ A ⃗ ∣ < 1 时选择最优解更新搜索代理位置。根据 p pp 的值,WOA可以在螺旋运动和圆环运动之间进行切换。最后,通过满足终止准则来终止WOA算法。WOA算法的伪代码如图5所示。
图5 WOA算法伪代码
1.3 代码分析
只要明白了原理的基本流程,其实代码就没有说明困难了,咱们主要介绍一下如何实现上述分析的几个重要原理,所要优化的问题的是三十个数的平方和最小
(1)参数初始化。初始时主要设置代理数量和最大迭代次数即可,其他算法相关的参数因为和当前迭代次数相关,需要在迭代中设置。
SearchAgents_no=30; % 搜索代理数量
Max_iteration=500; % 最大迭代次数
``
**(2) 种群初始化**。随机初始化所有代理各个维度上的位置值,需要保证在取值范围内。```c
Positions=rand(SearchAgents_no,dim).*(ub-lb)+lb;
(3)种群评估。评估种群中每个代理的目标值,如有某个代理由于当前最优解,则将其设为最优解。
for i=1:size(Positions,1)% 计算每个代理的目标值fitness=fobj(Positions(i,:));% 更新最优解if fitness<Leader_score % 如果是最大化问题,这里就是">"Leader_score=fitness; Leader_pos=Positions(i,:);end
end
(4)设置和迭代次数相关的算法参数。
a=2-t*((2)/Max_iter); % 等式(3)中a随迭代次数从2线性下降至0
%a2从-1线性下降至-2,计算l时会用到
a2=-1+t*((-1)/Max_iter);
(5)对每个代理的每一维度进行位置更新。
% Update the Position of search agents
for i=1:size(Positions,1)r1=rand(); % r1为[0,1]之间的随机数r2=rand(); % r2为[0,1]之间的随机数A=2*a*r1-a; % 等式(3)C=2*r2; % 等式(4)b=1; % 等式(5)中的常数bl=(a2-1)*rand+1; % 等式(5)中的随机数lp = rand(); % 等式(6)中的概率pfor j=1:size(Positions,2)if p<0.5 if abs(A)>=1rand_leader_index = floor(SearchAgents_no*rand()+1);X_rand = Positions(rand_leader_index, :);D_X_rand=abs(C*X_rand(j)-Positions(i,j)); % 等式(7)Positions(i,j)=X_rand(j)-A*D_X_rand; % 等式(8)elseif abs(A)<1D_Leader=abs(C*Leader_pos(j)-Positions(i,j)); % 等式(1)Positions(i,j)=Leader_pos(j)-A*D_Leader; % 等式(2)endelseif p>=0.5distance2Leader=abs(Leader_pos(j)-Positions(i,j));% 等式(5)Positions(i,j)=distance2Leader*exp(b.*l).*cos(l.*2*pi)+Leader_pos(j);endend
end
2 WOA算法优化BP神经网络
WOA算法优化BP神经网络的基本思想是:利用改进后的WOA算法优化BP神经网络的初始权值和阈值,将BP神经网络的训练误差作为个体的适应度值,选择最优的BP神经网络初始权值和阈值。具体的流程如下:
1)BP神经网络初始化。确定网络的输入和输出结构、初始的连接权值和阈值。
2)改进后的WOA初始化。将步骤1)中的初始权值和阈值转化为改进后的WOA的位置向量;并且初始化算法的其他基本参数,设置种群规模N、最大迭代次数Tmax、初始最小权重w1、初始最大权重w2和收敛因子a。同时,将改进的WOA的适应度函数F(x)作为模型预测输出值与实测值之间的均方误差。
3)计算个体适应度值。找出最优适应度值的位置,记录下位置向量并将其作为当前最优个体位置xbest(t)。
4)根据A的值来采取不同的位置更新策略。如果|A|≥1,按式(2)更新下一代的位置;如果|A|<1,按式(13)更新下一代的位置。
5)满足最大迭代次数或达到误差精度要求后终止寻优算法,将当前的最优参数赋值给BP神经网络。
改进后的预测模型的流程图如图2所示。
图2 改进的预测模型流程图
二、部分源代码
%% 初始化
clear
close all
clc
warning off%% 数据读取
data=xlsread('数据.xlsx','Sheet1','A1:N252'); %%使用xlsread函数读取EXCEL中对应范围的数据即可%输入输出数据
input=data(:,1:end-1)*rand(1); %data的第一列-倒数第二列为特征指标
output=data(:,end)*rand(1); %data的最后面一列为输出的指标值N=length(output); %全部样本数目
testNum=15; %设定测试样本数目
trainNum=N-testNum; %计算训练样本数目%% 划分训练集、测试集
input_train = input(1:trainNum,:)';
output_train =output(1:trainNum)';
input_test =input(trainNum+1:trainNum+testNum,:)';
output_test =output(trainNum+1:trainNum+testNum)';%% 数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);
[outputn,outputps]=mapminmax(output_train);
inputn_test=mapminmax('apply',input_test,inputps);%% 获取输入层节点、输出层节点个数
inputnum=size(input,2);
outputnum=size(output,2);
disp('/')
disp('神经网络结构...')
disp(['输入层的节点数为:',num2str(inputnum)])
disp(['输出层的节点数为:',num2str(outputnum)])
disp(' ')
disp('隐含层节点的确定过程...')%确定隐含层节点个数
%采用经验公式hiddennum=sqrt(m+n)+a,m为输入层节点个数,n为输出层节点个数,a一般取为1-10之间的整数
MSE=1e+5; %初始化最小误差
for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10%构建网络net=newelm(inputn,outputn,hiddennum);% 网络参数net.trainParam.epochs=1000; % 训练次数net.trainParam.lr=0.01; % 学习速率net.trainParam.goal=0.000001; % 训练目标最小误差% 网络训练net=train(net,inputn,outputn);an0=sim(net,inputn); %仿真结果mse0=mse(outputn,an0); %仿真的均方误差disp(['隐含层节点数为',num2str(hiddennum),'时,训练集的均方误差为:',num2str(mse0)])%更新最佳的隐含层节点if mse0<MSEMSE=mse0;hiddennum_best=hiddennum;end
end
disp(['最佳的隐含层节点数为:',num2str(hiddennum_best),',相应的均方误差为:',num2str(MSE)])%% 构建最佳隐含层节点的ELMAN神经网络
disp(' ')
disp('标准的ELMAN神经网络:')
net0=newelm(inputn,outputn,hiddennum_best,{'tansig','purelin'},'trainlm');% 建立模型%网络参数配置
net0.trainParam.epochs=1000; % 训练次数,这里设置为1000次
net0.trainParam.lr=0.01; % 学习速率,这里设置为0.01
net0.trainParam.goal=0.00001; % 训练目标最小误差,这里设置为0.0001
net0.trainParam.show=25; % 显示频率,这里设置为每训练25次显示一次
net0.trainParam.mc=0.01; % 动量因子
net0.trainParam.min_grad=1e-6; % 最小性能梯度
net0.trainParam.max_fail=6; % 最高失败次数%开始训练
net0=train(net0,inputn,outputn);%预测
an0=sim(net0,inputn_test); %用训练好的模型进行仿真%预测结果反归一化与误差计算
test_simu0=mapminmax('reverse',an0,outputps); %把仿真得到的数据还原为原始的数量级
%误差指标
[mae0,mse0,rmse0,mape0,error0,errorPercent0]=calc_error(output_test,test_simu0);%% 鲸鱼优化算法寻最优权值阈值
disp(' ')
disp('WOA优化ELMAN神经网络:')
net=newelm(inputn,outputn,hiddennum_best,{'tansig','purelin'},'trainlm');% 建立模型%网络参数配置
net.trainParam.epochs=1000; % 训练次数,这里设置为1000次
net.trainParam.lr=0.01; % 学习速率,这里设置为0.01
net.trainParam.goal=0.00001; % 训练目标最小误差,这里设置为0.0001
net.trainParam.show=25; % 显示频率,这里设置为每训练25次显示一次
net.trainParam.mc=0.01; % 动量因子
net.trainParam.min_grad=1e-6; % 最小性能梯度
net.trainParam.max_fail=6; % 最高失败次数%% 初始化WOA参数
popsize=30; %初始种群规模
maxgen=50; %最大进化代数
dim=inputnum*hiddennum_best+hiddennum_best*hiddennum_best+hiddennum_best+hiddennum_best*outputnum+outputnum; %自变量个数
lb=repmat(-3,1,dim); %自变量下限
ub=repmat(3,1,dim); %自变量上限
%初始化位置向量和领导者得分
Leader_pos=zeros(1,dim);
Leader_score=10^20;
Net=net;%% 初始化种群
for i=1:dimub_i=ub(i);lb_i=lb(i);Positions(:,i)=rand(popsize,1).*(ub_i-lb_i)+lb_i;
end
三、运行结果
四、matlab版本及参考文献
1 matlab版本
2014a
2 参考文献
[1] 包子阳,余继周,杨杉.智能优化算法及其MATLAB实例(第2版)[M].电子工业出版社,2016.
[2]张岩,吴水根.MATLAB优化算法源代码[M].清华大学出版社,2017.
[3]周品.MATLAB 神经网络设计与应用[M].清华大学出版社,2013.
[4]陈明.MATLAB神经网络原理与实例精解[M].清华大学出版社,2013.
[5]方清城.MATLAB R2016a神经网络设计与应用28个案例分析[M].清华大学出版社,2018.
[6]群体智能优化算法之鲸鱼优化算法(Whale Optimization Algorithm,WOA)
【ELMAN回归预测】基于matlab鲸鱼算法优化ELMAN回归预测【含Matlab源码 1667期】相关推荐
- 【LSSVM回归预测】基于matlab鲸鱼算法优化LSSVM回归预测【含Matlab源码 104期】
⛄一.鲸鱼算法及LSSVM简介 1 鲸鱼优化算法(Whale Optimization Algorithm,WOA)简介 鲸鱼优化算法(WOA),该算法模拟了座头鲸的社会行为,并引入了气泡网狩猎策略. ...
- 机器学习之MATLAB代码--IWOA_BILSTM(基于改进鲸鱼算法优化的BiLSTM预测算法)(十六)
机器学习之MATLAB代码--IWOA_BILSTM基于改进鲸鱼算法优化的BiLSTM预测算法(十六) 代码 数据 结果 代码 1. %% 基于改进鲸鱼算法优化的BiLSTM预测算法 clear;cl ...
- 【MVO TSP】基于matlab灰狼算法求解旅行商问题【含Matlab源码 1327期】
一.获取代码方式 获取代码方式1: 完整代码已上传我的资源:[TSP]基于matlab灰狼算法求解旅行商问题[含Matlab源码 1327期] 点击上面蓝色字体,直接付费下载,即可. 获取代码方式2: ...
- 【BA TSP】基于matlab蜜蜂算法求解旅行商问题【含matlab源码 1248期】
⛄一.获取代码方式 获取代码方式1: 完整代码已上传我的资源:[TSP]基于matlab蜜蜂算法求解旅行商问题[含matlab源码 1248期] 获取代码方式2: 付费专栏Matlab路径规划(初级版 ...
- 【IA TSP】基于matlab免疫算法求解旅行商问题【含Matlab源码 195期】
一.获取代码方式 获取代码方式1: 完整代码已上传我的资源:[旅行商问题]基于matlab免疫算法求解旅行商问题[含Matlab源码 195期] 点击上面蓝色字体,直接付费下载,即可. 获取代码方式2 ...
- 【Matlab验证码识别】遗传算法和最大熵优化+大津法(OTSU)+自定义阈值数字验证码识别【含GUI源码 1694期】
一.代码运行视频(哔哩哔哩) [Matlab验证码识别]遗传算法和最大熵优化+大津法(OTSU)+自定义阈值数字验证码识别[含GUI源码 1694期] 二.matlab版本及参考文献 1 matlab ...
- 【Matlab电力负荷预测】粒子群优化支持向量机短期电力负荷预测【含GUI源码 751期】
一.代码运行视频(哔哩哔哩) [Matlab电力负荷预测]粒子群优化支持向量机短期电力负荷预测[含GUI源码 751期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 ...
- 【Matlab图像加密】正交拉丁方置乱算法图像加解密【含GUI源码 182期】
一.代码运行视频(哔哩哔哩) [Matlab图像加密]正交拉丁方置乱算法图像加解密[含GUI源码 182期] 二.matlab版本及参考文献 一.代码运行视频(哔哩哔哩) [Matlab图像处理]自动 ...
- 【Matlab图像融合】小波变换遥感图像融合【含GUI源码 744期】
一.代码运行视频(哔哩哔哩) [Matlab图像融合]小波变换遥感图像融合[含GUI源码 744期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 包子阳,余 ...
- 【Matlab指纹识别】指纹识别门禁系统【含GUI源码 1692期】
一.代码运行视频(哔哩哔哩) [Matlab指纹识别]指纹识别门禁系统[含GUI源码 1692期] 二.matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 包子阳,余继 ...
最新文章
- Python面向对象基础:设置对象属性
- 交换网络安全防范系列五之802.1x-基于端口的网络访问控制技术
- 【JVM调优】JVM内存管理调优浅谈
- Bootstrap源码分析之transition、affix
- dell跳过开机硬件检测,关闭dell开机硬件自检 戴尔笔记本电脑每次开机自动硬件检查怎么取消?...
- 【hdu 6038】Function
- python语言三大基本控制结构_Python基础知识之4——三大控制结构
- 基于FPGA的DDR3多端口读写存储管理系统设计
- mysql执行计划中 性能最好_MySQL性能优化-explain执行计划
- docker 安装依赖_史上最全Docker环境安装指南-让安装docker简单到爆
- docker api java_docker-java Docker的java API
- 公众号开发 单独 给某个用户 推送消息_校区学生会微信公众平台征稿启事
- Unity3D AssetBundle相关
- 人力资源分析测试工具软件,HR常用的3大人才测评工具,你会用几个?
- 禁止小程序输入Emoji表情符
- 殿影酒店即将开业,推出电影和酒店的跨界创新模式
- 受限玻尔兹曼机(RBM)学习笔记(四)对数似然函数
- 企业级应用Service Management Automation X(SMAX)的微服务之路
- CentOS7(Linux)在VMware Workstation上的 安装使用教程
- 峨眉计算机学校,四川省峨眉山市职业技术学校