回归预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络多输入单输出回归预测
回归预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络多输入单输出回归预测
目录
- 回归预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络多输入单输出回归预测
- 预测效果
- 基本介绍
- 模型描述
- 程序设计
- 参考资料
预测效果
基本介绍
MATLAB实现GWO-LSTM灰狼算法优化长短期记忆网络多输入单输出。优化参数为学习率,隐藏层节点个数,正则化参数。
模型描述
- 灰狼优化算法(Grey Wolf Optimizer,GWO)由澳大利亚格里菲斯大学学者 Mirjalili 等人于2014年提出来的一种群智能优化算法。该算法受到了灰狼捕食猎物活动的启发而开发的一种优化搜索方法,它具有较强的收敛性能、参数少、易实现等特点。
- GWO算法的主要缺点是处理大量变量的能力和在解决大规模问题时逃避局部解的能力。混合GWO和其他当前的算法可以设计各种模型算法。通过使用其他算法的运算符,可以改进对GWO的探索和利用。
- GWO将群体分成四组,这被证明是解决基准问题的有效机制。在解决具有挑战性的现实问题时,考虑或多或少拥有不同数量狼的分组可以被视为一个研究领域,提高GWO的性能。
- 长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。
程序设计
- 完整程序和数据下载方式1(资源处直接下载):MATLAB实现GWO-LSTM灰狼算法优化长短期记忆网络多输入单输出
- 完整程序和数据下载方式2(订阅《智能学习》专栏,同时获取《智能学习》专栏收录程序6份,数据订阅后私信我获取):MATLAB实现GWO-LSTM灰狼算法优化长短期记忆网络多输入单输出
%% 清空环境变量
warning off % 关闭报警信息
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
tic
% restoredefaultpath
f_=size(P_train, 1); % 输入特征维度
outdim = 1; % 最后一列为输出%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% 划分训练集和测试集
M = size(P_train, 2);
N = size(P_test, 2);%% 优化算法参数设置
SearchAgents_no = 5; % 狼群数量
Max_iteration = 15; % 最大迭代次数
dim = 3; % 优化参数个数
lb = [1e-3, 10, 1e-4]; % 参数取值下界(学习率,隐藏层节点,正则化系数)
ub = [1e-2, 30, 1e-1]; % 参数取值上界(学习率,隐藏层节点,正则化系数)%% 优化算法初始化
Alpha_pos = zeros(1, dim); % 初始化Alpha狼的位置
Alpha_score = inf; % 初始化Alpha狼的目标函数值,将其更改为-inf以解决最大化问题Beta_pos = zeros(1, dim); % 初始化Beta狼的位置
Beta_score = inf; % 初始化Beta狼的目标函数值 ,将其更改为-inf以解决最大化问题Delta_pos = zeros(1, dim); % 初始化Delta狼的位置
Delta_score = inf; % 初始化Delta狼的目标函数值,将其更改为-inf以解决最大化问题%% 初始化搜索狼群的位置
Positions = initialization(SearchAgents_no, dim, ub, lb);%% 用于记录迭代曲线
Convergence_curve = zeros(1, Max_iteration);%% 循环计数器
iter = 0;%% 优化算法主循环
while iter < Max_iteration % 对迭代次数循环for i = 1 : size(Positions, 1) % 遍历每个狼% 返回超出搜索空间边界的搜索狼群% 若搜索位置超过了搜索空间,需要重新回到搜索空间Flag4ub = Positions(i, :) > ub;Flag4lb = Positions(i, :) < lb;% 若狼的位置在最大值和最小值之间,则位置不需要调整,若超出最大值,最回到最大值边界% 若超出最小值,最回答最小值边界Positions(i, :) = (Positions(i, :) .* (~(Flag4ub + Flag4lb))) + ub .* Flag4ub + lb .* Flag4lb; % 计算适应度函数值Positions(i, 2) = round(Positions(i, 2));fitness = fical(Positions(i, :));% 更新 Alpha, Beta, Deltaif fitness < Alpha_score % 如果目标函数值小于Alpha狼的目标函数值Alpha_score = fitness; % 则将Alpha狼的目标函数值更新为最优目标函数值Alpha_pos = Positions(i, :); % 同时将Alpha狼的位置更新为最优位置endif fitness > Alpha_score && fitness > Beta_score && fitness < Delta_score % 如果目标函数值介于于Beta狼和Delta狼的目标函数值之间Delta_score = fitness; % 则将Delta狼的目标函数值更新为最优目标函数值Delta_pos = Positions(i, :); % 同时更新Delta狼的位置endend% 线性权重递减wa = 2 - iter * ((2) / Max_iteration); % 更新搜索狼群的位置for i = 1 : size(Positions, 1) % 遍历每个狼for j = 1 : size(Positions, 2) % 遍历每个维度% 包围猎物,位置更新r1 = rand; % r1 is a random number in [0,1]r2 = rand; % r2 is a random number in [0,1]A1 = 2 * wa * r1 - wa; % 计算系数A,Equation (3.3)C1 = 2 * r2; % 计算系数C,Equation (3.4)% Alpha 位置更新D_alpha = abs(C1 * Alpha_pos(j) - Positions(i, j)); % Equation (3.5)-part 1X1 = Alpha_pos(j) - A1 * D_alpha; % Equation (3.6)-part 1r1 = rand; % r1 is a random number in [0,1]r2 = rand; % r2 is a random number in [0,1]A2 = 2 * wa * r1 - wa; % 计算系数A,Equation (3.3)C2 = 2 *r2; % 计算系数C,Equation (3.4)% Beta 位置更新D_beta = abs(C2 * Beta_pos(j) - Positions(i, j)); % Equation (3.5)-part 2X2 = Beta_pos(j) - A2 * D_beta; % Equation (3.6)-part 2 r1 = rand; % r1 is a random number in [0,1]r2 = rand; % r2 is a random number in [0,1]A3 = 2 *wa * r1 - wa; % 计算系数A,Equation (3.3)C3 = 2 *r2; % 计算系数C,Equation (3.4)% Delta 位置更新D_delta = abs(C3 * Delta_pos(j) - Positions(i, j)); % Equation (3.5)-part 3X3 = Delta_pos(j) - A3 * D_delta; % Equation (3.5)-part 3% 位置更新Positions(i, j) = (X1 + X2 + X3) / 3; % Equation (3.7)endend% 更新迭代器iter = iter + 1; disp(['第',num2str(iter),'次迭代'])Convergence_curve(iter) = Alpha_score;end
参考资料
[1] https://blog.csdn.net/article/details/126072792spm=1001.2014.3001.5502
[2] https://blog.csdn.net/article/details/126044265spm=1001.2014.3001.5502
回归预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络多输入单输出回归预测相关推荐
- 回归预测 | MATLAB实现WOA-LSTM鲸鱼算法优化长短期记忆神经网络多输入单输出回归预测
回归预测 | MATLAB实现WOA-LSTM鲸鱼算法优化长短期记忆神经网络多输入单输出回归预测 目录 回归预测 | MATLAB实现WOA-LSTM鲸鱼算法优化长短期记忆神经网络多输入单输出回归预测 ...
- 回归预测 | MATLAB实现GWO-BiLSTM灰狼算法优化双向长短期记忆神经网络多输入单输出回归预测
回归预测 | MATLAB实现GWO-BiLSTM灰狼算法优化双向长短期记忆神经网络多输入单输出回归预测 目录 回归预测 | MATLAB实现GWO-BiLSTM灰狼算法优化双向长短期记忆神经网络多输 ...
- 回归预测 | MATLAB实现WOA-BiLSTM鲸鱼算法优化双向长短期记忆神经网络多输入单输出回归预测
回归预测 | MATLAB实现WOA-BiLSTM鲸鱼算法优化双向长短期记忆神经网络多输入单输出回归预测 目录 回归预测 | MATLAB实现WOA-BiLSTM鲸鱼算法优化双向长短期记忆神经网络多输 ...
- 回归预测 | MATLAB实现Bayes-LSTM(贝叶斯优化长短期记忆神经网络)多输入单输出
回归预测 | MATLAB实现Bayes-LSTM(贝叶斯优化长短期记忆神经网络)多输入单输出 目录 回归预测 | MATLAB实现Bayes-LSTM(贝叶斯优化长短期记忆神经网络)多输入单输出 基 ...
- 多维时序 | MATLAB实现TPA-LSTM(时间注意力注意力机制长短期记忆神经网络)多输入单输出
多维时序 | MATLAB实现TPA-LSTM(时间注意力注意力机制长短期记忆神经网络)多输入单输出 目录 多维时序 | MATLAB实现TPA-LSTM(时间注意力注意力机制长短期记忆神经网络)多输 ...
- 回归预测 | MATLAB实现SSA-BiLSTM麻雀算法优化双向长短期记忆神经网络多输入单输出
回归预测 | MATLAB实现SSA-BiLSTM麻雀算法优化双向长短期记忆神经网络多输入单输出 目录 回归预测 | MATLAB实现SSA-BiLSTM麻雀算法优化双向长短期记忆神经网络多输入单输出 ...
- 时序预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络时间序列预测
时序预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络时间序列预测 目录 时序预测 | MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络时间序列预测 预测效果 基本 ...
- 回归预测 | MATLAB实现CNN-LSTM卷积长短期记忆神经网络多输入单输出
回归预测 | MATLAB实现CNN-LSTM(卷积长短期记忆神经网络)多输入单输出 目录 回归预测 | MATLAB实现CNN-LSTM(卷积长短期记忆神经网络)多输入单输出 基本介绍 模型背景 C ...
- 回归预测 | MATLAB实现PSO-GCNN粒子群算法优化分组卷积神经网络的数据多输入单输出回归预测
回归预测 | MATLAB实现PSO-GCNN粒子群算法优化分组卷积神经网络的数据多输入单输出回归预测 目录 回归预测 | MATLAB实现PSO-GCNN粒子群算法优化分组卷积神经网络的数据多输入单 ...
最新文章
- 算法(4)数据结构:堆
- POJ2349二分+并查集,类似最小树的贪心
- Linux下tmp文件夹的文件自动删除的问题(转)
- Java的知识点31——封装拷贝、封装释放、实现放大器对声音的放大功能
- 1. 金融数学中的随机变分法-Wiener空间与Wiener泛函
- linux下cmake命令行,深入理解CMake(1): CMake命令行参数
- Maya mayapy.exe 安装 Cython,编译 pyd
- php批量打印快递单,excel怎么利用vba实现批量套打快递单批量打印单据?
- Struts 1基础入门
- [ASP.NET笔记] 5.验证控件
- Python通过amqp消息队列协议中的Qpid实现数据通信
- linux基础磁盘管理,Linux基础入门-文件系统操作与磁盘管理
- Python正则表达式re.sub使用
- java请求转发实例_Servlet请求转发的步骤和实例
- 公式字符串转换为公式或结果
- 首届魔都ArchData技术峰会进入倒计时
- 《复仇者联盟4:终局之战》剧情
- 大学计算机学术活动,计算机学院学术活动公告---南京理工大学Wai-Tat Fu教授学术报告...
- CSFB和SRVCC概念解释
- 泛泛而谈:白话分布式一致性与共识算法