改进收敛因子和比例权重的灰狼优化算法
文章目录
- 一、理论基础
- 1、基本灰狼优化算法
- 2、改进灰狼优化算法(CGWO)
- (1)基于余弦规律变化的收敛因子
- (2)引入动态权重策略
- (3)CGWO算法步骤
- 二、仿真实验与分析
- 三、参考文献
一、理论基础
1、基本灰狼优化算法
请参考这里。
2、改进灰狼优化算法(CGWO)
(1)基于余弦规律变化的收敛因子
本文提出了一种基于余弦规律变化的收敛因子,其修正表达式为:a={afinal+(ainitial−afinal)1+∣cos((t−1)π/(tmax−1))∣n2,t≤12tmaxafinal+(ainitial−afinal)1−∣cos((t−1)π/(tmax−1))∣n2,12tmax<t≤tmax(1)a=\begin{dcases}a_{\text{final}}+(a_{\text{initial}}-a_{\text{final}})\frac{1+|cos((t-1)\pi/(t_{\max}-1))|^n}{2},\quad \quad t≤\frac12t_{\max}\\a_{\text{final}}+(a_{\text{initial}}-a_{\text{final}})\frac{1-|cos((t-1)\pi/(t_{\max}-1))|^n}{2},\frac12t_{\max}<t≤t_{\max}\end{dcases}\tag{1}a=⎩⎪⎨⎪⎧afinal+(ainitial−afinal)21+∣cos((t−1)π/(tmax−1))∣n,t≤21tmaxafinal+(ainitial−afinal)21−∣cos((t−1)π/(tmax−1))∣n,21tmax<t≤tmax(1)其中,ainitiala_{\text{initial}}ainitial和afinala_{\text{final}}afinal为收敛因子aaa的初始值和最终值,本文取ainitial=2,afinal=0a_{\text{initial}}=2,a_{\text{final}}=0ainitial=2,afinal=0,ttt为当前迭代次数,tmaxt_{\max}tmax为最大迭代次数,nnn为递减指数,0<n≤10<n≤10<n≤1。aaa的变化图如图1所示。
图1 收敛因子变化图
由图1可以看出,原始收敛因子aaa的图像是线性递减的,在迭代过程中以相同的速率减小,而改进后收敛因子aaa的图像是一条基于余弦规律变化的曲线,在迭代初期减小的较慢,使得收敛因子aaa较长时间保持较大值,从而使AAA保持较大值的时间长些,以提高搜索效率;迭代后期减小的较快,使得aaa较长时间保持较小值,从而使AAA保持较小值的时间长些,以提高搜索精度。因此,平衡了算法的全局搜索和局部搜索能力。
(2)引入动态权重策略
本文动态权重策略表达式如下:W1=∣X1∣∣X1∣+∣X2∣+∣X3∣,W2=∣X2∣∣X1∣+∣X2∣+∣X3∣W3=∣X3∣∣X1∣+∣X2∣+∣X3∣(2)\begin{aligned}&W_1=\frac{|X_1|}{|X_1|+|X_2|+|X_3|},W_2=\frac{|X_2|}{|X_1|+|X_2|+|X_3|}\\&W_3=\frac{|X_3|}{|X_1|+|X_2|+|X_3|}\end{aligned}\tag{2}W1=∣X1∣+∣X2∣+∣X3∣∣X1∣,W2=∣X1∣+∣X2∣+∣X3∣∣X2∣W3=∣X1∣+∣X2∣+∣X3∣∣X3∣(2)X(t+1)=W1⋅X1+W2⋅X2+W3⋅X33(3)X(t+1)=\frac{W_1\cdot X_1+W_2\cdot X_2+W_3\cdot X_3}{3}\tag{3}X(t+1)=3W1⋅X1+W2⋅X2+W3⋅X3(3)其中W1W_1W1、W2W_2W2、W3W_3W3分别表示ω\omegaω狼对α\alphaα、β\betaβ、δ\deltaδ狼的学习率。
(3)CGWO算法步骤
综合以上改进策略描述,给出本文所提出的改进灰狼优化算法(CGWO)的步骤:
步骤1 设置种群规模NNN,最大迭代次数tmaxt_{\max}tmax,随机生成aaa、AAA、CCC等参数。
步骤2 在搜索空间内随机初始化灰狼种群。
步骤3 计算种群中所有灰狼个体的适应度值,并按照适应度值进行排序,选择前三个最好的狼,记录其位置XαX_\alphaXα、XβX_\betaXβ和XδX_\deltaXδ。
步骤4 利用改进公式更新种群中其他灰狼个体的位置。
步骤5 利用对应公式计算aaa、AAA、CCC的值。
步骤6 判断算法是否满足结束条件,若达到预定的最大迭代次tmaxt_{\max}tmax,则停止计算,输出最优位置XαX_\alphaXα,否则,重复执行步骤3~步骤5。
二、仿真实验与分析
利用CGWO算法对文献[1]中8个基准测试函数进行求解,并与文献[2-5]中提出的算法进行比较。算法独立运行30次,各算法的种群规模均为30,最大迭代次数为500。
结果显示如下:
函数:F1
GWO-EPD:最差值: 9.7292e-22,最优值:2.3986e-24,平均值:2.0545e-22,标准差:2.7514e-22
IGWO:最差值: 1.6263e-309,最优值:4.9407e-324,平均值:5.9328e-311,标准差:0
SquareGWO:最差值: 3.0202e-27,最优值:3.3183e-30,平均值:3.7301e-28,标准差:7.9665e-28
NGWO:最差值: 2.1403e-38,最优值:2.9888e-42,平均值:2.3859e-39,标准差:4.6945e-39
CGWO:最差值: 0,最优值:0,平均值:0,标准差:0
函数:F2
GWO-EPD:最差值: 6.4988e-14,最优值:5.8302e-15,平均值:2.5991e-14,标准差:1.6354e-14
IGWO:最差值: 1.2799e-161,最优值:2.2563e-168,平均值:5.4705e-163,标准差:2.2228e-162
SquareGWO:最差值: 2.9131e-16,最优值:5.3589e-18,平均值:6.6655e-17,标准差:6.4676e-17
NGWO:最差值: 3.9176e-23,最优值:1.352e-24,平均值:8.1805e-24,标准差:8.531e-24
CGWO:最差值: 1.7809e-209,最优值:1.3611e-210,平均值:6.5336e-210,标准差:0
函数:F3
GWO-EPD:最差值: 10.1572,最优值:0.0023604,平均值:1.1342,标准差:1.8647
IGWO:最差值: 1.1132e-244,最优值:1.982e-288,平均值:3.7106e-246,标准差:0
SquareGWO:最差值: 4.622e-05,最优值:4.7863e-09,平均值:4.5716e-06,标准差:1.1409e-05
NGWO:最差值: 4.0729,最优值:7.5363e-07,平均值:0.22672,标准差:0.77176
CGWO:最差值: 0,最优值:0,平均值:0,标准差:0
函数:F4
GWO-EPD:最差值: 0.033491,最优值:9.6277e-05,平均值:0.0052167,标准差:0.0071424
IGWO:最差值: 8.8119e-153,最优值:1.6888e-160,平均值:3.2908e-154,标准差:1.61e-153
SquareGWO:最差值: 2.9766e-06,最优值:1.0108e-07,平均值:6.4997e-07,标准差:6.0974e-07
NGWO:最差值: 9.284e-06,最优值:3.7248e-08,平均值:1.1933e-06,标准差:1.8924e-06
CGWO:最差值: 1.1055e-205,最优值:6.3099e-207,平均值:4.8366e-206,标准差:0
函数:F5
GWO-EPD:最差值: 0.019119,最优值:0.0029447,平均值:0.007505,标准差:0.0032748
IGWO:最差值: 0.97749,最优值:6.467e-06,平均值:0.39353,标准差:0.36538
SquareGWO:最差值: 0.0055663,最优值:0.0002296,平均值:0.0019564,标准差:0.0012064
NGWO:最差值: 0.017702,最优值:0.0043719,平均值:0.0094174,标准差:0.0038675
CGWO:最差值: 0.00029002,最优值:5.573e-07,平均值:6.519e-05,标准差:7.6745e-05
函数:F6
GWO-EPD:最差值: 49.9148,最优值:6.7953,平均值:22.2049,标准差:9.1694
IGWO:最差值: 0,最优值:0,平均值:0,标准差:0
SquareGWO:最差值: 9.9225,最优值:0,平均值:2.0783,标准差:2.8452
NGWO:最差值: 88.9162,最优值:12.1134,平均值:68.4603,标准差:15.88
CGWO:最差值: 0,最优值:0,平均值:0,标准差:0
函数:F7
GWO-EPD:最差值: 6.1506e-12,最优值:4.2366e-13,平均值:1.9166e-12,标准差:1.3957e-12
IGWO:最差值: 7.9936e-15,最优值:8.8818e-16,平均值:3.9672e-15,标准差:2.234e-15
SquareGWO:最差值: 1.2879e-13,最优值:7.5495e-14,平均值:9.3732e-14,标准差:1.6683e-14
NGWO:最差值: 4.1179,最优值:7.9936e-15,平均值:2.3136,标准差:1.9361
CGWO:最差值: 4.4409e-15,最优值:8.8818e-16,平均值:4.3225e-15,标准差:6.4863e-16
函数:F8
GWO-EPD:最差值: 0.039039,最优值:0,平均值:0.0049766,标准差:0.010814
IGWO:最差值: 0,最优值:0,平均值:0,标准差:0
SquareGWO:最差值: 0.030517,最优值:0,平均值:0.0025555,标准差:0.0078796
NGWO:最差值: 0.024006,最优值:0,平均值:0.01039,标准差:0.010704
CGWO:最差值: 0,最优值:0,平均值:0,标准差:0
由上述比较结果可以看出,与GWO-EPD算法、IGWO算法、SquareGWO算法和NGWO算法相比,CGWO算法具有更高的求解精度和更好的稳定性。
三、参考文献
[1] 王秋萍, 王梦娜, 王晓峰. 改进收敛因子和比例权重的灰狼优化算法[J]. 计算机工程与应用, 2019, 55(21): 60-65.
[2] Saremi, S., Mirjalili, S.Z., Mirjalili, S.M. Evolutionary population dynamics and grey wolf optimizer[J]. Neural Computing and Applications, 2015, 26: 1257-1263.
[3] 徐辰华, 李成县, 喻昕, 等. 基于Cat混沌与高斯变异的改进灰狼优化算法[J]. 计算机工程与应用, 2017, 53(4): 1-9.
[4] 魏政磊, 赵辉, 李牧东, 等. 控制参数值非线性调整策略的灰狼优化算法[J]. 空军工程大学学报(自然科学版), 2016, 17(3): 68-72.
[5] 王敏, 唐明珠. 一种新型非线性收敛因子的灰狼优化算法[J]. 计算机应用研究, 2016, 33(12): 3648-3653.
改进收敛因子和比例权重的灰狼优化算法相关推荐
- 群智能算法改进第四期-改进灰狼优化算法
1.写在前面 该系列为改进智能优化算法,欢迎私信一起交流问题,更多的改进算法可查看往期的推文.有问题或者需要其他建议的话,非常欢迎后台私信交流,共同进步,如若出现违反学术道德的情况与本博客以及作者无关 ...
- 基于混合策略的改进灰狼优化算法
文章目录 一.理论基础 1.基本灰狼优化算法(GWO) 2.改进的灰狼优化算法(IGWO) (1)基于对数函数的非线性调整收敛因子aaa (2)基于记忆指导的位置更新方程 (3)IGWO算法流程图 二 ...
- 基于 Iterative 映射和单纯形法的改进灰狼优化算法-附代码
基于 Iterative 映射和单纯形法的改进灰狼优化算法 文章目录 基于 Iterative 映射和单纯形法的改进灰狼优化算法 1.灰狼优化算法 2. 改进灰狼优化算法(SMIGWO) 2.1 混沌 ...
- 基于Cat混沌与高斯变异的改进灰狼优化算法-附代码
基于Cat混沌与高斯变异的改进灰狼优化算法 文章目录 基于Cat混沌与高斯变异的改进灰狼优化算法 1.灰狼优化算法 2. 改进灰狼优化算法 2.1 混沌反向学习策略的种群初始化 2. 2 引入个体记忆 ...
- 改进灰狼优化算法在WSN节点部署中的应用
文章目录 一.理论基础 1.节点与覆盖模型 2.灰狼优化算法基本原理 3.改进灰狼优化算法 (1)非线性收敛因子 (2)δ\deltaδ狼的融合变异 二.节点部署优化算法 1.算法步骤 2.算法流程图 ...
- 一种改进非线性收敛方式的灰狼优化算法研究
文章目录 一.理论基础 1.基本灰狼优化算法(GWO) 2.改进灰狼优化算法(CGWO) (1)引入混沌策略反向学习初始化种群 (2)改进非线性收敛因子 (3)Cauchy变异算子 二.算法实现步骤 ...
- 协调探索和开发能力的改进灰狼优化算法
文章目录 一.理论基础 1.基本灰狼优化算法 2.改进灰狼优化算法 (1)佳点集种群初始化 (2)非线性控制参数策略 (3)基于个体记忆功能的位置更新公式 二.仿真实验与分析 三.参考文献 一.理论基 ...
- 【优化算法】改进的灰狼优化算法(IGWO)【含Matlab源码 1349期】
一.获取代码方式 获取代码方式1: 完整代码已上传我的资源:[优化算法]改进的灰狼优化算法(IGWO)[含Matlab源码 1349期] 点击上面蓝色字体,直接付费下载,即可. 获取代码方式2: 付费 ...
- 数学建模学习(90):改进的灰狼优化算法(I-GWO)对多元函数寻优
灰狼优化算法暂且不说了,本篇直奔改进的灰狼算法进行案例实践学习. 声明:即使订阅本专栏,也不可转载到它出,甚至商业用途. 文章目录 一.简介 二.案例实现 2.1 目标函数 2.2 编写算法 2.3 ...
最新文章
- 活动推荐 | 百千万人才工程创新大讲堂开启报名
- HTMLtd 标签的 scope 属性
- oracle锁表语句执行提示无法终止当前对话_Oracle 强制中止正在执行的SQL语句
- 连接linux工具Mtr,Linux常用网络工具:路由扫描之mtr
- 博客系统的设计与实现_企业车辆管理系统设计与实现
- java 反射基础_Java基础教程:反射基础
- 035——VUE中表单控件处理之使用vue控制select操作文字栏目列表
- 十三、mysql 分区之 RANGE LIST
- 多智能体通信:MAGNet用于深度多智能体强化学习的多智能体图网络
- 2014乌云安全峰会文字版记录
- 【Registration of 3D Point Clouds with Low Overlap】
- UNIX环境高级编程 学习笔记 第十八章 终端I/O
- SpringBoot实现抽奖大转盘
- 述职答辩提问环节一般可以问些什么_2.50 述职报告与评审提问注意事项
- 高效并发unsafe-星耀
- AlphaGo之后又来了AlphaStar,这个更厉害。。。
- PPT里的图如何高质量的插入Word
- 开学季,给Java开发学习者的开发工具选择指南
- 【Maven】高级应用:私服(nexus)搭建及使用、自定义项目骨架(archtype)
- 计算机网络期末考试知识点汇总