基于维度学习的狩猎搜索策略的改进灰狼优化算法
文章目录
- 一、理论基础
- 1、灰狼优化算法
- 2、改进的灰狼优化算法
- (1)初始化阶段
- (2)运动阶段
- (3)选择和更新阶段
- 二、实验仿真与分析
- 三、参考文献
一、理论基础
1、灰狼优化算法
请参考这里。
2、改进的灰狼优化算法
基于维度学习的狩猎搜索策略的改进灰狼优化算法(IGWO)主要包括三个阶段:初始化阶段、运动阶段、选择和更新阶段。
(1)初始化阶段
在该阶段,NNN只灰狼个体按照式(1)在给定范围[lj,uj][l_j,u_j][lj,uj]内随机分布在搜索空间中。Xij=lj+randj[0,1]×(uj−lj),i∈[1,N],j∈[1,D](1)X_{ij}=l_j+rand_j[0,1]\times(u_j-l_j),\,i\in[1,N],\,j\in[1,D]\tag{1}Xij=lj+randj[0,1]×(uj−lj),i∈[1,N],j∈[1,D](1)第iii次灰狼在第ttt次迭代中的位置表示为Xi(t)={xi1,xi2,⋯,xiD}X_i(t)=\{x_{i1},x_{i2},\cdots,x_{iD}\}Xi(t)={xi1,xi2,⋯,xiD}的向量,其中DDD是问题的维数。整个狼群存储在一个矩阵PopPopPop中,该矩阵有NNN行和DDD列。Xi(t)X_i(t)Xi(t)的适应度值由适应度函数f(Xi(t))f(X_i(t))f(Xi(t))计算。
(2)运动阶段
除了群体狩猎,个体狩猎是灰狼另一种有趣的社会行为,这是我们改进GWO的动机。IGWO包含一个额外的名为基于维度学习的狩猎(Dimension learning-based hunting, DLH)搜索的运动策略。在DLH中,每一只狼的邻居都知道它是Xi(t)X_i(t)Xi(t)新位置的另一个候选者。以下步骤描述了规范的GWO和DLH搜索策略如何生成两个不同的候选者。
规范的GWO搜索策略:在GWO中,来自PopPopPop的前三个最佳狼被认为是α\alphaα、β\betaβ和δ\deltaδ。之后,线性下降系数aaa以及系数AAA和CCC通过相应公式计算。然后,考虑XαX_\alphaXα、XβX_\betaXβ和XδX_\deltaXδ的位置,通过相应公式确定猎物的包围。 最后,灰狼Xi(t)X_i(t)Xi(t)新位置的第一个候选者Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO(t+1)由对应公式计算。
基于维度学习的狩猎(DLH)搜索策略:在原始GWO中,在PopPopPop的三只领头狼的帮助下,为每只狼生成一个新位置。这种方式导致GWO收敛缓慢,种群过早失去多样性,狼陷入局部最优。为了解决这些缺陷,在提出的DLH搜索策略中,狼的个体狩猎被认为是由其邻居学习的。
在DLH搜索策略中,Xi(t)X_i(t)Xi(t)的新位置的每个维度由式(3)计算,其中该个体由其不同邻居和从PopPopPop中随机选择的个体学习。然后,除了Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO(t+1),DLH搜索策略还为Xi(t)X_i(t)Xi(t)的新位置生成另一个候选位置Xi−DLH(t+1)X_{i-DLH}(t+1)Xi−DLH(t+1)。为此,首先,通过式(1)使用Xi(t)X_i(t)Xi(t)的当前位置和候选位置Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO(t+1)之间的欧几里德距离来计算半径Ri(t)R_i(t)Ri(t)。Ri(t)=∣∣Xi(t)−Xi−GWO(t+1)∣∣(1)R_i(t)=||X_i(t)-X_{i-GWO}(t+1)||\tag{1}Ri(t)=∣∣Xi(t)−Xi−GWO(t+1)∣∣(1)然后,由Ni(t)N_i(t)Ni(t)表示的Xi(t)X_i(t)Xi(t)的邻域由关于半径Ri(t)R_i(t)Ri(t)的式(2)构造,其中DiD_iDi是Xi(t)X_i(t)Xi(t)和Xj(t)X_j(t)Xj(t)之间的欧氏距离。Ni(t)={Xj(t)∣Di(Xi(t),Xj(t))≤Ri(t),Xj(t)∈Pop}(2)N_i(t)=\{X_j(t)|D_i(X_i(t),X_j(t))\leq R_i(t),\,X_j(t)\in Pop\}\tag{2}Ni(t)={Xj(t)∣Di(Xi(t),Xj(t))≤Ri(t),Xj(t)∈Pop}(2)一旦构造了Xi(t)X_i(t)Xi(t)的邻域,则通过式(3)执行多邻域学习,其中Xi−DLH,d(t+1)X_{i-DLH,d}(t+1)Xi−DLH,d(t+1)的ddd维是通过使用从Ni(t)N_i(t)Ni(t)中选择的随机邻域Xn,d(t)X_{n,d}(t)Xn,d(t)的ddd维和从PopPopPop中选择的随机Xr,d(t)X_{r,d}(t)Xr,d(t)来计算的。Xi−DLH,d(t+1)=Xi,d(t)+rand×(Xn,d(t)−Xr,d(t))(3)X_{i-DLH, d}(t+1)=X_{i,d}(t)+rand\times(X_{n,d}(t)-X_{r,d}(t))\tag{3}Xi−DLH,d(t+1)=Xi,d(t)+rand×(Xn,d(t)−Xr,d(t))(3)
(3)选择和更新阶段
在该阶段,首先,通过式(4)比较两个候选位置Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO(t+1)和Xi−DLH(t+1)X_{i-DLH}(t+1)Xi−DLH(t+1)的适应度值来选择较优秀的候选位置。Xi(t+1)={Xi−GWO(t+1),f(Xi−GWO)<f(Xi−DLH)Xi−DLH(t+1),otherwise(4)X_i(t+1)=\begin{dcases}X_{i-GWO}(t+1),\quad f(X_{i-GWO})<f(X_{i-DLH})\\X_{i-DLH}(t+1),\quad\quad\quad\quad\,\,\, otherwise\end{dcases}\tag{4}Xi(t+1)={Xi−GWO(t+1),f(Xi−GWO)<f(Xi−DLH)Xi−DLH(t+1),otherwise(4)然后,为了更新Xi(t+1)X_i(t+1)Xi(t+1)的新位置,如果所选候选者的适应度值小于Xi(t)X_i(t)Xi(t),则由所选候选者更新Xi(t)X_i(t)Xi(t)。否则,Xi(t)X_i(t)Xi(t)在POPPOPPOP中保持不变。
最后,对所有个体执行此过程后,迭代计数器(iteriteriter)增加1,搜索可以迭代,直到达到预定义的迭代次数(MaxiterMaxiterMaxiter)。所提出的IGWO算法的伪代码如图1所示。
图1 IGWO算法伪代码
二、实验仿真与分析
将IGWO与PSO、KH和GWO进行对比,以文献[2]中的F2、F6(单峰函数/30维)、F8、F10(多峰函数/30维)、F18、F19(固定维度多峰函数/2维、3维)为例,种群规模设置为30,最大迭代次数设置为500,每个算法独立运算30次。结果显示如下:
函数:F2
IGWO:最差值: 3.4467e-17, 最优值: 4.7771e-19, 平均值: 7.2787e-18, 标准差: 6.4366e-18, 秩和检验: 1
PSO:最差值: 30.3002, 最优值: 12.797, 平均值: 22.3033, 标准差: 4.2795, 秩和检验: 3.0199e-11
KH:最差值: 7.3418, 最优值: 0.28857, 平均值: 1.1742, 标准差: 1.4852, 秩和检验: 3.0199e-11
GWO:最差值: 4.7137e-16, 最优值: 1.1533e-17, 平均值: 1.0373e-16, 标准差: 9.065e-17, 秩和检验: 6.6955e-11
函数:F6
IGWO:最差值: 0.25128, 最优值: 4.1737e-05, 平均值: 0.024273, 标准差: 0.073951, 秩和检验: 1
PSO:最差值: 1954.2573, 最优值: 341.8429, 平均值: 906.1257, 标准差: 389.1784, 秩和检验: 3.0199e-11
KH:最差值: 1.5499, 最优值: 0.4947, 平均值: 1.0705, 标准差: 0.22953, 秩和检验: 3.0199e-11
GWO:最差值: 1.7497, 最优值: 0.25093, 平均值: 0.8455, 标准差: 0.3743, 秩和检验: 3.3384e-11
函数:F8
IGWO:最差值: -5489.6983, 最优值: -10574.0223, 平均值: -8459.3872, 标准差: 1653.7623, 秩和检验: 1
PSO:最差值: -1921.6121, 最优值: -3833.6485, 平均值: -2754.4901, 标准差: 467.6339, 秩和检验: 3.0199e-11
KH:最差值: -5082.9109, 最优值: -10135.6575, 平均值: -7408.1923, 标准差: 1253.9246, 秩和检验: 0.010315
GWO:最差值: -3195.0866, 最优值: -7546.2803, 平均值: -5872.8204, 标准差: 881.663, 秩和检验: 6.5261e-07
函数:F10
IGWO:最差值: 8.6153e-14, 最优值: 3.9968e-14, 平均值: 6.01e-14, 标准差: 1.0894e-14, 秩和检验: 1
PSO:最差值: 9.5573, 最优值: 5.1314, 平均值: 8.1017, 标准差: 1.0907, 秩和检验: 2.6808e-11
KH:最差值: 2.041, 最优值: 0.22494, 平均值: 0.66476, 标准差: 0.58667, 秩和检验: 2.6808e-11
GWO:最差值: 1.3589e-13, 最优值: 7.5495e-14, 平均值: 1.0368e-13, 标准差: 1.6636e-14, 秩和检验: 7.4888e-11
函数:F18
IGWO:最差值: 3, 最优值: 3, 平均值: 3, 标准差: 1.8105e-15, 秩和检验: 1
PSO:最差值: 3, 最优值: 3, 平均值: 3, 标准差: 9.9301e-16, 秩和检验: 0.00073098
KH:最差值: 3.0002, 最优值: 3, 平均值: 3, 标准差: 4.5556e-05, 秩和检验: 2.6588e-11
GWO:最差值: 3.0002, 最优值: 3, 平均值: 3, 标准差: 3.4932e-05, 秩和检验: 2.6588e-11
函数:F19
IGWO:最差值: -3.8628, 最优值: -3.8628, 平均值: -3.8628, 标准差: 2.5243e-15, 秩和检验: 1
PSO:最差值: -3.8549, 最优值: -3.8628, 平均值: -3.8625, 标准差: 0.001439, 秩和检验: 0.0018957
KH:最差值: -3.8628, 最优值: -3.8628, 平均值: -3.8628, 标准差: 2.1996e-06, 秩和检验: 1.4059e-11
GWO:最差值: -3.8549, 最优值: -3.8628, 平均值: -3.8616, 标准差: 0.002286, 秩和检验: 1.4059e-11
实验结果表明,与实验中使用的算法相比,IGWO算法具有很强的竞争力,并且往往更优越。
三、参考文献
[1] Mohammad H. Nadimi-Shahraki, Shokooh Taghian, Seyedali Mirjalili. An improved grey wolf optimizer for solving engineering problems[J]. Expert Systems with Applications, 2021, 166: 113917.
[2] Afshin Faramarzi, Mohammad Heidarinejad, Brent Stephens, et al. Equilibrium optimizer: A novel optimization algorithm[J]. Knowledge-Based Systems, 2020, 191: 105190.
基于维度学习的狩猎搜索策略的改进灰狼优化算法相关推荐
- 基于Cat混沌与高斯变异的改进灰狼优化算法-附代码
基于Cat混沌与高斯变异的改进灰狼优化算法 文章目录 基于Cat混沌与高斯变异的改进灰狼优化算法 1.灰狼优化算法 2. 改进灰狼优化算法 2.1 混沌反向学习策略的种群初始化 2. 2 引入个体记忆 ...
- 基于 Iterative 映射和单纯形法的改进灰狼优化算法-附代码
基于 Iterative 映射和单纯形法的改进灰狼优化算法 文章目录 基于 Iterative 映射和单纯形法的改进灰狼优化算法 1.灰狼优化算法 2. 改进灰狼优化算法(SMIGWO) 2.1 混沌 ...
- 群智能算法改进第四期-改进灰狼优化算法
1.写在前面 该系列为改进智能优化算法,欢迎私信一起交流问题,更多的改进算法可查看往期的推文.有问题或者需要其他建议的话,非常欢迎后台私信交流,共同进步,如若出现违反学术道德的情况与本博客以及作者无关 ...
- 改进灰狼优化算法在WSN节点部署中的应用
文章目录 一.理论基础 1.节点与覆盖模型 2.灰狼优化算法基本原理 3.改进灰狼优化算法 (1)非线性收敛因子 (2)δ\deltaδ狼的融合变异 二.节点部署优化算法 1.算法步骤 2.算法流程图 ...
- 协调探索和开发能力的改进灰狼优化算法
文章目录 一.理论基础 1.基本灰狼优化算法 2.改进灰狼优化算法 (1)佳点集种群初始化 (2)非线性控制参数策略 (3)基于个体记忆功能的位置更新公式 二.仿真实验与分析 三.参考文献 一.理论基 ...
- 基于混合策略的改进灰狼优化算法
文章目录 一.理论基础 1.基本灰狼优化算法(GWO) 2.改进的灰狼优化算法(IGWO) (1)基于对数函数的非线性调整收敛因子aaa (2)基于记忆指导的位置更新方程 (3)IGWO算法流程图 二 ...
- 基于自适应权重和Levy飞行的改进鲸鱼优化算法
文章目录 一.理论基础 1.基本鲸鱼优化算法 2.改进的鲸鱼优化算法 (1)自适应权重方法 (2)Levy飞行策略 (3)改进WOA的算法流程图 二.实验测试及分析 三.参考文献 一.理论基础 1.基 ...
- 【改进灰狼优化算法】混沌灰狼优化算法(Matlab代码实现)
- 改进收敛因子和比例权重的灰狼优化算法
文章目录 一.理论基础 1.基本灰狼优化算法 2.改进灰狼优化算法(CGWO) (1)基于余弦规律变化的收敛因子 (2)引入动态权重策略 (3)CGWO算法步骤 二.仿真实验与分析 三.参考文献 一. ...
最新文章
- [k8s] 第三章 k8s 资源管理
- 随机森林算法demo python spark
- 何时开始phonics学习及配套阅读训练zz
- 中国生物质锅炉行业全景调研与投资前景研究分析报告2021-2027年
- 傻瓜突破linux--rootpassword
- java class 转 字节_[转]JAVA字节数据与JAVA类型的转换
- django 1.8 官方文档翻译: 1-2-4 编写你的第一个Django应用,第4部分
- java 改为matlab_用面向对象的方法将一段JAVA代码转化为matlab
- PHP踩坑:对象的引用
- 抽象类、接口、内部类
- Python汉字转拼音-拼音转汉字的效率测评
- chrome分辨率测试工具
- IntelliJ IDEA 2017.2永久破解
- 【Matlab绘图】plot3函数绘制三维点或线图
- 硬盘的老化测试软件,扩容卡检测、扩容U盘检测工具(MyDiskTest)
- 安卓开发 虚拟机启动失败
- shell脚本学习(二十八)——服务启动脚本的编写
- java 聊天室 私聊_Java聊天室——实现多人聊天、私聊、群聊
- linux下使用man命令查看系统调用
- 基于easyTrader部署自动化交易(一)