文章目录

  • 一、理论基础
    • 1、灰狼优化算法
    • 2、改进的灰狼优化算法
      • (1)初始化阶段
      • (2)运动阶段
      • (3)选择和更新阶段
  • 二、实验仿真与分析
  • 三、参考文献

一、理论基础

1、灰狼优化算法

请参考这里。

2、改进的灰狼优化算法

基于维度学习的狩猎搜索策略的改进灰狼优化算法(IGWO)主要包括三个阶段:初始化阶段、运动阶段、选择和更新阶段。

(1)初始化阶段

在该阶段,NNN只灰狼个体按照式(1)在给定范围[lj,uj][l_j,u_j][lj​,uj​]内随机分布在搜索空间中。Xij=lj+randj[0,1]×(uj−lj),i∈[1,N],j∈[1,D](1)X_{ij}=l_j+rand_j[0,1]\times(u_j-l_j),\,i\in[1,N],\,j\in[1,D]\tag{1}Xij​=lj​+randj​[0,1]×(uj​−lj​),i∈[1,N],j∈[1,D](1)第iii次灰狼在第ttt次迭代中的位置表示为Xi(t)={xi1,xi2,⋯,xiD}X_i(t)=\{x_{i1},x_{i2},\cdots,x_{iD}\}Xi​(t)={xi1​,xi2​,⋯,xiD​}的向量,其中DDD是问题的维数。整个狼群存储在一个矩阵PopPopPop中,该矩阵有NNN行和DDD列。Xi(t)X_i(t)Xi​(t)的适应度值由适应度函数f(Xi(t))f(X_i(t))f(Xi​(t))计算。

(2)运动阶段

除了群体狩猎,个体狩猎是灰狼另一种有趣的社会行为,这是我们改进GWO的动机。IGWO包含一个额外的名为基于维度学习的狩猎(Dimension learning-based hunting, DLH)搜索的运动策略。在DLH中,每一只狼的邻居都知道它是Xi(t)X_i(t)Xi​(t)新位置的另一个候选者。以下步骤描述了规范的GWO和DLH搜索策略如何生成两个不同的候选者。
规范的GWO搜索策略:在GWO中,来自PopPopPop的前三个最佳狼被认为是α\alphaα、β\betaβ和δ\deltaδ。之后,线性下降系数aaa以及系数AAA和CCC通过相应公式计算。然后,考虑XαX_\alphaXα​、XβX_\betaXβ​和XδX_\deltaXδ​的位置,通过相应公式确定猎物的包围。 最后,灰狼Xi(t)X_i(t)Xi​(t)新位置的第一个候选者Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO​(t+1)由对应公式计算。
基于维度学习的狩猎(DLH)搜索策略:在原始GWO中,在PopPopPop的三只领头狼的帮助下,为每只狼生成一个新位置。这种方式导致GWO收敛缓慢,种群过早失去多样性,狼陷入局部最优。为了解决这些缺陷,在提出的DLH搜索策略中,狼的个体狩猎被认为是由其邻居学习的。
在DLH搜索策略中,Xi(t)X_i(t)Xi​(t)的新位置的每个维度由式(3)计算,其中该个体由其不同邻居和从PopPopPop中随机选择的个体学习。然后,除了Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO​(t+1),DLH搜索策略还为Xi(t)X_i(t)Xi​(t)的新位置生成另一个候选位置Xi−DLH(t+1)X_{i-DLH}(t+1)Xi−DLH​(t+1)。为此,首先,通过式(1)使用Xi(t)X_i(t)Xi​(t)的当前位置和候选位置Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO​(t+1)之间的欧几里德距离来计算半径Ri(t)R_i(t)Ri​(t)。Ri(t)=∣∣Xi(t)−Xi−GWO(t+1)∣∣(1)R_i(t)=||X_i(t)-X_{i-GWO}(t+1)||\tag{1}Ri​(t)=∣∣Xi​(t)−Xi−GWO​(t+1)∣∣(1)然后,由Ni(t)N_i(t)Ni​(t)表示的Xi(t)X_i(t)Xi​(t)的邻域由关于半径Ri(t)R_i(t)Ri​(t)的式(2)构造,其中DiD_iDi​是Xi(t)X_i(t)Xi​(t)和Xj(t)X_j(t)Xj​(t)之间的欧氏距离。Ni(t)={Xj(t)∣Di(Xi(t),Xj(t))≤Ri(t),Xj(t)∈Pop}(2)N_i(t)=\{X_j(t)|D_i(X_i(t),X_j(t))\leq R_i(t),\,X_j(t)\in Pop\}\tag{2}Ni​(t)={Xj​(t)∣Di​(Xi​(t),Xj​(t))≤Ri​(t),Xj​(t)∈Pop}(2)一旦构造了Xi(t)X_i(t)Xi​(t)的邻域,则通过式(3)执行多邻域学习,其中Xi−DLH,d(t+1)X_{i-DLH,d}(t+1)Xi−DLH,d​(t+1)的ddd维是通过使用从Ni(t)N_i(t)Ni​(t)中选择的随机邻域Xn,d(t)X_{n,d}(t)Xn,d​(t)的ddd维和从PopPopPop中选择的随机Xr,d(t)X_{r,d}(t)Xr,d​(t)来计算的。Xi−DLH,d(t+1)=Xi,d(t)+rand×(Xn,d(t)−Xr,d(t))(3)X_{i-DLH, d}(t+1)=X_{i,d}(t)+rand\times(X_{n,d}(t)-X_{r,d}(t))\tag{3}Xi−DLH,d​(t+1)=Xi,d​(t)+rand×(Xn,d​(t)−Xr,d​(t))(3)

(3)选择和更新阶段

在该阶段,首先,通过式(4)比较两个候选位置Xi−GWO(t+1)X_{i-GWO}(t+1)Xi−GWO​(t+1)和Xi−DLH(t+1)X_{i-DLH}(t+1)Xi−DLH​(t+1)的适应度值来选择较优秀的候选位置。Xi(t+1)={Xi−GWO(t+1),f(Xi−GWO)<f(Xi−DLH)Xi−DLH(t+1),otherwise(4)X_i(t+1)=\begin{dcases}X_{i-GWO}(t+1),\quad f(X_{i-GWO})<f(X_{i-DLH})\\X_{i-DLH}(t+1),\quad\quad\quad\quad\,\,\, otherwise\end{dcases}\tag{4}Xi​(t+1)={Xi−GWO​(t+1),f(Xi−GWO​)<f(Xi−DLH​)Xi−DLH​(t+1),otherwise​(4)然后,为了更新Xi(t+1)X_i(t+1)Xi​(t+1)的新位置,如果所选候选者的适应度值小于Xi(t)X_i(t)Xi​(t),则由所选候选者更新Xi(t)X_i(t)Xi​(t)。否则,Xi(t)X_i(t)Xi​(t)在POPPOPPOP中保持不变。
最后,对所有个体执行此过程后,迭代计数器(iteriteriter)增加1,搜索可以迭代,直到达到预定义的迭代次数(MaxiterMaxiterMaxiter)。所提出的IGWO算法的伪代码如图1所示。

图1 IGWO算法伪代码

二、实验仿真与分析

将IGWO与PSO、KH和GWO进行对比,以文献[2]中的F2、F6(单峰函数/30维)、F8、F10(多峰函数/30维)、F18、F19(固定维度多峰函数/2维、3维)为例,种群规模设置为30,最大迭代次数设置为500,每个算法独立运算30次。结果显示如下:

函数:F2
IGWO:最差值: 3.4467e-17, 最优值: 4.7771e-19, 平均值: 7.2787e-18, 标准差: 6.4366e-18, 秩和检验: 1
PSO:最差值: 30.3002, 最优值: 12.797, 平均值: 22.3033, 标准差: 4.2795, 秩和检验: 3.0199e-11
KH:最差值: 7.3418, 最优值: 0.28857, 平均值: 1.1742, 标准差: 1.4852, 秩和检验: 3.0199e-11
GWO:最差值: 4.7137e-16, 最优值: 1.1533e-17, 平均值: 1.0373e-16, 标准差: 9.065e-17, 秩和检验: 6.6955e-11
函数:F6
IGWO:最差值: 0.25128, 最优值: 4.1737e-05, 平均值: 0.024273, 标准差: 0.073951, 秩和检验: 1
PSO:最差值: 1954.2573, 最优值: 341.8429, 平均值: 906.1257, 标准差: 389.1784, 秩和检验: 3.0199e-11
KH:最差值: 1.5499, 最优值: 0.4947, 平均值: 1.0705, 标准差: 0.22953, 秩和检验: 3.0199e-11
GWO:最差值: 1.7497, 最优值: 0.25093, 平均值: 0.8455, 标准差: 0.3743, 秩和检验: 3.3384e-11
函数:F8
IGWO:最差值: -5489.6983, 最优值: -10574.0223, 平均值: -8459.3872, 标准差: 1653.7623, 秩和检验: 1
PSO:最差值: -1921.6121, 最优值: -3833.6485, 平均值: -2754.4901, 标准差: 467.6339, 秩和检验: 3.0199e-11
KH:最差值: -5082.9109, 最优值: -10135.6575, 平均值: -7408.1923, 标准差: 1253.9246, 秩和检验: 0.010315
GWO:最差值: -3195.0866, 最优值: -7546.2803, 平均值: -5872.8204, 标准差: 881.663, 秩和检验: 6.5261e-07
函数:F10
IGWO:最差值: 8.6153e-14, 最优值: 3.9968e-14, 平均值: 6.01e-14, 标准差: 1.0894e-14, 秩和检验: 1
PSO:最差值: 9.5573, 最优值: 5.1314, 平均值: 8.1017, 标准差: 1.0907, 秩和检验: 2.6808e-11
KH:最差值: 2.041, 最优值: 0.22494, 平均值: 0.66476, 标准差: 0.58667, 秩和检验: 2.6808e-11
GWO:最差值: 1.3589e-13, 最优值: 7.5495e-14, 平均值: 1.0368e-13, 标准差: 1.6636e-14, 秩和检验: 7.4888e-11
函数:F18
IGWO:最差值: 3, 最优值: 3, 平均值: 3, 标准差: 1.8105e-15, 秩和检验: 1
PSO:最差值: 3, 最优值: 3, 平均值: 3, 标准差: 9.9301e-16, 秩和检验: 0.00073098
KH:最差值: 3.0002, 最优值: 3, 平均值: 3, 标准差: 4.5556e-05, 秩和检验: 2.6588e-11
GWO:最差值: 3.0002, 最优值: 3, 平均值: 3, 标准差: 3.4932e-05, 秩和检验: 2.6588e-11
函数:F19
IGWO:最差值: -3.8628, 最优值: -3.8628, 平均值: -3.8628, 标准差: 2.5243e-15, 秩和检验: 1
PSO:最差值: -3.8549, 最优值: -3.8628, 平均值: -3.8625, 标准差: 0.001439, 秩和检验: 0.0018957
KH:最差值: -3.8628, 最优值: -3.8628, 平均值: -3.8628, 标准差: 2.1996e-06, 秩和检验: 1.4059e-11
GWO:最差值: -3.8549, 最优值: -3.8628, 平均值: -3.8616, 标准差: 0.002286, 秩和检验: 1.4059e-11

实验结果表明,与实验中使用的算法相比,IGWO算法具有很强的竞争力,并且往往更优越。

三、参考文献

[1] Mohammad H. Nadimi-Shahraki, Shokooh Taghian, Seyedali Mirjalili. An improved grey wolf optimizer for solving engineering problems[J]. Expert Systems with Applications, 2021, 166: 113917.
[2] Afshin Faramarzi, Mohammad Heidarinejad, Brent Stephens, et al. Equilibrium optimizer: A novel optimization algorithm[J]. Knowledge-Based Systems, 2020, 191: 105190.

基于维度学习的狩猎搜索策略的改进灰狼优化算法相关推荐

  1. 基于Cat混沌与高斯变异的改进灰狼优化算法-附代码

    基于Cat混沌与高斯变异的改进灰狼优化算法 文章目录 基于Cat混沌与高斯变异的改进灰狼优化算法 1.灰狼优化算法 2. 改进灰狼优化算法 2.1 混沌反向学习策略的种群初始化 2. 2 引入个体记忆 ...

  2. 基于 Iterative 映射和单纯形法的改进灰狼优化算法-附代码

    基于 Iterative 映射和单纯形法的改进灰狼优化算法 文章目录 基于 Iterative 映射和单纯形法的改进灰狼优化算法 1.灰狼优化算法 2. 改进灰狼优化算法(SMIGWO) 2.1 混沌 ...

  3. 群智能算法改进第四期-改进灰狼优化算法

    1.写在前面 该系列为改进智能优化算法,欢迎私信一起交流问题,更多的改进算法可查看往期的推文.有问题或者需要其他建议的话,非常欢迎后台私信交流,共同进步,如若出现违反学术道德的情况与本博客以及作者无关 ...

  4. 改进灰狼优化算法在WSN节点部署中的应用

    文章目录 一.理论基础 1.节点与覆盖模型 2.灰狼优化算法基本原理 3.改进灰狼优化算法 (1)非线性收敛因子 (2)δ\deltaδ狼的融合变异 二.节点部署优化算法 1.算法步骤 2.算法流程图 ...

  5. 协调探索和开发能力的改进灰狼优化算法

    文章目录 一.理论基础 1.基本灰狼优化算法 2.改进灰狼优化算法 (1)佳点集种群初始化 (2)非线性控制参数策略 (3)基于个体记忆功能的位置更新公式 二.仿真实验与分析 三.参考文献 一.理论基 ...

  6. 基于混合策略的改进灰狼优化算法

    文章目录 一.理论基础 1.基本灰狼优化算法(GWO) 2.改进的灰狼优化算法(IGWO) (1)基于对数函数的非线性调整收敛因子aaa (2)基于记忆指导的位置更新方程 (3)IGWO算法流程图 二 ...

  7. 基于自适应权重和Levy飞行的改进鲸鱼优化算法

    文章目录 一.理论基础 1.基本鲸鱼优化算法 2.改进的鲸鱼优化算法 (1)自适应权重方法 (2)Levy飞行策略 (3)改进WOA的算法流程图 二.实验测试及分析 三.参考文献 一.理论基础 1.基 ...

  8. 【改进灰狼优化算法】混沌灰狼优化算法(Matlab代码实现)

  9. 改进收敛因子和比例权重的灰狼优化算法

    文章目录 一.理论基础 1.基本灰狼优化算法 2.改进灰狼优化算法(CGWO) (1)基于余弦规律变化的收敛因子 (2)引入动态权重策略 (3)CGWO算法步骤 二.仿真实验与分析 三.参考文献 一. ...

最新文章

  1. [k8s] 第三章 k8s 资源管理
  2. 随机森林算法demo python spark
  3. 何时开始phonics学习及配套阅读训练zz
  4. 中国生物质锅炉行业全景调研与投资前景研究分析报告2021-2027年
  5. 傻瓜突破linux--rootpassword
  6. java class 转 字节_[转]JAVA字节数据与JAVA类型的转换
  7. django 1.8 官方文档翻译: 1-2-4 编写你的第一个Django应用,第4部分
  8. java 改为matlab_用面向对象的方法将一段JAVA代码转化为matlab
  9. PHP踩坑:对象的引用
  10. 抽象类、接口、内部类
  11. Python汉字转拼音-拼音转汉字的效率测评
  12. chrome分辨率测试工具
  13. IntelliJ IDEA 2017.2永久破解
  14. 【Matlab绘图】plot3函数绘制三维点或线图
  15. 硬盘的老化测试软件,扩容卡检测、扩容U盘检测工具(MyDiskTest)
  16. 安卓开发 虚拟机启动失败
  17. shell脚本学习(二十八)——服务启动脚本的编写
  18. java 聊天室 私聊_Java聊天室——实现多人聊天、私聊、群聊
  19. linux下使用man命令查看系统调用
  20. 基于easyTrader部署自动化交易(一)

热门文章

  1. 纪录一次携号转网记录:
  2. 数据定义语言DDL(保姆级教学)
  3. 【C++】设计模式------单例模式(懒汉和饿汉)
  4. 雷神FFMpeg源码学习笔记
  5. echarts初次渲染出不来效果
  6. 深入浅出Mysql索引的那些事儿
  7. 【安装】Windows下Oracle安装图解----oracle-win-64-11g 详细安装步骤
  8. threejs修改载入的glb模型颜色
  9. LRTimelapse 5 forMac专业延迟摄影渲染工具
  10. 转载:爱情是本糊涂账