我是靠谱客的博主 复杂秋天,最近开发中收集的这篇文章主要介绍一种改进非线性收敛方式的灰狼优化算法研究一、理论基础二、算法实现步骤三、仿真实验与分析四、参考文献,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

文章目录

  • 一、理论基础
    • 1、基本灰狼优化算法(GWO)
    • 2、改进灰狼优化算法(CGWO)
      • (1)引入混沌策略反向学习初始化种群
      • (2)改进非线性收敛因子
      • (3)Cauchy变异算子
  • 二、算法实现步骤
  • 三、仿真实验与分析
  • 四、参考文献

一、理论基础

1、基本灰狼优化算法(GWO)

请参考这里。

2、改进灰狼优化算法(CGWO)

(1)引入混沌策略反向学习初始化种群

从种群多样性和灰狼个体位置的遍历性的角度出发,本文提出的反向学习初始化方法引入了 Logistic text{Logistic} Logistic映射策略,具体实施步骤如下:
步骤1:根据式(1) Logistic text{Logistic} Logistic混沌映射的表达式生成 N N N个初始解 x i x_i xi x i + 1 = μ x i ( 1 − x i ) x i ∈ ( 0 , 1 ) (1) x_{i+1}=mu x_i(1-x_i)quad x_i∈(0,1)tag{1} xi+1=μxi(1xi)xi(0,1)(1)其中, μ ∈ ( 2 , 4 ] mu∈(2,4] μ(2,4]为混沌参数; μ mu μ越大混沌性越高。
步骤2:将 N N N个初始解 x i x_i xi按式(2)生成相对应的 N N N个反向初始解 x i ′ x_i' xi x i ′ = r ( u b ( i ) + l b ( i ) ) − x i (2) x_i'=r(ub(i)+lb(i))-x_itag{2} xi=r(ub(i)+lb(i))xi(2)其中, r r r [ 0 , 1 ] [0,1] [0,1]间的随机数; u b ( i ) ub(i) ub(i) l b ( i ) lb(i) lb(i) x i x_i xi取值的上下界。
步骤3:将上述两步生成的 2 N 2N 2N个初始解按其适应度值从小到大进行排序,选择前 N N N个作为灰狼的初始种群。

(2)改进非线性收敛因子

采用非线性方式能够更加有效平衡全局和局部搜索能力,从而提高算法收敛精度。因此,本文提出一种改进型收敛因子非线性函数形式: a = 2 − 2 [ ( e t / t m a x − 1 ) / ( e − 1 ) ] k (3) a=2-2[(e^{t/t_{max}}-1)/(e-1)]^ktag{3} a=22[(et/tmax1)/(e1)]k(3)其中, k k k为非线性调节系数。改进的迭代方法在寻优前段 a a a低衰减程度,能够更好寻优全局最优解;寻优后段 a a a高衰减程度,能够更精确寻找局部最优解。

(3)Cauchy变异算子

考虑到在算法初期,最优位置应获得足够的扰动以增强算法的搜索能力,而在迭代后期减小变异率可以避免最优解的动荡,从而加快收敛速度,因此,本文提出的改进变异策略见公式(4): x i k ′ = x i k ( 1 + a 2 C ( 0 , 1 ) ) (4) x_{ik}'=x_{ik}(1+a^2C(0,1))tag{4} xik=xik(1+a2C(0,1))(4)其中, x i k x_{ik} xik为待变异元素; a a a为改进后的非线性收敛因子。收敛前阶段 a > 1 a>1 a>1时,能够增强变异扰动,收敛后阶段 a < 1 a<1 a<1时,减小变异扰动,具有自适应的作用; C ( 0 , 1 ) C(0,1) C(0,1)为以0为中心,尺度参数为1的分布的随机数。
随机选取其中一维变异的具体实现方法为:当前代最优灰狼在 D D D维空间中的位置为 x i = { x i 1 , x i 2 , ⋯   , x i D } x_i={x_{i1},x_{i2},cdots,x_{iD}} xi={xi1,xi2,,xiD},以 1 / D 1/D 1/D的概率随机选取其中一个元素 x i k x_{ik} xik进行Cauchy变异,计算变异后位置向量 x i ′ x_i' xi的适应度值,与 x i x_i xi的适应度值进行比较,取适应度值小的为最优位置并更新其适应度值。

二、算法实现步骤

步骤1:初始化种群规模 N N N,最大迭代次数 t m a x t_{max} tmax,搜索维数 D D D,搜索范围 [ l b , u b ] [lb,ub] [lb,ub],控制系数 k k k
步骤2:利用引入 Logistic text{Logistic} Logistic混沌映射策略的反向学习方法初始化灰狼种群。
步骤3:根据式(3)更新收敛因子 a a a,计算群体中每个个体的适应度值并排序,对其中最优个体进行Cauchy变异,选出 α alpha α β beta β δ delta δ狼。
步骤4:根据相应公式计算出 C C C A A A
步骤5:根据相应公式更新灰狼个体位置,并确定猎物的位置。
步骤6:跳至步骤3直到计算达到最大迭代次数。
步骤7:输出 α alpha α狼的位置,也就是寻优得到的全局最优解。

三、仿真实验与分析

系数 k k k的取值影响非线性收敛因子 a a a,进而影响改进算法的性能。通过改变非线性调节系数 k = { 1 , 1.25 , 1.5 , 1.75 , 2 } k={1,1.25,1.5,1.75,2} k={1,1.25,1.5,1.75,2}五组不同取值进行数值实验,从稳定性方面分析调节系数 k k k对CGWO算法性能的影响。
参数设置:种群规模 N = 70 N=70 N=70,最大迭代次数 t m a x = 500 t_{max}=500 tmax=500,独立运行30次。以F3为例。
k = 1 k=1 k=1时的最大值、最小值、平均值及标准差为:

k=1
CGWO:最大值: 1.9788e-12,最小值:1.0312e-15,平均值:1.4892e-13,标准差:3.7775e-13

k = 1.25 k=1.25 k=1.25时的最大值、最小值、平均值及标准差为:

k=1.25
CGWO:最大值: 1.4261e-13,最小值:4.1941e-18,平均值:1.4483e-14,标准差:2.9773e-14

k = 1.5 k=1.5 k=1.5时的最大值、最小值、平均值及标准差为:

k=1.5
CGWO:最大值: 3.3684e-14,最小值:2.5503e-17,平均值:7.4339e-15,标准差:1.0077e-14

k = 1.75 k=1.75 k=1.75时的最大值、最小值、平均值及标准差为:

k=1.75
CGWO:最大值: 6.2523e-14,最小值:1.157e-17,平均值:6.7363e-15,标准差:1.3215e-14

k = 2 k=2 k=2时的最大值、最小值、平均值及标准差为:

k=2
CGWO:最大值: 7.2156e-14,最小值:3.1809e-17,平均值:4.5632e-15,标准差:1.2155e-14

综合分析, k = 2 k=2 k=2时性能最佳。

四、参考文献

[1] 谈发明, 赵俊杰, 王琪. 一种改进非线性收敛方式的灰狼优化算法研究[J]. 微电子学与计算机, 2019, 36(5): 89-95.

最后

以上就是复杂秋天为你收集整理的一种改进非线性收敛方式的灰狼优化算法研究一、理论基础二、算法实现步骤三、仿真实验与分析四、参考文献的全部内容,希望文章能够帮你解决一种改进非线性收敛方式的灰狼优化算法研究一、理论基础二、算法实现步骤三、仿真实验与分析四、参考文献所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(52)

评论列表共有 0 条评论

立即
投稿
返回
顶部