多目标优化问题的研究综述
- 格式:docx
- 大小:110.28 KB
- 文档页数:8
多目标优化算法综述随着科技的发展和社会进步,人们不断地提出更高的科学技术要求,其中许多问题都可以用多目标优化算法得到解决。
多目标优化算法的发展非常迅速,当前已经有各种综合性比较全面的算法,如:遗传算法、粒子群算法、蚁群算法、模拟退火算法等。
本文将进一步介绍这些算法及其应用情况。
一、遗传算法遗传算法(Genetic Algorithm,简称GA)是一种源于生物学进化思想的优化算法,它通过自然选择、交叉和变异等方法来产生新的解,并逐步优化最终的解。
过程中,解又称为个体,个体又组成种群,种群中的个体通过遗传操作产生新的个体。
遗传算法的主要应用领域为工程优化问题,如:智能控制、机器学习、数据分类等。
在实际应用上,遗传算法具有较好的鲁棒性和可靠性,能够为人们解决实际问题提供很好的帮助。
二、粒子群算法粒子群算法(Particle Swarm Optimization,简称PSO)是一种基于群体智能的优化算法,其核心思想是通过群体中的个体相互协作,不断搜索目标函数的最优解。
粒子群算法适用于连续和离散函数优化问题。
和遗传算法不同,粒子群算法在每次迭代中对整个种群进行更新,通过粒子间的信息交流,误差及速度的修改,产生更好的解。
因此粒子群算法收敛速度快,对于动态环境的优化问题有着比较突出的优势。
三、蚁群算法蚁群算法(Ant Colony Optimization,简称ACO)是一种仿生学启发式算法,采用“蚂蚁寻路”策略,模仿蚂蚁寻找食物的行为,通过“信息素”的引导和更新,粗略地搜索解空间。
在实际问题中,这些target可以是要寻找的最优解(minimum或maximum)。
蚁群算法通常用于组合优化问题,如:旅行商问题、资源分配问题、调度问题等。
和其他优化算法相比,蚁群算法在处理组合优化问题时得到的结果更为准确,已经被广泛应用于各个领域。
四、模拟退火算法模拟退火算法(Simulated Annealing,简称SA)是一种启发式优化算法,通过随机搜索来寻找最优解。
软件测试中的多目标优化技术研究在软件测试中,多目标优化技术是一种非常有效的方法。
它基于多个目标函数的优化,可以在保证软件质量的同时提高测试效率。
为了更好地理解这种技术,我们需要从以下几个方面来探讨。
一、多目标优化技术的概念多目标优化技术是指同时优化多个目标函数的一种技术。
在软件测试中,通常存在多个测试目标,如代码覆盖率、错误检测率等。
这些目标之间往往存在着相互制约的关系。
例如,提高代码覆盖率可能会增加测试用例的数量,这会降低测试效率,而减少测试用例的数量又可能导致代码覆盖率降低。
通过多目标优化技术,可以更好地平衡这些目标,达到更好的测试效果。
二、多目标优化技术的分类在多目标优化技术中,常用的方法有多目标遗传算法、多目标粒子群优化等。
这些方法都有其独特的适用场景和优点。
例如,多目标遗传算法适用于离散和连续优化问题,具有较好的全局寻优能力;多目标粒子群优化方法则更加适合于高维优化问题,具有较好的快速收敛能力等。
研究人员可以根据具体问题来选择合适的方法进行优化。
三、多目标优化技术在软件测试中的应用多目标优化技术在软件测试中有着广泛的应用,主要包括测试用例生成、测试数据选择、测试套件优化等方面。
其中,测试用例生成是多目标优化技术的主要应用之一。
在测试用例生成中,通过多目标优化技术,可以生成一组覆盖率高、测试效率高的测试用例,以提高测试覆盖率和测试效率。
四、多目标优化技术的优势和挑战多目标优化技术具有以下优势:一是能够提高软件测试效率和覆盖率;二是能够平衡测试目标之间的相互制约关系;三是能够快速收敛并得到一组更优的解。
但是,多目标优化技术也存在一些挑战:一是需要合适的目标函数和适当的权重设置;二是需要大量的运算资源和时间;三是需要对算法进行合理的参数设置。
总结:多目标优化技术在软件测试中是一种非常有效的技术。
通过多目标优化技术的应用,可以提高测试效率和覆盖率,平衡测试目标之间的相互制约关系。
在具体应用过程中,需要根据具体问题选择合适的算法,设置合理的参数和权重。
多目标优化算法的研究进展随着现代科技的不断发展,优化问题已经成为我们在现代社会中需要面对和解决的重大问题之一。
而伴随着数字化时代的到来,优化问题变得更加具有挑战性和复杂性。
为了使解决这些问题更加高效、准确,多目标优化算法被研究和发展了出来。
而在本文中,将重点介绍多目标优化算法的研究进展。
一、什么是多目标优化算法?多目标优化算法就是在处理复杂的优化问题时,考虑到多个目标,以获得更全面和更优化的解决方案的算法。
传统的单目标优化算法强调最小化或最大化单一目标,而多目标优化算法则将多个目标同时考虑,通过建立目标函数之间的权衡关系,最终找到最符合需求的解决方案。
二、多目标优化算法的研究进展随着人工智能、机器学习等技术的不断发展,多目标优化算法也在不断的发展和创新,下面将对其中几个主要算法做简要的介绍。
1. 遗传算法(Genetic Algorithm)遗传算法是一种类似于自然选择的算法,通过基因重组和变异的方式,模拟进化中的基因遗传过程,不断的优化和迭代,找到最优解。
遗传算法具有易于实现、易于并行计算等优点,在工程实践中得到了广泛的应用。
2. 粒子群算法(Particle Swarm Optimization)粒子群算法是一种模仿鸟类飞翔的行为而设计出来的优化算法,通过不断调整个体位置和速度,使得种群中的每个个体都能够向着更优的方向移动,最终找到最优解。
粒子群算法具有快速、简单易于实现等优点,适用于解决多个目标的优化问题。
3. 模拟退火(Simulated Annealing)模拟退火算法是一种模拟金属晶体退火过程而设计出来的优化算法,旨在寻找全局最优解。
通过模拟随机增加能量、温度逐渐降低、逐渐趋于稳定等过程,模拟金属退火并找到最优的状态,最终得到最优解。
模拟退火算法具有全局最优解的寻找特性,适用于解决复杂的多目标优化问题。
4. 蚁群算法(Ant Colony Optimization)蚁群算法是一种模仿蚂蚁寻找食物的行为而设计出来的优化算法。
多目标优化算法研究及其应用近年来,随着计算机技术的迅猛发展,各种复杂的问题的解决也变得越来越容易。
在众多问题中,优化问题是计算机领域中的一个重要领域,其主要在于通过寻找最优的解来提高数据处理的效率和精度。
而多目标优化问题则是优化问题中的一种特殊情况,其目的是在多个目标指标下找到一个最优的解。
针对多目标优化问题,学术界提出了很多的优化算法,本文将对多目标优化算法及其应用进行简要介绍。
一、多目标优化算法的分类多目标优化算法可分为传统算法和进化算法两大类。
1.传统算法传统算法是一种在固定的解空间中寻找最优解的优化算法。
其主要包括动态规划方法、贪心算法和分支定界算法等。
这类算法可以通过较小的计算代价来找到近似最优解,但其局限性在于解的范围较为有限。
2.进化算法进化算法是一种基于自然进化过程模拟的优化算法,其主要包括遗传算法、粒子群优化、蚁群算法等。
这类算法可以通过多样性的机制来探索解的未知区域。
相比传统算法,进化算法具有更大的搜索空间、更好的收敛性和更强的鲁棒性,因此在实际应用中较为广泛。
二、多目标优化算法的特点多目标优化算法与传统优化算法相比,具有以下优点:1.解集更丰富多目标优化算法能够同时优化多个目标函数,通过提供多个解集,可以帮助决策者从中选择最合适的解决方案。
2.可展示更多信息多目标优化算法不仅能够给出最优解,还能给出一组较优解,从而给决策者展示更全面的信息。
3.适用范围更广多目标优化算法不仅适用于单一目标的问题,还可适用于多目标决策的各个阶段。
三、多目标优化算法的应用多目标优化算法目前被广泛应用于社会的各个领域。
从经济到财务,从工程到决策,从医药到环境保护,都可以看到多目标优化算法的应用。
1.经济在经济中,多目标优化可以应用于股票投资、市场定位、产品设计等领域。
例如,在企业产品设计中,多目标优化可以找到最佳的设计方案,在节约成本的同时提高产品的市场竞争力。
2.工程在工程方面,多目标优化可以应用于汽车设计、城市规划和物流管理等领域。
多目标优化算法的研究与应用随着社会的不断发展和人类的不断探索,优化问题已经成为了一个重要的研究方向。
而在优化问题中,多目标优化问题是一个重要的分支,因为它可以应用到许多实际问题中。
那么多目标优化算法是什么,它有哪些研究方向和应用场景呢?本文将对此进行详细探讨。
一、多目标优化算法的定义与基本概念多目标优化算法(Multi-objective Optimization Algorithm,MOEA)是指在优化问题中存在多个目标函数时,利用一定的搜索策略,寻找一组最优解,使得多个目标函数都能达到最优或接近最优的一类算法。
因为多目标优化问题与单目标优化问题不同,所以它也有其特有的概念和理论。
1. 目标向量(Objective Vector)由多个目标函数组成的一个向量称为目标向量。
目标向量是多目标优化算法中最重要的概念之一,因为在寻找最优解时,我们实际上是在寻找一个最优的目标向量,而不是一个最优解。
例如,在工程设计中,一个解可能满足了一项指标的最优条件,但在另一项指标中可能并不是最优的。
2. 支配关系(Dominance)在多目标优化算法中,如果一个解的所有目标函数的值都不劣于另一个解,则称该解支配另一个解。
这是多目标优化算法中非常重要的概念,因为它可以帮助我们快速判断一个解是否有价值,并指导搜索过程进行剪枝和调整。
3. Pareto最优(Pareto Optimality)在多目标优化算法中,如果一个解集合中没有任何解能够支配它,而它自己能够支配其他所有解,则称该解为Pareto最优解。
因此,Pareto最优集是指由所有Pareto最优解组成的集合。
在多目标优化问题中,Pareto最优解是搜索最终结果的目标之一。
二、多目标优化算法的研究现状多目标优化算法最早的研究可以追溯到20世纪70年代初,当时Holland等人面对优化问题的复杂性,提出了遗传算法(Genetic Algorithm,GA)这一基于自然选择机制的搜索算法,成为了多目标优化算法的基础。
统计学中的多目标优化问题统计学是研究数据收集、分析和解释的科学领域,它在现代社会中扮演着重要的角色。
而在统计学中,多目标优化问题是一个极具挑战性的领域。
本文将从多目标优化问题的定义、应用领域以及解决方法等方面进行论述,帮助读者更好地理解和掌握这一问题。
一、多目标优化问题的定义多目标优化问题是指在有限资源和约束条件下,通过调整多个目标函数的值来寻求最优解的问题。
与传统的单目标优化问题相比,多目标优化问题需要在设计过程中综合考虑多个目标的平衡性,因此更具有实际应用和实际意义。
二、多目标优化问题的应用领域多目标优化问题在各个领域都有广泛的应用。
在工程领域,比如交通规划中,需要考虑最短路径、最小拥堵和最小污染的平衡性;在金融领域,比如投资组合优化中,需要考虑风险最小和收益最大的权衡;在医疗领域,比如疫苗研发中,需要考虑疫苗安全性、有效性和成本效益的平衡等等。
可以看出,多目标优化问题在各个实际应用中,都扮演着重要的角色。
三、解决多目标优化问题的方法解决多目标优化问题的方法非常丰富多样,以下介绍几种常见的方法。
1. 加权和方法加权和方法是多目标优化问题中最简单和直观的方法之一。
它通过为每个目标函数分配权重,将多个目标函数转化为一个综合目标函数。
然后,通过单目标优化方法求解得到一个最优解。
但需要注意的是,权重的选择会对结果产生影响,因此需要针对具体问题进行合理的权衡和选择。
2. Pareto前沿方法Pareto前沿方法是另一种常用的解决多目标优化问题的方法。
该方法将多个目标函数放在一个坐标系中,通过计算使得某一目标函数优化的同时,其他目标函数不劣于某一个值的解,形成一个Pareto前沿。
这样,决策者可以根据自己的偏好从非劣解中选择最优解。
3. 进化算法进化算法是一类基于生物进化过程的优化方法。
其中,遗传算法和粒子群算法是最常用的方法之一。
这些算法通过不断迭代的过程,通过模拟遗传和群体行为来搜索多目标优化问题的最优解。
矿产资源开发利用方案编写内容要求及审查大纲
矿产资源开发利用方案编写内容要求及《矿产资源开发利用方案》审查大纲一、概述
㈠矿区位置、隶属关系和企业性质。
如为改扩建矿山, 应说明矿山现状、
特点及存在的主要问题。
㈡编制依据
(1简述项目前期工作进展情况及与有关方面对项目的意向性协议情况。
(2 列出开发利用方案编制所依据的主要基础性资料的名称。
如经储量管理部门认定的矿区地质勘探报告、选矿试验报告、加工利用试验报告、工程地质初评资料、矿区水文资料和供水资料等。
对改、扩建矿山应有生产实际资料, 如矿山总平面现状图、矿床开拓系统图、采场现状图和主要采选设备清单等。
二、矿产品需求现状和预测
㈠该矿产在国内需求情况和市场供应情况
1、矿产品现状及加工利用趋向。
2、国内近、远期的需求量及主要销向预测。
㈡产品价格分析
1、国内矿产品价格现状。
2、矿产品价格稳定性及变化趋势。
三、矿产资源概况
㈠矿区总体概况
1、矿区总体规划情况。
2、矿区矿产资源概况。
3、该设计与矿区总体开发的关系。
㈡该设计项目的资源概况
1、矿床地质及构造特征。
2、矿床开采技术条件及水文地质条件。
多目标优化算法研究与应用在现代科技和工业领域中,优化算法已成为了一种必不可少的手段,用来解决各种各样的问题。
而其中的多目标优化算法则是一种特殊的优化算法,它不仅可以针对单个目标进行优化,还可以同时优化多个目标。
本文将从多目标优化算法的意义、发展历程以及应用实例等方面展开论述。
一、多目标优化算法的意义和发展历程在人们处理事物的时候,通常需要考虑和优化的目标不止一个,如生产产品时需要考虑成本、质量和效率等参数,这些目标之间有着不同的权重和优先级。
如果只考虑一个目标,就会出现在这个目标下达到最优解的同时,其他目标却没有达到最优解的情况。
因此,多目标优化算法便出现了。
多目标优化算法(Multi-Objective Optimization Algorithm)是一种在多个参数之间求解最优化的算法。
多目标优化算法依据前端理论的不同,又可分为基于Pareto 前端的多目标优化算法和基于主动逼近的多目标优化算法。
前者通常会通过额外条件的限制使得搜索的结果趋近于 Pareto 前端;而后者则倾向于通过主动调整搜索步长增进搜索结果。
多目标优化算法最初是在1960年代后期提出来的,当时,威廉·W·库曼和BCK Kalla在一篇论文中首次详细论述了多目标线性规划问题及其实现方式。
80年代末90年代初,基于遗传算法、进化策略等演化计算方法展开了大量的多目标优化算法研究,如 Pareto 遗传算法、 NSGA、 SPEA 等。
然而,传统的多目标优化算法往往会受到不同搜索目标之间的相互制约、问题结构的复杂性以及超大规模优化问题等因素的影响,导致搜索速度较慢、效果不理想。
为此,在近些年来,各种启发式算法、群体智能算法以及深度学习算法等也被应用到了多目标优化问题的研究中。
二、多目标优化算法的应用实例1. 机器学习领域机器学习作为一种技术手段,通常需要对大量的数据进行处理和分析,从而达到分类、预测或者其他目的。
多目标优化问题求解算法研究1.引言多目标优化问题在现实生活中是非常常见的。
在这类问题中,决策者需要同时优化多个决策变量,同时满足多个不同的目标函数。
传统的单目标优化问题求解算法无法直接应用于多目标优化问题。
因此,多目标优化问题求解算法的研究一直是优化领域的热点之一。
本文将介绍几种常见的多目标优化问题求解算法以及它们的优缺点。
2.多目标进化算法多目标进化算法是一类基于进化计算理论的解决多目标优化问题的算法。
其中最广为人知的是多目标遗传算法(Multi-Objective Genetic Algorithm,MOGA)。
MOGA通过维护一个种群来搜索多目标优化问题的解。
通过遗传算子(交叉、变异等)不断迭代种群,从而逼近最优解的帕累托前沿。
MOGA的优点是能够并行地搜索多个解,然而其缺点是收敛速度较慢,对参数选择比较敏感。
3.多目标粒子群优化算法多目标粒子群优化算法(Multi-Objective Particle Swarm Optimization,MOPSO)是另一种常见的多目标优化问题求解算法。
粒子群优化算法(Particle Swarm Optimization,PSO)是一种基于群体智能的优化算法,通过模拟鸟群中鸟的移动行为来解决优化问题。
MOPSO对传统PSO进行了扩展,通过引入帕累托支配的概念来维护种群的多样性。
MOPSO的优点是搜索能力较强,但其缺点是难以处理高维问题和收敛到非帕累托前沿。
4.多目标蚁群算法多目标蚁群算法(Multi-Objective Ant Colony Optimization,MOACO)是一种基于蚁群算法的多目标优化问题求解算法。
蚁群算法通过模拟蚂蚁寻找食物的行为来解决优化问题。
MOACO引入了多目标优化的概念,通过引入多个目标函数的估计值来引导蚂蚁搜索。
MOACO的优点是在小规模问题上有较好的表现,但对于大规模问题需要更多的改进。
5.多目标模拟退火算法多目标模拟退火算法(Multi-Objective Simulated Annealing,MOSA)是一种基于模拟退火算法的多目标优化问题求解算法。
多目标优化方法及其应用研究在实际的决策问题中,很难只有单一的优化目标,因为各个因素之间的相互制约和影响常常导致我们需要同时优化多个目标。
例如,在供应链管理中,我们需要同时考虑库存成本、运输成本和服务水平;在机器学习中,我们需要同时优化模型的预测精度和运行速度。
这些问题都属于多目标优化问题,常规的单目标优化方法已经无法应对这些问题。
因此,多目标优化方法的研究和应用越来越受到重视。
一、多目标优化方法的研究1、传统的多目标优化方法传统的多目标优化方法主要有两种:加权法和目标规划法。
加权法是通过将各个目标赋予不同的权重,将多个目标转化成单一的目标来进行优化。
这种方法简单易懂,但是需要预先指定权重,因此较难考虑各个目标之间的相互影响。
目标规划法则是将多个目标作为约束条件,将所有可行解映射到一个高维空间中得到一个帕累托前沿集合,即最优解的解集。
目标规划法不需要预先指定权重,但是需要进行高维优化,计算量较大。
2、进化算法近年来,进化算法成为解决多目标优化问题的一种重要方法。
进化算法是一种模拟自然界进化的计算模型,常用的进化算法有遗传算法和粒子群优化算法。
遗传算法通过遗传、变异、选择等操作来不断调整优化的解,从而找到一组最优解。
粒子群优化算法则是通过不断更新每个解的速度和位置,使得多个解在解空间中筛选出一组最优解。
3、多目标机器学习多目标机器学习是基于机器学习的多目标优化方法。
在多目标机器学习中,我们需要同时考虑模型的预测精度和运行速度等多个目标,通过设计不同的算法来解决这些问题。
例如,可以使用加速算法、剪枝算法等来提高模型的运行速度,同时使用集成算法、双目标优化等来提高预测精度。
二、多目标优化方法的应用1、供应链管理在供应链管理中,我们需要考虑库存成本、运输成本和服务水平等多个目标,通过多目标优化方法可以找到一组最优解。
例如,可以使用目标规划法来确定供应商的选择和订单的配置,同时考虑库存成本、运输成本和服务水平等多个目标。
第 22卷第 5期2023年 5月Vol.22 No.5May 2023软件导刊Software Guide连续昂贵多目标优化问题综述张峰,陈新中(中国电子科技集团公司第二十八研究所,江苏南京 210007)摘要:许多实际工程优化问题通常需要同时优化多个相互冲突的目标,并且目标函数的计算主要依赖十分耗时的仿真实验,此类问题一般可称为昂贵多目标优化问题。
代理辅助进化算法通过使用机器学习方法建立代理模型,并辅助算法进行评估,因而使代理辅助进化算法成为解决此类问题的热门方法。
根据问题规模大小将相关算法划分成两类,描述每类问题特点,分类梳理相关算法,并说明每个算法的优缺点,以便人们能直观地了解连续昂贵多目标优化问题研究进展,更好地开展后续研究工作。
关键词:多目标优化;昂贵多目标优化;代理辅助进化算法;代理模型;机器学习DOI:10.11907/rjdk.221626开放科学(资源服务)标识码(OSID):中图分类号:TP18 文献标识码:A文章编号:1672-7800(2023)005-0248-05Survey of Continuous Expensive Multiobjective Optimization ProblemsZHANG Feng, CHEN Xin-zhong(The 28th Research Institute of China Electronics Technology Group Corporation, Nanjing 210007, China)Abstract:Many practical engineering optimization problems usually involve optimizing multiple conflicting objectives at the same time, and the calculation of the objective function mainly relies on time-consuming simulation experiments, such problems can generally be called ex‐pensive multiobjective optimization problems. Surrogate-assisted evolutionary algorithms use machine learning methods to build surrogate mod‐els and assist algorithms for evaluation, which makes surrogate-assisted evolutionary algorithms a popular method to solve such problems. Ac‐cording to the scale of the problem, the relevant algorithms are divided into two categories, the characteristics of each type of problem are de‐scribed, the related algorithms are classified and sorted out, and the advantages and disadvantages of each algorithm are explained, so that people can intuitively understand the research progress of continuous expensive multiobjective optimization problems and better carry out fol‐low-up research work.Key Words:multiobjective optimization; expensive multiobjective optimization; surrogate-assisted evolutionary algorithm; surrogate mod‐el; machine learning0 引言许多实际工程优化问题,通常涉及同时优化多个相互冲突的目标,此类问题可称为多目标优化问题(Multiobjec‐tive Optimization Problem,MOP)[1-4]。
《多目标优化的若干问题研究》篇一一、引言多目标优化是一种广泛应用于多个领域的优化方法,旨在解决涉及多个目标函数的优化问题。
这类问题在现实世界中非常普遍,例如在企业管理、交通运输、环境保护、工程设计等领域中,经常需要同时考虑多个相互冲突的目标,如成本、时间、质量、效率等。
因此,多目标优化问题的研究具有重要的理论意义和实际应用价值。
二、多目标优化的基本概念与特点多目标优化问题是指在同一问题中存在多个相互冲突的目标函数,需要同时进行优化的问题。
其基本特点包括:1. 目标函数的多样性:多目标优化问题中存在多个目标函数,这些目标函数之间往往存在冲突,难以同时达到最优。
2. 决策变量的约束性:多目标优化问题的决策变量通常受到多种约束条件的限制,如线性约束、非线性约束、整数约束等。
3. 解的多样性:由于多个目标函数的存在,多目标优化问题的解通常不是唯一的,而是存在一个解集,称为Pareto解集。
三、多目标优化的主要方法针对多目标优化问题,研究者们提出了多种解决方法,主要包括以下几种:1. 线性加权法:通过给每个目标函数分配一个权重系数,将多目标优化问题转化为单目标优化问题。
但权重系数的确定往往需要依赖于先验知识或试凑法。
2. 多目标决策分析:通过对各个目标函数进行综合评估,得到一个综合评价指标,然后根据该指标对解进行排序和选择。
3. 交互式决策法:通过与决策者进行交互,逐步确定各目标函数的优先级和权重系数,从而得到满足决策者偏好的解。
4. 基于Pareto解的方法:通过寻找Pareto解集,为决策者提供多个折衷解,供其根据实际情况进行选择。
四、多目标优化的若干问题研究针对多目标优化问题的研究,目前还存在一些亟待解决的问题:1. 目标函数权重的确定:在线性加权法中,如何合理地确定各目标函数的权重系数是一个关键问题。
不同的权重系数可能导致完全不同的优化结果。
2. 约束条件的处理:多目标优化问题中的约束条件往往较为复杂,如何有效地处理这些约束条件,保证解的可行性和有效性是一个重要问题。
第43卷 第7期2020年7月计 算 机 学 报CHINESEJOURNALOFCOMPUTERSVol.43No.7July2020 收稿日期:2018 12 27;在线发布日期:2019 11 11.本课题得到国家自然科学基金(61876141,61373111,61672405,61871306)和陕西省自然科学基金(2019JZ 26)资助.刘若辰,博士,教授,博士生导师,主要研究领域为计算智能、数据挖掘以及模式识别等.E mail:ruochenliu@xidian.edu.cn.李建霞,博士研究生,主要研究方向为动态多目标优化.刘 静,博士,教授,博士生导师,主要研究领域为进化计算、数据挖掘以及网络分析与挖掘.焦李成,博士,教授,博士生导师,中国计算机学会(CCF)高级会员,主要研究领域为智能感知、图像理解等.动态多目标优化研究综述刘若辰 李建霞 刘 静 焦李成(西安电子科技大学智能感知与图像理解教育部重点实验室 西安710071)摘 要 现实生活中,存在许多动态多目标优化问题(DynamicMulti objectiveOptimizationProblems,DMOPs),这类问题的目标函数之间相互矛盾,并且目标函数、约束或者参数都可能随着时间的变化而发生变化.这种随时间不断变化的特性,给解决DMOPs带来了挑战,算法不仅要能够追踪到最优解,同时还要求算法能够快速地对发生的变化做出响应.本文对动态多目标优化(DynamicMulti objectiveOptimization,DMO)的研究进行了比较全面的综述,具体内容如下:(1)描述了DMO的相关理论背景;(2)阐述了DMOPs的分类并对现有的基准问题做了分类归纳;(3)详细讨论了DMO研究的发展概况;(4)对DMO算法的性能评价指标进行了归类介绍;(5)通过实验对比了主流DMO算法的性能;(6)总结了DMO算法在一些领域的应用;(7)分析了解决DMOPs存在的挑战以及诸多难题.关键词 动态多目标优化;多目标优化;Pareto最优;测试函数;性能指标;实际应用中图法分类号TP301 犇犗犐号10.11897/SP.J.1016.2020.01246犃犛狌狉狏犲狔狅狀犇狔狀犪犿犻犮犕狌犾狋犻 犗犫犼犲犮狋犻狏犲犗狆狋犻犿犻狕犪狋犻狅狀LIURuo Chen LIJian Xia LIUJing JIAOLi Cheng(犓犲狔犔犪犫狅狉犪狋狅狉狔狅犳犐狀狋犲犾犾犻犵犲狀狋犘犲狉犮犲狆狋犻狅狀犪狀犱犐犿犪犵犲犝狀犱犲狉狊狋犪狀犱犻狀犵狅犳犕犻狀犻狊狋狉狔狅犳犈犱狌犮犪狋犻狅狀,犡犻犱犻犪狀犝狀犻狏犲狉狊犻狋狔,犡犻’犪狀 710071)犃犫狊狋狉犪犮狋 Inreallife,therearemanydynamicmulti objectiveoptimizationproblems(DMOPs),inwhichtheobjectivefunctionsrestricteachotherandtheobjectivefunctions,constraintsorparametersmaychangeovertime.ThischangingpropertywithtimebringschallengestosolvingDMOPs.Thealgorithmnotonlyneedstotracktheoptimalsolution,butalsoneedstorespondtochangesintheenvironmentquickly.Thispapergivesacomprehensivereviewoftheresearchondynamicmulti objectiveoptimization(DMO),includingthefollowingcontents.(1)ThispaperfirstintroducestherelevanttheoreticalbackgroundofDMO,includingthedefinitionofDMOP,thedefinitionofPareto optimalset(犘犛)andPareto optimalfront(犘犉).(2)ThispapershowstheclassificationofDMOPsandsummarizestheexistingbenchmarkfunctionsaccordingtothedifferentcharacteristicsofproblems,forinstancethechangetypes,theshapeof犘犛ortheshapeof犘犉,therelationshipbetweenthevariables,changeinthenumberofobjectivefunctions,changeinthedimensionofthedecisionvectors,whetherthereareconstraintsandsoon.(3)BasedonthesimpleanalysisofgeneralframeworkofsolvingDMOPs,thispaperdiscussestheresearchstatusofthedynamicmulti objectiveoptimizationalgorithms(DMOAs)indetail.WhensolvingaDMOP,iftheenvironmentchanges,thealgorithmmustbeabletodetectthechangesofenvironmentsensitivelyandrespondtothechangesoccurredintheenvironmentseffectively;iftheenvironmentdoesnotchange,thealgorithmshouldtracktheParetooptimalsolutionsofthecurrentenvironmentasquicklyandaccuratelyaspossible.Therefore,anenvironmentalchangedetectionoperator,anenvironmentalchangeresponsestrategyandanexcellentstaticmulti objectiveoptimizationalgorithmarethreeindispensablepartsofaDMOA.Thus,thediscussionofthestatusofDMOAsalsobasedontheabovethreeparts.Specially,thereviewofresponsestrategiesmainlyincludesthediversityintroductionstrategy,diversitymaintenancestrategy,predictionstrategy,memory basedstrategy,self adaptiveresponsestrategyandsomenewresponsestrategiesbasedonspecialmodelssuchastransferlearningandsupportvectormachine.Itisworthnotingthatwehaveanalyzedtheadvantagesanddisadvantagesofeachmethod.(4)ThemainpurposeofperformanceevaluationistoevaluatetheconvergenceanddiversityofDMOAs.Inthispaper,theperformancemetricsareclassifiedandintroducedaccordingtowhetherthemetricisforevaluationconvergence,evaluationdiversityorcomprehensiveevaluationconvergenceanddiversity.(5)ThispapercomparestheperformanceofsomemainstreamDMOAsthroughempiricalstudies,findingeachalgorithmhasmoreorlessshortcomingsandcannotsolveeveryDMOPperfectly.(6)ThispapersummarizessomepracticalapplicationcasesofDMOAs,suchascontrolproblem,schedulingproblem,mechanicaldesignproblem,imagesegmentationproblem,resourcemanagementproblem,pathoptimizationproblem.(7)Finally,thispaperproposesthechallengesandtheexistingproblemsinsolvingtheDMOPs.Ononehand,itisdifficulttodesignefficientandeffectiveenvironmentalchangedetectionoperatorsandenvironmentalchangeresponsestrategiestosolvesomecomplexDMOPs.Ontheotherhand,theresearchofDMOandpracticalapplicationaredisconnect,mostoftheexistingDMOAscanonlyhandletheoreticalDMOPs.犓犲狔狑狅狉犱狊 dynamicmulti objectiveoptimization;multi objectiveoptimization;Paretooptimal;benchmarkfunctions;performancemetrics,practicalapplication1 引 言在工业应用和科学研究中存在许多多目标优化问题(Multi objectiveOptimizationProblems,MOPs),MOPs需要并行处理几个相互矛盾的目标.在众多的MOP中,存在一种特殊的MOPs———DMOPs,DMOPs具备MOPs的问题特点,同时DMOPs会随着时间的变化而发生改变,例如目标函数,约束或者参数可能会随着时间的变化而不断发生变化[1].对MOPs来说,没有一个最优解能够同时满足优化多个相互矛盾的目标,处理MOPs的目的是找到能够近似同时优化几个目标的折衷解,即就是Pareto最优解集犘犛(Pareto optimalSet)[2],而求解DMOPs的目标是追踪不同时刻的犘犛.近年来,越来越多的研究人员开始致力于DMOPs的研究,这是因为动态多目标优化(DynamicMulti objectiveOptimization,DMO)具有重要的理论研究价值,并且DMO在现实生活和工业生产的许多方面都具有非常广泛的应用前景,下面简单地列举几个动态多目标优化算法(DMOAlgorithms,DMOAs)的典型应用领域.从交通运输管理层面考虑,在一个十字路口处,道路状况、车辆的数目、任务的优先级、突发状况等多种因素都是随时间动态变化的,如何在综合考虑上述因素的情况下,管理车辆运行来减少交通拥堵并实现社会效益的最大化就是一类非常典型的DMOP;从节能环保层面考虑:在一个水火电力调度系统中,如何在总电力需求随时间动态变化的过程中实现发电的总能源成本和污染排放量最小化也是一个DMOP;从生产调度领域考虑:在不断变化的市场需求下,产品公司如何在生产产品的过程中实现利润的最大化、成本的最小化以及环境污染的最小化,这就是一个DMOP.DMOPs的问题特性,给解决DMOPs带来了很大的挑战,DMOAs要准确地检测到发生的变化,要对发生的变化做出有效地应答,要较快地找到当前时刻的最优解,这些问题导致很难设计出适用于各种DMOPs的有效算法,更不要说设计有效的算法用来解决复杂的实际DMOPs.因此,DMO的研究需要投入更多的精力来探索DMOPs的特性,设计高效的算法来解决各种理论问题和实际问题.本文主要介绍了DMO的相关理论背景及74217期刘若辰等:动态多目标优化研究综述DMOPs的分类、DMOAs的发展概况以及性能评价指标、主流DMOAs性能对比及DMOAs的实际应用案例,在以上内容的基础上本文总结了求解DMOPs存在的诸多难题.2 动态多目标优化的相关理论背景一个最小化的DMOP的定义如下[3]:minimize犉(狓,狋)={犳1(狓,狋),犳2(狓,狋),…,犳犿(狓,狋)}s.t.犵犻(狓,狋) 0, 犺犼(狓,狋)=0, 犻=1,2,…,狆,犼=1,2,…,烅烄烆狇(1)其中,狋是环境(时间)变量,狓是犚狀上的决策向量,犉(狓,狋)是目标向量,犵(狓,狋)和犺(狓,狋)是不等式约束和等式约束.定义1. 狋时刻,如果狓1和狓2满足: 犻∈{1,…,犿}:犳犻(狓1,狋) 犳犻(狓2,狋)∧ 犼∈{1,…,犿}:犳犼(狓1,狋)<犳犼(狓2,狋)(2)则认为狓1支配狓2,记作狓1 狓2.定义2. 狋时刻,不存在任何一个个体狓′∈犚狀支配个体狓,那么狓就是问题(1)在狋时刻的一个Pareto最优解.狋时刻,问题(1)的所有Pareto最优解构成了犘犛狋,表示为犘犛狋={狓∈犚狀| 狓′∈犚狀,狓′ 狓}(3)定义3. 狋时刻,犘犛狋在目标空间中的映射称为犘犉狋,表示为犘犉狋={犉(狓,狋)|狓∈犘犛狋}(4)3 动态多目标优化问题的分类Farina等人[3]提出,根据犘犛和犘犉动态变化的不同组合,DMOPs主要分为以下四类:(1)TypeI:犘犛狋改变,犘犉狋保持不变;(2)TypeII:犘犛狋和犘犉狋都改变;(3)TypeIII:犘犛狋保持不变,犘犉狋改变;(4)TypeIV:犘犛狋和犘犉狋都保持不变.目前,很多学者已经提出了许多不同DMOPs,下面我们将对现有的DMOPs进行简单的归纳总结,如表1所示.所有测试问题的具体定义见附录A.表1 动态多目标优化问题问题特征FDA[3]DMOP[4]DIMP[5]HE[6]JY[7]变化类型(I~IV)TypeIFDA1,FDA4DMOP3DIMP1,DIMP2HE1~HE10JY1TypeIIFDA2,FDA3,FDA5DMOP2——JY2~JY4,JY6,JY7TypeIII—DMOP1——JY5,JY8TypeIV—————带约束优化问题—————决策变量以不同的速率变化——DIMP1,DIMP2——犘犉中解的分布随时间变化FDA3,FDA5DMOP3——JY4犘犉形状随时间变化FDA2DMOP1,DMOP2——JY2~JY10犘犛形状随时间变化—————犘犉不连续———HE1,HE2JY4犘犛不连续—————目标函数的个数随时间变化—————决策向量的维数随时间变化————决策变量之间存在非线性关系———HE3~HE10JY3,JY6,JY7每一维决策变量形状不同———HE3~HE10—混合变化————JY9,JY10问题特征SJY[8]DCP[9]DSW[10]UDF[11]ZF[12]变化类型(I~IV)TypeISJY1,SJY2DCP1~DCP7——ZF8TypeIISJY3—DSW1~DSW3UDF1,2,4,5,8,9ZF5~ZF7,ZF9~ZF10TypeIIISJY4——UDF3,UDF6,UDF7—TypeIVSJY5————带约束优化问题—DCP1~DCP7———决策变量以不同的速率变化—————犘犉中解的分布随时间变化SJY3,SJY4————犘犉形状随时间变化SJY3,SJY4——UDF2,UDF4~UDF6ZF5~ZF7,ZF9~ZF10犘犛形状随时间变化———UDF4,UDF5ZF5~ZF10犘犉不连续——DSW2UDF3,UDF6—犘犛不连续—————目标函数的个数随时间变化—————决策向量的维数随时间变化—————决策变量之间存在非线性关系SJY2——UDF1~UDF9ZF5~ZF10每一维决策变量形状不同—————混合变化—————8421计 算 机 学 报2020年(续 表)问题特征T[13]DMZDT[14]CF[15]DTLZAv[16]ZJZ[17]变化类型(I~IV)TypeI—DMADT1~DMADT4———TypeII——CF1~CF6—ZJZTypeIIIT2————TypeIVT1,T3,T4————带约束优化问题—————决策变量以不同的速率变化————犘犉中解的分布随时间变化—DMZDT4———犘犉形状随时间变化————ZJZ犘犛形状随时间变化———DTLZAv—犘犉不连续—DMZDT3———犘犛不连续—————目标函数的个数随时间变化T2—CF1~CF6DTLZAv—决策向量的维数随时间变化T1————决策变量之间存在非线性关系————ZJZ每一维决策变量形状不同—————混合变化———DTLZAv—值得注意的是,现有的DMOAs一般都只是解决前三种类型的DMOPs,很少有算法解决犘犛狋和犘犉狋都保持不变的问题或者四种变化类型混合出现的DMOPs.4 动态多目标优化算法的研究现状DMOPs是近20年来的新兴问题之一,求解DMOPs具有很大的挑战性,DMOAs需要同时优化多个目标,同时还要能够快速精确地检测和响应发生的变化,较快地找到随时间变化的最优解.目前,MOPs已经取得了较好的研究成果,但对于DMOPs的研究深度还不够,高效求解DMOPs的算法还比较少.近年来越来越多的学者加入到这一研究领域,提出了很多DMOAs[18 22].1 DMOAs能够有效地解决DMOPs,必须尽可能地保证以下两点:(1)如果环境发生变化,算法必须要保证能够灵敏地检测到环境的变化并且有效地响应环境变化;(2)如果环境没有发生变化,算法要尽可能快速地追踪到当前环境的犘犛.因此,环境变化检测、变化应答机制、静态多目标优化算法是DMOAs的重要组成部分.图1给出了DMOAs的一般框架.4 1 环境变化检测环境变化检测机制用来检测环境中的变化.当前变化检测机制的研究主要集中在以下三个方面.(1)重评估.其主要思路是从种群中选取一部分个体,并对这些个体进行重新评估,如果相邻两次迭代的目标函数值之间存在差异,那么我们认为环境中发生了变化.一般常用的方法是从种群中随机选取一定比例的个体进行重评估[1,4,12,23 24].2016年,Sahmoud和Topcuoglu提出了一系列新的变化检测机制(Sensor basedChangeDetection,SBCD)[25],这些变化检测方法主要分为两类:第一类是基于种群的检测方法,该方法是从种群中选择个体来检测变化;第二类是不基于种群的选择方法,在搜索空间中产生一些新个体来检测环境变化.但是这种方法中选取的用来进行重评估的解的数量会影响算法的复杂度.(2)目标函数值数据的分布估计.Richter[26]提出的这一检测变化的方法主要思想是将当前代找到的犘犛放入下一代中计算目标函数值得到目标解集,若当前代的目标解集和新一代的目标解集具有不同的分布,则证明环境发生了变化.但是统计分布的相关参数的设定还是一个值得研究的问题.(3)稳定状态检测方法.该方法是2017年杨圣祥等人[27]提出的,这种方法也是基于重评估的,与重评估方法不同的是,稳态检测方法是将所有个体随机排列,然后逐一进行重评估,如果发现某个体重评估存在差异,则判定环境发生变化,其余的个体就无94217期刘若辰等:动态多目标优化研究综述须评估.但是这种方法的时间复杂度对随机排序的顺序有很强的依赖性.目前,几乎所有的环境变化检测算子都只是简单地检测出环境发生了变化,而并未明确地检测出环境变化的类型和强度,一个优秀的环境变化检测理应解决上面的问题来为应答机制的设计做好铺垫,提供指导.4 2 环境变化应答机制当变化检测机制检测到变化时,证明一个新的环境即将到来,因此变化应答机制需要起作用来适应环境的变化.当前的变化应答机制主要有以下几类:多样性引入机制、多样性保持机制、预测机制、记忆机制、自适应应答机制以及基于特殊模型的应答机制.4.2.1 多样性引入机制在求解DMOPs时,由于缺乏足够的多样性,DMOAs可能无法找到最优解.算法可能已经收敛到一个特定的区域,当新的环境变化发生时,算法可能无法找到新环境的犘犛.因此,当环境发生变化时,引入多样性可能是有用的.2007年,Deb等人提出两种环境适应策略(随机初始化机制和变异机制),并将其引入到非支配排序遗传算法(Non dominatedSortingGeneticAlgorithm II,NSGA II)[28]中提出DNSGA II(DynamicNSGA II)[1]来解决DMOPs.其中DNSGA II A是当前环境中找到的犘犛的一些个体被初始化产生的新个体替换;DNSGA II B是当前环境找到的犘犛中的一些个体发生高斯变异;将两种策略得到的种群作为新环境的初始种群,来实现新环境中种群多样性的引入.作者在FDA2和水火电力调度问题上测试了算法性能,实验表明对于DNSGA II A,随机产生的个体比例为20%~70%时算法性能相对较好,对于DNSGA II B,变异个体的比例设置为40%~100%时算法性能相对较好.但是作者采用的测试函数比较少,上面的多样性引入比例并不一定适用于其它的测试函数.2008年,Greeff和Engelbrecht将重新初始化的环境变化应答机制集成到向量评估多目标优化算法(VectorEvaluatedParticleSwarmOptimization(PSO),VEPSO)[29]中提出DVEPSO(DynamicVE PSO)[24]来求解DMOPs,当环境发生变化之后,算法重新初始化部分粒子的位置来响应环境变化,并且算法分析了不同初始化比例对算法性能的影响.通过在FDA1和FDA4上的实验证明环境发生变化后初始化所有粒子的位置时算法性能最好.但是仅根据两个测试函数的实验得出这样的结论似乎缺乏可信度.之后,作者在DVEPSO的基础上做了一系列更深入的研究,探讨了不同共享机制[30]、不同存档处理机制[31]、不同更新机制[32]以及不同边界处理方法[33]对算法性能的影响.2009年,Lechuga基于多目标PSO(MultipleObjectivePSO,MOPSO)[34]提出了DynamicMOPSO(DMOPSO)[35].当环境发生变化时,算法采用两种简单的应答机制:第一种是新环境中每个粒子继承其当前找到的最优位置,另一种是随机产生新环境中所有粒子的初始位置.作者测试了算法在FDA1和FDA2上的性能,实验结果表明第二种方法的性能优于第一种方法的性能.作者也表明应该在更多的测试函数上验证算法的性能.2009年,Goh和Tan为了解决DMOPs提出了一种竞争型———合作型协同进化多目标优化算法(DynamicCompetitive cooperationCoevolutionaryAlgorithm,D COEA)[4],它结合了自然界中的竞争和合作机制,以促进协同进化中的自适应问题的分解.每个子种群将竞争代表多目标优化问题的特定子组成部分,而最终的获胜者将合作进化以获得更好的解,通过这种竞争和合作的迭代过程,不同子种群对各种子组成部分进行优化.当环境发生变化时,启动竞争机制来决定每个子种群是否需要重新初始化.作者通过FDA1,DMOP1~DMOP3这四个测试函数验证了算法的性能,实验证明D COEA在DMOP2上的性能不是很好.2017年,刘若辰等人在多粒子群协同进化算法(CoevolutionaryMulti swarmPSO,CMPSO)[36]的基础上提出一种新型的DMOA(CMPSOforDMO,CMPSODMO)[37],结合一种简单的环境变化应答机制———随机初始化方法来解决DMOPs.作者验证了算法在8个测试函数上的性能,包括DMOP1、DMOP2、FDA1、FDA3、FDA4、HE3、HE5、ZJZ,实验结果表明算法在FDA3、HE3以及HE5上性能不好,并且算法的时间复杂度也是一个值得改进的问题.2018年,Sahmoud和Topcuoglu提出了一种基于变化类型检测(TypeDetection,TD)的DMOA(TD basedNSGA II,TD NSGA II)[25]来解决DMOPs,类型检测机制描述如下:根据环境变化前后非支配解的数目的差异可以判断问题的犘犛是否发生变化.如果差异较大,说明犘犛发生变化,变化0521计 算 机 学 报2020年类型是类型一和类型二,则随机初始化10%的个体来代替种群中的个体以此对环境变化做出响应;如果差异较小,说明犘犛未发生变化,变化类型是类型三和类型四,响应环境变化的方法是通过变异算子在种群中添加一个随机扰动来响应环境变化.作者验证了算法在7个测试函数上的性能,包括FDA1、FDA4、FDA5、DMOP1、DMOP2、SJY4、SJY5,实验表明TD NSGA II的性能优于DNSGA II,但是作者没有对随机初始化比例设置为10%给出相应的证明.多样性引入机制原理简单,易于实现,但是这种方法只是盲目地对环境变化做出反应,有可能会误导种群的进化.多样性引入机制的发展历程如图2所示.4.2.2 多样性保持机制多样性保持机制是相对于引入多样性机制而言的,这种方法直接将上一时刻的犘犛作为新时刻的初始种群.2005年,尚荣华等人基于克隆选择理论提出了一种克隆选择算法(ClonalSelectionAlgorithmforDynamicMulti objectiveOptimization,CSADMO)[38]来处理DMOPs,克隆选择和非一致性变异是该算法的主要算子.CSADMO直接将当前环境的犘犛作为新环境的初始种群.作者仅测试了CSADMO在FDA1和FDA4上的性能,而作者也明确说明应该用CSADMO来解决更多的DMOPs,来验证算法的性能优劣.2006年,曾三友等人基于正交多目标优化算法(OrthogonalMulti ObjectiveEvolutionaryAlgorithm II,OMOEA II)[39],提出了一种动态正交多目标优化算法(DynamicOMOEA II,DOMOEA II)[40],该算法直接采用当前环境的犘犛作为新环境的初始种群.作者测试了DOMOEA II在FDA1~FDA3上的性能,但是并没有和其它的DMOAs作对比,因此算法性能的好坏程度没有确定的一个衡量标准.2014年,尚荣华等人提出了一种量子免疫克隆协同进化算法(QuantumImmuneClonalCo evolutionaryAlgorithm,QICCA)[41]来求解DMOPs,在人工免疫系统基本原理的基础上,该算法采用免疫克隆选择来解决DMOPs.QICCA直接采用当前环境的犘犛作为新环境的初始种群.作者测试了算法在FDA1~FDA5上的性能,实验结果表明QICCA总体性能较好,但是算法的收敛速度还需要提高以使算法适合解决实际问题.多样性保持机制的特点是它只适合解决连续优化问题.它适合解决环境变化较小的DMOPs,但是当环境变化剧烈时,它的性能可能很差.4.2.3 预测机制在某些情况下,环境变化可能遵循某种可以预测的模式,因此,找到这种模式的规律来预测下一个环境变化也是一种响应环境变化的有效方式.2006,Hatzakis和Wallace基于排队多目标进化算法(QueuingMulti ObjectiveOptimizer,QMOO)[42]提出了D QMOO(DynamicQMOO)[43]来求解DMOPs,设计了一种前向预测机制(Feed forwardPredictionStrategy,FPS)来适应环境变化,该预测机制描述如下:当环境变化发生时,新环境的初始种群主要包括三部分个体:通过自回归模型(AutoRegression,AR)利用历史信息预测的解,当前环境的部分非支配解以及产生的部分新的随机解.作者仅测试了算法在FDA1上的性能,也证明了在FDA1上预测是有效的,但是作者也表明可以采用其它的预测模型来解决复杂的优化问题,比如人工神经网络、贝叶斯模型等,并且可以研究不同的预测模型所适合的问题类型.2007年,周爱民等人采用基于正则模型的分布估计算法(ARegularityModel basedMultiobjectiveEDA,RM MEDA)[44],同时设计了新的变化应答机制———基于预测的种群初始化方法(PredictedRe Initialization,PRI),提出了RM MEDA/PRI(PRI basedRM MEDA)[17]来解决DMOPs,当检测到环境变化时,根据历史环境最优解的位置变化来15217期刘若辰等:动态多目标优化研究综述预测新环境中个体的位置,并用高斯噪声干扰新种群来避免算法陷入局部最优.作者测试了算法在FDA1和ZJZ上的性能,实验证明算法性能比较理想.但是实验结果也表明时间窗的宽度对性能有显著影响,时间窗越宽,算法性能越好,时间复杂度越高,因此选择合适的时间窗宽度来平衡算法性能和时间复杂度是一个值得研究的问题.2010年,Koo等人提出了一种动态多目标进化梯度搜索(Multi ObjectiveEvolutionaryGradientSearch,DMO EGS)[5]来解决DMOPs,DMO EGS的创新点是设计了一种梯度预测机制,它能够根据历史环境的信息预测下一次环境变化的方向和幅度.作者测试了算法在FDA1、FDA3、DIMP1以及DIMP2上的性能,实验证明当环境变化较快时,算法性能不理想,并且作者也提出用更好的预测模型来预测梯度进而提高算法的性能.2013年,周爱民等人基于RM MEDA,同时设计了一种基于种群的预测机制(PopulationPredictionStrategy,PPS)来响应环境变化,提出了PPS RM MEDA(PPS basedRM MEDA)[12]来求解DMOPs,PPS描述如下:种群被分为中心点和流形,历史时刻的几个中心点可以预测产生新时刻的中心点,而历史时刻的流形可以用来预测产生新时刻的流形,利用预测得到的中心点和流形可以产生新时刻的初始种群.作者在FDA1、FDA4、DMOP1、DMOP2以及新提出的四种测试函数ZF5~ZF8上测试了算法性能,实验证明PPS优于FPS以及随机初始化方法,但是由于前期历史信息积累不足,因此PPS前期性能很不好,作者建议结合其他的应答机制组成混合机制来响应环境的变化.2014年,刘若辰等人提出了一种非支配排序协同进化多目标算法(Non dominatedSortingCooperativeCoevolutionDynamicMulti objectiveOptimizationbasedonaPredictiveModel,PNSCCDMO)[45]来解决DMOPs,当环境发生变化时,算法采用线性回归模型作为环境变化适应机制,用前两个时刻的犘犛预测产生新时刻的初始种群.作者验证了算法在DMOP1、DMOP2以及FDA1~FDA4上的性能,性能相对比较理想,但是该算法采用的预测机制与PRI相同,因此选择多少个历史环境的信息来预测新环境的初始种群是一个值得考虑的问题.2015年,郑金华等人在RM MEDA中引入了基于引导个体的预测策略(PredictionStrategybasedonGuideIndividual,GIPS),提出了GIPS RM MEDA(GIPS basedRM MEDA)[46]来解决DMOPs,该预测机制通过种群中心点的位置变化预测最优解所在的方向,进而产生新环境的初始种群.作者通过大量的测试函数验证了算法性能,包括FDA1~FDA4、DMOP1~DMOP3、ZF5~ZF9,实验结果表明GIPS性能优于PPS,但是需要指出的是前期的环境变化中收集的信息可能存在误差,导致算法在某几次环境变化上的预测不准确.2015年,武燕等人设计了两种定向搜索策略(DirectedSearchStrategy,DSS),DSS1被用作环境变化应答机制,DSS2是一种局部搜索机制用来加速算法收敛,将DSS与基于差分进化(DifferentialEvolutionary,DE)的NSGA II[28]结合提出NSGA II/DE+DSS(DSS basedNSGA IIwithDE)[23]来求解DMOPs,当环境发生变化时,DSS1通过在前两个历史环境的犘犛的中心点的移动方向上生成期望个体,来预测产生新环境初始种群;DSS2通过在连续两次迭代之间犘犛的移动方向生成期望个体来加速种群收敛.作者测试了算法在FDA1、FDA4、DMOP1、DMOP2以及ZF5~ZF10上的性能,实验结果证明DSS性能优于FPS和PPS.值得注意的是,如果环境变化很剧烈,则新问题与先前问题不太相关,DSS可能效果不好.2015年,刘若辰等人结合改进的分解进化多目标优化算法(multi objectiveevolutionaryalgorithmbasedondecomposition,MOEA/D)[47]和正交预测(OrthogonalPredictive,OP)模型提出OPMOEA/D(OP basedMOEA/D)[48]来求解DMOPs,当环境发生变化时,算法基于正交设计方法的预测模型从前两个时刻的犘犛中得到代表性的组合集,然后再从组合集中选择出有利于种群进化的个体作为新时刻初始种群的一部分个体.作者测试了算法在DMOP1、DMOP2、FDA1以及FDA3~FDA5上的性能,结果表明算法在DMOP1和DMOP2上性能不佳.2015年,刘若辰等人在基于非支配邻居选择的多目标免疫算法(NondominatedNeighborImmuneAlgorithm,NNIA)[49]的基础上设计了一种自适应差分交叉算子(AdaptiveDifferentialEvolution),并且结合一种改进的预测模型(PredictiveModel)提出PDNNIA[50](PredictiveModelandAdaptiveDifferentialEvolutionbasedDynamicNNIA)来解决DMOPs,当环境发生变化时,算法利用前两个时刻的犘犛预测产生新环境的初始种群.作者测试2521计 算 机 学 报2020年了算法在DMOP1、DMOP2、FDA1以及FDA3~FDA5上的性能,结果表明PDNNIA不适合解决犘犛保持不变,犘犉随时间变化的两目标问题以及犘犛随时间变化,犘犉保持不变的三目标问题.2015年,刘若辰等人基于NNIA,提出基于预测策略的动态多目标免疫优化算法(PredictionStrategy basedDynamicMultiobjectiveImmuneOptimization,PSDMIO)[51],当环境发生变化时,算法利用前几个环境下的犘犛来预测产生新环境的初始种群.通过在DMOP1、DMOP2、FDA1以及FDA4测试函数上的实证研究证明PSDMIO不适合解决犘犛不随时间变化而犘犉随时间变化的DMOPs.2016年,Muruganantham等人在MOEA/D DE(MOEA/DbasedonDE)[52]中引入基于卡尔曼滤波(KalmanFilter,KF)[53]的预测机制,提出MOEA/D KF(MOEA/DbasedonKF)[54]来求解DMOPs,当环境发生变化时,算法采用一种评分机制来决定采用基于KF的预测机制还是采用随机初始化方法.作者使用13个测试函数(DMOP1、DMOP2、FDA1~FDA5、ZF5~ZF10)测试了算法的性能,结果表明MOEA/D KF在DMOP1、ZF7以及ZF9上性能不理想,仍需要采取一些措施来改进算法的性能,比如局部搜索策略、多样性维护策略、方向引导搜索机制等.2017年,邹娟等人在RM MEDA的基础上,设计了基于中心点和拐点的预测机制(PredictionStrategybasedonCenterPointsandKneePoints,CKPS)来响应环境变化,提出了CKPS/RM MEDA(CKPS basedRM MEDA)[55]来解决DMOPs,该预测机制描述如下:(1)通过前两个环境的非支配解集的中心点变化来预测新环境的非支配解集的位置;(2)该预测机制选择拐点作为每个环境的历史信息,然后用AR自回归模型预测新环境的拐点;(3)根据问题的复杂程度,随机产生一部分个体来增加种群的多样性;将上面三部分个体合成一个种群作为新环境的初始种群.作者测试了算法在DMOP1~DMOP3,FDA1~FDA4以及ZF5~ZF10上的性能,结果表明CKPS在部分测试函数上性能不如PPS.作者也表明如何更好地分割拐点,更好地跟踪犘犉,从而更好的体现拐点的优势,是未来研究的另一项重要工作.2017年,丁进良等人在NAGA II[28]中引入新的预测机制,提出了基于参考点预测的DMOA(PredictionStrategyforDynamicMulti objectiveOptimizationAlgorithmbasedonReferencePoint,PDMOP)[56]来解决DMOPs,该预测机制描述如下:对关联到相同参考点的个体建立时间序列,并对这些时间序列通过线性回归模型预测产生新环境下的初始种群从而实现对环境变化做出响应.作者通过4个测试函数FDA1,FDA3~FDA5验证了算法的性能,PDMOP能够较好地适应不同环境的动态变化.但是实验采取的测试样例不充分,应该在更复杂的测试函数上验证算法的性能.2017年杨圣祥等人提出了一种新型的稳态泛化DMOA(Steady stateandGenerationalEvolutionaryAlgorithm,SGEA)[27]来求解DMOPs,其以稳态方式检测环境变化并响应环境变化,当检测到环境变化时,新环境初始化种群包括两部分:一部分个体是当前环境中分布较好的个体,另一部分个体通过最优解的移动方向和移动步长来预测产生.作者在FDA系列和DMOP系列问题上测试了算法的性能,结果表明SGEA能够有效地跟踪随时间变化的犘犉,但如果问题的变量之间联系比较紧密或者环境的变化导致了显著的多样性损失时,SGEA的性能可能不是很理想.2017年,郑金华等人在RM MEDA中引入了一种混合多样性保持机制(DiversityMaintenanceStrategy,DMS),提出了DMS RM MEDA(DMS basedRM MEDA)[57]来解决DMOPs,该预测机制描述如下:首先基于中心点的移动方向,预测产生接近下一个犘犉的一些个体,其次采用逐步搜索的方法在决策空间中生成一些分布均匀的个体,最后在下一个可能的犘犛区域内随机产生一些个体,将上面产生的个体合并到一个种群中通过非支配排序产生新环境的初始种群.作者通过大量的测试函数测试了算法的性能,包括FDA~FDA4、DMOP1~DMMOP3、ZF5~ZF9,实验结果表明DMS RM MEDA在大多数测试问题上表现良好,除了FDA2.同时作者也提出使用机器学习中其它预测方法来预测新环境的犘犛是一个值得研究的方向.2018年,巩敦卫等人设计了一种多方向预测机制(Multi directionalPrediction,MDP)结合粒子群优化算法提出MDP PSO(MDP basedPSO)[58]来解决DMOPs,MDP利用时间序列模型预测代表性个体的多个进化方向,为种群的进化提供指导.作者测试了算法在FDA1~FDA5、JY5、ZF8上的性能,结果表明在处理复杂DMOPs时,MDP PSO得到35217期刘若辰等:动态多目标优化研究综述。
多目标樽海鞘算法约束优化问题多目标樽海鞘算法约束优化问题综述在现代科学技术和工程领域,优化问题一直是一个备受关注的焦点。
多目标优化问题作为其中的一种复杂形式,在实际应用中具有广泛的意义和价值。
而樽海鞘算法作为一种新兴的优化算法,在解决多目标约束优化问题方面展现出了独特的优势。
本文将以多目标樽海鞘算法约束优化问题为主题,深入探讨其原理、应用、特点以及个人观点,以期为读者带来全面、深刻和灵活的理解。
一、多目标樽海鞘算法的原理多目标樽海鞘算法是一种基于大自然遗传演化过程的启发式优化算法。
其基本原理是模拟自然界中樽海鞘的繁殖和迁徙过程,在算法中引入了个体的多样性和群体的协作机制,通过不断迭代更新,在解空间中搜索最优解。
与传统的优化算法相比,多目标樽海鞘算法具有高度的鲁棒性和收敛速度,能够有效地处理复杂的多目标约束优化问题。
二、多目标樽海鞘算法的应用在实际应用中,多目标樽海鞘算法已经被广泛应用于各种工程和科学领域。
在工程设计中,可以利用多目标樽海鞘算法进行结构优化、参数优化和多目标决策;在电力系统中,可以通过该算法实现电网规划、经济调度和环境保护等方面的优化;在生物医学领域,多目标樽海鞘算法也能够用于生物信息学数据分析和基因组优化等问题的求解。
多目标樽海鞘算法在实际应用中呈现出了强大的适用性和灵活性。
三、多目标樽海鞘算法的特点多目标樽海鞘算法具有许多独特的特点,使其在解决多目标约束优化问题时表现出了优越的性能。
该算法具有较强的全局寻优能力,能够有效地克服局部收敛的问题;多目标性能高,能够同时优化多个目标函数,实现多目标的均衡优化;多目标樽海鞘算法还具有较强的鲁棒性和稳定性,适用于不同类型的多目标约束优化问题。
多目标樽海鞘算法在多目标优化领域具有明显的优势和前景。
四、个人观点和理解作为一名优化算法的研究者,我对多目标樽海鞘算法有了深入的了解和实践。
我认为该算法在解决多目标约束优化问题时,能够兼顾目标的多样性和约束条件的严格性,具有较好的平衡性和鲁棒性。
《多目标优化的若干问题研究》篇一一、引言多目标优化问题在现实生活中广泛存在,涉及到多个相互制约的目标,需要在满足一定约束条件下寻找最优解。
这些问题往往具有复杂性和不确定性,因此研究多目标优化问题具有重要的理论意义和实践价值。
本文将探讨多目标优化的定义、特点及若干问题研究,以期为相关领域的研究提供参考。
二、多目标优化的定义及特点多目标优化是指在多个目标之间寻找最优解的问题。
这些目标之间往往存在相互制约的关系,使得问题的求解变得复杂。
多目标优化问题的特点主要包括:1. 目标的多样性:问题涉及多个目标,这些目标可能存在冲突,需要综合考虑。
2. 约束条件的复杂性:问题的求解需要在满足一定约束条件下进行,这些约束条件可能涉及到多种因素,如资源、环境、政策等。
3. 解的优劣性:多目标优化问题的解不是唯一的,存在多个最优解,需要综合考虑各个目标的权衡和折衷。
三、多目标优化问题的研究现状目前,多目标优化问题已经成为运筹学、管理科学、计算机科学等领域的热点研究问题。
研究者们从不同角度出发,提出了许多解决方法。
然而,由于问题的复杂性和不确定性,多目标优化问题仍然面临诸多挑战。
1. 目标权衡与折衷:在多目标优化问题中,各个目标之间往往存在冲突,需要寻找一种权衡和折衷的方法来处理这些冲突。
2. 约束条件的处理:约束条件是多目标优化问题求解的关键,如何有效地处理约束条件是当前研究的重点。
3. 求解算法的改进:现有的多目标优化算法在求解复杂问题时往往存在局限性,需要进一步改进和优化。
四、多目标优化问题的若干研究问题针对多目标优化问题的特点和研究现状,本文提出以下若干研究问题:1. 目标权衡与折衷方法研究:研究如何有效地处理多目标之间的冲突,寻找一种合理的权衡和折衷方法。
2. 约束条件处理技术研究:研究如何有效地处理约束条件,提高多目标优化问题的求解效率。
3. 求解算法的改进与优化:针对现有算法的局限性,研究如何改进和优化多目标优化算法,提高求解精度和效率。
多目标优化问题的研究概述摘要:本文在查阅相关资料的基础上对多目标优化问题进行了一般性描述,详细介绍了实际生活中存在的多目标优化问题以及解决多目标优化题的几种典型算法, 讨论了各个算法存在的优缺点。
关键词:多目标优化; 进化算法; 粒子群算法; 蚁群算法; 模拟退火生活中, 许多问题都是由相互冲突和影响的多个目标组成。
人们会经常遇到使多个目标在给定区域同时尽可能最佳的优化问题, 也就是多目标优化问题。
优化问题存在的优化目标超过一个并需要同时处理, 就成为多目标优化问题(multi-objective optimization-problem, MOP)。
多目标优化问题在工程应用等现实生活中非常普遍并且处于非常重要的地位,这些实际问题通常非常复杂、困难,是主要研究领域之一。
自20世纪60年代早期以来,多目标优化问题吸引了越来越多不同背景研究人员的注意力。
因此,解决多目标优化问题具有非常重要的科研价值和实际意义。
实际中优化问题大多数是多目标优化问题,一般情况下,多目标优化问题的各个子目标之间是矛盾的,一个子目标的改善有可能会引起另一个或者另几个子目标的性能降低, 也就是要同时使多个子目标一起达到最优值是不可能的, 而只能在它们中间进行协调和折中处理, 使各个子目标都尽可能地达到最优化。
其与单目标优化问题的本质区别在于,它的解并非唯一, 而是存在一组由众多Pareto最优解组成的最优解集合, 集合中的各个元素称为Pareto最优解或非劣最优解。
1 多目标优化问题的描述多目标优化问题用文字描述为D个决策变量参数、N个目标函数、m+n个约束条件组成一个优化问题,决策变量与目标函数、约束条件是函数关系。
在非劣解集中决策者只能根据具体问题要求选择令其满意的一个非劣解作为最终解。
多目标优化问题的数学形式可以如下描述:min y=f(x)=[f1(x),f2(x),…,fn(x)]n=1,2,…,Nst g i (x )≤0 i =1,2,…,mℎj (x )=0 j =1,2,…,k x =[x 1,x 2,x d ,…,x D ]x d_min ≤x d ≤x d_max d =1,2,…,D其中: x 为D 维决策向量, y 为目标向量,N 为优化目标总数;g i (x)≤0为第i 个不等式约束,ℎj (x)=0为第j 个等式约束, fn(x)为第n 个目标函数;X 是决策向量形成的决定空间,Y 是目标向量形成的目标空间。
g i (x)≤0和ℎj (x)=0确定了解的可行域, x d_min 和x d_max 为每维向量搜索的上下限。
对于多目标优化问题中最优解或非劣最优解可进行如下定义:定义 1 对任意的d ∈[1,D]满足x d ∗≤x d 且存在d 0∈[1,D]有x d 0∗<x d 0,则向量x ∗=[x 1∗,x 2∗,…,x D ∗]支配向量x =[x 1,x 2,x d ,…,x D ]。
f(x ∗)支配f(x)必须满足一下两个条件:∀n,f n (x ∗)≤f n (x) n =1,2,…,N∃n 0,f n 0(x ∗)<f n 0(x ) 1≤n 0≤Nf(x)的支配关系与x 的支配关系是一致的。
定义2 Pareto 最优解是不被可行解集中的任何解支配的解,若x ∗是搜索空间中的一点,说x ∗为非劣最优解,当且仅当不存在x (在搜索空间可行性域中)使得f n (x)≤f n 0(x ∗)成立,n=1,2,…,N 。
定义3 给定一个多目标优化问题f(x),f(x ∗)是全局最优化解当且仅当对任意x (在搜索空间中),都有f(x ∗)≤f(x)。
定义 4 由所有非劣最优解组成的集合成为多目标优化问题的最优解集(Pareto optinal set ),也成为可接受解集或有效解集。
2 不同算法在多目标优化中的应用多目标优化问题不存在唯一的全局最优解,过多的非劣解是无法直接应用的,所以在求解时就是要寻找一个最终解。
求最终解主要有三类方法: a)生成法, 即先求出大量的非劣解,构成非劣解的一个子集,然后按照决策者的意图找出最终解;b)为交互法, 不先求出很多的非劣解,而是通过分析者与决策者对话的方式逐步求出最终解; c)是事先要求决策者提供目标之间的相对重要程度, 算法以此为依据, 将多目标问题转换为单目标问题进行求解。
而这些主要是通过算法来实现的,一直以来很多专家学者采用不同算法解决多目标优化问题,如多目标进化算法、多目标粒子群算法和蚁群算法、模拟退火算法及人工免疫系统等。
2.1 多目标进化算法多目标进化算法(MOEA)是一类模拟生物进化机制而形成的全局性概率优化搜索方法,在20世纪90年代中期开始迅速发展, 其发展可以分为两个阶段。
第一阶段主要有两种方法即不基于Pareto优化的方法和基于Pareto优化的方法; 第二个阶段就是在此基础上提出了外部集这个概念,外部集存放的是当前代的所有非支配个体,从而使解集保持较好的分布度。
这个时期提出的多目标进化算法更多地强调算法的效率和有效性。
在这两个阶段中, 比较典型的多目标进化算法有NSGA2、PESA2和SPEA2。
对于这三种算法而言, 其优点较多但是其缺点也比较明显的。
如NSGA2的优点在于运行效率高、解集有良好的分布性, 特别对于低维优化问题具有较好的表现; 其缺点在于在高维问题中解集过程具有缺陷, 解集的多样性不理想。
PESA2的优点在于其解的收敛性很好,比较容易接近最优面, 特别是在高维问题情况下; 但其不足之处在于选择操作一次只能选取一个个体, 时间消耗很大, 而且阶级的多样性不佳。
SPEA2的优点在于可以取得一个分布度很好的解集, 特别是在高维问题的求解上, 但是其聚类过程保持多样性耗时较长, 运行效率不高。
多目标进化算法的基本原理描述如下: 多目标进化算法从一组随机生成的种群出发, 通过对种群执行选择、交叉和变异等进化操作, 经过多代进化, 种群中个体的适应度不断提高, 从而逐步逼近多目标优化问题的Pareto最优解集。
与单目标进化算法不同, 多目标进化算法具有特殊的适应度评价机制。
为了充分发挥进化算法的群体搜索优势, 大多数MOEA均采用基于Pareto排序的适应度评价方法。
在实际应用中, 为使算法更好地收敛到多目标优化问题的Pareto最优解, 现有的MOEA通常还采用了精英策略、小生境和设置外部集等关键技术。
MOEA一般框架所描述的算法思想如下:MOEA通过对种群X( t)执行选择、交叉和变异等操作产生下一代种群X( t+ 1)。
在每一代进化过程中,首先将种群X( t)中的所有非劣解个体都复制到外部集A( t)中, 然后运用小生境截断算子剔除A( t)中的劣解和一些距离较近的非劣解个体, 以得到个体分布更为均匀的下一代外部集A( t+1), 并且按照概率pe从A( t+ 1)中选择一定数量的优秀个体进入下代种群。
在进化结束时, 将外部集中的非劣解个体作为最优解输出,如下图所示:图1 MOEA算法的一般框架目前, MOEA研究取得了大量成果, 已被应用于许多领域, 如工程领域、工业领域和科学领域。
其中,工程领域的应用最多, 如电子工程、水利工程、风电工程和控制等。
2.2 多目标模拟退火算法模拟退火( SA)是基于Monte Carlo迭代求解策略的随机寻优算法, 是局部搜索算法的扩展。
其出发点是固体物质的退火过程与一般组合优化问题的相似性, 通过模拟固体退火过程, 从某一初温开始,随着温度的降低,结合概率突跳特性在解空间中搜索最优解,即在局部解时能概率性地跳出并最终趋于全局最优。
它采用了MetropolisHastings接受准则, 并用一组称为冷却进度表的参数控制算法进程模拟退火算法的数学描述为: 在给定邻域结构后,模拟退火过程是从一个状态到另一个状态不断随机游动 ,这个过程可用马尔可夫链来描述。
当温度t 为一定时, 两个状态的移动概率定义如下:A ij不总是等于1,即状态也有不被接受的可能,算法停留在状态i的概率为:式中,p ij是下一步转移概率; |D|表示状态集合(解集合)中状态的个数; θij是从i到j 的产生概率, 表示在状态i时j 状态被选取的概率, 可以理解j是i 的邻域;A ij(t)是接受概率, 表示在状态i产生j 后接受j 的概率,模拟退火过程中其接受概率为其中, f(i)为第j个状态下的目标函数值, ∇f ij=f(j)−f(i)。
模拟退火算法在迭代搜索过程以Metropolis接受准则接受目标, 所以具有跳出局部最优的能力, 通用、灵活性高。
但是模拟退火算法对初始温度和退温系数这两个参数的依赖性较强, 这两个参数选择恰当与否将直接关系到算法性能。
模拟退火算法是一个有效的全局优化算法,这类算法的最大优点是对搜索空间(目标函数的性质)不加任何限制, 可以是不连续的、不可微的, 并且也能求得Pareto边界上多个不同方向的Pareto最优解;但是其需要大量的迭代次数, 因而收敛速度慢、优化效率较低。
在解决多目标问题时仍将其转换为单目标问题, 采用单目标技术求解。
由于单目标问题与多目标问题的不同, 在求解时,往往得不到分布更广的Pareto最优解集, 即将丢失一部分Pareto解。
2.3 多目标蚁群优化算法蚁群算法( ant colony algorithm, ACA)是通过模拟自然界蚂蚁搜索食物的行为提出的仿生优化算法。
仿生学家经过大量细致观察研究发现, 蚂蚁个体之间是通过一种称之为信息素的物质进行信息传递的。
蚂蚁在运动过程中,能够在它所经过的路径上留下该种物质,而且蚂蚁在运动过程中能够感知这种物质, 并以此指导自己的运动方向。
因此, 由大量蚂蚁组成的蚁群集体行为便表现出一种信息正反馈现象:某一路径上走过的蚂蚁越多, 则后来的蚂蚁选择该路径的概率就越大。
蚁群算法的基本原理描述如下:基于对自然界真实蚁群的集体觅食行为的研究,模拟真实的蚁群协作过程。
算法由若干个蚂蚁共同构造解路径,通过在解路径上遗留并交换信息素的方法反馈信息提高解的质量, 进而找到最短路径, 达到优化的目的。
蚁群算法是一种本质上并行的算法, 可以看做是一个分布式的多agent系统,它在问题空间的多点同时开始进行独立的解搜索, 不仅增加了算法的可靠性, 也使得算法具有较强的全局搜索能力。
其正反馈的过程不仅能够使得初始值不断地扩大, 同时又可以引导整个系统向最优解的方向进化。
同时, 蚁群算法的求解结果不依赖于初始路线的选择, 而且在搜索过程中不需要进行人工的调整。
但是蚁群算法需要较长的搜索时间, 易于出现早熟停滞现象。
2.4 多目标粒子群算法粒子群优化算法( PSO)是一种源于对鸟群捕食行为的研究而发明的进化计算技术,最先由Barnhart博士和Kennedy博士于1995年提出。