一种基于混合遗传和粒子群的智能优化算法
- 格式:pdf
- 大小:641.27 KB
- 文档页数:9
群智能优化算法及其应用随着复杂问题的不断涌现,传统优化算法往往难以求解出满意解。
而群智能优化算法作为一种新型的优化策略,以其强大的自组织、协作和学习能力,在解决这类问题上具有显著优势。
本文将介绍群智能优化算法的背景、概念及其应用,展望未来的研究方向和挑战。
群智能优化算法是一类基于群体行为启发的优化算法,通过模拟自然界中生物群体觅食、协作等行为来求解优化问题。
这类算法包括蚁群算法、粒子群算法、蜂群算法等,它们都具有以下特点:群体协作:群智能优化算法利用群体中个体的协作和信息共享机制,共同寻找最优解。
分布式计算:群智能优化算法采用分布式计算方式,将问题分解成若干个子问题,交由不同个体进行处理。
自适应调整:群智能优化算法能够根据问题的特性和解的分布情况,自适应地调整算法参数和策略。
蚁群算法是一种模拟蚂蚁觅食行为的优化算法,通过蚂蚁之间留下的信息素来指导寻优过程。
其应用领域广泛,包括函数优化、路径规划、任务调度等。
然而,蚁群算法易出现早熟收敛和信息素更新方式单一的问题。
粒子群算法是通过模拟鸟群飞行行为来求解优化问题的一种算法,每个粒子代表一个潜在解。
粒子群算法在求解多目标优化、约束优化等问题上具有较好表现,但可能陷入局部最优解。
蜂群算法是一种模拟蜜蜂觅食和酿蜜行为的优化算法,通过蜜蜂之间的协作和信息共享来寻找最优解。
蜂群算法在处理复杂优化问题时具有较高效率和鲁棒性,适用于多目标优化、约束优化等领域。
群智能优化算法在解决优化问题上具有广泛应用,除了上述的蚁群算法、粒子群算法和蜂群算法,还包括遗传算法、模拟退火算法、灰色狼群算法等。
这些算法在解决不同类型的问题时具有各自的优势和适用范围。
遗传算法是模拟生物进化过程的优化算法,通过选择、交叉和变异操作来产生新的解。
遗传算法在求解大规模、高维度优化问题时具有较好表现,但可能存在早熟收敛和计算效率低下的问题。
模拟退火算法是模拟固体退火过程的优化算法,通过引入随机因素来避免陷入局部最优解。
群智能混合优化算法及其应用研究一、本文概述随着技术的飞速发展,群智能优化算法作为一种新兴的启发式优化技术,正受到越来越多的关注。
本文旨在深入研究群智能混合优化算法的理论基础、实现方法以及其在各个领域的应用。
文章首先介绍了群智能优化算法的基本概念和发展历程,分析了其相较于传统优化算法的优势和挑战。
随后,文章详细阐述了群智能混合优化算法的设计原理,包括算法的基本框架、关键参数设置以及算法性能评估等方面。
在此基础上,文章进一步探讨了群智能混合优化算法在多个领域中的应用案例,如机器学习、图像处理、路径规划等,以验证其在实际问题中的有效性和可行性。
本文的研究不仅有助于推动群智能优化算法的理论发展,也为解决复杂优化问题提供了新的思路和方法。
二、群智能优化算法理论基础群智能优化算法,作为一种新兴的启发式搜索技术,近年来在优化领域引起了广泛关注。
其核心思想源于自然界中生物群体的行为特性,如蚂蚁的觅食行为、鸟群的迁徙模式、鱼群的游动规律等。
这些生物群体在寻找食物、避免天敌等过程中,展现出了惊人的组织性和智能性,成为了群智能优化算法的理论基础。
个体与群体:每个算法中的个体代表了一个潜在的解,而群体的集合则代表了搜索空间的一个子集。
个体的行为受到群体行为的影响,通过群体间的信息交流和协作,实现解的优化。
局部搜索与全局搜索:群智能优化算法通过个体在搜索空间中的局部搜索行为,结合群体间的信息共享,能够在一定程度上避免陷入局部最优解,从而增强全局搜索能力。
自适应与自组织:群体中的个体能够根据环境变化和搜索经验,自适应地调整搜索策略和行为方式。
这种自组织特性使得算法在面对复杂优化问题时具有更强的鲁棒性。
正反馈与负反馈:在搜索过程中,群智能优化算法通过正反馈机制,将优秀个体的信息传递给其他个体,加速搜索进程;同时,负反馈机制则帮助算法避免重复搜索无效区域,提高搜索效率。
群智能优化算法的代表包括粒子群优化(PSO)、蚁群算法(ACO)、人工鱼群算法(AFSA)等。
遗传算法,粒子群算法和蚁群算法的异同点
遗传算法、粒子群算法和蚁群算法是三种不同的优化算法,它们的异同点如下:
1. 原理不同:
遗传算法是一种模拟自然进化过程的优化算法,主要利用遗传和交叉等运算来产生下一代候选解,通过适应度函数来评价每个候选解的好坏,最终选出最优解。
粒子群算法基于对群体智能的理解和研究,模拟了鸟群或鱼群等动物群体的行为,将每个解看作一个粒子,粒子通过跟踪历史最佳解的方式来更新自己的位置与速度,直到达到最佳解。
蚁群算法是基于模拟蚂蚁在食物和家之间寻找最短路径的行为,将每个解看作一只蚂蚁,通过随机选择路径并留下信息素来搜索最优解。
2. 适用场景不同:
遗传算法适用于具有较大搜索空间、多个可行解且无法枚举的问题,如旅行商问题、无序机器调度问题等。
粒子群算法适用于具有连续参数、寻求全局最优解的问题,如函数优化、神经网络训练等。
蚁群算法适用于具有连续、离散或混合型参数的优化问题,如
路径规划、图像分割等。
3. 参数设置不同:
遗传算法的参数包括个体数、交叉概率、变异概率等。
粒子群算法的参数包括粒子数、权重因子、学习因子等。
蚁群算法的参数包括蚂蚁数量、信息素挥发率、信息素初始值等。
4. 收敛速度不同:
遗传算法需要较多的迭代次数才能得到较优解,但一旦找到最优解,一般能够较好地保持其稳定性,不太容易陷入局部最优。
粒子群算法的收敛速度较快,但对参数设置较为敏感,可能会陷入局部最优。
蚁群算法的收敛速度中等,能够较好地避免局部最优,但也容易出现算法早熟和陷入局部最优的情况。
mdvrp的混合式基因演算法
MDVRP(多点配送车辆路径规划)是指配送车辆从一个或多个出发点到达一个或多个目的地的路径规划问题。
混合式基因演算法是一种用于解决复杂优化问题的人工智能算法,它将遗传算法(Genetic Algorithm,GA)和粒子群算法(Particle Swarm Optimization,PSO)相结合,具有较好的收敛性和搜索能力。
在解决MDVRP问题时,混合式基因演算法可以通过调整参数来优化路径规划结果。
例如,可以调整遗传算法中的交叉率、变异率和选择方式,以及粒子群算法中的惯性权值、学习因子和群体规模,来改善解的质量和收敛速度。
此外,在使用混合式基因演算法解决MDVRP问题时,还需要考虑如何建模和编码。
通常使用距离矩阵或时间矩阵来表示路径的距离或时间,并使用路径拆分法或圆周拆分法来编码路径。
在建模时,还可以考虑加入限制条件,例如车辆容量限制、时间窗限制、路径长度限制等,以使得解更加符合实际需求。
总之,混合式基因演算法是一种有效的方法,可以用于解决MDVRP 问题。
它具有较好的收敛性和搜索能力,并且可以通过调整参数和建模方式来优化解的质量和收敛速度。
混合智能优化算法的研究与应用摘要:混合智能优化算法是近年来在优化问题领域取得了显著成果的研究方向。
本文对混合智能优化算法进行了综述,并着重介绍了混合智能优化算法的应用领域,如机器学习、数据挖掘、图像处理等。
同时,本文还探讨了混合智能优化算法在各个领域中的优势和不足,并提出了进一步研究的方向。
1. 引言混合智能优化算法是一种将多个智能优化算法相结合的优化方法。
智能优化算法是通过模拟自然界的进化、群体行为等生物现象来解决各类复杂问题的一类算法。
将多种智能优化算法相结合,可以利用它们各自的优点,克服各自的缺点,从而提高问题求解的效率和精度。
2. 混合智能优化算法的研究混合智能优化算法的研究可以追溯到上世纪90年代。
通过将遗传算法(GA)、粒子群优化算法(PSO)、模拟退火算法(SA)等不同的智能优化算法相结合,形成了一系列混合智能优化算法。
这些算法综合了各种算法的优点,使得问题求解更为高效和准确。
2.1 遗传算法与混合智能算法遗传算法是受到达尔文进化论启发的一种优化算法。
通过模拟遗传、变异和选择等自然界中的进化过程,寻找问题的最优解。
将遗传算法与其他智能优化算法结合,形成了许多混合智能优化算法。
例如,遗传算法与粒子群优化算法的组合(GA-PSO)能够在问题求解中充分利用群体的协作和搜索能力。
2.2 粒子群优化算法与混合智能算法粒子群优化算法是通过模拟鸟群寻找食物的行为而发展起来的一种优化算法。
每个粒子通过学习自身的经验和邻域粒子的经验来搜索最优解。
将粒子群优化算法与其他算法相结合,可以提高算法的全局搜索和收敛速度。
例如,混合粒子群优化算法(MHPSO)将粒子群优化算法与模拟退火算法相结合,能够更好地探索问题的解空间并加快收敛速度。
2.3 模拟退火算法与混合智能算法模拟退火算法是一种通过模拟物质在退火过程中达到平衡状态的过程来寻找最优解的算法。
将模拟退火算法与其他算法相结合,可以提高算法的全局搜索能力和收敛速度。
粒子群优化算法论文粒子群优化算法摘要近年来,智能优化算法—粒子群算法(particle swarm optimization,简称PSO)越来越受到学者的关注。
粒子群算法是美国社会心理学家JamesKennedy 和电气工程师Russell Eberhart在1995年共同提出的,它是受到鸟群社会行为的启发并利用了生物学家Frank Heppner的生物群体模型而提出的。
它用无质量无体积的粒子作为个体,并为每个粒子规定简单的社会行为规则,通过种群间个体协作来实现对问题最优解的搜索。
由于算法收敛速度快,设置参数少,容易实现,能有效地解决复杂优化问题,在函数优化、神经网络训练、图解处理、模式识别以及一些工程领域都得到了广泛的应用。
PSO是首先由基于不受约束的最小化问题所提出的基于最优化技术。
在一个PSO系统中,多元化解决方案共存且立即返回。
每种方案被称作“微粒”,寻找空间的问题的微粒运动着寻找目标位置。
一个微粒,在他寻找的时间里面,根据他自己的以及周围微粒的经验来调整他的位置。
追踪记忆最佳位置,遇到构建微粒的经验。
因为那个原因,PSO占有一个存储单元(例如,每个微粒记得在过去到达时的最佳位置)。
PSO系统通过全局搜索方法(通过)搜索局部搜索方法(经过自身的经验),试图平衡探索和开发。
粒子群优化算法是一种基于群体的自适应搜索优化算法,存在后期收敛慢、搜索精度低、容易陷入局部极小等缺点,为此提出了一种改进的粒子群优化算法,从初始解和搜索精度两个方面进行了改进,提高了算法的计算精度,改善了算法收敛性,很大程度上避免了算法陷入局部极小.对经典函数测试计算,验证了算法的有效性。
关键词:粒子群优化算法;粒子群;优化技术;最佳位置;全局搜索;搜索精度Particle swarm optimization (PSO) algorithm is a novel evolutionary algorithm. It is a kind of stochastic global optimization technique. PSO finds optimal regions of complex search spaces through the interaction of individualsin a population of particles. The advantages of PSO lie in simple and powerful function. In this paper , classical particle swarm optimization algorithm , thepresent condition and some applications of the algorithms are introduced , and the possible research contents in future are also discussed.PSO is a population-based optimization technique proposed firstly for the above unconstrained minimization problem. In a PSO system, multiple candidate solutions coexist and collaborate simultaneously. Each solution called a ‘‘particle’’, flies in the problem sear ch space looking for the optimal position to land. A particle, as time passes through its quest, adjusts its position according to its own ‘‘experience’’ as well as the experience of neighboring particles. Tracking and memorizing the best position encountered build particle_s experience. For that reason, PSO possesses a memory (i.e. every particle remembers the best position it reached during the past). PSO system combines local search method(through self experience) with global search methods (through neighboring experience), attempting to balance explorationand exploitation.Abstract Particle Swarm Optimization Algorithm is a kind of auto-adapted search optimization based on community.But the standard particle swarm optimization is used resulting in slow after convergence, low search precision and easily leading to local minimum. A new Particle Swarm Optimization algorithm is proposed to improve from the initial solution and the search precision. The obtained results showed the algorithm computation precision and the astringency are improved,and local minimum is avoided. The experimental results of classic functions show that the improved PSO is efficientand feasible.Key words :particle swarm optimization algorithms ; unconstrained minimization problem;the bestposition;global search methods; the search precision目录一.引言二.PSO算法的基本原理和描述(一)概述(二)粒子群优化算法(三)一种改进型PSO算法——基于遗传交叉因子的粒子群优化算法简介1 自适应变化惯性权重2 交叉因子法(四) PSO与GA算法的比较1 PSO算法与GA算法2 PSO算法与GA算法的相同点3 PSO算法与GA算法的不同点三.PSO算法的实现及实验结果和仿真(一)基本PSO算法(二)算法步骤(三)伪代码描述(四)算法流程图(五)六个测试函数的运行结果及与GA算法结果的比较四结论五. 致谢六.参考文献一、引言混沌是一种有特点的非线形系统,它是一种初始时存在于不稳定的动态状态而且包含着无限不稳定时期动作的被束缚的行为。
PSO算法的改进PSO(粒子群优化)算法是一种仿真人群集群行为的智能优化算法,被广泛应用于优化问题的解决。
然而,传统的PSO算法存在一些问题,如易陷入局部最优解、速度较慢等。
为了克服这些问题,许多改进的PSO算法被提出。
下面将重点介绍几种常见的改进方法。
1.离散PSO算法传统的PSO算法是基于连续空间的优化方法,对二进制优化问题不太适应。
离散PSO算法通过将连续速度和位置转化为离散的形式,采用二进制编码方法,从而适应离散化问题。
此外,离散PSO算法还引入了局部机制,通过随机抽取一部分粒子进行局部,提高效率。
2.遗传算法融合PSO算法遗传算法(GA)是一种启发式算法,具有全局能力。
将GA和PSO相结合可以将它们的优点互补,提高效率和收敛性。
一种常见的方法是将GA的交叉、变异和选择操作应用于PSO的位置和速度更新过程中,以增加算法的多样性和全局能力。
3.多种群PSO算法传统的PSO算法通常只有一个粒子群集合,大多数粒子都在不同的空间探索,导致效率较低。
多种群PSO算法引入了多个群体,每个群体独立,交流信息,以提高能力。
这样可以加快全局速度并避免陷入局部最优解。
4.改进粒子选择策略在传统的PSO算法中,每个粒子只根据自己的历史最优和全局最优进行更新。
这种选择策略可能导致算法收敛速度慢。
改进的策略包括引入粒子选择机制来根据适应度值选择邻居,以更好地利用信息,加速收敛。
5.参数自适应方法传统的PSO算法需要手动设置参数,对不同问题的适应性较差。
参数自适应方法通过利用优化问题本身的信息来自动调整参数,提高算法的性能和鲁棒性。
常见的方法包括自适应惯性权重、自适应学习因子等。
6.混合PSO算法混合PSO算法将PSO和其他优化算法相结合,以提高能力和收敛性。
例如,将模拟退火算法的随机性质引入PSO中,可以在全局和局部之间取得平衡。
此外,还可以将模糊逻辑、神经网络等方法与PSO相结合,以改善算法的性能。
总之,PSO算法作为一种全局优化方法,经过多年研究和改进,已经形成了众多的改进版本。
智能优化算法的常用改进策略在当今科技飞速发展的时代,智能优化算法在解决复杂的优化问题方面发挥着越来越重要的作用。
然而,传统的智能优化算法在某些情况下可能存在局限性,因此需要不断探索和应用改进策略,以提高算法的性能和适应性。
智能优化算法是一类模拟自然现象或生物行为的启发式算法,常见的包括遗传算法、粒子群优化算法、蚁群算法等。
这些算法在解决诸如函数优化、组合优化、调度问题等方面取得了显著成果,但也面临着一些挑战,如容易陷入局部最优、收敛速度慢、对问题的适应性不足等。
为了克服这些问题,研究人员提出了多种改进策略。
其中一种常见的策略是参数调整。
算法中的参数对其性能有着重要影响。
例如,在粒子群优化算法中,惯性权重、学习因子等参数的取值会直接影响算法的搜索能力和收敛速度。
通过对这些参数进行精心的调整和优化,可以使算法在不同的问题上表现更出色。
这通常需要借助大量的实验和经验来确定最优的参数组合。
另一种改进策略是融合多种算法的优点。
单一的智能优化算法往往具有特定的优势和不足。
通过将不同算法进行结合,可以取长补短,提高算法的综合性能。
比如,将遗传算法的变异和交叉操作与粒子群优化算法的速度更新机制相结合,形成一种混合算法。
这种融合不仅增加了算法的多样性,还有助于跳出局部最优,找到更优的解。
引入局部搜索策略也是一种有效的改进方法。
在算法的搜索过程中,当接近最优解区域时,采用精确的局部搜索方法,可以进一步提高解的精度。
例如,在蚁群算法中,当蚂蚁找到较优路径后,可以在其附近进行细致的搜索,以找到更优的路径。
这种局部与全局搜索的结合,能够在保证搜索范围的同时,提高解的质量。
适应度函数的改进也是一个重要的方向。
适应度函数是评估解的优劣的关键。
通过设计更合理、更具针对性的适应度函数,可以更好地引导算法的搜索方向。
比如,对于多目标优化问题,可以采用加权求和、帕累托最优等方法来构建适应度函数,使得算法能够在多个目标之间找到平衡和最优解。
求解TSP问题算法综述一、本文概述本文旨在全面综述求解旅行商问题(Traveling Salesman Problem, TSP)的各种算法。
TSP问题是一个经典的组合优化问题,自提出以来就引起了广泛的关注和研究。
该问题可以描述为:给定一系列城市和每对城市之间的距离,求解一条最短的可能路线,使得一个旅行商从某个城市出发,经过每个城市恰好一次,最后返回出发城市。
本文将首先介绍TSP问题的基本定义、性质及其在实际应用中的重要性。
接着,我们将综述传统的精确算法,如动态规划、分支定界法等,以及它们在求解TSP问题中的优缺点。
然后,我们将重点介绍启发式算法和元启发式算法,包括模拟退火、遗传算法、蚁群算法等,这些算法在求解大规模TSP问题时表现出良好的性能和效率。
本文还将探讨近年来新兴的机器学习算法在TSP问题求解中的应用,如深度学习、强化学习等。
我们将对各类算法进行总结和评价,分析它们在不同场景下的适用性和性能表现。
我们也将展望TSP问题求解算法的未来发展方向,以期为相关领域的研究和实践提供有益的参考和指导。
二、经典算法求解旅行商问题(TSP)的经典算法多种多样,每种算法都有其独特的优缺点和适用场景。
本节将对一些代表性的经典算法进行综述。
暴力穷举法(Brute-Force):暴力穷举法是最简单直观的TSP求解算法。
其基本思想是生成所有可能的旅行路径,计算每条路径的总距离,然后选择最短的那条。
虽然这种方法在理论上可以找到最优解,但由于其时间复杂度为O(n!),对于大规模问题来说计算量极大,因此并不实用。
动态规划(Dynamic Programming, DP):动态规划是一种通过将问题分解为更小的子问题来求解的优化方法。
对于TSP问题,DP算法可以将一个大循环中的多个子问题合并成一个子问题,从而减少重复计算。
然而,TSP的DP算法仍面临“维度灾难”的问题,即当城市数量增多时,所需存储空间和计算时间呈指数级增长。
粒子群优化算法在智能机器人控制中的应用研究粒子群优化算法(Particle Swarm Optimization, PSO)是一种基于种群的优化算法,灵感来源于鸟群觅食行为。
它能模拟群体中粒子的移动过程,通过不断交流和学习,找到最优解。
在智能机器人控制中,粒子群优化算法得到了广泛的应用,并取得了良好的效果。
一、智能机器人控制的挑战随着科技的进步,智能机器人正逐渐走进我们的生活和工作领域。
智能机器人的控制涉及到多个复杂的问题,如路径规划、动作执行、协同处理等。
这些问题具有高度非线性和多变量的特点,传统的优化算法难以很好地解决这些问题。
二、粒子群优化算法的原理粒子群优化算法的核心思想是将问题转化为寻找最优位置的优化问题。
在搜索空间中,通过不断迭代和学习,每个粒子根据自己的经验和邻居的经验进行位置的更新。
通过个体的最优解和群体的最优解的交互,逐渐找到全局最优解。
三、粒子群优化算法在智能机器人控制中的应用1. 路径规划在智能机器人的路径规划中,可以利用粒子群优化算法找到避开障碍物的最优路径。
通过将搜索空间划分为一系列离散的位置(离散空间),每个粒子代表一种路径,通过不断学习和更新自身位置,找到最短路径。
2. 动作执行优化智能机器人执行动作的过程中,存在着多种执行方案。
粒子群优化算法可以用于优化选择最优的动作执行方案。
通过适当定义目标函数,如时间、能量消耗等指标,优化算法可以根据机器人的实际情况,找到最优的动作执行策略。
3. 多机器人协同控制在多机器人协同控制中,粒子群优化算法能够帮助机器人快速找到合适的位置和策略以实现协同工作。
通过定义合适的目标函数,例如最小化总体路径长度、最大化工作效率等,通过不断迭代和学习,机器人可以在协同控制中获得更好的效果。
四、粒子群优化算法的优点1. 简单易实现粒子群优化算法的实现相对简单,无需大量的数学理论支持和复杂的计算过程。
算法的原理直观易懂,易于程序化实现。
2. 并行计算能力强粒子群优化算法具有较强的并行计算能力,适合在分布式、并行计算环境下进行。
智能优化算法及其应用研究在当今科技飞速发展的时代,智能优化算法作为一种强大的工具,正逐渐在各个领域展现出其独特的魅力和广泛的应用价值。
智能优化算法是一类借鉴自然现象和生物行为的启发式算法,旨在解决复杂的优化问题,通过模拟自然界的智慧和策略,寻找最优的解决方案。
智能优化算法的种类繁多,其中一些常见的算法包括遗传算法、粒子群优化算法、蚁群算法和模拟退火算法等。
遗传算法是一种基于生物进化原理的优化算法。
它通过模拟自然选择、遗传变异和交叉等过程,对问题的解空间进行搜索和优化。
就好像是在一个庞大的“基因库”中,不断筛选和组合出更优秀的“基因组合”,从而找到最优解。
例如,在生产调度问题中,可以利用遗传算法来安排生产任务的顺序和资源分配,以达到最小化生产时间和成本的目标。
粒子群优化算法则是受到鸟群觅食行为的启发。
想象一群鸟在寻找食物,每只鸟都知道自己当前的位置和最佳位置,同时也知道整个群体的最佳位置。
通过个体之间的信息交流和协作,整个鸟群能够快速地朝着最优的食物源方向移动。
在函数优化、神经网络训练等领域,粒子群优化算法都有着出色的表现。
蚁群算法是受到蚂蚁寻找食物过程中释放信息素的行为启发而来。
蚂蚁在寻找食物的路径上会留下信息素,其他蚂蚁会倾向于选择信息素浓度高的路径,从而逐渐形成最优的路径。
这种算法在物流配送路径规划、通信网络路由优化等方面发挥着重要作用。
模拟退火算法的灵感来源于固体退火过程。
在高温下,固体内部的粒子可以自由运动,随着温度逐渐降低,粒子逐渐稳定在低能态,达到最优的结构。
模拟退火算法通过在搜索过程中接受一定概率的劣解,从而避免陷入局部最优,最终找到全局最优解。
智能优化算法在众多领域都有着广泛的应用。
在工程领域,如机械设计、电子电路设计等,智能优化算法可以帮助设计出性能更优、成本更低的产品。
以汽车发动机的设计为例,通过优化发动机的结构参数,可以提高燃烧效率,降低油耗和排放。
在交通运输领域,智能优化算法可以用于交通流量的控制和优化,智能交通系统能够根据实时的交通状况,调整信号灯的时间,优化道路的使用,从而减少拥堵,提高交通效率。
毕业论文题目粒子群算法及其参数设置专业信息与计算科学班级计算061学号3060811007学生xx指导教师徐小平2010年I粒子群优化算法及其参数设置专业:信息与计算科学学生: xx指导教师:徐小平摘要粒子群优化是一种新兴的基于群体智能的启发式全局搜索算法,粒子群优化算法通过粒子间的竞争和协作以实现在复杂搜索空间中寻找全局最优点。
它具有易理解、易实现、全局搜索能力强等特点,倍受科学与工程领域的广泛关注,已经成为发展最快的智能优化算法之一。
论文介绍了粒子群优化算法的基本原理,分析了其特点。
论文中围绕粒子群优化算法的原理、特点、参数设置与应用等方面进行全面综述,重点利用单因子方差分析方法,分析了粒群优化算法中的惯性权值,加速因子的设置对算法基本性能的影响,给出算法中的经验参数设置。
最后对其未来的研究提出了一些建议及研究方向的展望。
关键词:粒子群优化算法;参数;方差分析;最优解IIParticle swarm optimization algorithm and itsparameter setSpeciality: Information and Computing ScienceStudent: Ren KanAdvisor: Xu XiaopingAbstractParticle swarm optimization is an emerging global based on swarm intelligence heuristic search algorithm, particle swarm optimization algorithm competition and collaboration between particles to achieve in complex search space to find the global optimum. It has easy to understand, easy to achieve, the characteristics of strong global search ability, and has never wide field of science and engineering concern, has become the fastest growing one of the intelligent optimization algorithms. This paper introduces the particle swarm optimization basic principles, and analyzes its features. Paper around the particle swarm optimization principles, characteristics, parameters settings and applications to conduct a thorough review, focusing on a single factor analysis of variance, analysis of the particle swarm optimization algorithm in the inertia weight, acceleration factor setting the basic properties of the algorithm the impact of the experience of the algorithm given parameter setting. Finally, its future researched and prospects are proposed.Key word:Particle swarm optimization; Parameter; Variance analysis; Optimal solutionIII目录摘要 (II)Abstract ............................................................................................................................. I II 1.引言. (1)1.1 研究背景和课题意义 (1)1.2 参数的影响 (1)1.3 应用领域 (2)1.4 电子资源 (2)1.5 主要工作 (2)2.基本粒子群算法 (3)2.1 粒子群算法思想的起源 (3)2.2 算法原理 (4)2.3 基本粒子群算法流程 (5)2.4 特点 (6)2.5 带惯性权重的粒子群算法 (7)2.7 粒子群算法的研究现状 (8)3.粒子群优化算法的改进策略 (9)3.1 粒子群初始化 (9)3.2 邻域拓扑 (9)3.3 混合策略 (12)4.参数设置 (14)4.1 对参数的仿真研究 (14)4.2 测试仿真函数 (15)4.3 应用单因子方差分析参数对结果影响 (33)4.4 对参数的理论分析 (34)5结论与展望 (39)致谢 (43)附录 (44)IV11.引言1.1 研究背景和课题意义“人工生命”是来研究具有某些生命基本特征的人工系统。
智能优化算法篇1(二)引言:智能优化算法是一种基于的算法,用于解决复杂问题并优化目标函数。
它模拟了自然界中的进化、群体行为等机制,通过不断迭代优化搜索过程,寻找最佳解决方案。
本文将对智能优化算法进行详细介绍。
概述:智能优化算法是一类基于启发式搜索的算法,它通过模拟自然界中的优化过程来解决问题。
智能优化算法有很多种,其中包括遗传算法、粒子群算法、蚁群算法、蜂群算法等。
这些算法各具特点,在不同领域的问题中发挥着重要的作用。
正文内容:一、遗传算法1.遗传算法的基本原理2.遗传算法的问题建模方式3.遗传算法的主要操作:选择、交叉和变异4.遗传算法的优点和应用领域5.遗传算法的改进方法:多目标优化、并行化、自适应策略等二、粒子群算法1.粒子群算法的基本原理2.粒子群算法的搜索策略3.粒子群算法的参数设置4.粒子群算法的应用:函数优化、神经网络训练等5.粒子群算法的改进方法:局部搜索、多群体算法等三、蚁群算法1.蚁群算法的基本原理2.蚁群算法的模拟过程3.蚁群算法的参数设置4.蚁群算法的应用:路径优化、任务调度等5.蚁群算法的改进方法:改变蚁群行为、引入求解技巧等四、蜂群算法1.蜂群算法的基本原理2.蜂群算法的搜索策略3.蜂群算法的参数设置4.蜂群算法的应用:组合优化、图像处理等5.蜂群算法的改进方法:混合算法、自适应控制等五、其他智能优化算法1.烟火算法的基本原理和应用2.人工鱼群算法的基本原理和应用3.免疫算法的基本原理和应用4.模拟退火算法的基本原理和应用5.蚁群优化算法的基本原理和应用总结:智能优化算法是一类基于的算法,通过模拟自然界的优化过程来解决问题。
本文对遗传算法、粒子群算法、蚁群算法、蜂群算法以及其他智能优化算法进行了详细阐述,并介绍了它们的原理、应用和改进方法。
这些算法在不同领域的问题中发挥着重要作用,对于优化问题的求解具有巨大的潜力。
希望本文能为读者提供启示,并促进智能优化算法的发展与应用。
基于能量路由器的能源互联网分层分区优化一、本文概述随着全球能源结构的转型和可持续发展目标的推进,能源互联网作为一种创新的能源供应模式,正逐渐成为未来能源系统的发展趋势。
能源互联网通过高效整合各类分布式能源资源,实现能源的生产、传输、分配和消费的智能化、网络化。
然而,在能源互联网的复杂系统中,如何实现能源的高效利用、优化配置和稳定运行,是当前面临的重要挑战。
本文旨在探讨基于能量路由器的能源互联网分层分区优化问题。
文章将介绍能源互联网的基本概念和架构,阐述能量路由器在能源互联网中的作用和重要性。
文章将分析能源互联网分层分区的必要性,并提出一种基于能量路由器的分层分区优化方法。
该方法通过综合考虑能源互联网中各层各区的能源供需平衡、能量传输效率和系统运行稳定性等因素,实现能源互联网的整体优化。
文章将通过仿真实验和实际案例分析,验证所提优化方法的有效性和可行性,为能源互联网的规划、设计和运营提供理论支持和实践指导。
本文的研究对于推动能源互联网的可持续发展具有重要意义。
通过优化能源互联网的运行模式,可以提高能源利用效率,降低能源消耗和环境污染,促进能源的可持续发展。
本文的研究也为能源互联网的技术创新和产业升级提供了新的思路和方向。
二、能源互联网基础理论能源互联网作为一种全新的能源利用体系,旨在通过先进的信息和通信技术,实现多种能源形式的互联、互通和互补。
其基础理论主要包括能源互联网的定义、特性、架构以及运行优化等方面。
能源互联网的定义是指通过先进的信息和通信技术,将各类分布式能源、储能设施、能源用户和能源市场等要素进行有机整合,形成一个高度智能化的能源利用体系。
这个体系能够实现能源的双向流动、优化配置和高效利用,从而提高能源利用效率,促进能源的可持续发展。
能源互联网的特性主要包括开放性、互动性、智能性和自适应性。
开放性意味着能源互联网能够接纳各种类型的能源和设施,实现能源的多元化利用;互动性则强调能源互联网中各类主体之间的互动和协作,实现能源的高效配置;智能性则体现在能源互联网的决策和控制上,能够通过先进的算法和模型,实现能源的优化利用;自适应性则是指能源互联网能够根据不同的环境和需求,进行自我调整和优化,以适应复杂多变的能源环境。
人工智能最优潮流算法综述摘要:最优潮流是一个典型的非线性优化问题,且由于约束的复杂性使得其计算复杂,难度较大。
目前人们已经拥有了分别适用于不同场合的各种最优潮流算法,包括经典法和人工智能法。
其中人工智能算法是近些年人们开始关注的,一种基于自然界和人类自身有效类比而从中获得启示的算法。
这类算法较有效地解决了全局最优问题,能精确处理离散变量,但因其属于随机搜索的方法,计算速度慢难以适应在线计算。
本文着力总结新近的人工智能算法,列举其中具有代表性的遗传算法、模拟退火算法、粒子群算法等以及其相应的改进算法,以供从事电力系统最优潮流计算的人员参考。
关键词:最优潮流;智能算法;遗传算法;粒子群算法;0.引言所谓最优潮流(Optimal Power Flow,OPF),就是当系统的结构参数及负荷情况给定时,通过对某些控制变量的优化,所能找到的在满足所有指定约束条件的前提下,使系统的某一个或多个性能指标达到最优时的潮流分布。
为了对电力系统最优潮流的各种模型更好地进行求解,世界各国的学者从改善收敛性能和提高计算速度的角度,提出了求解最优潮流的各种计算方法,包括经典法和人工智能法。
其中最优潮流的经典算法是基于线性规划、非线性规划以及解耦原则的计算解法,是研究最多的最优潮流算法。
目前,已经运用于电力系统最优潮流的算法有简化梯度法、牛顿法、内点法等经典算法;而随着计算机的发展和人工智能研究水平的提高,现在也逐渐产生了一系列基于智能原理的如遗传算法、模拟退火算法和粒子群算法等人工智能算法,两类算法互补应用于最优潮流问题中。
1.概述人工智能算法,亦称“软算法”,是人们受到自然界(包括人类自身)的规律启迪,根据探索其外在表象和内在原理,进行模拟从而对问题求解的算法。
电力系统最优潮流问题研究中,拥有基于运筹学传统优化方法的经典算法,主要有包括线性规划法和非线性规划法,如简化梯度法、牛顿法、内点法和解耦法等解算方法,这类算法的特点是以一阶或二阶梯度作为寻找最优解的主要信息。
计算机研究与发展ISSN 1000-1239?CN 11-1777?TPJournal of Computer Research and Development 50(11):2278-2286,2013 收稿日期:2011-11-12;修回日期:2012-10-29 基金项目:国家“九七三”重点基础研究发展计划基金项目(2011CB706803);国家科技支撑计划项目(2012BAF08B00);中央高校基本科研业务费资助项目(2013TS027)一种基于混合遗传和粒子群的智能优化算法马 超 邓 超 熊 尧 吴 军(数字制造装备与技术国家重点实验室(华中科技大学) 武汉 430074)(machao2007beijing@163.com)An Intelligent Optimization Algorithm Based on Hybrid of GA and PSOMa Chao,Deng Chao,Xiong Yao,and Wu Jun(State Key Laboratory of Digital Manufacturing Equipment &Technology(Huazhong University of Science &Technology),Wuhan 430074)Abstract Particle swarm optimization(PSO)is simple in theory,quick in convergence,but likely to be"premature"at the initial stage.Genetic algorithm(GA)has strong global search ability but theconvergence accuracy is low.Considering both the advantages and disadvantages,the structure andthe critical parameters are analyzed in this paper,genetic operators and the crossing-search methodsare applied to PSO algorithm to avoid falling into locally optimal solution.In this process,inertialweight and mutation methods are improved to balance the global and the local search ability.At thesame time,some swarms are mutated if the swarm population have evolved to an enough small space.And then,the novel algorithm could get higher convergence accuracy and executive capability to solvenon-linear and multi-extremum in the application of the engineering field.According to the results ofcomparisons with other algorithms through varieties of test functions,the hybrid algorithm combiningPSO and GA shows great advantages in solution accuracy,search efficiency and the ability to processdifferent functions,and meets the engineering needs.Key words particle swarm optimization;genetic algorithm;hybrid intelligent;convergence efficiencyand accuracy;executive capability摘 要 粒子群算法(particle swarm optimization,PSO)原理简单、搜索速度快,但前期容易“早熟”.遗传算法(genetic algorithm,GA)具有很强的全局搜索能力,但收敛精度不高.综合考虑二者优缺点,把遗传算子引入PSO算法中,并采用交叉搜索的方法,调整惯性权重以及变异方式使粒子得到进化,当粒子种群进化到一定层度后,对部分粒子进行变异处理,这样不仅避免算法陷入局部最优解,而且获得较高收敛精度和执行能力,可解决工程中非线性、多极值的问题.据测试函数以及与其他寻优算法的对比分析表明,此混合策略在求解精度、搜索效率和处理不同复杂度问题等方面都有很好的优越性,具有满足工程需要的能力.关键词 粒子群优化算法;遗传算法;混合智能;收敛效率;收敛精度;执行力中图法分类号 TP18;TP301.6 遗传算法(genetic algorithm,GA)主要思想是模仿生物进化过程论与遗传学,是由Michigan大学的Holland教授于1975年提出的[1].该算法是一种全局优化算法,具有很强的全局搜索能力,简单通用、鲁棒性强、适于并行处理、理论成熟等优点,但该算法效率有待提高,特别是后期易陷入局部最优解.编码方式有二进制编码、实数编码、符合编码等,采用的主要算子包括选择、交叉、变异.本文采用实数编码的方式,具有接近问题空间、编码更有效、更有利于解决复杂问题、计算速度更快等显著特点.Eberhart和Kennedy早在1995年共同提出的粒子群算法是受鸟类群体行为的启发,认为鸟类在搜索食物过程中,个体之间可以进行信息的交流和共享[2].鸟群中每个个体能够记住自己当前所找到的最好位置,称为“局部最优pb”,此外还记住群体中所有鸟中找到的最好位置,称为“全局最优gb”.这两个最优变量使得鸟在某种层度上朝这些方向靠近.他们综合这些内容,提出了实际鸟群的简化模型,即粒子群算法(particle swarm optimization,PSO).目前,优化技术已应用在诸如系统控制、人工智能、生产调度、计算机工程和管理工程等方面.实际的工程问题具有大规模、非线性、多极值、强约束等困难,寻求一种适用于大规模、非线性和多极值问题的具有智能特征的并行算法已成为有关学科的主要研究目标和引人注目的研究方向.1 PSO算法在PSO算法中,每个个体称为一个“粒子”,在一个d维的目标搜索空间中,每个粒子看成是空间内的一个点.设群体由N个粒子构成,即种群规模.设zi=(zi1,zi2,…,zid),zi为第i个粒子的d维位置矢量,根据适应度函数计算当前zi的适应值,可以衡量粒子位置的优劣;vi=(vi1,vi2,…,vid)为第i个粒子的飞行速度;pbi=(pbi1,pbi2,…,pbid)为第i个粒子迄今为止的最优位置;pg=(pg1,pg2,…,pgd)为整个粒子群搜索到的最优位置.在每次迭代中,粒子根据以式(1)(2)更新速度和位置:vj+1id=w·vjid+c1r1(pbid-zjid)+c2r2(pgd-zjgd);(1)zj+1id=zjid+vj+1id;(2)其中,w为惯性权重,用于平衡全局搜索和局部搜索,j是迭代次数,r1,r2为(0,1)间的随机数,这两个参数用于保持种群多样性.式(1)第2项是“认知”部分,代表粒子对自身的学习,第3项是“社会”部分,代表粒子间的协作.粒子通过式(1)和式(2)来更新自身的速度和位置,从而寻找最优解.粒子群算法是一种基于自身学习和社会学习的智能进化算法,同其他智能优化算法一样具有很多优点:有很强的通用性,不依赖于问题信息;群体搜索并基于经验学习,具有记忆能力;粒子间学习能力较强,节省搜索时间原理简单,便于实现.当然还有一些缺点,如局部搜索能力较差,搜索精度不高;粒子学习能力强,不能保证搜索全局最优解,容易陷入局部极小解;算法的搜索性能对参数具有一定依赖性;算法理论指导较少,比如缺乏收敛性的数学分析.针对上述缺点,近年来,不同学者都对基本PSO算法提出改进,常用的改进策略有以下几种:1)位置和速度更新策略Shi等人[3]引入惯性权因子,大大提高了PSO算法性能.Clerc等人[4]引入收缩因子来控制PSO的收敛趋势,并给出算法的理论分析.此外还有He等人[5]、Ratnaweera等人[6]引入时变加速因子和时变惯性权因子.Monson等人[7]利用滤波更新微粒位置,有效减少算法迭代次数.2)多种群策略Pulido等人[8]在PSO中引入子种群概念;Vanden等人[9]提出合作PSO算法.多种群策略在算法初期效率低于标准PSO.3)拓扑结构策略Kennedy等人[10]研究了种群拓扑结构对于搜索性能的影响,强调微粒群拓扑的重要性.受小世界网络模型的启发,王雪飞等人提出了一种具有动态拓扑结构的新颖PSO算法[11].4)混合策略根据“No Free Lunch”理论两种算法在某类问题的求解中性能会有差异,但对所有问题集两种算法的平均性能应该是相同的.因此将两种算法融合在一起,取长补短,以实现全局优化是一种有效经济的方式,因此PSO算法与其他算法的融合是当前研究的一大热点.Lovbjerg等人[12]将进化算法中的交叉操作引入PSO中;Ye等人[13]在2005年提出在PSO算法中引入演化策略变异操作算子;Li等人[14]在2006提出将模拟退火与PSO融合;Juang等人[15]提出基于遗传算法与PSO算法的混合算法;高鹰等人[16]结合免疫算法提出免疫PSO算法;Zhang等人[17]提出将序列生境技术应用于PSO,该方法能够枚举所有的全局极值,对复杂多峰值问题的求解很有意义.5)基于生物行为策略由于PSO算法来源于社会性群居动物的行为模拟,因此不少学者自然想到从自然界中生物行为出发研究其改进策略.Krink等人[18]基于生物学中的生命周期现象提出了改进型PSO算法;基于生物学中捕杀与掠夺现象,Silva等人[19]提出一种Predator-Prey优化模型;王俊伟[20]根据将在迁徙过程中的9722马 超等:一种基于混合遗传和粒子群的智能优化算法飞行机制引入到标准PSO,提出改进的PSO算法.2 混合智能遗传粒子群优化算法针对PSO算法的不足,本文采用第4种改进策略,即综合遗传算法和粒子群算,并采用智能搜索策略,在搜索最优解过程中避免算法过早陷入局部极值点,从而获得全局最优解,命名为Intelligent GAand PSO,简称“IGPSO”.2.1 基本思想遗传算法GA和粒子群算法PSO都是搜索算法,GA侧重于自然寻优搜索,PSO侧重于比较过程搜索,因此,GA在搜索解上有优势,而PSO在搜索时间上有优势,基于综合考虑这两点,本文提出一种采用PSO的搜索过程,并在这一过程中同时利用GA的全局搜索优势进行寻优的混合算法思想.即当优良粒子(good swarms)在搜索更好粒子(betterswarms)的过程中,同时对部分粒子用GA进行周围状态探索,这一过程打破了传统仅采用PSO更新粒子位置的方法,将大大增加获取最优粒子(optimal swarms)(能快速找到最优解的粒子)的机会.基本示意图如图1所示:Fig.1 Basic idea of the IGPSO.图1 IGPSO算法基本思想2.2 算法中一些参数分析为了使算法更具有动态适应性,PSO中的参数如果要具有随迭代代数变化而变化的适应性,针对惯性权重常采用的方法有线性递减权重[3]、线性微分递减权重[21]、带阈值的非线性递减权重[22]、带控制因子的非线性递减权重[23]等等,本文采用动态递减非线性惯性权重[24],即w(j)=wmin+(wmax-wmin)·exp(-k(j?jmax)2),(3)式(3)中,k为控制因子,一般取值范围(3.0~4.0),wmax,wmin,j,jmax分别为最大权重值、最小权重值、当前迭代次数、最大迭代次数.针对学习因子的研究没有对惯性权重研究得多,主要有线性调整学习因子策略[25]、非线性调整学习因子策略[26-27].本文采用非对称线性变化学习因子策略:c1=c1s+(c1e-c1s)×(j?jmax);(4)c2=c2s+(c2e-c2s)×(j?jmax);(5)式(4)和式(5)中,c1s,c2s表示c1和c2的迭代初始值;c1e,c2e表示c1和c2表示的迭代终值;c1表示变化范围(2.5,1);c2表示变化范围(1.5,2.75).由于算法中采用的参数均考虑了粒子飞行的动态性,因此算法在整体上具有一定的智能性.算法中采用的遗传算子包括选择、交叉和变异.为了使粒子在搜索较好解的方向上能找到更多的优良粒子,并且不过分破坏原始粒子的优良性,故在采用遗传算子过程中,采用以下两种措施:1)使用顺序选择的方法[28],给每个粒子一定的选择概率,并且把最好的粒子赋予最大的选择概率,这样基于一定概率选择的父代和基于随机选择的母代经过交叉变异[29]后将在交叉前解的附近产生一定的随机解,也即是子代,用child(xi)表示(如式(6)所示),便于得到优良粒子,防止过早进入局部最优解:child(xi)=p×parent1(xi)+(1.0-p)×parent2(xi);(6)child(Vi)=parent1(Vi)+parent2(Vi)parent1(Vi)+parent2(Vi)×parent1(Vi).(7) 式(6)中,p表示(0,1)间的随机数.2)对粒子进行群体的集聚程度进行分析[30],当粒子的聚集状态达到一定程度时,采用高斯变异措施使粒子分散开.设个体的适应度为Fi,当前种群的平均适应度为Favg,适应度方差为σ2:σ2=∑Ni=1Fi-Favg()F2,(8)其中N为种群个体数目,为归一化因子,限制的大小根据式(9)获得:F=max1≤i≤NFi-Favg,max Fi-Favg>1.1,else烅烄烆.(9)0822计算机研究与发展 2013,50(11) 当σ值小于给定的阈值时,认为算法进入后期搜索,容易陷入局部最优,出现早熟收敛现象.用以下方式进行变异处理:zi=pb(i)×(1+0.5μ),(10)在式(10)中,pb(i)为第i个粒子目前为止的最好位置,μ为服从(0,1)正态分布的随机向量.由于粒子本身较容易陷入局部最优解,所以本文采用较大的变异阈值,当种群的适应度方差大于给定的集聚阈值C时就采用变异措施,同时为了避免变异对粒子解的优良性产生破坏,仅对部分粒子采用高斯变异,假设要变异的粒子概率为pm(发生变异的粒子数是N×pm).实验发现当C,pm的取值分别在(5,10)和(1?5,1?3)范围内时,算法会表现出较好的性能.2.3 IGPSO算法流程图及过程分析通过对上述算法概念、思想和参数的讲解,下面给出本文算法的流程图和实现步骤,如图2所示:Fig.2 Flow chart of the IGPSO.图2 IGPSO算法流程图IGPSO算法实现步骤:Step1.初始化算法中的相关参数(initialparameters),如惯性权重、学习因子、选择概率、变异概率、种群规模、粒子维度等;Step2.初始化种群(initial population),根据初始搜索区间,随机初始化粒子位置和速度;Step3.计算粒子的适应度值(目标函数值),并根据硬度值来确定最优粒子的个体极值pb和全局极值pg;Step4.增加粒子迭代次数,并判别进化次数j是偶数还是奇数;1)偶数代时把粒子用遗传算子GA(顺序选择算子和交叉算子式(6))进行位置和速度更新;2)奇数代时用PSO算子,即用式(1)和式(2)进行粒子的速度和位置更新;Step5.根据粒子在搜索最优解过程中的聚集程度(swarm assemble),如果粒子聚集程度超过一定阈值,就对一定数量的粒子根据式(10)采用变异处理;Step6.再次判别适应度值,确定粒子的个体pb和全局极值pg;Step7.判定迭代次数是否满足要求,是则转向Step7,否则转向Step4;Step8.输出最优粒子的全局最优位置和最优解.3 数值实验与分析为了体现本文算法对优化问题的性能,选取了一些常用的优化函数[28](常用测试函数有20个)进行对比测试,本文主要在不同算法之间和问题的维度上进行分析.针对10维函数,采用的测试函数有:f1~f15(依次表示Sphere,Schwefel2.22,Schwefel1.2,Schwefel2.21,Rosenbrock,Rastrigin,Ackley,Griewank,Branin,GoldPrice,Hartman1,Hartman2,ShekelFam1,ShekelFam2,ShekelFam3,为了节省空间,实验分析中的数据采用函数序号代表函数名称).对比分析中,f1~f8的数据来源参考文献[29];f9~f15的数据来源参考文献[31].本次对比过程中算法采用的参数如下.最大迭代次数:jmax=1000;种群大小:N=40;权重w的最大最小值是0.9和0.4;控制因子k取3.0;c1,c2的开始和终止值分别是(2,0.5)和(1.5,2.75);变异阈值和变异概率C,pm取值10和1?4,独立运行30次.1822马 超等:一种基于混合遗传和粒子群的智能优化算法3.1 收敛精度和算法执行能力分析鉴于对比数据来源不同,其采用分析方法有所差别,表1采用测试函数最优结果平均值的大小进行分析,较优的值用黑斜体表示;表2采用独立运行100次,求出成功运行的次数(成功运行准则见参考文献[32],本算法成功运行的准则定义为误差小于)和误差[32]分析方法,黑体表示较优的解,表1、表2都是针对10维测试函数进行测试的.Table 1 Comparison and Analysis Based on the Average Values表1 依据测试结果平均值的对比分析Function Name Function No.VaveIGPSO QPSO[29]AMPSO[29]AMQPSO[29]Sphere f11.06E-197 7.69E+00 2.86E-52 3.29E-98Schwefel2.22 f22.02E-108 4.20E+00 2.42E-24 1.85E-47Schwefel1.2 f39.12E-133 3.07E-01 2.20E-23 4.43E-56Schwefel2.21 f46.72E-096 3.94E-69 3.26E-25 2.02E-125Rosenbrock f51.29E-05 1.97E+02 8.96E+00 8.82E+00Rastrigin f60.00E+00 5.72E+01 1.78E-15 0.00E+00Ackley f78.88E-16 2.85E+00 8.88E-16 8.48E-16Griewank f80.00E+00 1.86E+00 0.00E+00 0.00E+00Table 2 Comparison and Analysis Based on the Successful Probability and the Error表2 依据测试结果成功收敛及其误差的对比分析FunctionNameFunctionNo.IGPSO CGA[30]CHA[30]GA-PSO[30]Psuc?%VavePsuc?%VavePsuc?%VavePsuc?%VaveBranin f9100 2.76E-05 100 1.00E-04 100 1.00E-04 100 9.00E-05GoldPrice f10100 2.15E-08 100 1.00E-03 100 1.00E-03 100 3.00E-04Hartman1 f11100 2.10E-05 100 5.00E-03 100 5.00E-03 100 2.00E-04Hartman2 f12100 2.86E-04 100 4.00E-02 100 8.00E-03 100 2.40E-03ShekelFam1 f13100 3.58E-06 76 1.40E-01 85 9.00E-03 100 1.40E-03ShekelFam2 f14100 2.68E-06 83 1.20E-01 85 1.00E-02 100 1.50E-04ShekelFam3 f15100 1.51E-06 81 1.50E-01 85 1.50E-02 100 1.20E-03 表1中Vave表示多次测试后算法获取偏离最优解的平均误差;表2中Psuc表示成功收敛的次数.从表1的平均函数值以及表2的成功搜索率和与最优值偏差大小可以对比分析出,IGPSO算法对表内的各测试函数表现出较优的精度.采用的测试函数中f1~f5是单峰函数,其中,f1常用来测试算法的寻优精度,f5常用来测试算法的执行性能;f6~f8是高维多峰函数,用来检测算法对复杂问题的执行能力;f9~f15低维多峰函数,用来检验算法的适应性.从上述对比结果可以看出,IGPSO在不同问题上不仅具有很高的计算精度,而且具有普遍实用性.为了更能体现本文算法比一般算法在问题维度和复杂度上具有优越性和执行能力,根据上述分析的不同测试函数的功能,特采用f5~f8来检测IGPSO的性能,并与不同算法进行对比分析.特引用文献[30,33-37]的实验结果进行广泛对比分析,采用的文献中较常见的几个测试函数用误差平均值和标准方差(独立运行30次)的大小进行评定.上述函数实验结果具体如表3和表4所示,其中,Uavg表示算法求解的最优解平均值,Usd表示算法最优解标准偏差,反映求解问题的稳定性.根据对比分析(黑体数字表示较优的解),在10维和30维的测试函数上,IGPSO都表现出广泛的适应性(相同解的条件下有较多较优解的算法视为较优算法),充分证明了算法的执行能力.2822计算机研究与发展 2013,50(11)Table 3 Test Results of Ten Dimensions Problems表3 10维度问题的数值实验结果Function Name Function No.Uavg(Usd)IGPSO UPSO[33]CLPSO[32]HEAPSO[34]ILPSO[34]Rosenbrock f51.29E-05(1.16E-05)1.40E+00(1.88E+00)8.79E+00(2.21E+01)8.55E+00(9.66E-02)7.24E+00(4.93E-01)Rastrigin f60(0)1.17E+01(6.11E+00)0(0)8.81E-08(6.55E-08)0(0)Ackley f74.28E-20(0)1.33E+00(1.48E+00)2.66E-15(0)2.22E-05(7.53E-06)4.41E-16(1.25E-15)Griewank f80(0)1.04E-01(7.10E-02)5.26E-03(6.37E-03)7.96E-11(8.22E-11)0(0)Table 4 Test Results of Thirty Dimensions Problems表4 30维度问题的数值实验结果FunctionNameFunctionNo.IGPSO DEahcSPX[35]DPAMDE[29]DE?BBO[36]UavgUsdUavgUsdUavgUsdUavgUsdRosenbrock f52.65E-01 1.32E+00 4.52E+00 1.55E+01 4.78E-11 2.13E-10 1.90E+01 7.52E+00Rastrigin f6002.14E+01 1.23E+01 7.90E-01 3.56E+00 00Ackley f72.56E-17 0 2.66E-15 0.00E+00 2.22E-16 9.93E-16 1.07E-14 1.90E-15Griewank f8002.07E-03 5.89E-03 0 0 003.2 算法收敛速度分析算法的收敛速度直接影响计算的用时,下面本文将结合仿真图表来说明本文算法在收敛效率上也具有很大优越性.由于篇幅有限下面给出IGPSO与本文所引用比较有优势的AMQPSO和DE?BBO算法在求解高维复杂函数f6和f8(30维)过程中搜索对比图,如图3、图4所示:Fig.3 Convergent effect of f6(thirty dimension).图3 f6函数(Griewank30维)收敛效果根据仿真图可以看出,IGPSO算法在处理多维多局部最优点问题时依然具有很高的搜索效率,在前20代就可以有很快的收敛性,仿真数据显示IGPSO在处理其他测试函数时普遍迭代100~300次就可Fig.4 Convergent effect of f8(thirty dimension).图4 f8函数(Rastrigin30维)收敛效果以找到最终的收敛位置,充分显现了本文算法的高效收敛性.下面对算法的迭代速度和效率的分析采用将最大迭代次数设置为300次.另外,由于不同算法采用的原理不同,适应值评价次数(NFFEs)[33]的可比性不明显,本文主要采用平均成功运行时间t(满足成功运行准则条件下所用时间)的评价方法,并根据文献[31]的数据对f9~f15进行收敛效率上的对比来说明算法的收敛速度和效率.由于GA-PSO较CGA和CHA在精度和收敛性方面好,下面仅对GA-PSO作对比(黑体表示较优值),对比效果如表5所示.3822马 超等:一种基于混合遗传和粒子群的智能优化算法Table 5 The Algorithms’Convergent Time表5 算法收敛时间FunctionNameFunctionNo.IGPSO GA-PSO[30]Psuc?%Time t?s Psuc?%Time t?sBranin f9100 1.622 100 2.117GoldPrice f10100 5.106 100 6.686Hartman1 f11100 2.606 100 0.577Hartman2 f12100 2.668 100 3.326ShekelFam1 f13100 1.324 100 154.5ShekelFam2 f14100 1.413 100 18.11ShekelFam3 f15100 1.519 100 17.47从表5可以明显看出,IGPSO在收敛效率上占有很大优势.下面再给出用IGPSO计算部分测试函数[28,34]的结果以供参考.Weierstrass函数(5维)结果:f(-1.66E-15,3.05E-16,3.18E-16,-2.56E-16,8.08E-196)=0; Shubert函数:f(-0.80032624,-1.42512708)=-186.730908768; Easom函数:f(3.14159478,3.14158911)=-9.999999997E-1; Levy函数:f(9.99E-1,9.99E-1,1.00E,1.00E,9.99E-1)=2.63E-12; Michalewicz函数(5维):f(2.2,1.57,1.28,1.91,1.72)=-4.6877; Corana函数:f(-1.00E-74,-2.13E-77,3.61E-75,1.61E-76,2.15E-11)=3.34E-148 Shaffer函数:f(-1.026686527E-009,-8.46007903E-009)=-1.Fig.5 Initial distribution of the Shaffer function.图5 Shaffer粒子初始分布图 Shaffer函数有无限个极小值点,一般算法都很难找到全局最优点,其理论全局最优点:f(0,0)=-1,下面给出本函数粒子初始分布图和最终分布图来(如图5~7所示)显示以上所有函数的求解过程.Fig.6 Final distribution of the Shaffer function.图6 Shaffer粒子最终分布图Fig.7 Convergent effect of the Shaffer function.图7 Shaffer粒子收敛分布图4 结 语本文从不同方面来阐述IGPSO算法的计算精度、执行能力和效率.实验证明,在GPSO中通过引入遗传算子,并通过交叉搜索的方法使粒子尽快搜索到最优解的思路是正确的,该算法比较好地克服了粒子群算法易陷入局部最优和遗传算法收敛精度不高的缺点,同时具有处理单、多峰值问题的能力,特别是在简单问题的精度方面和复杂问题的执行能力方面具有优势.在工程应用中,往往并不知道问题的复杂度,而采用IGPSO这样在不同问题上都具有一定优势的算法是可以胜任的.参考文献[1]Holland J H.Adaptation in Natural and Artificial System[M].Ann Arbor:University of Michigan Press,1975:68-734822计算机研究与发展 2013,50(11)[2]Kennedy J,Eberhart R C.Particle Swarm Optimization[C]??Proc of Int Conf on Neural Nerworks,IV.Piscataway,NJ:IEEE Service Center,1995:1942-1948[3]Shi Y,Eberhart R C.A modified particle swarm optimizer[C]??Proc of the 1998IEEE ECP.Piscataway,NJ:IEEE,1998:69-73[4]Clerc M,Kennedy J.The particle swarm:Explosion,stability,and convergence in multidimensional complex space[J].IEEE Trans on Evolut Comput,2002,6(1):58-73[5]He S,Wu Q H,Wen J Y,et al.A particle swarm optimizerwith passive congregation[J].BioSystems,2004,78(1?2?3):135-147[6]Ratnaweera A,Halgamuge S K,Watson H C.Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients[J].IEEE Trans onEvolutionary Computation,2004,8(3):240-255[7]Monson C K,Seppi K D.The Kalman swarm—A newapproach to particle motion in swarm optimization[G]??LNCS 3102:Proc of the Genetic and EvolutionaryComputation(GECCO 2004).Berlin:Springer,2004:140-150[8]Pulido G T,Coello A,Coello C.Using clustering techniquesto improve the performance of a multi-objective particleswarm optimizer[G]??LNCS 3102:Proc of the Genetic andEvolutionary Computation(GECCO 2004).Berlin:Springer,2004:225-237[9]Vanden B F,Engelbrecht A P.A cooperative approach toparticle swarm optimization[J].IEEE Trans onEvolutionary Computation,2004,8(3):225-237[10]Kennedy J,Mendes R.Population structure and particleswarm performance[C]??Proc of the 2002Congress onEvolutionary Computation.Piscataway,NJ:IEEE,2002:1671-1676[11]Wang Xuefei,Wang Fang,Qiu Yuhui.Research on a novelparticle swarm algorithm with dynamic topology[J].Computer Science,2007,34(3):205-207,233(in Chinese)(王雪飞,王芳,邱玉辉.一种具有动态拓扑结构的粒子群算法研究[J].计算机科学,2007,34(3):205-207,233)[12]Lovbjerg M,Rasmussen T K,Krink T.Hybrid particleswarm optimizer with breeding and subpopulations[C]??Procof the 3rd Genetic and Evolutionary Computation Conf.2001:469-476[13]Ye Bin,Zhu Chengzhi,Guo Chuangxin,et al.Generatingextended fuzzy basis function networks using hybridalgorithm[G]??LNCS 3613:Proc of Fuzzy Systems andKnowledge Discovery.Berlin:Springer,2005:79-88[14]Li Linglai,Wang Ling,Liu Liheng.An effective hybridPSOSA strategy for optimization its application to parameterestimation[J].Applied Mathematics and Computation,2006,179(1):135-146[15]Juang C F,Liu Y C.TSK-type recurrent fuzzy networkdesign by the hybrid of genetic algorithm and particle swarmoptimization[C]??Proc of IEEE Int on Systems Man andCybernetics.Piscataway,NJ:IEEE,2004:2314-2318[16]Gao Ying,Xie Shengli.Particle swarm optimizationalgorithms with immunity[J].Computer Engineering andApplications,2004,40(6):4-6(in Chinese)(高鹰,谢胜利.免疫粒子群优化算法[J].计算机工程与应用,2004,40(6):4-6)[17]Zhang Jun,Zhang Jingru,Li Kang.A sequential nichingtechnique for particle swarm optimization[G]??LNCS 3644:Proc of Advances in Intelligent Computing.Berlin:Springer,2005:390-399[18]Krink T,Lovbjerg M.The life cycle model:Combiningparticle swarm optimization genetic algorithms and hillclimbers[G]??LNCS 2439:Proc of Parallel Problem Solvingfrom Nature—PPSN VII.Berlin:Springer,2002:621-630[19]Silva A,Ana N A,Costa E.An empirical comparison ofparticle swarm and predator prey optimization[G]??LNCS2464:Proc of Artificial Intelligence and Cognitive Science.Berlin:Springer,2002:103-110[20]Wang Junwei.Modification and application of particle swarmoptimization algorithm[D].Shenyang:Dongbei University,2006(in Chinese)(王俊伟.粒子群优化算法的改进及应用[D].沈阳:东北大学,2006)[21]Hu Jianxiu,Zeng Jianchao.Selection on inertia weight ofparticle swarm optimization[J].Computer Engineering,2007,33(11):193-195(in Chinese)(胡建秀,曾建潮.微粒群算法中惯性权重的调整策略[J].计算机工程,2007,33(11):193-195)[22]Wang Li,Wang Xiaokai.Modified particle swarm optimizerusing non-linear inertia weight[J].Computer Engineeringand Applications,2007,43(4):47-48(in Chinese)(王丽,王晓凯.一种非线性改变惯性权重的粒子群算法[J].计算机工程与应用,2007,43(4):47-48)[23]Li Huirong,Gao Yuelin,Li Jimin.A nonlinear decreasinginertia weight strategy particle swarm algorithm optimizationalgorithm[J].Computer Engineering and Applications,2007,21(4):16-20(in Chinese)(李会荣,高岳林,李济民.一种非线性递减惯性权重策略的粒子群算法优化算法[J].计算机工程与应用,2007,21(4):16-20)[24]Li Li,Niu Ben.Particle Swarm Optimization[M].Beijing:Metallurgical Industry Press,2009(in Chinese)(李丽,牛奔.粒子群优化算法[M].北京:冶金工业出版社,2009)[25]Ratnawecra A,Halgamuge S.Self-organizing hierarchicalparticle swarm optimizer with time-varying accelerationcoefficients[J].Evolutionary Computation,2004,8(3):240-255[26]Chen Shuili,Cai Guorong,Guo Wenzhong,et al.Non-linearstrategy studying of the PSO acceleration factors[J].Journalof Yangtze University:Natural Science Edition,2007,14(4):1-4(in Chinese)5822马 超等:一种基于混合遗传和粒子群的智能优化算法(陈水利,蔡国荣,郭文忠,等.PSO算法加速因子的非线性策略研究[J].长江大学学报:自然科学版,2007,14(4):1-4)[27]Feng Xiang,Chen Guolong,Guo Wenzhong.Settings andexperimental analysis of acceleration coefficients in particleswarm optimization algorithm[J].Journal of JimeiUniversity,2006,11(2):146-151(in Chinese)(冯翔,陈国龙,郭文忠.粒子群优化算法中加速因子的设置与实验分析[J].集美大学学报,2006,11(2):146-151)[28]Gong Chun,Wang Zhenglin.Proficient Optimization withMatlab[M].Beijing:Publishing House of ElectronicsIndustry,2009:315-320(in Chinese)(龚纯,王正林.精通Matlab最优化计算[M].北京:电子工业出版社,2009:315-320)[29]Ji Zhen,Liao Huilian,Wu Qinghua.Particle SwarmOptimization and Application[M].Beijing:Science Press,2009:59-107(in Chinese)(纪震,廖惠连,吴青华.粒子群算法及应用[M].北京:科学出版社,2009:59-107)[30]Liu Junfang.Based on particle swarm optimization anddifferential evolution of intelligent algorithm[D].Yinchuan:Ningxia University,2010(in Chinese)(刘俊芳.基于粒子群优化和差分进化的智能算法研究[D].银川:宁夏大学,2010)[31]Kao Y T,Zahara E.A hybrid genetic algorithm and particleswarm optimization for multimodal functions[J].AppliedSoft Computing,2008,8(2):849-857[32]Suganthan P N,Hansen N,Liang J J,et al.Problemdefinitions and evaluation criteria for the CEC2005specialsession on real-parameter optimization reference description[EB?OL].(2005-05-31)[2012-09-31].http:??web.mysites.ntu.edu.sg?epnsugan?PublicSite?Shared%20Documents?CEC2005?Tech-Report-May-30-05.pdf[33]Samrat L S,Layak Ali,Siba K U.Integrated learningparticle swarm optimizer for global optimization[J].AppliedSoft Computing,2011,11(1):574-584[34]Liang J J,Qin A K.Comprehensive learning particle swarmoptimizer for global optimization of multimodal functions[J].IEEE Trans on Evolutionary Computation,2006,10(3):281-295[35]Liu Bo.Particle Swarm Optimization Algorithm and ItsEngineering Application[M].Beijing:Publishing House ofElectronics Industry,2010:115-128(in Chinese)(刘波.粒子群优化算法及其工程应用[M].北京:电子工业出版社,2010:115-128)[36]Noman N,Iba H.Accelerating differential evolution using anadaptive local search[J].IEEE Trans on EvolutionaryComputation,2008,12(1):107-125[37]Gong Wenyin,Cai Zhihua.DE?BBO:A hybrid differentialevolution with biogeography-based optimization for globalnumerical optimization[J].Soft Computing,2011,15(4):645-65Ma Chao,born in 1989.Master candidate.His main research interests includeintelligent optimal algorithm andprocessing parameters optimization.Deng Chao,born in 1970.Professor.Hermain research interests include reliabilityassessment,and fault diagnosis.Xiong Yao,born in 1984.PhD candidate.His main research interests includereliability assessment and processingparameters optimization.Wu Jun,born in 1977.Lecturer.His mainresearch interests include reliabilityprediction based on optimal algorithm.6822计算机研究与发展 2013,50(11)。