基于优势关系的粗糙集应用研究
- 格式:docx
- 大小:37.17 KB
- 文档页数:2
基于粗糙集和加权TOPSIS法的弹目匹配模型目录: 1. 引言 2. 粗糙集理论的介绍与应用 3. 加权TOPSIS法的介绍与应用 4. 基于粗糙集和加权TOPSIS法的弹目匹配模型 5. 模型实例分析 6. 结论 7. 参考文献1. 引言弹目匹配是指在军事领域中,通过比较不同弹药与目标之间的特性和要求,选择最合适的弹药用于打击目标。
传统的弹目匹配方法主要基于经验和专家判断,存在主观性强、效率低下的问题。
为了提高匹配效率和准确性,本文提出了一种基于粗糙集和加权TOPSIS法的弹目匹配模型。
2. 粗糙集理论的介绍与应用粗糙集理论是由波兰学者Pawlak于1982年提出的一种数学工具,适用于处理不确定性和不完全信息的问题。
在弹目匹配中,我们面临着众多的弹药与目标的特性和要求,而这些特性和要求往往是模糊和不精确的。
粗糙集理论可以允许我们在不确知信息的情况下进行决策。
粗糙集理论的关键是近似描述和属性约简。
通过定义等价关系和近似集合,可以将原始的决策表进行简化,减少决策表中的冗余信息。
在弹目匹配中,我们可以利用粗糙集理论对弹药和目标的特性和要求进行分析和处理,筛选出具有重要影响的属性。
3. 加权TOPSIS法的介绍与应用加权TOPSIS法是一种多准则决策分析方法,通过综合考虑各个准则的权重和方案的综合评价值,选择出最优的方案。
在弹目匹配中,我们需要考虑多个特性和要求,如射程、精度、威力等,这些特性和要求往往具有不同的重要程度。
加权TOPSIS法可以将不同的特性和要求纳入考虑,并利用权重因子进行综合评价。
通过加权TOPSIS法,我们可以计算出每个方案的综合评价值,然后根据这些评价值进行排序,选出最优的弹药方案。
加权TOPSIS法的优势在于能够考虑多个准则之间的相对重要性,并能够量化评估各个方案的优劣。
4. 基于粗糙集和加权TOPSIS法的弹目匹配模型基于粗糙集和加权TOPSIS法的弹目匹配模型包括以下步骤:步骤1:搜集和整理数据我们需要收集和整理弹药和目标的相关数据。
基于优势关系的广义不完备模糊系统【摘要】本文以同时具有丢失型和遗漏型未知属性值的广义不完备模糊决策系统为研究对象,提出了确定特征优势关系的概念,构建基于确定特征优势关系的模糊粗糙集模型,并提出相对下、上近似约简的概念,在此基础上得到近似约简的的判定定理及区分函数。
并进行实例分析说明其有效性。
【关键词】广义不完备模糊决策系统;序值信息系统;模糊粗糙集;优势关系;确定特征优势关系;相对约简粗糙集理论[1,2]是波兰科学家Pawlak在二十世纪八十年代初提出的一种分析和处理不确定性、模糊知识的新型数学工具。
由于粗糙集的优越性,近年来,粗糙集理论已经广泛应用在各领域。
经典粗糙集处理的对象是完备信息系统,很大程度上限制了粗糙集理论的应用,因此粗糙集模型在各种复杂信息系统中进行拓展是粗集理论发展的一个重要方向。
在多准则决策实际问题中,研究对象的属性往往具有偏序性,例如投资回报率、负债率等等,因此在决策过程中,哪些属性的顺序性起了主导作用是值得重点研究的问题[3]。
为了解决这个困难,Greco.S[4]等人(1999)最早提出基于优势关系的粗糙集方法(DRSA),弥补了传统粗糙集的缺陷。
Greco.S又将优势关系的概念扩展到模糊信息系统中,提出了基于优势关系的模糊粗糙集模型。
由于Greco.S的优势粗糙集也是只能处理完备信息系统,目前已有一些学者对基于优势关系的粗糙集方法进行扩展和深入研究,同时也取得一定的研究成果[5-9]。
在现实世界中由于数据测量的误差、获取的限制或对数据的理解等许多原因,我们所面临的信息系统往往是不完备的,因此研究不完备信息系统具有很大的实际意义。
就目前国内外研究的文献来看,不完备信息系统中的未知属性值可以分为两种情况:(1)所有的未知属性值仅仅是被遗漏的,但又确实是存在的;(2)所有的未知属性值是被认为是丢失的,是不允许被比较的。
本文的研究对象为广义不完备模糊信息系统,即模糊信息系统中出现了两种未知属性值。
数据分析知识:如何进行数据分析的粗糙集方法随着大数据时代的到来,数据分析成为了企业发展的重要一环。
然而,未经处理的原始数据往往含有大量噪音和冗余信息,这使得数据分析变得极为困难。
为了解决数据分析中的这些问题,人们常常使用基于粗糙集理论的数据分析方法。
1.粗糙集理论粗糙集理论起源于1982年波兰数学家Pawlak的论文《使用近似概念代替集合的代价》。
它是一种描述不确定性知识的数学工具,能够通过“近似概念”来解释元素之间的关系。
粗糙集理论将数据分为决策属性和条件属性两个部分。
其中,决策属性是需要预测或决策的属性,而非决策属性是用来描述数据对象的一些特征的属性,相当于是可能对决策属性产生影响的因素。
因此,利用粗糙集理论可以筛选出对决策属性最有影响的条件属性,从而对数据进行深入的分析。
2.粗糙集方法使用粗糙集方法可以分为以下几个步骤:(1)特征选取。
选择适当的特征对数据进行筛选和提取,以提高特征的关联性和效用性。
(2)分级建立概念相似度视图。
根据特征进行数据分类,并建立概念相似度视图。
相似度度量方法有欧氏距离法、曼哈顿距离法、余弦相似度法等。
(3)计算近似概念。
根据相似度视图,对目标数据进行分类,计算每个分类子集的下近似概念和上近似概念。
(4)筛选条件属性。
根据牺牲精度和保存置信度的原则,对条件属性进行筛选。
(5)数据分析。
将筛选得到的条件属性用来分析数据特点和规律。
3.粗糙集方法的优势粗糙集方法具有以下几点优势:(1)不需要对数据进行预处理。
与其他方法相比,粗糙集方法不需要对数据进行预处理,可以直接用原始数据进行分析。
(2)能处理不确定性的数据。
由于决策属性是不确定的,粗糙集方法可以适用于处理不确定性较大的数据。
(3)适用于小数据集。
粗糙集方法不需要对大数据进行处理,适合于处理小数据集。
(4)易于理解和实现。
由于粗糙集方法基于概念,因此易于理解和实现。
4.粗糙集方法的应用粗糙集方法可以应用于多个领域,如金融、医学、机器学习等。
三支决策基于粗糙集与粒计算研究视角在决策问题中,粗糙集和粒计算是两种重要的决策方法。
粗糙集理论是由波兰学者Zdzisław Pawlak于1982年提出的一种模糊集理论,其主要思想是通过划分决策属性值之间的粗糙程度来对决策对象进行分类,从而实现决策的目的。
粒计算是一种模型或工具,用于处理信息的随机性、不确定性和不完全性,它模拟了人类在面对模糊、局部性和模式的信息时的认知过程,可以用于决策问题的分析和解决。
在研究视角中,粗糙集和粒计算可以相互结合,实现更好的决策效果。
粗糙集通过划分属性值的粗糙程度来对数据进行分类,然后根据决策的目标,进行决策对象的选择。
而粒计算则是在粗糙集的基础上,进一步考虑数据的模糊性和不确定性,对数据进行模糊处理,以提高决策的准确性和可靠性。
粗糙集与粒计算结合的决策方法可以分为三个步骤:数据处理、知识提取和决策生成。
首先,通过粗糙集的方法,对数据进行处理,划分出决策属性值之间的粗糙程度,得到决策属性的一组模糊集合。
然后,利用粒计算的方法,提取出决策属性值之间的模糊关系,并根据这些关系进行决策的生成。
最后,通过对决策结果的评估和优化,得到最终的决策结果。
在实际应用中,粗糙集和粒计算可以应用于各个领域的决策问题。
例如,在医疗领域中,可以利用粗糙集的方法,对患者的病情进行分类,然后结合粒计算的方法,进一步考虑患者的模糊性和不确定性,制定个性化的治疗方案。
在金融领域中,可以利用粗糙集的方法,对股票市场的变化进行分类,然后结合粒计算的方法,考虑股票市场的模糊性和不确定性,制定相应的投资策略。
粗糙集与粒计算的结合在决策问题中具有很大的潜力和优势。
通过对数据的处理和知识的提取,可以更好地理解决策对象的特征和属性,从而制定出更准确、可靠的决策方案。
同时,粗糙集和粒计算的方法都考虑了数据的模糊性和不确定性,可以应对现实世界中复杂、多变的决策环境,提高决策的效果和质量。
总之,粗糙集与粒计算是两种重要的决策方法,在研究视角中可以相互结合,实现更好的决策效果。
第6卷第6期2007年12月江南大学学报(自然科学版)Journal of Jiangnan University(Natural Science Edition)V o l.6 N o.6Dec. 2007文章编号:1671-7147(2007)06-0686-04收稿日期:2007-07-06; 修订日期:2007-08-25.基金项目:国家自然科学基金项目(60503022,60673043);江苏省自然科学基金项目(BK2006117). 作者简介:贾修一(1983-),男,山东日照人,计算机应用技术专业博士研究生.*通讯联系人:陈家骏(1963-),男,江苏南京人,教授,博士生导师.主要从事自然语言处理和软件工程等研究.Email:chenjj@基于优势关系粗糙集的规则生成算法贾修一, 商琳, 陈家骏*(1.南京大学计算机软件新技术国家重点实验室,江苏南京210093;2.南京大学计算机科学与技术系,江苏南京210093)摘 要:针对现有的基于优势关系粗糙集的规则生成算法存在运行效率低的问题,提出了一种基于多个优势差别矩阵的规则生成算法,突出不同决策类之间的差别信息,在得到精简规则集的同时,能够提高规则生成效率.通过实验与其他规则生成算法加以比较,表明该算法在平均性能方面优于其他算法.关键词:优势关系粗糙集;优势差别矩阵;规则生成中图分类号:TP 18文献标识码:ARule Induction Algorithm Based on Dominance -Based Rough Set ApproachJIA Xiu -yi, SH ANG Lin, CH EN Jia -jun*(1.State K ey L abo rato ry fo r N ovel So ftwar e T echnolo gy ,N anjing U niver sity,Nanjing 210093,China; 2.Depa rtment of Comput er Science and T echnolog y,Nanjing U niver sity,N anjing 210093,China)Abstract:Dom inance -based Roug h Set Appr oach (DRSA )is different from the Classical Ro ug h Set Appro ach (CRSA )because preference or ders are taken into account in the do mains o f attributes and in the set of decision classes.A mult-i do minance discernibility matr ices based rule induction algo rithm RIDDM is propo sed.Constructing more than o ne dom inance discernibility matrix can highlight the difference betw een tw o decisio n classes.T he experimental results co mpared w ith other rule inductio n algorithms prove the effectiveness.Key words:dominance -based roug h set approach;dom inance discernibility matrix;rule inductio n由Gr eco 等提出的基于优势关系的粗糙集方法[1](Dom inance -based Ro ug h Set A pproach,DRSA)考虑了属性取值之间存在偏好关系及对决策类的影响,将传统粗糙集方法的等价关系改进成优势关系,并考虑决策者的习惯,把决策类以联合的形式表示出来.由于DRSA 考虑了现实中决策者的偏好问题,因此其主要优势在于生成的规则形式更加符合决策者的要求.已有很多学者对基于DRSA 的规则生成算法以及应用做了大量的研究工作,并取得了一定的进展[2-5].文中在考虑整个决策表之间差异性的同时,针对每个决策类分别建立一个优势差别矩阵,与传统方法只建立一个差别矩阵相比,多个差别矩阵更能突出不同决策类之间的差异性,其性能更好.1 基于优势关系的粗糙集方法1.1 基于优势关系的粗糙集方法现实中很多属性是具有偏好信息的,如对评价学生是否优秀的德育成绩、智育成绩等属性.决策类别也可以表达偏好,如决策者将破产风险分为高风险、中风险及低风险等级别.由于传统粗糙集中只考虑属性值的是否可区分性,而不考虑其偏好关系,所以在决策过程中并不能很好地表达其原有的偏好信息.S.Greco 等提出的基于优势关系粗糙集方法很好地解决了该问题,弥补了传统粗糙集在解决该类问题时的缺陷.文中用到的优势关系粗糙集理论和相关术语简单说明如下[6].定义1 信息系统S =<U,Q,V,F >,U 为论域,Q 为属性集,Q 通常分为条件属性集C 和决策属性集D.V =G q I Q V q ,V q 为属性q 的值域.f :U @Q v V 是对任意q I Q,x I U 有f (x ,q)I V q 的映射函数.解决多标准决策问题通常还要假设:根据决策属性集D 可将U 划分为有穷个数的类集合:Cl ={Cl,t I T},T ={1,2,n},对任意x I U 属于且只属于其中的一个分类Cl t I Cl .定义2 分类的上联合和下联合:Cl \t =G s \t Cl s ,Cl [t =G s [t Cl s t =1,2,n.根据决策属性划分的类集合也是有序的,换言之,对所有的r ,s I T ,若r >s,则Cl r 中的对象从决策角度看要优于Cl s 中的对象.传统粗糙集中的不可分辨关系也由优势关系所替代.定义3 对于集合P A C,任意q I P,都存在x \q y ,就称x 在属性集P 上优于y ,记为xD p y.对于给定的P A C 和x I U,DRSA 的上下近似的知识粒度为:P -dom inating 集D +P (x )={y I U:yD P x }和P -dom inated 集D -P (x )={y I U:xD P y }.定义4 Cl \t 和Cl [t 的P 下近似和P 上近似:P (Cl \t )={x I U:D +P (x )A Cl \t }P (Cl \t )=G x I Cl\tD +P (x ) t =1,2,n(1)P (Cl [t )={x I U:D -P (x )A Cl [t }P (Cl [t )=G x I Cl[tD -P (x ) t =1,2,n(2)定义5 Cl \t 和Cl [t 的P 边界域定义为:B n P (Cl \t )=P (Cl \t )-P (Cl \t )B n P (Cl [t )=P (Cl [t )-P (Cl [t )t =1,2,n(3)性质1 U =Cl \t G Cl [t-1 t =2,3,n.1.2 优势差别矩阵对DRSA 而言,在求规则过程中,针对的是每一个特定的决策类,单个优势差别矩阵能反映对象与对象间的差别[7-8],却不能很好地反映出决策类与决策类之间的差别.如对象x 和y 的决策属性分别为Cl 1和Cl 2,单个优势差别矩阵认为x 和y 是有区别的,而对决策类Cl [3而言,x 和y 则又是不可区分的.所以文中针对每个决策类建立一个相应的优势差别矩阵,既能突出决策类之间的差异,又能反映对象与对象之间的区别.针对决策类Cl \t 和Cl [t 的优势差别矩阵定义可表述为:定义6 给定信息系统IS,决策类Cl \t ,Cl [t 的优势差别矩阵分别为M ={m ij }和M c ={m c ij }.其中m ij ={a I C:f (x i ,a)>f (x j ,a)}x i I C(Cl \t ), x j I Cl [t-1Á othersm ij ={a I C:f (x i ,a)<f (x j ,a)}x i I C(Cl [t ), x j I Cl \t+1Á others(4)在此不考虑Cl \1和Cl [n 的优势差别矩阵,因为它们的下近似都是论域全集U,对决策者没有实际意义.在该定义中,矩阵的行是属于目标决策类的下近似对象,而列由性质1知是目标决策类对象集合的补集,也就是论域中该目标决策类的反例.2 基于优势差别矩阵的规则生成算法对每个决策类分别构造其优势差别矩阵后,再利用该矩阵推导出规则.规则为传统的/if ,then ,0形式.就生成的规则集性能而言,文献[6]中提出两种不同的划分标准:robust 规则集和non -robust 规则集.两者最主要的区别在于生成的规则集所覆盖的对象空间大小不同,其中robust 规则集也称m inimal 规则集,是基于一些特殊对象集合生成的,通常是指下近似集合.要求生成的规则集能够覆盖目标决策类的下近似集合,且不覆盖该目标决策类的反例和边界域的对象,并且规则集不含冗687第6期贾修一等:基于优势关系粗糙集的规则生成算法余的规则,得到的就是确定性规则.而non-r obust 则并不是基于一些特殊对象集合的,所以生成的规则集所覆盖的对象空间和robust规则集不一样,针对不同的算法,规则集可大可小.作者提出的基于优势差别矩阵的规则生成算法是生成robust规则集的,但同时包含冗余规则.下面给出算法的具体描述:算法1RIDDM(Rule Induction based on Dom-i nance Discernibility M atr ix).输入:决策类Cl\t(Cl[t)的下近似U1= C(Cl\t)(U1=C(Cl[t)),决策类Cl\t(Cl[t)的反例集合U2=Cl[t-1(U2=Cl\t+1).输出:优势差别矩阵M和决策类Cl\t(Cl[t)的规则集Rule.begin依据定义6,建立行为U1,列为U2的矩阵M;Co nd=Á;Rule=Á;for M中的每一行do对该行的所有列元素进行合取操作,求出主析取范式,得到该行属性候选集的集合C;/*统计每个属性候选集出现的次数*/for每个属性候选集c I C doif c I Cond thenc的次数赋值为1;elseCond=Co nd G{c};end ifend forend fo rM1=M;w hile矩阵M1行数不为0dobegin对所有的属性候选集集合按照出现次数多少进行排序;选取出现次数最多的属性候选集best C I Co nd;以best C为条件前件对M1中包含best C的每一行生成一条规则;if以best C为条件前件的规则能够合并then合并能够合并的规则;end if得到规则集R;Rule=Rule G R;在M1中删除包含best C的所有行;对新的M1进行所有的属性候选集计数;end w hilereturn Rule;end beg in该算法在建立优势差别矩阵后,对每一个主析取范式中的合取范式称之为属性候选集.在对同一属性候选集作为规则前件生成规则时,若生成的规则数大于1,且有规则能够覆盖另外的规则,则进行合并;若所有规则所覆盖的样例都不一样,则保留所有的规则,从而保证对同一规则前件不存在冗余规则.该算法只考虑类似Cl\t和Cl[t的决策类联合,对于单个决策类或类似Cl t G Cl k的决策类,方法类似,只是具体的细节不同.3实验及分析为了比较文中提出的算法,实验所选取的数据集包括文献[5]中采用的几个UCI标准数据集,文献[4]中采用的数据集(简称为DOM_DATA),卡内基梅隆大学的H om e Price数据集.实验的环境为Intel Pentium(D)2.8GH z CPU,512M内存,操作系统为Window s XP SP2,所有的算法在Visual Studio2005平台上用C#实现.实验主要比较各个算法生成的规则数和生成时间.为了简化,所有算法只生成Cl\t和Cl[t决策类的规则集,对于形如Cl l G Cl k的决策类,由于和生成Cl\t决策类规则集相似,故实验中就不予考虑.文中实验进行比较的算法包含有文献[9]中的DOM LEM算法,文献[5]中的AllRules算法,以及文中提出的RIDDM算法.表1给出了数据集上的实验结果.表1几种算法运算时间比较Tab.1Time comparison of three algorithms 数据集运算时间/sDOM LEM算法A llRules算法RIDD M算法ir is0.546 5.3120.328 DO M_D AT A0.0150.0460.001home pr ice0.93725.0150.203pimaindians733.7801784.590,对表1中的pim aindians数据集,由于RIDDM 算法运算时间太长,结果没有加以考虑,这与数据集自身的特性以及算法的局限性有关.pimaindians688江南大学学报(自然科学版)第6卷数据集的属性个数不算很多,但是每个属性的取值特别多,而且决策类只有2个,加上样例个数很多,造成每个决策类的优势差别矩阵很大,计算开销随之变大,这也是RIDDM 算法的局限性所在.从表1可以看出,在其他的数据上RIDDM 算法的平均运行时间要大大优于其他两种算法.通过实验可以看出,RIDDM 算法在某些特定的数据集上效率不如DOMLEM 算法,但在平均运行时间上要优于DOMLEM 算法和AllRules 算法.4 结 语文中在常用单个优势差别矩阵求约简和求核的基础上,在考虑不同决策类样例之间的区别时,突出各个决策类之间的差别,提出采用多个优势差别矩阵的思想进行规则的生成,据此提出一种规则生成算法.通过实验可以表明,RIDDM 算法在运行时间上要优于现有的规则生成算法.参考文献:[1]G reco S,M atar azzo B,Slow inski R.Rough appr ox imatio n of prefer ence relat ion by dominace relat ions[J].EuropeanJournal of O per at ional R esear ch,1999,117:63-68.[2]L I M ing ,ZH A NG Bao -w ei,WA N G T ong,et al.A ppro ximation o f class unions based do minance -matr ix withindominance -based r ough set appr oach[C]//A CI I 2005.Ber lin H eidelbeg:Spr inger -Ver lag ,2005:795-802.[3]Blaszczy nski J,Dembczy nski K,Slow inski R.Interactiv e ana lysis of pr eference -o rdered dat a using dominance -basedr ough set appr oach[C]//ICA ISC 2006.Berlin H eidelbeg :Spring er -V erlag,2006:489-498.[4]Zaras K ,T hibault J.R anking by ro ug h appr ox imation of preferences for decision eng ineer ing applicatio ns [C]//R SK T2007.Berlin H eidelbeg :Spring er -V erlag,2007:142-148.[5]Skow ro n A ,Rauszer C.T he discernibility matr ices and functio ns in info rmation systems [C]//Intellig ent Decisio nSuppo rt H andbook o f A pplication and A dv ances of the Ro ug h Sets T heo ry.Dor dr echt:K luwer Academic Publishers,1992.331-362.[6]Gr eco S,Slow inski R,Stefanowski J,et al.Incr emental ver sus non -incremental rule induct ion fo r multicriteriaclassif ication[C]//T ransact ions on Rough Sets II.Berlin Heidelber g:Spr inger -Ver lag ,2004:33-53.[7]杨明.一种基于改进差别矩阵的核增量式更新算法[J].计算机学报,2006,29(3):407-413.Y A NG M ing.A n incremental updating alg or ithm o f the computatio n of a cor e based on the impr ov ed discer nibility matr ix [J].Chinese Jour nal of Comput ers,2006,29(3):407-413(in Chinese).[8]JIA Xiu -yi,SHA N G L in,JI Y ang -sheng,et al.A n incremental updating algo rit hm for co re computing in dominance -based r ough set model[C]//R SF DG rC2007.Ber lin H eidelbeg:Spr inger -Ver lag ,2007:403-410.[9]Greco S,M ata razzo B,Slow inski R,et al.A n algo rit hm for induction o f decision rules co nsistent wit h the dominanceprinciple[C]//RSCT C2000.Ber lin H eidelbeg:Spr inger -V er lag ,2001:304-313.(责任编辑:邢宝妹)689第6期贾修一等:基于优势关系粗糙集的规则生成算法。
基于粗糙集和加权topsis法的弹目匹配模型弹目匹配模型是指通过对弹身和目标的特征参数进行分析和计算,从而确定弹头与目标的匹配程度的模型。
在实际应用中,弹目匹配模型的准确性直接关系到导弹或者其他武器系统的打击效果。
因此,如何提高弹目匹配模型的准确性一直是军事科技领域的一个重要研究方向。
目前,基于粗糙集和加权TOPSIS方法相结合的弹目匹配模型在国内外得到了广泛关注和研究。
该方法的基本思路是,先利用粗糙集理论对特征参数进行维度约简,剔除冗余和无关变量,并得到较为精确的特征参数集合。
然后,对每个特征参数进行加权处理,根据不同特征参数的重要程度,确定其权重值。
最后,使用TOPSIS方法对不同弹头与目标的匹配程度进行评估,评估结果即为各弹头匹配程度的排序。
相比传统的弹目匹配模型,基于粗糙集和加权TOPSIS方法的模型具有以下优势:一、有效提高模型准确性该方法利用粗糙集理论的维度约简技术,剔除冗余和无关变量,避免了数据维度灾难和因维数过高而导致的误差。
同时,使用加权TOPSIS 法进一步对不同特征参数进行权重处理,使得关键特征参数对模型准确性的贡献更加明显,从而有效提高了模型的准确性。
二、可以适应不同的弹目匹配需求该方法通过对特征参数的加权处理,可以根据不同情况下的匹配需求,自由调整不同特征参数的重要程度,从而使得模型具有更好的适应性。
例如,在高速机动目标的匹配中,速度特征参数可以被赋予更加重要的权重,从而提高模型的稳定性和准确性。
三、易于实现和应用该方法的实现过程比较简单,只需要进行特征参数的约简和加权处理,接着进行相应的计算即可得到匹配结果。
与传统的基于经验公式和试验数据的弹目匹配方法相比,基于粗糙集和加权TOPSIS方法更加灵活、易于操作,同时能够更好地适应不同的实际应用场景。
综上所述,基于粗糙集和加权TOPSIS方法的弹目匹配模型能够充分利用各类特征参数信息,实现较高水平的匹配效果,成为弹目匹配领域的一种新兴方法。
西安电子科技大学博士学位论文粗糙集理论及其在多目标优化中的应用姓名:***申请学位级别:博士专业:应用数学指导教师:***20021201摘要粗糙集(RoughSets)理论是二十世纪八十年代初由波兰数学家Z.Pawlak首先提出的一种新的处理含糊和不精确数据的数学工具.该理论被视为当代信息科学中重要的软计算方法.近年来,粗糙集成为人工智能和信息科学最活跃的研究领域之一,并且在模式识别、冲突分析、数据挖掘、智能控制、机器学习、知识获取、医疗诊断、专家系统、人工神经网络、决策分析、数据库知识发现、机械故障诊断、材料科学、金融和市场分析等领域得到成功应用.本文研究粗糙集理论及其在多目标优化中的应用,旨在开拓粗糙集理论的应用领域、寻求解决多目标优化问题的新途径.主要工作如下:1.讨论了粗糙集与分配BZ一格上的区间结构的关系.研究了分配BZ一格上的区间结构和性质,建立了分配Bz一格上的租糙集代数,利用分配Bz一格上的反直觉算子,构造了一对对偶算予,这对算子不仅具有良好的代数性质,而且可以生成一个粗糙集代数.证明了分配BZ一格上的任一元素口的粗糙近似(y(口),芦(口))可由必然性测度y和可能性测度Ⅳ得到.对于任意给定的一个分配BZ一格,可由“V和“”这一对近似算子诱导一个粗糙集代数.2.研究了基于粗糙近似算予的模式“二分法”的性质.描述了把给定的模式空间划分成两类的可能性和必然性,设计了有边界区域的模式分类的可能性和必然性的粗糙神经网络算法,并用仿真实验验证了算法的有效性.利用H.Lee,H.Tanaka的区间回归分析的上、下近似模型,解决了~个“选址”优化问题.基于J.Stefanowski的赋值容差关系处理不完备信息表的数据推理算法,解决了一个“房地产评价”问题.3.在区间可能性规划中构造了一个等价关系,定义了最优解集的上、下近似解集,给出了判定可能最优解和必然最优解的一个充要条件.用实例说明了最优解的判定方法及可能度和必然度的计算方法.4。
一种基于优势粗糙集的多属性决策排序方法
李佳;梁吉业;庞天杰
【期刊名称】《南京大学学报:自然科学版》
【年(卷),期】2016(52)5
【摘要】多属性决策问题的实质是利用已有的决策信息,通过一定方式对备选对象进行分析、排序、择优和评价,以找到一种简捷方便的排序方法.运用优势粗糙集理论对决策对象进行详细的分析,在此基础上,针对多属性决策排序结果中"并列"决策现象的存在,将基于信息量的属性重要性度量引入到优势度排序方法中,进一步细化排序结果.最后通过与其他排序方法在具体算例中的对比分析,验证了该方法的合理性、有效性.
【总页数】9页(P844-852)
【关键词】多属性决策;优势粗糙集;信息量;属性权重;排序方法
【作者】李佳;梁吉业;庞天杰
【作者单位】太原师范学院计算机科学与技术系;山西大学计算智能与中文信息处理教育部重点实验室
【正文语种】中文
【中图分类】TP301
【相关文献】
1.一种基于多属性决策的防空阵地选择排序方法 [J], 张林林;周毅;王勇;安文斌
2.基于加权α优势关系的多属性决策排序方法 [J], 李佳;梁吉业;庞天杰
3.一种基于Vague集的多属性群决策排序方法及其应用 [J], 孙丽;毛军军;贾静丽;张小霞
4.一种基于区间直觉模糊数多属性决策排序方法 [J], 王克床
5.一种基于区间直觉模糊数多属性决策排序方法 [J], 王克床
因版权原因,仅展示原文概要,查看原文内容请购买。
粗糙集理论与模糊集理论的比较与优劣分析引言:在现代科学与技术的发展中,数据处理与决策分析是至关重要的一环。
而粗糙集理论和模糊集理论作为两种重要的数学工具,被广泛应用于数据挖掘、模式识别、决策支持等领域。
本文将对粗糙集理论和模糊集理论进行比较与优劣分析,以期更好地理解它们的特点和适用范围。
一、粗糙集理论粗糙集理论是由波兰学者Pawlak于1982年提出的,它是一种基于集合论的数学工具,用于处理不确定和不完备信息。
粗糙集理论主要包括近似集、约简和决策规则等概念。
其中,近似集是粗糙集理论的核心概念,它通过包含关系来描述对象之间的相似性。
粗糙集理论的主要优势在于能够处理不完备和不确定的数据,对于决策问题具有较好的解释性和可理解性。
二、模糊集理论模糊集理论是由日本学者康德拉克于1965年提出的,它是一种用于描述不确定性和模糊性的数学工具。
模糊集理论通过引入隶属度函数来描述对象与模糊集之间的关系。
模糊集理论的主要优势在于能够处理模糊和不确定的数据,对于决策问题具有较强的灵活性和适应性。
三、比较与优劣分析1. 表达能力:粗糙集理论和模糊集理论在表达能力上存在一定的差异。
粗糙集理论通过近似集的包含关系来描述对象之间的相似性,对于数据的精确度要求较高。
而模糊集理论通过隶属度函数来描述对象与模糊集之间的关系,对于数据的精确度要求相对较低。
因此,在处理精确数据时,粗糙集理论具有一定的优势;而在处理模糊数据时,模糊集理论更为适用。
2. 算法复杂度:粗糙集理论和模糊集理论在算法复杂度上也存在差异。
粗糙集理论的算法相对简单,主要包括近似集的计算和约简的求解等步骤。
而模糊集理论的算法相对复杂,需要进行隶属度函数的建模和模糊集的运算等操作。
因此,粗糙集理论在处理大规模数据时更为高效,而模糊集理论在处理复杂问题时更为灵活。
3. 应用领域:粗糙集理论和模糊集理论在应用领域上也有所差异。
粗糙集理论主要应用于数据挖掘、模式识别和决策支持等领域,其优势在于对数据的解释性和可理解性。
基于优势关系的粗糙集应用研究
樊杨龙
【期刊名称】《价值工程》
【年(卷),期】2016(035)006
【摘要】At present, there are many kinds of confirmation prescription in factor evaluation of value engineering, and all of them can be well applied to the practice. This part of methods can well reflect the property judgement of decision makers. The introduction of rough set theory of value engineering can determine the weights of attributes of the related functions according to the importance of attributes. Compared with the traditional way, it can overcome the subjectivity of determining weights and get more objective treatment effect. This paper stuides the application of the rough set based on dominance relations.%目前,在价值工程系数评价方面所具有的确定方式已经有较多种,并能够较好地应用到实践当中.对于这部分方式来说,其都能够对决策者的属性判断进行良好的反映.通过价值工程中粗糙集理论的引入,则能够根据其属性重要性对对相关功能属性的权重情况进行确定,同传统方式相比,其不仅能够对权重确定的主观性进行克服,也能够获得更为客观的处理效果.在本文中,将就基于优势关系的粗糙集应用进行一定的研究.
【总页数】3页(P206-208)
【作者】樊杨龙
【作者单位】安徽工业大学管理科学与工程学院,马鞍山243000
【正文语种】中文
【中图分类】TP18
【相关文献】
1.基于优势关系的粗糙集应用研究 [J], 贾修一;于绍越;商琳;陈世福
2.基于优势关系粗糙集的属性约简算法 [J], 李向阳;桑林;李续武
3.基于优势关系粗糙集的属性约简算法 [J], 向阳;桑林;李续武;
4.基于Verhulst预测及概念格优势关系粗糙集的采场稳定性分析 [J], 李牟; 何奕良
5.基于概率优势关系粗糙集的第三方物流供应商选择评价 [J], 钟谨贵;翁世洲;朱俊因版权原因,仅展示原文概要,查看原文内容请购买。