连续的12色轮图
- 格式:doc
- 大小:62.50 KB
- 文档页数:12
小学美术中国画基础知识1、称“国画”,它用毛笔、墨和中国画颜料,在特制的宣纸或绢上作画。
2、墨色变化是中国画造型的基本手段之一,用清水和墨汁调出的焦、浓、重、淡、清等不同的墨色,可以适应不同的表现需要,使画面更加生动有趣。
3、中国画的用笔十分丰富。
中锋、侧峰是两种最基本的用笔方法。
4、湿变化是中国画造型的基本手段之一。
笔中含水的多少决定墨的干、湿。
干、湿变化可以更好的表现物象的特点,增强笔墨的表现力,使画面更加生动有趣。
5 、描是中国传统绘画的表现形式之一,它以毛笔为工具,用墨线勾勒对象。
白描中的线条有其丰富的表现力,线条有粗细、长短、变化,感觉上有滑润、流畅、干涩之别,具有生动的艺术效果。
6 、骨法:直接用颜色或墨画出脸、身体、五官和衣纹。
7 、填法:先用墨线勾画人物形象,然后填上相应的颜色。
8 、勒添色法:勾勒添色法是写意花卉的一种技法,先用线条勾勒物象轮廓,然后添色。
用笔放松,线条和色彩要有变化。
9、淡相破:运用宣纸独特的渗化性,在淡漠上加画浓墨或在浓墨上冲以淡漠,均可产生丰富的墨色变化。
控制水分是泼墨的关键。
浓破淡时,要控制好墨色变化和干湿程度。
淡破浓时,淡漠笔含水要多,否则难以冲开浓墨。
1.如何用笔,用墨.墨分五色,即焦,重,淡,浓,清,可用水来调节墨色的浓淡.2、在墨色中加入颜料可成彩墨3、彩墨画法多种多样,在作画过程中可以自由选择运用。
下面介绍两种画法。
4、徐悲鸿(1895年——1953年)是兼采中西艺术之长的现代绘画大师美术教育家。
擅长中国画、油画,尤精素描。
他的画作满含激情,技巧极高。
著名油画有《溪我后》、《田横五百士》;国画有《九方皋》、《愚公移山》、《会师东京》等。
最能反映徐悲鸿个性,表达他思想感情的莫过于他画马的画卷。
他对马的肌肉、骨骼以及神情动态,作过长期的观察研究,画了数以千计的速写。
所以他画的马图笔墨酣畅,奔放处不狂狷,精微处不琐屑,筋强骨壮,气势磅礴,形神俱足。
另有一些人物、狮、猫等题材作品,也是质优量大。
第43卷㊀第2期2024年㊀4月北京生物医学工程BeijingBiomedicalEngineeringVol 43㊀No 2April㊀2024基金项目:山东省自然科学基金(ZR2022MH203)㊁山东省研究生教育质量提升计划(SDYAL18030)资助作者单位:山东中医药大学智能与信息工程学院(济南㊀250355)通信作者:李延军㊂E⁃mail:liyanjun503@sina com脑电信号情绪识别关键技术研究进展彭磊㊀魏国辉㊀马志庆㊀冯今瑀㊀李延军摘㊀要㊀随着人机交互技术的不断进步和广泛应用,对用户情绪的准确识别变得日益重要㊂情绪识别技术已经在多个领域展现出巨大潜力,包括医疗诊断㊁交通安全和教育等方面㊂而基于脑电的情绪识别成为了情绪识别领域中的热门研究方向㊂首先,本文介绍情绪连续和情绪离散模型的基本概念,总结常用的脑电公开数据集,并对数据集的规模㊁情绪标签以及它们对脑电情绪识别任务的影响进行了比较分析㊂其次,因为不同频带和脑电通道对于情绪识别的影响各不相同,课题组汇总脑电情绪识别关键频带和通道的相关研究,并从文献中总结归纳出脑电情绪识别的关键频带范围以及具有丰富情绪信息的脑电通道位置㊂接着,介绍四类脑电情绪特征且给出对应的特征提取方法,也指出各种脑电特征的提取难度和目前在情绪识别中的应用效果㊂然后,对基于深度学习的脑电情绪识别中的数据增强技术和注意力机制进行了阐述,指出数据增强技术的主流趋势和生成的人工情绪特征的类型,对各种注意力机制的作用方式和侧重点进行了对比分析㊂数据增强技术用来解决脑电数据量不足的问题,注意力机制则对情绪识别准确率的提高起到了关键作用㊂最后,对未来脑电情绪识别模型的通用性和脑电采集设备的研究方向做了一定的展望㊂关键词㊀情绪识别;脑电信号;深度学习;数据增强;注意力机制DOI:10 3969/j.issn.1002-3208 2024 02 015.中图分类号㊀R318 04㊀㊀文献标志码㊀A㊀㊀文章编号㊀1002-3208(2024)02-0211-07本文著录格式㊀彭磊,魏国辉,马志庆,等.脑电信号情绪识别关键技术研究进展[J].北京生物医学工程,2024,43(2):211-217.PENGLei,WEIGuohui,MAZhiqing,etal.ResearchprogressonkeytechnologiesforemotionalrecognitionofEEGsignals[J].BeijingBiomedicalEngineering,2024,43(2):211-217.ResearchprogressonkeytechnologiesforemotionalrecognitionofEEGsignalsPENGLei,WEIGuohui,MAZhiqing,FENGJinyu,LIYanjunCollegeofIntelligenceandInformationEngineering,ShandongUniversityofTraditionalChineseMedicine,Jinan㊀250355Correspondingauthor:LIYanjun(E⁃mail:liyanjun503@sina com)ʌAbstractɔ㊀Withthecontinuousprogressandwidespreadapplicationofhuman⁃computerinteractiontechnology,accurateidentificationofuseremotionshasbecomeincreasinglyimportant.Emotionrecognitiontechnologyhasshowngreatpotentialinmultiplefields,includingmedicaldiagnosis,trafficsafety,andeducation.AndemotionrecognitionbasedonEEGhasbecomeapopularresearchdirectioninthefieldofemotionrecognition.Firstly,thisarticleintroducesthebasicconceptsofcontinuousanddiscreteemotionalmodels,summarizescommonlyusedEEGpublicdatasets,andcomparesandanalyzesthesizeofdatasets,emotionallabels,andtheirimpactonEEGemotionrecognitiontasks.Secondly,becausetheimpactofdifferentfrequencybandsandEEGchannelsonemotionrecognitionvaries,wesummarizerelevantresearchonkeyfrequencybandsandchannelsofEEGemotionrecognition,andsummarizethekeyfrequencybandrangeofEEGemotionrecognitionandthelocationofEEGchannelswithrichemotionalinformationfromtheliterature.Next,weintroducefourtypesofEEGemotionalfeaturesandprovidecorrespondingfeatureextractionmethods.ItalsopointsoutthedifficultyofextractingvariousEEGfeaturesandtheircurrentapplicationeffectsinemotionrecognition.Then,thedataaugmentationtechnologyandattentionmechanismindeeplearningbasedEEGemotionrecognitionareelaborated,pointingoutthemainstreamtrendsofdataaugmentationtechnologyandthetypesofartificialemotionfeaturesgenerated.Acomparativeanalysisisconductedonthewaysandfocusesofvariousattentionmechanisms.DataaugmentationtechnologyisusedtosolvetheproblemofinsufficientEEGdata,andattentionmechanismplaysakeyroleinimprovingtheaccuracyofemotionrecognition.Finally,certainprospectsaremadefortheuniversalityoffutureEEGemotionrecognitionmodelsandtheresearchdirectionofEEGacquisitiondevices.ʌKeywordsɔ㊀emotionalrecognition;EEGsignal;deeplearning;dataaugmentation;attentionmechanism图1㊀三种EEG情绪识别流程Figure1㊀ThreeEEGemotionrecognitionprocesses0㊀引言基于生理信号的情绪识别技术是实现人机交互智能化的关键技术㊂而脑电信号(electroencephalography,EEG)在众多生理信号中与情绪的相关性较高,且不易伪装,具有客观性和真实性[1],故采用EEG数据进行研究能够取得更为准确和真实的情绪识别效果㊂常见的情绪识别的流程图可分为三种,如图1所示㊂完整的EEG情绪识别流程如图中第1行所示㊂由于采集EEG数据的实验条件要求较高,许多研究者采用公开的EEG数据集进行情绪识别研究㊂而公开数据集在进行EEG数据采集时就已经去除了一些常见的干扰信号,故研究者在没有特殊要求时无需再对数据进行预处理操作,此类情绪识别流程如图中第2行所示㊂近年来,伴随着情绪识别算法的不断提出,有的研究者直接将数据输入到模型当中,利用模型自动提取EEG数据的深层情绪特征并进行情绪分类㊂这种方法被称为端到端EEG情绪识别,此类情绪识别流程如图中第3行所示㊂本文的主要贡献如下㊂(1)对EEG关键频带和通道文献进行总结,并提出用于EEG情绪识别的优势频带和通道㊂(2)对EEG数据增强技术进行归纳,简述EEG数据增强技术的发展㊂(3)对注意力机制应用于EEG情绪识别任务的相关文献进行整理,简述各类注意力机制的作用方式和侧重点,并提出通用型注意力机制的设想㊂1㊀情绪模型人的内在情绪状态可以通过观察个人的生理信号和外部表达来获取[2]㊂想要识别情绪,就必须将情绪进行数学量化,只有将情绪划分为细致的数学模型,才能实现情绪的识别㊂较为常用的模型分为情绪离散模型和情绪连续模型㊂情绪离散模型将人的情绪分为几种基本情绪,其他情绪都是基本情绪的混合㊂Ekman等[3]提出快乐㊁愤怒㊁悲伤㊁厌恶㊁恐惧㊁惊讶为6种基本情绪,在许多国家的文化中普遍被人们所认知㊂Plutchik[4]提出可以将情绪用色轮的方式概念化,将情绪比作一种颜色,其他情绪是由基本情绪混合而成的㊂情绪连续模型则是将情绪视为情绪基本维度的组合㊂在情绪识别领域中应用最为广泛的当属Russell[5]提出的效价-唤醒(valence⁃arousal)情绪模型,横轴效价也可称之为快乐维度,表示情绪愉悦程度,纵轴唤醒表示情绪强烈程度,两种维度的组合来描述人的各种情绪㊂二维情绪模型如图2二维情绪模型所示㊂㊃212㊃北京生物医学工程㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第43卷图2㊀二维情绪模型Figure2㊀Two⁃dimensionalemotionalmodel2㊀EEG公开数据集2 1㊀常用数据集介绍在脑电情绪识别领域应用最为广泛的则是Koelstra等[6]提出名为DEAP的多模态数据集,其中的EEG数据是进行基于脑电的情绪识别研究的重要数据㊂每个样本数据长63s,其中包含了3s的基线时间㊂脑电数据分为两个数组,data为40(实验次数)ˑ40(通道数)ˑ8064(63ˑ128)的三维数组,label为40ˑ4的二维数组㊂由于脑电情绪诱发实验开展困难,目前脑电情绪识别领域的公开数据集较少,常用公开数据集总结归纳表如表1所示㊂表1㊀常用公开数据集总结归纳表Table1㊀Summarytableofcommonlyusedpublicdatasets参考文献数据库名称受试者数量通道数情绪标签Koelstra等[6]DEAP3240唤醒㊁效价㊁支配㊁喜好Soleymani等[7]MAHNOB⁃HCI2732唤醒㊁效价㊁支配Zheng等[8]SEED1562积极㊁中性㊁消极Katsigiannis等[9]DREAMER23少量通道效价㊁唤醒㊁支配Song等[10]MPED2362快乐㊁有趣㊁愤怒㊁恐惧等2 2㊀数据集对比在上述的几种数据集中,EEG数据量规模最大的是DEAP数据集,SEED数据量居中,MAHNOB⁃HCI数据集㊁DREAMER数据集和MPED数据集的数据量相对较小,这可能限制一些模型的情绪识别效果㊂其中DEAP㊁MAHNOB⁃HCI和DREAMER数据集的数据标签都具有效价和唤醒维度的数值记录,这有利于模型性能的验证工作,并容易确定受试者情绪在二维情绪模型中的位置㊂SEED和MPED数据集采用离散情绪标签,不利于确定受试者在二维情绪模型上的位置㊂3㊀基于EEG情绪识别的关键频带和通道EEG采集电极放置一般采用10-20电极放置系统,为了寻找最适合用于情感识别的脑电信号频带和通道,研究者们对EEG频带和通道进行了大量实验㊂Yang等[11]的实验分类结果表明,高γ(30100Hz)带特征在情感识别中更有效,所提出的融合特征在公共数据集的高γ波段中获得了最高的分类精度㊂Valenzi等[12]使用32通道脑电信号中的8个通道的脑电数据进行情绪识别,仍然实现了87 5%的平均情绪分类率㊂Zheng等[13]通过深度信念网络从多通道脑电信号中提取微分熵特征来进行情感识别,分析训练完成后的深度信念网络的权值分布,利用12个通道脑电信号就实现了利用64个通道脑电数据才能达到的识别准确率㊂Wang等[14]使用归一化互信息方法选择脑电32通道的最优子集,可以使EEG情绪识别在大幅减少EEG通道的同时获得更高的准确率㊂近年来EEG关键频带和通道文献总结如表2所示㊂从表2中可以看出脑电信号的情绪信息主要集中在β(13 30Hz)和γ频段,且在γ频段更加集中㊂其他频段所包含的情绪信息相对来说较为稀少㊂根据表中EEG情绪识别研究的通道统计和10-20系统图对照,发现大脑额叶区与颞叶区的EEG数据具有更多的情绪信息,隐藏着更多的情绪特征㊂建议多采用额叶区与颞叶区的EEG通道数据用于情绪识别研究,这有利于情绪识别技术的现实应用,实际设备应只需少量通道数据就能实现高准确率的情绪识别㊂4㊀EEG四类情绪特征介绍4 1㊀时域特征波幅㊁标准差㊁均方根等均是EEG的时域特征,可用统计方法提取此类特征㊂此方法操作简单,结㊃312㊃第2期㊀㊀㊀㊀㊀㊀彭磊,等:脑电信号情绪识别关键技术研究进展果清晰直观,但是由于脑电信号是一种非线性非稳态的信号,使用时域特征会加大后期特征识别的难度,现在脑电信号的时域特征多作为辅助手段应用在脑电情绪识别领域㊂Wagh等[22]从脑电信号中提取出了方差㊁标准偏差㊁峰度㊁偏度等时域特征进行情绪识别㊂Liu等[23]将时域的均值㊁标准差㊁原始信号与归一化信号的一阶差均值绝对值和二阶差均值绝对值6个统计特征融合进行情绪分类,发现相比于单一时域特征,使用融合的特征向量情绪识别准确率上升幅度较大㊂表2㊀EEG关键频带和通道文献总结Table2㊀SummaryofliteratureonkeyEEGfrequencybandsandchannels参考文献发表时间关键频带关键通道研究方法Zhang等[15]2016β和γ19通道取得最佳准确度基于ReliefF进行通道选择Özerdem等[16]2017未提及P3,FC2,AF3,O1,Fp1多层感知机神经网络(MLPNN)Zheng等[17]2019β和γ未提及相关系数特征选择方法分析Goshvarpour等[18]2019未提及FP1,C3,CP1,P3,Pz相干性分析和源定位方法Yildirim等[19]2021未提及F3,F4,FC5,AF4,T7,C3,CP2,PO3,O1,O2群体智能算法(swarm⁃intelligence,SI)Peng等[20]2021γ通道重要性从前到后递减:T7,TP7,Fp1,FT7,PO3,FPZ,FP2,TP8,AF3,P2GFIL框架识别Guo等[21]2022未提及FT7,T7,TP7,P3,FC6,FT8,T8,F8DCoT模型评估通道重要性4 2㊀频域特征频谱能量㊁功率谱密度㊁频带功率等是EEG的频域特征,提取此类特征的方法有傅里叶变换㊁小波变换等方法,相比于EEG时域特征,频域特征蕴含更为丰富的情绪信息,可以反映不同频带的能量分布和情绪相关性㊂Pusarla等[24]将EEG转换的二维频谱图提供给DCERNet模型,准确率提升幅度为8%㊂Mohammadi等[25]使用离散小波变换在多个通道比较了不同频带之间的准确度,结果发现Gamma频带的情绪准确率明显高于其他频带㊂4 3㊀时频特征时频功率分布㊁时频相干等为EEG的时频特征,特征提取方法有短时傅里叶变换㊁经验模态分解等㊂时频特征能够描述信号频率随时间的变化,可以同时反映时域和频域的信息㊂Cao等[26]利用小波变换对脑电信号分解,提取各个频段的时频信息,然后使用时间窗函数计算在时频域中的统计特征㊂Salankar等[27]利用经验模态分解将EEG分解为本征模态函数,保留了EEG中时频域中的情绪特征㊂4 4㊀非线性特征常见的非线性EEG特征有微分熵㊁模糊熵㊁分形维数等,这些特征需应用复杂度理论和分形理论进行计算提取,难度较大,应选择合适的非线性脑电特征进行提取㊂其中微分熵(differentialentropy,DE)在EEG情绪识别领域中应用广泛㊂Hwang等[28]提取脑电信号中的DE特征作为CNN模型的输入,实现了90%的情绪识别准确率㊂Zheng等[29]在系统评估流行情绪识别算法的效率时,发现应用DE的模型性能优于其他模型㊂5㊀深度学习在脑电情绪识别领域的应用5 1㊀EEG数据增强技术目前虽有公开数据集能够为基于脑电的情绪识别研究提供数据,但是相比较其他领域的实验数据量而言,EEG数据量太少,且采集脑电数据又是一项成本较高的试验㊂于是研究者们利用数据增强技术产生更多的数据样本,能够在一定程度上解决样本不足的问题㊂目前EEG数据增强技术主要分为两种[30]:第一种是为信号添加噪声(如高斯噪声㊁泊松噪声等),第二种是使用深度学习生成模型㊂常用的数据增强模型有生成对抗网络(generativeadversarialnetworks,GAN)[31]和变分自编码器(auto⁃encodingvariationalBayes,VAE)[32],其中GAN是目前脑电数据增强领域中的重要理论,它能够学习数据的真实分布,从而产生更多类似分布的EEG数据㊂Liu等[33]利用GAN生成多通道脑电图数据的差分熵特征图,再通过模型提取差分熵特征当中隐㊃412㊃北京生物医学工程㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第43卷藏的情绪信息,实验结果表明在基于脑电图的情感识别任务中有明显的改进㊂Wang等[34]在原始训练数据的每个特征样本中加入高斯噪声,以获得新的训练样本,从而一定程度上缓解深度学习模型的EEG数据中缺乏训练样本的问题,实现了模型性能的改进㊂Pan等[35]利用GAN生成功率谱密度形式的训练样本,在DEAP数据集和MAHNOB⁃HCI数据集的实验结果表明,数据增强后识别精度有显著提高㊂准确率的提高有两个主要原因:一方面,数据增强增加了样本数量㊂另一方面,数据增强将每个类别的样本量增加到相同水平,从而实现了类别之间的平衡㊂近年的EEG数据增强文献总结如表3所示㊂表3㊀EEG数据增强文献总结Table3㊀SummaryofliteratureonEEGdataenhancement参考文献发表时间产生数据样本类型数据增强方法Luo等[36]2020功率谱密度和微分熵条件WassersteinGAN㊁选择性VAE和选择性WGANBao等[37]2021DE特征转化的拓扑图像VAE-D2GAN模型扩充数据Zhang等[38]2021DE特征人工数据多生成器条件WGAN(multiplegeneratorCWGAN,MG⁃CWGAN)Ari等[39]2022CWT尺度图像极限学习机自编码器(extremelearningmachineautoencoder,ELM⁃AE)从表3中能够看出,EEG数据增强技术的主流趋势是使用深度神经网络学习EEG数据的分布特征,生成人工提取的情绪特征如DE特征㊁功率谱密度和连续小波变换(continuouswavelettransform,CWT)尺度图等特征数据样本,较少研究生成EEG原始数据㊂另外,利用噪声的数据增强技术没有进一步新的方法提出㊂5 2㊀基于注意力机制EEG情绪识别神经网络人的大脑在处理信息时会将大部分注意力放在对自己来说最重要的信息区域,注意力机制的提出就是为了模仿人的这种信息处理方式㊂在脑电情绪识别中,注意力机制可以帮助模型更好地关注与情绪相关的特征㊂注意力机制在EEG情绪识别研究常见的有通道注意力机制㊁自我注意力机制等㊂注意力机制可以改变情绪特征的权重,能够提高情绪识别的准确率㊂Tao等[40]提出了一种基于注意力的卷积递归神经网络(attention⁃basedconvolutionalrecurrentneuralnetwork,ACRNN),从脑电信号中提取更多的区别特征,提高情感识别的准确性㊂此模型能自适应地分配不同通道的权重,并采用CNN提取编码的脑电信号的空间信息㊂在DEAP和DREAMER数据库上分别取得了平均93 72%和93 38%的准确率㊂近年来关于基于注意力机制的EEG情绪识别文献具体的总结如表4所示㊂从表4中可以看出,注意力机制与神经网络的融合能够取得良好的实验结果㊂但各种注意力机制改进试验的方式各有侧重,通道㊁区域和空间注意力机制其实质都是对脑电通道进行情绪权重划分,并随着模型训练逐步改进各个通道的情绪权重,从而提高情绪识别准确率㊂多头注意力机制能够使模型能够同时关注不同时间点之间的不同信息,更全面地捕捉脑电信号中的特征和结构,从而进一步提高模型的表现能力和泛化能力㊂频谱注意力机制侧重于学习不同频段的脑电信号在情绪识别任务中的重要性,此方法可以根据任务需求,自适应地调整不同频段的情绪权重,从而改进情绪识别效果㊂未来应将各种注意力机制进一步融合,形成同时对频带㊁通道和时间进行情绪权重划分的通用型注意力机制模型,进一步挖掘EEG数据中的隐藏情绪信息,进一步提升模型的情绪识别准确率㊂6㊀总结与展望第一个问题是情绪识别神经网络模型的通用性较弱,目前大多数模型主要是针对主流EEG公开数据集中的受试者的EEG数据所设计的,如果更换EEG数据源进行情绪识别,情绪识别的准确率会有较大幅度的下降,而迁移学习能够提高算法对不同EEG数据的通用性,故应该在迁移学习方面投入时间精力,解决模型的通用性问题,并使模型具有跨域情绪识别能力㊂第二个问题是便携性的EEG采集设备需要进一步革新,应该根据对EEG情绪识别关键频带和通道的相关研究和与情绪相关的脑区研究,尽快研发一种便携性,低数量EEG通道,抗干扰能力强,具有频带选择功能的EEG采集设备㊂此种设备能够促进小型EEG数据集的产生,而众多研究者的小型㊃512㊃第2期㊀㊀㊀㊀㊀㊀彭磊,等:脑电信号情绪识别关键技术研究进展表4㊀基于注意力机制的EEG情绪识别文献总结Table4㊀SummaryofliteratureonEEGemotionrecognitionbasedonattentionmechanism参考文献发表时间神经网络及所提取的情绪特征注意力机制数据集情绪分类标签各个维度的准确率/%Zhang等[41]2021局部到全局BiLSTM(regiontoglobal⁃spatiotemporal⁃BiLSTM,R2G⁃ST⁃BiLSTM)情绪特征:局部到全局脑区更具区分性的时空脑电特征区域注意机制,确定不同脑区的权重,从而增强或削弱各脑区对情绪识别的贡献DEAP效价,唤醒,支配,喜欢平均94 69Hu等[42]2022CNN⁃BiLSTM⁃MHSA情绪特征:时间序列,空间信息多头自注意力机制DEAP效价,唤醒,支配,喜欢平均98 10Xiao等[43]20224D⁃ANN情绪特征:空间,频谱,时间特征频谱和空间注意机制,时间注意机制SEED积极,中性,消极平均96 10Jiang等[44]2022基于注意机制的混合网络(FFT_CNN⁃LSTM⁃Attention,FFT_CLA)情绪特征:空间特征,时间特征通道注意力机制,自注意力机制DEAP效价,唤醒,支配,喜欢平均92 38Li等[45]2022空间频率卷积自注意网络(spatial⁃frequencyconvolutionalself⁃attentionnetwork,SFCSAN)情绪特征:空间和频带特征频带内自注意力学习频率信息,频带间最终注意力学习互补频率信息DEAP效价,唤醒,支配,喜欢95 15,95 76,95 64,95 86EEG数据集能够融合为数据量足够的EEG公开数据集,故此种设备的研发将极大促进EEG情绪识别研究㊂参考文献[1]㊀BlackMH,ChenNTM,IyerKK,etal.Mechanismsoffacialemotionrecognitioninautismspectrumdisorders:insightsfromeyetrackingandelectroencephalography[J].Neuroscience&BiobehavioralReviews,2017,80:488-515.[2]㊀LinW,LiC.Reviewofstudiesonemotionrecognitionandjudgmentbasedonphysiologicalsignals[J].AppliedSciences,2023,13(4):2573.[3]㊀EkmanP,FriesenWV,O sullivanM,etal.Universalsandculturaldifferencesinthejudgmentsoffacialexpressionsofemotion[J].JournalofPersonalityandSocialPsychology,1987,53(4):712-717.[4]㊀PlutchikR.Thenatureofemotions:humanemotionshavedeepevolutionaryroots,afactthatmayexplaintheircomplexityandprovidetoolsforclinicalpractice[J].AmericanScientist,2001,89(4):344-350.[5]㊀RussellJA.Acircumplexmodelofaffect[J].JournalofPersonalityandSocialPsychology,1980,39(6):1161-1178.[6]㊀KoelstraS,MuhlC,SoleymaniM,etal.Deap:adatabaseforemotionanalysis;usingphysiologicalsignals[J].IEEETransactionsonAffectiveComputing,2011,3(1):18-31.[7]㊀SoleymaniM,LichtenauerJ,PunT,etal.Amultimodaldatabaseforaffectrecognitionandimplicittagging[J].IEEETransactionsonAffectiveComputing,2011,3(1):42-55.[8]㊀ZhengWL,LiuW,LuY,etal.Emotionmeter:amultimodalframeworkforrecognizinghumanemotions[J].IEEETransactionsonCybernetics,2019,49(3):1110-1122.[9]㊀KatsigiannisS,RamzanN.DREAMER:adatabaseforemotionrecognitionthroughEEGandECGsignalsfromwirelesslow⁃costoff⁃the⁃shelfdevices[J].IEEEJournalofBiomedicalandHealthInformatics,2018,22(1):98-107.[10]㊀SongT,ZhengW,LuC,etal.MPED:amulti⁃modalphysiologicalemotiondatabasefordiscreteemotionrecognition[J].IEEEAccess,2019,7:12177-12191.[11]㊀YangK,TongL,ShuJ,etal.HighgammabandEEGcloselyrelatedtoemotion:evidencefromfunctionalnetwork[J].FrontiersinHumanNeuroscience,2020,14:89.[12]㊀ValenziS,IslamT,JuricaP,etal.IndividualclassificationofemotionsusingEEG[J].JournalofBiomedicalScienceandEngineering,2014(8):604-620.[13]㊀ZhengWL,LuBL.InvestigatingcriticalfrequencybandsandchannelsforEEG⁃basedemotionrecognitionwithdeepneuralnetworks[J].IEEETransactionsonAutonomousMentalDevelopment,2015,7(3):162-175.[14]㊀WangZM,HuSY,SongH.ChannelselectionmethodforEEGemotionrecognitionusingnormalizedmutualinformation[J].IEEEAccess,2019,7:143303-143311.[15]㊀ZhangJ,ChenM,ZhaoS,etal.ReliefF⁃basedEEGsensorselectionmethodsforemotionrecognition[J].Sensors,2016,16:1558.[16]㊀ÖzerdemMS,PolatH.EmotionrecognitionbasedonEEGfeaturesinmovieclipswithchannelselection[J].BrainInformatics,2017,4:241-252.[17]㊀ZhengWL,ZhuJY,LuBL.IdentifyingstablepatternsovertimeforemotionrecognitionfromEEG[J].IEEETransactionson㊃612㊃北京生物医学工程㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第43卷AffectiveComputing,2017,10(3):417-429.[18]㊀GoshvarpourA,GoshvarpourA.AnovelapproachforEEGelectrodeselectioninautomatedemotionrecognitionbasedonlaggedPoincare sindicesandsLORETA[J].CognitiveComputation,2020,12(3):602-618.[19]㊀YildirimE,KayaY,KiliçF.AchannelselectionmethodforemotionrecognitionfromEEGbasedonswarm⁃intelligencealgorithms[J].IEEEAccess,2021,9:109889-109902.[20]㊀PengY,QinF,KongW,etal.GFIL:aunifiedframeworkfortheimportanceanalysisoffeatures,frequencybands,andchannelsinEEG⁃basedemotionrecognition[J].IEEETransactionsonCognitiveandDevelopmentalSystems,2022,14(3):935-947.[21]㊀GuoJY,CaiQ,AnJP,etal.AtransformerbasedneuralnetworkforemotionrecognitionandvisualizationsofcrucialEEGchannels[J].PhysicaA:StatisticalMechanicsanditsApplications,2022,603:127700.[22]㊀WaghKP,VasanthK.Performanceevaluationofmulti⁃channelelectroencephalogramsignal(EEG)basedtimefrequencyanalysisforhumanemotionrecognition[J].BiomedicalSignalProcessingandControl,2022,78:103966.[23]㊀LiuY,FuG.Emotionrecognitionbydeeplylearnedmulti⁃channeltextualandEEGfeatures[J].FutureGenerationComputerSystems,2021,119:1-6.[24]㊀PusarlaN,SinghA,TripathiS.LearningDenseNetfeaturesfromEEGbasedspectrogramsforsubjectindependentemotionrecognition[J].BiomedicalSignalProcessingandControl,2022,74:103485.[25]㊀MohammadiZ,FrounchiJ,AmiriM.Wavelet⁃basedemotionrecognitionsystemusingEEGsignal[J].NeuralComputingandApplications,2017,28:1985-1990.[26]㊀CaoX,ZhaoK,XuD.Emotionrecognitionofsingle⁃electrodeEEGbasedonmulti⁃featurecombinationintime⁃frequencydomain[J].JournalofPhysics:ConferenceSeries,2021,1827(1):012031.[27]㊀SalankarN,MishraP,GargL.EmotionrecognitionfromEEGsignalsusingempiricalmodedecompositionandsecond⁃orderdifferenceplot[J].BiomedicalSignalProcessingandControl,2021,65:102389.[28]㊀HwangS,HongK,SonG,etal.LearningCNNfeaturesfromDEfeaturesforEEG⁃basedemotionrecognition[J].PatternAnalysisandApplications,2020,23:1323-1335.[29]㊀ZhengWL,ZhuJY,LuBL.IdentifyingstablepatternsovertimeforemotionrecognitionfromEEG[J].IEEETransactionsonAffectiveComputing,2017,10(3):417-429.[30]㊀LashgariE,LiangD,MaozU.Dataaugmentationfordeep⁃learning⁃basedelectroencephalography[J].JournalofNeuroscienceMethods,2020,346:108885.[31]㊀BhatS,HortalE.GAN⁃baseddataaugmentationforimprovingtheclassificationofEEGsignals[C]//The14thPervasiveTechnologiesRelatedtoAssistiveEnvironmentsConference.Corfu,Greece:ACM,2021:453-458.[32]㊀TianC,MaY,CammonJ,etal.Dual⁃encoderVAE⁃GANwithspatiotemporalfeaturesforemotionalEEGdataaugmentation[J].IEEETransactionsonNeuralSystemsandRehabilitationEngineering,2023,31:2018-2027.[33]㊀LiuQ,HaoJ,GuoY.EEGdataaugmentationforemotionrecognitionwithatask⁃drivenGAN[J].Algorithms,2023,16:118.[34]㊀WangF,ZhongS,PengJ,etal.DataaugmentationforEEG⁃basedemotionrecognitionwithdeepconvolutionalneuralnetworks[M]//MultiMediaModeling.Bangkok,Thailand:SpringerInternationalPublishing,2018:82-93.[35]㊀PanB,ZhengW.EmotionrecognitionbasedonEEGusinggenerativeadversarialnetsandconvolutionalneuralnetwork[J].ComputationalandMathematicalMethodsinMedicine,2021,2021:2520394.[36]㊀LuoY,ZhuLZ,WanZY,etal.DataaugmentationforenhancingEEG⁃basedemotionrecognitionwithdeepgenerativemodels[J].JournalofNeuralEngineering,2020,17(5):056021.[37]㊀BaoG,YanB,TongL,etal.DataaugmentationforEEG⁃basedemotionrecognitionusinggenerativeadversarialnetworks[J].FrontiersinComputationalNeuroscience,2021,15:723843.[38]㊀ZhangA,SuL,ZhangY,etal.EEGdataaugmentationforemotionrecognitionwithamultiplegeneratorconditionalWassersteinGAN[J].Complex&IntelligentSystems,2022,8:3059-3071.[39]㊀AriB,SiddiqueK,AlçinÖF,etal.WaveletELM⁃AEbaseddataaugmentationanddeeplearningforefficientemotionrecognitionusingEEGrecordings[J].IEEEAccess,2022,10:72171-72181.[40]㊀TaoW,LiC,SongR,etal.EEG⁃basedemotionrecognitionviachannel⁃wiseattentionandselfattention[J].IEEETransactionsonAffectiveComputing,2023,14(1):382-393.[41]㊀ZhangP,MinC,ZhangK,etal.Hierarchicalspatiotemporalelectroencephalogramfeaturelearningandemotionrecognitionwithattention⁃basedantagonismneuralnetwork[J].FrontiersinNeuroscience,2021,15:738167.[42]㊀HuZ,ChenL,LuoY,etal.EEG⁃basedemotionrecognitionusingconvolutionalrecurrentneuralnetworkwithmulti⁃headself⁃attention[J].AppliedSciences,2022,12(21):11255.[43]㊀XiaoG,ShiM,YeM,etal.4Dattention⁃basedneuralnetworkforEEGemotionrecognition[J].CognitiveNeurodynamics,2022,16(4):805-818.[44]㊀JiangH,WuD,TangX,etal.EEGemotionrecognitionusinganattentionmechanismbasedonanoptimizedhybridmodel[J].Computers,Materials&Continua,2022,73(2):2697-2712.[45]㊀LiD,XieL,ChaiB,etal.Spatial⁃frequencyconvolutionalself⁃attentionnetworkforEEGemotionrecognition[J].AppliedSoftComputing,2022,122:108740.(2023-07-26收稿,2023-10-24修回)㊃712㊃第2期㊀㊀㊀㊀㊀㊀彭磊,等:脑电信号情绪识别关键技术研究进展。
辣椒疫病图片:辣椒疫病.jpg图片:辣椒疫病5.jpg图片:辣椒疫病1.jpg图片:辣椒疫病2.jpg图片:辣椒疫病3.jpg图片:辣椒疫病4.jpg简介英文名 Pepper Phytophthora blight病原辣椒疫霉Phytophthora capsic Leonian.属鞭毛菌亚门真菌。
寄主辣椒、番茄、茄子、南瓜、西瓜、白兰瓜、甜瓜、黄瓜、菜瓜等。
危害辣椒毁灭性病害。
田块株发病率20%~30%,发病田块达70%以上,严重地影响辣椒产量,甚至绝收。
分布全国各地均有发生。
详细资料为害症状叶片、茎和果实均可发病。
(1)叶片:叶片发病多在叶缘和叶柄连接处出现不规则暗绿色病斑,水渍状,边缘为黄绿色,多雨高湿条件下发展迅速,常造成叶片腐烂,干燥条件下病斑干枯易破碎。
(2)茎基部和茎节:茎基部和茎节分杈处发生成段暗绿色病斑,水渍状。
茎部多在近地面处发病,病斑初期为暗绿色,水渍状,后出现环绕表皮扩展的暗褐色或黑褐色条斑,病部易缢缩折倒,病部以上茎梗也易凋萎死亡。
(3)果实:受害多从蒂部开始,病斑呈暗绿色水渍状软腐,边缘不明显,很快扩展到全果实,引起腐烂,潮湿时病部覆盖白色霉层,干燥后形成暗褐色僵果。
病原物孢囊梗简单,菌丝状,淡色。
孢子囊顶生,长椭圆形,淡色,顶端有乳头状突起,大小(27.6~55.8)微米×(15.5~31.6)微米。
萌发时产生多个有双鞭毛的游动孢子。
卵孢子圆球形,黄褐色,直径为15~28微米。
病菌还能产生球形的厚壁孢子,淡黄色、单胞。
侵染循环(1)菌源:病原主要以卵孢子、厚垣孢子在病残体或土壤及种子上越冬,其中土壤中病残体带菌率高,是主要初侵染源。
北方寒冷地区病菌不能在种子上越冬,其主要来源是土壤中和在病残体上越冬的卵孢子。
(2)传播:条件适宜时,越冬后的病菌经雨水飞溅或灌溉水传到茎基部或近地面果实上,引起发病。
重复侵染主要来自病部产生的孢子囊,借雨水传播为害。
中心病株出现时间,棚室辣椒在4月上、中旬,露地辣椒在6月上旬左右。
色相总结色相是色彩的一个重要属性,它决定了物体所显示的颜色。
色相可以用来区分不同的颜色,并且可以按照一定的规则进行分类。
在色彩理论中,色相是指被称为光谱色的彩色光所具有的颜色属性。
本文将对色相的概念进行总结,并介绍一些常见的色相分类方法。
色相的概念色相是指在光谱中的位置和颜色的独特特征。
它是由人眼感受到的光的频率和波长决定的。
色相可以用一个角度来描述,通常以0到360度表示。
在这个角度范围内,0度表示红色,120度表示绿色,240度表示蓝色,依此类推。
色相的变化可以沿着这个角度范围进行连续变化,形成各种不同的颜色。
色相的分类方法三原色模型三原色模型是最基础和常用的色相分类方法之一。
它将所有的颜色分为三个主要的色相:红色、绿色和蓝色。
这三个色相是通过不同波长的光混合而成的。
三原色模型常用于显示和打印技术中,它可以通过调节红、绿、蓝三个颜色的强度来获取任意的颜色。
色轮模型色轮模型是一种基于色相轮的分类方法。
它将所有的颜色绘制在一个圆形的色相轮上,按照一定的顺序排列。
这种分类方法来源于人们对颜色环的观察和总结。
常见的色轮模型有RGB色轮、RYB色轮和CMYK色轮等。
•RGB色轮:RGB色轮是基于三原色的色相分类模型。
它将色相轮分为红、绿、蓝三个主要的区域,同时包含了它们的混合色。
•RYB色轮:RYB色轮是一种传统的艺术家常用的色相分类方法。
它将色相轮分为红、黄、蓝三个主要的区域,同时包含了它们的混合色。
•CMYK色轮:CMYK色轮是一种常用于打印技术的色相分类方法。
它将色相轮分为青、洋红、黄、黑四个主要的区域,同时包含了它们的混合色。
色相的互补和相邻关系在色相分类中,互补色和相邻色是两个重要的概念。
互补色是指色相轮上距离180度的两个颜色。
互补色具有强烈的对比和差异性,它们在搭配和设计中可以产生特殊的效果。
相邻色是指色相轮上彼此相邻的两个颜色。
相邻色在色彩搭配中具有较好的和谐性,常常用于创建柔和、自然和平衡的配色方案。
1:白色是复合光,能够分解出七种单色光(红、橙、黄、绿、青、蓝、紫)2:由于光的显色性,人们在不同光源下看到物体的颜色是有所差别的,在白光下看到的颜色最准确。
3:色光的三原色是红,绿,蓝(紫)(RGN)色料的三原色是(品)红(M),(湖)蓝(青 C),黄(Y)(CMYK)4:互为补色的色光相混得白光,互为补色的颜料相混得的是灰黑色。
一、色阶表示图像亮度强弱的指数标准,指的是灰度(黑色的灰度是越大的,白色的灰度越低)分辨率。
另外:灰色系的纯度是0(对灰度有影响的仅仅是亮度,色相毫无影响)图像的色彩丰满度和精细度是由色阶决定的(色阶是由亮度决定的,和颜色无关)二、色立体图7:色彩的色调倾向为色相,色环表示色相系列三、12色相环按光谱顺序排列为:红(0°),红橙(30°),橙(60度),黄橙(90°),黄(120°),黄绿,绿,蓝绿,蓝(240°),蓝紫,紫,红紫。
如图:注意:色环上的三原色值得是色料的三原色(即,青(蓝);品红;黄;(CMY))四、关于对比色双方都不参入对方色素,在色环上相对应的称为对比色。
把它们放在一起能最大程度突出对方的鲜明,如果相互混合就变成灰黑色。
原色的对比色是两次色。
如,红色的对比色是绿色(黄+蓝)黄色的对比色是紫色(蓝+红)蓝色的对比色是橙色(红+黄)五、关于HSBHSB色彩是把颜色分为色相、饱和度、明度三个因素。
色相:在0~360°的标准色轮上,色相是按位置度量的。
红色在0度,绿色在120度,蓝色在240度。
六、关于RGB光的三原色;红,绿,蓝七、关于CMYK青色Cyan、品红色Magenta、黄色Yellow。
而K取的是black最后一个字母从理论上来说,只需要CMY三种油墨就足够了,它们三个加在一起就应该得到黑色8:黑白之间不同程度的明暗强度划分,称为明暗阶度(也为色阶)。
色彩也可以通过加减黑,白来调节亮度。
这些前后期必备的校准工具,别说你用不到数字时代,产生了越来越多的技术标准。
比如前期拍摄有曝光、白平衡的标准,后期制作有监看、监听的标准。
如何践行这些标准?我们知道人眼和耳朵存在天生的缺陷,即使你是经验丰富的摄影师、调色师、录音师,也很难得到精确的结果。
所以最常用的方法,就是借助科学的工具进行校准。
无论是在现场拍摄、录音、还是后期画面监看,校准都是必不可少的步骤。
今天,小编就来盘点一下前后期必备的几种实用校准工具。
白平衡和曝光的校准在拍摄现场,我们要对摄像机或摄影机的白平衡和曝光进行校准,确保所有参数都在校准的前提下调整。
尽管现在数字摄影机的白平衡功能很先进,但在场景光线复杂的情况下也难避免差错,尤其在光线有颜色的情况下,自动白平衡往往没那么理想,这就需要使用白平衡校准工具——白卡、灰卡和色卡。
ChromLives 白平衡校准卡白卡白卡,看起来就是一张普通的白色的卡,但它的白色,是准确的纯白色。
白卡可以确保在任何光照条件下,都是准确、均匀的中性白,让红、绿、蓝三种颜色按照相同比例进行反射,从而得到比较准确的白平衡校正。
把摄影机的白平衡设置为白卡时,摄影机能够根据色轮的蓝黄色轴正确校准画面的环境光。
后期软件同理。
白卡对曝光控制也有帮助。
如果在拍摄白卡时过曝了,就说明你应该降低曝光。
X-Rite标准白卡白卡使用起来很方便,首先把白卡放在镜头前中,保证照明光线和开机拍摄时的光线完全一致,然后调整摄影机为手动白平衡,让镜头靠近白卡,直到白卡填满取景器,最后设置白平衡就可以了。
灰卡灰卡与白卡的原理一样,也可以让红、绿、蓝三原色按照相同比例反射,所以灰卡也可以用作校准白平衡。
拍摄时,摄影机选择手动白平衡设置,然后按照上文白卡的方法,就可以得到准确的白平衡。
但严格的讲,灰卡更适合用来测试曝光。
灰卡的光学特性是18%的灰,18%指亮度值,这对于很多电影制作的工具有重要的意义,比如摄影机的自动测光就是按照18%的灰来进行的。
色彩对比在我们的视觉中,任何物体和颜色都不可能孤立地存在,它们都是从整体中显现出来的,而我们的感官也不可能单独地去感受某一种色,总是在大的整体中去感觉各个部分。
我们只有通过对比才能认识色彩的特征及相互关系,故任何色彩都是在对比的状态下存在的,或者是在相对条件下存在的。
(色彩对比是色彩最普遍的存在形式)色彩对比是指两种或两种以上的色彩放在一起时,相互影响后产生出不同的差别的现象。
将两个或两个以上的色彩放在一起,自然会形成“比较”的格局和效果。
对比的关键是差别(色彩间差别的大小,决定着对比的强弱)一、两种对比现象1、同时对比:同一时间,同一视域,同一条件,同一范畴内看到两种颜色所产生的对比现象。
同时对比规律:⑴亮色与暗色相邻,亮更亮,暗更暗。
灰与艳并置,灰更灰,艳更艳。
冷于暖并置,冷更冷,暖更暖。
⑵不同色相邻,都倾向把对方推向自己的补色。
⑶补色相邻,由于对比作用各自都增加了补色光,色鲜艳度也同时增加。
⑷同时对比效果随着纯度的增加而增加,相邻之处边缘部分最为明显。
搞宣传或者经常注意标语的人会发现,在红纸上用墨汁写字,其效果好像在红纸上写绿字一样。
这就是同时对比所产生的视觉作用(对联也是如此)。
在同时对比中,对比色的比较、衬托、排斥与影响作用是相互的。
色的错觉现象就是由同时对比造成的。
(参考图例)2、连续对比:指在不同的时间条件下,或者说在时间运动的过程中,不同颜色刺激之间的对比。
简单说就是先看了某种颜色,然后再看另一种颜色时产生的对比现象。
【当我们先看红色的地毯再看黄色的地毯(时间非常接近),我们发现后看的黄色地毯带绿味,这是因为眼睛把先看色彩的补色残像加到后看物体色彩上面的缘故。
】【如先看的色彩明度高,后看的色彩明度低,后看色彩显得明度更低;如先看的色彩明度低,后看得色彩明度高,则后看色彩显得明度更高。
】连续对比也称视觉残像。
残像又可分为正残像和负残像两种。
A:正残像指当强烈的刺激消失后,色彩在极短时间内还会停留于眼睛中的现象,它是与刺激色相同的一种色的持续。