【CN110084152A】一种基于微表情识别的伪装人脸检测方法【专利】
- 格式:pdf
- 大小:559.90 KB
- 文档页数:9
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202010230483.X(22)申请日 2020.03.27(71)申请人 南京工业大学地址 211816 江苏省南京市浦口区浦珠南路30号申请人 南京摩深信息科技有限公司(72)发明人 钱甜甜 张帆 杨健楠 (74)专利代理机构 北京思创大成知识产权代理有限公司 11614代理人 尹慧晶(51)Int.Cl.G06K 9/00(2006.01)G06K 9/62(2006.01)(54)发明名称一种基于边缘计算的面部表情识别方法(57)摘要一种基于边缘计算的面部表情识别方法,该方法在边缘设备上执行,在进行表情识别时可以减少请求响应时间和网络带宽,提高电池寿命,确保安全和隐私的方法,为了达到该目的,本发明充分利用边缘设备,使其原始图像可以不被传送到相应的服务器而直接处理,然后分析的结果可以更容易地传送给用户和原始数据进行比较。
权利要求书1页 说明书3页 附图1页CN 111414884 A 2020.07.14C N 111414884A1.一种基于边缘计算的面部表情识别方法,其特征在于,该方法在边缘设备上执行,包括以下步骤:S1、面部图像样本采集步骤:对于多个个人,分别获取包括中性表情在内的八种面部基本表情,作为面部图像训练样本;S2、面部图像样本训练步骤:对于前述面部图像样本,分别进行AU特征提取,通过对应基本表情的训练获取SVM分类器,并将前述SVM分类器布置在边缘设备中;S3、面部图像表情识别步骤:获取待识别的面部图像,发送至边缘设备,在边缘设备中对前述面部图像进行处理,计算出面部图像的AU特征,输入SVM分类器,获取待识别的面部表情。
2.根据权利要求1所述的基于边缘计算的面部表情识别方法,其特征是所述的AU特征包括外观特征和几何特征。
3.根据权利要求2所述的基于边缘计算的面部表情识别方法,其特征是外观特征提取包括:对于面部图像,分离面部区域并将其调整为固定的图像尺寸,提取出该图像的方向梯度直方图作为外观特征。
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202110234838.7(22)申请日 2021.03.03(71)申请人 郑州航空工业管理学院地址 450015 河南省郑州市二七区大学中路2号(72)发明人 赵雪专 裴利沈 李玲玲 赵中堂 薄树奎 马腾 杨勇 张湘熙 刘汉卿 (74)专利代理机构 成都鱼爪智云知识产权代理有限公司 51308代理人 代述波(51)Int.Cl.G06K 9/00(2006.01)G06K 9/62(2006.01)G06N 3/08(2006.01)(54)发明名称一种基于视觉的人脸表情识别方法(57)摘要本发明提出了一种基于视觉的人脸表情识别方法。
本发明涉及信息处理领域。
本发明包括以下步骤:获取人脸图像样本集,并且对人脸图像样本集进行预处理;提取预处理后人脸图像样本集的特征,获得表情特征样本集;将表情特征样本集引入至表情识别分类器中进行学习训练,得到训练好的表情识别分类器;将测试样本放入训练好的表情识别分类器,并且表情识别分类器对测试样本进行评估。
本发明能够识别出人脸表情的表情程度。
权利要求书1页 说明书7页 附图1页CN 112836680 A 2021.05.25C N 112836680A1.一种基于视觉的人脸表情识别方法,其特征在于,包括以下步骤;获取人脸图像样本集,并且对人脸图像样本集进行预处理;提取预处理后人脸图像样本集的特征,获得表情特征样本集;将表情特征样本集引入至表情识别分类器中进行学习训练,得到训练好的表情识别分类器;将测试样本放入训练好的表情识别分类器,并且表情识别分类器对测试样本进行评估。
2.根据权利要求1所述的一种基于视觉的人脸表情识别方法,其特征在于,所述获取人脸图像样本集,并且对人脸图像样本集进行预处理包括将所述人脸图像样本集彩色图像转化成灰度图像:其中,R、G、B分别为每个彩色图像像素点的颜色分量,g为转化后的灰度值。
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202010409174.9(22)申请日 2020.05.14(71)申请人 公安部第三研究所地址 200031 上海市徐汇区岳阳路76号(72)发明人 王立 刘辛宇 姚斌 洪丽娟 成云飞 冯宗伟 李明 华寅 (74)专利代理机构 上海智信专利代理有限公司31002代理人 王洁 郑暄(51)Int.Cl.G06K 9/00(2006.01)G06N 3/04(2006.01)G06N 3/08(2006.01)(54)发明名称基于深度卷积神经网络实现生成式虚假人脸图像鉴定的方法(57)摘要本发明涉及一种基于深度卷积神经网络实现生成式虚假人脸图像鉴定的方法,包括利用主流人脸生成模型生成虚假人脸;对训练用的真实人脸以及生成人脸图片数据集进行成对预处理,并制定标签;以深度卷积神经网络为基础构建共同特征提取网络以及分类网络;利用对比损失,向共同特征提取网络输入训练用成对人脸图像进行训练;将训练后的共同特征提取网络与分类网络进行级联,输入生成的或者真实单人脸图像进行训练;根据经过训练后得到的级联网络模型进行生成式虚假人脸图像鉴定。
采用了本发明的基于深度卷积神经网络实现生成式虚假人脸图像鉴定的方法,搭建的网络结构简单,鉴别速度快,在虚假生物特征图像鉴别以及人脸图像安全领域有广阔的应用前景。
权利要求书2页 说明书5页 附图4页CN 111597983 A 2020.08.28C N 111597983A1.一种基于深度卷积神经网络实现生成式虚假人脸图像鉴定的方法,其特征在于,所述的方法包括以下步骤:(1)利用主流人脸生成模型生成虚假人脸;(2)对训练用的真实人脸以及生成人脸图片数据集进行成对预处理,并制定标签;(3)以深度卷积神经网络为基础构建共同特征提取网络以及分类网络;(4)利用对比损失,向共同特征提取网络输入训练用成对人脸图像进行训练;(5)将训练后的共同特征提取网络与分类网络进行级联,输入生成的或者真实单人脸图像进行训练;(6)根据经过训练后得到的级联网络模型进行生成式虚假人脸图像鉴定。
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201810645394.4(22)申请日 2018.06.21(71)申请人 北京师范大学地址 100875 北京市海淀区新街口外大街19号(72)发明人 樊亚春 税午阳 宋毅 (74)专利代理机构 北京中海智圣知识产权代理有限公司 11282代理人 胡静(51)Int.Cl.G06K 9/00(2006.01)(54)发明名称一种人脸表情的识别方法(57)摘要本发明涉及一种人脸表情的识别方法,具体包括以下步骤:步骤1:针对人脸表情数据集中的各个图像,检测图像中的人脸及特征点;步骤2:在步骤1的基础上,生成人脸图像上各个特征点局部区域的特征向量,计算基于人脸特征点的表情特征;步骤3:进行计算人脸表情特征向量;步骤4:在步骤3的基础上,利用自编码神经网络方法进行降维;步骤5:计算并得到非线性高维分类模型;步骤6:当用户输入人脸视频后,按照步骤1~步骤4方法构造新型较低维的形状特征描述符;步骤7:将输入视频人脸图像特征描述符与分类模型进行比较,从而确定出人脸表情图像在不同分类中的概率值。
本发明的有益效果是:提高表情特征的描述能力;提高了表情识别的准确率。
权利要求书2页 说明书6页 附图2页CN 108830237 A 2018.11.16C N 108830237A1.一种人脸表情的识别方法,其特征在于,具体包括以下步骤:步骤1 针对人脸表情数据集中的各个图像,检测图像中的人脸及特征点:步骤1.1 针对人脸表情训练数据集中的各图像,检测图像中的人脸并实现特征点对齐,为了准确检测不同人脸特征点的准确位置,需要利用样本人脸中手工标注的特征点对平均人脸特征点的位置进行最优化回归计算,定义优化函数为如下公式(1):其中,表示平均人脸的特征点,经过回归计算后得出人脸的68个特征点,平均人脸的特征点是对样本人脸中特征点的位置进行平均计算得到,表示当前人脸特征点。
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910285839.7(22)申请日 2019.04.10(71)申请人 武汉大学地址 430072 湖北省武汉市武昌区珞珈山武汉大学(72)发明人 王中元 王光成 肖晶 何政 (74)专利代理机构 武汉科皓知识产权代理事务所(特殊普通合伙) 42222代理人 魏波(51)Int.Cl.G06K 9/00(2006.01)G06K 9/62(2006.01)G06N 3/04(2006.01)(54)发明名称一种基于微表情识别的伪装人脸检测方法(57)摘要本发明针对伪装人脸识别的问题,公开了一种基于微表情识别的伪装人脸检测方法,首先采集不同情境和不同摄像环境下的伪装与真实人脸的微表情视频序列,再通过基于卷积神经网络(CNN)和长短记忆模块(LSTM)的微表情识别模型对伪装和真实人脸的微表情序列进行特征提取,并引入微表情熵和皮尔逊系数来分析二者微表情特征空间的差异,接着采用K -means聚类方法对不同情境下和不同视觉质量的伪装与真实人脸的微表情特征空间进行聚类;最后构建伪装和真实人脸的微表情特征差异分析模型并进行伪装人脸检测。
与现有人脸活体检测技术相比,本发明能够有效识别高仿人脸面膜伪装和面部化妆伪装。
权利要求书2页 说明书4页 附图2页CN 110084152 A 2019.08.02C N 110084152A1.一种基于微表情识别的伪装人脸检测方法,其特征在于,包括以下步骤:步骤1:采集伪装和真实人脸在不同情境和不同摄像环境下产生的微表情视频序列,包括高兴、惊讶、悲伤、愤怒、厌恶和恐惧等六种基本微表情;步骤2:利用一种基于CNN和LSTM的微表情识别网络来提取微表情特征,通过微表情熵和皮尔逊相关系数来量化真实人脸和伪装人脸微表情特征空间的差异;步骤3:利用K-means聚类方法对不同情境和不同视觉质量的伪装和真实人脸的微表情特征空间进行聚类,分析不同情境和不同视觉质量对伪装与真实人脸微表情区别显著性的影响;步骤4:构建伪装和真实人脸的微表情特征差异分析模型;微表情由构成微表情的微动作组成,真实人脸的面部微动作丰富且细腻,伪装人脸的面部微动作呆板且稀疏以至于表达能力有限;当微动作稀疏到预定程度时,伪装人脸就只存在一种表情,此时不存在微表情;步骤5:根据所述伪装和真实人脸的微表情特征差异分析模型进行伪装人脸检测。
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202011051490.X(22)申请日 2020.09.29(71)申请人 浙江大学地址 310012 浙江省杭州市西湖区浙大路38号浙江大学玉泉校区申请人 浙江大学医学院附属第一医院(72)发明人 丁鼐 高佳欣 罗本燕 彭国平 (74)专利代理机构 杭州裕阳联合专利代理有限公司 33289代理人 田金霞(51)Int.Cl.G16H 50/20(2018.01)G06K 9/00(2006.01)G06N 3/04(2006.01)G06N 3/08(2006.01)(54)发明名称基于脸部微表情的认知状态识别系统及方法(57)摘要本发明公开了一种基于脸部微表情的认知状态识别系统及方法,该系统包括:数据获取模块、数据处理模块和认知分类模型;数据获取模块用于获取用于训练的视频数据;数据处理模块用于对视频数据进行处理,将视频数据截取为固定帧数的短视频;将数据处理模块处理好的短视频输入认知分类模型对其进行训练;数据获取模块还用于获取未知状态的测试对象的待识别视频数据并输入至训练好的认知分类模型;认知分类模型输出评估结果。
本发明的基于脸部微表情的认知状态识别系统及方法,能够对测试对象的脸部视频数据进行分析处理,并自动对该测试对象的认知状态进行归类识别。
权利要求书2页 说明书5页 附图1页CN 112201343 A 2021.01.08C N 112201343A1.一种基于脸部微表情的认知状态识别系统,其特征在于,包括,数据获取模块、数据处理模块和认知分类模型;所述数据获取模块用于获取用于训练的视频数据,所述视频数据包含认知状态正常的测试对象的视频数据和认知状态异常的测试对象的视频数据;所述数据处理模块用于对所述视频数据进行处理,将所述视频数据截取为固定帧数的短视频;所述认知分类模型包括:AU区域划分模块、特征提取模块、预测模块、检验模块和分类模块;将所述数据处理模块处理好的短视频输入所述认知分类模型对其进行训练;所述AU区域划分模块用于针对短视频中的每一帧图像进行面部特征点识别,将每一帧图像划分成不同的AU区域;所述特征提取模块用于将每一个AU区域输入对应的CNN,得到相应AU区域的特征向量,将每一帧图像的所有AU区域的特征向量进行串联得到每一帧图像的多标签AU特征;所述预测模块用于将每一帧图像的多标签AU特征输入LSTM网络进行AU预测,得到每个短视频对应的不同的AU出现的概率;所述检验模块用于对所述预测模块的结果进行显著性检验,确定差异AU;所述分类模块用于将认知状态正常和状态异常作为类别标签,将所述差异AU的概率作为特征标签,使用SVM进行二分类,完成所述认知状态评估模型训练工作;所述数据获取模块还用于获取未知状态的测试对象的待识别视频数据并输入至训练好的所述认知分类模型;所述认知分类模型输出评估结果。
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201611055921.3(22)申请日 2016.11.25(71)申请人 哈尔滨工程大学地址 150001 黑龙江省哈尔滨市南岗区南通大街145号哈尔滨工程大学科技处知识产权办公室(72)发明人 王科俊 郭芳良 邢向磊 (51)Int.Cl.G06K 9/00(2006.01)G06K 9/62(2006.01)(54)发明名称一种基于深度学习的人脸微表情识别方法(57)摘要本发明提供的是一种基于深度学习的人脸微表情识别方法。
包括:步骤A:建立微表情数据库;步骤B:对微表情图像进行预处理;步骤C:利用卷积块代替大卷积核提取特征;步骤D:利用卷积块构建基于卷积块的微表情识别网络结构,并用利用微表情识别网络结构对微表情进行识别。
本发明构建的数据库克服了传统微表情库背景单一、光照变化不明显、缺少遮挡等的限制,更接近于自然状态微表情。
本发明仅依赖一个卷积神经网络对微表情进行识别,无需复杂的特征提取过程,利用网络自动分析特征,改善了传统人脸识别方法特征不易提取的劣势。
权利要求书1页 说明书5页 附图2页CN 106599800 A 2017.04.26C N 106599800A1.一种基于深度学习的人脸微表情识别方法,其特征是:步骤A:建立微表情数据库;步骤B:对微表情图像进行预处理;步骤C:利用卷积块代替大卷积核提取特征;步骤D:利用卷积块构建基于卷积块的微表情识别网络结构,并用利用微表情识别网络结构对微表情进行识别。
2.根据权利要求1所述的一种基于深度学习的人脸微表情识别方法,其特征是所述建立微表情数据库具体包括:步骤A1:搜集现有的微表情数据库图片;步骤A2:从网络上搜索一定量的微表情图片;步骤A3:从现有的微表情数据库图片中截取一部分图片和从网络上搜索的微表情图片组合成新的微表情数据库。
专利名称:一种伪装人脸检测方法及系统专利类型:发明专利
发明人:曹江中,李彦志,茅庆江
申请号:CN201610176952.8
申请日:20160325
公开号:CN105844245A
公开日:
20160810
专利内容由知识产权出版社提供
摘要:本发明提供一种伪装人脸检测方法及系统,属于视频图像识别技术领域。
本发明伪装人脸检测方法包括如下步骤:获取人员进入的信号,判断是否有人员进入,如果是,对视频图像预处理;检测人脸,判断是否存在人脸或人头,如果是,检测鼻子,判断是否存在鼻子,如果否,判断为伪装人脸,发出报警,如果是,估计眼睛和嘴巴的检测区域,然以检测眼睛和嘴巴,判断是否同时存在眼睛和嘴巴,如果是,判断为正常人脸,如果否,判断为伪装人脸,发出报警。
本发明的有益效果为:能够对ATM机的伪装人脸进实时检测和报警;使用鼻子作为引导检测眼睛和嘴巴,使得人脸器官定位更加准确。
申请人:广州市浩云安防科技股份有限公司
地址:511400 广东省广州市番禺区桥南街市良路金业花园东二街16号101
国籍:CN
代理机构:深圳市科吉华烽知识产权事务所(普通合伙)
代理人:胡吉科
更多信息请下载全文后查看。
(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 201910285839.7
(22)申请日 2019.04.10
(71)申请人 武汉大学
地址 430072 湖北省武汉市武昌区珞珈山
武汉大学
(72)发明人 王中元 王光成 肖晶 何政
(74)专利代理机构 武汉科皓知识产权代理事务
所(特殊普通合伙) 42222
代理人 魏波
(51)Int.Cl.
G06K 9/00(2006.01)
G06K 9/62(2006.01)
G06N 3/04(2006.01)
(54)发明名称
一种基于微表情识别的伪装人脸检测方法
(57)摘要
本发明针对伪装人脸识别的问题,公开了一
种基于微表情识别的伪装人脸检测方法,首先采
集不同情境和不同摄像环境下的伪装与真实人
脸的微表情视频序列,再通过基于卷积神经网络
(CNN)和长短记忆模块(LSTM)的微表情识别模型
对伪装和真实人脸的微表情序列进行特征提取,
并引入微表情熵和皮尔逊系数来分析二者微表
情特征空间的差异,接着采用K -means聚类方法
对不同情境下和不同视觉质量的伪装与真实人
脸的微表情特征空间进行聚类;最后构建伪装和
真实人脸的微表情特征差异分析模型并进行伪
装人脸检测。
与现有人脸活体检测技术相比,本
发明能够有效识别高仿人脸面膜伪装和面部化
妆伪装。
权利要求书2页 说明书4页 附图2页CN 110084152 A 2019.08.02
C N 110084152
A
1.一种基于微表情识别的伪装人脸检测方法,其特征在于,包括以下步骤:
步骤1:采集伪装和真实人脸在不同情境和不同摄像环境下产生的微表情视频序列,包括高兴、惊讶、悲伤、愤怒、厌恶和恐惧等六种基本微表情;
步骤2:利用一种基于CNN和LSTM的微表情识别网络来提取微表情特征,通过微表情熵和皮尔逊相关系数来量化真实人脸和伪装人脸微表情特征空间的差异;
步骤3:利用K -means聚类方法对不同情境和不同视觉质量的伪装和真实人脸的微表情特征空间进行聚类,分析不同情境和不同视觉质量对伪装与真实人脸微表情区别显著性的影响;
步骤4:构建伪装和真实人脸的微表情特征差异分析模型;
微表情由构成微表情的微动作组成,真实人脸的面部微动作丰富且细腻,伪装人脸的面部微动作呆板且稀疏以至于表达能力有限;当微动作稀疏到预定程度时,伪装人脸就只存在一种表情,此时不存在微表情;
步骤5:根据所述伪装和真实人脸的微表情特征差异分析模型进行伪装人脸检测。
2.根据权利要求1所述的基于微表情识别的伪装人脸检测方法,其特征在于:步骤1中,采用诱发式的方法来采集微表情视频序列。
3.根据权利要求1所述的基于微表情识别的伪装人脸检测方法,其特征在于,步骤2的具体实现包括以下子步骤:
步骤2.1:采用基于CNN和LSTM的微表情识别方法来提取伪装和真实人脸的微表情特征;
通过CNN提取将每个微表情帧编码成特征向量;将CNN提取的特征向量通过LSTM得到最终包括时空特性的微表情特征;所提取的特征为softmax层之前的长度为128的一维向量;
步骤2.2:通过微表情熵的数值大小来辨识真实和伪装人脸;微表情熵的计算方式如
下:
其中,p i 步骤2.1中提取的微表情特征值,n=128表示提取的一维特征空间的长度;当微表情空间包含的面部微动作越复杂时微表情熵的值越大,反之微表情熵越小代表微表情空间的微动作越稀疏;
步骤2.3:通过皮尔逊相关系数预测伪装和真实人脸微表情特征空间的相关性;皮尔逊
相关系数的计算方式如下:
其中,X和Y分别代表两组微表情特征空间,
和分别表示两组向量X和Y的均值;ρ范围为-1到+1,0代表无相关性,负值为负相关,正值为正相关;当两组微表情特征空间都为真实或伪装人脸微表情特征空间时,ρ值越接近1;当两组微表情特征空间分别为真实和伪装人脸微表情特征空间时,ρ值越小。
4.根据权利要求1所述的基于微表情识别的伪装人脸检测方法,其特征在于,步骤3的具体实现包括以下子步骤:
权 利 要 求 书1/2页2CN 110084152 A。