当前位置:文档之家› 人脸特征的定位和提取

人脸特征的定位和提取

人脸特征的定位和提取
人脸特征的定位和提取

人脸特征的定位和提取

摘要:综述了人脸识别的现状。基于几何特征的识别方法,根据人脸图象的灰度特性用投影图和特征描述相匹配的算法初步确定了人脸各部分的位置。然后利用投影法和模板匹配法准确地确定了瞳孔的位置及其它面部特征。实验表明该方法准确率高,运行速度快。关键词:特征定位特征提取类间方差判断分析法模板匹配

人脸识别的研究近几年受到普遍重视,它与指纹识别、视网膜识别等同属于生物特征识别技术范畴。在公安(犯罪识别等)、安全验证系统、医学、视频会议、交通量控制等方面有着巨大的应用前景,因而成为当前模式识别和人工智能领域的一个研究热点。虽然人类能毫不费力地识别出人脸及表情,但人脸的自动机器识别却是一个难度极大的课题。人脸识别的研究已有20多年的历史,最早它和指纹识别一道作为识别罪犯身份的手段。但人脸的结构比指纹要复杂得多,并且受很多因素的干扰:人脸表情的多样性、成象过程的光照、图像的尺寸、旋转及姿势的变化等。即使同一个人,在不同的环境下拍摄得到的人脸图像也可能不同。所以至今人脸识别尚未能取得象指纹识别那样令人满意的结果。还没有通用成熟的人脸自动识别系统出现。1 人脸识别的理论研究及发展现状人脸识别的输入图象通常有正面、倾斜和侧面三种,由于实际情况的要求,对人脸正面模式的研究最多,它的发展可分为三个阶段。第一阶段以Bertillon、Allen 和 Parke 为代表,主要研究人脸识别所需的面部特征。这一阶段工作的特点是识别过程全部依赖于操作人员。第二阶段是人机交互识别阶段。代表有Goldstion、Harmon 和Lesk。他们用几何特征参数来表示人脸正面图象。采用21维特征矢量表示人脸特征,并设计了基于特征表示法的识别系统。第三个阶段是向实用化发展的自动识别阶段。随着高速度高性能计算机的发展,人脸模式的识别方法有了较大改进。目前国内外研究用于人脸识别的方法层出不穷。但根据人脸表征方式的不同,总体上可分为以下三种:基于几何特征的识别方法、基于代数特征的识别方法和基于连接机制的识别方法。

(1)基于几何特征的人脸正面图象识别方法,将人脸用一组几何特征矢量表示,用模式识别中层次聚类的思想设计分类器达到识别的目的。这要求选取的几何特征矢量有一定的独特性,能够消除时间跨度和光照的影响。几何特征矢量是以人脸器官的形状和几何关系为基础的特征矢量,Govindaraju等首先利用模板技术成功地检测出报刊图片的人脸轮廓,Huang 和Chen 利用动态模板技术检测出人脸的各种面部特征。(2)基于代数特征的人脸正面自动识别方法,将人脸用代数特征矢量来表示。代数特征是由Hong等首先提出的,由图象本身的灰度分布确定的,它描述了图象的内在信息,它是通过对图象灰度进行各种代数变换和矩阵分解提取出的。杨静宇等对代数特征的提取进行了较深入地研究。这种方法将人脸看作一个二维的灰度变化的模板,从整体上捕捉和描述人脸的特征,所运用的主要是一些标准的数理统计的技巧,运算比较复杂。(3)基于连接机制的人脸正面自动识别方法,将人脸直接用灰度图(二维矩阵)表征,利用了神经网络的学习能力及分类能力。这种方法的优势在于保存了人脸图象的材质信息和形状信息,同时避免了较为复杂的特征提取工作。但是普遍存在的问题是识别准确率低,过程复杂。本文从构造实际应用系统的角度,采用基于几何特征的识别方法。具体过程是先根据人脸图象的灰度特性用投影图和特征描述相匹配的方法确定人脸各部分的位置。然后利用投影法和模板匹配方法定位了瞳孔的位置,较准确的提取出眼睛的特征。2 算法描述特征选取应保证最有代表性、信息量大、冗余量小,而且要求在一定的干扰下,也能保持一定的不变性和适应性。基于这种要求,借鉴前人研究成果,融合本文的实验,将眉眼距、眼鼻距、眼嘴巴距、嘴巴下巴距、两内眦距、鼻孔距、嘴巴长度、眼睛处的脸颊宽度、鼻子处的脸颊宽度及嘴巴处的脸颊宽度作为人脸识别的主要特征,并且将这10个特征分别与瞳孔距之比形成的特征矢量存入数据库中。对这些特征矢量作矢量归一化处理后,可以有效的避免头部偏转引起的偏差。2.1 预处理与特征定位实验采用400×600×8bit的灰度图

象。首先对图象进行平滑滤波处理,消除噪声。然后利用类间方差判断分析法确定二值化阈值。类间方差判断分析法是指从图象的灰度直方图中把灰度值的几何分布用阈值K分为两类。然后根据这两类的平均方差(类间方差)和各类的方差(类内方差)之比取最大值时所对应的K 值即为二值化阈值。实验结果表明二值化后的图像更有利于特征定位。

由于人眼的灰度特征与人脸其他部位有明显不同,我们采用投影图的方法很容易得到眼睛、鼻子和嘴巴的大致位置。具体的过程如下,作出人脸图象沿X坐标方向包含主要特征信息的区域的Y方向投影图,。其中自顶向下的直线为二值化阈值线。由该线与投影区域的第一个交点作为始点,由此向下经过具有较大灰度变化的曲线后,寻找二值化阈值线与投影区域的交点即为额头点的位置H,额头的位置不要求很精确,但应保证H点在眉毛实际位置的上方。然后由投影图确定眉毛、眼睛、鼻子和嘴巴、下巴的大致位置。但考虑到有的人脸照片,前额的头发遮住了眉毛的位置,或者是由于摄影光照的影响致使有些特征的投影图的凸凹性不明显,会给准确识别带来一定困难。因此本文还采用投影图和特征描述相匹配的特征识别树识别方法。特征识别树识别方法的具体过程是:首先给每个特征一组初始匹配标号,然后在识别树上核实各特征。即由投影图中初定位的6个特征,其标号函数可定义为original ={C0,https://www.doczj.com/doc/9f18857536.html,},人脸待识别的标号集记为Li={L1,L2....L6},它们依次为眉毛、眼睛、鼻子、上嘴唇和嘴巴、下巴,并对每个特征有一定的描述集Lci={Lc1,Lc2,...Lc6}。如果Ci通过了Lc中一项Lci的一致性检测,则Ci∈{Li}。识别树示意。这种一致性检测利用了人脸各器官的相对位置及相对距离的变化范围,各特征区域的灰度分布特点等。

经对200张不同的人脸图象进行实验验证,特征定位的准确率达到96%。为进一步识别提供了必要的条件。2.2 瞳孔的定位及图像标准化在特征矢量归一化处理中以瞳距作为基准。这是考虑到瞳距作为人脸识别中最稳定的特征,也是最重要的特征。因此瞳距定位的准确性是决定系统识别效率高低的关键。一般提取眼睛特征都使用的简化模板,即用两条端点重合的抛物线分别近似上下眼皮,在上下眼皮之间加上眼球的模板,用动态模板匹配的方法进行特征提取。但是人眼眼皮的特征曲线并不象抛物线那么规则,且受表情的影响有较多的变化。这样就使得误差较大以致于无法正确描述眼睛的特征。本文考虑到可提取特征的稳定性及其在人脸识别中的作用。确定了瞳距和两眼内眦距作为眼部区域的主要特征。采用了投影法和模板匹配两种方法并行准确定位了瞳孔的位置。同时对上眼皮曲线进行了轮廓跟踪。最后对图像数据进行标准化处理,使系统的通用性和实用性更强。

2.2.1 用投影法确定瞳孔的位置在眼睛位置处以眉眼距为参数开设局部小窗口。首先对此窗口内的数据 {f(x,y)} 进行自动阈值二值化,平滑消噪处理,然后对这些二值化数据均值作X 方向投影图。设小窗口内的二值化图像数据为f(x, y),其中x,y∈S,S为m×n的窗口。则沿X方向的平均象素数为:

经计算后的典型数据结果。从图像X方向的中点分别向左右搜索P(x)最小值点,它所对应的X 坐标即为左右瞳孔在水平方向的位置。

2.2.2 用模板匹配法确定瞳孔的位置图在眼部区域的小窗口内,利用9×9的模板搜索瞳孔的位置,以左眼为例,模板的表达式如下:

求出最小值的模板数值所对应的X,Y坐标,即为左眼瞳孔的位置。LeftPupil(x,y)=min(D(i.j)) 其中(i.j)∈S,S为左眼搜索区域。Left-Pupil(x,y)所对应的(x,y)即为左眼瞳孔的位置。同样可以求出右眼瞳孔的位置。经过对300张人脸图像的实验验证,这种方法定位瞳孔的准确率为95%,比投影法准确率高。但是投影法定位的运算量小,运行速度快。对于内眦点的确定,同样在眼部区域的小窗口内对二值化数据进行处理。以左眼为例,搜索左眼区域的最左边的黑点。同时保证这点必须是边界点,且以此为起始点搜索出的边界,其像素的个数不可能太少。依次搜索下去直至被搜索的范围内外边界点。最后将边界线进行优化。检测结果。可以看出这样提取出的曲线与眼睛的特征吻合得比较好,有利于

眼睛分类识别。

考虑到待识别的图像中,人脸部分占整个图像的比例不同,即有大头照、标准照之分,以及人脸在图像中位置的差异,使得识别过程数据处理复杂。因此我们在完成上述的定位过程后,对图像数据进行了标准化处理。以瞳距为水平方向的基准,眼睛的位置为垂直方向的基准进行坐标平移。实验验证定位准确率提高了5~10%。本论文从应用的角度,大量分析了人脸图像数据的灰度分布特性,采用投影图和特征描述相匹配的算法准确地定位了人脸各特征的位置,具有快速、可靠的特点。利用投影法和模板匹配两种方法定位了瞳孔的位置,较准确的提取出眼睛的特征。图像数据标准化处理为特征识别提供了可靠的数据。

人脸识别流程

概述 本项目的主要目的是身份证照片与摄像头获取的人脸照片进行比对,确定身份证和目标对象是不是同一个人。 本文项目主要分三个方面,首先是人脸的检测定位;其次是对照片中定位好的人脸进行预处理,处理到适合提取特征值的水平;最后提取特征值比对识别是不是同一个人。系统的大框架如下: 第一步人脸检测定位 确定是否包含人脸,如果包含人脸,则需要确定脸部所在的位置和尺寸。因为获取的都是彩色图像,首先可以进行肤色检测。在检测出肤色像素后,需要根据它们在色度上的相似性和空间上的相关性分割出可能的人脸区域,同时利用区域的几何特征或灰度特征进行是否是人脸的验证,以排除其它色彩类似肤色的物体。这一步流程图如下:

页脚内容 第二步人脸图像预处理 图像处理的目的是为了方便提取人脸的特征值,进而才能比对识别,所以这一步也至关 重要。第一,对于分割出的人脸,由于噪声带来失真和降质,在特征提取之前采用滤波的方式来去除噪声是必须的步骤。第二尺度归一化,其思想是将尺寸各不相同的人脸图像变换为统一的标准尺寸图像以便于人脸特征的提取。第三灰度归一化,人脸识别的研究一般以灰度图像为研究对象,对于彩色的脸像,可对其首先进行灰度化处理。第四灰度均衡化,由于在图像采集中光照的改变容易导致图像呈现不同的明暗程度,因此需要对人脸图像进行灰度均衡化处理。灰度均衡化,其作用是增强人脸图像的整体对比度,并使灰度分布均匀,以消除光照变化的影响。流程图如下: 第三步特征提取对比识别 人脸特征提取与识别是人脸识别研究中最为关键的两个问题。人脸特征提取又称人脸描 述,是在基于人脸检测定位、归一化等图像预处理的基础上进行的人脸各特征提取的过程,为人脸识别分类打下基础。

SIFT 特征提取算法详解

SIFT 特征提取算法总结 主要步骤 1)、尺度空间的生成; 2)、检测尺度空间极值点; 3)、精确定位极值点; 4)、为每个关键点指定方向参数; 5)、关键点描述子的生成。 L(x,y,σ), σ= 1.6 a good tradeoff

D(x,y,σ), σ= 1.6 a good tradeoff

关于尺度空间的理解说明:图中的2是必须的,尺度空间是连续的。在 Lowe 的论文中, 将第0层的初始尺度定为1.6,图片的初始尺度定为0.5. 在检测极值点前对原始图像的高斯平滑以致图像丢失高频信息,所以Lowe 建议在建立尺度空间前首先对原始图像长宽扩展一倍,以保留原始图像信息,增加特征点数量。尺度越大图像越模糊。 next octave 是由first octave 降采样得到(如2) , 尺度空间的所有取值,s为每组层数,一般为3~5 在DOG尺度空间下的极值点 同一组中的相邻尺度(由于k的取值关系,肯定是上下层)之间进行寻找

在极值比较的过程中,每一组图像的首末两层是无法进行极值比较的,为了满足尺度 变化的连续性,我们在每一组图像的顶层继续用高斯模糊生成了 3 幅图像, 高斯金字塔有每组S+3层图像。DOG金字塔每组有S+2层图像.

If ratio > (r+1)2/(r), throw it out (SIFT uses r=10) 表示DOG金字塔中某一尺度的图像x方向求导两次 通过拟和三维二次函数以精确确定关键点的位置和尺度(达到亚像素精度)?

直方图中的峰值就是主方向,其他的达到最大值80%的方向可作为辅助方向 Identify peak and assign orientation and sum of magnitude to key point The user may choose a threshold to exclude key points based on their assigned sum of magnitudes. 利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备 旋转不变性。以关键点为中心的邻域窗口内采样,并用直方图统计邻域像素的梯度 方向。梯度直方图的范围是0~360度,其中每10度一个柱,总共36个柱。随着距中心点越远的领域其对直方图的贡献也响应减小.Lowe论文中还提到要使用高斯函 数对直方图进行平滑,减少突变的影响。

人脸识别主要算法原理

人脸识别主要算法原理 主流的人脸识别技术基本上可以归结为三类,即:基于几何特征的方法、基于模板的方法和基于模型的方法。 1. 基于几何特征的方法是最早、最传统的方法,通常需要和其他算法结合才能有比较好的效果; 2. 基于模板的方法可以分为基于相关匹配的方法、特征脸方法、线性判别分析方法、奇异值分解方法、神经网络方法、动态连接匹配方法等。 3. 基于模型的方法则有基于隐马尔柯夫模型,主动形状模型和主动外观模型的方法等。 1. 基于几何特征的方法 人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸千差万别,因此对这些部件的形状和结构关系的几何描述,可以做为人脸识别的重要特征。几何特征最早是用于人脸侧面轮廓的描述与识别,首先根据侧面轮廓曲线确定若干显著点,并由这些显著点导出一组用于识别的特征度量如距离、角度等。Jia 等由正面灰度图中线附近的积分投影模拟侧 面轮廓图是一种很有新意的方法。 采用几何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征,但Roder对几何特征提取的精确性进行了实验性的研究,结果不容乐观。

可变形模板法可以视为几何特征方法的一种改进,其基本思想是: 设计一个参数可调的器官模型(即可变形模板),定义一个能量函数,通过调整模型参数使能量函数最小化,此时的模型参数即做为该器官的几何特征。 这种方法思想很好,但是存在两个问题,一是能量函数中各种代价的加权系数只能由经验确定,难以推广,二是能量函数优化过程十分耗时,难以实际应用。基于参数的人脸表示可以实现对人脸显著特征的一个高效描述,但它需要大量的前处理和精细的参数选择。同时,采用一般几何特征只描述了部件的基本形状与结构关系,忽略了局部细微特征,造成部分信息的丢失,更适合于做粗分类,而且目前已有的特征点检测技术在精确率上还远不能满足要求,计算量也较大。 2. 局部特征分析方法(Local Face Analysis) 主元子空间的表示是紧凑的,特征维数大大降低,但它是非局部化的,其核函数的支集扩展在整个坐标空间中,同时它是非拓扑的,某个轴投影后临近的点与原图像空间中点的临近性没有任何关系,而局部性和拓扑性对模式分析和分割是理想的特性,似乎这更符合神经信息处理的机制,因此寻找具有这种特性的表达十分重要。基于这种考虑,Atick提出基于局部特征的人脸特征提取与识别方法。这种方法在实际应用取得了很好的效果,它构成了FaceIt人脸识别软件的 基础。 3. 特征脸方法(Eigenface或PCA)

人脸识别介绍

人脸识别技术是生物识别技术的一种,它结合了图像处理、计算机图形学、模式识别、可视化技术、人体生理学、认知科学和心理学等多个研究领域。从二十世纪六十年代末至今,人脸识别算法技术的发展共经历了如下四个阶段: 1. 基于简单背景的人脸识别 这是人脸识别研究的初级阶段。通常利用人脸器官的局部特征来描述人脸。但由于人脸器官没有显著的边缘且易受到表情的影响,因此它仅限于正面人脸(变形较小)的识别。 2. 基于多姿态/表情的人脸识别 这是人脸识别研究的发展阶段。探索能够在一定程度上适应人脸的姿态和表情变化的识别方法,以满足人脸识别技术在实际应用中的客观需求。 3. 动态跟踪人脸识别 这是人脸识别研究的实用化阶段。通过采集视频序列来获得比静态图像更丰富的信息,达到较好的识别效果,同时适应更广阔的应用需求。 4. 三维人脸识别 为了获得更多的特征信息,直接利用二维人脸图像合成三维人脸模型进行识别,即将成为该领域的一个主要研究方向。 人脸识别技术的研究范围主要包括以下几个方面: 1. 人脸检测:在输入的图像中寻找人脸区域。 2. 人脸的规范化:校正人脸在尺度、光照和旋转等方面的变化。 3. 特征提取:从人脸图像中映射提取一组能反映人脸特征的数值表示样本。 4. 特征匹配:将待识别人脸与数据库中的已知人脸比较,得出相关信息。 人脸识别流程 1图像预处理 1.1 图像去噪 一般来说,自然界中的噪声可以看成是一种随机信号。根据图像获取的途径人脸图像获取 人脸检测 定位人脸区域 预处理 特征抽取 人脸特征 对比识别 结果 人脸特征库

不同,噪声的融入也有多种方式: 1. 图像是直接以数字形式获取的,那么图像数据的获取机制会不可避免地 引入噪声信号; 2. 在图像采集过程中,物体和采集装置的相对运动。或采集装置的抖动, 也会引入噪声,使图像变的模糊不清; 3. 在图像数据的电子传输过程中,也不同程度的引入噪声信号。 这些噪声信号的存在,严重的情况会直接导致整幅图像的不清晰,图象中的景物和背景的混乱。对于用于人脸识别的图像。由于噪声的引入,将不可避免地造成识别率的下降。对图像噪声的消除可以通过两个途径:空间域滤波或频率域滤波。消除噪声的方法很多,对于不同的噪声应该采用不同的除噪方法。主要的方法是:线性滤波、中值滤波、维纳滤波以及小波去噪等。 1.2 增强对比度 为了使人脸在图像中更为突出以便于下一步的特征提取,增强图像对比度是很有必要的。增强对比度有很多种方法,常见的有直方图均衡化和“S ”形变换等方法。 “S ”形变换方法将灰度值处于某一范围(人脸特征范围)内的像素灰度分布差距拉开,从而保证了对比度的提高,但此方法降低了其他灰度值的对比度。而直方图均衡化则是将像素的灰度分布尽量展开在所有可能的灰度取值上,这样的方法同样能使得图像的对比度提高。 将彩色图像转化成灰度图像是人脸识别方法中常见的处理过程,虽然转化过程丢失了一部分色彩信息,但是灰度图像拥有更小的存储空间和更快的计算速度。文献[1]给出了一种能够将RGB 色彩转换成灰度级且适于突出人脸区域对比度的转换模型:()5.0144.0587.0299.0,+?+?+?=b g r y x f ;其中f 代表灰度值,r ,g ,b 分别表示Red,Green,Blue 分量的值。 文献[2]通过将人脸彩色图像从RGB 色彩空间转换到RIQ 色彩空间,得到了更适于频谱分析的特征分量。

模式识别特征选择与提取

模式识别特征选择与提取 中国矿业大学计算机科学与技术学院电子信息科学系 班级:信科11-1班,学号:08113545,姓名:褚钰博 联系方法(QQ或手机):390345438,e-mail:390345438@https://www.doczj.com/doc/9f18857536.html, 日期:2014 年06月10日 摘要 实际问题中常常需要维数约简,如人脸识别、图像检索等。而特征选择和特征提取是两种最常用的维数约简方法。特征选择是从某些事物中提取出本质性的功能、应用、优势等,而特征提取是对特征空间进行变换,将原始特征空间映射到低维空间中。 本文是对主成分分析和线性判别分析。 关键词:特征选择,特征提取,主成分分析,线性判别分析 1.引言 模式识别的主要任务是利用从样本中提取的特征,并将样本划分为相应的模式类别,获得好的分类性能。而分类方法与分类器设计,都是在d(变量统一用斜体)维特征空间已经确定的前提下进行的。因此讨论的分类器设计问题是一个选择什么准则、使用什么方法,将已确定的d维特征空间划分成决策域的问题。对分类器设计方法的研究固然重要,但如何确定合适的特征空间是设计模式识别系统另一个十分重要,甚至更为关键的问题。如果所选用的特征空间能使同类物体分布具有紧致性,即各类样本能分布在该特征空间中彼此分割开的区域内,这就为分类器设计成功提供良好的基础。反之,如果不同类别的样本在该特征空间中混杂在一起,再好的设计方法也无法提高分类器的准确性。本文要讨论的问题就是特征空间如何设计的问题。 基于主成分分析的特征选择算法的思想是建立在这样的基础上的:主成分分析方法将原始特征通过线性变换映射到新的低维空间时,获得的主成分是去了新的物理意义,难以理解,并且主成分是所有原始特征的线性组合。所以将主成分分析与特征选择相结合,设计多种相似性度量准则,通过找到与主成分相关的关键特征或者删除冗余、不相关以及没有意义的特征,将主成分又重新映射到原始空间,来理解成主成分的实际意义。 基于线性判别分析的高维特征选择将单个特征的Fisher准则与其他特征选择算法相结合,分层消除不相关特征与冗余特征。不相关特征滤波器按照每个特征的Fisher评价值进行特征排序,来去除噪音和不相关特征。通过对高维数据特征关联性的分析,冗余特征滤波器选用冗余度量方法和基于相关性的快速过滤器算法。分别在不同情境下进行数据分类实验,验证其性能。

基于深度特征点的表计识别二次定位方法与设计方案

图片简介: 本技术介绍了一种基于深度特征点的表计识别二次定位方法,属于图像识别技术领域,具体包括以下步骤:从后台数据库拿出表计的模板图片,并通过ROS从云台得到实际拍摄图片;采用backbone网络提取两张图片的高维特征,并进行下采样,将两张图片进行缩放;将缩放之后的两张图片输入至基于SegNet的特征点提取网络中来压缩backbone网络输出的矩阵深度,并进行上采样,将两张图片进行还原,同时也将缩放之后的两张图片输入至基于SegNet 的特征点描述子提取网络中来固定backbone网络输出的矩阵深度。该种基于深度特征点的表计识别二次定位方法,运用深度学习方法,提取图像的高维特征点,进而增强了二次定位匹配在光照变换、低纹理场景下的稳定性和鲁棒性。 技术要求 1.一种基于深度特征点的表计识别二次定位方法,该方法具体步骤如下: 步骤一:从后台数据库拿出表计的模板图片,并通过ROS从变电站巡检机器人上的云台得到实际拍摄图片; 步骤二:采用backbone网络提取两张图片的高维特征,并进行下采样,将两张图片进行缩放; 步骤三:将缩放之后的两张图片输入至基于SegNet的特征点提取网络中来压缩backbone网络输出的矩阵深度,并进行上采样,将两张图片进行还原,同时也将缩放之后的两张图 片输入至基于SegNet的特征点描述子提取网络中来固定backbone网络输出的矩阵深度,并进行上采样,将两张图片进行还原,以得到两张图片的深度特征点与描述子;

步骤四:根据两张图片中的深度特征点与描述子,对深度特征点进行匹配,并计算图 片坐标系的变换矩阵; 步骤五:变电站巡检机器人上的云台根据计算出的图片坐标系的变换矩阵进行焦距与角度的变换,使得云台图片的坐标系与模板坐标系重合。 2.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤二中,backbone网络为SOTA的基于efficientnet的backbone特征提取网络。 3.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤二中,两张图片的宽和高均被缩放至原始大小的三十二分之一。 4.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤三中,基于SegNet的特征点提取网络中穿插有Residual Block,并运用channel-wise的softmax来压缩backbone网络输出的矩阵深度。 5.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤三中,输入至基于SegNet的特征点提取网络中被还原之后的两张图片得到宽*高*1的图像矩阵,其中为1的像素点为选出的深度特征点。 6.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤三中,在基于SegNet的特征点描述子提取网络中穿插Residual Block,并运用Bi-cubicinterpolation来固定backbone网络输出的矩阵深度。 7.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤三中,输入至基于SegNet的特征点描述子提取网络中被还原之后的两张图片得到宽*高*256的图像矩阵,其中每一个像素中的256位为该像素的描述子。 8.如权利要求1所述的一种基于深度特征点的表计识别二次定位方法,其特征在于:步骤四中,深度特征点的匹配与两张图像坐标系变换矩阵的计算采用SIFT匹配与矩阵计算,并采用Ransac去除离群值。 技术说明书

人脸识别算法都有哪些

主流的人脸识别技术基本上可以归结为三类,即:基于几何特征的方法、基于模板的方法和基于模型的方法。 1. 基于几何特征的方法 人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸千差万别,因此对这些部件的形状和结构关系的几何描述,可以做为人脸识别的重要特征。几何特征最早是用于人脸侧面轮廓的描述与识别,首先根据侧面轮廓曲线确定若干显著点,并由这些显著点导出一组用于识别的特征度量如距离、角度等。Jia 等由正面灰度图中线附近的积分投影模拟侧面轮廓图是一种很有新意的方法。 采用几何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征,但Roder对几何特征提取的精确性进行了实验性的研究,结果不容乐观。 可变形模板法可以视为几何特征方法的一种改进,其基本思想是:设计一个参数可调的器官模型(即可变形模板),定义一个能量函数,通过调整模型参数使能量函数最小化,此时的模型参数即做为该器官的几何特征。 2. 局部特征分析方法(Local Face Analysis) 主元子空间的表示是紧凑的,特征维数大大降低,但它是非局部化的,其核函数的支集扩展在整个坐标空间中,同时它是非拓扑的,某个轴投影后临近的点与原图像空间中点的临

近性没有任何关系,而局部性和拓扑性对模式分析和分割是理想的特性,似乎这更符合神经信息处理的机制,因此寻找具有这种特性的表达十分重要。基于这种考虑,Atick提出基于局部特征的人脸特征提取与识别方法。这种方法在实际应用取得了很好的效果,它构成了FaceIt人脸识别软件的基础。 3. 特征脸方法(Eigenface或PCA) 特征脸方法是90年代初期由Turk和Pentland提出的目前最流行的算法之一,具有简单有效的特点, 也称为基于主成分分析(principal component analysis,简称PCA)的人脸识别方法。 特征子脸技术的基本思想是:从统计的观点,寻找人脸图像分布的基本元素,即人脸图像样本集协方差矩阵的特征向量,以此近似地表征人脸图像。这些特征向量称为特征脸(Eigenface)。 实际上,特征脸反映了隐含在人脸样本集合内部的信息和人脸的结构关系。将眼睛、面颊、下颌的样本集协方差矩阵的特征向量称为特征眼、特征颌和特征唇,统称特征子脸。特征子脸在相应的图像空间中生成子空间,称为子脸空间。计算出测试图像窗口在子脸空间的投影距离,若窗口图像满足阈值比较条件,则判断其为人脸。 基于特征分析的方法,也就是将人脸基准点的相对比率和其它描述人脸脸部特征的形状参数或类别参数等一起构成识别特征向量,这种基于整体脸的识别不仅保留了人脸部件之间的拓扑关系,而且也保留了各部件本身的信息,而基于部件的识别则是通过提取出局部轮廓信息及灰度信息来设计具体识别算法。

特征提取在人脸识别中的应用.pdf

特征提取在人脸识别中的应用 刘磊,2014080008 一、 人脸识别研究现状 人脸识别的研究早已展开,Calton等早在1888年和1910年就分别在Nature杂志上发表过两篇关于利用人脸特征进行身份识别的文章,提出检测人脸特征或是关键点的方法。自动人脸识别的研究论文最早出现在1965年Chan和Bledsoe在Panoramic Research Inc上发表的技术报告中至今已有四十多年的历史。学者们一般将AFR的研究历史按照研究内容、技术方法等划分为以下三个阶段。 第一阶段(1964—1990年)。这一阶段人脸识别刚刚起步,还只是被作为一个一般性的模式识别问题进行研究,所釆用的方法主要是比较人脸的几何结构。总体而言,这一阶段可以看做是人脸识别研究的初级阶段,代表性的成果没有很多,也没有得到实际应用。 第二阶段(1991一1997年)。尽管第二阶段的时间比较短暂,但却是人脸识别研究的发展高峰期,不仅涌现出大量重量级研究成果,而且出现了若干商业化运作的人脸识别系统。这一阶段的人脸识别技术发展非常之快,所提出的算法在较理想图像采集条件下的中小规模正面人脸数据库上可以达到令人满意的性能。 第三阶段(1998—现在)。20世纪90年代以来,对人脸识别方法的研究变得非常热门,吸引了大量的研究人员和基金支持。由于主流的人脸识别技术对于光照、姿态等非理想采集条件,以及用户不配合造成的人脸变化等条件下的鲁棒性比较差。目前非理想成像条件下(尤其是光照和姿态)、对象不配合、大规模人脸数据库上的人脸识别问题逐渐成为研究的热点问题。而非线性建模方法、统计学习理论、基于Boosting的学习技术、基于3D模型的人脸建模与识别方法等逐渐成为备受重视的技术发展趋势。 二、人脸识别系统 人脸识别系统是提取人脸的相关特征信息,并根据这些特征信息进行身份识别的生物识别技术,它利用计算机对人脸静态图像或动态视频流进行分析,提取出对识别有用的信息,从而进行身份认证,它是人类用来进行身份确认最直接、最自然、最友好的生物特征识别方法,而且与其他身份识别方法相比,人脸识别具有采集过程的非侵犯性、釆集的便捷性等优点,特别是使用者不会产生任何心理障碍,通过对人脸表情与姿态进行分析,还能获得其他识别系统难以获得的一些信息。 三、人脸识别的描述分类 1、人脸检测

图像特征提取算法

Histograms of for Human Detection Navneet Dalal and Bill Triggs INRIA Rh?o ne-Alps,655avenue de l’Europe,Montbonnot38334,France {Navneet.Dalal,Bill.Triggs}@inrialpes.fr,http://lear.inrialpes.fr Abstract We study the question of feature sets for ob-ject recognition,adopting linear SVM based human detec-tion as a test case.After reviewing existing edge and gra-dient based descriptors,we show experimentally that grids of Histograms of Oriented Gradient(HOG)descriptors sig-ni?cantly outperform existing feature sets for human detec-tion.We study the in?uence of each stage of the computation on performance,concluding that?ne-scale gradients,?ne orientation binning,relatively coarse spatial binning,and high-quality local contrast normalization in overlapping de-scriptor blocks are all important for good results.The new approach gives near-perfect separation on the original MIT pedestrian database,so we introduce a more challenging dataset containing over1800annotated human images with a large range of pose variations and backgrounds. 1Introduction Detecting humans in images is a challenging task owing to their variable appearance and the wide range of poses that they can adopt.The?rst need is a robust feature set that allows the human form to be discriminated cleanly,even in cluttered backgrounds under dif?cult illumination.We study the issue of feature sets for human detection,showing that lo-cally normalized Histogram of Oriented Gradient(HOG)de-scriptors provide excellent performance relative to other ex-isting feature sets including wavelets[17,22].The proposed descriptors are reminiscent of edge orientation histograms [4,5],SIFT descriptors[12]and shape contexts[1],but they are computed on a dense grid of uniformly spaced cells and they use overlapping local contrast normalizations for im-proved performance.We make a detailed study of the effects of various implementation choices on detector performance, taking“pedestrian detection”(the detection of mostly visible people in more or less upright poses)as a test case.For sim-plicity and speed,we use linear SVM as a baseline classi?er throughout the study.The new detectors give essentially per-fect results on the MIT pedestrian test set[18,17],so we have created a more challenging set containing over1800pedes-trian images with a large range of poses and backgrounds. Ongoing work suggests that our feature set performs equally well for other shape-based object classes. We brie?y discuss previous work on human detection in §2,give an overview of our method§3,describe our data sets in§4and give a detailed description and experimental evaluation of each stage of the process in§5–6.The main conclusions are summarized in§7. 2Previous Work There is an extensive literature on object detection,but here we mention just a few relevant papers on human detec-tion[18,17,22,16,20].See[6]for a survey.Papageorgiou et al[18]describe a pedestrian detector based on a polynomial SVM using recti?ed Haar wavelets as input descriptors,with a parts(subwindow)based variant in[17].Depoortere et al give an optimized version of this[2].Gavrila&Philomen [8]take a more direct approach,extracting edge images and matching them to a set of learned exemplars using chamfer distance.This has been used in a practical real-time pedes-trian detection system[7].Viola et al[22]build an ef?cient moving person detector,using AdaBoost to train a chain of progressively more complex region rejection rules based on Haar-like wavelets and space-time differences.Ronfard et al[19]build an articulated body detector by incorporating SVM based limb classi?ers over1st and2nd order Gaussian ?lters in a dynamic programming framework similar to those of Felzenszwalb&Huttenlocher[3]and Ioffe&Forsyth [9].Mikolajczyk et al[16]use combinations of orientation-position histograms with binary-thresholded gradient magni-tudes to build a parts based method containing detectors for faces,heads,and front and side pro?les of upper and lower body parts.In contrast,our detector uses a simpler archi-tecture with a single detection window,but appears to give signi?cantly higher performance on pedestrian images. 3Overview of the Method This section gives an overview of our feature extraction chain,which is summarized in?g.1.Implementation details are postponed until§6.The method is based on evaluating well-normalized local histograms of image gradient orienta-tions in a dense grid.Similar features have seen increasing use over the past decade[4,5,12,15].The basic idea is that local object appearance and shape can often be characterized rather well by the distribution of local intensity gradients or 1

图像特征提取综述

图像特征提取的定位是计算机视觉和图像处理里的一个概念,表征图像的特性。输入是一张图像(二维的数据矩阵),输出是一个值、一个向量、一个分布、一个函数或者是信号。提取特征的方法千差万别,下面是图像特征的一些特性: 边缘 边缘是两个区域边界的像素集合,本质上是图像像素的子集,能将区域分开。边缘形状是任意的,实践中定义为大的梯度的像素点的集合,同时为了平滑,还需要一些算法进行处理。角 顾名思义,有个突然较大的弧度。早起算法是在边缘检测的基础上,分析边缘的走向,如果突然转向则被认为是角。后来的算法不再需要边缘检测,直接计算图像梯度的高度曲率(合情合理)。但会出现没有角的地方也检测到角的存在。 区域 区域性的结构,很多区域检测用来检测角。区域检测可以看作是图像缩小后的角检测。 脊 长形的物体,例如道路、血管。脊可以看成是代表对称轴的一维曲线,每个脊像素都有脊宽度,从灰梯度图像中提取要比边缘、角和区域都难。 特征提取 检测到特征后提取出来,表示成特征描述或者特征向量。 常用的图像特征:颜色特征、 纹理特征 形状特征 空间关系特征。 1.颜色特征 1.1特点:颜色特征是全局特征,对区域的方向、大小不敏感,但是不能很好捕捉局部特征。 优点:不受旋转和平移变化的影响,如果归一化不受尺度变化的影响。 缺点:不能表达颜色空间分布的信息。 1.2特征提取与匹配方法 (1)颜色直方图 适用于难以自动分割的图像,最常用的颜色空间:RGB和HSV。 匹配方法:直方图相交法(相交即交集)、距离法、中心距法、参考颜色表法、累加颜色直方图法。 对颜色特征的表达方式有许多种,我们采用直方图进行特征描述。常见的直方图有两种:统计直方图,累积直方图。我们将分别实验两种直方图在图像聚类和检索中的性能。 统计直方图 为利用图像的特征描述图像,可借助特征的统计直方图。图像特征的统计直方图实际是一个1-D的离散函数,即: 上式中k代表图像的特征取值,L是特征可取值个数,是图像中具有特征值为k的像素的个数,N是图像像素的总数,一个示例如下图:其中有8个直方条,对应图像中的8种灰度像素在总像素中的比例。

超全的最新的人脸识别特征点定位方法

1.2 人脸特征点定位方法综述 目前为止,国内外学者们已经提出了人脸特征点定位的方法[3],依据定位所需要的基本信息的类型,人脸特征点定位的方法可以大致分为以下六类:(1)灰度信息的方法;(2)先验规则的方法;(3)几何形状的方法;(4)统计模型的方法;(5)小波的方法;(6)3D 方法。 1.2.1 基于灰度信息的方法 几何投影法:几何投影方法是利用人脸特征灰度与其他部分的差异,先统计出不同方向上的灰度值和,根据和的变化找出特定的变化点,然后利用投影灰度值基于统计的方法将不同方向上的变化点位置相结合,找到人脸特征点的位置。投影的方法计算量较低,但当姿态变化较大或者背景较复杂时容易失效。 谷分析:图像中亮度比周围像点暗的区域就称作谷,通过亮度比较的方法,就可以对人脸的各个关键部位如眼睛、眉毛、鼻子、嘴巴等相对较暗的区域进行定位。虽然其受光照影响比较大,但考虑到计算量低的优势也在定位方法中常见。 1.2.1 先验规则的方法 根据人脸特征的一般特点总结出一些经验规则就称作基于先验规则的方法。人脸图像有一些明显的基本特征,比如人脸的长度比例,满足“三庭五眼” ,脸部区域的双眼、鼻子和嘴巴等脸部特征处的亮度一般低于其周边区域;两眼间的对称以及眼睛与鼻子的三角分布规律,都是人脸识别的重要根据。此方法虽然简单,但是远远不能满足复杂的人脸结构的正确定位,于是该方法一般只用于粗定位,精定位还要结合其他的方法来实现。 镶嵌图法:我们可以用一组相同大小的方格去划分图像,每个方格的灰度取格中各像素灰度的均值,根据一定的规则确定哪些可能是人脸的方格区域,将确定的可能存在人脸的方格的变长减半,重新构建镶嵌图,重复第一步的工作,找到眼睛,鼻子,嘴巴等脸部特征所在的位置,然后对这两次得到的脸部区域二值化,利用边缘检测最终精确定位各个特征的位置。

FFT特征提取算法

FFT特征提取算法 来自网络 滚动轴承故障诊断频域特征识别,关键在于转换为频域的实时性是否满足系统实时的工作需要,FFT变换是将时域信号转换为频域的有效方法。FFT具有快速实时,物理关系明确的优点,能以较低的成本得到性能满足要求的系统,所以本课题讨论的故障诊断频域特征识别仍采用FFT变换。 TI公司的DSP有许多适应实时数字信号处理的特点,具有哈佛总线结构、片内缓存技术、流水线结构、特殊的寻址方式、高效的特殊指令以及硬件乘法器、位反转桶形位移器等硬件,因此数据运算速度很快,通常1024点的FFT在毫秒级之内(以所选用的DSP和系统时钟而有别),因此用DSP实现FFT,实时性可以充分满足系统要求。 FFT在DSP处理器实现中采用的是按时间抽取的基2算法。一般情况下,假定FFT程序的输入序列为复数,而在本课题应用背景中待处理序列为实数值,可以采用对称特性有效地计算FFT。在此情况下,可以将原来的N点实数序列压缩为一个N/2点的复数序列。对此压缩复数序列执行N/2点FFT,将得到的N/2点复数输出展开为N点复序列,它与原来N点实数输入信号的FFT相对应。做完FFT变换后,要识别故障特征,还要对变换后的数据序列进行求模,从而判断出故障特征的幅度和频率信息。所以FFT变换的流程如图5.6所示。

C5402的DSPLIB库提供了一套全面优化的用于实数和复数FFT的函数和一个位反转例程(cbrev)。实数FFT函数rfft是一个宏,其如下调用Cfft和cbrev: #definerfft(x,nx,type) { Cfft_##type(x,nx/2); Cbrev(x,x,nx/2); unpack(x,nx); } FFT变换程序不仅要调用DSPL工B中的cfft--SCALE函数,而且还要对变换完后的数据进行位翻转和数据打包,所以分别调用了库中的cbrev和unPack函数,最后还要对输出数据进行求模来判断幅度和频率等参数。

工件定位特征识别与定位方案自动推理算法

第37卷 第2期 2005年2月   哈 尔 滨 工 业 大 学 学 报 JOURNAL OF HARB I N I N STI T UTE OF TECHNOLOGY   Vol 137No 12Feb .,2005 工件定位特征识别与定位方案自动推理算法 陈广锋,刘文剑,金天国 (哈尔滨工业大学机电工程学院,黑龙江哈尔滨150001,E 2mail:chengf@hit .edu .cn ) 摘 要:研究了基于三维模型的工件定位特征识别和定位方案的自动推理算法.给出了基于三维模型的候选定位特征信息的自动提取与分析算法,提出了基于规则推理与模糊评判相结合的工件定位方案推理算法.该算法基于已知信息确定候选定位模式,根据候选定位模式以及加工信息推理定位基准选择范围,并采用模糊评判算法对候选基准进行优化选择.并用实例对该方法的有效性进行了验证.关键词:定位方案;模糊优选;夹具设计;特征识别中图分类号:TH136;TP391172 文献标识码:A 文章编号:0367-6234(2005)02-0238-04 Foca ti n g fea ture recogn iti on and loca ti n g desi gn automa ti on CHEN Guang 2feng,L I U W en 2jian,J I N Tian 2guo (School ofMechanical and Electrical Engineering,Harbin I nstitute of Technol ogy,Harbin 150001,China,E 2mail :chengf@hit .edu .cn ) Abstract:App r oach f or l ocating feature recogniti on and l ocating design aut omati on is studied .3D model based l ocating feature retrieval and analysis algorithm are p resented .A novel part l ocating reas oning model based on rule reas oning and fuzzy judg ment is p r oposed .The reas on model gets the l ocating mode first and then infers the selecti on range of l ocating surface .Op ti m ally selects of l ocating surface app ly by fuzzy judg ment algorith m.A case study is p resented t o verify the p r oposed app r oach . Key words:l ocating mode;fuzzy selecti on;fixture design;feature recogniti on 收稿日期:2003-10-21. 基金项目:博士点基金资助项目(20020213004).作者简介:陈广锋(1976-),男,博士研究生; 刘文剑(1944-),男,博士生导师. 在工件定位方案设计中,多种技术被广泛应 用[1~3].但关于定位方案设计的方法及理论大多数研究集中于某一特定方面,同时在定位基准选取过程中没有考虑优化或者优化策略过于简单.许多学者在特征识别方面作了大量研究工作,但 与夹具设计有关的该领域的研究极其少见[4] . 本文主要解决上述两个问题,候选定位特征面信息的自动提取以及定位方案的自动推理.本文提出了基于Pr o /E 的候选定位特征面信息提取算法.基于提取的特征信息,提出了一个基于RBR 与模糊评判相结合的定位方案推理算法,可自动生成可行的定位方案. 1 工件定位方案推理流程 工件定位方案规划是指依据工件CAD 模型 信息和工件的工艺信息确定采用的定位方式和可行的定位表面.其中一个重要的并且必须考虑的因素是该工序已存在可行的候选定位面情况. 推理流程如图1所示.该推理流程包括4个主要部分:候选定位特征信息提取、定位方式初步推理、定位基准选择范围推理以及定位基准优化选择.该推理流程提取CAD 信息以及CAPP 信息,然后利用基于规则推理确定候选定位方式,根据定位方式确定相应的定位基准选择范围,并采用模糊评判方法进行定位基准优选,最终获得可行的定位方案. 2 工件候选定位特征的识别 虽然理论上各种类型的几何形状都可以用于装夹,但最常用的只有平面、外圆柱面和内孔三种.从几何元素的内部表示来看,平面、外圆柱面和内孔都可以用不同类型的面来表示.一个定位特征需满足以下基本条件:1)非加工表面;2)夹

相关主题
文本预览
相关文档 最新文档