机器人视觉导航的几种特征点方法比较
- 格式:pdf
- 大小:232.92 KB
- 文档页数:4
AGV移动机器人的五种定位技术介绍AGV(Automated Guided Vehicle)移动机器人是一种自动导引车辆,能够在工业和物流领域进行物品运输和搬运任务。
为了准确定位AGV移动机器人的位置,可以采用多种定位技术。
下面将介绍五种常见的AGV定位技术。
1.激光定位技术:激光定位技术是一种通过激光扫描仪实现的定位方法。
它通过扫描周围环境并计算与物体的距离和角度来确定机器人的位置。
这种定位技术具有高精度和高可靠性的特点,适用于需要精确定位的场景,如仓库等。
2.视觉定位技术:视觉定位技术是一种使用摄像头和图像处理算法来确定机器人位置的方法。
它通过识别和匹配环境中的特征点或标志物来进行定位。
视觉定位技术具有较高的灵活性和适应性,可以适应不同环境和场景的变化。
3.超声波定位技术:超声波定位技术是一种使用超声波传感器来测量距离和方向的方法。
机器人通过发送超声波信号,并根据接收到的反射信号计算与物体的距离和方向,进而确定自身位置。
这种定位技术需要在环境中设置超声波信号源,适用于开放空间和室内场景。
4.地磁定位技术:地磁定位技术是一种通过检测地球磁场强度和方向来进行定位的方法。
机器人搭载磁力计和罗盘传感器,通过测量环境中的地磁场来确定自身位置。
地磁定位技术具有较高的稳定性和精度,适用于室内和地下场景。
5.惯性导航定位技术:惯性导航定位技术是一种使用加速度计和陀螺仪等惯性传感器来确定机器人位置的方法。
它通过测量机器人的加速度和角速度来计算和集成运动路径,并推算出位置。
惯性导航定位技术具有较高的实时性和灵活性,适用于复杂环境和短距离运动。
这些AGV定位技术各有优劣,可以根据不同的应用场景和需求选择合适的技术。
在实际应用中,也可以将多种定位技术进行组合和协同,以提高定位的精度和鲁棒性。
随着技术的不断进步,AGV定位技术将会越来越成熟和普及。
视觉定位训练方法视觉定位训练方法视觉定位是指通过感知和识别环境中的特征和目标物体,及时准确地确定自身在空间中的位置和姿态。
这一技术在人类和动物的日常生活中起着至关重要的作用,如在导航、探索、动作控制等方面发挥着重要的作用。
在近年来的人工智能领域,通过深度学习技术,视觉定位在无人驾驶、机器人导航、增强现实等领域也得到了广泛应用。
在本文中,我将介绍几种常见的视觉定位训练方法,并分享一些对这些方法的观点和理解。
一、特征点提取与匹配方法特征点提取与匹配是一种常见的视觉定位方法。
它通过提取图像中的关键特征点,并将其与地图或参考图像中的特征点进行匹配,从而确定自身的位置。
在特征点提取时,常用的算法有SIFT、SURF、ORB 等。
这些算法通过检测图像中的稳定特征点,并计算其特征描述子,从而实现对特征点的提取。
在匹配过程中,可以通过计算特征描述子之间的相似性,选择最佳的匹配点。
特征点提取与匹配方法在实际应用中具有较高的准确性和鲁棒性,但对于大规模场景或动态环境的定位仍存在一定的挑战。
二、语义定位方法语义定位是指通过识别图像中的语义信息来实现定位的方法。
它将图像中的特征点与地图中的语义信息进行匹配,从而确定自身的位置。
与传统的特征点匹配方法相比,语义定位方法能够提供更为准确和可解释的定位结果。
这一方法在近年来得到了广泛的关注和研究。
它通过深度学习技术,如卷积神经网络(CNN)和循环神经网络(RNN),对图像中的语义信息进行提取和识别,从而实现对图像的定位。
语义定位方法的优势在于,它能够处理图像中的复杂场景,提供更全面、准确的定位结果。
但由于语义信息的提取和识别过程复杂,该方法的计算成本较高。
三、深度学习方法随着深度学习技术的发展,深度学习方法在视觉定位中得到了广泛的应用。
深度学习方法通过构建深层神经网络,对图像中的特征进行学习和提取,从而实现对图像的定位。
其中,卷积神经网络(CNN)是一种常用的深度学习方法,它能够有效提取图像中的特征,如边缘、纹理、颜色等。
机器人视觉导航技术的原理在我们生活的世界里,机器人已逐渐与人类生活融合,成为了人们生活的一部分。
机器人技术中的视觉导航技术是机器人智能控制的重要组成部分。
本文将介绍机器人视觉导航技术的原理,包括视觉传感器、图像处理、对象识别和路径规划等方面。
一、视觉传感器机器人视觉导航技术的第一步是获取环境信息,这需要借助视觉传感器。
视觉传感器是一种与光学相结合的传感器,能够获取光学信号并转换为数字信号,实现对环境的感知。
常见的视觉传感器包括摄像头、激光雷达、红外传感器等。
在机器人导航中,摄像头是最常见的传感器。
摄像头既可以安装在机器人上,也可以通过机器人搭载的机械臂进行控制,获取周围环境的图像信息。
激光雷达是通过激光束扫描,探测周围环境的距离和结构信息。
红外传感器可以用来检测避障等。
二、图像处理图像处理是机器人视觉导航技术的重要环节,它能够将传感器采集到的图像信息转化为数字信号,使机器人能够更好的理解周围环境。
图像处理的步骤包括图像预处理、特征提取、图像分割、目标跟踪等。
预处理是指对采集到的图像进行降噪和处理,以达到更好的图像质量。
特征提取可以提取出图像中的不同特征,如边缘、轮廓等。
图像分割可以将图像划分为不同的部分,以便机器人可对其进行理解。
目标跟踪可以对图像中的目标进行识别和追踪。
三、对象识别对象识别是机器人视觉导航技术的另一个重要环节。
它可以让机器人理解周围环境中不同物体之间的关系,以便机器人能够做出正确的决策。
在对象识别中,常见的算法有模板匹配、背景差分、HOG算法、深度学习算法等。
模板匹配可以将图像中的物体与已知模板进行匹配,识别物体。
背景差分可以将图像中的背景与前景分离,以便机器人更好的处理。
HOG算法可以提取物体的特征点,以便进行识别。
深度学习算法则可以通过训练深度神经网络识别物体。
四、路径规划路径规划是机器人视觉导航技术的最后一个环节。
它可以让机器人根据周围环境的情况,制定出最优的路径,并沿着路径行进。
机器人视觉导航与路径规划引言随着人工智能技术的不断发展,机器人在工业、医疗、军事等领域的应用越来越广泛。
机器人的视觉导航与路径规划是实现自主移动和环境感知的关键技术,它能够使机器人能够在未知环境中感知、理解并规划最优路径以达到目标。
一、机器人视觉导航的原理1.1 机器人的感知系统为了进行视觉导航,机器人需要具备感知环境的能力。
机器人的感知系统通常由摄像头、激光雷达、红外传感器等多种传感器组成,这些传感器能够感知周围环境的物体、障碍物和地标等信息,为机器人提供导航所需的数据。
1.2 机器人的视觉处理机器人通过感知系统获取的传感器数据需要进行处理才能获得实用的信息。
视觉处理是将图像或点云数据转化为机器人可以理解和利用的形式,如边缘检测、目标识别、深度估计等。
这些信息能够帮助机器人建立对环境的认知,并作为导航决策的依据。
1.3 机器人的建图与定位机器人需要通过建立环境地图和了解自身位置与方向来进行导航。
建图是将感知到的环境信息转化为地图,机器人可以通过对地图的分析来更好地了解环境,规划路径。
定位则是机器人确定自身在地图中的位置与方向。
视觉导航中常用的定位方法有里程计定位、视觉里程计和激光SLAM等。
二、机器人路径规划的方法2.1 基于图搜索的路径规划最经典的路径规划方法是基于图搜索的算法,如Dijkstra算法、A*算法和D*算法等。
这些算法通过建立图模型,将环境抽象为图中的节点和边。
机器人在图中搜索可达到目标的最优路径,以最短路径或最优代价为目标。
这种方法适用于静态环境,但在动态环境下效果较差。
2.2 人工势场法人工势场法是一种基于力的路径规划方法,它模拟机器人与目标之间的相互作用力,使机器人能够向目标方向移动,并避开障碍物。
该方法能够在实时环境中进行路径规划,但容易陷入局部最小值,导致路径不够平滑。
2.3 遗传算法遗传算法是一种模拟自然进化的算法,通过基因编码和选择、交叉、变异等操作,不断优化路径解。
基于机器视觉的机器人导航与定位在当今科技飞速发展的时代,机器人技术正逐渐渗透到我们生活的方方面面,从工业生产中的自动化装配,到医疗领域的精准手术操作,再到家庭服务中的智能清洁,机器人的身影无处不在。
而在机器人能够实现高效、准确的工作背后,基于机器视觉的导航与定位技术起着至关重要的作用。
机器视觉,简单来说,就是让机器人能够像人类一样通过“眼睛”来获取周围环境的信息,并对这些信息进行分析和理解。
对于机器人而言,这双“眼睛”通常是由摄像头、传感器等设备组成的,它们能够捕捉到图像、深度、颜色等多种信息。
在机器人的导航过程中,机器视觉首先需要对周围环境进行感知。
这就像是我们人类在陌生的地方行走时,会先观察周围的道路、建筑物、标志物等。
机器人通过摄像头获取环境的图像,然后利用图像处理技术,提取出其中的有用信息,比如障碍物的位置、道路的走向、目标物体的特征等。
为了实现准确的感知,图像的质量和获取的频率至关重要。
高质量的图像能够提供更多的细节,而高频率的获取则能够保证机器人对环境变化的及时响应。
有了环境感知的基础,接下来就是定位。
机器人需要知道自己在环境中的准确位置,才能规划出合理的行动路径。
常见的定位方法包括基于特征点的定位和基于地图的定位。
基于特征点的定位,是通过识别环境中的一些独特的特征点,比如墙角、柱子的拐角等,然后与事先建立的模型进行匹配,从而确定机器人的位置。
基于地图的定位,则是将机器人获取的环境信息与预先构建的地图进行对比,来确定自身位置。
在构建地图方面,机器视觉也发挥着重要作用。
地图可以分为栅格地图、特征地图和拓扑地图等。
栅格地图将环境划分为一个个小的栅格,每个栅格标记为可通行或不可通行,这种地图直观但数据量较大。
特征地图则侧重于提取环境中的关键特征,如直线、曲线等,数据量相对较小但可能会丢失一些细节。
拓扑地图则更注重环境中节点和连接关系的描述,适合于大规模环境的表示。
在实际应用中,机器视觉的机器人导航与定位面临着诸多挑战。
机器人视觉导航中的三维地图建模与重建随着机器人技术的飞速发展,机器人视觉导航正逐渐成为现实。
在机器人进行视觉导航时,三维地图的建模与重建起着至关重要的作用。
本文将探讨机器人视觉导航中的三维地图建模与重建技术,并分析其应用和挑战。
三维地图建模是机器人视觉导航的基础,它通过将相机或激光雷达获取到的二维图像数据转换为三维模型,实现对环境的感知和理解。
常用的三维地图建模方法包括基于特征点的方法、基于深度传感器的方法以及基于结构光的方法。
基于特征点的三维地图建模方法是一种传统的方法,它通过提取图像中的特征点,并通过特征点之间的关系计算出三维空间中的坐标。
这种方法的优点是计算简单,但对于纹理较少或深度信息不够准确的环境会存在一定的局限性。
基于深度传感器的三维地图建模方法是比较常见的方法,它利用激光雷达或RGB-D相机等深度传感器获取环境的深度信息,并结合图像信息生成三维点云。
利用这些点云数据,可以构建出准确的三维地图模型。
这种方法的优点是精度高、实时性好,但设备成本较高。
基于结构光的三维地图建模方法是一种新兴的方法,它通过投影结构光模式到环境中,利用相机捕捉结构光的形变,从而计算出环境的三维形态。
这种方法的优点是设备成本低、适用于大范围的场景建模,但对于环境光线和材质影响较大。
三维地图重建是在已有的三维地图基础上进行的进一步更新和完善。
当机器人在导航过程中遇到未知或发生变化的环境时,需要及时更新现有的三维地图。
常用的三维地图重建方法包括增量式建图和全局优化建图。
增量式建图方法通过不断融合新的观测数据,对现有的地图进行修正和扩展。
这种方法的优点是实时性好,适用于机器人在动态环境中的导航。
但随着时间推移,会出现数据累积和误差累积的问题,需要适时进行地图修正和优化。
全局优化建图方法通过对整个地图进行全局的优化和调整,从而提高地图的精度和一致性。
这种方法的优点是精度高、准确性强,适用于机器人在静态环境中的导航。
但由于计算复杂度高,实时性较差,适用性受限。
视觉slam的分类视觉SLAM是指基于视觉传感器的同时定位与地图构建技术。
它是一种利用相机或摄像头来实现机器人或无人机在未知环境中自主定位和建图的技术。
视觉SLAM技术的应用非常广泛,包括自动驾驶、智能家居、机器人导航等领域。
视觉SLAM可以分为以下几类:1. 基于特征的SLAM基于特征的SLAM是指通过提取图像中的特征点来进行定位和建图的技术。
这种方法通常使用SIFT、SURF、ORB等算法来提取特征点,并使用RANSAC等算法来进行特征匹配和估计相机位姿。
基于特征的SLAM具有较高的精度和鲁棒性,但对于纹理较少的场景或者运动模糊较严重的情况下,可能会出现定位失败的情况。
2. 基于直接法的SLAM基于直接法的SLAM是指直接利用图像像素值来进行定位和建图的技术。
这种方法通常使用光流法或者稠密光流法来进行像素级别的匹配,并使用优化算法来估计相机位姿。
基于直接法的SLAM具有较高的鲁棒性和对纹理较少的场景具有较好的适应性,但需要较高的计算资源和较长的计算时间。
3. 基于半直接法的SLAM基于半直接法的SLAM是指结合了基于特征法和基于直接法的优点,通过利用像素值和特征点来进行定位和建图的技术。
这种方法通常使用SVO、DSO等算法来进行实现。
基于半直接法的SLAM具有较高的鲁棒性和较快的计算速度,但对于纹理较少的场景可能会出现定位失败的情况。
4. 基于深度学习的SLAM基于深度学习的SLAM是指利用深度学习技术来进行定位和建图的技术。
这种方法通常使用深度神经网络来进行图像特征提取和相机位姿估计。
基于深度学习的SLAM具有较高的鲁棒性和对于纹理较少的场景具有较好的适应性,但需要较大的训练数据集和较长的训练时间。
总之,视觉SLAM技术的分类主要是基于不同的特征提取和匹配方法,每种方法都有其优缺点和适用场景。
未来,随着计算机视觉和深度学习技术的不断发展,视觉SLAM技术将会得到更广泛的应用和进一步的优化。
机器人技术中的视觉导航技术机器人技术是近年来迅猛发展的一个领域,已经广泛应用于工业、医疗、军事、服务等多个领域。
而机器人的导航是机器人技术的一个重要组成部分,视觉导航技术又是导航技术的重要一环。
本文将着重探讨机器人技术中的视觉导航技术。
1. 视觉导航技术的基本原理视觉导航技术是指机器人通过摄像头等设备采集环境信息,利用计算机视觉的算法来实现对周围环境的识别、分析和选择最优路径等操作。
视觉导航技术一般分为两个部分:传感器信息获取和算法处理。
2. 视觉传感器的种类常用的视觉传感器包括 CCD/CMOS 相机、双目或三目相机、激光扫描仪、红外传感器等。
其中,CCD/CMOS 相机是应用最广泛的一种,它能够捕捉高分辨率的图像,适用于细节较多的场景。
而双目或三目相机在求解深度信息和参数计算时有着独特优势,可以实现更加精准快速的对环境的感知。
3. 视觉算法的种类视觉导航技术需要根据环境特征进行大量的算法处理。
由于环境变化多样,视觉算法也有多种实现方法。
常用的视觉算法包括:a. 物体识别算法物体识别算法能够识别环境中的不同物体,将它们分别标记出来,便于机器人进行路径规划。
b. 视觉定位算法视觉定位主要是指通过照片的特征,将其与地图上的照片进行匹配,从而实现机器人的定位功能。
c. 视觉里程计算法视觉里程计算法是通过机器人的传感器,对机器人的运动轨迹进行测量和处理,从而实现机器人定位的精确度。
它不仅可以用于导航,还可以用于机器人的运动跟踪和运动检测。
d. 三维重构算法三维重构算法是通过对场景中不同视角的图像进行融合,以超出双目或三目相机的视野范围,从而建立场景的三维模型。
三维重构算法被视为视觉导航技术中最主要的挑战之一。
4. 视觉导航技术在各领域的应用a. 工业领域工业机器人在生产过程中的导航对于提高生产效率、降低成本和改善工作安全等方面有很大的帮助。
视觉导航技术可以帮助工业机器人更精准地完成物品的捡取、分类、装载等操作。
视觉定位系统的精度优化方法分析视觉定位系统是一种通过摄像机感知环境来确定位置和姿态的技术。
它在许多领域得到广泛应用,例如无人驾驶、机器人导航和增强现实等。
视觉定位系统的主要目标是提高定位的精度和稳定性,以便实现准确的位置感知和导航。
在视觉定位系统中,精度优化是关键的挑战之一。
下面将介绍几种常用的视觉定位系统精度优化方法。
1. 特征提取与匹配:特征提取是视觉定位系统的基础。
通过提取场景中的关键特征点(如角点、边缘等),可以更好地描述环境,并在后续的定位过程中进行匹配。
在特征匹配过程中,通常使用描述子(如SIFT、SURF、ORB等)来计算特征点的特征向量,并利用特征向量进行匹配。
为了提高匹配的准确性和鲁棒性,可以使用一些优化方法,如基于关系图的匹配算法、RANSAC算法等。
2. 路标选择与辨识:路标是视觉定位系统中的重要参考,它们可以提供可靠的地标信息用于定位。
在路标选择过程中,可以考虑一些关键因素,如特征的可靠性、视野范围内的路标密度等。
为了辨识路标,可以使用基于几何形状或视觉特征的方法进行识别。
例如,可以使用模板匹配、图像分割和机器学习等方法来识别和辨别路标。
3. 姿态估计与滤波:姿态估计是视觉定位系统中关键的一步,它用于确定相机的旋转和平移矩阵,从而获得准确的位置信息。
姿态估计可以通过解决外点问题来实现,即使用多个匹配点来计算旋转矩阵,并使用RANSAC算法剔除外点。
为了提高估计的稳定性和精度,可以采用滤波算法,如卡尔曼滤波、扩展卡尔曼滤波等。
4. 外部信息融合:除了摄像机的视觉信息外,还可以引入其他传感器的数据来提高定位的精度。
例如,可以利用惯性测量单元(IMU)来提供陀螺仪和加速度计的数据,以补偿姿态估计中的漂移误差。
此外,还可以利用全球定位系统(GPS)来提供位置验证和校正。
通过将多个传感器的数据进行融合,可以有效地提高视觉定位系统的精度和鲁棒性。
5. 校准与精度评估:校准是保证视觉定位系统精度的关键。
机器人视觉导航实现室内定位与路径规划的机器人随着人工智能和机器人技术的不断发展,机器人导航成为现实生活中的热门话题。
机器人视觉导航技术作为其中的重要组成部分,具备了在室内环境下实现定位与路径规划的能力。
本文将介绍机器人视觉导航的原理、方法以及在室内定位与路径规划方面的应用。
一、机器人视觉导航原理机器人视觉导航的基本原理是通过摄像头捕捉环境图像,然后根据图像中的特征信息来实现机器人的定位和路径规划。
在室内环境中,机器人可以通过识别墙壁、家具、标志物等特征来确定自身的位置,并结合环境地图进行路径规划。
二、机器人视觉导航方法1. 特征提取与匹配:机器人需要通过图像处理算法提取环境图像中的特征,并与预先学习的地图特征进行匹配。
常用的特征提取方法包括边缘检测、角点检测、颜色特征等。
2. 定位与建图:机器人在识别到环境特征后,可以通过与地图上的特征进行匹配,确定自身的位置,并建立实时的环境地图。
定位方法主要有基于特征点的定位、激光雷达定位等。
3. 路径规划与控制:机器人在完成定位和建图后,可以根据用户需求或任务要求,通过路径规划算法寻找最优路径,并控制机器人按照规划路径进行移动。
常见的路径规划算法有A*算法、Dijkstra算法等。
三、机器人视觉导航在室内定位与路径规划方面的应用1. 家庭服务机器人:家庭服务机器人可以通过视觉导航技术在室内环境中实现自主定位与路径规划,从而为用户提供多样化的服务,如搬运物品、打扫卫生等。
2. 仓储物流机器人:在仓储物流领域,机器人可以通过视觉导航技术实现仓库内物品的定位与路径规划,提高物流效率,降低人力成本。
3. 病房导航机器人:在医疗领域,机器人可以通过视觉导航技术帮助患者和医护人员在医院内部进行导航,提供定位和路径规划服务,减轻医护人员的负担。
4. 商场导购机器人:商场导购机器人可以通过视觉导航技术识别商场内的摊位和商品信息,向用户提供导购服务,提升购物体验。
结语机器人视觉导航技术在室内定位与路径规划方面具有广阔的应用前景。
第!"卷!增刊!#$%%年!%%月!华中科技大学学报!自然科学版"&’()*+,-./0.12’-3451’6785,’!9*:);*<4518.58=>1:1-."?-<’!"4)@’!!9-2’!#$%%收稿日期!#$%%A $B A #B ’作者简介!许宪东!%"M B A "#男#博士研究生#=A D *1<$V )V 1*.>-./%"M B "%F !’5-D’基金项目!国家自然科学基金资助项目!F %$M B $M M "%黑龙江省教育厅科学技术研究项目!%#B %%H H F "’机器人视觉导航的几种特征点方法比较许宪东%!#!洪炳%!关!毅%!王险峰%!%哈尔滨工业大学计算机科学与技术学院"黑龙江哈尔滨%B $$$%##黑龙江工程学院计算机科学与技术系"黑龙江哈尔滨%B $$B $$摘要!针对移动机器人视觉导航中移动速度较快且计算能力较弱&视觉路标的图像特征检测与匹配时间之间存在矛盾这一问题#提出了选择合适的满足实时性的特征检测方法’对机器人视觉导航中获得图像特征常用的特征点法!如_J 7#40L W #4P W 7#(*;;1E 等"进行了探讨’通过对移动机器人导航中的图片采用不同方法进行测试#比较了不同方法所需的时间#结果表明40L W 是满足实时性的&适合于视觉导航的方法’关键词!移动机器人%检测子%描述子%视觉导航%特征点中图分类号!7N #H #’F !!文献标志码!O !!文章编号!%F M %A H B %#!#$%%"4#A $#$$A $H&82*:.+032-243(/(+.)4(.’?+(:20-’3*(’9273?3(70-*260)(+262’/03?.)-./01.’02-+$+"%)H -)*%##!#-)*.")*5-)*%!K $%)4"%!/%)*+"%)L ()*%!%45,--<-3G -D @):8;4518.58*.>785,.-<-/R #(*;S 1.P .E :1:):8-3785,.-<-/R #(*;S 1.%B $$$%#G ,1.*%#K 8@*;:D 8.:-3G -D @):8;4518.58*.>785,.-<-/R #(81<-./]1*./P .E :1:):8-3785,.-<-/R#(*;S 1.%B $$B $#G ,1.*"&63’+.8’!K )8:-28<-51:R -3D -S 1<8;-S -:1E )E )*<<R 3*E :8;#*.>1:,*E <8E E 5-D @):1./@-T 8;#S ):1:;8A e )1;8E *<*;/8.)D S 8;-35-D @):*:1-.3-;1D */838*:);8E>8:85:1-.*.>D *:5,’P :D *>8*.*.*<R E 1E-3E 8<85:1./:,8*@@;-@;1*:838*:);8>8:85:1-.D 8:,->:-D 88::,8;8*<:1D 8;-S -:.*21/*:1-.’G -D D -.D 8:,->E E )5,*E_J 7#40L W #4P W 7*.>(*;;1ET 8;8>1E 5)E E 8>S -:,1.:,838*:);8>8:85:-;*.>>8A E 5;1@:-;#>1338;8.:D 8:,->ET 8;8*@@<18>:-:8E ::,81D */8*5e )1;8>S R D -S 1<8;-S -:*.>*5-D @*;1E -.-3:,8:1D 8;8e )1;8>3-;:,8>1338;8.:38*:);8E >8:85:-;*.>>8E 5;1@:-;T *ED *>8’=V @8;1D 8.:*<;8E )<:E E ,-T:,*:40L W5*.D 88::,8;8*<:1D 8*.>1E E )1:*S <83-;21E )*<.*21/*:1-.’;(,<2+73!D -S 1<8;-S -:%>8:85:-;%>8E 5;1@:-;%21E )*<.*21/*:1-.%1.:8;8E :@-1.:!!近年来#基于视觉的定位导航受到了普遍关注#已有的视觉定位方法中一类是采用人为设置路标的方法#另一类是选取自然场景特征作为导航定位依据8在单目或双目机器人导航中#常用到的图像特征有特征点&边缘&区域和轮廓等8其中#在机器人视觉导航中最常用的是特征点法#如4P W 7等’一般而言#所提取特征点希望其能对图像间的分辨率&旋转&平移&光照&变化等保持不变#因而对其性能的探讨也多集中在这些方面’当前的评价方法有重复率&查全率&查错率等方法’%A !(’而时间问题探讨较少#因此本研究从常见特征检测方法和特征描述方法#个方面来探讨算法执行时间的代价问题’=!特征检测=H =!B I J D 算法40L W ’H (特征点检测的基本步骤如下$首先使用近似高斯滤波器对输入影像的积分图像进行卷积操作来构建输入影像的尺度空间’然后利用近似(8E E 1*.矩阵的行列式>8:!"*@@";Q 11Q ==A !’Q 1="#DOI :CNKI:42-1658/N.20111111.1400.054 网络出版时间:2011-11-11 14:00网络出版地址:/kcms/detail/42.1658.N.20111111.1400.054.html计算(8E E1*.矩阵的行列式值!得到每个斑点响应值!其中"Q11!Q1=和Q==分别为滤波器与图像卷积后的结果#’是为了补偿在计算(8E E1*.矩阵时采用近似的高斯二次偏导函数而不是实际的高斯卷核而引入的一个参数8之后进行极值点检测和精确定位!即通过非极大抑制!对尺度空间中的每一个像素与相邻上下尺度及本尺度周围的#F 个邻域值进行比较!从而得到局部极大值和极小值点8最后!利用三维二次方程的泰勒展开式进行曲面拟合!实现兴趣点的精确定位!得到了兴趣点的坐标1!=以及尺度(!根据邻域信息确定兴趣点的主方向以及特征向量8=8"!B K D G算子文献$B%总结了基于不变量技术的特征检测方法!提出了4P W7算子!4P W7特征匹配算法包括以下步骤’.8尺度空间极值检测!以初步确定关键点位置和所在尺度8一幅图像在不同尺度下的尺度空间定义为图像W&1!=’与高斯核K&1!=!(’的卷积!即3&1!=!(’c K&1!=!(’5W&1!=’!式中"3为图像的尺度空间#&1!=’为图像的像素坐标#(为尺度坐标8在图像二维平面空间和K-Z尺度空间中同时检测局部极值来作为特征点!从而使特征具备良好的独特性和稳定性’K-Z算子定义为#个不同尺度的高斯核的差分!是归一化J-Z&J*@<*A 51*.A-3A Z*)E E1*.’算子的近似!K-Z算子!Q&1!=!(’;$K&1!=!7(’K&1!=!(’%5W&1!=’;3&1!=!7(’3&1!=!(’!即在图像尺度空间内遍历所有的点!并且判断其与邻域内点的大小关系!若该点的值大于或小于邻域所有点的值!则该点为候选特征点86’通过拟合三维二次函数以确定关键点的位置和尺度!同时剔除低对比度的关键点和不稳定的边缘响应点&因为K-Z算子会产生较强的边缘响应’!以增强匹配稳定性(提高抗噪声能力’=’$!L.++03算子(*;;1E算子是一种基于信号的点特征提取算子$F%!利用(*;;1E角点检测算法提取局部特征的基本原理"如果图像中某一点其向任一方向很小的偏移都会引起灰度的很大变化!那么该点即是角点’(*;;1E算子$M%为@;>8:&#’A7M5#&#’!式中"#&1’cW#$&1’W$N&1’W$N&1’W#N&1$%’!W$&1’!W N&1’和W$N&1’分别为图像点?的灰度在$和N方向的偏导和二阶混合偏导#7为经验值!一般取$8$H% $8$F8当图像中一点的(*;;1E算子@大于设定阈值R时!该点即为角点8(*;;1E能够抗旋转变换!特征检测器对噪声和光照变化具有很强的鲁棒性!但是它对图像间的尺度缩放不具备不变性8 =8#!;@G算法传统的_J7&_*.*>8A J)5*E A7-D*E1’算法是在图像序列相邻#帧间的变化比较小的情况下!由#幅图像对应特征区域之间各像素点的灰度变化来求解二维特征运动参数的一种方法!其本质是利用一阶的泰勒展开对相邻帧特征点区域的灰度变化线性近似8特征点提取的基本思路是通过对基于Q‘Q对称梯度矩阵计算其特征值来达到对图像特征窗口的定位$C9"%!具体过程如下8 .8将基准图像分为互不重叠D‘)个区域/,!再对每个/,划分成为@O个图像窗口/@!O &这些窗口同样也相互不重叠’!之后计算出每个图像窗口/@!O的梯度矩阵$’68提取图像的特征窗口&特征点’8假设计算的梯度矩阵的两个特征值分别为!%和!#!且满足!%2!#!那么!%和!#就是对图像的这个窗口的纹理特征的表示8这里选取在区域/,中的/@!O满足在区域/,中所有图像窗口中的!%最大的/@!O窗口为特征窗口!所选取的特征窗口实际上就是_J7特征点提取算法所提取的特征点8"!特征描述"8=!B I J D描述子基本思路$H%是根据兴趣点邻域范围内的灰度统计信息!通过计算主方向和特征向量来得到描述子!主要分为40L W兴趣点主方向的确定和基于(**;小波响应的描述子生成’40L W兴趣点的特征向量提取是在一个以兴趣点为中心(与主方向平行的方形区域中进行的8具体步骤为"确定一个以兴趣点为中心(大小为#$(的方形区域!旋转该方形区域使之与兴趣点的主方向平行#之后将这个方形区域再均匀细分成H‘H的子区域!进而在每个子区域中统计1和=方向上的(**;小波响应的和以及绝对值之和8在统计过程中!仍用以兴趣点为中心的高斯函数进行赋权处理!这样每个子区域有一个H维的描述子NH c&+H1!+H=!+,H1,!+,H=,’!因此整个区域就有H‘H‘HcF H维的特征向量8 40L W特征描述子对尺度变化不太敏感!其对图像旋转具有不变性’40L W对严重模糊的图像匹)%$#)增刊!!!许宪东!等"机器人视觉导航的几种特征点方法比较!!配效果很好!但其在图像灰度变化及视角变化的情况下!效果不够理想8"8"!B :0-描述子4@1.描述子又称为P .:8.E 1:R A K -D *1.4@1.P D */8"%$#!灰度区域4@1.1D */8是描述特征点周围灰度值分布的二维统计图!统计图的二维分别是距离和灰度值’"’$!B K D G 描述子4P W 7描述子是在KI Z 特征点的邻域内生成的!即其对应的输入为K I Z 特征位置$尺度及其所在的平滑图像3%1!=&!具体生成步骤如下’.’确定特征点的主方向!利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数!使算子具备旋转不变性(6’生成特征描述子!将平面坐标系的坐标轴旋转到特征点的主方向!以确保旋转不变性(以特征点为中心取C‘C 的窗口!将该窗口分成%F 个#‘#的小块!计算小块内各个点的梯度方向!并统计每个小块内C 个方向上的累加值!形成一个种子点!若每个种子点对应C 个方向信息!则一个特征点就对应%F ‘C c %#C 维的向量’4P W 7是一种基于尺度空间的$对图像缩放$旋转甚至仿射变换保持不变性的图像局部特征描述算子’"H #!>2).+K *.1(3!@215>2).+K *.1(3方法这#种方法的原理类似!其基本原理为通过映射一个以兴趣点为中心$最大半径为@的圆形区域为一个二维极坐标矩阵!这个二维极坐标矩阵即为描述子8矩阵表示为%%$!N &!其中$和N分别指特征的距离和角度的不同值’在以上多种描述子中!常用的有40L W 和4P W 7’$!实验结果与分析对于机器人导航所需的特征匹配算法!为了满足实时性!希望特征提取与匹配所花费的时间较少!同时希望获得较大的正确匹配率和最小的错误匹配率!后者在文献"%A !#中已有探讨!这里只采用时间代价来对不同算法进行评价’本研究所采用的测试图为一对室内导航的走廊图片!大小为!#$‘#H $!所采用的测试硬件环境’英特尔G N 0!%’F FZ (+双核’图%为移动机器人所获取的一对走廊图片!实验中用不同特征检测方法对其进行检测’图#为对图%中走廊图片*采用不同特征提取方法时的效果’图!为采用40L W 算法对图%进行匹配时!特征点匹配出错图’实验中在不同检测子方法的情况下!分别对图%%*&进行特征检测%限定抽取图像最大特征数为%B $&!记录其时间代价’同时!利用不同方法对图%中的一对图片进行特征提取!并记录其数目!%*&%S&图%!走廊图片%*&40L W %S &4P W 7%5&(*;;1E图#!不同算法的提取效果图%*&待匹配图%S&匹配图!图!!40L W 算法匹配出错表%所示为图%可获取特征点数%对于(*;;1E 与_J 7采用4P W 7描述子&’结果显示’单就检测时间而言_J 7与(*;A表=!不同算法的特征点数算法特征点数图%%*&图%%S &40L W %B $%B $4P W 7%B $%B $(*;;1E%$#"H _J 7F #B M;1E 算法所用时间都较少!而40L W 算法所用时间居中!用时最长的是4P W 7算法’但是结合表%可以看出’_J 7算法提取特征点较少!而40L W 算法与4P W 7算法提取的特征点较多’(*;;1E 算法)#$#)!!华中科技大学学报%自然科学版&!第!"卷虽然在速度和提取特征点数方面都不错!但由于(*;;1E算法对图像间的尺度缩放不具备不变性!不适合导航使用!因此选择40L W和4P W7算法!这#种算法还具有较好的鲁棒性’综合来看"当视角变化不大#光线变化不明显时!40L W算法是较好的选择!其用时较少且可提取更多的特征点!鲁棒性较好!较满足导航需求’参考文献$%%Z1<O!Q-+-EI Q!Y*<<8E:*Q!8:*<’O5-D@*;*:128 82*<)*:1-.-31.:8;8E:@-1.:>8:85:-;E*.><-5*<>8A E5;1@:-;E3-;21E)*<4J OQ$&%’Q*5,1.8?1E1-.*.> O@@<15*:1-.E!#$%$!#%&F’""$B A"#$’$#%_<1@@8.E:81.&!X,*./(-./’[)*.:1:*:12882*<)*:1-.-338*:);88V:;*5:-;E3-;21E)*<E<*D$G%"N;-588>1./E -3:,8W-);:,G*.*>1*.G-.38;8.58-.G-D@):8;*.> L-S-:?1E1-.’G,15*/-"P94N=G!#$$M"%B M A%F H’$!%45,D1>G!Q-,;L!Y*)5U,*/8G’=2*<)*:1-.-31.A :8;8E:@-1.:>8:85:-;E$&%’P.:8;.*:1-.*<&-);.*<-3 G-D@):8;?1E1-.!#$$$!!M&#’"%B%A%M#’$H%Y*R(!7)R:8<**;E7!2*.Z--<J’4);3"E@88>8>)@ ;-S)E:38*:);8E$&%’J85:);89-:8E1.G-D@):8;451A8.58!#$$F!!"B%"H$H A H$"’$B%J-T8K Z’K1E:1.5:1281D*/838*:);8E3;-DE5*<8A1.A 2*;1*.:U8R@-1.:E$&%’P.:8;.*:1-*<&-);.*<-3G-D@):8;?1E1-.!#$$H!F$&#’""%A%%$’$F%(*;;1EG!4:8@,8.E Q’O5-D S1.8>5-;.8;*.>8>/8 >8:85:-;$G%"N;-588>1./E-3:,8W-);:,O<28R?1E1-.G-.38;8.58’Q*.5,8E:8;"0.128;E1:R-34,83318<> N;1.:1./0.1:!%"C C"%H M A%B%’$M%陈白帆!蔡自兴’基于尺度空间理论的(*;;1E角点检测$&%’中南大学学报"自然科学版!#$$B!!F&B’"M B%A M B H’$C%梁国远’基于三维模型的单目图像序列人脸姿态跟踪踪$K%’北京"北京大学图书馆!#$$B’$"%段鸿!程义民!王以孝!等’基于_*.*>8A J)5*E A7-D*A E1算法的人脸特征点跟踪方法$&%’计算机辅助设计与图形学学报!#$$H!%F&!’"#M"A#C!’$%$%J*+8S.1U4!45,D1>G!N-.58&’OE@*;E8:8V:);8A ;8@;8E8.:*:1-.)E1./*331.8A1.2*;1*.:;8/1-.E$G%"N;-588>1./E-3:,8P===G-.38;8.58-.G-D@):8;?1E1-.*.>N*::8;.L85-/.1:1-.’Q*>1E-."P===!#$$!"66666666666666666666666666666666666666666666666!%"A!#H’!上接第%"B页"进行评估的证据源!更加全面地考虑了路径代价向量中的各个代价因素!从而可以做出选择或者不选择该条路径的决策’此时!代价向量的每个分量都相当于被赋予了一定的权重而进行信息的融合!因此能够更好地考虑到一条路径的所有代价因素而做出综合的判断!找出综合代价最优的路径’参考文献$%%4*S8_!W)U)5,1Q!Z):D*..&4!8:*<’I S E:*5<8 *2-1>*.58*.>@*:,@<*..1./3-;,)D*.-1>;-S-:E)A E1./E:8;8-21E1-.$G%"N;-588>1./E-3P===P.:8;.*A :1-.*<G-.38;8.58-.L-S-:15E*.>O):-D*:1-.’7-A U R-"P===!#$$H"B"#A B"M’$#%I U*>*_!I/);*7!(*.8>*O!8:*<’O):-.-D-)E !K T*<U1./E R E:8D3-;*,)D*.-1>;-S-:S*E8>-.21E)*<E:8@;85-/.1:1-.*.>!K3--:E:8@@<*..8;$G%"N;-588>1./E-3P===P.:8;.*:1-.*<G-.38;8.58-.L-S-:15E*.>O):-D*:1-.’7-U R-"P===!#$$B"F#!A F#C’$!%G,8E:.)::&!J*)Q!G,8)./Z!8:*<’W--:E:8@!@<*..1./3-;:,8(-.>*O4P QI,)D*.-1>$G%"N;-A 588>1./E-3P===P.:8;.*:1-.*<G-.38;8.58-.L-S-:15E*.>O):-D*:1-.’7-U R-"P===!#$$B"F#"A F!H’$H%I+*T*L!7*U*-U*d!_1>*d!8:*<’0E1./21E)*< ->-D8:;R:-5;8*:8!K D*@E3-;-.<1.83--:E:8@@<*.A .1./$&%’4R E:8D E!Q*.*.>G R S8;.8:15E!#$$B"#F H!A#F H C’$B%b1*X d!G,8._!b1-./&!8:*<’O>2*.58E1.;8A E8*;5,-.D-:1-.@<*..1./3-;,)D*.-1>;-S-:E$&%’G,1.8E8(1/,785,.-<-/R J8::8;E!#$$M!%M&%$’"%$"#A%$""’$F%91<E E-.9’N;1.51@<8E-3*;:13151*<1.:8<<1/8.58$Q%’4*.W;*.51E5-"71-/*N)S<1E,1./G-D@*.R!%"C$’$M%W1V E8.K!Q*,<8;L’7,8D->1318>K A4*@@;-*5,:-5<*E E1315*:1-.$&%’P===7;*.E4R E:Q*.G R S8;.!%""M!#M&%’""F A%$H’$C%<*?*<<84Q’N<*..1./*</-;1:,D E$Q%’G,15*/-"0.128;E1:R-3P<<1.-1E!#$$H’$"%K8+8;:&’W-).>*:1-.E3-;*.8T:,8-;R-3@<*)E1S<8 *.>@*;*>-V15*<;8*E-.1./$&%’P.3-;D*:1-.*.>485);A 1:R!#$$#&"’"%%%A%%!’(!$#(增刊!!!许宪东!等"机器人视觉导航的几种特征点方法比较!!。