基于双目立体视觉及机械手精确定位系统
- 格式:doc
- 大小:361.00 KB
- 文档页数:5
双目视觉定位原理双目视觉定位原理是一种常见的视觉定位原理,它是通过两个摄像头同时拍摄同一个物体的不同角度,再通过计算机图像处理技术将这些图像进行分析处理,从而确定目标物体的位置、大小、形态等信息。
这种技术被广泛应用于机器人、无人机、自动驾驶汽车等领域,它的基本原理是通过双目视觉模拟人类眼睛的立体视觉效果,以实现对目标物体的快速准确识别和定位。
双目视觉定位原理的基本原理双目视觉定位原理的基本原理是通过两个摄像头同时拍摄同一个物体的不同角度,再通过计算机图像处理技术将这些图像进行分析处理,从而确定目标物体的位置、大小、形态等信息。
双目视觉定位系统主要由两个摄像头、镜头、图像采集卡、图像处理器和计算机组成。
其中,两个摄像头被安装在一定距离的位置上,一般是左右两侧,成为双目视觉系统。
当目标物体出现在两个摄像头的视野中时,它将在两个摄像头的图像中分别呈现出不同的位置和角度。
计算机会对这些图像进行分析处理,通过计算两个图像之间的差异,确定目标物体的位置、大小、形态等信息,从而实现对目标物体的快速准确定位。
双目视觉定位原理的优势双目视觉定位原理相比其他定位原理具有以下优势:1.快速准确:双目视觉定位原理可以在短时间内快速准确地识别和定位目标物体,适用于高速运动物体的定位。
2.适应性强:双目视觉定位原理可以适应不同环境和光照条件下的定位需求,具有较高的灵活性和适应性。
3.精度高:双目视觉定位原理可以实现毫米级别的定位精度,可以满足高精度定位需求。
4.成本低:双目视觉定位原理不需要复杂的设备和技术,成本相对较低,适用于大规模应用。
双目视觉定位原理的应用领域双目视觉定位原理可以广泛应用于机器人、无人机、自动驾驶汽车等领域。
在机器人领域中,双目视觉定位原理可以用于机器人的自主导航、目标跟踪、障碍物避免等方面;在无人机领域中,双目视觉定位原理可以用于无人机的目标搜索、跟踪、拍摄等任务;在自动驾驶汽车领域中,双目视觉定位原理可以用于车辆的自主导航、障碍物检测、停车等方面。
机器人手眼标定技术中双目相机的实现方案机器人手眼标定技术中双目相机的实现方案双目相机是机器人视觉系统中重要的技术之一,能够模拟人类双眼视觉,实现深度感知和环境感知。
它主要通过利用两个摄像头同时拍摄同一场景,通过计算两个摄像头之间的视差,来推断物体的距离和位置信息。
下面将按照步骤来介绍双目相机的实现方案。
第一步:相机选择在开始实施双目相机的项目之前,我们需要选择合适的相机作为基础设备。
首先,需要选择两个相机模组,这两个相机模组应具备高分辨率、高帧率和高灵敏度等特性,以确保获取清晰的图像。
其次,需要选择可以与相机模组无缝配合的硬件平台,例如嵌入式系统或者计算机。
第二步:相机标定相机标定是双目相机的重要环节,它确定了两个摄像头之间的内外参数,以及相机与机器人坐标系之间的变换关系。
为了完成相机标定,需要使用一个标定板,该标定板上印有一系列具有已知几何关系的特征点。
在拍摄标定板时,需要保证两个相机的视野都能够同时看到标定板,并且标定板在不同位置和姿态下都能够被拍摄到。
通过对拍摄到的图像进行处理和计算,可以得到相机的内外参数,并实现相机与机器人坐标系之间的标定。
第三步:图像采集与预处理在双目相机中,两个相机同时获取图像,并将图像传输到计算机或者嵌入式系统进行处理。
在图像采集之前,需要对相机进行初始化和配置,包括设置图像分辨率、帧率和曝光时间等参数,以及进行图像校正和畸变矫正。
在图像预处理中,可以对图像进行去噪、滤波、直方图均衡化等操作,以提高图像质量和辨识度。
第四步:视差计算与深度感知通过对两个相机拍摄到的图像进行匹配,可以得到左右两个相机之间的视差。
视差是指同一物体在两个相机图像中的特征点之间的水平位移量。
通过对视差进行计算和分析,可以推断物体的距离和位置信息。
在视差计算中,常用的算法包括基于区域的匹配算法、基于特征点的匹配算法和基于深度学习的匹配算法等。
第五步:三维重建与环境感知通过对左右两个相机之间的视差信息进行处理和分析,可以得到场景中物体的三维形状和结构。
《基于双目立体视觉定位和识别技术的研究》篇一一、引言随着科技的飞速发展,计算机视觉技术在许多领域中得到了广泛的应用。
其中,双目立体视觉定位和识别技术以其高精度、高效率的特点,在机器人导航、工业检测、无人驾驶等领域展现出巨大的应用潜力。
本文将围绕双目立体视觉定位和识别技术进行深入的研究和探讨。
二、双目立体视觉技术概述双目立体视觉技术是一种模拟人类双眼视觉的计算机视觉技术。
通过模拟人眼的视差感知原理,双目立体视觉技术利用两个相机从不同角度获取场景的图像信息,然后通过图像处理和算法分析,得到场景中物体的三维信息。
双目立体视觉技术主要包括相机标定、图像获取、图像预处理、特征提取、立体匹配、三维重建等步骤。
三、双目立体视觉定位技术双目立体视觉定位技术是双目立体视觉技术的核心部分,它通过计算左右相机获取的图像间的视差信息,实现场景中物体的三维定位。
具体而言,双目立体视觉定位技术首先需要对相机进行精确的标定,以获取相机的内外参数。
然后通过图像预处理和特征提取,获取场景中的特征点或特征线。
接着,利用立体匹配算法,将左右相机获取的图像进行匹配,得到视差图。
最后,根据视差信息和相机的内外参数,计算得到场景中物体的三维坐标信息。
四、双目立体视觉识别技术双目立体视觉识别技术是在定位技术的基础上,进一步对场景中的物体进行分类和识别。
通过分析物体的形状、大小、纹理等特征信息,结合机器学习、深度学习等算法,实现对物体的识别和分类。
双目立体视觉识别技术可以广泛应用于无人驾驶、机器人导航、工业检测等领域。
五、双目立体视觉技术的应用双目立体视觉技术在许多领域都得到了广泛的应用。
在无人驾驶领域,双目立体视觉技术可以实现车辆的定位和障碍物识别,提高车辆的行驶安全性和自动驾驶的准确性。
在机器人导航领域,双目立体视觉技术可以帮助机器人实现精准的路径规划和导航。
在工业检测领域,双目立体视觉技术可以实现对产品的快速检测和质量控制。
六、研究展望随着计算机视觉技术的不断发展,双目立体视觉定位和识别技术将会有更广泛的应用前景。
双目立体视觉在工业中有很多应用例子,以下是一些常见的应用场景:
1.零件识别与定位:双目立体视觉可以通过对物体进行三维测量和重构,实现零件的精确识别和定位。
在生产线中,机器人可以使用双目立体视觉
系统来识别零件的位置和姿态,从而精确地拾取和操作零件。
2.质量检测:双目立体视觉可以用于检测产品的外观质量和尺寸精度。
通过获取产品的三维模型,可以对产品进行全方位的检测和分析,如检测产
品表面的缺陷、尺寸偏差、对称性等。
3.机器人导航:双目立体视觉可以用于机器人的自主导航和定位。
通过获取环境的三维信息,机器人可以精确地识别障碍物和路径,并进行避障和
路径规划。
4.增强现实:双目立体视觉可以与增强现实技术结合,将虚拟物体与现实场景进行融合。
通过获取现实场景的三维信息,可以将虚拟物体精确地放
置在场景中,从而实现更加逼真的增强效果。
5.自动化装配:在制造业中,装配过程需要很高的精度和准确性。
双目立体视觉可以通过对零件进行精确的定位和操作,实现自动化装配。
机器人
可以使用双目立体视觉系统来识别零件的位置和姿态,从而精确地装配零件。
总之,双目立体视觉在工业中具有广泛的应用前景,可以提高生产效率、降低成本、提高产品质量等。
随着技术的不断发展,双目立体视觉将会在更多的领域得到应用。
基于双目视觉机器人自定位与动态目标定位卢洪军【摘要】Aiming at the fact that, the mobile robot based on binocular vision is very easy to be disturbed by the complex environment, such as the influence of noise, illumination change and the occlusion of the robot, which will seriously affect the positioning accuracy of the self localization and the moving objects, the color feature of the HSV model is proposed to accurately segment the artificial landmarks, and the robot position is determined according to the principle of parallax.A method was proposed based on Harris operator which is accurate to the position of a moving object in a complex environment.The dynamic object is detected by the frame difference method.Harris operator was used to extract the feature points on the moving objects, so as to obtain the disparity value, and then to calculate the position of the moving objects.The experimental results show that the self localization and target localization can overcome the external disturbance and have strong adaptability by using this method.The algorithm has good real-time performance.%针对基于双目视觉自定位与动态目标定位极易受复杂环境(如噪声、机器人发生遮挡、光照变化等)的干扰导致移动机器人定位精度低的问题,提出基于HSV颜色模型特征准确分割出人工路标,根据视差原理确定机器人位置.同时提出一种双目机器人基于Harris算子实现在复杂环境下对动态目标精确定位的方法,利用帧间差分法将运动目标检测出来,采用Harris算子在该运动目标上提取特征点,并获得视差值,从而精确的计算出运动目标的位置.实验结果表明,利用该方法进行自定位与目标定位能够克服外界干扰,具有较强的适应性,且算法的实时性好.【期刊名称】《沈阳大学学报》【年(卷),期】2017(029)001【总页数】6页(P37-42)【关键词】双目视觉;目标定位;Harris算子;帧间差分法;HSV模型【作者】卢洪军【作者单位】沈阳工业大学信息科学与工程学院, 辽宁沈阳 110870【正文语种】中文【中图分类】TP391.420世纪末,对目标定位技术主要有基于红外线的定位技术、基于超声波的定位技术和基于频射识别技术等[1].近年来,由于图像处理和计算机视觉的飞速发展,机器视觉的研究越来越受到广大专家和学者的青睐[2].双目立体视觉是机器视觉的一个重要分支,能够直接模仿人类双眼处理外界环境[3],可以代替人类完成危险的工作(如深海探测、火灾救援、核泄漏监测等)[4].而基于双目立体视觉对动态目标检测与定位也是机器视觉领域备受关注的前沿课题之一[5].双目立体视觉定位主要分为六个步骤[6]:①图像获取;②图像预处理;③摄像机标定;④特征点提取;⑤特征点的立体匹配获取视差值;⑥基于视差原理实现机器人定位.特征点提取和立体匹配是实现机器人定位的关键环节.通常的方法是依靠目标的形状、颜色等特征检测目标,并以运动物体的形心或中心作为特征点[7].该方法虽然计算简单,但极易受噪声干扰,只选择一个点作为特征点,一旦该特征点发生遮挡或光照变化等,都会严重影响定位精度.1977年,Moravec提出根据图像的灰度变化来提取图像角点,称为Moravec角点[8].该方法计算相对简单,但对于处于边缘上的点会存在误检,也极易受光照变化的影响.SIFT特征点[9]和CenSurE特征点[10]虽然对尺度、亮度变化不敏感,但在弱纹理等复杂情况下难以提取稳定的特征点,算法复杂度高,计算时间较长.不满足移动机器人对实时性的要求.针对以上缺陷,本文首先利用帧间差分法检测出运动目标,然后在运动目标上基于Harris算法提取多个特征点来实现移动机器人在复杂环境下实时的对运动目标精确定位.机器人整体定位流程如图1所示,移动机器人首先基于HSV颜色模型空间分割出人工路标,实现机器人自定位.然后利用帧间差分法检测出运动目标,根据Harris算法在左右两幅图像上提取特征点,根据区域匹配原理获取视差值,利用视差原理即可求出运动目标的世界坐标,即完成了对运动目标的定位.1.1 人工路标检测(1) HSV颜色模型.RGB色彩空间分别以红色、绿色、蓝色为三原色,通过适当的搭配可以合成成千上万种颜色,是一种常见的颜色表示法.但是RGB色彩空间与人眼的感知差异大,其空间的相似不代表实际颜色的相似.为了能够更准确分割出人工路标,本文采用HSV色彩空间颜色模型,如图2所示.RGB颜色空间转化到HSV色彩空间只是一个简单的非线性变换,计算简单.HSV模型中H代表色调,S代表饱和度,并且独立于亮度信息V.色调H代表颜色信息,取值范围为0~180°,对其设定阈值可以区分不同颜色的路标;饱和度S表示颜色中掺杂白色的程度,取值范围为0~1,S 越大,颜色越深;亮度V表示颜色的明暗程度,取值范围为0~1,V越大,物体亮度越高.(2) 基于颜色特征提取人工路标.由于本文是在室内环境下对移动机器人定位,所以本文设计的人工路标是由红黄蓝三种颜色组成的矩形纸板.如图3a所示为左摄像机拍摄到的带有人工路标的室内环境.根据HSV颜色模型对H、S、V三个分量进行阈值设置即可分割出人工路标,如图3b所示.然后利用图像处理中的形态学操作对分割出的路标进行完善使其效果最佳,如图3c所示.图3d为获取人工路标的中心点,利用视差原理即可得到当前帧机器人的位置.1.2 帧间差分法帧间差分法[11]的思想是对一段连续视频的相邻两帧进行差分运算,从差分运算的结果中得到运动目标的轮廓.该算法的优点是实现简单,对光照变化不敏感,稳定性好.适用于多目标或背景变化较快的场合.图4为在室内环境下用帧间差分法检测到运动物体.结果显示,帧间差分法能够有效的将运动目标检测出来.2.1 双目立体视觉测距原理双目立体视觉的视差原理[12]是利用两台摄像机从两个视点观察同一景物,以获取在不同视角下的感知图像,通过计算空间点在两幅图像中的视差来获取目标物体的三维坐标.2.2 Harris角点检测Harris角点[13]是在Moravec角点的基础进行改进的算法. Harris算子是用高斯函数代替二值窗口函数, 对离中心点越远的像素赋予越小的权重, 以减少噪声的影响. 高斯函数如式(1)所示.Moravec算子只考虑了四个方向的像素值,Harris算子则用Taylor展开式去近似任意方向.图像I(x,y)平移(Δx,Δy)可以一阶近似为在图像I(u,v)中,像点(u,v)平移(Δx,Δy)后的自相关函数为将式(2)代入式(3)可得:其中M如下所示:根据式(5)中矩阵M的特征值可以近似的表示函数C(x,y)的变化特征.矩阵M的特征值需要考虑以下三种情况,如图5所示.(1) 如果矩阵M的两个特征值都比较小,则表征图像灰度变化函数C(x,y)的值也较小,就说明该像素点的邻域内灰度差值不大,图像较平滑,无角点.(2) 如果矩阵M的两个特征值一个较大,一个较小,说明该像素点的曲率也是如此,则该点的窗口区域处于一条边界,无角点.(3) 如果矩阵M的两个特征值都比较大,则图像灰度变化的自相关函数值也较大,该点的窗函数沿任意方向都将引起灰度的剧烈变化,该点即为角点.根据这一准则,只要计算行列式的特征值就可以检测图像中的哪些点是角点.Harris 提出角点的响应函数:det(M)为行列式的值,trace(M)为行列式的迹.而k根据Harris的建议一般取0.04~0.06之间.若Harris角点响应大于阈值,则被认为是角点.Harris角点的生成只涉及到一阶导数,所以该角点对噪声影响、光照变化引起的灰度值变化都不敏感,是一种比较稳定的特征提取算子.3.1 实验环境本文使用的机器人是由北京博创兴盛技术有限公司开发的自主移动机器人旅行家Ⅱ号,如图6所示.该机器人上安装了由加拿大Point Grey Research公司生产的Bumblebee2双目摄像机,其性能参数如表1所示.3.2 传统移动机器人对运动目标定位实验环境为一间办公室,装有双目摄像机Bumblebee2的移动机器人为工作机器人,用于检测运动目标.将另一台机器人视为运动目标,运动速度为0.1 m/s.传统的方法是提取运动目标的中心点,获取视差值,从而给运动目标定位.传统方法仅获取图像中的一个点作为立体匹配的特征点,当该点受到环境的干扰时定位精度会受到极大的影响,图7为传统方法提取运动目标中心点.表2为传统方法对运动目标定位的实验数据,表3为改变光照后传统方法移动机器人对运动目标定位的实验数据.可以得出传统方法机器人定位误差相对较大,一旦光照发生改变,对运动物体定位误差会更加严重.3.3 基于Harris算子机器人对运动目标定位针对传统方法定位精度不足,极易受外界环境的干扰的问题,决定采用基于Harris角点特征提取,即在相机获得的左右两幅图像上基于Harris算子提取多对特征点,如图8所示.表4、表5为基于Harris方法机器人对运动目标定位的实验数据,可以得出基于该方法对运动目标定位误差很小,相对误差降低到1%左右,当光照发生变化时也能实现对运动目标精确定位.最后将每一帧的两幅图像根据区域匹配原理[14]和极限束准则找到正确的匹配点,排出易受噪声干扰的点,从而得到视差值,即可准确的对运动目标定位.(1) 本文研究了机器人基于双目立体视觉实现自定位与对运动目标定位,充分利用双目视差原理,并结合Harris算法和帧间差分法来实现运动目标的精确定位.从仿真结果可以看出,提取多个特征点可以避免只用一个点易受干扰的不足,实现更精确的运动目标定位.(2) 虽然本文在运动目标上提取多个特征点,有效的克服了传统方法的不足.但还存在问题需要改进.首先,需要找到一种更快更准确的特征点立体匹配算法;其次,本文只是将每一帧图像得到的多个视差值做平均值处理,如何有效的将多个视差值融合也是对运动目标精确定位的关键.【相关文献】[1] 李艳. 双视频目标定位技术[J]. 沈阳大学学报(自然科学版), 2016,28(4):302-305. (LI Y. Dual video target location technology[J]. Journal of Shenyang University(Natural Science), 2016,28(4):302-305.)[2] 李天健. 基于机器人视觉的汽车零配件表面缺陷检测算法研究与实现[J]. 沈阳大学学报(自然科学版), 2013,25(6):476-480. (LI T J. Research and implementation of auto parts surface defect detection algorithm bases on robot visio[J]. Journal of Shenyang University (Natural Science), 2013,25(6):476-480.)[3] 杜宇. 三维重建中双目立体视觉关键技术的研究[D]. 哈尔滨:哈尔滨理工大学, 2014:1-5. (DU Y. Research on key technology of binocular stereo vision in three-dimensional reconstruction[D]. Harbin:Harbin University of Science and Technology, 2004:1-5.)[4] 余俊. 基于双目视觉的机器人目标检测与控制研究[D]. 北京:北京交通大学, 2011:1-4. (YU J. Research on target detection and robot control based on binocular vision[D]. Beijing: Beijing Jiaotong University, 2011:1-4.)[5] DESOUZA G N, KAK A C. Vision for mobile robot navigation: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002,24(2): 237-267.[6] 高栋栋. 基于双目立体视觉定位和识别技术的研究[D]. 秦皇岛:燕山大学, 2013:9-11. (GAO D D. Research on recognizing and locating binocular stereo vision technology[D]. Qinhuangdao:Yanshan University, 2013:9-11)[7] 崔宝侠,栾婷婷,张弛,等. 基于双目视觉的移动机器人运动目标检测与定位[J]. 沈阳工业大学学报, 2016,38(4):421-427. (CUI B X, LUAN T T, ZHANG C, et al. Moving object detection and positioning of robot based on binocular vision[J]. Journal of Shenyang University of Technology, 2016,38(4):421-427.)[8] 邓国栋. 基于多尺度特征的双目立体视觉目标定位[D]. 哈尔滨:哈尔滨工业大学, 2012: 21-22. (DENG G D. Object location of binocular stereo vision base on multi-scale feature[D]. Harbin: Harbin Institute of Technology, 2012:21-22.)[9] LOWE D G. Distinctive image feature from scale-invariant key point[J]. International Journal of Computer Vision, 2004,60(2):91-110.[10] KONOLIGE K, AGRAWAL M, SOLA J. Large-scale visual odometry for roughterrain[C]∥Robotics Research: The 13thInternational Symposium ISRR, 2011,66:201-212.[11] 熊英. 基于背景和帧间差分法的运动目标提取[J]. 计算机时代, 2014(3):38-41. (XIONG Y. Moving object extraction based on background difference and frame differencemethod[J]. Computer Era, 2014(3):38-41.)[12] 林琳. 机器人双目视觉定位技术研究[D]. 西安:西安电子科技大学, 2009:8-10. (LIN L. The research of visual positioning technology on the binocular robot[D]. Xi’an: Xi'an Electronic and Science University, 2009:8-10.)[13] 张从鹏,魏学光. 基于Harris角点的矩形检测[J]. 光学精密工程, 2014,22(8):2259-2266. (ZHANG C P, WEI X G. Rectangle detection base on Harris corner[J]. Optics and Precision Engineering, 2014,22(8):2259-2266.)[14] 罗桂娥. 双目立体视觉深度感知与三维重建若干问题研究[D]. 长沙:中南大学, 2012:48-53. (LUO G E. Some issues of depth perception and three dimension reconstruction from binocular stereo vision[D]. Changsha: Central South University, 2012:48-53.)。
基于机器视觉的机械手臂精确定位控制研究引言近年来,随着机器人技术的不断发展,机器视觉成为了一个热门的研究领域。
机器视觉能够为机器人提供感知和理解环境的能力,使其能够更加精确地执行任务。
机械手臂作为一种常见的工业机器人,其精确定位控制对于实现高质量的任务执行至关重要。
因此,基于机器视觉的机械手臂精确定位控制成为了一个备受关注的研究课题。
一、机器视觉在机械手臂精确定位控制中的应用1. 机器视觉在目标检测中的应用机器视觉可以通过图像处理和分析技术,实现对目标物体的检测和识别。
在机械手臂的精确定位控制中,机器视觉可以帮助机械手臂实时感知和定位需要抓取的目标物体。
通过在图像中提取目标物体的特征,机器视觉可以准确地定位目标物体的位置,并传递给机械手臂进行抓取。
2. 机器视觉在目标跟踪中的应用在机械手臂的任务执行过程中,目标物体可能会发生移动。
机器视觉可以通过实时的目标跟踪技术,实现对目标物体的实时跟踪和位置更新。
通过不断地获取目标物体的位置信息,机器视觉可以帮助机械手臂及时调整自身的位置和姿态,确保对目标物体的精确定位,从而实现稳定和准确的抓取。
3. 机器视觉在三维重建中的应用机器视觉不仅可以实现对目标物体在二维平面上的检测和定位,还可以通过相机的多视图组合,实现对目标物体在三维空间中的重建。
在机械手臂的精确定位控制中,三维重建技术可以帮助机械手臂更加精确地感知目标物体的形状、大小和位姿。
通过获得更全面和准确的目标物体信息,机器人可以更好地执行抓取任务,避免碰撞和误判。
二、精确定位控制算法研究与应用1. 基于特征匹配的精确定位控制算法特征匹配是一种常见的机器视觉算法,它通过提取目标物体的特征点,并在图像中进行匹配,从而实现对目标物体的精确定位。
在机械手臂的精确定位控制中,特征匹配算法可以帮助机械手臂准确地定位目标物体的位置和姿态。
通过将机器视觉的检测结果与机械手臂的控制指令相结合,可以实现对机械手臂的实时控制和调整。
基于双目立体视觉的机械手精确定位系统双目立体视觉导读:摘要:在机械手执行任务的过程中,控制机械手定位到目标位置是一个非常关键的问题。
本文提出了一种基于双目立体视觉的机械手自动定位系统设计方法,由双目立体视觉系统根据目标物的二维图像计算出目标物的三维坐...摘要:在机械手执行任务的过程中,控制机械手定位到目标位置是一个非常关键的问题。
本文提出了一种基于双目立体视觉的机械手自动定位系统设计方法,由双目立体视觉系统根据目标物的二维图像计算出目标物的三维坐标,然后根据此三维坐标去控制机械手自动运动到目标位置。
实验表明该系统能提高排爆机器人机械手的易操作性,大大提高了机械手的性能。
关键词:双目立体视觉, 标定, 运动控制The target positioning system of a manipulator based on binocular stereo visionWang Wei , LuoFei, Jiang Liangzhong, Qi HengnianAbstract: Target Positioning is very important for a manipulator, whic h implies to control the manipulator moving to the position of a ta rget. This paper proposes the design of an automatically target posit ioning system based on binocular stereo vision technical, where the 3 D coordinate of a target is acquired through the binocular stereo vi sion subsystem, then the manipulator will be controlled to perform au tomatically target positioning according to the 3D coordinate acquired. The experiment result showed that this system have extended the abi lity of a manipulator greatly.Key Words: Binocular stereo vision, Camera calibration, Motion control 机器人技术是涉及机械学、传感器技术、驱动技术、控制技术、通信技术和计算机技术的一门综合性高新技术,既是光机电一体化的重要基础,又是光机电一体化技术的典型代表,它是多学科科技革命的必然结果。
近年来,随着机器人研究的不断发展,机器人技术开始源源不断地向人类活动的各个领域渗透,结合这些领域的应用特点,各种各样的具有不同功能的机器人被研制出来,并且在不同的应用领域都得到了广泛的应用。
例如,美国 Wolstenholme 机器公司生产的MR5和MR7排爆机器人,能用于户内及户外环境、适应各种地形活动,完成排爆功能,已被美国军方广泛使用。
排爆机器人是特种机器人的一种,主要用于在事发现场排除处理爆炸物及其他危险物品。
排爆机器人的多功能机械手,作为排爆机器人的完成抓取任务的主要执行器,应能完成包括抓取爆炸物在内的一系列任务,对于排爆机器人来讲尤为重要。
排爆是一个充满变化而复杂的过程,在排爆机器人执行任务的过程中,最关键的一步就是控制机器人的多功能机械手去抓取目标物,即控制机械手精确的定位到目标物位置,完成抓取动作。
目前世界上已投入使用的排爆机器人,在工作方式上,都需要一个经验丰富的操作员,对机械手进行远程手动控制,达到机械手精确定位的目的。
这种工作方式,一方面对操作员的要求非常高,另一方面,手动控制也很难达到很高的精度。
因此,若能通过计算机视觉技术实现机械手的自动精确定位,而不需要去手动控制机械手的各个关节,将会在很大程度上提高排爆机器人的性能。
本文详细描述了基于双目立体视觉的排爆机器人的多功能机械手自动定位系统的设计。
该系统首先由双目立体视觉技术计算出目标物在视觉坐标系中的三维坐标,并将该坐标转换到机器人坐标系,然后根据该坐标控制机械手实现自动定位。
本文对该机器人的系统结构和双目立体视觉子系统进行了详细的描述。
最后进行了实际的抓取实验,取得了良好的实验效果。
1、系统结构该排爆机器人的主要功能部件为一辆能被远程操控的运动小车和一个多关节多功能机械手。
该机器人的装配示意图见图1所示。
图1 系统装配示意图图2 系统装配示意图在排爆机器人执行任务的过程中,该小车将会被遥控到危险物所在的环境中,使危险目标物处于机械手的工作空间中,机械手便可以开始工作,完成抓取目标的任务。
该机械手的设计仿照人类手臂的构造,总共有六个自由度,包括腰旋转关节,肩转动关节,肘转动关节,腕转动关节,手爪旋转关节与手爪开闭关节。
这种多自由度的设计使得机械手具有较大的灵活度,以适应复杂的工作环境的要求。
两个摄像头被安装在机械手小臂上,用来充当双目立体视觉系统的双目。
为实现机械手目标自动定位的功能,除了在现场工作的该机器人本体之外,还需要一台不在现场的后台计算机进行支持。
两摄像头将摄取的目标物的图像传递到后台计算机,后台计算机上的立体视觉子系统通过该两幅二维图像,计算出目标物在摄像头坐标系中的三维坐标,将其转换为在机器人坐标系中的三维坐标,并将其传给机器人本体上的嵌入式计算机,并由该嵌入式计算机完成手臂的运动控制,控制手臂运动到目标物位置,从而实现自动目标定位的功能。
系统结构如图2所示。
2、双目立体视觉子系统双目立体视觉是指用两台性能相当、位置固定的CCD摄像机,获取同一景物的两幅图像,通过两个摄像头所获取的二维图像,来计算出景物的三维信息。
在原理上比较类似人类的双目视觉。
组建一个完整的双目立体视觉系统一般需要经过摄像机标定,图像匹配,深度计算等步骤。
2.1 摄像机标定在摄像机成像过程中,物体成像在图像上的位置与空间中该物体表面相应点的几何位置有关,这些位置的相互关系,由摄像枪成像几何模型所决定,该几何模型的参数称为摄像机参数。
这些参数必须由试验和计算决定,试验和计算的过程称为摄像枪标定。
一般,摄像机的成像模型可用以下函数关系来描述:其中I left,I right,分别为目标的左,右图像坐标,C left,C right则为目标分别在左摄像机坐标系和右摄像机坐标系中的三维坐标,而函数H left与H right则代表了左摄像机和右摄像机的成像模型。
利用张氏平面法可以方便的对H left与H right进行估计。
在分别对左右摄像头进行标定后,还需对该双目立体视觉系统进行立体标定,目标是得到两摄像头之间的相对位置关系,由旋转矩阵R和平移矩阵T来描述。
若得到多个空间点的C left,C right数据,则可以通过最小二乘法得到旋转矩阵R和平移矩阵T的估计值。
该双目立体视觉系统标定结果如图3所示。
图3 标定结果2.2 深度计算当进行了单摄像头标定和立体标定之后,该双目立体视觉系统的模型被建立起来,两摄像头的二维图像坐标与空间三维坐标之间有以下关系:若得到空间任一点分别在两摄像头成像中的图像坐标I left,I right,则可以通过解上述方程得到该空间点在左摄像机坐标系中的三维坐标C left,同理,也可得到其在右摄像机坐标系中的三维坐标C right。
同一点的两图像坐标则由图像匹配过程获得。
3、嵌入式控制子系统位于机器人本体上的嵌入式计算机用于对机械手进行控制。
包括手臂的整体运动规划与各关节直流电机的位置控制。
当嵌入式计算机收到后台计算机发来的目标物的三维坐标后,便会根据该三维坐标对手臂各关节的运动进行规划,并实施底层的电机位置控制。
如图4所示。
图4 嵌入式控制子系统该嵌入式控制系统硬件上采用了PC104嵌入式计算机, 软件上采用The Mathworks 公司的xPC内核。
4、实验结果将一目标物置于机械手的工作范围内,利用本系统实施自动抓取实验。
在实验过程中,先手动控制机械手各个关节,使得可以通过两摄像头观察到目标物,然后启动双目立体视觉系统,通过两摄像头所摄得的目标物的图像计算目标物的三维坐标,再将三维坐标传给机器人本体上的嵌入式计算机,由其控制手臂自动定位到目标物位置,实施抓取。
实验数据如右表所示,实验表明,该系统可以获得较高的定位精度。
5 结论目前投入使用的排爆机器人在实际排爆过程中都需要对机械手的各关节实施手动控制,以完成目标定位,进而抓取目标的功能。
这种操作方式一方面对操作员的要求非常搞,另一方面也很难达到较高的定位精度。
基于双目立体视觉技术来实现机械手的自动定位控制,则可以克服传统的手动操作方式的缺点,提高排爆机器人的性能与易操作性。
本文作者创新点:通过双目立体视觉技术来实现机械手的自动定位控制,即利用两摄像头拍摄的目标物的二维图像坐标,计算出目标物的三维坐标,然后根据根据此三维坐标对机械手的个关节实施控制,达到自动定位的目的。
该方式提高了排爆机器人的易操作性和精确程度,提高了排爆机器人的性能,有望在实战中获得应用。
参考文献:[1] 许永锡,等. 基于MatlabRTW的排爆机器人控制系统. 微计算机信息,2006,2-2:218-220.[2] 刘水,赵群飞等. 基于PLC的防暴机器人控制系统设计. 计算机工程于应用2002,31(1),22-24[3] 刘艳玉,李德良,张飞龙,王长龙. ADS7852在双目测距中的应用. 微计算机信息,2006,4-2: 200-202[4] 陈锡爱,黄孝明,徐方. 基于眼固定安装方式的机器人定位系统. 微计算机信息2006,3-2: 182-184[5] 刘江华, 陈佳品, 程君实. 双目视觉平台的研究[J]. 机器人技术与应用, 2002,(01)。