双机器人系统的快速手眼标定方法
- 格式:pdf
- 大小:815.42 KB
- 文档页数:9
⼿眼标定的两种⽅式1.⼿眼标定的两种情形 在⼯业应⽤中,⼿和眼(摄像机)的两种位置关系,第⼀种是将摄像机(眼)固定在机械⼿(⼿)上⾯,跟随⼿移动;第⼆种是摄像机(眼)和机械⼿(⼿)分离,眼的位置相对于⼿是固定的。
第⼀种情况中我们要求的是相机坐标系和机械⼿坐标系的转化关系;第⼆种情况中要求的是相机坐标系和基础坐标系的关系。
2.相机移动时,标定求解过程 ⽤到四个坐标系,分别是基础坐标系,机械⼿坐标系,相机坐标系,以及标定物坐标系,下⾯先给出⽰意图: 坐标系⽰意图其中baseHcal表⽰基础坐标系到标定物坐标系的转化关系,包括旋转矩阵和平移向量;camHtool表⽰相机坐标系到机械⼿坐标系的转化关系;这两个转化关系在机械⼿移动过程中是不变的;camHcal可以由相机标定求出;baseHtool可以由机器⼈系统中得出。
接下来控制机器⼿从位置 1 移动到位置 2:base = baseHtool (1)* tool(1)tool(1) = inv(camHtool)*cam(1)cam(1) = camHcal(1)*obj联合上⾯三个公式:base = baseHtool (1)* inv(camHtool)* camHcal(1)*obj移动到机械⼿臂到位置2后:base = baseHtool (2)* inv(camHtool)* camHcal(2)*obj因为base和obj是固定的所以:baseHtool (1)* inv(camHtool)* camHcal(1)=baseHtool (2)* inv(camHtool)* camHcal(2)其中只有camHtool是未知量3.相机固定时,标定求解过程 坐标系⽰意图对于固定相机的情况,还是控制机械⼿从位置1移动到位置2:obj(1) = inv(camHcal(1)) *camcam = camHbase *basebase = baseHtool(1) * tool(1)合并上⾯三个公式:obj(1) = inv(camHcal(1)) * camHbase* baseHtool(1) *tool(1)移动到位置2后:obj(2) = inv(camHcal(2)) * camHbase* baseHtool(2) *tool(2)因为obj和tool的相对位置是不变的,所以不管怎么移动:inv(camHcal(1)) * camHbase* baseHtool(1)= inv(camHcal(2)) * camHbase* baseHtool(2)其中变量只有camHbase,。
手眼标定操作方法手眼标定是指通过计算机视觉技术,将机器手臂与视觉传感器之间的相对位置和姿态关系进行确定的过程。
手眼标定是机器人视觉导航和操作中的重要环节,对于实现精确的机器人姿态控制和操作准确性至关重要。
下面将详细介绍手眼标定的操作方法。
1. 实验环境准备首先,需要准备一个标定场景。
场景中需要有一个待移动物体(可以是一个标定棋盘格等),一个机器人手臂,以及至少一个视觉传感器。
此外,还需要安装一套机器人视觉导航软件和相应的标定工具。
2. 视觉传感器标定一般来说,先进行视觉传感器的相机标定。
相机标定是确定相机内外参数的过程,主要包括相机镜头的焦距、畸变参数、相机光心等。
可以使用棋盘格标定法或多角度标定法等进行视觉传感器的标定。
3. 机器人手臂标定然后,进行机器人手臂的标定。
手眼标定是将机器人末端执行器与视觉传感器之间的相对位置和姿态关系进行确定的过程。
可以使用机器人自带的标定工具进行标定,或者借助外部标定工具。
标定要求手臂末端执行器对准标定物体,通过运动学逆解算法计算手臂的关节角度和末端执行器的位姿。
4. 标定数据采集在进行手眼标定之前,需要采集一系列机器人手臂末端执行器和视觉传感器之间的位姿数据。
这些数据可以通过机器人手臂的关节角度和末端执行器的位姿进行测量,或者使用外部的测量设备进行数据采集。
采集的数据应该包括机器人手臂末端执行器的姿态和视觉传感器的位姿。
5. 标定方法选择根据实际情况选择合适的手眼标定方法。
常用的手眼标定方法包括点对点法、体素法、直接解法、最小二乘法等。
不同的方法适用于不同的标定场景和数据集。
在选择方法时,应考虑标定精度、计算复杂度和数据适应性等因素。
6. 标定参数计算通过所选择的标定方法,计算机器人手臂和视觉传感器之间的相对位置和姿态关系。
这些参数可以用于机器人导航和操作中的姿态控制和精度校准。
7. 标定结果评估使用标定结果进行相关精度评估。
可以通过将机器人手臂移动到不同位置,与标定棋盘格或其他标定物体进行匹配,检查机器人手臂的姿态控制和操作精度是否达到要求。
双目相机在机器人手眼标定中的应用双目相机在机器人手眼标定中的应用机器人视觉系统是现代机器人技术中的重要组成部分,而双目相机作为一种常见的视觉传感器,其在机器人手眼标定中的应用尤为重要。
机器人手眼标定是指确定机器人手部(机械臂)和眼部(相机)之间的准确关系,使机器人能够根据相机图像进行精确的操作和定位。
以下是双目相机在机器人手眼标定中的应用步骤:第一步:准备标定板首先,需要准备一个标定板,通常使用黑白相间、大小合适的棋盘格标定板。
该标定板上的方格应尽可能保持水平和垂直,以便于后续标定过程的准确性。
第二步:安装相机和机器人手部将双目相机安装在机器人手部的末端,确保相机与机器人工作空间之间没有干涉。
同时,需要固定相机和机器人手部的位置,以保持标定板与相机之间的相对位置稳定。
第三步:采集图像数据通过控制机器人手部的运动,使标定板在相机的视野范围内以不同的姿态和位置进行移动。
在每个姿态和位置下,相机会拍摄到标定板的图像。
需要多次采集不同姿态和位置下的图像数据,以提高标定的准确性和鲁棒性。
第四步:提取特征点对于每张拍摄到的图像,通过图像处理算法提取标定板上的特征点。
常见的特征点提取算法包括角点检测和SIFT算法。
特征点的提取应该具有鲁棒性和准确性,以确保标定的准确性。
第五步:计算相机的内外参数通过特征点的坐标和相机的几何关系,可以计算出相机的内外参数。
内参数包括相机的焦距、主点位置和畸变参数等,外参数包括相机的旋转矩阵和平移矩阵。
这些参数描述了相机的成像特性和相机与机器人手部之间的几何关系。
第六步:计算机器人手部的关节坐标系根据相机的外参数和机器人手部的运动学模型,可以计算出机器人手部在世界坐标系下的位置和姿态。
这样,就建立了机器人手部的关节坐标系与相机坐标系之间的准确关系。
第七步:验证标定结果最后,需要对标定结果进行验证。
可以使用新的标定板图像或其他物体来测试机器人手部的定位精度和准确性。
如果标定结果满足要求,则可以将双目相机用于机器人操作和定位任务。
手眼标定 tsai 方法
手眼标定是机器人视觉领域中的一项关键技术,用于确定机器人的末端执行器和相机之间的相对位置和姿态关系。
Tsai方法是一种常用的手眼标定方法,其主要步骤如下:
1. 准备标定板:选择一个合适的标定板,并将其固定在机器人的末端执行器上。
2. 采集图像:通过相机拍摄标定板的图像,并采集一系列不同姿态和位置下的图像。
3. 提取角点:在采集的图像中提取标定板的角点,并确定它们的二维坐标。
4. 计算三维坐标:根据角点在相机坐标系下的坐标,结合相机的内参矩阵,使用Tsai方法或其改进方法计算出角点在三维空间中的坐标。
5. 求解手眼关系:利用已知的机器人关节参数和末端执行器坐标系相对于机器人基座的姿态,将所有角点的三维坐标转换到机器人基座坐标系下。
然后,通过最小化所有角点在基座坐标系下的位置误差,求解手眼关系的变换矩阵。
6. 验证标定结果:使用验证数据集对标定结果进行验证,并评估其精度和可靠性。
需要注意的是,手眼标定的精度直接影响到机器人在实际应用中的定位精度和作业效果。
因此,在实际应用中,需要选择合适的标定板、相机和标定算法,并严格控制标定过程,以提高手眼标定的精度和可靠性。
机器人手眼标定原理近年来,随着机器人技术的迅猛发展,机器人手眼标定成为了机器人视觉领域中重要的研究方向之一。
机器人手眼标定是指通过对机器人的手和眼进行标定,使其能够准确地感知和操作环境中的物体。
本文将介绍机器人手眼标定的原理及其在机器人领域中的应用。
机器人手眼标定的核心思想是通过对机器人手和眼的相对位置和姿态进行准确测量和计算,从而实现机器人的精确感知和操作。
具体来说,机器人手眼标定包括两个关键步骤:手眼标定和手眼校准。
手眼标定是指确定机器人手和眼之间的相对位置和姿态关系。
在标定过程中,通常需要使用特殊的标定板或标定物体,并通过摄像头或其他传感器获取标定物体在机器人坐标系下的位置和姿态信息。
通过对多组不同位置和姿态下的标定物体进行测量和计算,可以得到机器人手和眼之间的相对关系。
这样,机器人就能够根据眼部感知到的环境信息和手部的位置和姿态信息,进行精确的操作和感知。
手眼校准是指根据手眼标定结果,对机器人进行校准和调整,以保证机器人的感知和操作的准确性。
校准过程中,通常需要对机器人的关节参数和传感器参数进行调整和校准,以消除系统误差和偏差。
通过手眼校准,机器人能够更加准确地感知和操作环境中的物体,提高工作效率和精确度。
机器人手眼标定在机器人领域中有着广泛的应用。
首先,机器人手眼标定可以用于机器人的自主导航和定位。
通过对机器人手和眼的标定,可以实现机器人对周围环境的感知和定位,从而实现自主导航和路径规划。
其次,机器人手眼标定可以用于机器人的精确操作和装配。
通过对机器人手和眼的标定,可以实现机器人对物体的精确抓取和装配,提高生产效率和质量。
此外,机器人手眼标定还可以应用于机器人的视觉检测和识别。
通过对机器人手和眼的标定,可以实现机器人对物体的准确检测和识别,从而实现自动化的视觉检测和识别任务。
机器人手眼标定是机器人视觉领域中重要的研究方向之一。
通过对机器人手和眼的准确测量和计算,可以实现机器人的精确感知和操作。
两种手眼标定方法手眼标定(HandEye Calibration)是机器人学和计算机视觉领域的一个重要问题,它涉及到机器人末端执行器(手)和传感器(眼,通常是相机)之间的相对位置和方向的确定。
手眼标定的目的是要建立起机器人坐标系和相机坐标系之间的转换关系,这样机器人就可以根据相机捕捉到的图像信息来准确地进行定位和操作。
以下是两种常见的手眼标定方法。
1.基于几何法的标定:九点标定法:这是一种常用的手眼标定方法,它要求机器人末端执行器在空间中移动到九个不同的位置,并在每个位置上拍摄一张图像。
然后,通过解算这九个位置对应的图像点和实际空间点之间的对应关系,可以计算出手眼之间的转换矩阵。
这种方法简单直观,但需要精确的机器人运动控制和图像处理技术。
基于圆的标定法:这种方法涉及到使用一个圆形标定板,机器人末端执行器围绕圆周运动,拍摄不同角度的图像。
通过识别圆上的特征点,可以计算出相机和机器人之间的相对位置和方向。
2.基于标定板的标定:棋盘格标定法:这是一种广泛使用的手眼标定方法,它涉及到使用一个带有规则黑白相间的棋盘格标定板。
机器人末端执行器携带相机在不同的角度和位置下拍摄标定板的图像,然后通过识别棋盘格上的角点,计算出相机和机器人之间的转换关系。
圆点标定法:与棋盘格类似,这种方法使用的是一个带有圆点的标定板。
通过识别圆点中心,可以计算出相机和机器人之间的相对位置和方向。
这些方法各有优缺点,选择哪种方法取决于具体的应用场景、精度要求、设备和成本等因素。
在实际操作中,为了提高标定的精度和鲁棒性,通常需要结合多种方法和技术,例如使用优化算法来减少误差,或者使用滤波技术来平滑相机和机器人之间的运动。
双机器人系统的快速手眼标定方法魏振忠;张博;张广军【摘要】For the hand-eye calibration of a dual robot measurement system, a method based on machine vision to calculate the target robot flange pose and center coordinate was presented. By moving the target robot flange to a proper pose to take an image by the camera and extract the ellipse contour of the flange in the image to calculate the flange pose and its circle center data, the coordinate transform H1 between camera coordinate system and flange coordinate system was obtained by using the location of pinhole on the flange. Then,the coordinate transforms between flange coordinate system and robot base coordinatesystems ,namely, H2 and H1 ,are gotten,respectivity, from the robot controllers. Furthermore, the coordinate system transform H3 between two robots were derived from single axis movements of robots, so that a hand-eye expression HCg was obtained to calculate the hand-eye coordinate transform. Finally,by moving the target flange to some coplanar poses to take their images, the calibration accuracy was improved by image fusion. Experimental results indicate that the cal ibration precisions of single image and coplanar poses using image fusion are 0. 345° and 0.187° , re -spectively. It can satisfy the the requirements of dual robot systems for vision guiding measurement.%针对双机器人仿真测量系统的手眼标定问题,提出一种由机器视觉求解法兰盘位姿得出手眼关系的方法.将目标机器人运动到合适的位姿,由视觉机器人拍摄其法兰盘图像,提取图像中法兰盘的椭圆轮廓,解算摄像机坐标系下的法兰盘姿态和圆心坐标,并由销孔位置约束得出摄像机与目标法兰盘坐标系的转换关系H1.然后由控制器读数得出两台机器人各自法兰盘坐标系与基坐标系间的转换关系H2,H4,并由机器人单轴旋转运动得出双机器人基坐标系转换关系H3,由此形成闭环得出机器人手眼关系HCG.将法兰盘运动到共面的多个不同位置分别拍摄图像,通过图像融合来提高标定精度.实验结果表明,单位置标定和多位置图像融合标定的精度分别为0.345°和0.187°,满足双机器人视觉仿真测量系统的精度要求.【期刊名称】《光学精密工程》【年(卷),期】2011(019)008【总页数】8页(P1895-1902)【关键词】机器人;手眼标定;坐标转换;图像融合;圆姿态【作者】魏振忠;张博;张广军【作者单位】北京航空航天大学精密光机电一体化技术教育部重点实验室,北京100191;北京航空航天大学精密光机电一体化技术教育部重点实验室,北京100191;北京航空航天大学精密光机电一体化技术教育部重点实验室,北京100191【正文语种】中文【中图分类】TP391.41在机器人视觉测量中,必须对摄像机与机器人末端执行器之间的相对安装位置进行标定,也就是手眼标定[1-4]。
1004-924X(2011)08-1895-08
双机器人系统的快速手眼标定方法
魏振忠张博张广军
北京航空航天大学精密光机电一体化技术教育部重点实验室,北京100191
摘要:针对双机器人仿真测量系统的手眼标定问题,提出一种由机器视觉求解法兰盘位姿得出手眼关系的方法。
将目标机器人运动到合适的位姿,由视觉机器人拍摄其法兰盘图像,提取图像中法兰盘的椭圆轮廓,解算摄像机坐标系下的法兰盘姿态和圆心坐标,并由销孔位置约束得出摄像机与目标法兰盘坐标系的转换关系H1。
然后由控制器读数得出两台机器人各自法兰盘坐标系与基坐标系间的转换关系H2,H4,并由机器人单轴旋转运动得出双机器人基坐标系转换关系H3,由此形成闭环得出机器人手眼关系HCG。
将法兰盘运动到共面的多个不同位置分别拍摄图像,通过图像融合来提高标定精度。
实验结果表明,单位置标定和多位置图像融合标定的精度分别为0. 345°和0.187°,满足双机器人视觉仿真测量系统的精度要求。
机器人;手眼标定;坐标转换;图像融合;圆姿态
10.3788/OPE. 20111908.1895
TP391.41A
Rapid hand-eye calibration of dual robot system
WEI Zhen-zhongZHANG BoZHANG Guang-jun
2010-12-272011-01-14
国家自然科学基金资助项目(No. 50875014);北京市自然科学基金资助项目(No. 3092014)
1896
1897
1898
1899
1900
@@[1] ROGER Y T, REIMAR K L. A new technique for fully autonomous and efficient 3D robotics hand/eye calibration [J]. IEEE Transactions on Robotics and Automation, 1989, 5(3): 345-357.
@@[2] 毛剑飞.机器人视觉标定及离线编程技术研究 [D].杭州:浙江大学,2004.
MAO J F. Research on computer vision calibration
and off-line programming [D]. Hangzhou: Zhe
jiang University, 2004. (in Chinese)
@@[3]朱振友,徐爱杰,林涛,等.机器人视觉的“手-眼” 关系快速标定算法[J].光学技术,2004,30(2): 150-152.
ZHU ZH Y, XU A J, LIN T, et al.. High-speed
calibration method for the relationship of the
eye2in2hand of robot vision [J]. Optical Tech
nique, 2004,30(2) : 150-152 . (in Chinese) @@[4]王一,刘常杰,任永杰,等.通用机器人视觉检测系 统的全局校准技术[J].光学精密工程,2009,17 (12):3028-3033.
WANG Y, LIU CH J, REN Y J, et al.. Global calibration of visual inspection system based on uni versal robots [J]. Opt. Precision Eng. , 2009, 17 (12) :3028-3033 . (in Chinese)
@@[5] KLAUS H S, GERD H. Optimal hand-eye calibra tion[C]. Proceedings of the 2006 IEEE/RSJ In ternational Conference on Intelligent Robots and Systems, Beijing, P.R. China, 2006: 4647-4653.@@[6] GIAN L M, STEFANO S, FABIO M,et al.. Pla nar catadioptric stereo: single and multi-view geom etry for calibration and localization[C]. 2009 IEEE International Conference on Robotics and Automa tion, Kobe, Japan, 2009:1510-1515.
@@[7] Product manuals. ABB Robot Documentation-IRB1400 M2004 [M]. Robotics, Sweden: ABB Automation Technologies AB, 2005.
@@[8] REZA S R, IVO T, KENNETH C S,et al.. Three dimensional location estimation of circular features for machine vision [J]. IEEE Transactions on Robotics and Automation, 1992,8(5):624-638.
@@[9]魏振忠,赵征,张广军.空间圆姿态识别二义性的 角度约束消除[ J].光学精密工程,2010,18(3): 685-691.
WEI ZH ZH, ZHAO ZH, ZHANG G J. Solution of duality in pose estimation of single circle using Euclidean angular constraint [J]. Opt. Precision Eng. , 2010,18(3) :685-691 . (in Chinese) @@[10] ZHAO ZH, WEI ZH ZH, ZHANG G J. Estima tion of projected circle centers from array circles and its application in camera calibration [C]. 2009 Second Asia-Pacific Conference on Computation al Intelligence and Industrial Applications, Wu han, P.R. China: PACIIA, 2009: 182-185.@@[11]张广军.机器视觉[M].北京:科学出版社,2005ZHANG G J. Machine Vision [M]. Beijing: Sci
ence Press,2005. (in Chinese)
@@[12] 张博,魏振忠,张广军.机器人坐标系与激光跟踪 仪坐标系的快速转换方法[J].仪器仪表学报, 2010,31(9):1986-1990.
ZHANG B, WEI ZH ZH, ZHANG G J. Rapid
coordinate transformation between a robot and a
laser tracker [J]. Chinese Journal of Scientific
Instrument, 2010,31(9):1986-1990. (in Chinese)
魏振忠(1972-),男,山东青岛人,教授,博士生导师,1997年于北京石油化工学院获得学士学位,1999年、2003年于北京航空航天大学分别获得硕士、博士学位,现为精密光机电一体化技术教育部重点实验室副主任,主要研究方向为机器视觉、光电测试等。
E-mail:zhenzhongwei@buaa. edu. cn
张博(1987-),男,山东聊城人,硕士研究生,2008年于北京航空航天大学获得学士学位,主要研究方向为计算机视觉、图像处理等。
E-mail: zaibao@gmail.com张广军(1965-),男,天津人,教授,博士生导师,1986年、1989年、1991年于天津大学分别获得学士、硕士、博士学位,现为北京航空航天大学副校长,精密光机电一体化技术教育部重点实验室主任,主要研究方向为机器视觉、光电精密测量等。
E-mail: gjzhang@buaa. edu. cn
双机器人系统的快速手眼标定方法
作者:魏振忠, 张博, 张广军, WEI Zhen-zhong, ZHANG Bo, ZHANG Guang-jun 作者单位:北京航空航天大学精密光机电一体化技术教育部重点实验室,北京,100191
刊名:
光学精密工程
英文刊名:Optics and Precision Engineering
年,卷(期):2011,19(8)
本文链接:/Periodical_gxjmgc201108026.aspx。