基于PUMA机器人的视觉伺服控制实验研究
- 格式:pdf
- 大小:201.26 KB
- 文档页数:5
基于计算机视觉的移动机器人手眼伺服技术研究移动机器人是近年来快速发展的一项技术,尤其是在工业自动化和智能制造等领域得到广泛应用。
作为人工智能和机器人技术的交叉领域,计算机视觉在移动机器人手眼伺服系统中的应用越来越广泛。
本文将对基于计算机视觉的移动机器人手眼伺服技术进行深入探讨。
一、背景介绍在工业自动化和智能制造等领域中,移动机器人被广泛应用于物料搬运、焊接、喷涂等作业。
然而,移动机器人在加工、拍摄等需要高精度的作业过程中,其手臂和眼睛需要高度协调,即机器人手眼伺服技术(Robot Eye-Hand Coordination,REHC)。
这需要计算机视觉技术提供高精度和稳定的视觉反馈,以实现机器人的高效操作。
基于计算机视觉的移动机器人手眼伺服技术可以通过数字图像处理、机器视觉、三维重建等手段进行实现。
目前,这一技术主要应用于工业自动化和物流领域,但随着深度学习技术的发展,其应用也将逐步扩展到医疗保健、安防等领域。
二、技术原理基于计算机视觉的移动机器人手眼伺服技术主要分为两个方面:视觉反馈和机器人控制。
视觉反馈包括物体检测、跟踪、定位、匹配和三维重建等过程,而机器人控制则包括了机器人定位、轨迹规划、速度控制等方面。
在视觉反馈方面,物体检测是最基础的环节。
物体检测是指对图像中目标物体的检测和识别。
当前流行的物体检测算法包括基于区域的卷积神经网络(R-CNN)、Fast R-CNN、Faster R-CNN、You Only Look Once (YOLO)等。
这些算法在不同的场景中都有广泛应用,如检测货车中的货物、检测医院内的设备等。
在机器人控制方面,机器人的位置数据与视觉反馈数据相结合,可以实现机器人的精准移动和操作。
其中,机器人的定位需要依赖于激光雷达、相机等传感器提供的数据,而轨迹规划和速度控制则需要依赖于机器人控制系统和路径规划等算法。
三、应用场景基于计算机视觉的移动机器人手眼伺服技术目前在工业自动化领域中得到广泛应用,如物流仓储、智能制造等行业,可以大大提高生产效率和品质,减少人力成本和误工率。
基于图像的视觉伺服系统的分析Image-Based Visual Servoing(IBVS) 摘要:在MATLAB环境下导入机器人工具箱,对puma560机器人进行demo6模板的基于图像的视觉伺服系统的分析。
要是根据物体的三维空间位置,使用摄像机获取物体的二维图像位置,然后根据期望及误差来获取物体当前的三维空间位置,根据物体位置信息,使用MATLAB进行基于图像的视觉伺服闭环系统的仿真。
Abstract: import robot toolbox in MATLAB environment, demo6 template of puma560 robot visual servo system based on image analysis. If according to thethree-dimensional space position of the object, use the camera to obtain two-dimensional image position of the object, and then based on the current expectation and error to obtain the three-dimensional space position, according to the object location information, the use of MATLAB simulation based on image visual servo closed-loop system.一.基于视觉的伺服原理首先是根据物体所在的三维空间位置,用摄像机来获取物体的二维空间位置,最先有两种方法,一是eye-to-hand,二是eye-in-hand,我们这次仿真使用的是eye-in-hand,使用当前图像位置减去期望图像位置来获得这两者之间的误差。
基于图像的机器人视觉伺服控制研究的开题报告一、题目基于图像的机器人视觉伺服控制研究二、背景与意义机器人的成功应用已经改变了许多行业的生产方式,特别是在制造、医疗、军事等领域具有广泛的应用前景。
在许多情况下,机器人需要从图像中获取信息,通过对图像进行处理,机器人能够快速、精确地执行任务。
机器人视觉伺服控制是指利用视觉反馈来实现机器人运动的闭环控制。
基于图像的机器人视觉伺服控制是当前机器人领域的热点问题。
该技术不仅能够提高机器人在复杂环境下的适应性和处理能力,也能够提高机器人的抓取、搬运和装配等操作的精度和效率。
因此,研究基于图像的机器人视觉伺服控制,对于提高机器人的控制精度、智能化水平和功能性具有重要的实际意义。
三、研究内容本研究将系统地研究基于图像的机器人视觉伺服控制技术,探索其实现原理与应用方式,主要包括以下内容:1. 基于图像的机器人视觉伺服控制理论2. 基于特征提取技术的图像处理与分析3. 基于机器学习的图像识别与分类算法4. 基于视觉反馈的机器人运动控制方法5. 基于实验验证的机器人视觉伺服控制技术应用四、研究方法本研究采用实验室实验结合数值模拟的方法进行研究。
首先,搭建基于图像的机器人视觉伺服控制系统,包括机器人、图像采集设备、图像处理和分析软件等;其次,对图像进行特征提取和分类算法的设计和实现;再次,根据图像信息设计基于视觉反馈的机器人运动控制。
五、预期结果本研究预期能够设计出一种基于图像的机器人视觉伺服控制技术,并进行应用实验验证。
具体预期结果包括:1. 实现基于图像的机器人视觉伺服控制系统的设计与实现。
2. 实现基于特征提取和分类算法的图像处理与分析。
3. 实现基于视觉反馈的机器人运动控制方法。
4. 经过实验验证,探究该技术在机器人操作中的性能。
六、研究意义本研究对于机器人在复杂环境下的精确定位、抓取和搬运具有重要的实际意义,同时对于机器人智能化和自主化水平的提高也具有重要的意义。
基于图像特征的机械臂视觉伺服控制研究共3篇基于图像特征的机械臂视觉伺服控制研究1基于图像特征的机械臂视觉伺服控制研究在工业自动化控制领域中,机械臂运动的精度和可靠性是非常重要的,而视觉伺服控制技术则是实现这一目标的关键之一。
本文将探讨基于图像特征的机械臂视觉伺服控制研究,以及其在工业自动化领域中的应用。
一、视觉伺服控制技术简介视觉伺服控制技术是将计算机视觉技术和控制技术结合起来,实现对机器人或机械臂运动的控制。
其主要思路是通过摄像机获取场景图像数据,然后对获取到的图像进行处理和分析,提取出图像的特征信息,最终利用这些特征信息来控制机械臂的运动。
同传统的非视觉伺服控制技术相比,视觉伺服控制技术具有更高的精度和更广泛的应用范围。
其不仅可以在工业自动化领域中应用,还可以应用于医疗、教育等多个领域,具有非常广阔的市场前景。
二、基于图像特征的机械臂视觉伺服控制技术基于图像特征的机械臂视觉伺服控制技术是目前应用较为广泛的一种视觉伺服控制技术。
其具有实现方便、运行稳定等优点,非常适合工业自动化领域中的运动控制。
在基于图像特征的机械臂视觉伺服控制技术中,最为关键的步骤就是图像特征提取。
这一步骤需要利用计算机视觉技术对图像进行处理和分析,提取出图像的特征信息。
具体来说,可以采用模板匹配、角点检测、边缘检测等多种算法来实现。
提取出图像的特征信息后,就可以计算出机械臂的运动轨迹,并对机械臂进行控制。
在这一过程中,需要对机械臂的关节角度进行测量和控制,以实现机械臂的运动。
三、基于图像特征的机械臂视觉伺服控制技术在工业自动化领域中的应用基于图像特征的机械臂视觉伺服控制技术在工业自动化领域中有着广泛的应用,例如在零部件装配、工件抓取等领域中都有着重要的作用。
例如,在零部件装配过程中,传统的装配方式可能需要大量的人工操作,效率低下。
而采用基于图像特征的机械臂视觉伺服控制技术,可以实现零部件自动装配,大大提高生产效率。
机械臂利用图像特征来识别零部件位置,然后自动进行装配。
基于MATLAB的PUMA机器人运动仿真研究
基于MATLAB的PUMA机器人运动仿真研究摘要:机器人运动学是机器人学的一个重要分支,是实现机器人运动控制的基础。
论文以D-H坐标系理论为基础对PUMA560机器人进行了参数设计,利用MATLAB机器人工具箱,对机器人的正运动学、逆运动学、轨迹规划进行了仿真。
Matlab仿真结果说明了所设计的参数的正确性,能够达到预定的目标。
关键词:机器人PUMA560 D-H坐标系运动学轨迹规划
机器人运动学的研究涉及大量的数学运算,计算工作相当繁锁。
因此,采用一些工具软件对其分析可大大提高工作效率,增加研究的灵活性和可操作性。
对机器人进行图形仿真,可以将机器人仿真的结果以图形的形式表示出来,从而直观地显示出机器人的运动情况,得到从数据曲线或数据本身难以分析出来的许多重要信息,还可以从图形上看到机器人在一定控制条件下的运动规律[1]。
论文首先设计了PUMA560机器人的各连杆参数,然后讨论了正、逆运动学算法,轨迹规划问题,最后在MATLAB环境下,运用Robotics Toolbox,编制简单的程序语句,快速完成了机器人得运动学仿真。
设机械手起始位置位于A点,qA=[000000],即表示机器人的各关节都处于零位置处。
机械手在B点和C点相对于基坐标系的位姿可用齐次变换矩阵TB和TC来表示。
图2所示为机械手臂在A点时的三维图形。
基于PUMA560机器人的视觉伺服控制系统的研究的开题报告一、选题背景随着机器人技术的不断发展,机器人在工业生产、医疗、家庭服务等领域得到越来越广泛的应用。
视觉伺服控制系统是一种利用图像信息去控制机器人运动的技术,具有高精度、高灵活性、高可靠性等优点,已经成为机器人控制领域中的热门研究方向之一。
本项目希望基于PUMA560机器人,研究视觉伺服控制系统,通过图像识别、目标跟踪等算法,实现机器人对目标物体的自动捕捉和精准定位,为未来的智能制造提供技术支持。
二、研究内容本项目将研究基于PUMA560机器人的视觉伺服控制系统,主要包括以下内容:1. PUMA560机器人的建模和动力学分析:分析机器人的运动学和动力学特性,建立数学模型,为后续的控制算法提供基础。
2. 机器人视觉伺服控制系统设计:设计包括硬件和软件在内的视觉伺服控制系统,包括图像采集、目标跟踪、运动规划等模块。
3. 视觉伺服控制算法研究:研究基于图像信息的机器人控制算法,包括目标识别、目标跟踪、运动规划等算法的设计和优化。
4. 系统实现和测试:基于实际的硬件平台,实现系统的代码编写、控制算法的实现和优化,并进行实际场景的测试。
三、研究意义本项目的研究可以为机器人的自动化生产提供技术支持,为优化生产效率和提高产品质量做出贡献,具有广阔的应用前景和经济普惠性。
四、研究方法和步骤1. 搜集文献,学习机器人建模和视觉伺服控制基本知识。
2. 对PUMA560机器人进行建模和动力学分析,为后续的算法设计提供基础。
3. 设计视觉伺服控制系统,包括硬件和软件两个方面,其中硬件主要包括相机、电机等设备,软件主要包括图像采集、目标识别、运动规划等算法。
4. 研究视觉伺服控制算法,包括目标识别、目标跟踪、运动规划等算法的设计和优化。
5. 基于实际的硬件平台,实现系统的代码编写、控制算法的实现和优化,并进行实际场景的测试。
五、预期成果1. 实现基于PUMA560机器人的视觉伺服控制系统,并进行实际场景测试。
机器人视觉伺服控制应用研究作者:吕汉平来源:《装备维修技术》2020年第11期摘要:随着机器人时代的到来,它为我们的生活带来了便利,解决了我们不少的生活问题。
其中机器人视觉伺服控制应用作为机器人系统的核心技术,在机器人处理问题的过程中起到了关键作用。
本文对机器人视觉伺服控制的原理和基本控制方式进行解析,发现视觉伺服在当前发展所需要面临的问题,并提出相应的解决措施。
关键词:机器人视觉;视觉伺服控制机器人视觉伺服控制技术是人类研究智能机器人的一项核心研发技术,该技术由多传感技术与集成核心技术组成。
同时该技术具备了采集信息强、精确度高等优点。
在代替人类工作时具有高效的工作效率且做工精密可在很大程度上避免误差。
机器人视觉伺服控制技术是机器人系统的核心技术,是人类正式进入机器人代替人工工作时代的一大步。
1 机器人视觉伺服机器人视觉伺服诞生于20世纪80年代,它的由来起初是人类为了寻找能够在工作中提高灵活性以及精确度的工具。
然而,在当时已经有了机器人系统的概念,人类通过智慧将二者契合之后也就有了现在所说的机器人视觉伺服。
机器人视觉伺服控制系统主要功能是由视觉传感器即红外线来探测外界信息并通过自身发射出光波来对信息进行收集,通过机器人对外界信息的分析与处理后会自动编写出应对问题的操作程序,与此同时机器人也会立刻调整位姿来进行操作。
操作程序的编写与调整位姿几乎同时进行,体现出了机器人视觉伺服的有效性。
机器人视觉伺服主要涉及的范围十分广泛,主要包括对图像和信息的处理,对机器视角和位置的把握,以及对运动学、力学、机器人学的分析等等。
机器人视觉伺服是根据机器视觉的原理来对外部图像进行影像自动获取和数据分析,从而实现对机器人的某项特定行为的控制。
2 机器人视觉伺服控制的基本控制方式机器人视觉伺服控制是以达到机器人所接收到的命令为目的的控制,即按照所编写的程序进行操作的一个过程。
其基本控制方式主要有以下三种。
2.1 基于图像的伺服控制基于图像的伺服控制是基本控制方式中最为简单的一种。
基于PUMA机器人的视觉伺服控制实验研究赵 杰,李 戈,蔡鹤皋(哈尔滨工业大学机器人研究所,黑龙江哈尔滨150001)摘 要:为解决在视觉伺服过程中存在定位精度低、伺服速度慢的问题,给出了一个基于图像特征的机器人视觉伺服控制方法,实现了机器人“手-眼”协调视觉伺服控制.通过适当的选取图像特征,实现了摄像机工作空间运动目标跟踪的视觉伺服任务,并采用扩展卡尔曼滤波控制方法完成机器人视觉伺服控制.同时通过抓取目标物体进行计算机仿真及模拟实验,给出了实验数据.经过比较可以看出,运用此方法提高了定位精度及伺服速度.关键词:机器人;视觉伺服;卡尔曼滤波;图像处理中图分类号:TP242.6.2 文献标识码:A 文章编号:036726234(2002)0520620204Visu al servocontrol system of PU MA robotsZHAO Jie,L I G e,CAI He2gao(Robot Research Institute,Harbin Institute of T echnology,Harbin150001,China)Abstract:In order to s olve the problem of low orientation accuracy and low serv o s peed encountered in the serv oing process,a novel robot visual serv o control was adopted to achieve eye-in-hand coordinated visual serv o control of robot.Floating object tracking in the whole working space of a camera can be obtained through selecting image fea2 tures,and K alman filtering control was adopted to realize visual serv o control of robot.C om puter simulations and many experiments were made with the capture of object.K ey w ords:robot;visual serv o;K alman filtering;image processing 视觉伺服控制方法被广泛地应用于机器人在工作空间中抓取目标物体.目前视觉伺服控制中, Das等运用模式识别、三维重构等方法对图像进行处理[1~3].Pitt,Schulz等为了解决伺服控制周期长、精度低的问题,动用各种滤波器对运动物体进行预测及估计[4~6].此外,熊春山等通过变换原理及路径规划,实现初步的视觉伺服实验控制[6,7]. 收稿日期:2002-01-08.基金项目:国家高技术研究发展计划项目(863-2001AA422250).作者简介:赵 杰(1968-),男,博士后,教授;蔡鹤皋(1934-),男,教授,博士生导师,中国工程院院士. 但是在视觉伺服中,图像处理精度、预测估计精度的高低及路径规划的优良都与伺服速度成反比.也就是说,提高了各部分的精度就降低了整体的伺服速度.因此本文为了得到较好定位精度及伺服速度的性能比,成功运用基于图像特征的视觉伺服方法,实现了基于PUMA机器人“手-眼”协调视觉伺服控制实验系统.通过实时计算机视觉处理所获得的图像边缘及特征点等信息,对机器人进行三维运动的估计,并应用预测控制、滤波控制方法,实现对目标物体的伺服控制.1 LOG滤波器缘检测算子在进行跟踪时要对图像进行特征提取.首先运用了人的视觉系统中初级信息加工过程的模拟.设第34卷 第5期 哈 尔 滨 工 业 大 学 学 报 Vol.34 No.5 2002年10月 JOURNAL OF HARBIN INSTITU TE OF TECHNOLOGY Oct.,2002f (x ,y ,t )为视网膜上的激励,它是在空间位置(x ,y )上的时间序列,其输出为V (X ,Y ,T ),系统的响应函数为R.由于神经元具有空间和时间求和特性,并且把该系统看作是齐次和线性的,则有V (X ,Y ,T )=∫∫∫R (X -x ,Y -y ,T -r )f (x ,y ,t )d x d y d t ,(1)在上式中经计算认为函数R 为高斯函数,即G (x ,y ,σ)=12πσ2exp -12σ2(x 2+y 2),(2)G (x ,y ,σ)是一个圆对称函数,其平滑的作用可通过σ来控制.将G (x ,y ,σ)与图像函数f (x ,y )进行卷积,可以得到一个相对平滑的图像,其公式可以表示为f s (x ,y )=f (x ,y )3G (x ,y ,σ).(3) 为了得到图像中各目标物体的边缘,需要对f s (x ,y )进行拉普拉斯运算.对视觉系统所观察到的一幅静止的图,则有公式V (x ,y )=f (x ,y )3 2G (x ,y ,σ),(4)其中 2G 为LOG 滤波器,其具体表现形式可以用下式表示: 2G (x ,y ,σ)=92G 9x 2+92G 9y 2= 1πσ4x 2+y 22σ2-1exp -12πσ2(x 2+y 2).(5)因为f (x ,y )是表示图像强度的灰度函数, 2G 中的变化量则与灰度无关,图像函数的二阶导数出现零交叉的位置就是图像中的边缘或轮廓点,因此,边缘点P (x ,y )的集合可以表示为P (x ,y )={(x ,y ,σ)| 2[f (x ,y )3G (x ,y ,σ)]=0}.不过在实际实现时,由于图像的量化,使二阶微分为零的点不存在,因此运用了过零检测法提取出图像的边缘点.同时在实现LO G 滤波器时,运用了快速算法实现边缘提取.2 边缘特征的配准通过提取后的边缘,进行特征匹配.基于边缘的配准不是直接利用图像灰度,而是通过灰度导出符号特征来实现匹配,因此,对于对比度和明显的光照变化相对稳定.2.1 特征属性值的计算’在运用这种方法时,首先通过对每幅图像利用LO G 算子进行卷积运算得到零交叉点.然后对每一个零交叉模式,在第二帧图像中寻找可能匹配的点.但由于遮挡、阴影及噪声等的影响可能没有对应点.因此,定义标号l 或者是该特征点与其可能匹配点之间的视差l =(l x ,l y ),其中l x 和l y 分别表示特征点与可能匹配点在垂直和水平两个方向上的位置差别,或者是一个未定义的标号.对于每一可能匹配点,按下述方法为其定义一个初始匹配概率.设W i 是第一帧图像中以(x i ,y i )为中心的一个的m ×n 互不重叠的区域,l =(l x ,l y )为可能的视差,则对于所有的l ≠l 3,定义 W i =a ・11+|D P ij |+b ×11+|G 1(x i ,y j )-G 2(x i ,y j )|.式中:D P ij 是f 1(x ,y )中(x i ,y j )点处的零交叉模式与f 2(x ,y )中(x i ,y j )点处的零交叉模式的方向差;a ,b 为正的常数且满足a +b =1;G 1和G 2为对应可能匹配点的沿D P ij 方向梯度值.而实际的匹配是唯一的原则,于是定义未定义视差l3的初始概率为p 0i (l 3)=1-max l ≠l3{W i (l )},(6)则由贝叶斯准则,可定义F L (x i ,y i )所具有的标号的l (l ≠l 3)初始匹配概率为p 0i (l )=p i (l |i )(1-p 0i (l 3)), l ≠l 3.(7)式中:p i (l |i )是在F L (x i ,y i )可匹配条件下,具有标号l 的条件概率,1-p 0i (l 3)是f 1(x i ,y i )可匹配的概率.从而p 0i (l j )=W i (l )∑l ’≠l3W i (l ’)3W 3.(8)式中:W3=1-max l ≠l3{W i (l )}.2.2 迟滞迭代过程对于由可匹配点邻域的相似性程度所得到的初始匹配概率,可利用视差一致性约束进行迭代.所谓视差一致性是指对p i (l )的第k +1次迭代,当在F 1(x i ,y i )附近有较多的点近似得具有视差l 时,增大p k +1i (l ),否则减小p k +1i (l ).设(x i ,y i )是点a i 代表零交叉模式的中心,(x p ,y p )和(x s ,y s )分别是与(x i ,y i )相邻的两个零交叉点,则迭代更新概率为 3p k +1i (l j )=p k i (l j )+c ・F (p k i (l j ))・p ks -d ・p k i (l j )・I (p ps ),式中:p k s =max {p k s (l j -1),p k s ,p k s (l j +1)};p ks =max {p ks (l j -1),p kp ,p kp (l j +1)};F (p ki (l j ))=・126・ 第5期 赵 杰,等:基于PUMA 机器人的视觉伺服控制实验研究[p k i(l j)]2, 0≤p k i(l j)≤0.5, p k i(l j)・(1-p k i(l j)), 0.5≤p k i(l j)<1;I(p ps)=0, p k p+p k s≠0, 1, p k p+p k s=1;c,d为正常数.上述公式考虑了3个约束条件:视差的连续性,即仅考虑3个视差,l j-1、l j和l j+1;视差的连通性,即仅考虑(x i,y i)的邻点(x p,y p)和(x s, y s);连通零交叉点匹配的确定性,即在一个给定的连通方向上取3个基元的最大概率值.由此,当与零交叉点(x i,y i)相邻的零交叉点(x p,y p)和(x s,y s)与(x i,y i)具有相似的视差时,3p i k+1(l j)增大,否则3p i k+1(l j)减小.通过规格化处理有 p k+1i(l j)=3p k+1i(l j)∑l3:Li3p k+1i(l3).(9)在每次更新迭代过程中,去除具有较小(如小于0.05)的可能匹配点.当迭代概率值大于某一阈值(如大于0.7)时,则确定此时的可能匹配点为最终匹配点,从而实现图像的配准.在跟踪时目标物体相对于摄像机的深度信息是所选的特征空间的一个向量,其计算公式为z=f-f3Dl j.(10)3 “手-眼”坐标变换在运用匹配后的特征向量时,要把它变换到基坐标下.首先设摄像机参考坐标中的点c S,将其映射到机器人末端执行器参考坐标的e S点,根据机器人学的奇次变换原理有e S=e Rce Pxyz01cS,(11)其中,方程右边的矩阵即为机器人学中的奇次变换矩阵.在奇次变换矩阵中,e R c为摄像机坐标到末端执行器坐标3×3的映射矩阵.e P xyz为摄像机坐标原点在末端执行器坐标的三维坐标值.当视觉系统为手眼系统时,e R c与e P xyz恒定不变.将末端执行器件参考坐标点的e S映射到机器人的参考坐标o S的点,则方程为o S=o Reo Pxyz01eS,(12)其中o R e为末端执行器坐标到机器人参考坐标的的3×3映射矩阵,它由末端执行器的姿态决定,与机器人末端执行器所在位置无关.o P xyz为末端执行器坐标原点在机器人参考坐标的三维坐标值,实际上也就是末端执行器的三维坐标值.则有o S=o Reo Pxyz01e Rce Pxyz01c S.(13) “手-眼”视觉系统采用小孔成像原理:u=f xz=f・c S xk u・c S z+u p,v=f yz=f c・S yk V・c S z+v p.(14)其中[u,v]T为摄像机坐标中的c S在图像坐标的二维坐标值;f为摄像机的焦距,焦距f为固定值.c S x,c S y,c S z为c S在摄像机中x-y-z三个轴的坐标值,k u与k v为摄像机在X与Y方向采样的量化因子,u p与v p的摄像机的图像中心在X与Y 方向采样时的位置偏移量.通过上述原理把摄像机中的点变换到基坐标下进行控制.4 卡尔曼滤波器的速度场估计在运用特征向量进行控制时,建立了一个以卡尔曼滤波器为基础的系统对速度进行估计.首先假设线性离散时间系统有下列方程描述: U k+1=Фk+1,k U k+ηk+1 ηk+1~N(0,Q k+1),D k+1=H k+1U k+1+ξk+1 ξk+1~N(0,R k+1).其中U是n维状态向量,Φ是n×n阶状态转移矩阵,η是n维动态噪声向量,D是m维的测量向量,H是m×n阶测量矩阵,ξ是m维的测量误差.估计的目的就是要从测量向量D产生对状态U的估计,运用无偏、最小方差估计准则可导出了卡尔曼滤波的算法.为了实现卡尔曼滤波器计算速度场首先需要进行问题映射.可以将速度场计算问题认为由以下4个过程构成:(1)初始状态的获取可以采用和前面相同的方式进行.(2)时间域更新的目的是要将新的(从保守信息获取的)测量值与以往信息获得的预测值相融合,通过卡尔曼增益控制融合.为了得到运动场,则有H k=I.同时由于初始信息的获取依赖于协方差阵C c,于是R k= C c,从而有K k+1=P-k+1[P-k+1+C c]-1,并进一步有3U+ik+1=3U-k+1+P-k+1[P-k+1+C c]-1[U c-3U-k+1], P+k+1=(P-k+1)-1+(C c)-1-1.(3)空间域更新的目的是要利用空间相关性,将具有较高的可信度区域的速度值向可信度较低的区域传播.与前面相同的原因,类似的有・226・哈 尔 滨 工 业 大 学 学 报 第34卷 (P +k+1)-1(3U +k+1-3U +i k+1)+C -1c (3U +k+1-3U )=0,3U +k+1=[(P +k+1)-1+C -1c ]-1[(P +k+1)-13U +ik+1+C -1c 3U ].(4)预测是要根据当前状态推测以后的状态,考虑到运动连续性和稳定性等,因而有P -k +1=(1+ε)P +k .通过以上几步,完成了视觉伺服的预测过程,通过计算机编程实现了跟踪过程.5 机器人视觉伺服系统控制实验5.1 机器人视觉伺服实验的建立在本文所建立的机器人视觉伺服实验系统中,采用的机器人视觉伺服控制系统方法是利用视觉信息实现机器人闭环控制的有效方法.并通过现有的PUMA562工业机器人、自制平移及旋转工作台、小型摄像机及PentiumIII 计算机组成的机器人视觉伺服实验系统进行实验.机器人视觉伺服实验系统结构如图1所示.图1机器人视觉伺服控制系统结构Fig1Structure of robot visual servoing experiment system5.2 机器人控制系统实验数据分析利用所建立的视觉伺服控制实验系统,进行了模拟实验.其目标物体采用不同形状的形金属片,手爪采用电磁手爪(其工作范围为10~15mm ).目标物体放置于直线及旋转工作台上,模拟直线及圆周运动.当机器人跟踪目标物体达到相对准确的稳定状态时,即目标在图像中的位置变化在±2mm 之内时,则控制机器人实现对运动目标物体的抓取.图2给出目标物体静止时,系统的静态误差曲线,其横坐标为时间t ,纵坐标x 为位移.机器人视觉系统存在死区,且该死区与目标物体和摄像机之间的距离相关,因此控制系统收敛于某极限环.由于摄像机安装支架的刚度、机器人手臂的刚度及机械振动的影响,完全消除控制系统收敛极限环十分困难,且将损失控制系统的快速性能.在图2的实验条件下,系统死区为±1mm ,系统静态误差小于±1.5mm.图2 系统静态控制特性Fig.2 System performance with static object图3给出物体在不同的运动速度和方向的条件下,机器人“手-眼”视觉伺服控制实验系统匀速直线运动跟踪实验的结果.图3 直线跟踪实验结果Fig.3 Liner path following performance 由图4可见,目标物体在不同的运动方向和速度的条件下,利用视觉伺服控制实验系统均可实现满意的跟踪效果,并成功地完成目标物体的抓取工作.图4给出跟踪直线运动目标物体的路径与实际路径的比较,其中存在着较小的误差,这图4 直线跟踪路径与实际路径比较Fig.4 Straight line tracking path via real path是由于在速度估计过程中存在噪声.此问题可以通过加入滤波环节来控制,但速度估计的响应延迟将增大.(下转第678页)・326・ 第5期 赵 杰,等:基于PUMA 机器人的视觉伺服控制实验研究特征的几何信息和属性信息.用户可以根据不同的需要选用不同的图层,从而提高图形搜索的速度,而且对各种数据的管理也非常方便.地图显示控件维护一个包含当前所有矢量图层对象的数组,每个图层由一组地理特征对象组成,这样构成了一个层次结构,如图5所示.图5 EpMap 的空间数据结构Fig.5 Spatial data structure of E pMap3 结 论EpMap 的设计合理,实现了预定的目标.还应该指出的是,EpMap 在设计的过程中充分考虑了可扩展性.比如,只需从基本图层对象派生一个用于管理栅格图层的新对象,EpMap 就可以提供对栅格图层的支持.因此,可以不断的完善EpMap 的功能,使之能够满足新的需求.参考文献:[1]邬群勇,王钦敏,消桂荣.基于组件技术的地理信息系统应用研究[J ].计算机应用,2001(7):71272.[2]吴 升,王家耀.近年来地理信息系统的技术走向[J ].测绘通报,2000(3):21224.[3]宋关福,钟耳顺.组件式地理信息系统研究与开发[J ].中国图像图形学报,1998(4):3132317.(编辑 王小唯)(上接第623页)6 结 论(1)运用计算机视觉理论中基于特征点的匹配方法与Kalman 滤波控制方法相结合,实现了实际的机器人视觉伺服控制,并得到较好定位精度和伺服速度的性能比.(2)实验验证了本文提出的视觉伺服控制方法的可行性及有效性.同时还是机器人在多目标、复杂背景下视觉伺服控制的基础,并对进一步研究机器人“手-眼”协调自主决策具有重要的参考意义及实用价值.参考文献:[1]CHOI S Y ,L EE J M.Optimal moving windows for re 2al 2time road image processing[A ].Proceedings of IEEE International Conference on Robotics and Auto -mation [C].K orea :Haronix ,2001.122021225.[2]WEI G Y ,L I C F.Design and implementation of visualservoing system for realistic air target tracking[A ].Pro 2ceedings of IEEE International Conference on Robotics and Auto mation[C].K orea :Haronix ,2001.2292234[3]DAS A K ,FIERRO R ,KUMAR V.Real 2time vision 2based control of a nonholonomic mobile robot [A ].Pro 2ceedings of IEEE International Conference on Robotics and Automation [C ].K orea :Haronix ,2001.171421719.[4]PITT M K.Filtering via simulation :auxiliary particlefilters [J ].J of the American Statistical Association ,1999,94(446):59260.[5]DIR K S ,WOL FRAM B.Tracking multiple moving tar 2gets with a mobile robot using particle filters and statisti 2cal data association [A ].Proceedings of IEEE Interna 2tional Conference on Robotics and Auto mation[C].K o 2rea :Haronix ,2001.166521670.[6]KIM B H ,ROH D K ,L EE J M.Localization of a mo 2bile robot using images of a moving target [A ].Proceed 2ings of IEEE International Conference on Robotics and Automation[C].K orea :Haronix ,2001.2532258.[7]XION G C S ,HUAN G X H.Algorithm for hand 2eyestereo vision and implementation [J ].Robot ,2001,23(3):1132122.(编辑 闫 彤)・876・哈 尔 滨 工 业 大 学 学 报 第34卷 。