双目视觉传感器系统
- 格式:docx
- 大小:628.93 KB
- 文档页数:8
双目立体视觉,在百度百科里的解释是这样解释的:双目立体视觉(Bin ocular Stereo Visio n )是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。
我相信未来的世界一定是三维感知的世界,毕竟二维世界很多情况下不能满足要求的。
一视差Dis parity 与深度图那么提到双目视觉就不得不提视差图:双目立体视觉融合两只眼睛获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作视差(Disparity) 图像。
对于视差的理解自己可以体验一下:将手指头放在离眼睛不同距离的位置,并轮换睁、闭左右眼,可以发现手指在不同距离的位置,视觉差也不同,且距离越近,视差越大。
那么提到视差图,就有深度图,深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离(深度)值作为像素值的图像。
获取方法有:激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法。
那么这里引申一下深度图与点云的区别,点云:当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。
若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。
深度图像经过坐标转换可以计算为点云数据;有规则及必要信息的点云数据可以反算为深度图像。
两者在一定条件下是可以相互转化的,之前的博客里,有使用PCL库实现过点云提取深度图,当然给出相机参数也是可以由深度图转为点云的。
截图一个深度图:h 也JrruK"■arru举所以深度与视差的关系如下比如绝对差值法D=| L-R|式中,L、R和D分别代表左视图、右视图和对应的绝对差值图的亮度值。
绝对差值图并不是严格意义上的视差图,但是它的计算方法最为简单,速度快,它给出的结果可以作为参考。
基于双目立体视觉的深度感知技术研究共3篇基于双目立体视觉的深度感知技术研究1随着计算机科学技术的不断发展,双目立体视觉深度感知技术成为研究的热点之一。
本文将阐述该技术的发展历程和应用情况,并探讨当前的研究进展和发展趋势。
一、发展历程早期的双目立体视觉技术主要是通过人工对图像进行匹配来获取深度信息。
这种方法需要大量的人工投入,且匹配结果依赖于操作员的经验和技能,难以应用于实际生产中。
为了解决这一问题,研究者开始采用计算机算法来进行深度感知。
二、应用情况1. 机器人导航双目立体视觉技术在机器人导航中得到了广泛的应用。
机器人可以通过摄像机获取环境深度信息,从而避开障碍物,按照预设路径进行移动。
2. 三维建模双目立体视觉技术可以用于三维场景的建模。
通过获取物体的深度信息,可以建立物体的三维模型,从而更好地理解其形状和结构。
3. 自动驾驶技术自动驾驶技术需要实时获取道路和控制车辆的距离信息。
双目立体视觉技术可以快速获取道路和障碍物的深度信息,从而实现车辆的自动行驶。
三、研究进展1. 基于神经网络的深度感知近年来,研究者开始采用神经网络算法来提高双目立体视觉技术的准确度和效率。
神经网络可以自动学习和提取深度特征,并可用于深度估计和场景重建。
此外,神经网络还可以通过增加训练数据进行模型优化。
2. 基于时间维度的深度感知时间开销是双目立体视觉技术中的瓶颈之一。
针对这一问题,研究者开始将时间维度引入到深度感知中。
该方法可以在时间和空间上对图像进行标定,从而提高双目立体视觉技术的速度和准确度。
3. 基于多传感器的深度感知双目立体视觉技术只能在有光线的条件下正常工作。
为了提高深度感知在不同环境下的准确度和鲁棒性,研究者开始探索多传感器融合技术。
该技术可以融合不同传感器获取的信息,从而更好地理解物体的深度和形状。
四、发展趋势随着双目立体视觉技术的不断进步,研究者开始探索其应用范围的拓展。
未来,双目立体视觉技术将会更好地与其他技术结合使用,例如虚拟现实、增强现实等。
双目视觉特征点的三维坐标计算双目视觉是一种通过使用两个相机模拟人眼视觉的技术。
它可以通过计算两个相机之间的视差(即相同物体在两个相机中的像素差)来估计物体的深度,并计算出特征点的三维坐标。
双目视觉在机器人领域、计算机视觉和三维重建等方面有广泛应用。
下面将简要介绍双目视觉特征点的三维坐标计算的基本原理。
双目视觉系统由两个相机组成,分别称为主相机和从相机。
主相机通常放在一个固定位置,而从相机可以相对于主相机移动,以改变观察角度。
双目视觉的原理是基于视差的计算。
当一个物体位于不同相机的视野中时,由于视野的不同,物体在两个相机中的图像位置会有所偏移,这个偏移量称为视差。
首先,应该通过一些校准步骤来确定相机的内参矩阵和外参矩阵。
内参矩阵包括相机的焦距、主点坐标和畸变系数等参数,它们可以通过标定来测量得到。
外参矩阵包括相机的位置和姿态,可以通过对相机进行定位来获得。
双目视觉的主要步骤如下:1.特征点提取:在主相机和从相机的图像中提取特征点,例如角点或SIFT特征点等。
这些特征点在两个相机中的像素位置可以很容易地匹配。
2.特征点匹配:对于主相机和从相机中的每个特征点,需要找到在另一个相机中与之匹配的特征点。
匹配可以通过计算特征描述子之间的相似度来实现。
3.视差计算:对于每对匹配的特征点,可以通过计算它们在两个相机中的像素位置差来计算视差。
视差计算可以采用最小二乘法或其他深度推测算法。
4.深度计算:有了视差信息,可以根据相机基线和三角测量原理来计算特征点的相对深度。
根据特定的相机配置,可以通过相机内参和外参来计算特征点的三维坐标。
总的来说,双目视觉特征点的三维坐标计算可以通过特征点提取、特征点匹配、视差计算和深度计算来实现。
这些步骤需要对相机进行校准,并根据相机配置和参数来计算特征点的三维坐标。
双目视觉在计算机视觉领域有着广泛的应用,例如三维重建、目标跟踪、立体匹配和位姿估计等。
特征点的三维坐标计算是实现这些应用的关键步骤之一、它可以通过将双目相机与其他传感器(如激光雷达)结合使用来提高测量精度和准确性。
课堂教学设计表
- 1 -
板书设计
说明:任课教师可根据黑板的屏数自行进行板书设计。
- 2 -
教学内容目的、要求、方法、手段、时间分配、板书预案等
7.汽车辅助
•泊车辅助是用于停车或倒车的安全辅助装置,有手动和自动两种类型。
•主流的泊车辅助系统是由倒车摄像头和汽车监视器组成。
8.全景停车
•汽车环绕全景图像停车辅助系统包括多个安装在汽车周围的摄像头、图像采集组件、视频合成/处理组件、数字图像处理组件和车辆显示器。
这些
装置可以同时采集车辆周围的图像,对图像处理单元进行变形恢复→视图
转换→图像拼接→图像增强,最终形成车辆360°全景仰视图。
9.红外夜视系统
•汽车夜视系统采用红外线技术,结构由红外摄像头和挡风玻璃上的灯光显示系统两部分组成。
•安装这种夜视系统后,驾驶员可以像白天一样透过灯光显示系统看到道路的行驶条件。
当两辆车相遇时,可以大大减少对车前驾驶员的视力刺激,也可以提高驾驶员在雾中辨别的能力。
什么是主动红外夜视技术?什么是被动红外夜视技术
大众汽车红外夜视系统视频演示。
《基于双目立体视觉的测距算法研究》篇一一、引言在现今的自动驾驶、机器人技术、以及3D计算机视觉领域,双目立体视觉测距算法以其准确度高、鲁棒性强的特点得到了广泛的应用。
本文旨在研究基于双目立体视觉的测距算法,深入探讨其原理、应用及其优缺点,并通过实验分析验证其有效性。
二、双目立体视觉原理双目立体视觉是通过模拟人类双眼的视觉过程,利用两个相机从不同角度获取同一场景的图像,再通过图像处理技术恢复出场景的三维信息。
其基本原理包括图像获取、图像校正、特征提取、立体匹配和三维重建等步骤。
三、测距算法研究基于双目立体视觉的测距算法主要分为以下几个步骤:1. 图像获取与预处理:首先,通过两个相机获取同一场景的左右图像,然后进行预处理,包括去噪、灰度化等操作,以便后续处理。
2. 特征提取与匹配:在预处理后的图像中提取特征点,如SIFT、SURF等算法。
然后,通过立体匹配算法找到对应点,如基于区域的匹配算法、基于特征的匹配算法等。
3. 计算视差:通过立体匹配得到的对应点计算视差,即同一物体在不同相机图像中的位置差异。
视差反映了物体在空间中的深度信息。
4. 深度信息恢复与测距:根据视差和双目相机的基线距离计算深度信息,从而得到物体的三维坐标。
再结合相关算法计算得到物体与相机的距离。
四、算法优化与改进为了提高测距精度和鲁棒性,可以采取以下措施对算法进行优化和改进:1. 优化特征提取与匹配算法:采用更先进的特征提取与匹配算法,如深度学习算法等,提高匹配精度和速度。
2. 引入约束条件:利用先验知识或已知信息引入约束条件,如顺序一致性约束、极线约束等,以减少错误匹配的概率。
3. 深度学习算法的融合:将深度学习算法与双目立体视觉测距算法相结合,通过大量数据训练得到更准确的模型。
4. 多重校正技术:在图像获取阶段引入多重校正技术,以消除相机之间的几何畸变和光畸变等影响测距精度的因素。
五、实验分析本文通过实验验证了基于双目立体视觉的测距算法的有效性。
vins fusion 纯双目参数
VINS-Fusion是香港科技大学于2019年开源的视觉-惯性SLAM系统,是VINS-Mono的扩展版,主要支持单目+IMU、纯双目、双目+IMU、双目+IMU+GPS等多种传感器融合方案。
以下是VINS-Fusion纯双目参数的部分介绍:
- 相机模型:针孔相机模型或鱼眼相机模型。
- 特征提取:基于角点、边缘或区域的特征提取算法。
- 特征匹配:基于特征点的匹配算法,如SIFT、SURF等。
- 三角测量:通过三角测量计算相机位姿。
- 优化算法:用于求解相机位姿和特征点坐标的优化算法,如LM优化、GPS优化等。
VINS-Fusion纯双目参数的具体设置取决于应用场景和传感器配置,用户可以根据实际需求进行调整。
如果你想了解更多关于VINS-Fusion的信息,可以访问其官方网站或查阅相关文献。
《基于双目立体视觉的测量技术研究》一、引言双目立体视觉技术在测量领域有着广泛的应用,特别是在需要精确获取物体三维信息的场合。
通过模拟人眼双目视觉原理,双目立体视觉技术能够有效地捕捉并处理三维空间信息,从而实现对物体形状、尺寸、位置等参数的精确测量。
本文将探讨基于双目立体视觉的测量技术的研究现状、原理、方法及实际应用。
二、双目立体视觉测量技术原理双目立体视觉测量技术基于视差原理,通过模拟人眼双目视觉过程,利用两个相机从不同角度获取同一物体的图像信息。
通过对两幅图像进行特征提取、匹配、三维重建等处理,从而得到物体的三维空间信息。
该技术主要包括图像获取、图像预处理、特征提取与匹配、三维重建等步骤。
三、双目立体视觉测量技术方法1. 图像获取与预处理:利用两个相机从不同角度获取同一物体的图像信息,并进行预处理,如去噪、灰度化、二值化等,以提高后续处理的准确性。
2. 特征提取与匹配:在预处理后的图像中提取特征点或特征线,然后通过算法进行特征匹配,得到对应点或线的匹配关系。
3. 三维重建:根据特征匹配结果,结合相机参数及三角测量原理,进行三维重建,得到物体的三维空间信息。
四、双目立体视觉测量技术研究现状目前,双目立体视觉测量技术在国内外均得到了广泛的研究和应用。
在算法方面,研究者们不断提出新的特征提取、匹配及三维重建算法,以提高测量的精度和效率。
在应用方面,双目立体视觉测量技术已广泛应用于工业检测、医疗诊断、无人驾驶、虚拟现实等领域。
五、双目立体视觉测量技术的优势与挑战优势:1. 精度高:双目立体视觉测量技术能够精确获取物体三维空间信息,具有较高的测量精度。
2. 灵活性强:该技术适用于各种复杂环境下的测量任务,具有较好的灵活性和适应性。
3. 非接触式测量:双目立体视觉测量技术为非接触式测量,不会对被测物体造成损伤。
挑战:1. 算法复杂度高:双目立体视觉测量技术涉及到的算法较为复杂,需要较高的计算能力和处理速度。
双目交汇定位原理概述说明以及解释1. 引言:1.1 概述双目交汇定位技术是一种利用双目视觉系统进行测距和定位的技术。
该技术基于两个摄像头模拟人眼的立体视觉原理,通过获取不同角度下的图像信息,并结合计算机视觉算法对图像进行处理,从而实现对目标物体的定位和测距。
双目交汇定位原理首先利用双目视觉系统采集物体在不同位置的图像数据,然后通过双目视差(即左右图像之间的像素差异)来计算物体与相机之间的距离。
最终根据这些距离信息,可以确定物体在三维空间中的位置。
1.2 文章结构本文将按照如下结构进行叙述:首先介绍双目交汇定位原理的基本概念及其组成部分;随后详细探讨了双目视觉系统中常用的测距方法;接着,阐述了双目交汇定位技术在自动驾驶、机器人导航与定位以及其他领域中的应用案例;然后,探讨了该技术所面临的挑战与问题,并总结了当前研究进展和未来发展方向;最后,对整篇文章进行了结论和总结,并对双目交汇定位技术的价值和前景进行了展望。
1.3 目的本文的目的是全面介绍双目交汇定位原理,深入探讨其在不同领域中的应用,并分析该技术所面临的挑战与发展方向。
通过对该技术进行概述、说明及解释,旨在提供读者对双目交汇定位原理有一个清晰且全面的理解,为相关领域开展研究和应用提供参考和指导。
2. 双目交汇定位原理:2.1 定位原理概述:双目交汇定位是一种通过使用双目视觉系统来确定物体在三维空间中的位置和姿态的技术。
其基本原理是利用人类双眼的视差差异来推断物体相对于观察者的距离。
当物体位于不同距离上时,它在两个眼球上所形成的影像会有微小的差异,这种差异被称为视差。
通过解析这些视差信息,可以计算出物体与摄像机之间的距离和姿态。
2.2 双目视觉系统组成:双目视觉系统包括两个相互独立但具有空间关系的摄像机或图像传感器,通常被称为左侧摄像机和右侧摄像机。
这两个摄像机分别模拟了人类的左眼和右眼,从不同角度同时观察同一场景。
每个摄像机捕获到的图像被用作后续处理和计算。
双目立体视觉技术的实现及其进展双目立体视觉技术是一种利用双目相机或者双目摄像系统进行图像捕获和分析的技术,通过模拟人类双眼视觉的方式,实现对三维物体的感知和测量。
该技术已经在诸多领域中得到广泛应用,如工业自动化、机器人导航、医学影像等。
双目立体视觉的实现基于两个关键技术要素:立体标定和立体匹配。
立体标定即对双目系统进行校准,获取相机的内外参数,以及相机之间的相对位姿关系。
通过这些参数,可以映射出左右两个相机图像上的对应点之间的像素坐标关系。
立体匹配则是通过像素坐标的转换,找到两幅图像上对应的物体点的三维坐标。
这通常利用视差(图像上对应点的水平偏移量)来进行计算。
立体标定是双目立体视觉技术实现的首要步骤。
一般采用标定板或者灯光棋盘格等目标进行标定,通过对目标在左右图像上的特征点匹配,可以得到相机的内外参数。
标定的结果决定了后续的立体匹配的准确性。
同时,标定结果还可以用于校正相机的畸变。
立体匹配的过程是通过对视差的计算来推测出物体点的深度信息。
常用的立体匹配算法有区域匹配、视差等。
区域匹配是基于图像块的相似性计算,通过在左图像上滑动一个窗口,在右图像上与之最相似的窗口。
视差则是通过左图像上一些像素点附近一定范围内的像素点并计算与之的相似度,以确定视差最小的点。
1.算法优化:研究者们不断改进立体匹配算法,提高了匹配的准确性和效率。
一些新的算法如基于全局能量最小化的方法和基于深度学习的方法,取得了较好的效果。
2.硬件改进:随着技术的发展,双目相机的硬件设备得到了提升,像素数目和分辨率也有了大幅度的增加。
这使得双目立体视觉系统能够获得更高质量的立体图像,从而提高了立体匹配精度。
3.应用拓展:双目立体视觉技术被广泛应用于机器人、自动驾驶等领域。
例如,在机器人导航中,双目立体视觉可以用于检测和定位障碍物,提供实时的环境信息,实现智能导航。
4.结合其他传感器:为了提高测量的准确性和稳定性,双目立体视觉技术常与其他传感器如激光雷达、惯性导航等进行结合。
双目视觉传感器系统
视觉检测广泛地应用于工件的完整性、表面平整度的测量:微电
子器件(IC芯片、PC板、BGA)等的自动检测;软质、易脆零部件的检
测;各种模具三维形状的检测;机器人的视觉导引等。最具有吸引力的
是由视觉传感器阵列组成的大型物体(如白车身)空间三维尺寸多传
感器视觉检测系统。
双目视觉传感器由两台性能相同的面阵CCD摄像机组成,基于立
体视差的原理,可完成视场内的所有特征点的三维测量,尤其是其它
类型的视觉传感器所不能完成的测量任务,如圆孔的中心、三棱顶点
位置的测量等。因此,双目视觉传感器是多传感器视觉检测系统的主
要传感器之一。要实现双目视觉传感器直接测量大型物体关键点的三
维测量,就必须知道传感器的内部参数(摄像机的参数)、结构参数(两
摄像机间的位置关系)及传感器坐标系与检测系统的整体坐标系的关
系(即全局标定)。因此,在实际测量之前,先要对摄像机进行参数标定。
一般方法是,传感器被提供给整个系统使用前,就离线完成传感器的
内部参数及结构参数的标定,采用一标准二维精密靶标及一维精密导
轨,通过移动导轨来确定坐标系的一个坐标,通过摄像机的像面坐标
及三个世界坐标的对应关系求得这些参数。
这种方法的缺点是:标定过程中,需要精确调整靶标与导轨的垂
直关系,而且需多次准确移动导轨;同时标定过程的环境与实际测量
的情形有差异;传感器在安装的过程中,易引起部分参数的变化,需多
次的拆卸;摄像机还需进行全局标定。由此可知标定的劳动强度大,
精度难以保证。本文提出了一种现场双目传感器的标定方法,只需先
确定摄像机的部分不易变化的参数,其它参数在摄像机安装到整个系
统后进行标定。该方法大大地减少了上述因素的影响,能得到满意的
标定精度。
双目视觉测量探头由2个CCD摄像机和1个半导体激光器组成,
如下图所示。
半导体激光器作为光源,它发射出一点光源射到一柱状透镜上后
变成一条直线。该线激光投射到工件表面,作为测量标志线。激光波
长为650 nm,其扫描激光线宽约为1mm。 2个普通CCD摄像机呈一定
角度放置,构成深度测量的传感器。 CCD镜头焦距长短会影响镜头光
轴与线激光的夹角、探头与待测物体的距离以及测量景深。
视觉测量属于一种非接触式测量,它是基于激光三角法测量原理。
激光器1发出的光线经柱状透镜单方向扩展后变成一光条,投射在被
测物体表面,由于物体表面曲度或深度的变化,使光条变形,由CCD摄
像机摄取此变形光条的图像,这样就可以由激光束的发射角和激光束
在CCD内成像位置,通过三角几何关系获得被测点的距离或位置等数
据。
与人类使用双眼观察物体的远近类似,双目视觉测量传感器是通
过2个CCD摄像机同时摄取一个光条的图像,再通过两幅图像的匹配,
得到光条上所有像素点分别在两幅图像中的位置,利用视差,即可计
算该点的位置以及深度信息的。如果配合扫描机构得到的扫描线某一
坐标值,可得到被扫描物体所有的轮廓信息(即三维坐标点)。
一般来说,双目传感器的视差(x2-x1)越大,则其测量精度越高。
通过实验发现,增大基线长度可以提高视觉测量的精度。但对某一焦
距的镜头,过大的基线长度会造成双目轴线夹角增大,使图像产生较
大畸变,不利于CCD的标定及特征匹配,反而使测量精度下降。选择2
个焦距为8mm的镜头,通过实验,找到与之相匹配的基线长度,可保证
在镜头的景深范围内,双目视觉传感器有较高的测量精度。
摄像机标定的目的是建立有效的成像模型,并确定摄像机的内外
部属性参数,以便正确建立空间坐标系中物点与它在图像平面上像素
之间的对应关系。由小孔成像原理,若考虑透镜径向一阶畸变,其摄像
机模型如图所示。三维物点(实际坐标系的坐标Pw=(xw,yw,zw))与其
平面像点(成像平面二维坐标系的坐标Pu=(xu,yu))之间的转换关系
为
式中 ρ= x2d+ y2d为像点到像面中心的距离;k为径向畸变参
数。(xu,yu)表示没有畸变时P点在成像平面二维坐标系中的理想坐
标。(xd,yd)表示没有存在畸变时P点在成像平面二维坐标系中的实
际坐标。
当扫描轮廓确定后,双目视觉测量传感器将按照设定的扫描速度
沿某一方向扫描,扫描过程中,可设置左右图像采集速率为每秒25帧,
这些图像保存在计算机内存中。采集的图像可进行实时处理,包括特
征提取、立体匹配。
图像中的激光扫描线是需要提取的特征。由于激光光条宽度约为
1mm,其在摄取的图像中所占的像素数目不止一个像素,所以,激光光
条图像必须做中心线搜寻处理,即激光光条需进行细化处理。细化时,
采用高斯分布算法。
采用极线约束条件[4],可以搜索左图像中激光光条上某一点在
右图像激光光条中的对应点,得到相应的视差后,可以计算出光条上
所有点的深度信息,从而恢复工件三维信息。
在双目视觉的硬件结构中,目前通常采用两个 CCD 摄像机作为
视频信号的采集设备,通过专用的图像采集卡与计算机连接,把采集
到的模拟信号经过采样、滤波、量化,最终提供给计算机图像数据,
如图所示。双目视觉硬件系统由视觉传感器、云台、图像采集设备及
控制主机等设备构成。
图像传感器是测定图像的输入装置,通常选用CCD(电荷耦合器)
传感器。来自被测对象的光通过光学系统,由CCD 器件转换成电信
号(时间序列的输出信号),然后将传感器的电荷逐步移出,形成像素。
现在比较流行的图像传感器还有 CMOS 传感器。与 CCD 传感器相比,
它具有功耗低、摄像系统尺寸小、可将信号处理电路与 MOS 图像传
感器集成在一个芯片上的优点。但其图像质量(特别是低照度环境下)
与系统灵活性与 CCD 相比相对较低。适用于小尺寸、低价格、摄像
质量无过高要求的保安用小型微型像机、手机、计算机视频网络中等。
但对于图像质量要求较高的系统中,通常会选用价格稍为昂贵的 CCD
传感器。
所谓视频采集即将视频转换成PC机可使用的数字格式。一些专
业图像采集卡是将视频信号经过AD 转换后,经过 PCI总线实时传到
内存和显存。在采集过程中,由于采集卡传送数据采用 PCI Master
Burst 方式,图像传送速度可以达到 33 帧/秒,可实现摄像机图像
到计算机内存的可靠实时传送,并且几乎不占用 CPU 时间,留给 CPU
更多的时间去做图像的运算与处理。
图像采集卡主要包括图像存储器单元、显示查找表单元、CCD 摄
像头接口(A/D)、监视器接口(D/A)和 PC 总线接口单元。工作过程如
下:摄像头实时或准时采集图像数据,经 A/D 变换后将图像存放在
图像存储单元的一个或三个通道中,D/A 变换电路自动将图像显示在
监视器上。通过主机发出指令,将某一帧图像静止在存储通道中,即
采集或捕获一帧图像,然后可以对图像进行处理或存盘。高档的采集
卡还包括卷积滤波、FFT 等图像处理专用软件包,并能够实时显示彩
色活动图像。
云台作为 CCD 摄像机的支架,用以控制摄像机左右摇摆或上下
俯仰。
控制主机作为图像传输及处理,是视觉系统的关键设备。由于图
像处理的数据量较大,运行时间也较长,要想实现实时控制,除了在
尽量优化算法的基础上,还应该尽可能的提高控制主机的硬件设备要
求。对于不同的传感器和采集卡,对主机要求也不同。
图所示为 CCD 图像传感器工作原理框图。器件完成曝光后光子
通过像元转换为电子电荷包,电荷包顺序转移到共同的输出端,通过
输出放大器将大小不同的电荷包(对应不同强弱的光信号)转换为电
压信号,缓冲并输出到芯片外的信号处理电路。
在选取器材过程中考虑性价比,最终选用松下 WV-CP470 摄像头。
主要原因是该摄像头具有同步锁定功能,对于双目视觉系统要求在同
一时刻采集左右两幅视图,尤其是在进一步研究动态物体时,所以要
求具有同步功能。该摄像头的 CCD 传感器为 753×582 像素,逐行
变换,扫描面积是4.8 × 3.6mm,相当于 1/3 英寸传感器的扫描面
积,水平分辨率为 480 线(彩色),每秒钟可传送 25 帧图像,在使
用焦距为 14mm 的镜头时,彩色模式下最小照度为 0.8lx。选择这款
镜头完全达到本实验的性能要求,并能够达到为进一步作动态实验研
究的性能要求。
图像采集卡工作原理是将输入的模拟信号经过 A/D 转换,或将
数字摄像机的输出信号,通过计算机总线传输到计算机内存或显存,
计算机可以对现场采集的图像进行处理和存储。本实验选取了大恒
DH-CG300 彩色图形采集卡。
DH-CG300 是基于 PCI总线的视频/音频采集卡,其基本结构及
工原理见图。视频图像经多路切换器、数字解码器、A/D 转换器,将
数字化的图像数据送到数据缓存区。经比例缩放、裁剪、数据格式转
换等处理后,由内部 RISC 控制图像覆盖与数据传输,数据传输目标
位置由软件确定可以通过 PCI 总线传输到VGA 卡上实现实时显示,
也可传送到计算机内存中实时存储。
图像处理的主要特点是数据量大、运算时间长,因而对系统硬件
要求较高。对于显卡的主要要求是 DMA 传输速率、显存的读写速率。
目前对主板的要求是提供符合 PCI2.1 标准的扩展槽,扩展槽同时提
供 5V 电源,支持奔腾以上 CPU。PC 机图像处理系统的最小配置如
下:奔腾以上 CPU,VGA 显卡,内存容量 128MB,硬盘至少 10G。