当前位置:文档之家› 机器视觉教材-贾云得版chapter11..

机器视觉教材-贾云得版chapter11..

机器视觉教材-贾云得版chapter11..
机器视觉教材-贾云得版chapter11..

135 第十一章 深度图(qq584883658)

获取场景中各点相对于摄象机的距离是计算机视觉系统的重要任务之一.场景中各点相对于摄象机的距离可以用深度图(Depth Map)来表示,即深度图中的每一个像素值表示场景中某一点与摄像机之间的距离.机器视觉系统获取场景深度图技术可分为被动测距传感和主动深度传感两大类.被动测距传感是指视觉系统接收来自场景发射或反射的光能量,形成有关场景光能量分布函数,即灰度图像,然后在这些图像的基础上恢复场景的深度信息.最一般的方法是使用两个相隔一定距离的摄像机同时获取场景图像来生成深度图.与此方法相类似的另一种方法是一个摄象机在不同空间位置上获取两幅或两幅以上图像,通过多幅图像的灰度信息和成象几何来生成深度图.深度信息还可以使用灰度图像的明暗特征、纹理特征、运动特征间接地估算.主动测距传感是指视觉系统首先向场景发射能量,然后接收场景对所发射能量的反射能量.主动测距传感系统也称为测距成象系统(Rangefinder).雷达测距系统和三角测距系统是两种最常用的两种主动测距传感系统.因此,主动测距传感和被动测距传感的主要区别在于视觉系统是否是通过增收自身发射的能量来测距。另外,我们还接触过两个概念:主动视觉和被动视觉。主动视觉是一种理论框架,与主动测距传感完全是两回事。主动视觉主要是研究通过主动地控制摄象机位置、方向、焦距、缩放、光圈、聚散度等参数,或广义地说,通过视觉和行为的结合来获得稳定的、实时的感知。我们将在最后一节介绍主动视觉。

11.1 立体成象

最基本的双目立体几何关系如图11.1(a)所示,它是由两个完全相同的摄象机构成,两个图像平面位于一个平面上,两个摄像机的坐标轴相互平行,且x 轴重合,摄像机之间在x 方向上的间距为基线距离b .在这个模型中,场景中同一个特征点在两个摄象机图像平面上的成象位置是不同的.我们将场景中同一点在两个不同图像中的投影点称为共轭对,其中的一个投影点是另一个投影点的对应(correspondence),求共轭对就是求解对应性问题.两幅图像重叠时的共轭对点的位置之差(共轭对点之间的距离)称为视差(disparity),通过两个摄象机中心并且通过场景特征点的平面称为外极(epipolar)平面,外极平面与图像平面的交线称为外极线.

在图11.1 中,场景点P 在左、右图像平面中的投影点分为p l 和p r .不失一般性,假设坐标系原点与左透镜中心重合.比较相似三角形PMC l 和p LC l l ,可得到下式:

F

x z x l '= (11.1) 同理,从相似三角形PNC r 和p RC l r ,可得到下式:

F

x z B x r '=- (11.2) 合并以上两式,可得:

r

l x x BF z '-'= (11.3) 其中F 是焦距,B 是基线距离。

因此,各种场景点的深度恢复可以通过计算视差来实现.注意,由于数字图像的离散特性,视差值是一个整数.在实际中,可以使用一些特殊算法使视差计算精度达到子像素级.因

136

此,对于一组给定的摄象机参数,提高场景点深度计算精度的有效途径是增长基线距离b ,即增大场景点对应的视差.然而这种大角度立体方法也带来了一些问题,主要的问题有:

1. 随着基线距离的增加,两个摄象机的共同的可视范围减小

2. 场景点对应的视差值增大,则搜索对应点的范围增大,出现多义性的机会就增大.

3. 由于透视投影引起的变形导致两个摄象机获取的两幅图像中不完全相同,这就给

确定共轭对带来了困难.

在图11.1(b)中,图像中的每个特征点都位于第二幅图像中的同一行中.在实际中,两条外极线不一定完全在一条直线上,即垂直视差不为零.但为了简单起见,双目立体算法中的许多算法都假设垂直视差为零.

在实际应用中经常遇到的情况是两个摄像机的光轴不平行,比如,在某些系统中,调节两个摄象机的位置和姿态,使得它们的光轴在空间中相交在某一点,如图11.2所示.在这种情况下,视差与光轴交角有关.对于任意一个光轴交角,在空间中总存在一个视差为零的表面.比这一表面远的物体,其视差大于零;反之,比这一表面近的物体,其视差小于零.因此,在一个空间区域中,其视差可被划分为三组:

+

>-

<=d d d 000

这三组视差可用于解决匹配不确定问题.

(a) (b)

图11.1双目立体视觉几何模型

图11.2摄象机光轴交会空间一点.摄象机之间的夹角

定义了视差为零的一个空间表面.

摄像机光轴不平行的另一种系统是后面将要介绍的一种叫做会聚式(convergent)立体视觉系统(见图11.5).这种系统不要求光轴严格地相交于空间一点.立体成象的最一般情况是一个运动摄像机连续获取场景图像,形成立体图像序列,或间隔一定距离的两个摄像机同时获取场景图像,形成立体图像对.

图11.3 外极线几何示意图

图11.3所示的是处于任意位置和方位的两个摄象机,对应于某一场景点的两个图像点位于外极线上.这两幅图像也可以是一个摄像机由一点运动到另一点获取这两幅图像.即使两个摄象机处于一般的位置和方位时,对应场景点的两个图像点仍然位于图像平面和外极平面的交线(外极线)上.由图不难看出,外极线没有对应图像的某一行.

11.2 立体匹配

137

立体成象系统的一个不言而喻的假设是能够找到立体图像对中的共轭对,即求解对应问题.然而,对于实际的立体图像对,求解对应问题极富有挑战性,可以说是立体视觉最困难的一步.为了求解对应,人们已经建立了许多约束来减少对应点搜索范围,并最终确定正确的对应.下面我们将讨论几个最基本的约束,然后讨论边缘特征和区域特征在立体匹配中的应用.

11.2.1 基本约束

(1 ) 外极线约束

对于两幅从不同角度获取的同一场景的图像来说,传统的特征点搜索方法是首先在一幅图像上选择一个特征点,然后在第二幅图像上搜索对应的特征点.显然,这是一个二维搜索问题.根据成象几何原理,一幅图像上的特征点一定位于另一幅图像上对应的外极线上.因此,在外极线上而不是在二维图像平面上求解对应问题是一个一维搜索问题.如果已知目标与摄像机之间的距离在某一区间内,则搜索范围可以限制在外极线上的一个很小区间内,如图11.4所示.所以,利用外极线约束可以大大地缩小寻找对应点的搜索空间,这样即可以提高特征点搜索速度,也可以减少假匹配点的数量(范围越小,包含假匹配点的可能性越小).请注意,由于摄象机位置及其方向的测量误差和不确定性,匹配点可能不会准确地出现在图像平面中对应的外极线上;在这种情况下,有必要在外极线的一个小邻域内进行搜索.

图11.4 空间某一距离区间内的一条直线段对应外极线上的一个有限区间

(2)一致性约束

立体视觉通常由两个或两个以上摄像机组成,各摄像机的特性一般是不同的.这样,场景中对应点处的光强可能相差太大,直接进行相似性匹配,得到的匹配值变化太大.因此,在进行匹配前,必须对图像进行规范化处理(Normalization).设参考摄象机和其它摄象机的

138

139 图像函数分别为()j i f ,0和()j i f k ,,在n m ?图像窗内规范化图像函数为:

()()0000/),(,σμ-=j i f j i (11.4) ()()k k k k j i f j i f σμ/),(,-= (11.5)

其中μ是图像窗内光强的平均值,σ是光强分布参数: ∑∑==-=n j m

i j i f mn 1122

)),((1μσ 相似估价函数为差值绝对值之和(sum of absolute difference ,SAD):

∑∑==-=n i m

j k k j i f j i f 110),(),(ε (11.6)

(3)唯一性约束

一般情况下,一幅图像(左或右)上的每一个特征点只能与另一幅图像上的唯一一个特征对应.

(4)连续性约束

物体表面一般都是光滑的,因此物体表面上各点在图像上的投影也是连续的,它们的视差也是连续的.比如,物体上非常接近的两点,其视差也十分接近,因为其深度值不会相差很大.在物体边界处,连续性约束不能成立,比如,在边界处两侧的两个点,其视差十分接近,但深度值相差很大.

11.2.2边缘匹配

本算法使用的边缘特征是通过Gaussian 函数的一阶导数获得的.在有噪声的情况下,使用Gaussian 梯度来计算边缘更加稳定.立体算法的步骤如下:

1. 用四个不同宽度的Gaussian 滤波器对立体图像对中的每一幅图像进行滤波,其中

前一次滤波的宽度是下一次滤波器宽度的两倍.这一计算可以反复通过对最小的滤波器进行卷积来有效地实现.

2. 在某一行上计算各边缘的位置.

3. 通过比较边缘的方向和强度粗略地进行边缘匹配.显然,水平边缘是无法进行匹

配的.

4. 通过在精细尺度上进行匹配,可以得到精细的视差估计.

11.2.3 区域相关性

尽管边缘特征是图像的基本特征,而且边缘检测算法也十分成熟.但边缘特征往往对应着物体的边界,物体的边界深度值可以是(前景)物体封闭边缘的深度距离和背景点深度距离之间的任一值.特别是曲面物体,其封闭边缘是物体的轮廓影象边缘,在两幅图像平面中观察到的轮廓影象边缘与真实的物体边缘不是对应的.不幸的是,图像平面的强边缘只能沿着这样的封闭边缘才能检测到,除非物体有其它的高对比度的非封闭边缘或其它特征.这样,恢复深度的基本问题之一是识别分布于整幅图像中的更多的特征点,并作为候选对应点.还有许多用于寻找对应点潜在特征的方法,其中的一种方法是在立体图像对中识别兴趣点(interesting point),而后使用区域相关法来匹配两幅图像中相对应的点.

(1) 区域中感兴趣特征点的检测

两幅图像中用于匹配的点应尽可能容易地被识别和匹配.显而易见,一个均匀区域中的点是不适合作为候选匹配点,所以兴趣算子应在图像中寻找具有很大变化的区域.一般认为图像中应有足够多的用于匹配的分立区域.

在以某一点为中心的窗函数中,计算其在不同方向上的变化量是这些方向上点的差异性

140

的最好测度.方向变化量的计算公式如下:

∑∈+-=

S y x y x f y x f I ),(21)]1,(),([ ∑∈+-=

S y x y x f y x f I ),(22)],1(),([ (11.7) ∑∈++-=

S y x y x f y x f I ),(23)]1,1(),([

∑∈-+-=S y x y x f y x f I ),(2

4)]1,1(),([

其中S 表示窗函数中的所有像素.典型窗函数尺寸从55?到1111?个像素的范围.因为简单的边缘点在边缘方向上无变化,所以,选择上述方向变量的最小值为中心像素点(,)x y c c 的兴趣值,可以消除边缘点.否则,在第一幅图像中的边缘点可能与第二幅图像中沿着同一条边缘的所有像素相匹配,由此使得准确确定视差变得十分困难(特别是当边缘是沿着外极线时更是如此).于是,有如下公式:

I x y I I I I c c (,)min(,,,)=1234 (11.8)

最后,为了避免将多个相邻点选为同一个特征对应的兴趣点,可以将特征点选在兴趣测度函数具有局部最大值的地方.一个点被认为是一个的“好”的好兴趣点,则对应的局部最大值一定大于原先设定的阈值.

一旦在两幅图像中确定特征后,则可以使用许多不同方法进行特征匹配.一种简单的方法是计算一幅图像以某一特征点为中心的一个小窗函数内的像素与另一幅图像中各个潜在对应特征点为中心的同样的小窗函数的像素之间的相关值.具有最大相关值的特征就是匹配特征.很明显,只有满足外极线约束的点才能是匹配点.考虑到垂直视差的存在,应将外极线邻近的特征点也包括在潜在的匹配特征集中.

考虑两幅图像f 1和f 2.设待匹配的候选特征点对的视差为(,)d d x y ,则以特征点为中心的区域之间相似性测度可由相关系数r d d x y (,)定义为:

2/1),(221),(211),(2211}]),([]),([{]

),(][),([),(∑∑∑∈∈∈-++--++-=S y x y x S y x S y x y x y x f d y d x f f y x f f d y d x f f y x f d d r (11.9) 这里的f 1和f 2是被匹配的两个区域中的所有像素灰度平均值,和式符号是在以特征点为中心的小窗函数中的所有像素上进行的.

在式(11.9)中,在每一个像素上使用阈值化处理后的具有正负符号的梯度幅值,而不是图像灰度值,可以改善相关性的计算精度.这可以通过下列过程来实现:计算未平滑的两幅图像中的每个像素的梯度幅值,然后使用两个阈值,一个大于0,另一个小于0,将这些值

映射到三个值),,(101-.这样图像就被转换为波浪起伏阵列,可以产生更灵敏的相关值.如

果使用上述方法,则无需在相关性计算公式中包括正则项, ),(y x d d r 可以简化为相对应的像素值的乘积之和.

在大多数情况中,相互靠近的特征点其对应的场景点深度也是十分靠近的.这种启发式方法来源于迭代式松弛方法,我们将在14.3节对这种方法进行介绍.

我们在早些时候已经注意到,基于特征的立体匹配算法产生对应于图像特征点的场景稀疏深度图.在稀疏深度图上进行表面内插或逼近运算,可以重建一个表面,这部分内容将在

第13章讨论.

立体重建过程的主要难题之一是选择兴趣点.一种典型的兴趣点选择方法是基于灰度值的局部最大变化量.不幸的是,这些点经常出现在拐角处或不满足平滑约束条件的表面不连续处.在一些机器视觉应用中,这个问题是通过使用结构光来解决的.将模式图投影到表面上来产生兴趣点,并可使区域变得光滑(见下一节内容).

最后要说明的是,从图像像素集合中选择用于求解共轭对的像素子集意味着仅仅能恢复这些像素对应的特征点深度.要想得到其它点的深度值,必须通过使用有关计算方法来估算,如内插值技术.

141

11.3 多基线立体成象

一幅图像上的每一个特征点只能与另一幅图像上的唯一一个特征对应,通常将这一性质称为特征的唯一性约束.在实际中,由于大多数特征点不是十分明显,特别是重复纹理的出现,常常会产生对应多义性(ambiguity),即一幅图像上的一个特征点对应另一幅图像的若干个对应点,其中的一个点是真正的对应点,而其它点是假对应点.消除对应点多义性的一种有效方法是采用多基线立体成象[Okutomi 1993],如图11.4所示.

图11.5 多基线立体视觉系统摄像机位置示意图

假定n 个摄像机具有相同的焦距F, 其位置分别为110,...,,-n P P P ,对应的n-1个基线用121,...,,-n B B B 表示,)(0x f 和)(x f i 表示在位置i P P ,0处同步获取的图像,称为一个立体图像对.已知场景一点Z 的深度值为r z ,则根据式子(3),)(0x f 和)(x f i 形成的立体视差)(i r d 为:

r

i i r z F B d =)( (11.10) 图像强度函数)(0x f 和)(x f i 在Z 点附近可以表示为:

)()()(00x n x f x f +=

)()()()(x n d x f x f i i r i +-= (11.11)

其中)(),(0x n x n i 服从正态分布),0(2n N σ。

在一定大小的窗口W 上,对立体视差变量为)(i d ,求立体图像对函数差值平方和(sum of squared difference, SSD):

∑∈++-+≡W

j i i i i j d x f j x f d x e 2)(0)())()((),( (11.12)

设z /1=ζ,则(11.10)改写为:

r i i r F B d ζ=)( (11.13)

ζF B d i i =)( (11.14)

上式中ζζ,r 分别是真实的和候选的场景点深度值的倒数.

用式(11.13)和(11.14)替换式(11.12)得:

∑∈++-+≡W

j i i i j F B x f j x f x e 20))()((),(ζζ (11.15)

将),(ζx e i 称为匹配评估函数.),(ζx e i 的期望值为:

222)))(()(()],([n

w W

j r i i N j f B x f j x f x e E σζζζ++-+-+≡∑∈ (11.16) 其中w N 是窗中内象素点的个数。

n 个摄像机形成1-n 个SSD 函数,将所有的SSD 函数相加(sum of SSD ,SSSD)形成了总的评估函数:

142

∑=-=n

i i n x e x e 11,...,2,1),(),(ζζ (11.17)

其期望值为

∑∑∑-=∈-=-++-+-+==112211

1,...,2,12)))(()(()]

,([)],([n i n

w W j r i n i i n nN j F B x f j x f x e E x e E σζζζζ (11.18)

下面讨论将评估函数表示成深度值倒数函数是如何消除多义性的.设强度函数)(x f 在x 和a x +处周围具有相同的模式,即

W j j a x f j x f ∈++=+)()( (11.19)

则根据式(11.16),有

22)](,([)],([n w i r i r i N F

B a x e E x e E σζζ=+= (11.20) 由上式可见,在r ζ和)(F B a i r f +=ζζ处都将得到评估函数的最小值,因此产生多义性.但注意一个事实,假的匹配深度值的倒数f ζ随着基线变化而变化,而真的匹配深度值的倒数r ζ则与基线长度无关,这样累加多个基线评估函数,则会得到唯一的最小值. 比如有两个基线的长度分别为21,B B (21B B ≠),则有:

22221

2,14)))(()(()))(()(()],([n w W j r W

j r N j F B x f j x f j F B x f j x f x e E σ

ζζζζζ++-+-+++-+-+=∑∑∈∈ (11.21)

可以证明: )],([4)],([2,122,1r n w x e E N x e E ζσζ=≥ (11.22)

也就是说,),(2,1ζx e 在r ζ处具有极小值.图11.6是一个验证SSSD 的简单例子,其中的原函数为

其它

12412)4cos()(<<-??

???+=x x x f π

图11.6 不同评估函数的曲线,

多基线立体视觉可以有效地消除一般场景纹理和重复纹理的对应多义性,但仍然无法求

143

解弱纹理和无纹理物体对应点.图11.8是兵马俑模型的立体图像对,除了少部分特征外,其它部位都无法作为特征来求解对应点.为了恢复兵马俑的稠密深度图像,可以采用专用光源向场景投影条纹模式[Kang 1995],如图11.8所示,每一个条纹的强度变化服从正弦分布.这样做的效果相当于无纹理的模型上有了条纹特征,由此实现对应的特征点共轭对的求解.

图11.7 用三个摄象机获取的兵马俑石膏模型多立体图像对

图11.8 主动式条纹光源照射下的多立体图像对

图11.9 基于基本约束恢复的秦俑头像的深度图像

11.4 从X恢复形状的方法

除了上述讨论的立体图像匹配方法外,从灰度图像中提取形状信息的许多其它方法,统

144

145

称为由X 恢复形状方法,也得到了大力地发展.不过许多方法只用来估计一点的局部表面方位而不是绝对深度.如果物体上至少有一个点的实际深度是已知的,那么同一目标上其它点的深度值可以通过对局部表面方向求积分得到.因此,这类方法称为间接深度计算方法.这里我们将简要地介绍一些方法,更祥细的阐述参见在其它章节.

(1) 光度立体

在光度立体方法中,使用不同方向上的三个光源来获取同一场景的三幅图像.在三幅图像的获取过程中,要求场景中的摄象机和目标静止不动.知道了场景中物体的表面反射特性,就可以计算由这三个光源照明的所有点的局部表面方位.这种方法的详细描述见第9章.光照立体方法的重要优点之一是三幅图像中的点是完全套准的,这是因为摄象机和场景是固定不变的.因此,这种方法不存在对应性问题.这种方法的最大缺点就是它是一种简接的方法,也可能由于照明无法得到精细控制而不能用于实际的成象系统.

(2) 由明暗恢复形状

由明暗恢复形状的方法主要使用图像灰度(阴影〕变化来恢复物体形状的信息.这一过程是通过计算图像中每个点(,)''x y 对应的场景表面方位来实现的.除了由辐射测量原理产生的约束之外,阴影恢复形状的方法还假设了表面是光滑的,以便于计算表面方位参数.这种方法在第9 章中已经详细介绍过了.很明显,阴影恢复形状方法是一种间接的深度计算方法.进一步的说,光滑度约束在所有点都不能满足,表面反射特性也不总是知道的很精确,从而导致了不精确的形状重建.

(3) 由纹理恢复形状

图像的纹理特性变化,如密度、尺寸、和方位,都是建立纹理恢复形状的算法的基础.例如,被定义为纹理元素基元尺寸的最大变化方向和幅值的纹理梯度,决定了表面方位.量化纹理元素的形状(如圆显现为椭圆〕的变化对确定表面的方向十分有用.构成规则网格纹理结构的表面图像(很可能是由于结构光照射的结果)可以通过寻找投影点(透视画中平行线条的会聚点)唯一地确定方位.由纹理恢复形状方法除了是一种间接的深度计算方法外,还存在精确定位和量化纹理基元及其特性的困难.由纹理恢复形状方法在第7 章中已经进行了介绍.

(4) 由运动恢复形状

使用一个运动摄象机获取静止场景的图像时,场景点的图像平面坐标从一幅图像到另一幅图像的位移取决于场景点到摄象机的距离.这十分类似于前几节描述的立体成象方法.与之相对应的方法是使用一个静止摄象机获取运动物体的图像序列,从而在图像序列中产生运动视差.这样的视差取决于物体表面点的位置和速度.恢复物体结构和运动参数的方法将在14章祥细介绍.

11.5 测距成象

能够直接测量可视范围内每个点的距离,并将其记录为一个二维函数的系统称为测距成象系统,得到的图像称为距离图像或深度图.图11.11 所示的就是通过激光三角测距得到的一个深度图的例子.

最常用的测距成象方法有结构光测距和雷达.结构光测距成象系统使用三角测量原理来计算深度,而成象雷达系统则是通过比较发射信号与接收信号的时延或相位等方法实现距离测量的。按发射信号的波长,雷达可分为声雷达、激光雷达、毫米波雷达等。若按工作体制可分为脉冲飞行时间法,相位差或差频,测距仪来计算深度图.

146

图11.10 一个牙齿石膏模型的深度图(北京医科大学口腔医院吕培军博士提供)

11.5.1 结构光测距

使用结构光照明的成象系统是指场景是由已知几何模式的照射光源照明的.在一个简单的点投影系统中,投影光源仪和摄象机之间相距一个基线距离b ,如图11.11所示.物体坐标(,,)x y z 与被测量的图像坐标(,)''x y 和投影角θ之间的关系如下:

],,[cos ],,[F y x x F b z y x '''

-=θ (11.23) 这样一个三角测量系统的距离分辨率可由投影角θ和图像点水平位置'x 的测量精度确定.

图11.11 以摄象机为中心的三角测量几何[Besl 1988]

为了计算所有点的深度,可使用二维网格照明模式照明场景,一次只照明一个点.然后

147

使用上述方程计算该点的深度,由此得到二维距离图像.显然,由于这种方法获取数据的序列特性,其计算速度很慢,不适用于动态变化的场景中.一个典型的结构光照明系统将光平面或者二维网格模式投影到场景中,与光源相隔一定距离的摄像机获取投影到场景中物体表面的光照模式.所观测到的光照模式图像含有变形,该变形由光照模式和物体表面的形状和方向决定,如图11.13所示.注意,摄象机看到的网格包含了在方向和曲率上的不连续和变化.对应于图像平面中的任意点的三维物体坐标可以通过计算摄象机视线和光照平面的交点来确定.为了得到物体完整的描述,或者摇摆光源(如图所示),或者目标在一传送带上运动,以获取多幅图像.物体上的不同表面可以通过对相似空间属性的光条的聚类来探测.

图11.12 结构光测距原理示意图[Jarvis 1983]

在动态变化场合下,依次向场景投射光带来获取覆盖整个场景的完整深度图像是不太实际的.如果为了获取完整的深度图像而将多条光带同时投影到场景中,则在匹配不同深度物体表面的光带时会产生潜在的混淆.在这种情况中,所投影的每条光带必须具有唯一性的编码.例如,用二进制编码方案,有可能只需投影log 2N 个模式就可以获取完整的深度数据集合,其中()N -1是光带的总数.这种方法示意在图11.14中,其中N =8.

使用从()001到()111二进制码可以给七条光带中的每一条光带赋予唯一的编码.因为log 28等于3 ,所以仅能获取三幅图像.每幅图像可以通过三位二进制编码中比特(bit)位置1,2或3来确定的.在图像中某一特定光带,如果其对应的比特位为1,它就处于开的状态ON .例如,光带2(010〕只有在第二幅图像中才是ON ,但光带7(111〕在所有三幅图像中都是ON .在所有三幅图像中的光带都被唯一地确定,因此在匹配光带段时,不会产生混淆.在快速运动场景中,使用单色编码图像来取代多个二进值编码图像.

结构光照明技术已经广泛地用于工业视觉,因为在这种应用中可以很容易地控制场景照明.一个典型的应用是放在传送带上的运动物体经过一个光束平面,在光带图像中产生变形,然后计算光束平面上物体的轮廓.以规则间隔重复上述过程即可恢复物体的形状.

结构光照明技术的主要缺点是无法获取摄象机或光源看不到的物体点的数据.

图11.13 二进制编码结构光照示意图,这里的投影序列决定了每条光带的二进制编码11.5.2 激光测距雷达

在生物界,蝙蝠和海豚是通过接收自己发出的超声波来确定其周围物体的存在.根据生物的这种感知距离的能力,人类发明了各种测距系统,称之为雷达,即向空间发射信号,然后接收反射信号并与发射信号进行比较,以确定目标的距离和方位.激光测距(laser range finder)是在二十世纪60年代发展起来的一种新型测距雷达,现在已经进入实用化阶段.激光雷达具有波束窄、波长短等独特优点,因而具有极高的角分辨能力、距离分辨能力和速度分辨能力。激光雷达可以获取目标的多种信息,如反射特性、距离信息、速度信息等.在机器视觉领域,一般需要探测目标的细节及其精确的位置和方位,而声波甚至是电磁波都无法达到这一要求,只能使用波长很短的激光测距雷达.激光测距的主要问题是技术实现难度较大.

下面介绍三种工作体制的测距原理:脉冲飞行时间测距、相位差测距和差频测距.

(1)脉冲飞行时间测距

我们知道,声波和光波信号在空气介质中传播的速度是一定的,如果知道它们在空间中的传播时间,则可以计算波形在空气中的传播距离.人们将这种直接通过测量波形(或脉冲)飞行时间来计算距离的方法称为飞行时间法(time of flight).激光脉冲测距雷达就属于这类测距系统.激光脉冲测距雷达向空间发射激光脉冲信号,并接收由于碰到物体表面而反射回

148

149

来的信号,然后测量发射和接收脉冲的时间差,就可以得到空间物体的距离.

图11.15是一种典型的激光脉冲测距雷达原理框图,是1977年加洲理工大学喷推实验室研制的[Lewis 1977].激光源是砷化镓固体脉冲激光器,波长为nm 840.激光源发出脉冲激光束,经光学校准系统到达光学扫描镜,对预定的空间进行扫描;光学扫描镜还对反射光同轴地接收,以保证测量的一致性.反射光经光电探测器转换进入脉冲前沿甄别电路,产生一个独立于信号强度的到达时间脉冲.发射参考脉冲与到达时间脉冲之间的时间间隔通过时间-脉冲高度转换器转换成具有一定宽度(s μ2),其高度正比与时间间隔的脉冲信号.为了提高测量精度,可以对多次测量的高度值取均值.这种激光测距雷达在1-3米的测量范围内,测距精度为2厘米.获取128128?图像需要3分钟.尽管上述的飞行时间测距原理十分简单,但要构造一个实用的系统比较困难,主要原因是测距系统的工作频率必须很高,才能得到较满意的距离图像,比如,为了得到测距精度为cm 5.0±,则时间间隔的测量精度误差应小于ps 30±(s ps 12101-=),要达到这样高的精度,只有采用原子物理仪器中的精密测量仪,如用于γ射线的测量的Anticompton 分光计.

图 11.14 脉冲飞行时间激光测距原理图

(2) 相位差测距

相位差测距属于连续波雷达。深度信息可以通过检测调幅光波发射和接收的相位差来得到,这种原理的激光雷达的早期样机是美国Stanford 研究所研制的[Nitzan 1977],图11.16是这种激光雷达原理框图.使用15mw 氦氖激光器发出的激光的幅度被调制,调制频率为9MHz ,调制光经过平面镜分成两路,一路经过光学扫描装置向三维空间扫描,另一路进入相位差检测装置与经过物体反射后接收的光信号比较相位,如,调制频率为m f ,相位差为φ,则物体到传感器的距离为:

φπ

λφπ44m m f c d == (11.24) 式中c 为光速,m λ为波长。由于相位差检测只能测量0-π2的相位差,因此这种类型的激光测距雷达的测距范围为2

2m m f c D λ==。当测量距离超过D 的整数N 倍时,测量出的相位差是不变的,此时,式(11.24)变为:

m m f c N f c d 24+=φπ (11.25) 也就是说,这种激光测距雷达具有多义性,消除多义性的方法有两种,一是事先知道待测距离的大致范围,二是使用多台具有不同调制频率的激光测距雷达。

150

图11.15 (3)差频测距 差频测距也属于连续波雷达。当发射信号的频率在一个周期m f 1内线性地扫过)2/,2/(v v v v ?+?-区间,回波信号将在接收机与参考信号相混频产生一个差频b f ,该差频与目标距离的关系为:

v

f cf d m b ?=

4 (11.26) 11.5.3 变焦测距

根据理想薄透镜定理,透镜中心(光学原点)到图象平面的距离 'z 、透镜中心到场景点的距离z 和透镜焦距长度f 之间的关系为:

f

z z 111=-+' (11.27) 当∞→-z ,从图象平面到光学原点的距离'z 等于焦距长度f 。当平行光线聚焦到图象平面上一点时,焦距长度是图象平面到光学原点的距离。在摄影测量学(Photogrammetry)中,光学原点称为投影中心,'z 称为摄像机常数。当透镜聚焦近距离点时,f z >',因此使用f 作为'z 的近似实际上是低估了摄像机常数。当场景远点越远时,聚焦平面到光学原点的距离'z 越接近f 。如图11.17是理想透镜成象几何示意图.

151

图11.16薄透镜几何关系

对于图象平面到透镜中心的距离为'z 的特定配置中,仅仅由方程11.27得到的在距离z 处平面上的点是完全聚焦的。实际上,景深是由成象装置的空间分辨率决定的。低于成象分辨率的一定量散射可以容忍。在可接受散射水平下,存在一个图象平面距离'z 的范围,以及一个对应的场景距离z 范围,称为景深,其中的场景点在某一接受的程度上完全聚焦。

当某一场景点不聚焦时,它会在图象平面上产生一个圆斑图象,而不是一个点图像。如果圆斑的直径低于成象装置的分辨率,那么图象散焦量不会特别的显著。假定圆斑的直径为b ,透镜光圈直径为d ,焦距长度为f ,图象平面的理想位置为'z 。如果图象平面向透镜方

向运动到达'z 1位置,即z z '<'1

则图象的模糊程度由下式确定: z z z d b '

'-'=)(1 (11.28) 根据相似三角形性质,b /2和'-'z z 1的比值必须等于d /2和'z 的比值。我们可以从透镜方

程(11.27)中求解z '和1

z ',分别对应于z 和'z ,并把这一表示式代入式(11.28)得到场景距离与模糊量关系的表示式

)

()(11z f z z z df b +-= (11.29) 假定b 是可接受散焦下模糊圆环的最大直径。解方程11.29求得z 1, 可以得到视野范围内远距离平面的距离表示式

z fz d b df bz

1=-+() (11.30) 计算视野范围内近距离平面的距离表示式为

b d z z z ='-''

()2 (11.31) 其中,'z 是图象平面距离配置(在正确配置范围之外),它对应于模糊的最大量。请读者在图11.17中指出图像平面位于2z '的的位置。解透镜方程求z 和'z 并代入到方程求模糊直径: )

()(22z f z z z df b +-=

(11.32) 解上述方程求平面距离

152 z fz d b df bz

2=

+-() (11.33) 景深D 是近距离和远距离平面之差: 2

222)(2z b f d z f bdfz D -+= (11.34) 对于一个特定的配置,焦距平面为z ,光圈直径为d ,焦距长为f ,最大可接受模糊直径为b ,这些方程提供了近距离和远距离平面位置。距离b df z /-=称为超焦距距离,在此处,远距离平(见(11.30)式)和场景深度(见(11.34)式)变成无穷大。

关于变焦测距以及从变焦恢复形状文献有[Pentland 1987, Nayer 1994, Krotkov 1987, Grossmann, 1987].

11.5.4 激光阵列成像

目前,结构光测距系统技术和激光测距技术已经在物体建模和三维机器视觉导航方面获得相当成功的应用,并且已经有商品化的系统。基于变焦测距技术的视觉系统,由于其测距误差一般较大,因此一直没有很好的应用系统。对于立体视觉系统,由于系统的固有不适定问题,发展十分缓慢。作为应用系统,最重要的指标是可靠性高,适应环境能力强。视觉系统的最主要应用场合是恶劣的环境,如,战场环境,太空环境,海洋环境等,这些环境具有高冲击( 比如火箭发射过程),剧烈振动等特点。对于有运动部件或扫描部件的主动测距成像系统和主动视觉系统,在这样恶劣环境下工作的生存能力很低。为此,美国科学家研制出全固态(无扫描部件)的激光阵列成像雷达Sandia 样机 ,并正在实施应用。

激光阵列成像雷达能以很高的速率获取场景的稠密深度图,该系统使用大功率激光二极管阵列向场景发射激光,测量来自目标的相对于调幅载波相的反射光相移,以便计算到目标的距离。接收器里的图像增强器的增益被和发送器同样的频率调制。到达CCD 的光与返回信号的相位和它的强度无关,而与目标的反射率有关。为了规范化反射率的变化,返回波速的强度被采样两次,一次是接收器调制增益作用,另一次是接收器调制增益不作用。这样,与每一个象素相联系的距离基本上同时在场景中测量。尽管这一系统具有能快速提供高精度的深度估计值的优点,该系统使用了许多元件,规模很大,功耗大,要想用于实际系统,必须做进一步的工作。

11.6 主动视觉

大多数计算机视觉系统都依赖于由固定参数的系统来获取数据,包括所有的被动敏感系统(如视频摄象机)和主动敏感系统(如激光测距仪).与这些数据提取方法不同,我们认为主动视觉系统的数据获取特性和参数可以由场景解释系统动态地控制,是感知系统中至关重要的部分.主动视觉不是一个新概念.生理系统通常是以主动方式获取数据的.主动视觉系统既可以用主动传感器也可以用被动传感器.然而,在一个主动视觉系统中,传感器的状态参数如焦距、光圈、聚散度以及照度都可以控制,以获取有利于场景解释的数据.主动视觉是一个基本智能数据获取过程,这一过程由场景测量和计算的参数与误差来控制.精确定义这些场景和内容相关参数不仅需要全面理解成象和处理系统的特性,也需要全面理解相互依赖关系.

在文献[Jain 1990]中详细地介绍了距离图像传感、处理、解释以及应用.Besl[Besl 1988]给出了获取距离图像的各种方法,并比较了它们之间的优缺点.[Jarvis 1983]早期的一个综述报告不仅包括直接距离测量方法,还包括由二维图像特征信息计算距离的有关问题.Boyer 和Kak[Boyer 1987]介绍了一种采用彩色编码从一幅图像中提取距离信息的方法.Will 和Pennington 的经典论文[Will 1972]讨论了用网格编码和富里叶域处理技术,以确定场景中不同二维表面的位置.

Bajcsy在文献[Bajcsy 1988]提出主动视觉系统倾向于主动感知系统和控制策略方法.[Krotkov 1987]介绍了一个立体图像获取系统,该系统可以主动地控制焦距、缩放、光圈以及照明,以获取深度图.Aloimonos等人[Aloimonos 1988]介绍了主动视觉系统可以完成各种视觉任务的的优点,如从图像恢复物体形状.Ahuja和Abbot[Ahuja 1993]将用于表面估计的视差、摄象机以及镜头聚焦集成到主动视觉系统中.

思考题

11.1使用一个测距摄象机获取一个边缘长为10厘米的正方体图像.摄象机轴线穿过立方体

的两个相对顶点,其中最近的顶点距摄象机中心的距离为10厘米.摄象机所记录的灰度为1000/d,d表示沿摄象机轴到图像平面的距离(不是欧几里德距离).请描绘通过摄象机获取的距离图像并计算由摄象机得到的立方体顶点灰度.

11.2推导出图11.2所示的视差为0的表面方程式.

11.3试阐述多基线立体视觉消除多义性对应点的基本思想。

11.4比较结构光测距、激光雷达测距和变焦测距的优缺点。

计算机练习题

11.1 用两个摄象机步获取同一个场景的立体图像对,或用一个摄象机在不同的位置获取同

一个场景的立体图像对。请编制一个程序来完成如下工作:

(1)对第一幅图像进行边缘检测,然后使用图像强度相关性算法在第二幅图像中找到对应的边缘。

(2)使用与第一幅图像相同的边缘检测器对第二幅图像进行边缘检测,比较边缘检测器输出的边缘图和通过相关性算法得到的对应边缘图。能否编制一个程序将图像

边缘检测和相关性方法结合起来来找出对应的边缘图。

(3)请输出立体图像对的视差图。

153

远心镜头的原理、应用范围及其选型

工业镜头是机器视觉采集系统的重要组成部分,远心镜头是镜头大家族中相对年轻的成员,并且正以其独特的性能,成为最善良的明星。但是,也因为远心镜头被引入时间比较短,其很多特性还未广泛的为人们所熟知,本文即是本着向大家介绍远心镜头基础知识的原则,从远心镜头的原理,应用范围,选型方法三个方面,对其进行综合阐述,揭秘光在远心系统里经历的神秘的艺术之旅。 第一部分:远心镜头的原理说明 首先,我们从非远心镜头的几个问题说起。第一个问题,一般镜头在成像过程中,当工作距离发生变化时,其所成图像大小会相应的发生变化,造成的结果就是同一个焦距的镜头,对应不同的物距,将会有不同的放大倍率,这一现象跟人类视觉系统的近大远小视觉差类似。这一问题在某些应用场合是可以被忽略甚至加以利用的,但是当我们的视觉系统被用来执行精密测量任务时,这一特性则会成为极大的阻碍。第二个问题,普通的镜头都存在一定范围的景深,当被测物体不在镜头的景深范围内时,图像就会变得模糊,无法清晰聚焦,为此,设计师们在普通镜头上设计了调焦环,当工作距离发生变化时,可以通过调节对焦面来看清楚感兴趣的区域。问题是,如果被测物体本身的深度超出了一定范围,镜头始终没办法同时看清首尾两端,这个问题,必须通过其他的途径来解决。第三个问题,随着现在成像芯片分辨率的不断提高,用户对测量精度的要求也越来越苛刻,普通的镜头受制于其光学成像的原理,最好的也只能做到10um左右,视觉检测领域需要精度更高的成像产品。 双远心镜头即是为了解决这些问题应运而生的。双远心镜头通过在光学系统的中间位置放置孔径光阑,使主光线一定通过孔径中心点,则物体侧和成像侧的主光线一定平行于光轴进入镜头。入射平行光保证了足够大的景深范围,从镜头出来的平行光则保证了即是工作距离在景深范围内发生大幅度变化,成像的高度也就是放大倍率不会发生变化。 第二部分:远心镜头使用范围 什么情况下应该选用远心镜头呢?根据笔者多年从事机器视觉产品选型的经验,再次给读者一些参考,如下情况,建议选用双远心镜头。 1)当被检测物体厚度较大,需要检测不止一个平面时,典型应用如食品盒,饮料瓶等。 2)当被测物体的摆放位置不确定,可能跟镜头成一定角度时。 3)当被测物体在被检测过程中上下跳动,如生产线上下震动导致工作距离发生变化时。 4)当被测物体带孔径、或是三维立体物体时。

机器视觉入门知识详解

机器视觉入门知识详解 随着工业4.0时代的到来,机器视觉在智能制造业领域的作用越来越重要,为了能让更多用户获取机器视觉的相关基础知识,包括机器视觉技术是如何工作的、它为什么是实现流程自动化和质量改进的正确选择等。小编为你准备了这篇机器视觉入门学习资料。 机器视觉是一门学科技术,广泛应用于生产制造检测等工业领域,用来保证产品质量,控制生产流程,感知环境等。机器视觉系统是将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。 机器视觉优势:机器视觉系统具有高效率、高度自动化的特点,可以实现很高的分辨率精度与速度。机器视觉系统与被检测对象无接触,安全可靠。人工检测与机器视觉自动检测的主要区别有:

为了更好地理解机器视觉,下面,我们来介绍在具体应用中的几种案例。 啤酒厂采用的填充液位检测系统为例来进行说明: 当每个啤酒瓶移动经过检测传感器时,检测传感器将会触发视觉系统发出频闪光,拍下啤酒瓶的照片。采集到啤酒瓶的图像并将图像保存到内存后,视觉软件将会处理或分析该图像,并根据啤酒瓶的实际填充液位发出通过-未通过响应。如果视觉系统检测到一个啤酒瓶未填充到位,即未通过检测,视觉系统将会向转向器发出信号,将该啤酒瓶从生产线上剔除。操作员可以在显示屏上查看被剔除的啤酒 瓶和持续的流程统计数据。

机器人视觉引导玩偶定位应用: 现场有两个振动盘,振动盘1作用是把玩偶振动到振动盘2中,振动盘2作用是把玩偶从反面振动为正面。该应用采用了深圳视觉龙公司VD200视觉定位系统,该系统通过判断玩偶正反面,把玩偶处于正面的坐标值通过串口发送给机器人,机器人收到坐标后运动抓取产品,当振动盘中有很多玩偶处于反面时,VD200视觉定位系统需判断反面玩偶数量,当反面玩偶数量过多时,VD200视觉系统发送指令给振动盘2把反面玩偶振成正面。 该定位系统通过玩偶表面的小孔来判断玩偶是否处于正面,计算出玩偶中心点坐标,发送给机器人。通过VD200视觉定位系统实现自动上料,大大减少人工成本,大幅提高生产效率。 视觉检测在电子元件的应用:

机器视觉选型计算概述

机器视觉硬件选型计算概述 V1.0

目录 1相机 (4) 1.1相机光谱类型 (4) 1.2相机像素值 (5) 1.3图像帧速率和快门速度 (6) 1.3.1断续送料的应用 (6) 1.3.2连续送料的应用 (7) 1.4图像数据传输 (7) 1.4.1模拟传输方式 (8) 1.4.2数字传输方式 (8) 1.5其他要点 (9) 1.5.1像素深度 (9) 1.5.2传感器尺寸 (9) 1.5.3像元尺寸 (10) 1.5.4CCD&CMOS (10) 2镜头 (10) 2.1靶面尺寸 (11) 2.1.1面阵相机镜头 (11) 2.1.2线阵相机镜头 (11) 2.2焦距 (11) 2.3镜头分辨率 (12) 2.4接口类型 (13) 2.5工作距离 (14) 2.6镜头其他参数 (14)

2.6.1景深 (14) 2.6.2工作波长 (14) 2.6.3畸变 (15) 3光源 (16) 3.1光源类型 (16) 3.2光源照射方向性 (17) 3.2.1反射类型 (17) 3.2.2照射角度 (17) 3.3光源光谱 (23) 3.3.1光源颜色 (23) 3.3.2光源波长特性 (24) 3.3.3几种光源光谱使用情况汇总对比 (25) 3.4光源亮度调整 (26) 4其他 (27) 4.1各种滤镜/选配件 (27) 4.1.1偏光镜 (27) 4.1.2锐波滤镜 (28) 4.1.3保护镜 (28)

机器视觉硬件选型计算概述V1.0本资料主要包括相机、镜头和光源的选型计算概述。 1相机 相机选型主要参数包括:相机光谱类型、相机像素值、图像帧速率和快门速度、像素深度、传感器尺寸、像元尺寸。 1.1相机光谱类型 相机光谱类型即相机色彩类型主要分为彩色相机和黑白相机。在处理图像时,彩色照相机使用的是色调(颜色)数据,而黑白照相机使用的是强度(亮度)数据。首先要强调目前市场上同等分辨率的彩色相机和黑白相机价格差异不大,但是同等条件下仍然优选黑白相机(特别是涉及尺寸测量),主要原因如下: 1、在图像边缘检测算法中一般实现先将彩色图片转换为黑白 图片然后根据像素之间像素值差异实现边缘检测。在数据 转换中会存在像素信息的丢失。 2、黑白相机本身像素的准确度要优于彩色相机。 3、黑白相机的处理速度要更快,而且软件上可省略彩色转黑 白的时间,因此系统整体的响应时间更短。 但是在色彩信息可以作为识别区分要素的时候,需要选用彩色相机。如下图1所示为金色螺钉识别案例,需要通过色彩区分金色和银色。

机器视觉基本介绍

机器视觉基本概念 2018.1.29 机器视觉系统 作用:利用机器代替人眼来做各种测量和判断。 它是计算机学科的一个重要分支,它综合了光学、机械、电子、计算机软硬件等方面的技术,涉及到计算机、图像处理、模式识别、人工智能、信号处理、光机电一体化等多个领域。 机器视觉系统的特点:是提高生产的柔性和自动化程度。在一些不适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,常用机器视觉来替代人工视觉;同时在大批量工业生产过程中,用人工视觉检查产品质量效率低且精度不高,用机器视觉检测方法可以大大提高生产效率和生产的自动化程度。而且机器视觉易于实现信息集成,是实现计算机集成制造的基础技术。可以在最快的生产线上对产品进行测量、引导、检测、和识别,并能保质保量的完成生产任务 视觉检测:指通过机器视觉产品(即图像摄取装置,分CMOS 和CCD 两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。是用于生产、装配或包装的有价值的机制。它在检测缺陷和防止缺陷产品被配送到消费者的功能方面具有不可估量的价值。 照明 照明是影响机器视觉系统输入的重要因素,它直接影响输入数据的质量和应用效果。由于没有通用的机器视觉照明设备,所以针对每个特定的应用实例,要选择相应的照明装置,以达到最佳效果。 光源可分为可见光和不可见光。常用的几种可见光源是白帜灯、日光灯、水银灯和钠光灯。可见光的缺点是光能不能保持稳定。如何使光能在一定的程度上保持稳定,是实用化过程中急需要解决的问题。另一方面,环境光有可能影响图像的质量,所以可采用加防护屏的方法来减少环境光的影响。 照明系统按其照射方法可分为:背向照明、前向照明、结构光和频闪光照明等。其中,背向照明是被测物放在光源和摄像机之间,它的优点是能获得高对比度的图像。前向照明是光源和摄像机位于被测物的同侧,这种方式便于安装。结构光照明是将光栅或线光源等投射到被测物上,根据它们产生的畸变,解调出被测物的三维信息。频闪光照明是将高频率的光脉冲照射到物体上,摄像机拍摄要求与光源同步。 镜头 FOV(Field of Vision)=所需分辨率*亚象素*相机尺寸/PRTM(零件测量公差比) 镜头选择应注意: ①焦距②目标高度③影像高度④放大倍数⑤影像至目标的距离⑥中心点/节点⑦畸变

机器视觉应用有哪些 浅谈机器视觉软件的介绍与选择

机器视觉应用有哪些浅谈机器视觉软件的介绍与选择 本文主要是关于机器视觉的相关介绍,并着重对机器视觉的应用场景进行了详尽的阐述。 机器视觉机器视觉是人工智能正在快速发展的一个分支。简单说来,机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是通过机器视觉产品(即图像摄取装置,分CMOS 和CCD两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,得到被摄目标的形态信息,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。 机器视觉是一项综合技术,包括图像处理、机械工程技术、控制、电光源照明、光学成像、传感器、模拟与数字视频技术、计算机软硬件技术(图像增强和分析算法、图像卡、I/O 卡等)。一个典型的机器视觉应用系统包括图像捕捉、光源系统、图像数字化模块、数字图像处理模块、智能判断决策模块和机械控制执行模块。[2]机器视觉系统最基本的特点就是提高生产的灵活性和自动化程度。在一些不适于人工作业的危险工作环境或者人工视觉难以满足要求的场合,常用机器视觉来替代人工视觉。同时,在大批量重复性工业生产过程中,用机器视觉检测方法可以大大提高生产的效率和自动化程度。 一个典型的工业机器视觉系统包括:光源、镜头(定焦镜头、变倍镜头、远心镜头、显微镜头)、相机(包括CCD相机和COMS相机)、图像处理单元(或图像捕获卡)、图像处理软件、监视器、通讯/ 输入输出单元等。 系统可再分为 一、采集和分析分开的系统。 主端电脑(Host Computer) 影像撷取卡(Frame Grabber)与影像处理器 影像摄影机 定焦镜头镜头 显微镜头

工业相机镜头地全参数与选型

工业相机镜头地全参 数与选型 Revised on November 25, 2020

工业相机镜头的参数与选型 一、镜头主要参数 1.焦距(Focal Length) 焦距是从镜头的中心点到胶平面上所形成的清晰影像之间的距离。焦距的大小决定着视角的大小,焦距数值小,视角大,所观察的范围也大;焦距数值大,视角小,观察范围小。根据焦距能否调节,可分为定焦镜头和变焦镜头两大类。 2.光圈(Iris) 用F表示,以镜头焦距f和通光孔径D的比值来衡量。每个镜头上都标有最大F值,例如8mm /代表最大孔径为毫米。F 值越小,光圈越大,F值越大,光圈越小。 3.对应最大CCD尺寸(Sensor Size) 镜头成像直径可覆盖的最大CCD芯片尺寸。主要有:1/2″、 2/3″、1″和1″以上。 4.接口(Mount) 镜头与相机的连接方式。常用的包括C、CS、F、V、T2、Leica、M42x1、等。 5.景深(Depth of Field,DOF) 景深是指在被摄物体聚焦清楚后,在物体前后一定距离内,其影像仍然清晰的范围。景深随镜头的光圈值、焦距、拍摄距离而变化。光圈越大,景深越小;光圈越小、景深越大。焦距越长,景深

越小;焦距越短,景深越大。距离拍摄体越近时,景深越小;距离拍摄体越远时,景深越大。 6.分辨率(Resolution) 分辨率代表镜头记录物体细节的能力,以每毫米里面能够分辨黑白对线的数量为计量单位:“线对/毫米”(lp/mm)。分辨率越高的镜头成像越清晰。 7、工作距离(Working distance,WD) 镜头第一个工作面到被测物体的距离。 8、视野范围(Field of View,FOV) 相机实际拍到区域的尺寸。 9、光学放大倍数(Magnification,) CCD/FOV,即芯片尺寸除以视野范围。 10、数值孔径(Numerical Aperture,NA) 数值孔径等于由物体与物镜间媒质的折射率n与物镜孔径角的一半(a\2)的正弦值的乘积,计算公式为=n*sin a/2。数值孔径与其它光学参数有着密切的关系,它与分辨率成正比,与放大率成正比。也就是说数值孔径,直接决定了镜头分辨率,数值孔径越大,分辨率越高,否则反之。 11、后背焦(Flange distance) 准确来说,后倍焦是相机的一个参数,指相机接口平面到芯片的距离。但在线扫描镜头或者大面阵相机的镜头选型时,后倍焦是

机器视觉系统中镜头的选用技巧

热点论坛 Column 专栏 29 2006年2月刊 自动化博览 Selection Technique of Lens in Machine Vision System 1 概述 光学镜头一般称为摄像镜头或摄影镜头,简称镜头,其功能就是光学成像。镜头是机器视觉系统中的重要组件,对成像质量有着关键性的作用,它对成像质量的几个最主要指标都有影响,包括:分辨率、对比度、景深及各种像差。镜头不仅种类繁多,而且质量差异也非常大,但一般用户在进行系统设计时往往对镜头的选择重视不够,导致不能得到理想的图像,甚至导致系统开发失败。本文的目的是通过对各种常见镜头的分类及主要参数介绍,总结各种因素之间的相互关系,使读者掌握机器视觉系统中镜头的选用技巧。 2 机器视觉系统中常用镜头的分类 (1) 根据有效像场的大小划分 把摄影镜头安装在一很大的伸缩暗箱前端,并在该暗箱后端安装一块很大的磨砂玻璃,当将镜头光圈开至最大,并对准无限远景物调焦时,在磨砂玻璃上呈现出的影像均位于一圆形面积内,而圆形外则漆黑、无影像。此有影像的圆形面积称为该镜头的最大像场。在这个最大像场范围的中心部位,有一能使无限远处的景物结成清晰影像的区域,这个区域称为清晰像场。照相机或摄影机的靶面一般都位于清晰像场之内,这一限定范围称为有效像场。由于视觉系统中所用的摄像机的靶面尺寸有各种型号,所以在选择镜头时一定要注意镜头的有效像场应该大于或等于摄像机的靶面尺寸,否则成像的边角部分会模糊甚至没有影像。 根据有效像场的大小分类见表1。 表1 分类 (2) 根据焦距分类 根据焦距能否调节,可分为定焦距镜头和变焦距镜头两大类。依据焦距的长短,定焦距镜头又可分为鱼眼镜头、短焦镜头、标准镜头、长焦镜头、超长焦五大类。需要注意的是焦距的长短划分并不是以焦距的绝对值为首要标准,而是以像角的大小为主要区分依据,所以当靶面的大小不等时,其标准镜头的焦距大小也不同。变焦镜头上都有变焦环,调节该环可以使镜头的焦距值在预定范围内灵活改变。变焦距镜头最长焦距值和最短焦距值的比值称为该镜头的变焦倍率。变焦镜头有可分为手动变焦和电动变焦两大类。 变焦镜头由于具有可连续改变焦距值的特点,在需要经常改变摄影视场的情况下非常方便使用,所以在摄影领域应用非常广泛。但由于变焦距镜头的透镜片数多、结构复杂,所以最大相对孔径不能做得太大,致使图像亮度较低、图像质量变差,同时在设计中也很难针对各种焦距、各种调焦距离做像差校正,所以其成像质量无法和同档次的定焦距镜头相比。 实际中常用的镜头的焦距是从4毫米到1000毫米的范围内有很多的等级,如何选择合适焦距的镜头是在机器视觉系统设计时要考虑的一个主要问题。光学镜头的成像规律可以根据两个基本成像公式即牛顿公式和高斯公式来推导,对于机器视觉系统的常见设计模型,一般是根据成像的放大率和物距这两个条件来选择合适焦距的镜头的,在此给出一组实用的计算公式: ? 放大率:m=h’/h=L’/L ;? 物距:L = f(1+1/m); 有效像场尺寸 3.2mm ×2.4mm (对角线4mm ) 4.8mm ×3.6mm (对角线6mm )6.4mm ×4.8mm (对角线8mm )8.8mm ×6.6mm (对角线11mm )12.8mm ×9.6mm (对角线16mm )21.95mm ×16mm (对角线27.16mm )10.05mm ×7.42mm (对角线12.49mm )36mm ×24mm 40mm ×40mm 80mm ×60mm 82mm ×56mm 240mm ×180mm 电视摄像镜头电影摄影镜头照相镜头 镜头类型 1/4英寸摄像镜头 1/3英寸摄像镜头1/2英寸摄像镜头2/3英寸摄像镜头1英寸摄像镜头 35mm 电影摄影镜头 16mm 电影摄影镜头135型摄影镜头127型摄影镜头120型摄影镜头中型摄影镜头大型摄影镜头 机器视觉系统 中镜头的选用技巧 王亚鹏(1972-) 男,河北安平人,现就职于中国大恒(集团)有限公司北京图像视觉技术分公司任副总工程师、开发部经理,研究方向为机器视觉、模式识别。 (中国大恒(集团)有限公司北京图像视觉技术分公司,北京 100080) 王亚鹏 机器视觉

机器视觉简介

机器视觉 机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是指通过机器视觉产品(即图像摄取装置,分CMOS和CCD两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。 发展折叠 如今,中国正成为世界机器视觉发展最活跃的地区之一,应用范围涵盖了工业、农业、医药、军事、航天、气象、天文、公安、交通、安全、科研等国民经济的各个行业。其重要原因是中国已经成为全球制造业的加工中心,高要求的零部件加工及其相应的先进生产线,使许多具有国际先进水平的机器视觉系统和应用经验也进入了中国。 经历过长期的蛰伏,2010年中国机器视觉市场迎来了爆发式增长。数据显示当年,中国机器视觉市场规模达到8.3亿元,同比增长48.2%,其中智能相机、软件、光源和板卡的增长幅度都达到了50%,工业相机和镜头也保持了40%以上的增幅,皆为2007年以来的最高水平。 2011年,中国机器视觉市场步入后增长调整期。相较2010年的高速增长,虽然增长率有所下降,但仍保持很高的水平。2011年中国机器视觉市场规模为10.8亿元,同比增长30.1%,增速同比2010年下降18.1个百分点,其中智能相机、工业相机、软件和板卡都保持了不低于30%的增速,光源也达到了28.6%的增长幅度,增幅远高于中国整体自动化市场的增长速度。电子制造行业仍然是拉动需求高速增长的主要因素。2011年机器视觉产品电子制造行业的市场规模为5.0亿人民币,增长35.1%。市份额达到了46.3%。电子制造、汽车、制药和包装机械占据了近70%的机器视觉市场份额。 概述折叠编辑本段 机器视觉(Machine vision) 机器视觉系统的特点是提高生产的柔性和自动化程度。在一些不视觉系统工作原理简图适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,常用机器视觉来替代人工视觉;

工业相机镜头的参数与选型

工业相机镜头的参数与选型 一、镜头主要参数 1.焦距(Focal Length) 焦距是从镜头的中心点到胶平面上所形成的清晰影像之间的距 离。焦距的大小决定着视角的大小,焦距数值小,视角大,所观察的范围也大;焦距数值大,视角小,观察范围小。根据焦距能否调节,可分为定焦镜头和变焦镜头两大类。 2.光圈(Iris) 用F表示,以镜头焦距f和通光孔径D的比值来衡量。每个镜头上都标有最大F值,例如8mm /F1.4代表最大孔径为 5.7毫米。F值越小,光圈越大,F值越大,光圈越小。 3.对应最大CCD尺寸(Sensor Size) 镜头成像直径可覆盖的最大CCD芯片尺寸。主要有:1/2″、 2/3″、1″和1″以上。 4.接口(Mount) 镜头与相机的连接方式。常用的包括C、CS、F、V、T2、Leica、M42x1、M75x0.75等。 5.景深(Depth of Field,DOF) 景深是指在被摄物体聚焦清楚后,在物体前后一定距离内,其影像仍然清晰的范围。景深随镜头的光圈值、焦距、拍摄距离而变化。 光圈越大,景深越小;光圈越小、景深越大。焦距越长,景深越小;

焦距越短,景深越大。距离拍摄体越近时,景深越小;距离拍摄体越远时,景深越大。 6.分辨率(Resolution) 分辨率代表镜头记录物体细节的能力,以每毫米里面能够分辨黑白对线的数量为计量单位:“线对/毫米”(lp/mm)。分辨率越高的镜头成像越清晰。 7、工作距离(Working distance,WD) 镜头第一个工作面到被测物体的距离。 8、视野范围(Field of View,FOV) 相机实际拍到区域的尺寸。 9、光学放大倍数(Magnification,?) CCD/FOV,即芯片尺寸除以视野范围。 10、数值孔径(Numerical Aperture,NA) 数值孔径等于由物体与物镜间媒质的折射率n与物镜孔径角的一半(a\2)的正弦值的乘积,计算公式为N.A=n*sin a/2。数值孔径与其它光学参数有着密切的关系,它与分辨率成正比,与放大率成正比。也就是说数值孔径,直接决定了镜头分辨率,数值孔径越大,分辨率越高,否则反之。 11、后背焦(Flange distance) 准确来说,后倍焦是相机的一个参数,指相机接口平面到芯片的距离。但在线扫描镜头或者大面阵相机的镜头选型时,后倍焦是一个

工业相机镜头的参数与选型

工业相机镜头的参数与选型

————————————————————————————————作者:————————————————————————————————日期: ?

工业相机镜头的参数与选型 一、镜头主要参数 1.焦距(Focal Length) 焦距是从镜头的中心点到胶平面上所形成的清晰影像之间的距离。焦距的大小决定着视角的大小,焦距数值小,视角大,所观察的范围也大;焦距数值大,视角小,观察范围小。根据焦距能否调节,可分为定焦镜头和变焦镜头两大类。 2.光圈(Iris) 用F表示,以镜头焦距f和通光孔径D的比值来衡量。每个镜头上都标有最大F值,例如8mm /F1.4代表最大孔径为5.7毫米。F值越小,光圈越大,F值越大,光圈越小。 3.对应最大CCD尺寸(Sensor Size) 镜头成像直径可覆盖的最大CCD芯片尺寸。主要有:1/2″、2/3″、1″和1″以上。 4.接口(Mount) 镜头与相机的连接方式。常用的包括C、CS、F、V、T2、Le ica、M42x1、M75x0.75等。 5.景深(Depth of Field,DOF) 景深是指在被摄物体聚焦清楚后,在物体前后一定距离内,其影像仍然清晰的范围。景深随镜头的光圈值、焦距、拍摄距离而变化。光圈越大,景深越小;光圈越小、景深越大。焦距越长,景深越小;

焦距越短,景深越大。距离拍摄体越近时,景深越小;距离拍摄体越远时,景深越大。 6.分辨率(Resolution) 分辨率代表镜头记录物体细节的能力,以每毫米里面能够分辨黑白对线的数量为计量单位:“线对/毫米”(lp/mm)。分辨率越高的镜头成像越清晰。 7、工作距离(Working distance,WD) 镜头第一个工作面到被测物体的距离。 8、视野范围(Field of View,FOV) 相机实际拍到区域的尺寸。 9、光学放大倍数(Magnification,?) CCD/FOV,即芯片尺寸除以视野范围。 10、数值孔径(Numerical Aperture,NA) 数值孔径等于由物体与物镜间媒质的折射率n与物镜孔径角的一半(a\2)的正弦值的乘积,计算公式为N.A=n*sin a/2。数值孔径与其它光学参数有着密切的关系,它与分辨率成正比,与放大率成正比。也就是说数值孔径,直接决定了镜头分辨率,数值孔径越大,分辨率越高,否则反之。 11、后背焦(Flange distance) 准确来说,后倍焦是相机的一个参数,指相机接口平面到芯片的距离。但在线扫描镜头或者大面阵相机的镜头选型时,后倍焦是一个

工业相机的选型规则

工业相机的选型规则 工业相机是机器视觉系统中的一个关键组件,其最本质的功能就是将光信号转变成AFT-808小型高清工业相机为有序的电信号。选择合适的相机也是机器视觉系统设计中的重要环节,相机不仅是直接决定所采集到的图像分辨率、图像质量等,同时也与整个系统的运行模式直接相关。 在机器视觉系统应用中,工业相机、工业镜头、图像采集卡、机器视觉光源、机器视觉系统平台软件,在选择过程中存在很多问题,那么今天就工业相机、工业CCD摄像头的选择,给大家介绍一些经验。 1、选择工业相机的信号类型 工业相机从大的方面来分有模拟信号和数字信号两种类型。 模拟相机必须有图像采集卡,标准的模拟相机分辨率很低,一般为768*576,另外帧率也是固定的,25帧每秒。另外还有一些非标准的信号,多为进口产品,那么成本就是比较高了,性价比很低。所以这个要根据实际需求来选择。另外模拟相机采集到的是模拟信号,经数字采集卡转换为数字信号进行传输存储。模拟信号可能会由于工厂内其他设备(比如电动机或高压电缆)的电磁干扰而造成失真。随着噪声水平的提高,模拟相机的动态范围(原始信号与噪声之比)会降低。动态范围决定了有多少信息能够被从相机传输给计算机。工业数字相机采集到的是数字信号,数字信号不受电噪声影响,因此,数字相机的动态范围更高,能够向计算机传输更精确的信号。 2、工业相机的分辨率需要多大。 根据系统的需求来选择相机分辨率的大小,下面以一个应用案例来分析。

应用案例:假设检测一个物体的表面划痕,要求拍摄的物体大小为 10*8mm,要求的检测精度是0.01mm。首先假设我们要拍摄的视野范围在12*10mm,那么相机的最低分辨率应该选择在:(12/0.01)* (10/0.01)=1200*1000,约为120万像素的相机,也就是说一个像素对应一个检测的缺陷的话,那么最低分辨率必须不少于120万像素,但市面上常见的是130万像素的相机,因此一般而言是选用130万像素的相机。但实际问题是,如果一个像素对应一个缺陷的话,那么这样的系统一定会极不稳定,因为随便的一个干扰像素点都可能被误认为缺陷,所以我们为了提高系统的精准度和稳定性,最好取缺陷的面积在3到4个像素以上,这样我们选择的相机也就在130万乘3以上,即最低不能少于300万像素,通常采用300万像素的相机为最佳(我见过最多的人抱着亚像素不放说要做到零点几的亚像素,那么就不用这么高分辨率的相机了。比如他们说如果做到0.1个像素,就是一个缺陷对应0.1个像素,缺陷的大小是由像素点个数来计算的,试问0.1个像素的面积怎么来表示?这些人以亚像素来忽悠人,往往说明了他们的没有常识性)。换言之,我们仅仅是用来做测量用,那么采用亚像素算法,130万像素的相机也能基本上满足需求,但有时因为边缘清晰度的影响,在提取边缘的时候,随便偏移一个像素,那么精度就受到了极大的影响。故我们选择300万的相机的话,还可以允许提取的边缘偏离3个像素左右,这就很好的保证了测量的精度。 3、选择工业相机的芯片。 工业相机从芯片上分,有CCD和CMOS两种。 如果要求拍摄的物体是运动的,要处理的对象也是实时运动的物体,那么当然选择CCD芯片的相机为最适宜。但有的厂商生产的CMOS相机如果采用帧曝光(全局曝光)的方式的话,也可以,虽然是CMOS芯片,但在拍摄运动物体时绝不比CCD的差,又假如物体运动的

机器视觉-图像处理-计算机视觉-边缘计算实验室建设方案

机器视觉-图像处理-计算机视觉-边缘计算实验室建设方案

目录 1机器视觉-图像处理-计算机视觉-边缘计算实验室 ................................. - 3 - 1.1总体规划............................................................ - 3 - 1.2实验设备............................................................ - 3 - 1.2.1机器视觉教学平台................................................ - 3 - 1.2.2智能监控实训平台............................................... - 19 -

1机器视觉-图像处理-计算机视觉-边缘计算实验室 1.1总体规划 机器视觉-图像处理-计算机视觉-边缘计算实验室主要用于对机器视觉与图像处理、计算机视觉、图像处理、边缘计算等核心课程的知识点学习,能够服务于相关课程的实验和实训需求。 核心课程主要针对学科基础技术的培养,掌握对机器视觉与图像处理、计算机视觉、图像处理、边缘计算的配置、维护和开发,接入等知识。 核心课程采用全模块化的教学产品进行实验,具备优良的教学实验特性:全模块化的设计、开放式的硬件接口、开源的实验代码、完整的教学资源、贴心的售后服务。 1.2实验设备 1.2.1机器视觉教学平台 AI机器视觉教学平台(AI-HNP)是中智讯公司开发的一款面向人工智能相关专业的综合型实验设备,主要满足:Python程序设计、机器视觉、嵌入式Linux系统、边缘计

机器视觉工业镜头计算方法

机器视觉工业镜头计算方法(一) 2012年8月1日艾菲特光电 一、机器视觉中工业镜头的计算方式 1、WD 物距工作距离(Work Distance,WD)。 2、FOV 视场视野(Field of View,FOV) 3、DOV 景深(Depth of Field)。 4、Ho:视野的高度 5、Hi:摄像机有效成像面的高度(Hi来代表传感器像面的大小) 6、PMAG:镜头的放大倍数 7、f:镜头的焦距 8、LE:镜头像平面的扩充距离 二、相机和镜头选择技巧 1、相机的主要参数: 感光面积SS(Sensor Size) 2、镜头的主要参数: 焦距FL(Focal Length) 最小物距Dmin(minimum Focal Distance) 3、其他参数: 视野FOV(Field of View) 像素pixel FOVmin=SS(Dmin/FL) 如:SS=6.4mm,Dmin=8in,FL=12mm pixel=640*480 则:FOVmin=6.4(8/12)=4.23mm 4.23/640=0.007mm 如果精度要求为0.01mm,1pixels=0.007mm<0.01mm 结论:可以达到设想的精度 三、工业相机传感器尺寸大小:(单位:mm) (3.2mm×2.4mm);1/3″:(4.8mm×3.6mm);1/2″:(6.4mm×4.8mm); (8.8mm×6.6mm);1″:(12.8mm×9.6mm);

四、CCD相机元件的尺寸 型号高度比长度(mm)宽度(mm)对角线(mm)1/6" 4:3 1.73 2.3 2.878 1/4" 4:3 2.4 3.2 4 1/3" 4:3 3.6 4.8 6 1/2" 4:3 4.8 6.4 8 1/1.8" 4:3 5.3 7.2 8.9 2/3" 4:3 6.6 8.8 11 1" 4:3 9.6 12.8 16 4/3" 4:3 13.5 18 22.5 五、线阵传感器尺寸(单位:mm)

机器视觉笔记

《机器视觉入门及应用》 硬件篇 1)相机 按芯片类型:CCD相机、CMOS相机 按扫描方式:隔行扫描相机、逐行扫描相机 按传感器结构特性:线阵相机、面阵相机 1.相机基本参数 ●分辨率:相机每次采集图像的像素点(Pixels),对于数字相机一是直接与光 电传感器的像元数对应的,对于模拟相机则是取决于视屏制式,PAL制为768*576,NTSC制为640*480; ●像素深度:即每个像素数据的位数,一般常用的是8Bit,对于数字工业相机 一般还有10Bit、12Bit等; ●像元尺寸(pixel Size):像元大小和像元数(分辨率)共同决定了相机机靶面 的大小。目前数字相机像元尺寸一般为3um--10um; ●帧率:相机采集传输图像的速率,对于面阵相机一般为每秒采集的帧数 (Frames/Sec)对于线阵相机为每秒采集的行数(Hz) https://www.doczj.com/doc/1a7457749.html,D相机 CCD是目前机器视觉最为常用的图像传感器。它集光电转换及电荷存贮、电荷转移、信号读取于一体,是典型的固体成像器件。CCD的突出特点是以电荷作为信号,而不同于其他器件是以电流或者电压为信号。这类成像器件通过光电转换成电荷包,而后在脉冲的作用下转移、放大输出图像信号。 典型的CCD相机由光学镜头、时序及同步信号发生器、垂直驱动器、模拟/数字信号处理电路组成。CCD作为一种功能器件,与真空管相比具有无灼伤、无滞后、低电压工作、低功耗等优点。 3.SMOS相机 CMOS图像传感器将光敏元阵列、图像信号放大器、信号读取电路、模数转换电路、图像信号处理器及控制集成在一块芯片上。 CMOS相机具有局部像素的编程随机访问的优点,目前,CMOS相机以其良好的集成性、低功耗、高速传输和宽动态范围特点在高分辨率和高速场合得到了广泛应用。 4.工业相机与普通相机的区别 A. 工业相机性能可靠易于安装,相机结构紧凑结实不易损坏,连续工作时间长,可以在较差的环境下使用,普通相机是做不到这些的,例如:让普通相机连续工作一天或几天肯定会受不了的;

工业相机选型--镜头参数与选型(Word版)

工业相机选型之 镜头的参数与选型 镜头主要参数 1.焦距(Focal Length) 焦距是从镜头的中心点到胶平面上所形成的清晰影像之间的距离。焦距的大小决定着视角的大小,焦距数值小,视角大,所观察的范围也大;焦距数值大,视角小,观察范围小。根据焦距能否调节,可分为定焦镜头和变焦镜头两大类。 2.光圈(Iris) 用F表示,以镜头焦距f和通光孔径D的比值来衡量。每个镜头上都标有最大F值,例如8mm /FI. 4代表最大孔径为 5.7毫米F值越小,光圈越大,F值越大,光圈越小 3.对应最大CCD尺寸(Sensor Size) 镜头成像直径可覆盖的最大CCD芯片尺寸。主要有:1 /2 ”、2/ 3 " 严和1 ”以上。 4.接口(Mount) 镜头与相机的连接方式。常用的包括C、CS、F、V、T2、Leica、M42x1、M75x0.75等。 5,景深(Depth of Field, DOF) 景深是指在被摄物体聚焦清楚后,在物体前后一定距离内,其影像仍然清晰的范围。景深随镜头的光圈值、焦距、拍摄距离而变化。光圈越大,景深越小;光圈越小、景深越大。焦距越长,景深越小; 焦距越短,景深越大。距离拍摄体越近时,景深越小;距离拍摄体越远时,景深越大。

6.分辨率(Resolution) 分辨率代表镜头记录物体细节的能力,以每毫米里面能够分辨黑白对线的数量为计量单位:“线对/毫米" (Ip/mm)。分辨率越高的镜头成像越清晰。 7、工作距离(Working distance, WD) 镜头第一个工作面到被测物体的距离。 8、视野范围(Field of View, FOV) 相机 实际拍到区域的尺寸。 9、光学放大倍数(Magnification, 13) CCD/FOV,即芯片尺寸除以视野范 围。 10、数值孔径(Numerical Aperture, NA) 数值孔径等于由物体与物镜间媒质的折射率n与物镜孔径角的一半(a\2)的正弦值的乘积,计算公式为N. A=n*sin a/2a数值孔径与其它光学参数有着密切的关系,它与分辨率成正比,与放大率成正比。也就是说数值孔径,直接决定了镜头分辨率,数值孔径越大,分辨率越高,否则反之。 11、后背焦(Flange distance) 准确来说,后倍焦是相机的一个参数,指相机接口平面到芯片的距离。但在线扫描镜头或者大面阵相机的镜头选型时,后倍焦是一个非常重要的参数,因为它直接影响镜头的配置。不同厂家的相机,哪怕接凵一样也可能有不同的后倍焦。 、镜头选型 1.选择镜头接口和最大CCD尺寸

工业镜头主要参数与选型

工业镜头主要参数与选型 一、镜头主要参数 1.焦距(Focal Length) 焦距是从镜头的中心点到胶平面上所形成的清晰影像之间的距离。焦距的大小决定着视角的大小,焦距数值小,视角大,所观察的范围也大;焦距数值大,视角小,观察范围小。根据焦距能否调节,可分为定焦镜头和变焦镜头两大类。 2.光圈(Iris) 用F表示,以镜头焦距f和通光孔径D的比值来衡量。每个镜头上都标有最大F值,例如8mm/F1.4代表最大孔径为 5.7毫米。F值越小,光圈越大,F值越大,光圈越小。 3.对应最大CCD尺寸(Sensor Size) 镜头成像直径可覆盖的最大CCD芯片尺寸。主要有:1/2″、2/3″、1″和1″以上。 4.接口(Mount) 镜头与相机的连接方式。常用的包括C、CS、F、V、T2、Leica、M42x1、M75x0.75等。 5.景深(Depth of Field,DOF) 景深是指在被摄物体聚焦清楚后,在物体前后一定距离内,其影像仍然清晰的范围。景深随镜头的光圈值、焦距、拍摄距离而变化。光圈越大,景深越小;光圈越小、景深越大。焦距越长,景深越小; 焦距越短,景深越大。距离拍摄体越近时,景深越小;距离拍摄体越远时,景深越大。 6.分辨率(Resolution) 分辨率代表镜头记录物体细节的能力,以每毫米里面能够分辨黑白对线的数量为计量单位:“线对/毫米”(lp/mm)。分辨率越高的镜头成像越清晰。 7、工作距离(Working distance,WD) 镜头第一个工作面到被测物体的距离。 8、视野范围(Field of View,FOV) 相机实际拍到区域的尺寸。 9、光学放大倍数(Magnification,?) CCD/FOV,即芯片尺寸除以视野范围。 10、数值孔径(Numerical Aperture,NA) 数值孔径等于由物体与物镜间媒质的折射率n与物镜孔径角的一半(a\2)的正弦值的乘积,计算公式为N.A=n*sin a/2。数值孔径与其它光学参数有着密切的关系,它与分辨率成正比,与放大率成正比。也就是说数值孔径,直接决定了镜头分辨率,数值孔径越大,分辨率越高,否则反之。 11、后背焦(Flange distance) 准确来说,后倍焦是相机的一个参数,指相机接口平面到芯片的距离。但在线扫描镜头或者大面阵相机的镜头选型时,后倍焦是一个非常重要的参数,因为它直接影响镜头的配置。不同厂家的相机,哪怕接口一样也可能有不同的后倍焦。 二、镜头选型 1.选择镜头接口和最大CCD尺寸

机器视觉工业相机选型指导

机器视觉工业相机选型指导 工业相机又俗称摄像机,相对传统的民用相机(摄像机)而言,它具有更高的图像稳定性、高传输能力和高抗干扰能力等优势,是机器视觉系统的关键组件之一,选择性能良好的工业相机,对于机器视觉视觉系统的稳定性有着重要影响。 在选购合适的工业相机时,维视图像建议您从以下几方面着手选购: 第一、先明确需求,要先确定检测产品的精度要求,要确定相机要看的视野大小,要确定检测物体的速度,同时确定是动态检测还是静态检测。 第二、确定硬件类型,硬件的相关参数会影响其性能,因此在确定硬件类型前要先确定其相关参数,包括以下几点: 1、相面像素大小的确定 目前市面上的软件精度一般是没有误差的,也就是通常所说的亚像素,但虽软件没有误差,但硬件的误差是不可避免的,所以现在市场上的机器视觉系统一般都保证在误差为一个像素,所以要通过如下计算公式: 例如:假设视野为10mm,精度要求为0.02mm,那么相机的像素=10÷0.02=500像素,那就只需要30万(640*480)像素的相机就可以了 2.相机传输方式的确定,针对目前市面上的相机传输方式及其应用的优缺点如下所述:1)模拟相机(PCI采集卡),对速度要求不高可选择。其优点:稳定,性价比高;缺点:帧率低,一般只能达到25帧—30帧; 2)USB接口相机,系统只用到单个相机的可先择,要求高速的时候可先择。优点:不需要占PCI插槽,帧频高,性价比高;缺点:占系统CPU; 3)1394接口相机,系统用到多个相机的时候可先择,要求高速的时候可先择。优点:不占系统CPU,帧频高;缺点:占PCI插槽,价格昂贵。 3.相机的触发方式的选择

1)连续采集模式:对静态检测可选择,产品连续运动不能给触发信号的可选择; 2)软件触发模式:对动态检测可选择,产品连续运动能给触发信号的可选择; 3)硬件触发模式:对高速动态检测可选择,产品连续高速运动能给触发信号的可选择。 工业相机的类别也是多样的,根据不同行业的应用,用户均可选购最适合自己的产品。而工业相机也凭借其强大的技术优势及绝佳的性能,在各大领域都可看到他的身影,助力行业稳步发展。 本文摘自:维视数字图像技术资料部分内容 原文地址:https://www.doczj.com/doc/1a7457749.html,/service/service.html,欢迎转载和订阅最新的远心镜头内部技术资料!

15-机器视觉硬件选型基础

目录1 机器视觉基础知识 1.1 机器视觉概述 1.2 相机(camera) 1.3 镜头(lens) 1.4 图像采集卡(frame grabber) 1.5 光源(illumination) 1.6 视觉开发软件(vision SDK) 1.7 智能相机(smart camera) 2典型案例 3.1 定位&引导(Locate & Guide ) 3.2几何尺寸测量(Gauging) 3.3 缺陷检测(Flaw Inspection) 3.4 光学字符检测/识别(OCV/OCR)

1.1机器视觉的概念 机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是指通过机器视觉产品将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。 由于机器视觉系统可以快速获取大量信息,而且易于自动处理,也易于同设计信息以及加工控制信息集成,因此,在现代自动化生产过程中,人们将机器视觉系统广泛地用于工况监视、成品检验和质量控制等领域。机器视觉系统的特点是提高生产的柔性和自动化程度。在一些不适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,常用机器视觉来替代人工视觉;同时在大批量工业生产过程中,用人工视觉检查产品质量效率低且精度不高,用机器视觉检测方法可以大大提高生产效率和生产的自动化程度。而且机器视觉易于实现信息集成,是实现计算机集成制造的基础技术。 半导体行业是最先利用机器视觉技术进行检测的行业,其他行业也随之而来。作为生产机械的OEM的设计工程师,最基本的问题就是:“我是要检测这个部件还是整个这个产品”。检测可以得到高质量的产品,但是也会有这样的事实存在:检测成本或者产品质量要求并不需要这样的检测。比如说牙签,假设在一个装有500个牙签的盒子里有一两个不合格,大多数人都不会怎么担心。但是对于很多产品,假如前面的盒子里装的不是牙签,而是针头,试想不合格品可能会带来什么样的后果,所以产品功能性的检测都是不可缺少的,即使只是外观检测,要证明内在的品质也必须要做到无缺陷。因此,为了达到这个目的,许多OEM将机器视觉应用到他们将要卖给用户的系统中。机器视觉能够为整个系统增值,表现在三个方面:提高生产效率,提高制造过程的精确性,减少成本。 那么,对于一个设计工程师来说,怎么样才能知道机器视觉是否适合他的系统呢?尽管最早的最基本的机器视觉系统在20世纪70年代引入,工业就将其视为主流应用。这就导致设计工程师要考虑它是否合适他们的应用,同时要考虑利用机器视觉检测的成本与其所能带来的利润。 高复杂度产品行业,比如说半导体行业和电子行业,由于它们的复杂性和小型化,从传统上推动着机器视觉市场的发展。但是如今,所有产业,包括自动化、制药、造纸等等都依靠机器视觉系统检测产品以提高产品质量。工业专家们预言:在未来的20年

相关主题
文本预览
相关文档 最新文档