Camshift算法原理
- 格式:docx
- 大小:50.84 KB
- 文档页数:7
使用计算机视觉的3D模型动作记录器作者:丁志远来源:《电脑知识与技术》2013年第22期摘要:该文旨在完成一款基于计算机视觉的3D模型动作记录器,即计算机通过摄像头获取人体运动视频并检测跟踪,之后通过处理数据控制3D模型,从而将人体动作进行记录保存。
文章主要围绕运动目标检测、运动目标跟踪和3D建模三个方面展开研究。
运动目标检测方面使用OpenCV(Open Source Computer Vision Library)提供的背景差分算法对目标进行分析并提取差分元素;运动目标跟踪方面则研究了常用的Camshift跟踪算法,实现对运动目标的连续跟踪以及识别从而保证动作记录器的连贯性;3D建模部分则使用3Dmax进行建立模型以及骨骼动画的制作处理,并使用Ogremax导出模型;而模型的骨骼动画则由OGRE导入测试环境并根据之前的处理结果进行相应的控制,从而实现人体运动的动作记录。
关键词:目标检测和跟踪;背景差分; CamShift; OpenCV; OGRE中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)22-5156-051 概述人类和电脑的交流从打孔机到屏幕,从文字到图形,从鼠标到触摸板,计算机用更符合直觉和人性的方法让人机交互方式更加快捷方便。
那么以后的人机交互会怎样?从另一方面,随着图形学和硬件计算能力的发展,计算机能够实时获取和记录人体动作。
计算机将人体动作参数转化为计算机中的物理模型,并且将其在虚拟环境中再现,同时3D人体模型动作目前成为最热门的研究课题之一。
现在人体运动主要通过各种传感器进行捕获和测量,并通过传感器将相关的人体信息记录为虚拟动作。
这种方法更加精确,但是由于其成本较高,计算量较大且需要特定的实验场合,因此无法广泛应用。
目前基于OpenCV的第六感交互技术和3D图形处理技术正在迅速发展之中,该文讨论如何通过这些技术完成基于计算机视觉的人体运动3D模型动作记录器,尝试将人机交互推向更深的层次。
Camshift原理camshift利用目标的颜色直方图模型将图像转换为颜色概率分布图,初始化一个搜索窗的大小和位置,并根据上一帧得到的结果自适应调整搜索窗口的位置和大小,从而定位出当前图像中目标的中心位置。
分为三个部分:1--色彩投影图(反向投影):(1).RGB颜色空间对光照亮度变化较为敏感,为了减少此变化对跟踪效果的影响,首先将图像从RGB空间转换到HSV空间。
(2).然后对其中的H分量作直方图,在直方图中代表了不同H分量值出现的概率或者像素个数,就是说可以查找出H分量大小为h的概率或者像素个数,即得到了颜色概率查找表。
(3).将图像中每个像素的值用其颜色出现的概率对替换,就得到了颜色概率分布图。
这个过程就叫反向投影,颜色概率分布图是一个灰度图像。
2--meanshiftmeanshift算法是一种密度函数梯度估计的非参数方法,通过迭代寻优找到概率分布的极值来定位目标。
算法过程为:(1).在颜色概率分布图中选取搜索窗W(2).计算零阶距:计算一阶距:计算搜索窗的质心:(3).调整搜索窗大小宽度为;长度为1.2s;(4).移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复2)3)4),直到搜索窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算。
关于meanshift的收敛性证明可以google相关文献。
3--camshift将meanshift算法扩展到连续图像序列,就是camshift算法。
它将视频的所有帧做meanshift 运算,并将上一帧的结果,即搜索窗的大小和中心,作为下一帧meanshift算法搜索窗的初始值。
如此迭代下去,就可以实现对目标的跟踪。
算法过程为:(1).初始化搜索窗(2).计算搜索窗的颜色概率分布(反向投影)(3).运行meanshift算法,获得搜索窗新的大小和位置。
(4).在下一帧视频图像中用(3)中的值重新初始化搜索窗的大小和位置,再跳转到(2)继续进行。
物体跟踪算法在视频监控中的应用教程随着科技的不断发展,视频监控技术的应用越来越广泛。
而为了更好地保障安全,实时的物体跟踪算法变得尤为重要。
本篇文章将为您介绍物体跟踪算法在视频监控中的应用以及相关的教程。
一、物体跟踪算法的概述物体跟踪是指通过对视频序列进行分析和处理,实时地追踪感兴趣的物体。
它涉及到图像处理、计算机视觉和机器学习等领域的技术。
物体跟踪算法在视频监控中的应用非常广泛,包括人脸跟踪、车辆跟踪等。
二、视频监控中的常用物体跟踪算法1. 卡尔曼滤波器(Kalman Filter)算法卡尔曼滤波器算法是一种递归估计算法,常用于预测和估计物体的位置。
它通过不断地更新位置估计值,可以在一定程度上解决物体漂移和遮挡等问题。
卡尔曼滤波器算法在实时视频监控中应用广泛,特别适用于移动目标的跟踪。
2. 均值漂移(Mean Shift)算法均值漂移算法是一种非参数化的密度估计算法,在物体跟踪中有着广泛的应用。
它通过不断地调整搜索窗口的中心,寻找最大密度值所在的位置,从而实现物体的跟踪。
均值漂移算法对物体颜色模型的准确性要求较高,在处理光照变化和背景干扰时比较强大。
3. CamShift 算法CamShift 算法基于均值漂移算法,是一种自适应的物体跟踪算法。
它通过不断地更新搜索窗口的大小和方向来跟踪目标物体。
相比于均值漂移算法,CamShift 算法对于光照变化和尺度变化较为稳健,常用于人脸跟踪和手势识别等应用。
4. Haar 级联检测器Haar 级联检测器是一种基于机器学习的物体检测和跟踪算法。
它使用Haar 特征和 AdaBoost 训练算法来实现目标物体的检测和跟踪。
Haar 级联检测器对于人脸、行人等物体有着较好的效果,并且具有较高的计算效率。
三、物体跟踪算法在视频监控中的应用教程下面将介绍物体跟踪算法在视频监控中的应用教程,涵盖了卡尔曼滤波器、均值漂移和 Haar 级联检测器三种算法的基本原理和实现方法。
camshift算法原理Camshift算法是一种基于颜色统计的物体跟踪算法,常被用于计算机视觉领域中的目标跟踪任务。
该算法通过对目标对象的颜色特征进行建模,并在视频序列中实时追踪目标的位置和大小。
Camshift算法的原理基于直方图反向投影技术和Meanshift算法。
首先,算法通过用户选取的初始目标区域,计算该区域的颜色直方图模型。
然后,将该直方图模型与整幅图像的直方图进行比较,得到反向投影图像。
反向投影图像中的每个像素值表示该像素属于目标对象的概率。
接下来,利用Meanshift算法对反向投影图像进行均值漂移操作,寻找目标对象的最大概率区域。
均值漂移操作的原理是根据概率分布的重心不断迭代,使得目标区域的中心点逐渐向最大概率区域移动。
这样,在每次迭代过程中,目标区域的位置和大小都会根据图像的颜色分布而自适应地调整。
为了进一步提高目标区域的准确性和稳定性,Camshift算法引入了一个自适应窗口大小的机制。
在Meanshift算法的每次迭代中,算法会根据当前目标区域的大小,自动调整搜索窗口的大小。
当目标对象静止或运动缓慢时,窗口大小会自动缩小以提高精度;当目标对象运动较快时,窗口大小会自动扩大以保持目标的完整性。
Camshift算法还可以通过加权直方图模型来对目标对象的颜色特征进行动态更新。
在每次迭代中,算法会根据当前目标区域的位置和大小,调整颜色直方图的权重,使其更好地适应目标对象的变化。
总结来说,Camshift算法通过对目标对象的颜色特征进行建模和追踪,能够在复杂的背景环境中实现准确、稳定的目标跟踪。
该算法的原理基于直方图反向投影和Meanshift算法,通过自适应窗口大小和加权直方图模型的机制,能够适应目标对象的位置、大小和颜色的变化,具有较高的鲁棒性和实时性。
在计算机视觉和视频分析领域中,Camshift算法被广泛应用于目标跟踪、行为分析、视频监控等方面,为实现智能视觉系统提供了重要的技术支持。
Camshift原理camshift利用目标的颜色直方图模型将图像转换为颜色概率分布图,初始化一个搜索窗的大小和位置,并根据上一帧得到的结果自适应调整搜索窗口的位置和大小,从而定位出当前图像中目标的中心位置。
分为三个部分:1--色彩投影图(反向投影):(1).RGB颜色空间对光照亮度变化较为敏感,为了减少此变化对跟踪效果的影响,首先将图像从RGB空间转换到HSV空间。
(2).然后对其中的H分量作直方图,在直方图中代表了不同H分量值出现的概率或者像素个数,就是说可以查找出H分量大小为h的概率或者像素个数,即得到了颜色概率查找表。
(3).将图像中每个像素的值用其颜色出现的概率对替换,就得到了颜色概率分布图。
这个过程就叫反向投影,颜色概率分布图是一个灰度图像。
2--meanshiftmeanshift算法是一种密度函数梯度估计的非参数方法,通过迭代寻优找到概率分布的极值来定位目标。
算法过程为:(1).在颜色概率分布图中选取搜索窗W(2).计算零阶距:计算一阶距:计算搜索窗的质心:(3).调整搜索窗大小宽度为;长度为1.2s;(4).移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复2)3)4),直到搜索窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算。
关于meanshift的收敛性证明可以google相关文献。
3--camshift将meanshift算法扩展到连续图像序列,就是camshift算法。
它将视频的所有帧做meanshift 运算,并将上一帧的结果,即搜索窗的大小和中心,作为下一帧meanshift算法搜索窗的初始值。
如此迭代下去,就可以实现对目标的跟踪。
算法过程为:(1).初始化搜索窗(2).计算搜索窗的颜色概率分布(反向投影)(3).运行meanshift算法,获得搜索窗新的大小和位置。
(4).在下一帧视频图像中用(3)中的值重新初始化搜索窗的大小和位置,再跳转到(2)继续进行。
camshift能有效解决目标变形和遮挡的问题,对系统资源要求不高,时间复杂度低,在简单背景下能够取得良好的跟踪效果。
但当背景较为复杂,或者有许多与目标颜色相似像素干扰的情况下,会导致跟踪失败。
因为它单纯的考虑颜色直方图,忽略了目标的空间分布特性,所以这种情况下需加入对跟踪目标的预测算法。
Camshift的opencv实现原文/houdy/archive/2004/11/10/175739.aspx1--Back Projection计算Back Projection的OpenCV代码。
(1).准备一张只包含被跟踪目标的图片,将色彩空间转化到HSI空间,获得其中的H分量:IplImage* target=cvLoadImage("target.bmp",-1); //装载图片IplImage* target_hsv=cvCreateImage( cvGetSize(target), IPL_DEPTH_8U, 3 );IplImage* target_hue=cvCreateImage( cvGetSize(target), IPL_DEPTH_8U, 3 ); cvCvtColor(target,target_hsv,CV_BGR2HSV); //转化到HSV空间cvSplit( target_hsv, target_hue, NULL, NULL, NULL ); //获得H分量(2).计算H分量的直方图,即1D直方图:IplImage* h_plane=cvCreateImage( cvGetSize(target_hsv),IPL_DEPTH_8U,1 );int hist_size[]={255}; //将H分量的值量化到[0,255]float* ranges[]={ {0,360} }; //H分量的取值范围是[0,360)CvHistogram* hist=cvCreateHist(1, hist_size, ranges, 1);cvCalcHist(&target_hue, hist, 0, NULL);在这里需要考虑H分量的取值范围的问题,H分量的取值范围是[0,360),这个取值范围的值不能用一个byte来表示,为了能用一个byte表示,需要将H值做适当的量化处理,在这里我们将H分量的范围量化到[0,255]。
(3).计算Back Projection:IplImage* rawImage;//get from video frame,unsigned byte,one channelIplImage* result=cvCreateImage(cvGetSize(rawImage),IPL_DEPTH_8U,1); cvCalcBackProject(&rawImage,result,hist);(4). result即为我们需要的.2--Mean Shift算法质心可以通过以下公式来计算:(1).计算区域内0阶矩for(int i=0;i< height;i++)for(int j=0;j< width;j++)M00+=I(i,j)(2).区域内1阶矩:for(int i=0;i< height;i++)for(int j=0;j< width;j++){M10+=i*I(i,j);M01+=j*I(i,j);}(3).则Mass Center为:Xc=M10/M00; Yc=M01/M00在OpenCV中,提供Mean Shift算法的函数,函数的原型是:int cvMeanShift(IplImage* imgprob,CvRect windowIn,CvTermCriteria criteria,CvConnectedComp* out);需要的参数为:(1).IplImage* imgprob:2D概率分布图像,传入;(2).CvRect windowIn:初始的窗口,传入;(3).CvTermCriteria criteria:停止迭代的标准,传入;(4).CvConnectedComp* out:查询结果,传出。
注:构造CvTermCriteria变量需要三个参数,一个是类型,另一个是迭代的最大次数,最后一个表示特定的阈值。
例如可以这样构造criteria:criteria=cvTermCriteria(CV_TERMCRIT_ITER|CV_TERMCRIT_EPS,10,0.1)。
3--CamShift算法整个算法的具体步骤分5步:Step 1:将整个图像设为搜寻区域。
Step 2:初始话Search Window的大小和位置。
Step 3:计算Search Window内的彩色概率分布,此区域的大小比Search Window要稍微大一点。
Step 4:运行MeanShift。
获得Search Window新的位置和大小。
Step 5:在下一帧视频图像中,用Step 3获得的值初始化Search Window的位置和大小。
跳转到Step 3继续运行。
OpenCV代码:在OpenCV中,有实现CamShift算法的函数,此函数的原型是:cvCamShift(IplImage* imgprob, CvRect windowIn,CvTermCriteria criteria,CvConnectedComp* out, CvBox2D* box=0);其中:imgprob:色彩概率分布图像。
windowIn:Search Window的初始值。
Criteria:用来判断搜寻是否停止的一个标准。
out:保存运算结果,包括新的Search Window的位置和面积。
box:包含被跟踪物体的最小矩形。
更多参考:/hunnish/archive/2004/09/07/97049.aspx带有注释的camshift算法的opencv实现代码见:/source/1663015挺弱的算法,用于跟踪前景颜色统一的物体,假设已知前景物体(或包括主要前景物体的图)的直方图分布不过meanshift是个简单,听起来有效的东西。
CamShift算法,即"Continuously Apative Mean-Shift"算法,是一种运动跟踪算法。
它主要通过视频图像中运动物体的颜色信息来达到跟踪的目的。
我把这个算法分解成三个部分,便于理解:1) Back Projection计算2) Mean Shift算法3) CamShift算法在这里主要讨论Back Projection,在随后的文章中继续讨论后面两个算法。
一、Back Projection计算Back Projection的步骤是这样的:1. 计算被跟踪目标的色彩直方图。
在各种色彩空间中,只有HSI空间(或与HSI类似的色彩空间)中的H分量可以表示颜色信息。
所以在具体的计算过程中,首先将其他的色彩空间的值转化到HSI空间,然后会其中的H分量做1D直方图计算。
2. 根据获得的色彩直方图将原始图像转化成色彩概率分布图像,这个过程就被称作"Back Projection"。
在OpenCV中的直方图函数中,包含Back Projection的函数,函数原型是:void cvCalcBackProject(IplImage** img, CvArr** backproject, const CvHistogram* hist); 传递给这个函数的参数有三个:1. IplImage** img:存放原始图像,输入。
2. CvArr** backproject:存放Back Projection结果,输出。
3. CvHistogram* hist:存放直方图,输入下面就给出计算Back Projection的OpenCV代码。
1.准备一张只包含被跟踪目标的图片,将色彩空间转化到HSI空间,获得其中的H分量:IplImage* target=cvLoadImage("target.bmp",-1); //装载图片IplImage* target_hsv=cvCreateImage( cvGetSize(target), IPL_DEPTH_8U, 3 ); IplImage* target_hue=cvCreateImage( cvGetSize(target), IPL_DEPTH_8U, 3 ); cvCvtColor(target,target_hsv,CV_BGR2HSV); //转化到HSV空间cvSplit( target_hsv, target_hue, NULL, NULL, NULL ); //获得H分量2.计算H分量的直方图,即1D直方图:IplImage* h_plane=cvCreateImage( cvGetSize(target_hsv),IPL_DEPTH_8U,1 );int hist_size[]={255}; //将H分量的值量化到[0,255]float* ranges[]={ {0,360} }; //H分量的取值范围是[0,360)CvHistogram* hist=cvCreateHist(1, hist_size, ranges, 1);cvCalcHist(&target_hue, hist, 0, NULL);在这里需要考虑H分量的取值范围的问题,H分量的取值范围是[0,360),这个取值范围的值不能用一个byte来表示,为了能用一个byte表示,需要将H值做适当的量化处理,在这里我们将H分量的范围量化到[0,255].4.计算Back Projection:IplImage* rawImage;//----------------------------------------------//get from video frame,unsigned byte,one channel//----------------------------------------------IplImage* result=cvCreateImage(cvGetSize(rawImage),IPL_DEPTH_8U,1); cvCalcBackProject(&rawImage,result,hist);5.结果:result即为我们需要的.二、meanshift这里来到了CamShift算法,OpenCV实现的第二部分,这一次重点讨论Mean Shift算法。