基于道路场景的天气识别与目标提取方法研究
- 格式:doc
- 大小:2.22 MB
- 文档页数:7
特殊天气条件下的目标检测方法综述特殊天气条件下的目标检测方法综述导言:目标检测是计算机视觉领域中的一项重要任务,它能够识别图像或视频中的特定物体,并将其与背景区分开来。
然而,特殊天气条件如雨雪、霾等可以严重影响图像质量,进而影响目标检测的效果。
针对特殊天气条件下的目标检测问题,研究人员提出了一系列创新的方法,本文将对这些方法进行综述,以便读者了解在特殊天气条件下如何提高目标检测的准确性和稳定性。
一、雨天目标检测方法雨天的图像中存在大量的雨滴杂乱背景,会对目标的边缘、颜色特征产生很大的干扰。
为了解决这个问题,研究人员提出了一些方法。
其中,一种常用的方法是利用双重密度图模型来检测雨滴,然后在目标上使用雨滴去除算法。
另一种方法则是基于暗通道先验原理,通过对雨滴的暗通道进行建模,进而去除雨滴的干扰。
此外,还有一些基于深度学习的方法,通过利用深度神经网络对雨天图像进行训练,从而消除雨滴的影响。
二、雪天目标检测方法雪天的图像中存在大量的雪花,且背景一片白茫茫,这会导致目标的边缘和细节信息丢失。
为了解决这个问题,研究人员提出了一些方法。
其中,一种常用的方法是通过增强对比度来提高雪天图像的清晰度。
另一种方法则是使用流形学习的方法,将雪花目标与背景进行分离。
此外,还有一些基于波段变换的方法,通过将图像从RGB空间转换到其他颜色空间,从而提高目标的可辨识度。
三、霾天目标检测方法霾天的图像中存在大量的灰尘和污染物,会导致图像细节模糊不清,进而影响目标检测的准确性。
为了解决这个问题,研究人员提出了一些方法。
其中,一种常用的方法是通过增强图像的对比度和清晰度,将目标从背景中分离出来。
另一种方法则是基于全局分割技术,通过对霾天图像进行分割,提取目标的特征信息。
此外,还有一些基于深度学习的方法,通过对霾天图像进行训练,提高目标检测的准确性。
结论:特殊天气条件下的目标检测是计算机视觉领域的一项重要研究课题。
本文对特殊天气条件下的目标检测方法进行了综述,并介绍了在雨天、雪天和霾天等特殊天气条件下的目标检测方法。
基于车—路视觉协同的行车环境感知方法研究一、概括在现代智能交通系统的研究中,行车环境感知是一个重要且具有挑战性的课题。
随着科技的进步,尤其是人工智能和传感器技术的发展,我们已经有能力获得更大范围、更高清晰度的路面信息,以及更为丰富的车辆运行环境细节。
自动驾驶汽车的发展势头强劲,预计将在未来的交通系统中扮演越来越重要的角色。
本文旨在探讨一种创新的行车环境感知方法,该方法将车的感知系统与道路的感知系统相结合,从而极大地提升感知的准确性和实时性。
这种方法的有效实施将对提升自动驾驶汽车的安全性能产生重大影响。
为实现这一目标,本文提出了一种新的车路协同框架,该框架利用先进的传感器技术、监控摄像头和雷达系统,对车辆的周围环境进行无死角覆盖。
本方法不仅关注单一组件的性能提升,而且着重于组件之间的互补性和协作性。
我们还提出了一种新颖的环境特征提取算法,通过从海量数据中自动识别出有意义的特征,并利用这些特征来增强对环境和车辆的感知。
该方法能够准确地识别各种复杂的道路使用情况,包括拥堵、事故、施工区等。
在本文提出的车路协同框架中,我们将车的感知系统和路的感知系统紧密地结合在一起,旨在构建一个更加安全、高效的自动驾驶生态系统。
1. 背景介绍随着科技的不断发展,自动驾驶技术已成为交通领域的研究热点。
在自动驾驶系统中,行车环境的感知与理解是实现安全驾驶的核心环节。
传统的单车感知系统由于受限于车辆本身的感知范围和视角,难以应对复杂的交通场景。
如何利用路侧资源来增强自动驾驶系统的感知能力,成为了研究的重要方向。
车路协同(VehicleRoad Coordination)是一种新兴的行车环境感知方法,其基本原理是通过车辆与路侧设备之间的信息交互,实现车与路之间的感知协同,从而扩展自动驾驶系统的感知范围,提高感知性能。
本文将围绕车路视觉协同的行车环境感知方法展开研究,以期为自动驾驶技术的发展贡献力量。
在行车环境中,视觉信息作为一种非常重要的感知信息源,对于自动驾驶系统的安全性具有重要意义。
第1篇一、实验背景随着科技的不断发展,位置识别技术在许多领域得到了广泛应用。
传统的位置识别方法主要依赖于GPS、WiFi、蓝牙等手段,但在某些环境下,如室内、高楼密集区域等,这些方法会受到信号遮挡、信号不稳定等因素的影响,导致定位精度降低。
因此,研究新的位置识别方法具有重要意义。
本次实验旨在探索一种基于视觉的位置识别方法,通过分析图像特征,实现高精度、高稳定性的位置识别。
二、实验方法1. 数据采集本次实验采集了室内、室外不同场景的图像数据,包括建筑物、道路、自然景观等。
采集的图像数据应具有丰富的纹理和颜色信息,以便更好地提取图像特征。
2. 图像预处理对采集的图像数据进行预处理,包括去噪、缩放、旋转等操作,以提高后续特征提取的准确性。
3. 特征提取采用深度学习方法提取图像特征,主要分为以下步骤:(1)利用卷积神经网络(CNN)提取图像局部特征,如AlexNet、VGGNet等。
(2)对提取的局部特征进行降维,采用主成分分析(PCA)等方法。
(3)将降维后的特征进行聚合,采用局部二值模式(LBP)、直方图均匀化(HOG)等方法。
4. 位置识别(1)将提取的特征与已知位置信息进行匹配,采用最近邻分类器等方法。
(2)对匹配结果进行排序,选取匹配度最高的结果作为识别结果。
5. 实验评估采用均方根误差(RMSE)、平均绝对误差(MAE)等指标评估实验结果,并与传统方法进行比较。
三、实验结果与分析1. 实验结果本次实验在室内、室外不同场景下进行了位置识别实验,结果表明,基于视觉的位置识别方法在多数场景下取得了较好的识别效果。
2. 实验分析(1)与传统方法相比,基于视觉的位置识别方法在室内、室外场景下均具有更高的识别精度。
(2)在信号遮挡严重的区域,如室内、高楼密集区域,基于视觉的位置识别方法仍能保持较高的识别精度。
(3)实验结果表明,深度学习方法在特征提取和位置识别方面具有显著优势。
四、实验结论本次实验探索了一种基于视觉的位置识别方法,结果表明,该方法在室内、室外场景下具有较高的识别精度和稳定性。
基于感受野增强的复杂道路场景目标检测研究目录一、内容简述 (2)1. 研究背景和意义 (3)2. 国内外研究现状 (4)3. 研究内容与方法 (5)3.1 研究目标 (6)3.2 研究方法 (7)二、复杂道路场景目标检测理论基础 (9)1. 目标检测基本概念 (10)2. 复杂道路场景特性分析 (11)3. 感受野理论及其在目标检测中的应用 (12)三、基于感受野增强的目标检测模型设计 (14)1. 模型架构概述 (15)2. 感受野增强模块设计 (16)3. 模型优化策略 (18)四、复杂道路场景下目标检测算法实现 (18)1. 数据集与实验环境 (19)2. 算法流程设计 (21)3. 关键技术实现细节 (22)五、实验结果与分析 (23)1. 实验结果展示 (24)2. 实验结果分析 (25)3. 模型性能评估指标 (26)六、感受野增强目标检测模型的优化与改进方向 (27)1. 模型性能瓶颈分析 (28)2. 优化策略与建议方向 (29)3. 未来研究方向展望及创新点设想七、相关领域应用拓展及前景分析30一、内容简述随着深度学习技术的不断发展,目标检测作为其重要应用之一,在计算机视觉领域取得了显著的成果。
传统目标检测方法在处理复杂道路场景时仍面临诸多挑战,为了提高目标检测的准确性和鲁棒性,基于感受野增强的复杂道路场景目标检测研究应运而生。
本文首先分析了复杂道路场景的特点,包括光照变化、遮挡、动态目标等。
针对这些特点,提出了一种基于感受野增强的目标检测方法。
该方法通过扩大卷积神经网络的感受野,增强对目标的感知能力,从而提高检测性能。
为实现感受野增强,本文采用了多种策略。
通过引入空洞卷积(Dilated Convolution),在不增加计算复杂度的情况下,扩大了卷积核的感受野范围。
利用注意力机制(Attention Mechanism)对不同区域的感受野进行加权,使得网络更加关注关键信息。
基于深度学习的自动驾驶系统中的目标检测研究在自动驾驶领域,目标检测是一个至关重要的环节,它能够帮助车辆感知并识别道路上的行人、车辆、交通标志等物体,为后续的决策和控制提供准确的输入。
随着深度学习技术的快速发展,基于深度学习的目标检测方法在自动驾驶系统中得到了广泛应用。
基于深度学习的目标检测方法主要利用神经网络模型,通过学习大量的训练样本进行物体识别和定位。
与传统的机器学习方法相比,深度学习能够自动从数据中学习特征表示,并获得更好的检测精度。
在自动驾驶系统中,目标检测方法需要具备以下几个关键特点:首先,目标检测方法需要具备高准确率和低误报率。
因为在自动驾驶系统中,每一个检测结果都可能对决策和控制产生重大影响,所以目标检测算法需要具备极高的准确率,尽量避免误判和漏判情况的发生。
其次,目标检测方法需要具备实时性。
在自动驾驶系统中,目标检测算法需要在很短的时间内对环境中的目标进行准确识别和定位,因为时间延迟可能导致交通事故的发生。
所以,在设计目标检测方法时,需要考虑算法的计算复杂度和实时性能。
另外,目标检测方法应该具备对各种复杂场景和光照条件的适应能力。
自动驾驶系统需要在不同的天气、道路条件和环境中运行,并能够准确检测目标物体。
因此,目标检测方法需要具备良好的鲁棒性,对不同场景和光照条件下的目标物体进行有效识别。
在实际应用中,基于深度学习的目标检测方法具备较高的检测准确率和实时性能。
一种常用的深度学习目标检测方法是基于卷积神经网络的方法,如R-CNN、Fast R-CNN、FasterR-CNN等。
这些方法通过卷积神经网络对图像进行特征提取,并将提取到的特征输入到分类器中进行目标识别和定位。
这些方法在目标检测领域取得了很好的成果。
此外,还有一些新的深度学习目标检测方法被提出,如YOLO (You Only Look Once)和SSD (Single Shot MultiBox Detector)。
这些方法通过将目标检测任务转化为一个回归问题,并利用卷积神经网络对图像进行全局感知,从而实现了更高的检测速度和准确率。
《特殊天气条件下的目标检测方法综述》篇一一、引言随着现代科技的发展,目标检测技术在各种场景中得到了广泛的应用。
然而,在特殊天气条件下,如雾、霾、雨、雪等,目标检测的准确性和稳定性常常会受到挑战。
因此,研究特殊天气条件下的目标检测方法显得尤为重要。
本文将对特殊天气条件下的目标检测方法进行综述,以期为相关领域的研究和应用提供参考。
二、特殊天气条件对目标检测的影响特殊天气条件主要包括雾、霾、雨、雪等天气情况。
这些天气状况会对图像的采集和传输造成影响,从而影响目标检测的准确性和稳定性。
例如,雾天会导致图像对比度降低,目标特征模糊;雨天则可能造成图像模糊、噪点增多等问题。
因此,在特殊天气条件下,如何提高目标检测的准确性和稳定性成为了研究的重点。
三、特殊天气条件下的目标检测方法针对特殊天气条件下的目标检测问题,研究者们提出了多种方法。
1. 基于深度学习的目标检测方法深度学习技术在目标检测领域取得了显著的成果。
在特殊天气条件下,研究者们利用深度学习技术提取目标的特征信息,并通过训练模型提高目标检测的准确性和稳定性。
例如,可以通过使用改进的卷积神经网络(CNN)模型来提取目标的特征信息,从而提高在雾、霾等天气条件下的目标检测效果。
2. 基于图像增强的目标检测方法图像增强技术可以改善图像的质量,从而提高目标检测的准确性。
在特殊天气条件下,研究者们可以通过图像增强的方法来增强图像的对比度和清晰度,以便更好地进行目标检测。
例如,可以采用去雾算法和去噪算法来改善图像质量,从而减少特殊天气对目标检测的影响。
3. 基于多源信息融合的目标检测方法多源信息融合技术可以整合多种传感器数据来提高目标检测的准确性。
在特殊天气条件下,可以利用雷达、激光等传感器数据与视觉数据相结合,从而提高目标检测的准确性和稳定性。
例如,可以通过将雷达数据与视觉数据进行融合来提高在雨雪等恶劣天气条件下的目标检测效果。
四、不同方法的比较与评价不同方法在特殊天气条件下的目标检测中各有优劣。
《基于场景的智能网联汽车“三支柱”安全测试评估方法研究》篇一一、引言随着智能网联汽车的快速发展,其安全性能的测试评估显得尤为重要。
本文提出了一种基于场景的智能网联汽车“三支柱”安全测试评估方法,该方法主要针对智能网联汽车的驾驶环境、车辆性能及信息交互等关键因素进行深入研究。
通过对实际驾驶场景的模拟与评估,以提高智能网联汽车的安全性,并为其测试评估提供科学的依据。
二、智能网联汽车概述智能网联汽车是指集成了先进的传感器、控制器和通信技术,能够与周围环境进行实时交互,实现车辆与车辆、车辆与基础设施、车辆与行人之间的信息共享和协同驾驶的汽车。
其发展对于提高道路交通安全、减少交通事故具有重要意义。
然而,随着其普及程度的提高,对安全性能的测试评估也提出了更高的要求。
三、基于场景的“三支柱”安全测试评估方法(一)第一支柱:驾驶环境场景测试驾驶环境场景测试主要针对智能网联汽车在各种道路环境下的表现进行评估。
通过对不同道路类型、交通状况、天气条件等场景的模拟,测试车辆在各种环境下的感知、决策和执行能力。
同时,还需考虑道路标志、交通信号等信息的识别和处理能力,以评估车辆在复杂环境下的安全性能。
(二)第二支柱:车辆性能测试车辆性能测试主要针对智能网联汽车的硬件系统和软件系统进行评估。
硬件系统包括传感器、执行器等部件的性能和可靠性;软件系统则包括控制策略、算法等。
通过在不同场景下的实际测试,评估车辆在各种情况下的动力性、稳定性、制动性能等关键指标,以确保车辆在各种条件下的安全性能。
(三)第三支柱:信息交互安全测试信息交互安全测试主要针对智能网联汽车在与其他车辆、基础设施和行人进行信息交互时的安全性进行评估。
通过模拟各种信息交互场景,测试车辆在接收和处理其他交通参与者信息时的准确性和及时性,以及在信息交互过程中的抗干扰能力和故障处理能力。
此外,还需考虑信息安全和隐私保护等方面的问题,以确保信息交互的安全性。
四、测试评估流程与方法(一)确定测试场景和目标根据智能网联汽车的特性和需求,确定需要测试的场景和目标。
汽车行业智能驾驶辅助系统实施方案第1章项目背景与目标 (3)1.1 智能驾驶辅助系统市场概述 (3)1.1.1 市场规模 (3)1.1.2 技术发展 (3)1.1.3 政策环境 (3)1.2 项目实施目标 (3)1.2.1 提高驾驶安全性 (3)1.2.2 提升驾驶舒适性 (4)1.2.3 降低能耗 (4)1.2.4 促进产业升级 (4)1.3 项目实施意义 (4)1.3.1 提升我国智能驾驶辅助系统技术水平 (4)1.3.2 满足消费者需求 (4)1.3.3 助力我国智能汽车产业发展 (4)第2章技术路线与系统架构 (4)2.1 技术路线选择 (4)2.2 系统架构设计 (5)2.3 关键技术分析 (5)第3章感知系统设计 (5)3.1 感知系统概述 (5)3.2 摄像头与雷达选型 (6)3.2.1 摄像头选型 (6)3.2.2 雷达选型 (6)3.3 数据融合技术 (6)3.3.1 同类传感器数据融合 (6)3.3.2 异类传感器数据融合 (6)3.3.3 多源数据融合 (6)3.4 感知算法研究 (6)3.4.1 目标检测算法 (6)3.4.2 目标跟踪算法 (7)3.4.3 行为识别与预测算法 (7)3.4.4 道路场景理解算法 (7)第4章决策与控制系统 (7)4.1 决策与控制概述 (7)4.2 行为决策算法 (7)4.3 运动控制策略 (7)4.4 系统集成与优化 (8)第五章通信系统设计 (8)5.1 通信系统概述 (8)5.2 车载通信技术 (8)5.3 车联网通信技术 (9)第6章导航与定位系统 (10)6.1 导航与定位系统概述 (10)6.2 高精度定位技术 (10)6.3 路径规划算法 (10)6.4 导航系统与智能驾驶辅助系统的融合 (10)第7章人机交互系统设计 (11)7.1 人机交互概述 (11)7.2 用户界面设计 (11)7.3 语音识别与交互 (11)7.4 车内氛围照明与音响系统 (12)第8章测试与验证 (12)8.1 测试与验证概述 (12)8.2 硬件在环测试 (12)8.3 实车测试与验证 (12)8.4 安全性与可靠性评估 (13)第9章标准与法规 (13)9.1 智能驾驶辅助系统标准概述 (13)9.1.1 标准分类 (13)9.1.2 标准内容 (14)9.1.3 制定机构 (14)9.2 国内外相关法规分析 (14)9.2.1 国外法规 (14)9.2.2 国内法规 (14)9.3 法规与标准对项目实施的影响 (15)9.4 标准制定与推动 (15)第10章项目实施与推广 (15)10.1 项目实施计划 (15)10.1.1 需求分析与方案设计 (15)10.1.2 系统研发 (15)10.1.3 实车测试与调整 (16)10.1.4 量产与市场推广 (16)10.2 项目风险分析 (16)10.2.1 技术风险 (16)10.2.2 市场风险 (16)10.2.3 法律法规风险 (16)10.3 项目推广策略 (16)10.3.1 品牌建设 (16)10.3.2 渠道拓展 (16)10.3.3 售后服务 (16)10.3.4 用户培训 (16)10.4 持续优化与升级方案 (17)10.4.1 技术升级 (17)10.4.2 功能拓展 (17)10.4.4 用户反馈 (17)第1章项目背景与目标1.1 智能驾驶辅助系统市场概述科技的飞速发展,汽车行业正面临着深刻的变革。
Journal of Image and Signal Processing 图像与信号处理, 2018, 7(1), 36-42Published Online January 2018 in Hans. /journal/jisphttps:///10.12677/jisp.2018.71004Continuous Observation and Identificationof Weather Phenomena via KNNSizhao Liu, Guanlei XuDalian Navy Academy, Dalian LiaoningReceived: Jan. 3rd, 2018; accepted: Jan. 17th, 2018; published: Jan. 24th, 2018AbstractMulti-level weather classification is the basis and important technology of many potential applica-tions such as video surveillance and intelligent transportation. Most of the existing weather classi-fication methods only consider weather conditions that are sunny or sunny cloudy and mainly concentrate in a fixed scene, such as mass tourism and traffic scenarios. Based on the HSV image color model, this paper mainly analyzes and studies the brightness of each weather image, com-paring the brightness, and the average and variance of its brightness value. Using the nearest neighbor method, the selected images are classified and identified, so as to automatically identify various types of weather. The experimental results confirm the feasibility of this method.KeywordsWeather Classification, HSV Image Color Model, The Nearest Neighbor Method,Image Recognition一种基于KNN的天气现象连续观测识别方法刘泗照,徐冠雷大连舰艇学院,辽宁大连收稿日期:2018年1月3日;录用日期:2018年1月17日;发布日期:2018年1月24日摘要多级天气分类是视频监控和智能交通等诸多潜在应用的基础和重要技术。
《基于场景的智能网联汽车“三支柱”安全测试评估方法研究》篇一一、引言随着智能网联汽车的快速发展,其安全性能的测试评估显得尤为重要。
本文提出了一种基于场景的智能网联汽车“三支柱”安全测试评估方法,旨在全面、系统地评估智能网联汽车的安全性。
二、智能网联汽车安全测试背景与意义智能网联汽车的安全测试是确保车辆在复杂道路环境中能够稳定、安全运行的关键环节。
传统的安全测试方法主要关注单一功能或特定场景的测试,无法全面反映车辆在实际道路环境中的综合性能。
因此,基于场景的智能网联汽车安全测试评估方法的研究具有重要意义。
三、三支柱安全测试评估方法(一)支柱一:场景构建场景构建是智能网联汽车安全测试的基础。
根据实际道路环境和交通情况,构建不同类型、不同难度的场景,包括但不限于交通拥堵、复杂路况、极端天气等场景。
在场景构建过程中,需要充分考虑车辆的动力性能、传感器性能、控制系统等因素,以确保测试场景的合理性和准确性。
(二)支柱二:安全性能测试在构建好场景后,进行安全性能测试。
安全性能测试主要包括对车辆在各种场景下的响应速度、控制精度、传感器数据处理等方面进行评估。
此外,还需要对车辆的主动安全技术、自动驾驶技术等进行综合评估。
在测试过程中,需要采用先进的测试设备和软件,确保测试数据的准确性和可靠性。
(三)支柱三:风险评估与改进在完成安全性能测试后,进行风险评估与改进。
通过分析测试数据,识别车辆在各种场景下可能存在的安全隐患和风险点,提出相应的改进措施。
同时,还需要对改进后的车辆进行再次测试,验证改进措施的有效性。
在风险评估与改进过程中,需要充分考虑用户需求和市场反馈,确保改进措施的针对性和实用性。
四、研究方法与实验设计(一)研究方法本研究采用理论分析与实验验证相结合的方法。
首先,通过查阅相关文献和资料,了解智能网联汽车的安全性能测试评估方法;其次,根据实际道路环境和交通情况,构建不同场景;最后,进行实验验证和数据分析。
基于道路场景的天气识别与目标提取方法研究
作者:康俊张著洪
来源:《贵州大学学报(自然科学版)》2018年第03期
摘要:针对晴、阴、雾天环境下道路场景中运动目标提取问题,探讨基于特征量融合的天气类型判别算法,借助不同天气下的图像特征信息研究运动目标提取算法。
基于不同天气下
多种场景的视频图像序列,实验结果表明,获得的天气类型判别算法能较好地依据图像的历史
信息判别天气的类别;目标提取结果表明,获得的目标提取算法能有效消除噪声,并且提取运动目标的效果较好。
关键词:特征融合;天气识别;图像处理;目标提取
中图分类号:TP391.41
文献标识码: A
在道路视觉场景下,天气状况是影响图像中运动目标提取的重要因素,它大致可分为晴天、阴天、雾天、雪天等。
針对不同的天气状况,一些学者已对天气状态的识别进行了研究。
例如,Song等[1]通过背景差分法和图像差值滤波设计辨析晴天、阴天和雪天的天气识别算法;张红艳等[2]借助待识别样本与分类超平面的距离值,提出一种用于天气类型识别的改进型K近邻和支持向量机方法;张天坤[3]利用图像分割思想获得特征量,提出一种改进型有向无环图决策树支持向量机。
另一方面,近来对不同天气环境下的降质图像恢复及运动目标提取的研究已取得初步进展。
在晴天环境下,帧差法因结构简单、计算量小且差分图像受光线变化影响小,在运动目标提取方面得到了广泛应用。
虽然该方法的目标提取效果较稳定,但容易导致图像出现空洞现象。
在阴天环境下,视频图像的低对比度及边缘模糊导致目标提取较困难。
例如,欧扬等[4]提出由帧间差分、滤除噪声得到运动区域的初始检测模板,用提取函数法进行低灰度值的运动区域检测,利用多尺度形态梯度算子检测边缘并最终提取运动目标。
对于雾天环境,因室外视频图像退化严重,图像对比度降低以及细节信息不明显,导致无法有效提取运动目标。
例如,陈超等[5]基于暗原色值区分图像区域,对不同区域进行不同程度的去雾。
该方法实时性较好,但因大气光强值和透射率出现估计偏差,导致目标提取的效果受到影响。
综上,已有的方法在天气识别和目标提取方面的应用效果不理想。
为此,本文针对晴、阴、雾天环境下的天气识别问题,探讨基于道路场景的天气识别算法与目标提取算法。
借助实时场景的视频序列,实验结果已验证,获得的目标提取算法能较好地进行目标提取。
1 天气识别算法
图像的特征量是天气识别研究的重要基础,在此给出四种特征量,即亮度、邻域占比、对比度、锐度。
(1)亮度,即刻画图像的光亮强度。
对于大小为M×N的灰度图P,其像素值的均值常作为该图的亮度值。
(2)锐度,即刻画图像P中目标边缘轮廓的明显程度。
利用图像P的梯度信息表示此图的锐度[6],即
(3)对比度,即图像P中明暗区域内最亮与最暗之间不同亮度层级的测量值,若明暗差异范围较大,则对比度较大,反之则较小[7]。
由于不同天气环境下获取的视频图像所表现的
对比度不同,因此利用图像对比度有助于分辨不同天气环境。
图像P的两种对比度表示形式如下[8]:
当图像出现模糊时,有可能步3.1~3.3均不满足,此时利用步4可以实现天气判断。
鉴于天气变化具有连续性,步5可防止因Nj过大导致误判。
若噪声因素导致对当前天气状态产生误判,则利用步6进行纠正。
2 运动目标提取算法
经由以上算法和当前帧获知天气状态之后,需依据天气状态设计相应的算法进行目标提取,在此给出晴、阴、雾天环境下目标提取算法。
2.1 晴天环境下目标提取
帧间差分法是一种将当前帧与上一帧图进行相减获得差值图像的方法,此方法适合于动态环境下运动目标提取,但视觉图像中包含有目标与背景的相对运动因素,从而得到的差值图像存在孔洞现象。
在此为避免孔洞现象,给出一种建模估计法来实现目标提取。
算法2借助像素灰度值落在各灰度区间的次数估计出像素灰度值。
通过该方法可以有效提取运动目标,抑制噪声和孔洞现象。
2.2 阴天环境下目标提取
阴天环境下的光照强度较弱,图像清晰度较低,如何有效提取目标便成为关键问题。
考虑到单帧图像中每个像素点受光照影响几乎一致,可通过调整图像灰度均值降低光照强弱对图像清晰度的影响[9]。
同时,由于相邻两帧之间图像灰度均值的相似度较高,可利用上一帧图的灰度均值来恢复当前帧以此增加鲁棒性。
基于此,目标提取算法如下:
在算法4中,步3仅用均值滤波实现图像滤波,是因为提取运动目标过程中对图像的细节信息要求不高,且进行多次滤波将影响去雾效率。
对于有雾图像和已去雾图像,虽然相同位置的像素灰度值差异过大,但也包含少量目标信息,因此有助于目标的提取。
3 数值实验
本实验在Windows7(CPU/3.70 GHz,RAM/4 GB)/Visual C++6.0/OpenCV 1.0环境下进行。
3.1 天气识别
为检测算法1能否正确识别天气类别,以及以上算法2~4是否能有效提取运动目标,选取晴天25、阴天20、雾天11种视频序列产生样本集,即从每种视频序列中选取连续的20帧图像构成样本集,如图1~3所示。
基于以上测试样本,算法1获得的测试结果如表1所示。
由表1可知,算法1对晴天的正确识别率稍低。
主要原因在于,一方面,高速公路环境下图像背景简单,使得锐度特征值过低且容易产生误判,如图1(8)、(13);另一方面,图像像素灰度值差异过大,也易于造成灰度均值邻域占比降低,从而导致天气行为指标值降低,如图1(16)、(18);再次,逆光下图像序列的部分区域亮度偏低,导致提取亮度特征出现偏差,并且锐度特征不明显,从而影响晴天识别的准确率,如图1(24)、(25)。
对天气为阴天、雾天情形的识别正确率较高。
出现误判的主要原因在于,雨后阴天场景中路面亮度较高且背景物体由于光照原因造成锐度特征值变大,造成误判为晴天,如图2(10)、(13)、(19);雾天场景中雾气浓度低也会使算法误判雾天为阴天环境。
另外,由表1可以看出,算法1的单帧耗时少,能满足实时性要求。
3.2 目标提取
从以上三种天气场景中各选取一种视频序列作为测试样本,选取相邻二帧差法、三帧差法(晴天阈值为30、阴天阈值为20、雾天阈值为15)参与算法2、3、4比较,获得的目标提取效果如图4~6所示。
由图4可知,相邻二帧差法和三帧差法提取的运动目标存在严重的孔洞现象,而算法2在一定程度能抑制图像的孔洞现象,因此,该方法有利于晴天環境的目标提取。
由图5可知,阴天环境下的目标提取较为困难,主要原因在于运动目标的像素值整体偏低。
相对而言,算法3的运动目标提取效果优于相邻二帧差法和文献[4]算法获得的效果。
其中相邻二帧差法导致提取的目标有孔洞,文献[4]的算法较难去除背景信息。
由图6可知,算法4通过图像上部天空区域估计大气光强值减少了噪声影响,利用均值滤波消除噪声且减少计算量,能有效地提取运动目标。
该算法的目标提取效果明显优于其它两种算法获得的效果;文献[5]的算法导致部分背景区域也被视为目标,相邻二帧差法较难提取到运动目标,因此不适用于雾天环境下的目标提取问题。
4 结论
为解决道路场景下的天气识别问题,将图像特征量进行融合设计天气识别指标,进而设计天气识别算法,并用于检测天气状态。
该算法通过累积识别结果对当前帧误判结果进行纠正,可有效防止因噪声等因素导致单帧错误识别现象。
进一步,针对晴、阴、雾不同天气状况,设计运动目标提取算法,该算法能较好地对不同视觉场景下的运动目标进行提取,能实时、有效地提取运动目标。
参考文献:
[1]SONG H, XIN L, CHEN Y Z, et al. Weather identifying system based on vehicle video image[C]// Intelligent Control and Automation. Taipei: IEEE, 2011:172-175.
[2]张红艳,李茵茵,万伟. 改进K近邻和支持向量机相融合的天气识别[J]. 计算机工程与应用, 2014, 50 (14):148-151.
[3]张天坤. 基于机器视觉的天气识别研究与实现[D]. 武汉:武汉理工大学, 2014.
[4]欧扬,张宗杰. 低照度视频序列运动目标的检测与提取[J]. 微计算机信息, 2005, 21(12-1):91-92,118.
[5]陈超,彭鑫珏,马利庄. 视频实时自适应去雾算法[J]. 计算机工程与应用, 2016,52(6):150-155.
[6]PECHPACHECO J L, CRISTBAL G, CHAMORROMARTNEZ J, et al. Diatom Autofocusing in Bright field Microscopy: a Comparative Study[C]// Inter national Conference on Pattern Recognition. Barcelona: IEEE Computer Society,2000:3318.
[7]克兢. 灰度和彩色图像对比度增强的PDE方法研究[D]. 西安:西北大学, 2008.
[8]李骞,范茵,张璟,等. 基于室外图像的天气现象识别方法[J]. 计算机应用, 2011,31(6):1624-1627.
[9]张坤,周东翔,彭科举,等. 一种消除光照影响的舰船跑道区域增强方法[J]. 现代电子技术, 2014,37(21):31-34.
(责任编辑:周晓南)。