基于深度学习目标检测进展
- 格式:pptx
- 大小:5.77 MB
- 文档页数:25
目标检测的发展趋势目标检测是计算机视觉中的一项重要任务,旨在识别和定位图像或视频中的目标对象。
随着深度学习和硬件技术的快速发展,目标检测领域取得了显著的进展。
很多研究者和工程师致力于提高目标检测的准确性和效率,以满足日益增长的应用需求。
在未来,目标检测领域将发展出以下几个趋势。
首先,以深度学习为核心的方法将继续在目标检测领域占据主导地位。
深度学习通过使用神经网络模型从大规模的标注数据中进行自动的特征表示学习,有效地解决了目标检测中的特征提取和目标分类问题。
随着深度学习模型的不断发展,目标检测的准确性将得到进一步提高,并能够更好地适应各种复杂的场景。
其次,跨域目标检测将成为一个热门的研究方向。
传统的目标检测方法通常在特定的数据集上训练模型,并且在同样的数据集上进行测试。
然而,现实中存在着很多不同领域的目标检测问题,如从天空中检测飞机、从海洋中检测鱼群等。
因此,跨域目标检测旨在在一个或多个领域的数据上进行训练,并能够在其他领域的数据上进行准确的目标检测。
第三,目标检测领域将越来越注重模型的解释性和可解释性。
深度学习模型通常被认为是黑箱模型,难以解释其决策过程。
然而,在许多应用领域,对于模型做出的决策必须要有可解释性和可信度的解释。
因此,研究者将致力于开发一种能够提供对模型决策解释的目标检测方法,以增强模型的可解释性。
第四,目标检测将逐渐向移动端和嵌入式设备迁移。
目前,目标检测通常在高性能的服务器上进行,这限制了其在实时应用中的应用范围。
随着移动设备和嵌入式系统的性能不断提升,目标检测将能够在这些设备上实时进行,并为移动应用、智能家居等领域提供更广阔的应用场景。
第五,目标检测将与其他计算机视觉任务进行集成。
目标检测是计算机视觉中的基础任务之一,往往是其他高级任务的前提和基础。
例如,目标跟踪、场景理解、行为识别等任务都需要先进行目标检测。
因此,未来目标检测将与这些任务进行深度集成,并为更复杂的计算机视觉问题提供解决方案。
基于深度学习的变化检测综述随着遥感技术和深度学习技术的不断发展,基于深度学习的变化检测方法已经成为当前最具前景的研究方向之一。
本综述论文系统地介绍了基于深度学习的变化检测的相关研究,从数据预处理、特征提取、模型设计到算法应用等方面进行详细描述和分析,同时讨论了该领域的主要挑战和未来发展方向。
研究表明,基于深度学习的变化检测方法相较传统方法具有更高的准确率和效率,在地球观测、环境检测等应用领域具有广泛的应用前景。
关键词:遥感;深度学习;变化检测;数据预处理;特征提取;模型设计;应用一、引言1.1 研究背景变化检测是地球科学领域中的一个重要研究课题。
变化检测可以用来研究地球表面的变化,例如水文变化、土地利用变化、资源变化等等,这些变化可能对环境、社会和经济产生重大影响。
传统的变化检测方法通常基于人工解译或遥感影像差异分析。
这些方法存在着一些不足之处,例如人工解译的结果受到主观因素的影响,遥感影像差异分析的精度受到多种因素的影响,且需要大量的时间和经验。
随着深度学习技术的快速发展,基于深度学习的变化检测方法逐渐成为了一种新的研究方向。
深度学习的特点是可以自动提取特征,同时还能够处理大量的数据,从而提高变化检测的精度和效率。
近年来,基于深度学习的变化检测方法已经应用于多个研究领域,例如城市变化、农田变化、海岸带变化等等。
这些研究表明,基于深度学习的变化检测方法具有广阔的应用前景和深远的影响。
1.2 目的和意义本综述论文的主要目的是对基于深度学习的变化检测方法进行综述和分析。
本文首先介绍了传统的变化检测方法及其不足之处,然后详细介绍了深度学习技术的基本原理和应用情况,最后总结了现有的基于深度学习的变化检测研究成果,并讨论了未来的研究方向。
本文的意义在于能够为地球科学领域中的变化检测提供一种新的方法和思路。
基于深度学习的变化检测方法不仅可以提高检测精度和效率,还可以应用于更广泛的领域,例如环境保护、资源管理、城市规划等等。
目标检测方法的发展历程和相关改进方法下载提示:该文档是本店铺精心编制而成的,希望大家下载后,能够帮助大家解决实际问题。
文档下载后可定制修改,请根据实际需要进行调整和使用,谢谢!本店铺为大家提供各种类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by this editor. I hope that after you download it, it can help you solve practical problems. The document can be customized and modified after downloading, please adjust and use it according to actual needs, thank you! In addition, this shop provides you with various types of practical materials, such as educational essays, diary appreciation, sentence excerpts, ancient poems, classic articles, topic composition, work summary, word parsing, copy excerpts, other materials and so on, want to know different data formats and writing methods, please pay attention!目标检测方法的发展历程和相关改进方法目标检测作为计算机视觉领域的重要任务之一,经过多年的发展与演进,涌现出多种方法和技术。
YOLO系列目标检测算法研究进展一、本文概述随着技术的飞速发展,目标检测作为计算机视觉领域的核心任务之一,其在安防监控、自动驾驶、人机交互等实际应用中发挥着越来越重要的作用。
在众多目标检测算法中,YOLO(You Only Look Once)系列算法以其高效的速度和精确的性能,自问世以来就受到了广泛的关注与研究。
本文旨在对YOLO系列目标检测算法的研究进展进行全面的梳理和深入的探讨,以期为相关领域的研究人员和实践者提供有价值的参考。
本文将首先回顾YOLO算法的诞生背景和发展历程,分析其在目标检测领域的重要地位。
随后,本文将详细介绍YOLO系列算法的基本原理和关键技术,包括其网络结构、损失函数、训练策略等方面的改进和创新。
在此基础上,本文将重点探讨YOLO系列算法在性能提升、速度优化、小目标检测等方面的研究进展,并分析其在实际应用中的优势和挑战。
本文将展望YOLO系列算法的未来发展趋势,探讨其在深度学习、计算机视觉等领域的潜在应用前景。
通过本文的阐述,我们期望能够为读者提供一个清晰、全面的YOLO系列目标检测算法研究进展的概览,同时为推动该领域的进一步发展贡献一份力量。
二、YOLO算法基本原理YOLO(You Only Look Once)是一种目标检测算法,其基本原理是将目标检测视为回归问题,从而可以在单个网络中进行端到端的训练。
与传统的目标检测算法如R-CNN系列不同,YOLO不需要生成候选区域(Region Proposal),而是直接在输入图像上预测所有目标的位置和类别。
YOLO算法的核心思想是将目标检测视为单次前向传递(Single Forward Pass)的过程。
它首先将输入图像划分为S×S的网格,每个网格负责预测B个边界框(Bounding Box),同时预测这些边界框的置信度(Confidence Score)以及C个类别的概率。
置信度反映了模型对该边界框是否包含目标的信心,以及预测框与真实框的重叠程度。
基于深度学习的三维目标检测算法综述邵昀岑(东南大学 软件学院,江苏 南京 211189)摘 要:随着自动驾驶行业的快速发展,基于深度学习的三维目标检测技术也得到了快速发展,目前自动驾驶汽车主要依赖图像与激光雷达点云进行环境感知。
基于这两种数据的三维目标检测技术可提取出物体的空间结构信息,包括物体的姿态、尺寸、运动方向、形状等,因此该技术不仅可用于自动驾驶的感知,还可用于工业机器人对物体的识别与抓取,以及仓储机器人的视觉导航等。
近年来,计算能力的提升、数据集的公开、深度学习的发展,为三维目标检测算法带来了巨大的变革。
关键词:3D目标检测;深度学习;激光雷达点云;计算机视觉;人工智能中图分类号:TP18;TP391.41 文献标识码:A 文章编号:1003-9767(2019)23-026-053D Object Detection Based on Deep LearningShao Yuncen(School of Software Engineering, Southeast University, Nanjing Jiangsu 211189, China) Abstract: With the rapid development of the automatic driving industry, 3D target detection technology based on deep learning has also developed rapidly. At present, self driving vehicles rely mainly on image and LIDAR point clouds for environmental perception. The three-dimensional target detection technology based on these two kinds of data can extract the spatial structure information of the object, including the attitude, size, moving direction, shape, etc. Therefore, the technology can be used not only for the perception of automatic driving, but also for the recognition and grasping of the object by the industrial robot, as well as the visual navigation of the storage robot, etc. In recent years, the improvement of computing power, the openness of data sets and the development of deep learning have brought great changes to 3D object detection algorithm.Key words: 3D Obeject Detection; deep learning; LIDAR point cloud; computer vision; artificial intelligence0 引言自动驾驶汽车依赖的传感器主要是图像摄像头与激光雷达,汽车需要依赖这两种传感器的数据来获知当前位置的环境信息,识别出前方的车辆、行人、物体等,识别的准确度会直接影响自动驾驶系统的行驶决策,这关乎着道路上的行驶安全,所以识别的准确度至关重要。
目标检测发展现状目标检测是计算机视觉领域的一个重要研究方向,其主要目标是在给定图像中准确地识别和定位不同类别的目标。
目标检测在许多实际应用中都具有广泛的应用,包括智能监控、智能交通、自动驾驶、人脸识别等。
目标检测的发展呈现出以下几个重要的阶段和趋势:1. 传统目标检测方法:早期的目标检测方法主要基于图像特征和机器学习算法。
其中较为常见的方法包括基于滑动窗口的方法、基于颜色、纹理或形状等特征的方法。
这些方法主要关注目标的外观特征和上下文信息,但在处理复杂场景和遮挡等问题上存在一定的局限性。
2. 深度学习方法:随着深度学习的兴起,目标检测领域也开始引入深度学习的技术。
基于深度学习的目标检测方法主要使用卷积神经网络(CNN)来提取图像特征,并使用分类和回归模型来实现目标的定位和识别。
其中,YOLO(You Only Look Once)和Faster R-CNN(Region-based Convolutional Neural Networks)等方法成为了目标检测中的代表性算法。
这些方法具有较高的准确性和鲁棒性,在多个公共数据集上取得了优秀的检测性能。
3. 单阶段和多阶段方法:深度学习方法中,目标检测算法主要分为单阶段和多阶段两类。
单阶段方法如YOLO、SSD (Single Shot MultiBox Detector)等通过在不同尺度和特征层上进行目标预测,实现了实时目标检测。
而多阶段方法如Faster R-CNN则采用了两个阶段的流程,首先生成候选框,再对候选框进行分类和回归。
这两种方法各有优劣,根据具体场景和需求选择合适的方法。
4. 可解释性和轻量化:目标检测方法不仅要求高准确率和效率,还需要具备一定的可解释性。
研究者们开始关注如何将目标检测算法的决策过程可视化和解释,以增加算法的透明性和可信度。
同时,为了满足移动设备和嵌入式系统的实际应用需求,研究者们也开始探索轻量化的目标检测方法,并取得了一定的进展。
深度学习诞生前,实现图像中目标检测任务主要依赖于人工设计局部特征描述子,概括性强、抽象表达概括全局信息从而区分图像的不同区域,经典算法有HOG[1](Histogram of Oriented Gradient)、SIFT[2](Scale-Invariant Feature Transform)及LBP[3](Local Binary Patterns)等,但局部特征描述符的设计需要极强的领域专业知识且耗费人力。
在深度学习的发展之下,借用深层次卷积神经网络可以从图像中学习具有不同层次的特征表示方法,如何设计具有更好局部特征描述子的问题转化为如何设计轻量网络结构和简化训练过程,以实现精细任务。
在计算机视觉的飞速发展之下,细化分类的计算机视觉技术可以分为分类、目标检测、语义分割、实例分割多个类别[4]。
分类指的是预测目标图像中对象类别,目标检测在由粗至细的过程中不仅确定图像中目标的类别,同时以边界框或者图中心的形式标明目标所在图像中具体位置。
语义分割在此基础上对目标每个像素点标签预测,使每个像素按照其所在区域或对象分类标记,得到更精细分割结果。
实例分割的概念最早由Hariharan等人[5]提出,旨在对同类对象组不同个体提供不同标签,整个过程中相同含义像素被赋予相同标签,基于深度学习的实例分割研究进展李晓筱1,胡晓光2,王梓强1,杜卓群11.中国人民公安大学信息网络安全学院,北京1000382.中国人民公安大学侦查学院,北京100038摘要:目标检测确定检测图像中目标对象所在区域及其类别,语义分割对检测图像实现像素级分类,实例分割可以定义为同时解决目标检测与语义分割问题,在分类的同时确定每个目标实例语义。
实例分割网络在无人机驾驶、机器人抓取、工业筛检等领域具有重要应用意义,针对目前基于深度学习实例分割综述性文章的空白,对实例分割进展进行概述,按照单阶段实例分割与双阶段实例分割的分类对不同网络模型进行论述,重点介绍近两年网络框架的发展,总结各网络特点的同时提出未来发展方向。
基于yolov8的交通标志识别系统的国内研究现状和成
果
基于Yolov8的交通标志识别系统在国内的研究现状和成果如下:
首先,目前国内在交通标志识别技术方面已经取得了一定的成果。
基于深度学习的目标检测算法已经在交通标志识别中得到了广泛应用,其中YOLO 系列算法在国内外都得到了广泛的研究和应用。
其次,Yolov8算法在交通标志识别中的应用已经取得了一定的成果。
该算法采用了类似于YOLOv3的目标检测框架,但对其进行了优化和改进,提高了检测速度和准确率。
通过训练多任务的YOLOv8模型,可以在不同的交通场景下实现准确的目标检测和识别。
此外,国内在交通标志识别方面也开展了与实际应用的结合研究。
例如,一些研究机构和企业已经将基于深度学习的交通标志识别技术应用于智能交通监控系统中,实现了道路交通标志的实时检测和识别,辅助监控道路状况,评估交通设计是否合理。
此外,一些研究还探索了如何利用路面标志线检测与识别系统对城市路面状况进行智能化监控,及时发现和维修损坏的路面标志线,保障道路交通秩序、提升道路使用效率。
综上所述,基于Yolov8的交通标志识别系统在国内已经得到了广泛的研究和应用,并取得了一定的成果。
未来随着技术的不断发展和完善,相信该领域的研究和应用将更加成熟和广泛。
如何利用AI技术进行物体检测和目标跟踪一、引言近年来,随着人工智能(Artificial Intelligence,AI)技术的快速发展,物体检测和目标跟踪已经成为计算机视觉领域的重要任务之一。
物体检测可以精确地识别图像或视频中的不同对象,并确定它们的位置和边界框;而目标跟踪则是追踪特定对象在连续帧中的位置变化。
这两个技术的应用广泛,包括自动驾驶、安防监控以及智能医疗等多个领域。
本文将介绍如何利用AI技术进行物体检测和目标跟踪。
二、物体检测方法1. 基于深度学习的物体检测深度学习是目前最先进且广泛使用的方法之一。
基于深度学习的物体检测算法通常采用卷积神经网络(Convolutional Neural Network,CNN)结构,通过训练大量标注数据来实现高效准确地物体检测。
其中最具代表性的算法是YOLO(You Only Look Once)系列。
YOLO算法通过将整张图像作为输入,在单次前向传递中直接输出所有目标的类别和位置信息。
这使得YOLO算法在速度上更快,并且具有较好的实时性能。
另一个常用的方法是Faster R-CNN(Region-based Convolutional Neural Network)。
Faster R-CNN通过使用候选区域提取网络(Region Proposal Network,RPN)来生成可能包含目标的边界框,然后通过分类网络来确定物体的类别和精确位置。
该方法准确性更高,但速度相对较慢。
2. 基于传统的物体检测方法除了深度学习之外,还存在一些基于传统计算机视觉方法的物体检测算法。
这些方法主要包括特征提取、目标匹配和目标分类等步骤。
其中最常见的是基于特征提取与模板匹配的方法。
该方法通过提取图像中的局部特征并与预定义模板进行匹配,从而确定物体位置。
然而,由于其对光照、尺度和姿态等变化敏感,其准确性相对较低。
三、目标跟踪技术1. 单目标跟踪单目标跟踪旨在跟踪图像或视频序列中唯一目标对象的位置变化。
yolo目标检测算法流程
YOLO(You Only Look Once)是一种基于深度学习的目标检测算法,它的流程如下:
1. 输入图像:将待检测的图像输入给算法。
2. 网络预测:使用预训练好的卷积神经网络(通常是Darknet 或YOLO v3网络)对输入图像进行前向传播,得到网络的输出。
3. 特征提取:提取特征图,其中每个格子(cell)都负责预测一组边界框(bounding box)以及对应物体的类别和置信度。
4. 边界框预测:对每个格子的边界框进行预测。
每个边界框由四个坐标值(x, y, w, h)来表示,其中(x, y)为边界框的中心坐标,w和h分别表示边界框的宽度和高度。
5. 置信度计算:计算每个边界框的置信度,代表该边界框内是否包含物体。
6. 类别预测:对每个格子的每个边界框预测物体的类别。
7. 非极大值抑制(NMS):对置信度低的边界框进行滤除,并选择具有最高置信度的边界框作为最终的检测结果。
8. 输出结果:输出最终的检测结果,包括边界框的坐标、类别和置信度。
总的来说,YOLO算法将整个目标检测过程作为一个单一的神经网络模型进行处理,通过网络的预测输出来得到图像中所有物体的位置和类别信息。
这种实时性很高的算法在许多计算机视觉任务中得到了广泛应用。
深度学习目标检测方法综述一、本文概述随着技术的快速发展,深度学习在诸多领域,特别是计算机视觉领域,展现出了强大的潜力和应用价值。
目标检测作为计算机视觉的核心任务之一,旨在识别图像或视频中所有感兴趣的目标,并为每个目标提供精确的边界框。
这一技术在自动驾驶、安全监控、智能零售等多个领域有着广泛的应用前景。
本文旨在对深度学习目标检测方法进行全面的综述,总结其发展历程、主要方法、性能评估以及未来趋势。
本文将回顾目标检测技术的历史演变,从早期的传统方法到基于深度学习的现代方法。
接着,重点介绍基于深度学习的目标检测算法,包括R-CNN系列、YOLO系列、SSD等主流方法,并详细分析它们的原理、优缺点及适用场景。
本文还将讨论目标检测任务中的关键挑战,如小目标检测、遮挡目标检测、多目标检测等,并探讨相应的解决策略。
在性能评估方面,本文将介绍常用的目标检测数据集和评价指标,如PASCAL VOC、COCO等,并对比不同方法在这些数据集上的表现。
本文将展望深度学习目标检测技术的未来发展方向,包括算法优化、模型轻量化、实时性能提升等方面,以期为相关领域的研究者和实践者提供参考和启示。
二、深度学习目标检测算法发展历程深度学习目标检测是计算机视觉领域的一个重要研究方向,它旨在通过深度学习技术自动识别和定位图像中的目标对象。
自2014年以来,深度学习目标检测算法经历了飞速的发展,从最初的R-CNN到现如今的YOLO、SSD等先进算法,不断刷新着目标检测的准确性和实时性。
早期,深度学习目标检测主要基于Region Proposal的方法,如R-CNN (Region-based Convolutional Neural Networks)系列算法。
R-CNN 通过选择性搜索(Selective Search)算法生成候选区域,然后对每个候选区域进行卷积神经网络(CNN)的特征提取和分类,实现了目标检测的初步突破。
然而,R-CNN存在计算量大、训练复杂等问题,后续研究在此基础上进行了一系列改进,如Fast R-CNN和Faster R-CNN。
目标检测综述目标检测是计算机视觉领域中一项重要的研究任务,目标检测的目标是从图像或视频中准确地找出目标的位置和类别。
目标检测技术在实际应用中具有广泛的应用,如智能交通、视频监控、人脸识别等。
目标检测的方法可以分为两大类:基于特征的方法和基于区域的方法。
基于特征的方法主要通过识别图像中的特定特征来判断目标的位置和类别。
传统的基于特征的方法主要使用手工设计的特征,如Haar特征、HOG特征等。
这些方法具有较高的准确率,但需要对特征进行人工选择和设计,工作量较大。
近年来,基于深度学习的方法逐渐成为目标检测的主流方法。
基于深度学习的方法通过学习大量的图像数据,自动提取和学习图像中的特征。
目前较为流行的深度学习模型有基于卷积神经网络(CNN)的模型和基于循环神经网络(RNN)的模型。
其中,基于CNN的目标检测模型具有较高的准确率和鲁棒性,被广泛应用于目标检测任务中。
当前,常见的目标检测模型主要有一些经典的网络结构,如R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD等。
R-CNN是目标检测领域的一个里程碑性的工作,它通过将目标检测任务分解为区域提取、特征提取和目标分类等步骤,并采用SVM进行目标分类。
Fast R-CNN在R-CNN的基础上进行了优化,将特征提取和目标分类融合为一个网络,大大提高了检测的速度。
Faster R-CNN进一步提出了候选区域生成网络(RPN),实现了端到端的目标检测。
YOLO(You OnlyLook Once)是一种实时性很高的目标检测算法,它将目标检测任务转化为回归问题,直接在图像上进行网格划分和目标预测。
SSD(Single Shot MultiBox Detector)是一种可以实现实时目标检测的模型,它将不同层次的特征图与预定义的锚框进行匹配,以实现对多尺度和多种类别的目标检测。
目标检测的研究还存在一些挑战和问题,如目标尺度、视点变化、复杂背景等。
目标检测网络发展历程1. 传统的目标检测方法:早期的目标检测方法主要是基于传统的计算机视觉算法,如滑动窗口、特征提取和分类器等。
这些方法通常需要手动设计特征和分类器,并且在处理不同尺寸和姿态的目标时效果较差。
2. 基于深度学习的目标检测方法:随着深度学习的发展,研究者开始利用具有卷积结构的神经网络来解决目标检测问题。
其中最具代表性的方法是区域卷积神经网络(R-CNN)系列。
它们通过将图像分成多个候选区域,然后对每个区域进行卷积操作和分类,来实现目标检测。
3. 滑动窗口的改进:在R-CNN之后,研究者提出了一些改进方法来加速滑动窗口的操作。
其中最重要的是快速的R-CNN (Fast R-CNN)和更快的R-CNN(Faster R-CNN)。
它们通过引入共享卷积特征,减少了特征提取的计算量,并且在滑动窗口的过程中使用了候选区域建议网络(Region Proposal Network),进一步提高了检测的速度。
4. 单阶段目标检测方法:为了进一步提高目标检测的速度,研究者们提出了一系列的单阶段目标检测方法,如YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)和RetinaNet等。
这些方法快速而准确地检测目标,但在处理小目标和密集目标时存在一定的挑战。
5. 目标检测的改进和拓展:除了提高目标检测的速度和准确性外,研究者们还在目标检测方法上进行了一些改进和拓展。
例如,跨尺度目标检测、多类别目标检测、遮挡目标检测和实时目标检测等。
这些方法在特定的应用场景下有着重要的作用。
6. 目标检测的应用:目标检测方法在计算机视觉领域有着广泛的应用。
例如,自动驾驶、无人机、智能监控、物体识别和场景分析等。
随着深度学习的发展和计算硬件的进步,目标检测方法在这些应用中将发挥越来越重要的作用。
基于深度学习的可见光图像舰船目标检测与识别岳 瞳,杨 宇(武警工程大学,陕西西安710016)摘要:为探究深度卷积神经网络在舰船检测与识别中的应用,研究了基于深度学习方法的可见光图像舰船目标检测与识别,总结了适用的可见光图像舰船数据集与针对舰船目标的网络优化方法㊂研究表明,迁移学习㊁先验框改进㊁特征优化等方法均能提升舰船检测与识别的准确率㊂未来应结合多源特征的融合,对轻量化舰船识别㊁细粒度舰船分类等方向进行研究㊂关键词:深度学习;先验框改进;特征优化;舰船检测与识别;可见光图像舰船数据集中图分类号:T N 911.73 文献标识码:A 文章编号:C N 32-1413(2021)02-0077-06D O I :10.16426/j .c n k i .jc d z d k .2021.02.017D e t e c t i o n a n d R e c o g n i t i o n o f S h i p T a r ge t i n V i s i b l e I m a g e s B a s e d o n D e e p L e a r n i n gY U E T o n g,Y A N G Y u (E n g i n e e r i n g U n i v e r s i t y of P A P ,X i a n 710016,C h i n a )A b s t r a c t :T o e x p l o r e t h e a p p l i c a t i o n o f d e e p c o n v o l u t i o n a l n e u r a l n e t w o r k s i n s h i p de t e c t i o n a n d r e c o g n i t i o n ,t h i s p a p e r s t u d i e s t h e s h i p d e t e c t i o n a n d r e c o g n i t i o n i n v i s i b l e i m a g e s b a s e d o n d e e pl e a r n i n g ,s u mm a r i z e s a p p l i c a b l e s h i p d a t a s e t s o f v i s i b l e i m a g e s a n d o pt i m i z e d n e t w o r k m e t h o d f o r s h i p t a r g e t .T h e r e s e a r c h s h o w s t h a t m e t h o d s s u c h a s t r a n s f e r l e a r n i n g ,a n c h o r i m pr o v e m e n t ,f e a -t u r e o p t i m i z a t i o n c a n a l l i m p r o v e t h e p r e c i s i o n o f s h i p d e t e c t i o n a n d r e c o gn i t i o n .F u r t h e r r e s e a r c h s h o u l d i n t e g r a t e w i t h t h e m e t h o d o f m u l t i -s o u r c e c h a r a c t e r i s t i c s f u s i o n ,f o c u s o n l i g h t -w e i g h t s h i pr e c o g n i t i o n a n d f i n e -g r a i n e d s h i p cl a s s i f i c a t i o n ,e t c ..K e y w o r d s :d e e p l e a r n i n g ;a n c h o r i m p r o v e m e n t ;f e a t u r e o p t i m i z a t i o n ;s h i p d e t e c t i o n a n d r e c o g n i t i o n ;s h i p d a t a s e t s o f v i s i b l e i m a ge s 收稿日期:20201013基金项目:武警工程大学基础研究基金,项目编号:W J Y 201906;武警部队军事理论研究计划,项目编号:W J J Y 19-134;装备军内科研项目,项目编号:W J 20182A 620020-20 引 言大数据时代,基于海量的数据源对海上舰船目标进行智能检测与识别是一个非常重要的任务,无论是在民用还是军用上,都有着很大的意义㊂对海上目标进行实时精准的检测与识别,在民用上可以辅助港口船舶管理㊁海上秩序维护,在军用上可以辅助战场态势感知㊁目标智能分析㊂目前,按数据源成像技术来分,主要有基于合成孔径雷达(S A R )成像㊁可见光成像㊁红外成像的舰船目标检测与识别㊂其中相比于S A R 图像㊁红外图像而言,可见光图像噪声低,不需要复杂的预处理;分辨率高,能够保留更多细节特征㊂传统的舰船检测与识别方法中的特征表示主要依赖于尺度不变特征变换(S I F T )[1]㊁加速稳定特征(S U R F )[2]㊁方向梯度直方图(HO G )[3]等人工特征,准确性和泛化性都不高㊂而深度卷积神经网络因其全面㊁有效的特征表示输出已逐渐取代早期图像智能检测与识别中的手工特征提取手段,自从2006年H i n t o n 提出深度学习的概念后[4],深度卷积神经网络呈现井喷式发展的态势,其在目2021年4月舰船电子对抗A pr .2021第44卷第2期S H I P B O A R D E L E C T R O N I C C O U N T E R M E A S U R EV o l .44N o .2标检测与分类识别中取得了优异表现,受到了学术界的广泛关注㊂本文主要对可见光图像的舰船目标检测与识别中深度学习方法的运用研究进行概述,探讨应用效果与存在问题,展望未来研究方向㊂1 深度学习目标检测与识别方法简述1.1 深度卷积神经网络卷积神经网络的概念于上个世纪就开始出现与发展,但由于学习样本与计算能力的受限并未得到广泛关注㊂进入21世纪以后,大数据时代的到来㊁图像处理硬件的改进与计算能力的提高使得对更加复杂的卷积神经网络的处理成为可能㊂以H i n t o n博士的深度学习思想为基础,2012年A l e x 等人采用线性整流函数(R E L U )构造了拥有5层卷积层和3层全连接层的A l e x N e t [5],创新采用图形处理单元(G P U )进行训练,在I m a ge N e t 竞赛上将识别错误率降低到15.3%;2014年牛津大学的视觉几何组利用较小的卷积核与较深的网络深度构筑了19层的V g g N e t [6],在2014年的I m a ge n e t 大型视觉识别挑战(I L S V R C )竞赛中获得了优异的成绩,探讨了网络深度对卷积神经网络模型的影响;同年的I L S -V R C 竞赛中,谷歌研究院提出的G o o gl e N e t [7]将物体分类错误率刷新降低到了6.67%,采用了全新的I n c e pt i o n 结构,在不增加计算负载的情况下,增加了网络的宽度和深度,并且以不同的卷积核增强了特征获取能力㊂基于网络深度对学习表达能力更强的特征至关重要的思想,2015年I L S V R C 竞赛中,微软研究院的H e 等人提出了深度残差网络R e s -N e t [8],并以3.57%的识别错误率一举夺得冠军㊂R e s N e t 中的s h o r t c u t 模块在前向过程中帮助网络中的特征进行恒等映射,在反向过程中帮助传导梯度,使其152层深的模型得以成功训练㊂H u a n g 和L i u 等人在2017年提出D e n s e N e t [9],采用特征重用思想,建立了不同层间的连接,进一步解决了梯度消失问题,相比于R e s N e t 在提升了效果的同时减少了参数量,被评为2017年C V P R 最佳论文㊂1.2 深度学习目标检测与识别框架目标检测任务要求对原始图像进行对象级区域定位,而目标识别任务要求对对象级区域进行分类识别㊂针对这两个任务衍生的深度学习框架可分为一阶段(O n e -s t a g e )和二阶段(T w o -s t a g e )算法㊂如图1所示,前者把背景划分进对象类别中,将检测与识别任务统一在一步完成,而后者则先完成前景检测任务(二分类),再对前景区域映射到原图中的区域提取特征训练另外一个网络,以获得更精确的多分类识别结果㊂研究表明,由卷积神经网络提取出的特征具有强大的泛化能力㊂在此基础上,涌现了一批优秀的目标检测与识别算法模型㊂图1 二阶段与一阶段算法框架比较1.2.1 二阶段算法2014年,G i r s h i c k 等人提出了R -卷积神经网络(C N N )[10],对S S 算法生成的候选区域进行特征提取,然后用支持向量机(S VM )进行类别的识别,将平均精确率均值(m A P )提升到53.3%;2015年,H e 等人提出空间金字塔池化(S P P )-N e t [11],G i r -s h i c k 等人提出F a s t R -C N N [12],通过先提取整张特征图,再生成候选区域的方法提升了目标检测的速度㊂2017年,何恺明㊁G i r s h i c k 等人为改进F a s t R -C N N ,联合提出了F a s t e r R -C N N [13],采用区域建议网络(R P N )代替S S 进行候选区域生成,将m A P 值提升到75.9%㊂1.2.2 一阶段算法2015年,R e d m o n 等人提出舍弃区域生成网络,仅利用一个损失函数的端到端训练模型Y o -l o [14],极大地提高了检测速度,并在此基础上为改善模型的检测准确率相继提出了Y o l o 9000[15]与Y o l o V 3[16],以出色的检测效率闻名,为目标检测的工程运用做出了很大贡献㊂2016年,L i u 等人提出了S S D [17]模型,改进目标框的预测规则,并利用多87舰船电子对抗 第44卷尺度的特征图改善对小尺度物体的检测,成功得到了比Y o l o 更快㊁同时也更准确的检测效果㊂2 可见光图像舰船数据集可见光图像是指光电探测传感器工作波段限于可见光波段范围间的成像㊂其成像技术成熟㊁平台丰富,活跃于各类目标检测与识别实验中㊂与S A R 图像㊁红外图像中的舰船目标相比,可见光图像中的舰船目标分辨率高,在特征提取中有着明显优势㊂在迄今为止的研究中,已涌现了一批较为标准与完善的可见光图像舰船数据集,本节选取2个比较适合使用的数据集进行介绍㊂2.1 S e a s h i ps S e a s h i p s [18]数据集来自可见光高分辨率监控图像,拥有6类共31455张图片,且每一类中都包含了不同的场景㊂每张图片都进行了人工标注,同时包括边界框与类别标签,以P A S C A L V O C 2007的格式保存了注释文件㊂作者用该数据集对Y o l o,S S D ,F a s t e r -R -C N N 等模型进行了试训,在实时监控场景下取得了良好的效果㊂部分样本如图2所示㊂图2 S e a s h i ps [18]部分类别图片2.2 MA R V E LMA R V E L [19]是一个大型船舶数据集,主要用于舰船目标分类识别㊂作者通过对用户上传的海量图像数据进行分析,根据可分性和意义性整理出了26类共1190169张图像㊂数据集图片质量高,数量大,缺点是各类图片数量不均匀㊂部分样本如图3所示㊂3 基于深度学习的舰船目标检测与识别方法舰船目标的检测与识别本质上是物体检测与识别的一个子任务㊂将舰船作为前景目标进行检测与识别,与常规的物体检测与识别一样面临着遮挡㊁复图3 M a r v e l [19]部分类别图片杂背景㊁多姿态的问题,对一般的模型具有一定的可适用性;然而,由于舰船数据集的特殊性㊁舰船目标的结构复杂性与特征精细性,为了实现高效率㊁高准确率的舰船目标的检测与识别,对更好的方法也存在着很大需求㊂因此,研究人员针对模型迁移㊁候选区域生成㊁特征提取等方面进行了针对性的研究,概览如图4所示㊂图4 基于深度学习的舰船目标检测与识别方法概览3.1 基于从头训练与迁移学习的方法考虑到深度卷积特征强大的泛化能力,部分研究人员们尝试直接利用深度学习目标检测与识别模型进行舰船目标检测与识别㊂文献[20]中,作者用自标注的光学遥感图像数据集对F a s t e r R -C N N 进行从头训练,并与传统的HO G+S VM ,S I F T+S VM 等方法进行比较,发现F a s t e r R -C N N 具有突出的性能优势;文献[21]中,作者用20000张不同舰船的图像分别对F a s t e r R -C N N 与Y O L O 进行从头训练,发现F a s t e r R -C N N 的准确率与召回率高,Y O L O 的运行效率较高㊂同时,也有一部分研究人员考虑到自制舰船数据集存在数据量不够足㊁类别分布不够均匀的问题,将共享参数的迁移学习方法应用到舰船目标检测与分类识别上㊂共享参数的迁移学习一般用于深度学习㊂在源数据与目标数据域均有标注,且目标数据集达不到要求㊁源数据集数据量足够的情况下,利用大数据集对模型进行预训练,得到初始化的参数后,97第2期岳瞳等:基于深度学习的可见光图像舰船目标检测与识别再用特定目标的小数据集对预训练好的模型进行微调㊂文献[22]首先用I m a g e N e t数据集预训练好多个版本的I n c e p t i o n n e t和R e s n e t,再基于MA R-V E L数据集进行微调,将检测结果进行对比,在I n-c e p t i o n V3上达到了最高78.73%的分类正确率;文献[23]中,作者尝试用在I m a g e N e t上训练好的F a s t e r R-C N N模型对自制的七类别小型数据集进行迁移学习,首先单独对R P N网络进行微调,得到微调后的模型后,用其输出对后面的全连接分类层进行训练,更新整个网络的参数;接着再进行整体网络微调,冻结R P N网络和共享卷积层,对全连接分类层进行训练;作者还对在I m a g e N e t上训练好的S S D模型进行微调训练,并对两者进行了比较,发现S S D对小舰船目标的检测精度较低,但是整体速度较快;F a s t e r R-C N N对小舰船目标检测精度较高,但是整体速度偏慢㊂上述总结如表1所示㊂表1不同卷积神经网络在MA R V E L数据集上的分类实验结果[22]结构层数每秒图像准确率预训练A L E X N E T8298073.14%无R E S N E T5021874.38%I m a g e N e t R E S N E T1529174.67%I m a g e N e tI n c e p t i o n V34814278.73%I m a g e N e t3.2基于先验框改进的方法针对自然常见目标的区域生成方法对候选框的设计思想往往较为简单宽泛,多从经验角度选择普适的比例,不具有针对性㊂如Y o l o㊁R P N网络中的锚点框默认均采用整数的纵横比㊂而舰船目标特殊的结构意味着:如果不能很好地确定候选框尺寸,不仅会导致较多的无用背景特征包含进特征图里,而且意味着对一些二维轮廓信息的丢失,造成识别准确率的下降㊂对此,一部分学者重点研究尺寸自适应的检测框㊂文献[24]在S S D网络的锚点设置中采用k-m e a n s聚类,将样本中标注框的纵横比作为输入,聚类得到相适应的比例;文献[25]对R P N网络提出一种自适应的锚点机制,将标注信息的纵横比归一化后作为输入,使用优化后的k-m e a n s++算法进行聚类㊂k-m e a n s++提出在初始化时指定簇中心,避免了随机选择中心点对聚类结果与收敛速度的影响,增强了纵横比聚类结果的鲁棒性㊂文献[26]针对循环注意力(R A)-C N N中注意力生成网络(A P N)提出了多特征(M F)-A P N网络㊂该网络目标是用纵横比适当的矩形先验框取代原网络中的正方形先验框㊂作者通过设计可导的截取函数,以面积与尺度为约束,计算出符合要求的矩形框纵横比㊂之后按照实际需求选取合适的先验框个数,以此来框取船舶排烟口㊁雷达天线等特殊区域,在识别与定位中得到了更好的鲁棒性㊂另外,常见目标检测中的候选框多选择水平垂直矩形框,但是由于舰船目标在图像中具有方向性强的特点,使得此种候选框对港口码头等船舶聚集场景中的个别定位很不精确,因此对候选框形状的设计也很重要㊂同时,合适的候选框形状也有利于去除冗余背景信息㊂对此,一部分研究人员将眼光投向了旋转检测框㊂文献[27]提出旋转区域(R R)-C N N,将旋转检测框的方法应用在密集船舶的定位检测上,应用了旋转感兴趣区域池化方法㊁旋转包围框回归方法㊁类间非极大值抑制,在H R S C2016数据集上取得了良好的检测效果;文献[28]将M a等人在文字识别领域中提出的旋转区域建议网络(R R P N)[29]模型应用在光学遥感图像中的舰船检测中,并针对其中的旋转感兴趣区域池化做了改进㊂作者考虑到环境信息不全可能导致特征过于特殊,所以在特征池化时引入了适当的环境信息,提出上下文旋转感兴趣区域池化,同样在H R S C2016数据集上进行实验,对比R R-C N N提高了5个百分点的m A P㊂文献[30]在S S D中使用旋转锚点,并在此基础上创新提出了R e l a t e d-交并比(I O U)方法,在I O U的计算中引入角度信息,在训练中有效剔除角度相差较大的锚点,对自制数据集中多方向与并靠的船舶均做到了较精确的定位㊂上述一系列研究表明,旋转检测框的应用对密集靠泊与方向性强的舰船目标有较好的检测效果㊂如表2所示的比较表明,在海面稀疏㊁港口稀疏㊁港口密集㊁复杂背景等场景下采用旋转检测框的方法进行检测,可以得到较低的漏检率与精确的定位结果,展现了此方法的优越性㊂表2不同模型在H R S C数据集上的检测实验结果[28]模型候选框形状平均精确率(MA P)S H D-H B B[31]水平69.5R R-C N N旋转75.7R R P N+R R O I P o o l i n g旋转79.6R R P M+C R R O I P o o l i n g旋转80.7 3.3基于特征优化的方法相比于人工设计的船舶特征,深度卷积神经网08舰船电子对抗第44卷络对舰船图像提取的特征已具备了更强的泛化性和更抽象的细节特征㊂但是基于舰船自身的复杂结构,在精细化与复杂度较高的任务里,为了得到更高的识别准确率,对特征的进一步优化仍是必要的㊂学者们考虑对特征提取网络进行不同形式的扩展与改进,探讨增强型深度卷积特征的分类表现,通过各种方法研究了特征优化的可能途径㊂文献[32]㊁文献[33]基于残差网络的思想对Y o l o网络进行改进,加入残差模块后将低层的特征直接连接到高层,减轻了梯度消失的影响,提取出更完整的船舶特征,对可见光遥感图像中的舰船目标进行检测,准确率较改进前有显著提高;文献[34]基于Y o l o V3的多尺度思想,将原网络中的三尺度特征融合改进为四尺度特征融合,对小目标舰船的检测效果提升明显,如表3所示㊂表3不同模型结合不同特征优化方法的检测实验结果[34]结构残差块特征融合层数准确率F A S T E R R-C N N无388.82% Y O L O V3有393.89% Y O L O V3改有494.95%另外,还有针对通道与辅助网络的特征改进方式㊂文献[35]提出A u g N e t算法,使网络通过学习自分配特征通道的权重,以达到强化有效特征㊁抑制无效特征的效果㊂作者在G o o g l e N e t上应用此算法,对自构建的大规模舰船数据集进行分类识别实验,准确率比原始的G o o g l e N e t提升了1.5%;文献[36]基于对抗生成网络(G A N)网络的思想,将分类子网络作为判别器在其上级联了一个生成器,交替训练以生成模仿小概率样本的特征㊂通过对小样本的特征学习,间接循环增强了特征表示,达到了辅助分类的效果,总结如图5所示㊂图5特征增强与优化方法3.4其他提高舰船目标检测与识别性能的方法文献[37]提出一种轻量化模型,将精力集中在提高检测与识别的效率上,为资源受限条件下的舰船检测与识别提供了方案㊂作者在S S D网络原框架的基础上,采用了可分离卷积方法,大幅减少了卷积核的参数;同时,将输入特征通道进行过随机比例切分之后使用不同尺寸的卷积核进行卷积操作,从而减少了模型中参数的使用㊂该模型大小较R e s-N e t缩小了5倍多,单帧耗时仅需16.3m s㊂文献[38]提出了多特征堆叠(M E)-C N N,考虑了多源多网络的复合性处理㊂在对源图像进行不同形式的预处理以后,将所得的图像分别作为不同卷积神经网络的输入,提取有不同的深层抽象特征后分别进行分类,最后将不同的分类结果进行组合,在V A I S[39]数据集上取得的准确率较单分支网络有所提高㊂文献[40]提出粗细级联(C F C)-C N N,考虑对常规网络进行层级改进,将基础网络的结果送进第2层进行验证,对没有达到假设预期值的类别进行重训练,尝试针对第1层中识别结果最差的类别提取更有区别性的特征,对比一层网络的模型进行实验,取得了较好的准确率㊂4结束语4.1总结在人工智能与大数据时代,深度学习技术得到了极大关注,可见光图像舰船目标检测与识别的应用也愈发广泛㊂基于对检测框改进㊁特征优化等方法的大量研究,深度学习技术针对舰船目标检测的调整应用也愈发成熟㊂总的来说,在不断的实验探索中,融合深度学习方法的可见光舰船目标检测与识别在实时性㊁准确性㊁精确性上,均有所改进:(1)相比于早期对模型直接进行转移应用㊁从头训练的方法,迁移学习明显克服了数据量不足的问题,利用小数据集也能得到较好的准确率㊂(2)基于改进候选框与特征优化的方法,经实验证明均能在一定程度上剔除冗余信息,增强细节特征,使得针对舰船的目标检测与识别达到较高的准确率㊂4.2展望为了达到精细度与复杂度更高的前沿应用要求,下一步仍应对3个方面进行拓展研究:(1)仍要对更全面㊁更精准的特征表示进行研究㊂探究融合多波段源图像的精度提升方法㊂S A R图像㊁红外图像㊁可见光图像在不同环境下拥有独特的优势㊂结合3类图像进行联合判别,探索有效的特征融合方法;探究在多网络㊁多层次模型下的创新型特征提取方法,在不断实验中尝试寻找性能更好的组合架构㊂18第2期岳瞳等:基于深度学习的可见光图像舰船目标检测与识别(2)为适应海上平台资源受限的特点,应重视研究轻量化的舰船检测模型,削减网络参数,精简模型架构㊂在不依赖高算力的情况下,用更少的计算量达到预期的准确率,同时提高识别帧率㊂(3)研究大类识别基础上的船舶细粒度分类㊂细粒度分类因对象类间差异小㊁类内差异大的特点,应用模型时效果达不到预期标准,需要进一步创新改进网络架构与模块功能㊂在更强的特征表示㊁更好的分类算法的基础上,船舶细粒度分类是船舶目标识别研究的必然趋势;反之,高要求的任务也会对算法工具的研究起到推动效果㊂参考文献[1] L OW E D G.D i s t i n c t i v e i m a g e f e a t u r e s f r o m s c a l e-i n-v a r i a n t k e y p o i n t s[J].C o m p u t e r V i s i o n,2004,60(2):91110.[2] B A Y H,T U Y T E L A A R S T,V A N G O O L L.S u r f:s p e e d e d u p r o b u s t f e a t u r e s[C]//E u r o p e a n C o n f e r e n c e o n C o m p u t e r V i s i o n,2006:404417.[3] D A L A L N,T R I G G S B.H i s t o g r a m s o f o r i e n t e d g r a d i-e n t sf o r h u m a n d e t e c t i o n[C]//I E E E C o m p u t e r S o c i e t yC o n f e r e n c e o n C o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i-t i o n,2005:886893.[4] H I N T O N G E,O S I N D E R O S,T E H Y-W.A f a s tl e a r n i n g a l g o r i t h m f o r d e e p b e l i e f n e t s[J].N e u r a l c o m-p u t a t i o n,2006,18(7):15271554.[5] K R I Z H E V S K Y A,S U T S K E V E R I,H I N T O N G E.I m a g e n e t c l a s s i f i c a t i o n w i t h d e e p c o n v o l u t i o n a l n e u r a ln e t w o r k s[C]//A d v a n c e s i n N e u r a l I n f o r m a t i o n P r o-c e s s i n g S y s t e m s,2012:10971105.[6] S I MO N Y A N K,Z I S S E R MA N A.V e r y d e e p c o n v o l u-t i o n a l n e t w o r k s f o r l a r g e-s c a l e i m a g e r e c o g n i t i o n[C]//I n t e r n a t i o n a l C o n f e r e n c e o n L e a r n i n g R e p r e s e n t a t i o n s,2014:1519.[7] S Z E G E D Y C,L I U W,J I A Y,e t a l.G o i n g d e e p e r w i t hc o n v o l u t i o n s[C]//T h e I E E E C o n f e r e n c e o n C o m p u t e rV i s i o n a n d P a t t e r n R e c o g n i t i o n,2015:19.[8] H E K,Z HA N G X,R E N S,e t a l.D e e p r e s i d u a l l e a r n i n gf o r i m ag e r e c o g n i t i o n[C]//P r o c e e d i n g s o f Th e I E E EC o n f e r e n c e o n C o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i-t i o n,2016:770778.[9] HU A N G G,L I U Z,W E I N B E R G E R K Q,e t a l.D e n s e-l y c o n n e c t e d c o n v o l u t i o n a l n e t w o r k s[C]//P r o c e e d i n g s o f t h e I E E E C o n f e r e n c e o n C o m p u t e r V i s i o n a n d P a t-t e r n R e c o g n i t i o n,2017:3.[10]G I R S H I C K R,D O N A HU E J,D A R R E L L T,e t a l.R i c hf e a t u r e h i e r a r c h i e s f o r a c c u r a t e o b j e c t d e t e c t i o n a n d s e-m a n t i c s e g m e n t a t i o n[C]//T h e I E E E C o n f e r e n c e o nC o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i t i o n,2014:580587.[11]H E K,Z HA N G X,R E N S,e t a l.S p a t i a l p y r a m i d p o o-l i n g i n d e e p c o n v o l u t i o n a l n e t w o r k s f o r v i s u a l r e c o g n i-t i o n[J].I E E E T r a n s a c t i o n s o n P a t t e r n A n a l y s i s a n dM a c h i n e I n t e l l i g e n c e,2015,37(9):19041916. [12]G I R S H I C K R.F a s t R-C N N[C]//T h e I E E E I n t e r n a-t i o n a l C o n f e r e n c e o n C o m p u t e r V i s i o n,2015:14401448.[13]R E N S,H E K,G I R S H I C K R,e t a l.F a s t e r R-C N N:T o w a r d s r e a l-t i m e o b j e c t d e t e c t i o n w i t h r e g i o n p r o p o s-a l n e t w o r k s[C]//I n A d v a n c e s i n N e u r a l I n f o r m a t i o nP r o c e s s i n g S y s t e m s,2015:9199.[14]R E D MO N J,D I V V A L A S,G I R S H I C K R,e t a l.Y o uo n l y l o o k o n c e:u n i f i e d,r e a l-t i m e o b j e c t d e t e c t i o n[C]// P r o c e e d i n g s o f T h e I E E E C o n f e r e n c e o n C o m p u t e r V i-s i o n a n d P a t t e r n R e c o g n i t i o n,2016:779788. [15]R E D MO N J,F A R HA D I A.Y O L O9000:b e t t e r,f a s t e r,s t r o n g e r[C]//P r o c e e d i n g s o f T h e I E E E C o n f e r e n c e o nC o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i t i o n,2017:72637271.[16]R E D MO N J,F A R HA D I A.Y o l o v3:A n i n c r e m e n t a li m p r o v e m e n t[C]//T h e I E E E I n t e r n a t i o n a l C o n f e r e n c eo n C o m p u t e r V i s i o n,2018:27672773. [17]L I U W,A N G U E L O V D,E R HA N D,e t a l.S S D:S i n g l es h o t m u l t i b o x d e t e c t o r[C]//E u r o p e a n C o n f e r e n c e o nC o m p u t e r V i s i o n,2016:2137.[18]S HA O Z,WU W,WA N G Z,e t a l.S e a s h i p s:a l a r g e-s c a l e p r e c i s e l y a n n o t a t e d d a t a s e t f o r s h i p d e t e c t i o n[J].I E E E T r a n s a c t i o n s o n M u l t i m e d i a,2018,20(10):25932604.[19]G U N D O G D U E,S O L MA Z B,YüC E S O Y V,e t a l.M a r v e l:a l a r g e-s c a l e i m a g e d a t a s e t f o r m a r i t i m e v e s-s e l s[C]//A s i a n C o n f e r e n c e o n C o m p u t e r V i s i o n,2016: 165180.[20]刘昱龙.高分辨率光学遥感图像舰船检测研究[D].厦门:厦门大学,2017:4557.[21]马啸,邵利民,金鑫,等.深度学习技术及其在舰船目标识别领域的应用[J].计算机技术与发展,2019,29(12):141147.[22]L E C L E R C M,T HA R MA R A S A R,F L O R E A M C,e ta l.S h i p c l a s s i f i c a t i o n u s i n g d e e p l e a r n i n g t e c h n i q u e s f o rm a r i t i m e t a r g e t t r a c k i n g[C]//I n t e r n a t i o n a l C o n f e r e n c e o n I n f o r m a t i o n F u s i o n,2018:737744.(下转第95页)28舰船电子对抗第44卷图1916信道3,17,18,63信道时域字化趋势的发展潮流,整个接收机性能上将产生质的改变㊂目前数字信道化主要应用在信号的侦察接收模型中,随着F P G A器件的发展,在F P G A内实现发射信道化已经成为可能,将给雷达的抗干扰带来更大的挑战㊂参考文献[1]赵国庆.雷达对抗原理[M].西安:西安电子科技大学出版社,1999.[2]岳玮.宽带数字信道化接收机的设计与研制[D].哈尔滨:哈尔滨工程大学,2011.[3]朱拥建.宽带数字信道化接收机的设计与研制[D].上海:复旦大学,2012.[4]卓志敏.宽带数字雷达侦察接收机研究[D].哈尔滨:哈尔滨工程大学,2006.[5]龚仕仙,魏玺章,黎湘.宽带数字信道化接收机综述[J].电子学报,2001,41(5):949959.[6]郝红连.基于宽带数字信道化接收的雷达侦察干扰系统研究[D].北京:北京理工大学,2016.(上接第82页)[23]周瑶.基于深度学习的舰船目标检测与识别[D].哈尔滨:哈尔滨工程大学,2018:4451.[24]赵文娟.可见光图像中舰船识别系统的研究与设计[D].电子科技大学,2019:2852.[25]麻凯利.基于深度学习的细粒度目标检测算法研究[D].长沙:国防科技大学,2017:2437.[26]霍煜豪,徐志京.基于改进R A-C N N的舰船光电目标识别方法[J].上海海事大学学报,2019,40(03):3843.[27]L I U Z,HU J,W E N G L,Y A N G Y.R o t a t e d r e g i o nb a s e d C N N f o r s h i p d e t ec t i o n[C]//I E E E I n t e r n a t i o n a lC o n f e r e n c e o n I m a g e P r o c e s s i n g,2017:900904.[28]T I A N T,P A N Z,T A N X,e t a l.A r b i t r a r y-o r i e n t e d i n-s h o r e s h i p d e t e c t i o n b a s e d o n m u l t i-s c a l e f e a t u r e f u s i o na n d c o n t e x t u a l p o o l i n g o n r o t a t i o n r e g i o n p r o p o s a l s[J].R e m o t e S e n s i n g,2020,12(2):339. [29]MA J,S HA O W,Y E H,e t a l.A r b i t r a r y-o r i e n t e d s c e n et e x t d e t e c t i o n v i a r o t a t i o n p r o p o s a l s[J].I E E E T r a n s a c-t i o n s o n M u l t i m e d i a,2018,20(11):31113122. [30]梁杰,李磊,周红丽.基于改进S S D的舰船目标精细化检测方法[J].导航定位与授时,2019,6(5):4351.[31]F E N G Y,D I A O W.S U N X,e t a l.T o w a r d s a u t o m a t e ds h i p d e t e c t i o n a n d c a t e g o r y r e c o g n i t i o n f r o m h i g h-r e s o-l u t i o n a e r i a l i m a g e s[J].R e m o t e S e n s i n g,2019,11(16):1901.[32]王玺坤,姜宏旭,林珂玉.基于改进型Y O L O算法的遥感图像舰船检测[J].北京航空航天大学学报,2020,46(6):11841191.[33]张靖奇.基于深度学习的卫星遥感图像舰船检测[D].哈尔滨:哈尔滨工业大学,2019:3651. [34]王浩君.基于深度学习的光学遥感影像海上舰船目标检测研究[D].杭州:杭州师范大学,2019:5070.[35]吴建宝,肖诗斌,王焕鹏.改进的神经网络算法在舰船目标识别上的应用[J].北京信息科技大学学报(自然科学版),2019,34(03):9498.[36]王昌安.遥感影像中的近岸舰船目标检测和细粒度识别方法研究[D].武汉:华中科技大学,2019:2838.[37]刘俊,姜涛,徐小康,田胜,李亚辉.基于轻量化深度网络的舰船目标识别技术研究[J].无线电工程,2019,49(12):10251030.[38]S H I Q,L I W,T A O R,e t a l.S h i p c l a s s i f i c a t i o n b a s e do n m u l t i f e a t u r e e n s e m b l e w i t h c o n v o l u t i o n a l n e u r a l n e t w o r k[J].R e m o t e S e n s i n g,2019,11(4):419.[39]Z HA N G M M,C HO I J,D A N I I L I D I S K,e t a l.V A I S:A d a t a s e t f o r r e c o g n i z i n g m a r i t i m e i m a g e r y i n t h e v i s i-b l e a n d i n f r a r e d s p ec t r u m s[C]//I E E E C o n f e r e n c e o nC o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i t i o n W o r k s h o p s,2015:1016.[40]C H E N X,Y A N G Y,WA N G S,e t a l.S h i p t y p e r e c o g-n i t i o n v i a a c o a r s e-t o-f i n e c a s c a d e d c o n v o l u t i o n n e u r a l n e t w o r k[J].T h e J o u r n a l o f N a v i g a t i o n,2020,73(4): 813832.59第2期蚩建峰:雷达信号侦察处理系统研究。