图像超分辨重建技术研究现状
- 格式:doc
- 大小:28.50 KB
- 文档页数:6
基于深度学习的医学图像超分辨率重建基于深度学习的医学图像超分辨率重建摘要:随着医学图像的广泛应用,对于高质量医学图像的需求不断增加。
然而,由于成像设备限制和成本约束,低分辨率图像在临床实践中仍然占主导地位。
为了提高医学图像的准确性和信息量,研究人员开始探索基于深度学习的医学图像超分辨率重建方法。
本文对医学图像超分辨率重建的背景、方法、应用和挑战进行了探讨。
1. 背景医学图像在临床诊断和治疗中起着至关重要的作用。
然而,由于成像设备限制和成本约束,医学图像的分辨率普遍较低,无法满足医生对于细节的需求。
因此,如何提高医学图像的分辨率成为当前研究的热点。
2. 方法深度学习在图像处理领域取得了显著的突破,尤其是在图像超分辨率重建方面。
医学图像超分辨率重建方法主要包括基于单一图像的方法和基于多个图像的方法。
基于单一图像的方法中,研究人员利用深度卷积神经网络对低分辨率图像进行训练,通过学习高分辨率图像与低分辨率图像之间的映射关系,实现对低分辨率图像的重建。
常用的网络结构包括SRCNN、VDSR和EDSR。
这些方法能够在一定程度上提高医学图像的分辨率,但由于医学图像的特殊性,如临床应用中噪声、伪影等问题的存在,单一图像的方法在实际应用中存在一定的局限性。
基于多个图像的方法主要利用医学图像的序列信息。
研究人员通过采集多幅低分辨率图像,利用深度学习网络对这些图像进行训练,从而获得低分辨率图像序列与高分辨率图像序列之间的映射关系。
然后,通过该映射关系对新的低分辨率图像序列进行重建。
这些方法能够更好地利用医学图像的信息,提高重建效果。
3. 应用医学图像超分辨率重建技术可以应用于多个医学领域,如医学影像诊断、手术引导和远程医疗等。
通过提高医学图像的分辨率,医生可以更清晰地观察疾病的部位和特征,提高诊断的准确性。
对于手术引导和远程医疗,高分辨率图像能够为医生提供更详细的信息,帮助他们做出更准确的决策。
4. 挑战尽管深度学习在医学图像超分辨率重建方面取得了重要进展,但仍然面临一些挑战。
基于深度学习的图像超分辨率重建算法研究图像超分辨率重建是计算机视觉领域的一项重要任务,旨在通过运用深度学习技术从低分辨率图像中恢复出高分辨率的图像。
随着深度学习技术的快速发展,基于深度学习的图像超分辨率重建算法逐渐成为该领域的研究热点。
本文将对这一算法进行研究,分析其原理、方法和应用,并探讨其挑战和未来发展方向。
在之前的图像超分辨率重建算法中,传统的方法主要依赖于图像处理、插值和统计技术。
然而,这些方法往往不能有效地提高图像的视觉质量和细节信息,因为它们无法恢复出真实的高频细节。
相比之下,基于深度学习的图像超分辨率重建算法能够从大量的图像数据中学习到更好的特征表示,从而实现更准确的图像重建。
基于深度学习的图像超分辨率重建算法通常包括两个主要的模块:特征提取模块和超分辨率重建模块。
特征提取模块通常是一个深度卷积神经网络,用于从输入的低分辨率图像中提取有用的特征。
超分辨率重建模块则是利用这些特征进行图像重建的关键部分,通常由一系列卷积层和上采样层组成。
在深度学习模型中,卷积神经网络(CNN)被广泛应用于图像超分辨率重建。
其中,基于生成对抗网络(GAN)的方法在最近的研究中获得了很大的成功。
GAN模型由两个卷积神经网络组成,生成器网络用于从低分辨率图像生成高分辨率图像,而判别器网络则负责判断生成的图像是否真实。
通过对抗训练,生成器网络逐渐学习到生成更逼真的高分辨率图像。
除了GAN模型外,其他的深度学习模型也被应用于图像超分辨率重建。
例如,自编码器网络可以通过学习低分辨率图像的特征表示来实现图像重建。
卷积神经网络中的残差连接技术可以有效地提升超分辨率重建的性能,它可以帮助网络更好地学习到图像中的细节信息。
另外,注意力机制在图像超分辨率重建中也得到了广泛的应用,它可以帮助网络更关注图像中的重要区域,从而提高图像的重建质量。
基于深度学习的图像超分辨率重建算法在各个领域都有着广泛的应用。
例如,在监控安全领域,高分辨率图像可以提供更清晰、更准确的监控画面,有助于人脸识别、目标检测等任务的实现。
基于扩散神经网络的图像超分辨率重建研究概述:随着科技的不断发展,高清晰度图像的需求越来越大。
然而,由于硬件设备的限制,往往无法直接获得高分辨率的图像。
因此,图像超分辨率重建成为一个热门研究课题。
本文将介绍一种基于扩散神经网络的图像超分辨率重建方法,并深入探讨该方法在实际应用中的效果和局限性。
1. 引言在图像超分辨率重建任务中,目标是通过输入的低分辨率图像重构出高分辨率图像。
传统的方法通常基于插值或边缘保持的技术,然而,这些方法在图像细节重建上往往效果不佳。
随着深度学习的兴起,扩散神经网络(Diffusion Neural Networks)被引入到图像超分辨率重建中。
2. 扩散神经网络原理扩散神经网络是一种基于图像扩散的马尔可夫随机过程,它模拟了信息在图像上的传播过程。
其工作原理是通过在网络中引入不同的扩散过程,逐步学习并预测出高分辨率图像中缺失的细节。
扩散神经网络通过迭代多个步骤,每一步都进行信息传递和更新,最终实现图像超分辨率重建的目标。
3. 扩散神经网络的训练为了使用扩散神经网络进行图像超分辨率重建,首先需要进行网络的训练。
训练数据通常包括一组低分辨率图像和对应的高分辨率图像。
通过将低分辨率图像输入到网络中,并与高分辨率图像进行比较,通过优化算法不断调整网络参数,使网络能够预测出高分辨率图像中缺失的部分。
4. 实验结果和分析在图像超分辨率重建任务中,我们使用了一组包含低分辨率图像和高分辨率图像的数据集进行实验。
通过将这些图像输入到训练好的扩散神经网络中,我们得到了重建后的高分辨率图像。
实验证明,基于扩散神经网络的图像超分辨率重建方法相比传统方法在保留细节和生成更清晰图像方面具有明显优势。
然而,该方法在处理大尺寸或复杂结构的图像时存在一定的局限性。
由于扩散神经网络的计算复杂度较高,对于大型图像可能需要较长的运行时间。
此外,当图像中存在复杂的纹理或特征时,网络可能无法完全恢复出原始图像的细节。
图像超分辨率技术研究及应用随着科技不断进步,我们的生活变得越来越数字化。
数字图像的应用越来越广泛,比如说医学图像、卫星图像、安防监控等等。
但是,某些场景要求的像素密度过高,然而对应的成像设备并不存在,如何让低分辨率图像转化为高分辨率图像成为了一个亟待解决的问题。
图像超分辨率技术就是解决这个问题的方法。
本文将介绍图像超分辨率技术的研究现状和应用情况。
一、图像超分辨率技术的定义和分类图像超分辨率技术(Image Super-Resolution,ISR)是一种将低分辨率图像(Low-Resolution,LR)转化为高分辨率图像(High-Resolution,HR)的技术。
根据超分辨率方法的不同,可以将其分类为插值法、基于边缘的方法、基于稀疏表示的方法、基于深度学习的方法等。
1.插值法:最简单的超分辨率方法,也是最古老的一种方法,其利用邻域像素点之间的差异性来增加图像的分辨率。
插值法只是简单的重复像素来扩大图像的大小,它不能提高图像的质量。
2.基于边缘的方法:它将边缘区域分离出来,然后将其放大,最后将使用插值法将其与原始图像合并,并通过重新构建来使用边缘信息增加分辨率。
3.基于稀疏表示的方法:通过利用稀疏性的先验知识,该方法可以准确地恢复高分辨率图像。
它的缺点是训练一个有较好性能的稀疏表示模型需要大量的计算资源。
4.基于深度学习的方法:它是最近很热门的一种方法,因为它可以自动提取必要的特征并获得不错的结果。
基于深度学习的ISR分为两种方式:单图像超分辨率和多图像超分辨率,前者仅使用通过采样所得到的低分辨率图像,而多图像超分辨率法则利用全局高分辨率图像的一小部分块来预测其余分辨率,加速了计算过程并提高了结果的质量。
二、图像超分辨率技术的应用现状1.安防监控领域:在安防监控领域,图像质量对于保护公共安全是至关重要的。
但是,由于摄像头的技术限制,图像的分辨率通常很低。
通过运用ISR技术,可以让低分辨率监控画面转化为高清晰度让人更好的辨认特定细节(例如车牌号码或面部特征)。
基于深度学习的像超分辨率重建技术研究基于深度学习的超分辨率重建技术研究近年来,随着人们对图像质量的要求不断提高,超分辨率重建技术逐渐成为一个备受关注的领域。
传统的图像放大方法往往会导致图像模糊、失真等问题,而基于深度学习的超分辨率重建技术则可以通过学习低分辨率图像和高分辨率图像之间的映射关系,实现更为精准的图像放大和重建。
本文将对基于深度学习的超分辨率重建技术进行深入研究和探讨。
一、深度学习在超分辨率重建中的应用深度学习是一种机器学习的方法,通过多层神经网络的训练和优化,可以实现图像、语音等多模态数据的特征提取和模式识别。
在超分辨率重建领域,深度学习可以通过构建卷积神经网络(Convolutional Neural Network,简称CNN)来学习低分辨率图像和高分辨率图像之间的映射函数。
通过输入低分辨率图像,网络可以输出高分辨率的重建图像,从而实现超分辨率重建的效果。
二、基于深度学习的超分辨率重建方法1. 单图像超分辨率重建方法单图像超分辨率重建指的是只利用单一低分辨率图像进行重建的方法。
其中,常用的基于深度学习的方法包括SRCNN、VDSR和EDSR 等。
以SRCNN为例,该方法通过训练一个多层的卷积神经网络,从而学习低分辨率图像和高分辨率图像之间的映射。
在测试阶段,该网络可以通过输入低分辨率图像,输出对应的高分辨率重建图像。
2. 多图像超分辨率重建方法多图像超分辨率重建方法则是基于多张低分辨率图像进行重建的技术。
这些低分辨率图像可以通过不同的角度或者不同的时间点拍摄得到。
常用的方法包括基于插值的方法和基于深度学习的方法。
其中,基于深度学习的方法通过构建多输入通道的网络结构,将多个低分辨率图像作为输入,输出对应的高分辨率重建图像。
三、基于深度学习的超分辨率重建技术的优势与挑战基于深度学习的超分辨率重建技术相比传统的方法具有以下优势:1. 学习能力强:深度学习可以通过大量数据的学习,自动提取图像的特征和模式,从而能够更好地还原图像的细节和纹理。
新型光学成像技术研究现状自20世纪以来,光学成像技术得到快速发展并得以广泛应用于各种领域。
从最基本的单反相机到最新的高分辨率医疗成像设备,光学成像技术一直在不断创新和改进。
那么,目前新型光学成像技术的研究现状是如何呢?一、超分辨成像超分辨成像是目前光学成像技术的研究热点之一。
传统的成像方式受到了不少限制,例如受分辨率限制的模糊图像、受光线干涉影响的鬼影等,这些问题都是传统成像方式无法解决的。
而超分辨成像便是打破这些限制的有效途径,使我们能够得到更清晰、更可信的成像结果。
超分辨成像主要分为两种方式,分别是超分辨率计算和超分辨率成像。
其中,超分辨率计算技术通过数学算法,将图像分析、处理、重建和插值,最终得到高分辨率图像;而超分辨率成像技术则通过对原始图像的多次成像和处理,从而实现物体的更高分辨率成像。
二、光学相位成像光学相位成像(OPI)是利用物体对相干光的干涉,通过测量和重建物体的相位信息,实现成像的一种新兴技术。
相比传统的成像方式,OPI可以在不需要反射镜或透镜的情况下进行成像,避免了光学元件引起的像差和畸变,从而可以得到更高质量的图像。
OPI技术可以广泛应用于机械、人体和动物等领域。
例如在医疗领域,OPI技术被用于眼科、内科、肺科等疾病的诊断和治疗;在机械领域,OPI技术可以用于金属表面质量检测、电子元件的组装等方面。
三、光学相干成像光学相干成像(OCI)是一种可以在不接触样品、不需准直样品和不需机械扫描的情况下,得到样品的微观结构和物理性质的新型成像技术。
OCI技术主要依靠光的相干性,通过对样品反射光波前的相位和振幅进行干涉分析,从而得到样品的细节信息。
OCI技术可以应用于药物筛选、生物医学、图像制备和表面分析等领域。
例如在制药领域,OCI技术可以用于药物微观结构分析和表面质量检测;在生物医学领域,OCI技术可以用于动物和人体器官结构的成像分析。
总结新型光学成像技术的研究发展,既是提高成像质量的有效途径,也是光学科技不断创新的重要方向。
超分辨率成像技术的研究现状及发展前景随着科技的不断进步和发展,人们对图像和视频质量的要求也越来越高。
然而,由于受到硬件和成像原理的限制,传统的图像和视频质量难以满足人们对于高分辨率、高清晰度、高保真度的需求,因此超分辨率成像技术应运而生。
超分辨率成像技术,即通过图像处理算法对低分辨率图像进行重建,得到高分辨率图像的一种技术。
在很多领域都有着广泛的应用,如自然图像处理、医疗影像、安防监控等。
对于人类生活和科学研究都具有重要的意义。
一、超分辨率成像技术研究现状1.1 传统算法的局限性早期的超分辨率技术大多都是基于传统的插值和滤波算法,如双三次插值、双线性插值等。
通过这些算法可以得到较为平滑的高分辨率图像,但是对于复杂细节部分的重建效果并不理想。
同时,也忽略了低分辨率图像中存在的高频细节信息,导致高分辨率图像缺失细节信息,不真实。
1.2 基于深度学习的算法随着深度学习技术的发展,许多基于深度学习的超分辨率算法应运而生。
这些算法采用卷积神经网络(CNN)作为核心,将原图与低分辨率图像同时输入网络中,通过神经网络对低分辨率图像进行处理,得到高分辨率图像。
这些算法包括SRCNN、VDSR、ESPCN、SRGAN等。
这些算法的优势在于能够从大量的训练数据中学习到图像的特征,从而对图像进行更加精准的重建。
同时,还能够有效地处理低分辨率图像中的高频细节信息,得到更加真实、更加细致的高分辨率图像。
1.3 图像重建评价指标对于超分辨率算法的评价,除了视觉效果之外,还需要考虑到一些量化指标。
例如,PSNR(峰值信噪比)、SSIM(结构相似性)、MS-SSIM(多尺度结构相似性)等方面的评估指标。
这些指标可以帮助评价算法重建图像的质量和准确程度,为算法的改进提供了重要的参考。
二、超分辨率成像技术的发展前景2.1 应用前景广泛超分辨率技术的应用涉及到很多领域,如航空航天、无人驾驶、自然图像处理、遥感影像、医疗影像等。
通过超分辨率技术,可以提高图像的分类精度、目标检测的准确性、识别能力等,为人类生产和社会发展带来更多的变革和创新。
收稿日期:2021-03-01基金项目:安徽省教育厅自然科学研究重点项目(项目编号:K J 2018A 0690);安徽省教育厅自然科学研究重点项目(项目编号:K J 2018A 0686);安徽省质量工程项目(项目编号:2020j y x m 0264)作者简介:杨建华(1979-),男,安徽无为人,讲师㊂研究方向:计算机视觉㊂单张图像超分辨率重建技术研究及在开放大学招生中的应用杨建华(安徽开放大学,合肥 230022)摘要:为了解决常规放大会造成图像失真,不易辨识的问题,引入了基于深度学习单张图像超分辨率重建技术,研究了四种经典图像超分模型的网络结构,并将其应用于开放大学招生中,分别用其实现对单张低分辨率招生图像的超分㊂通过实验分析比较,结果表明,E D S R 模型可以解决图片放大失真的问题,满足了招生工作的需求㊂关键词:开放大学;图像超分辨率;深度学习;卷积神经网络中图分类号:T P 391 文献标识码:A 文章编号:1008-6021(2021)02-0086-07一㊁引言2020年初,为应对新冠肺炎疫情,国家开放大学招生管理系统增设学员线上㊁线下报名功能㊂学员可以自己上传个人人脸㊁身份证㊁毕业证书等照片,也可以通过身份证读卡器获取学员人脸照片㊂但学员上传的照片经常存在分辨率过低㊁关键部分不清晰,给工作人员的辨识带来困难;身份证读卡器获取的身份证中人脸图像的大小为:宽102像素㊁高126像素,在后期用此图像与学员本人进行人脸识别匹配时,会因图像的分辨率过低导致人脸识别效果不佳㊂通常情况下,当人们遇到低分辨率的小图像时,一般是采用一些图像处理软件对其放大,但这样会造成图像失真,如图像边缘出现锯齿状,图像模糊㊂为此,本文引入基于深度学习的单张图像超分辨率(S i n g l e I m a ge S u pe r -R e s o l u t i o n ,S I S R )重建技术,来解决上述问题㊂图像超分辨率(I m a g eS u p e r -R e s o l u t i o n ,S R )重建技术,是指利用一张或多张低分辨率(L o w R e s o l u -t i o n ,S R )图像,通过软件处理,生成一张具有较高分辨率(H i ghR e s o l u t i o n ,H R )图像的技术[1]㊂在安保监控㊁卫星图像遥感㊁显微成像㊁数字高清㊁视频复原和医学影像等领域都有非常重要的实用价值㊂与通过升级硬件设备的成像精度来提高图像分辨率相比,S R 技术具有成本低㊁速度快的明显优势㊂二㊁深度学习的单张图像超分辨率重建技术(一)图像超分辨率重建技术该技术首次由H a r r i s [2]与G o o d m a n [3]于20世纪60年代提出,采取的方法是在单帧图像上进行线性插值或样条函数插值,虽然能提高单幅图像的分辨率,但图像中的很多高频细节易丢失㊂这一时期图像超分辨率重建技术主要停留在理论研究阶段,没有具体实现方法㊂直到1984年,由R Y T s a i 与T S H u a n g [4]利用多帧低分辨率图像通过傅里叶变换,得到单张高分辨率图像,这是科研人员第一次利用软件技术将图像超分重建思想变成现实,标志着图像超分辨率重建进入了实践发展时期㊂2006年,随着H i n t o n 等人[5]提出了神经网络中的深度学习概念,其核心卷积神经网络(C o n v o l u t i o n a lN e u r a lN e t w o r k ,C N N )在计算机视觉领域取得极快发展,一系列以卷经神经网络为基础的网络模型不断被提出,如:A l e x t N e t [6]㊁68安徽广播电视大学学报2021年第2期G o o g l e N e t[7]㊁V G G N e t[8]㊁R e s N e t[9]等,网络的学习能力也由弱变强,在图像分类㊁检测方面取得了越来越优秀的成绩㊂很自然地,人们想到可以用训练深度卷积神经网络来学习低分辨率图像与高分辨率图像之间的映射关系㊂2014年,香港中文大学的D o n g[10]等人最先提出基于C N N的图像超分模型(S u p e r-R e s o l u t i o nC o n v o l u t i o n a lN e u r a lN e t w o r k s, S R C N N),该网络模型由特征提取层㊁非线性映射层㊁重建层三层构成,取得了优于传统方法的效果,奠定了基于深度学习的图像超分辨重建技术在图像超分研究领域的主流地位㊂(二)深度学习的单张图像超分辨率重建技术研究现状单张图像超分辨率重建技术早期主要研究方法有三类,基于插值的方法㊁基于模型重建的方法㊁基于机器学习的方法㊂当前以基于深度学习的单张图像超分辨率重建技术为主流研究方向,按使用的网络类型可细分为基于标准的卷积神经网络结构S R模型㊁基于残差的网络结构S R模型㊁基于生成对抗(G e n e r a t i v eA d v e r s a r i a lN e t w o r k s,G A N)[11]的网络结构S R模型㊂以标准卷积神经网络(C N N)为基础的模型主要有S R C N N网络㊁快速超分辨率卷积神经网络(F a s t S u p e r-R e s o l u t i o n C o n v o l u t i o n a l N e u r a l N e t w o r k s, F S R C N N[12])㊁高效的亚像素卷积神经网络(E f f i c i e n t S u b-P i x e l C o n v o l u t i o n a l N e u r a l N e t w o r k, E S P C N[13])三种网络模型㊂以残差神经网络(R e s N e t)为基础的模型主要有深度超分辨率卷积神经网络㊁用于图像超分辨率的深度递归卷积网络㊁拉普拉斯金字塔超分辨率网络(L a p l a c i a n P y r a m i d S u p e r-R e s o l u t i o n N e t w o r k s, L a p S R N[14])㊁增强深度超分辨率重建网络(E n h a n c e d D e e p S u p e r-R e s o l u t i o n N e t w o r k, E D S R[15])㊁级联残差超分辨率网络㊁残差信道注意网络等网络模型㊂以生成对抗网络(G A N)为基础的模型主要有超分辨率生成对抗网络模型㊁具有特征识别的单图像超分辨率网络模型㊁双G A N网络模型㊂(三)四种主流图像超分模型的研究在上述诸多网络模型中,比较经典与主流的模型有F S R C N N㊁E S P C N㊁L a p S R N㊁E D S R四种㊂如在开源的计算机视觉库O p e n C V(O p e nS o u r c eC o m p u t e r V i s i o nL i b r a r y)中,也提供了这四种训练好的模型调用接口,用于实现基于深度学习的图像超分,能对图像进行2~4倍的超分㊂1.F S R C N N模型F S R C N N模型是2016年由香港中文大学的汤晓鸥团队提出,它是对原S R C N N模型的改进㊂S R C N N模型是深度学习在图像超分辨重建上的首次应用,其网络结构如图1所示,网络使用T i m o f t e 数据集(包含91幅图像)和I m a g e N e t大数据集进行训练,主要过程为:图1S R C N N模型的网络结构S t e p1:对数据集进行预处理,如对原始训练(T r a i)数据集中的91张图像进行分割,按步长14,大小21*21进行裁剪,作为标签(L a b e l)数据;对T r a i n 数据集进行下采样(缩小)后再进行上采样(放大)到原始大小,再按步长14,大小33*33进行裁剪,作为训练集数据,这样得到2万多组样本数据与标签数据㊂S t e p2:构建三层的卷积神经网络,三层卷积核大小分别分9*9㊁1*1㊁5*5,前两层卷积后使用R e l u 作激活函数,输出特征个数分别为64和32,用均方差作为损失函数(l o s s)进行训练,公式如下:L(θ)=1nðn i=1 F(Y i,θ)-X i 2(1) S t e p3:训练结束保存现场参数,测试时选用整张图像,卷积操作时填充模式选择 S AM E ,图像尺寸保持不变㊂F S R C N N模型主要通过增加网络深度与减小卷积核对S R C N N模型进行了运算加速,图2为其与S R C N N模型的结构对比图,能直观地反映两者之间的差异,主要表现在:(1)F S R C N N直接采用低分辨的图像作为输入,而S R C N N需要先对低分辨率的图像进行双三次插值,对放大后的图像进行切块,将图像块作为输入;78杨建华:单张图像超分辨率重建技术研究及在开放大学招生中的应用(2)F S R C N N 在网络的最后采用反卷积操作实现图像放大,运算更高效;(3)F S R C N N 中用收缩㊁映射和扩展操作来替代非线性映射;(4)F S R C N N 选择更小尺寸的卷积核和更深的网络结构,减少运算参数的同时提升了网络的学习能力㊂F S R C N N 的损失函数不变,仍采用公式(1),但激活函数选用了团队定义的P R e l u 函数,避免了网络反向传播时,可能会由R e l u 函数引起梯度为零的情况,P R e l u 公式为:f (x i )=m a x (x i ,0)+a i *m i n (0,x i )(2)2.E S P C N 模型E S P C N 模型是由推特(T w i t t e r )的S h i 等人在2016年提出,其主要贡献在于提出了一种直接在低分辨率图像上进行特征提取再转换成高分辨率图像的有效卷积方法㊂其网络结构如图3所示,网络的输入仍是原低分辨率图像,隐藏层通过l 个卷积操作得到r 2个与原图像大小一样的特征图,亚像素卷积层将图像上每个像素的r 2个通道按一定规则重新排列组合成一个r *r 大小的子图块,于是大小为r 2个W ˑH 的特征图像被重新排列组合成一个r W ˑr H尺寸的高分辨率图像㊂通过使用亚像素卷积操作,图像从L R 到H R 放大的过程中,低S R 图像与H R 图像之间的映射关系隐式地包含在前面的隐藏卷积层中,可以通过一系列的学习得到,最后才对图像大小进行转换,由于前面的卷积运算都是在低分辨率图像上进行的,参与运算的数据量小,从而效率更高㊂图2 F S R C N N 与S R C N N网络结构对比图3 E S P C N 模型的网络结构3.L a pS R N 模型L a pS R N 模型是由美国加州大学默赛德分校的L a i 等人在2017年提出,该模型能逐步重建不同尺度的高分辨率图像,特别是在8倍超分时也取得了良好的重建效果㊂其网络模型结构如图4所示,从图中可以观察到模型由特征提取与图像重建两个分支构成,图像特征提取与图像重建同步进行㊂首先,输入的L R 图像经过一系列卷积操作进行特征提取,学习的是残差部分信息,再经过解卷积操作进行2倍的放大,并与重建分支中经过2倍插值放大的原始图像相加,得到2倍的H R 重建图像㊂重复上述过程,得到放大4倍的H R 重建图像㊂以此类推,理论上可以得到放大2n 倍的H R 重建图像㊂L a pS R N 模型与前文提到的S R C N N ㊁F S R C N N ㊁E S P C N 模型相比,除了网络结构不同外,另一个不同在于它采用了一种有别于公式(1)的88安徽广播电视大学学报2021年第2期图4 L a pS R N 模型的网络结构C h a r b o n n i e r 损失函数,其公式表达如下:l (y ︿,y ;θ)=1N ðN i =1ðLs =1ρ(y ︿(i )s -y (i )s )=1N ðN i =1ðLs =1ρ((y ︿(i )s -x (i )s )-r (i )s )(3)其中y ︿表示重建图像,y 表示原始的L R 图像,θ为网络参数,N 表示训练时b a t c h s i z e 的大小,s 为超分倍数,L 表示一共有多少级,x 为经插值后放大的L R 图像,r 为残差,ρ(x )=x 2+ε2(ε=10-3)为C h a r b o n n i e r 函数的惩罚函数㊂采用C h a r b o n n i e r 作为损失函数,能取得比较好的视觉效果㊂4.E D S R 模型E D S R 模型是由韩国首尔大学的S N U C V L a b研究团队在2017年提出,其网络结构如图5所示,可以看作是对S R R e s N e t [16]的改进,去掉网络结构中的一些多余的运算㊂一是去掉残差块内的批规范化处理(b a t c hn o r m a l i z a t i o n ,B N )操作,二是去掉残差块外的R e l u 操作㊂在文献[15]中作者提到,原始残差网络的提出是为了解决计算机视觉方面的高级(H i gh -l e v e l )问题,如图像分类㊁图像检测㊁图像的识别等㊂而图像超分属于低层(L o w -l e v e l )问题,所以将R e s N e t 结构直接应用到图像超分问题上没有达到最优效果㊂而B N 层的计算量和一个卷积层几乎持平,移除B N 层后训练时可以节约大概40%的内存与时间㊂此外,E D S R 用L 1范数样式的损失函数来优化网络模型㊂在训练时先训练低倍数的上采样模型,再用训练结果参数来初始化高倍数的上采样模型,这样能减少高倍数上采样模型的训练时间,同时训练效果图5 E D S R 模型的网络结构会更好,如训练缩放因子为3倍㊁4倍的E D S R 时,可用预训练过的ˑ2的网络来初始化模型参数㊂这个策略加速了训练并且提升了最后的性能㊂对于ˑ4,使用预训练ˑ2的模型训练会收敛更快㊂三、单张图像超分辨率重建技术在开放大学招生中的应用(一)招生图像超分时的软硬件环境硬件配制为:i n t e l i 5及以上处理器,内存8G 以上的台式机,身份证读卡器,实验时所用的读卡器为精伦品牌I D R 210型号㊂软件开发环境为:W i n 7操作系统,编程语言为p yt h o n 3.6,工具为A n a c o n d a 集成开发平台,用到的软件包有O p e n C V ㊁O pe n c C V -c o n t r i b ㊁N u m p y㊂(二)训练模型数据获取对上述4种图像超分网络模型,可以通过训练集进行训练,得到收敛后的网络参数模型㊂在实际图像超分应用时,也可以使用相应网络模型团队训练好的模型㊂如在招生图像超分时选择了4倍超分模型,训练模型文件从C S D N 网站[17]下载,对应的训练模型属性如表1所示㊂(三)p yt h o n 调用训练模型O p e n c C V -c o n t r i b 库中的d n n _s u pe r r e s 模块提供了上述训练模型的调用接口,调用过程的p y t h o n 主要代码如表2所示㊂(四)招生图像超分结果取开放大学招生过程中通过读卡器获取的身份证上人脸图像,作为超分的L R 图像,大小为102ˑ126像素,分别使用三次线性插值(b i c u b i c )㊁F S R C N N ㊁E S P C N ㊁L a p S R N ㊁E D S R F 进行4倍超分,超分结果如图6所示,直观上可以看出,普通的图像98杨建华:单张图像超分辨率重建技术研究及在开放大学招生中的应用放大,通常采用b i c u b i c 方法得到的图像边缘呈锯齿状,效果较差㊂而采用图像超分技术,能得到较好效果,如L a pS R N ㊁E D S R 超分结果,可用于入学后的基于人脸识别技术的考生身份证验证[18]场景,进行图像增强,提高人脸识别精度㊂表1 F S R C N N ㊁E S P C N ㊁L a pS R N ㊁E D S R 模型4倍超分训练模型属性文件名大小优点缺点F S R C N N _x 4.p b 41K B 快速,小巧不够准确E S P C N _x 4.pb 98K B 体积小,速度快,仍然表现良好视觉上表现较差L a p S R N _x 4.p b 2650K B 可以进行多尺度超分辨率,可以支持2x ,4x ,8x 超分辨率它比E S P C N 和F S R C N N 慢,并且精度比E D S R 差E D S R _x 4.pb 37670K B 精度高模型文件大且运行速度慢表2 p yt h o n 调用训练模型过程函数调用方法主要功能s r=d n n _s u p e r r e s .D n n S u p e r R e s I m pl _c r e a t e ()创建超分模型对象s r .r e a d M o d e l ("m o d e l s /*_x 4.p b ")读取模型,参数为模型文件路径s r .s e t M o d e l (a l g o r i t h m ,s c a l e );设定算法和放大倍数n e w _i m g =s r .u p s a m p l e (i m g)放大图像图6 身份证人脸图像4倍超分结果(五)图像超分性能评价主要对比b i c u b i c ,F S R C N N ㊁E S P C N ㊁L a pS R N ㊁E D S R 方法,进行4倍超分图像超分时的三项指标:所用时间㊁峰值信噪比(P e a k S i gn a lt o N o i s e R a t i o ,P S N R )值㊁结构相似性(S t r u c t u r a l S i m i l a r i t y,S S I M )值㊂P S N R 是一种基于像素点误差的图像客观评价指标,应用广泛㊂它计算无失真图像与超分后图像对应像素点间的误差值,值越大表示超分后的图像失真越小,其公式为:P N S R =10㊃l g(m a x X 2M S E)=20㊃l g(m a x X M S E)(4)其中M S E 为两幅大小为WˑH 的R G B 三通道图像9安徽广播电视大学学报2021年第2期之间像素值的均方误差,公式为:M S E=1WH cðW-1i=0ðH-1j=0ðc-1k=0 X(i,j,k)-Y(i,j,k) 2(5)其中X为测试时原始无失真H R图像,Y为X下采样后得到L R图像,再通过超分模型得到的H R图像,c为通过数,彩色图像时取值3㊂S S I M是另一种图像质量评价指标,偏向于人的视觉感受,它主要从无失真图像与超分图像的亮度㊁对比度㊁结构三个方面来度量两者的相似性㊂S S I M 取值范围为0~1,值越大,表示两张图像越相似,失真越小;反之,值越小,表示图像失真越大㊂其公式为:S S I M(X,Y)=L(X,Y)α*C(X,Y)β*S(X,Y)γ(6)其中,L(X,Y)是亮度比较,C(X,Y)是对比度比较, S(X,Y)是结构比较,其表达式如下:L(X,Y)=2u x u y+C1u2x+u2y+C1C(X,Y)=2σxσy+C2σ2x+σ2y+C2S(X,Y)=σx y+C3σxσy+C3(7)其中,u x㊁u y分别表示无失真图像X与超分后图像Y的均值,σx㊁σy分别表示两张图像的标准差,σx y 表示两张图像之间的协方差㊂C1㊁C2㊁C3为常数,防止分母为0,通常在实际应用时α㊁β㊁γ的值取1,C3取C2的一半㊂实验时取一张412ˑ480大小的H R图像,通过下采样得到一张103ˑ120大小的L R图像,分别对其进行上述五种4倍超分实验,分别统计其用时㊁P S N R㊁S S I M三项指标,得到的数据如表3所示㊂通过对实验结果与实验指标数据分析,可以得出结论,普通的双三次插值,效果差,图像边缘锯齿状,图像模糊,对应的P S N R㊁S S I M指标值也较小;F S R C N N模型得到的图像在视觉效果上优于双三次插值,且用时也少,但P S N R㊁S S I M指标与其接近;E S P C N模型用时最少,体现了亚像素卷积操作的优势,且P S N R㊁S S I M指标也优于前两种模型; L a p S R N模型,在用时上接近半秒,但P S N R㊁S S I M 指标上都有很大提升,图像质量优于前三者;E D S R 模型由于使用了非常深的网络,模型参数众多,训练模型文件大小接近38M B,所以超分图像用时最长,接近6秒,但图像超分效果最好,从P N S R与S S I M 指标值上也能反映这一点㊂因此,在实际招生应用时,可采用E D S R模型对低分辨率图像进行超分㊂若应用场景考虑实时响应,可考虑使用L a p S R N模型㊂表3图像四倍超分时各模型的用时㊁P N S R㊁S S I M数据4倍超分方法用时(秒)P S N R(d B)S S I Mb ic u b i c0.144131.95450.9210 F S R C N N0.067631.60570.9201E S P C N0.024631.68770.9219L a p S R N0.489632.04710.9256E D S R5.880632.30940.9291四㊁结语招生是开放大学办学的第一个环节,会采集很多学员的第一手数据信息,数据质量的好坏,将对后续工作产生很大影响㊂其中,学生提交的相关照片质量尤为重要,引入基于深度学习单张图像超分辨率重建技术,能很好解决招生过程中的低分辨率图像引发的问题㊂通过对主流的深度学习模型中的F S R C N N㊁E S P C N㊁L a p S R N㊁E D S R模型网络结构的研究㊁4倍超分应用㊁评价指标分析,可以看出,E D S R模型得到的超分图像质量更高,视觉效果也最好㊂下一步的研究是将图像超分领域的最新研究成果应用到开放大学的招生实践中,争取获得更好的图像超分效果㊂参考文献:[1]张宁,王永成,张欣,等.基于深度学习的单张图片超分辨率重构研究进展[J].自动化学报.2020,46(12):2.[2] HA R R I S JL.D i f f r a c t i o na n dR e s o l v i n g P o w e r[J].J o u r n a l o f t h eO p t i c a l S o c i e t y o fA m e r i c a,1964,54(7):931-933.[3] G O O D MA NJW,C O X M E.I n t r o d u c t i o n t oF o u r i e rO p t i c s[M].S a nF r a n c i s c o:M cG r a w-H i l l,1968:372-388.19杨建华:单张图像超分辨率重建技术研究及在开放大学招生中的应用安徽广播电视大学学报2021年第2期[4] T S A IRY,HU A N GTS.M u l t i p l e F r a m e I m a g eR e s t o r a t i o n a n dR e g i s t r a t i o n[A].A d v a n c e s i nC o m p u t e rV i s i o n a n d I m a g eP r o c e s s i n g.G r e e n w i c h,C T:J A IP r e s s I n c.,1984:317-339.[5] H I N T O N G E,O S I N D E R O S,T E H Y W.A F a s tL e a r n i n g A l g o r i t h mf o rD e e p B e l i e fN e t s.[J].N e u r a lC o m p u t a t i o n,2006.18(7):1527-1554.[6] K R I Z H E V S K Y A,S U T S K E V E RI,H i n t o n G.I m a g e N e tC l a s s i f i c a t i o n w i t h D e e p C o n v o l u t i o n a lN e u r a lN e t w o r k s[C]//N I P S.C u r r a nA s s o c i a t e s I n c.2012:1097-1105.[7] S Z E G E D YC,L I U W,J I A Y,e t a l.G o i n g D e e p e rw i t hC o n v o l u t i o n s[C]//P r o co f I E E EC o n f e r e n c eo nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n.P i s c a t a w a y,N J:I E E EP r e s s,2015:1-9.[8] S I MO N Y A N K,Z I S S E R MA N A.V e r y D e e p C o n v o l u t i o n a l N e t w o r k s f o r L a r g e-S c a l e I m a g eR e c o g n i t i o n[J].C o m p u t e r S c i-e n c e,2014,23(6):1223-1229.[9] H EK,Z HA N G X,R E NS,e t a l.D e e p R e s i d u a l L e a r n i n g f o r I m a g eR e c o g n i t i o n[C]//I E E EC o n f e r e n c eo nC o m p u t e rV i-s i o na n dP a t t e r nR e c o g n i t i o n(C V P R),2016:770-778.[10] D O N GC,L O YCC,H EK,e t a l.I m a g eS u p e r-R e s o l u t i o nU s i n g D e e p C o n v o l u t i o n a lN e t w o r k s[J].I E E E T r a n s a c t i o n so nP a t t e r nA n a l y s i s a n d M a c h i n e I n t e l l i g e n c e,2016,38(2):295-307.[11] G O O D F E L L OWI J,P O U G E T-A B A D I EJ,M I R Z A M,e t a l.G e n e r a t i v eA d v e r s a r i a lN e t s[C]//I n t e r n a t i o n a lC o n f e r e n c eo nN e u r a l I n f o r m a t i o nP r o c e s s i n g S y s t e m s.M I TP r e s s,2014:2672-2680.[12] D O N GC h a o,L O Y C C,T A N G X i a o o u.A c c e l e r a t i n g t h eS u p e r-R e s o l u t i o nC o n v o l u t i o n a lN e u r a lN e t w o r k[C]//P r o co fE u r o p e a nC o n f e r e n c e o nC o m p u t e rV i s i o n.B e r l i n:S p r i n g e r,2016:391-407.[13] S H IW,C A B A L L E R OJ,HU S Z A R F,e t a l.R e a l-T i m eS i n g l e I m a g ea n d V i d e oS u p e r-r e s o l u t i o n U s i n g a nE f f i c i e n tS u b-p i x e l C o n v o l u t i o n a lN e u r a lN e t w o r k[C]//P r o c e e d i n g s o f t h e2016I E E EC o n f e r e n c e o nC o m p u t e rV i s i o na n dP a t t e r nR e c-o g n i t i o n,L a sV e g a s,J u n27-30,2016.P i s c a t a w a y:I E E E,2016:1874-1883.[14] L A IW S,HU A NJB,A HU J I A N.D e e p L a p l a c i a nP y r a m i dN e t w o r k s f o rF a s t a n dA c c u r a t e S u p e r-r e s o l u t i o n.I n:P r o c e e d-i n g s o f I E E EC o n f e r e n c e o nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n.H a w a i i,U S A Z:C V P R,2017:5835-5843.[15] L I M B,S O N S,K I M H.E n h a n c e dD e e p R e s i d u a lN e t w o r k s f o rS i n g l eI m a g eS u p e r-R e s o l u t i o n.I n:P r o c e e d i n g so f I E E EC o n f e r e n c e o nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n W o r k s h o p s.H a w a i i,U S A:C V P R,2017:1132-1140.[16] L E D I GC,T H E I SL,HU S Z A RF,e t a l.P h o t o-R e a l i s t i c S i n g l e I m a g e S u p e r-R e s o l u t i o nU s i n g aG e n e r a t i v eA d v e r s a r i a l N e t-w o r k[C]//C o m p u t e rV i s i o n&P a t t e r nR e c o g n i t i o n.I E E E,2017:4681-4690.[17]p y t h o n_y j y s.S R超分辨率模型.r a r[C P/D K].(2021-02-06)[2021-02-28].h t t p s://d o w n l o a d.c s d n.n e t/d o w n l o a d/p y t h o n_y j y s/15108276.[18]杨建华.基于人脸识别技术的考生身份验证系统的研究与实现[J].合肥学院学报(综合版).2020,37(2):81-85.R e s e a r c ho nS i n g l e I m a g e S u p e r-r e s o l u t i o nR e c o n s t r u c t i o nT e c h n o l o g y a n dI t sA p p l i c a t i o n i nE n r o l l m e n t o fO p e nU n i v e r s i t yY A N GJ i a n h u a(A n h u iO p e nU n i v e r s i t y,H e f e i230022,C h i n a)A b s t r a c t:I no r d e r t o s o l v e t h e p r o b l e mo f i m a g e d i s t o r t i o n c a u s e db y c o n v e n t i o n a l d i s p l a y,w h i c h i s n o t e a s y t o i d e n t i f y,t h e p a p e r i n t r o d u c e s a s i n g l e i m a g e s u p e r-r e s o l u t i o n r e c o n s t r u c t i o n t e c h n o l o g y b a s e d o n d e e p l e a r n i n g,s t u d i e s t h e n e t w o r k s t r u c t u r e o f f o u r c l a s s i c a l i m a g e s u p e r-s e g m e n t a t i o nm o d e l s,a n d a p p l i e s t h e m t o t h ee n r o l l m e n to fo p e nu n i v e r s i t y t oa c h i e v e t h es u p e r-s e g m e n t a t i o no f s i n g l e l o w-r e s o l u t i o ne n r o l l m e n t i m a g e s r e s p e c t i v e l y.T h r o u g ht h ee x p e r i m e n t a l a n a l y s i sa n dc o m p a r i s o n,t h er e s u l t ss h o wt h a t t h eE D S R m o d e l c a n s o l v e t h e p r o b l e mo f i m a g e e n l a r g e m e n t a n dd i s t o r t i o n,a n dm e e t t h en e e d s o f e n r o l l m e n tw o r k.K e y w o r d s:o p e nu n i v e r s i t y;i m a g e s u p e r-r e s o l u t i o n;d e e p l e a r n i n g;c o n v o l u t i o n a l n e u r a l n e t w o r k[责任编辑李潜生] 29。
基于迭代算法的图像超分辨率重建技术研究图像超分辨率重建技术是一种通过使用算法和技术将低分辨率(LR)图像转换为高分辨率(HR)图像的技术。
基于迭代算法的图像超分辨率重建技术是一种常见的方法,通过多次迭代来逐步提高图像的分辨率。
本文将探讨基于迭代算法的图像超分辨率重建技术的研究进展和关键技术。
一、图像超分辨率重建技术的背景随着数字图像处理技术的迅速发展,人们对图像清晰度和细节的要求越来越高。
然而,在许多实际应用中,由于摄像头性能限制或传输带宽限制,获取高分辨率图像变得困难。
因此,研究图像超分辨率重建技术成为了一个重要的课题。
图像超分辨率重建技术的目标是通过从低分辨率图像中恢复丢失的高频信息来增加图像的细节和清晰度。
在过去的几十年中,学术界和工业界已经提出了许多图像超分辨率重建技术。
而基于迭代算法的图像超分辨率重建技术在这些方法中具有广泛的应用和研究。
二、基于迭代算法的图像超分辨率重建技术方法基于迭代算法的图像超分辨率重建技术主要包括两个关键步骤:初始重建和迭代细化。
初始重建是通过一些预处理方法从低分辨率图像中恢复一些高频信息。
迭代细化是在初始重建的基础上,通过多次迭代来进一步提高图像的分辨率和细节。
首先,在初始重建中,常用的方法包括插值方法和统计建模方法。
插值方法是将低分辨率图像中的像素通过插值操作来恢复到高分辨率。
而统计建模方法则是利用已有的高分辨率图像和低分辨率图像之间的对应关系,通过统计建模来估计高频信息。
然后,在迭代细化中,常用的方法包括学习方法和正则化方法。
学习方法通过构建一个辅助模型来学习高分辨率图像和低分辨率图像之间的映射关系,并用学到的模型通过多次迭代来提高重建效果。
正则化方法通过加入正则化项来约束优化问题,以减少重建过程中的估计误差,并通过多次迭代逐步优化结果。
三、基于迭代算法的图像超分辨率重建技术的关键技术基于迭代算法的图像超分辨率重建技术的关键技术主要包括图像金字塔、超分辨率核、模型训练和优化算法等。
超分辨率图像重建技术研究与应用超分辨率图像重建技术是一种可以提高图像分辨率的方法,它在图像处理领域具有广泛的研究与应用价值。
本文将介绍超分辨率图像重建技术的相关概念与原理,并探讨其在实际应用中的一些挑战与方法。
一、超分辨率图像重建技术的概念与原理超分辨率图像重建技术是指通过一系列的图像处理算法,将低分辨率图像转换为高分辨率图像的方法。
其核心思想是通过利用低分辨率图像中已有的信息以及与之相关的高分辨率图像数据,从而实现对低分辨率图像的重建。
常用的超分辨率图像重建技术包括插值法、图像金字塔法和基于统计模型的方法等。
插值法是一种简单而常用的超分辨率图像重建技术。
它通过基于邻近像素的灰度值来预测目标像素的灰度值,从而增加图像的分辨率。
插值法的优点是计算简单、速度快,适用于处理低分辨率图像中的细节信息较少的情况。
然而,由于插值法只基于邻近像素进行预测,所以无法准确恢复图像的高频细节信息,对于处理复杂场景的超分辨率图像重建效果较差。
图像金字塔法是一种通过构建多层次的图像金字塔来实现超分辨率图像重建的方法。
它通过将输入图像进行多次降采样,得到一系列不同分辨率的图像,然后在不同分辨率的图像上进行图像处理操作,最后重新结合到原始图像中,从而增加图像的细节信息。
图像金字塔法的优点在于可以有效地增加图像的分辨率,并且能够较好地保护图像的细节信息。
但是,图像金字塔法在处理大尺度超分辨率图像时可能会面临计算量过大的问题,且对于边缘信息的重建效果较差。
基于统计模型的超分辨率图像重建方法包括使用稀疏表示和使用深度学习网络等。
稀疏表示方法通过对低分辨率图像进行字典学习,将图像表示为稀疏系数和字典的线性组合,从而实现图像的重建。
深度学习网络方法则使用神经网络模型对低分辨率图像进行端到端的学习和重建,具有较好的重建效果。
基于统计模型的超分辨率图像重建方法能够更准确地恢复图像的细节信息,但需要大量的训练数据和计算资源。
二、超分辨率图像重建技术的应用超分辨率图像重建技术在实际应用中有着广泛的应用价值。
图像超分辨重建技术研究现状
摘要:本文详细论述了图像超分辨重建技术国内外研究现状,包括基于重建的超分辨技术和基于学习的超分辨重建技术,最后总结了超分辨技术的发展方向。
关键词:图像超分辨重建
1 引言
图象是人类传递和交流信息以及认识客观世界的重要方式之一。
图象超分辨重建是由一帧或多帧低分辨率图象重建一帧高分辨率图象的技术。
图象超分辨重建技术在视频监控、遥感成像、医学成像等众多领域具有重要的应用价值和研究意义。
图象超分辨技术按原理可分为基于重建的方法和基于学习的方法,而基于重建的方法又包含频域方法和空域方法。
下面分别予以介绍。
2 基于重建的超分辨技术
基于重建的方法按照图象退化模型,利用一定的数学理论对退化图象进行反退化,得到超分辨重建图象。
2.1 频域解混叠方法
Tsai和Huang首先在不考虑噪声和模糊的情况下,对帧间存在亚像元平移的、欠采样的一组低分辨率图象,导出了频率混叠公式,建立
了频域解混叠的基本模型[1]。
随后,Kim等先后引入噪声与模糊等问题[2],提出了解混叠算法的迭代计算模型,使得在解混叠的同时,还能够解模糊和去噪声。
2.2 基于概率统计理论的方法
基于概率统计理论的超分辨重建方法主要包括最大后验概率估计(MAP)方法,它以贝叶斯定理理论做为理论依据。
人们对该方法进行了大量的研究,获得了巨大的发展。
MAP估计算法中的数据一致项一般采用误差范数,Elad等对范数进行了研究[3],认为范数相当于对各低分辨率帧对应像素求中值,范数相当于求平均值,使用范数具有更好的鲁棒性。
对于正则化项,Michael K. Ng等采用TV(total variation)正则化项取代Laplacian正则化项[4],认为该正则化方法使算法具有鲁棒性并能保持图象边缘纹理信息。
Xuelong Li等引入了一种基于梯度一致性的新的正则化项,改进了超分辨效果[5]。
2.3 基于集合理论的方法
凸集投影(POCS)超分辨方法以集合理论为基础,将高分辨率图象的每一个先验知识转化成限制凸集,对初始图像轮流向各凸集进行投影获得超分辨图像。
先验信息的增加意味着解区的缩小。
POCS算法的研究主要集中于提高效果等方面。
Chuangbai Xiao
等通过对点扩散函数在图象边缘纹理处进行加权运算,有效消除了边缘振荡效应[6]。
POCS超分辨重建方法一般对配准具有较高的要求,大的配准误差会引起性能的急剧下降,因此研究对配准误差等具有鲁棒性的POCS方法具有重要的意义。
3 基于学习的超分辨技术
基于学习的方法是近年来超分辨率算法研究的热点方向之一。
该类方法的基本思想是通过学习获得HRI和LRI之间的关系,再利用学习结果来指导超分辨图象的重建。
基于学习的超分辨方法学习结果可以通过样本形式或参数形式来表达,因此也称为基于示例学习(Example-based)的方法。
基于学习的方法对于特定图象比如文本、人脸等可以取得较好的效果,在放大倍数较高时也有明显优势。
3.1 基于非参数学习的方法
Freeman等引入马尔可夫(Markov)网络来确定低分辨率图象块与示例样本块的两个匹配条件[7],通过为样本库中图像块的替换提供了约束条件进行超分辨重建。
在Freeman工作基础上,Stephenson T A等针对人脸具有对称性这一特点,将对称性作为一种邻域关系引入到Markov网络,提出了一种新的人脸图象超分辨重建方法[8]。
3.2 基于参数学习的方法
以上所述基于非参数学习的超分辨重建方法由HR和LR图象块对组成的样本库形式描述和存储学习结果,该方法一般存储量和搜索量都比较大,而由参数形式描述和存储的基于学习的超分辨方法则只需存储神经网络的权值信息,以计算代替了搜索。
文献[9]提出了利用BPNN进行单帧图象超分辨重建的方法,但该方法搜索过程有可能陷入局部最优而不是全局最优。
相比于BPNN,支持向量机(SVM)以结构最小化代替经验最小化,具有更好的推广性能。
Dalong Li等利用SVM对图像超分辨重建进行了研究,实验表明即使使用很少的训练样本,也取得了较好的超分辨效果[10],表现出很强的推广能力。
4 结语
图象超分辨重建技术是图象处理领域的一个重要方向和研究热点,具有多方面的应用需求。
本文对图像超分辨重建技术的国内外研究现状进行了详细的论述和总结。
展望未来,更好的超分辨效果、更强的鲁棒性和更快的执行速度等,将是继续深入研究的方向,面向各专门领域的超分辨重建技术是另一个重要的研究的方向之一。
参考文献
[1]Tsai R, Huang T. Multiframe Image Restoration and
Registration[J]. Advances in Computer Vision and Image Processing,1984, 1(2):317-339.
[2]Kim S, Wen-Yu Su. Recursive High-resolution Reconstruction of Blurred Multiframe Images[J]. IEEE Trans.on Image Processing,1993,2(4):534-539.
[3]Sina Farsiu, Dirk Robinson M, Michael Elad, et al. Fast and Robust Multiframe Super Resolution[J]. IEEE Transactions on Image Processing,2004,13(10):1327-1344.
[4]Michael K. Ng, Huanfeng Shen, Subhasis Chaudhuri, Andy C. Yau. Zoom-based super-resolution reconstruction approach using prior total variation[J]. Optical Engineering,2007,46(12):127003.
[5]Xuelong Li, Yanting Hu, Xinbo Gao, et al. A multi-frame image super-resolution method[J]. Signal Processing, 2010(90):405-414.
[6]Chuangbai Xiao, Jing Yu, Kaina Su. Gibbs artifact reduction for POCS super-resolution image reconstruction[J]. Front. Comput. Sci. China., 2008, 2(1):87-93.
[7]Freeman W T, Jones T R, Pasztor E C. Example-based super-resolution[J]. IEEE Comput. Graph. Appl., 2002, 22(2):56-65.
[8] Stephenson T A, Chen T. Adaptive Markov random fields for
example-based super-resolution of faces[J]. Journal on Applied Signal Processing,2006:1-11.
[9] Anastassopoulos V. Fusion and super-resolution in multi-spectral data using neural networks for improved RGB representation[J]. The Imaging Science Journal. 2005(53):83-94.
[10] Dalong Li, Steven Simske, Russell M. Mersereau. Single Image Super-Resolution Based on Support Vector Regression [C]. Proceedings of International Joint Conference on Neural Networks,2006.。