HEVC关键技术
- 格式:doc
- 大小:693.06 KB
- 文档页数:18
HEVC(H.265)总结HEVC英文全称:High Efficiency Video Coding(高效率视频编码),又称H.265和MPEG-H Part 2,是一种旨在通过更高速度和容量提升视频编码效率的视频压缩标准。
ITU (国际电信联盟)于2013年Q1正式批准这一新标准,该标准被称为Recommendation ITU-T H.265或ISO/IEC 23008-2,其主要发展进程如下图所示:图1 H.265发展进程如图2所示,作为业界普遍看好的编码技术之一, 无论是标准制定,还是专利许可,HEVC 的演进之路获得了国际及国内诸多厂商(比如:apple、思科、华为等)的支持,可以预见这些各国的大型企业对HEVC的产业化工作更具热情。
图2 业内各种编码技术当前最主流的编码技术是H.264,因为苹果公司当初毅然决然抛弃了Adobe的VP6编码,选择了H.264,这个标准也就随着数亿台iPad和iPhone走入了千家万户,成为了目前视频编码领域的绝对霸主,占有超过80%的份额。
H.264也被广泛用于网络流媒体数据、各种高清晰度电视陆地广播以及卫星电视广播等领域。
H.264相较于以前的编码标准有着一些新特性,如多参考帧的运动补偿、变块尺寸运动补偿、帧内预测编码等,通过利用这些新特性,H.264比其他编码标准有着更高的视频质量和更低的码率,也因此受到了人们的认可。
HEVC(H.265)的技术亮点:H.265/HEVC的编码架构大致上和H.264/AVC的架构相似,主要也包含,帧内预测(intra prediction)、帧间预测(inter prediction)、转换(transform)、量化(quantization)、去区块滤波器(deblocking filter)、熵编码(entropy coding)等模块,但在HEVC编码架构中,整体被分为了三个基本单位,分别是:编码单位(coding unit,CU)、预测单位(predict unit,PU) 和转换单位(transform unit,TU )。
HEVC若干关键技术研究的开题报告一、选题来源及背景分析最近几十年来,电视技术一直在不断地进步与发展。
在这个过程中,视频编解码技术的发展起到了至关重要的作用。
视频编解码技术的发展水平直接决定着电视图像的质量和稳定性。
随着高清视频、超高清视频等新型视频标准的不断出现,视频编解码技术也在不断地升级。
2013年,编码压缩效率提升50%以上的HEVC视频编码标准(High Efficiency Video Coding)正式推出。
相比于之前的标准H.264,在同样保证视频质量的前提下,输入流数据量HEVC减少了50%左右。
随着4K、8K高清视频在市场上的大量应用,HEVC标准也成为了当前视频领域内最广泛使用的技术之一。
在HEVC标准的背后,有许多值得研究和深入探讨的技术和算法。
因此,本课题选取了HEVC若干关键技术作为研究对象。
二、研究内容和目标本课题的研究对象是HEVC的若干关键技术。
其中包括:1、Intra预测技术2、Inter预测技术3、变形去块滤波技术4、变形运动补偿技术5、实时编码技术6、量化优化技术7、CABAC熵编码技术本课题的研究内容包括:对标准HEVC视频编码技术的基本规则和流程进行了深刻的分析和研究,针对各种关键技术和算法的原理和实现方式进行深入剖析. 主要目标是在保证视频质量的前提下,能够进一步提高压缩比和编码效率。
三、研究方法和技术路线本课题采取理论研究和案例分析相结合的方法,具体研究技术路线如下:第一步:理论研究1、对HEVC标准下的视频编码规则和流程进行深入研究。
2、对HEVC标准下各种算法和技术的原理、优点缺点等进行深入分析。
第二步:案例实验1、选择不同场景的视频进行压缩编码和还原操作。
2、采用不同的编码参数和算法对视频进行编码和压缩,并进行实验对比分析。
第三步:研究总结根据实验结果和理论分析,总结出HEVC标准下各个关键技术的最优实现方式,并对未来的HEVC标准发展提出建议。
视频编码标准H265的性能优化一、视频编码标准H265概述H265,也称为HEVC(High Efficiency Video Coding),是继H264之后的新一代视频编码标准。
它由MPEG(Moving Picture Experts Group)和VCEG(Video Coding Experts Group)联合开发,旨在提供更高的压缩效率和视频质量。
H265的推出,不仅提升了视频传输和存储的效率,而且对整个视频产业的发展产生了深远的影响。
1.1 H265技术的核心特性H265技术的核心特性主要体现在以下几个方面:- 更高的压缩率:H265能够提供比H264更高的压缩率,理论上可以在相同的视频质量下减少大约50%的数据量。
- 更好的视频质量:H265支持更高的分辨率和色彩深度,能够提供更清晰、更细腻的视频画面。
- 支持更宽的色域和动态范围:H265能够支持更宽的色域和更高的动态范围,使得视频内容更加丰富多彩。
1.2 H265技术的应用场景H265技术的应用场景非常广泛,包括但不限于以下几个方面:- 4K和8K视频流:H265能够高效地编码4K和8K超高清视频,满足未来高清视频传输的需求。
- 视频监控:H265的高压缩率使得它非常适合用于视频监控领域,可以有效减少存储和传输成本。
- 网络视频服务:H265被广泛应用于网络视频服务,如视频点播、直播等,提供更流畅的视频体验。
二、H265编码标准的制定H265编码标准的制定是一个全球性的过程,需要全球范围内的视频技术专家和组织的共同努力。
2.1 国际视频编码标准组织国际视频编码标准组织是制定H265编码标准的权威机构,主要包括MPEG和VCEG。
这些组织负责制定H265编码的全球统一标准,以确保不同国家和地区的视频编码能够实现互联互通。
2.2 H265编码标准的关键技术H265编码标准的关键技术包括以下几个方面:- 编码单元划分:H265采用了更小的编码单元划分,如CU(Coding Unit)和TU(Transform Unit),以提高编码效率。
前沿视频编解码技术研究近年来,随着互联网的快速发展,视频已经成为人们日常娱乐生活中不可或缺的一部分。
在这里,我们不得不提到视频编解码技术,它是构成视频传输体系中重要的一环。
随着高清视频、4K和8K等视频格式的出现,视频编解码技术也在不断更新迭代。
本文将重点探讨目前前沿的视频编解码技术研究。
一、 HEVC技术HEVC是目前应用最广泛的视频编解码技术之一。
HEVC技术也称为H.265,可以实现高效率、高清晰度的视频传输。
比如,在4K视频的传输和播放过程中,HEVC技术可以有效缩小视频的文件大小,从而提高视频的传输速度,降低传输成本。
二、VP9技术VP9技术也是一个非常先进且应用广泛的视频编解码技术。
VP9技术的最大特点是数据压缩效果非常好,可以在保证高质量的前提下实现更快的数据传输速度。
目前,VP9技术应用在YouTube和Google等平台上,成为该平台上视频传输的常用技术。
三、AV1技术AV1技术是视频编解码技术的新生力量,该技术被誉为“后HEVC时代的编码器”,其最大亮点就是在更高的图像质量下减少40%的文件大小。
AV1技术在视频编解码领域表现出来的创新精神,将在未来发挥越来越重要的作用。
四、HDR技术HDR技术是视频编解码领域的另一个重要技术,HDR技术由于可以为视频传输过程中的亮度差异带来更好的解决方案,可以创造出更加真实的视频画面。
HDR技术在研究和应用方面,与目前的4K及以后的高清晰度视频技术密不可分。
五、AI技术随着人工智能的崛起,人工智能技术也开始逐渐应用于视频编解码技术的研究领域。
比如,AI可以实现视频画面的自然语音描述,从而提高视频的观看体验。
此外,人工智能技术还可以实现视频去噪声、提高视频质量等功能。
六、总结可以看出,视频编解码技术在不断创新和发展中,并且在多个领域都已经催生出了技术革新,有望改变人们对于视频传输的看法。
在这个进步的时代,一个个新技术的崛起让人们对于视频的看法迎来了变化,未来的视频传输会更加现代化和智能化。
高效视频编码标准中的关键技术概述一、HEVC编码框架HEVC仍然沿用了H.261就开始采用的基于运动补偿的混合编码框架,即帧间和帧内预测用于消除时间域和空间域的相关性;对预测残差进行离散余弦变换和量化以消除空间相关性;自适应熵编码消除统计冗余;环路滤波用于消除量化噪声,但HEVC 在图像编码单元组织、内容自适应算术编码、多方向帧内预测、先进运动矢量预测和合并、分像素运动估计与补偿、自适应像素补偿和环路滤波等方面都做了很大的改进。
HEVC的主要技术特征如下:(一)树形编码块结构在HEVC 中,基本编码单元为编码树单元CTU,大小为16×16、32×32或者64×64,每个编码树单元由亮度编码树块与对应的色度编码树块组成。
每个编码树块可以进一步分成编码块CB,根据预测与变换的率失真性能,可以对编码块进一步的分成预测块PB和变换块TB。
编码块、预测块和变换块的分离使视频编码更加灵活,各种不同的划分组合更能适应视频图像的纹理特征,有助于编码效率的提高。
(二)四叉树残差变换块结构残差四叉树变换属于一种自适应的变换技术,是对H.264/MPEGAVC中自适应块变换ABT技术的延伸和扩展。
它允许变换块的大小能够根据预测残差的特征进行自适应的选择,在残差能量集中、图像细节保留以及图像三者之间最优均衡。
(三)自适应样点补偿自适应样点补偿是一个自适应选择过程,在编解码环路内,位于去块滤波(Deblock)之后。
若使用SAO技术,重构图像将按照递归的方式分裂成4个子区域,每个子区域将根据其图像像素特征选择一种像素补偿方式,以减少源图像与重构图像之间的失真,从而提高压缩率,减少码流。
采用SAO后,平均码流减少了2%~6%,但编解码器的性能消耗只增加了约2%。
目前有两大类补偿方式:带状补偿和边缘补偿。
带状补偿:将像素值强度等级划分为若干个条带,每个条带内的像素拥有相同的补偿值。
进行补偿时根据重构像素点所处的条带,选择相应的带状补偿值进行补偿。
HEVC-H.265帧内编码关键技术软硬件优化HEVC/H.265帧内编码关键技术软硬件优化摘要:高效视频编码(High Efficiency Video Coding,HEVC)是当前最新的国际视频编码标准,其目标是在不损失视觉质量的情况下,显著提高视频编码的效率。
其中,帧内编码是HEVC的重要组成部分,对编码效率起着至关重要的作用。
本文主要讨论HEVC/H.265帧内编码的关键技术和软硬件优化方法,旨在提高帧内编码的性能和效率。
1. 引言近年来,随着高清视频的普及和互联网的高速发展,对视频编码的需求和要求也越来越高。
HEVC作为一种先进的视频编码标准,以其出色的压缩效率和高质量的解码性能被广泛应用于多媒体应用中。
帧内编码是HEVC中最重要的编码模式之一,因此对其进行技术优化和硬件加速具有重要意义。
2. HEVC/H.265帧内编码原理HEVC/H.265帧内编码采用了一系列创新的算法和技术,包括预测、变换、量化和编码等过程。
预测是帧内编码的核心过程,通过利用空间和时间上的相关性对当前帧像素进行预测,以减小编码器所需的位数。
变换过程通过将预测残差从空域转换为频域,使得编码的残差更加易于压缩。
量化和编码过程则是对变换系数进行量化和熵编码,以减小编码后的数据量。
3. 帧内编码关键技术为提高HEVC/H.265帧内编码的效率和性能,需要研究和优化以下几个关键技术:3.1 预测算法预测算法是帧内编码的核心,准确的预测可以显著降低编码残差的能量。
常用的预测算法包括帧内预测、帧间预测和运动补偿。
在帧内预测中,通常使用邻域像素值进行预测,而帧间预测则通过参考帧进行预测。
运动补偿则可以根据运动矢量对编码残差进行补偿,从而提高编码的效率。
3.2 变换算法变换算法是将预测残差从空域转换为频域的关键过程。
HEVC/H.265中采用了一种新的变换算法——倒装正交转换(Inverse Discrete Cosine Transform,IDCT)。
hevc原理HEVC(High Efficiency Video Coding)是一种高效的视频编码技术,它是H.264/AVC的继任者,由ISO/IEC 23008-10和ITU-T H.265标准制定。
HEVC的主要目标是提高视频压缩效率,相较于H.264/AVC,它在相同画质条件下可以将码率降低50%,从而节省带宽和存储空间。
HEVC的原理主要包括以下几个方面:1. 空间预测:HEVC继承了H.264/AVC中的空间预测技术,包括相邻帧预测、隔帧预测等。
通过参考帧之间的预测关系,可以减少冗余信息,进一步提高压缩效率。
2. 帧内预测:HEVC引入了更多的帧内预测模式,包括水平、垂直、DC、角度等,用于预测当前块的像素值。
这些预测模式可以减少帧内冗余,从而降低码率。
3. 变换和量化:与H.264/AVC类似,HEVC使用离散余弦变换(DCT)对预测残差进行变换,然后对变换系数进行量化,从而降低数据量。
4. 熵编码:HEVC采用了基于Context-Adaptive Binary Arithmetic Coding(CABAC)的熵编码方法,与H.264/AVC中的霍夫曼编码相比,CABAC能够在相同码率下提供更好的压缩性能。
5. 率失真优化:HEVC通过率失真优化技术,根据视频内容的特性,自适应地调整量化参数,以达到最佳的压缩效果。
6. 层次化结构:HEVC支持层次化结构,允许编码器和解码器根据需求灵活地选择不同的配置,以满足不同场景的应用需求。
总之,HEVC通过多种技术手段提高视频编码效率,使得在相同画质条件下,码率降低,从而为用户节省带宽和存储空间。
然而,相比H.264/AVC,HEVC的计算复杂度更高,可能导致实时解码性能下降。
因此,在实际应用中,需要根据具体需求权衡画质与计算性能。
基于HEVC的三维视频编码关键技术述评张秋闻;黄新彭;甘勇【摘要】综述了基于高效率视频编码HEVC(high efficiency video coding)标准的两种扩展,即MV-HEVC (high efficiency video coding based multiview)和3D-HEVC(high efficiency video coding based 3D video coding)的工作原理及其编码工具,分析了3D-HEVC 模型的特点、编码模块与方法,并将3D-HEVC与MV-HEVC进行了性能对比。
总结发现,由于3D-HEVC 采用纹理视频加深度格式来合成虚拟视点,从而降低了大量的编码码率,可方便应用于3D电视、自由立体视点电视和3D数字电影等多种三维体验中。
随着智能移动设备的发展,手持终端采用3D-HEVC支持多视点3D视频将会成为未来的研究趋势。
%The operating principle and coding tools of two kinds of extension of HEVC (high efficiency vid-eo coding)standards including MV-HEVC (high efficiency video coding based multiview)and 3D-HEVC (high efficiency video coding based 3D video coding)were reviewed.The feature,coding modules and method of 3D-HEVC model were analyzed,and the performances between 3D-HEVC and MV-HEVC were compared.The conclusion showed that 3D-HEVC synthesized virtual view with the format of texture video plus depth,thus its bit rates would be reduced notably,so3D-HEVC would be applied to many kinds of 3D experience like 3D TV,free viewpoint video and 3D digital movie.With the development of smart mobile devices,handheld terminal using 3D-HEVC to support multiview 3D video would become the research tend-ency in the future.【期刊名称】《郑州轻工业学院学报(自然科学版)》【年(卷),期】2015(000)001【总页数】8页(P55-62)【关键词】三维视频;高效率视频编码;压缩【作者】张秋闻;黄新彭;甘勇【作者单位】郑州轻工业学院计算机与通信工程学院,河南郑州 450001;郑州轻工业学院计算机与通信工程学院,河南郑州 450001;郑州轻工业学院计算机与通信工程学院,河南郑州 450001【正文语种】中文【中图分类】TN919.812013年,第一代高效率视频编码(HEVC)标准完成,且被批准称为ITU-T H.265标准及ISO/IEC 23008-2[1].随后,相关的国际标准化委员会又将工作重点转移到了其重要性能的扩展开发上.尽管第一代HEVC标准涉及许多领域,但是其中一些关键技术还没有得到完全开发,未来开发人员将会专注于对HEVC最核心技术的研发.HEVC标准委员会由ITU-T的视频编码专家组(VCEG)和ISO/IEC的运动图片专家组(MPEG)合作组成.HEVC的大部分高层语法都是从H.264/MPEG-4高级视频编码(AVC)标准中保留并延续下来的,且其参数集中包含了为视频流中的图片解码的信息.该参数集提供了强大的数据传送机制,传送的数据只有在解码过程中通过解析顶层头文件才能得到,而且该机制确保了与之匹配的“带外”数据可以被反复传送.其中每一条语法都被载入一个逻辑数据包中,该数据包被称为网络抽象层(NAL)单元.根据一个仅有2个字节的NAL单元的头文件,能很轻易地判断出相关负载数据的传送目的地,这些数据就包括了为随机访问图片解码的参数集.第一代HEVC的高层语法在兼容性方面具有可扩展的能力,尤其是传统解码器在对部分比特流进行解码方面具有可扩展性.为此,高级视频编码定义了视频参数集(VPS)用于解码,除此之外,还应用了序列参数集(SPS)和图片参数集(PPS).从某种程度上讲,NAL单元概念的提出,可以更灵活地实现随机访问、trick play和部分序列访问.HEVC中其余的NAL单元类型支持对视频系统的各种随机访问行为. HEVC的视频编码层采用的是基于分块的混合编码方法(帧间预测和2D转换编码混合),且该方法可以用在自H.261以来的所有视频压缩标准中.HEVC比特流的混合编码器的框图如图1所示.基于HEVC标准的3D视频扩展能够实现立体和多视点的成像,其中深度图加视频的多视点技术是较新的3D扩展技术.为了研究更多的3D视频项目,尤其是基于HEVC标准的3D视频扩展,HEVC标准委员会在2012年7月组成了3D视频联合组(JCT-3V).3D多视点视频格式通过特殊的3D显示系统,就能够将真实场景的深度感表现出来,且该视频系统预计将以合适的价格进入消费者市场[2].对于传统的立体视频格式来说,观看者需要佩戴特殊的眼镜才能感受到立体效果,而自由立体视频格式的显示器却能够达到裸眼3D的效果.自由立体视频格式采用的是基于深度图合成的技术,该技术的亮点在于可利用编码表现出大部分高质量深度图[3-5].为了支持这些功能,JCT-3V小组正在研发对立体视频和多视点视频高效压缩的HEVC功能扩展,同时也在研发绘制高级3D功能的深度图[6-8].本文在概述基于HEVC标准的多视点扩展的基础上,对正在发展中的3D-HEVC进行深入讨论,并对这两种扩展进行性能对比,以期为三维视频编码技术的发展提供参考和借鉴. MV-HEVC是HEVC扩展中最简单的扩展.多视点扩展的设计原则与之前高级视频编码框架中多视点视频编码的设计原则相同[9-10].2014年将完成MV-HEVC的设计,且其草案在文献[11]中可以找到.与MVC设计框架一样,MV-HEVC的设计框架可以实现视点间估计,因此,同一时刻其他视点的图像将被用于预测当前视点的图像,而且MV-HEVC的设计框架可以兼容HEVC的单视点编码. 预测结构如图2所示,视点0表示基本视点,通过同一时刻的基本视点的图像可以预测出非基本视点(视点1或视点2)中的一帧图像.I帧图像只能使用帧内预测,P帧图像可以使用单方向帧内预测,而B帧或b帧图像则可以使用双向帧内预测.对视点间图像的估计,可通过灵活的基于HEVC的参考图像管理功能实现.从本质上讲,就是将其余视点的解码图像嵌入至当前视点的参考图像列表中,用于预测处理.因此,参考图像管理包含了当前视点的时域参考图像,可以用于相邻视点预测当前图像与视点间参考图像.对高层语法基本不做改变或只做小范围改动,即可完成这样基于分块的解码模块的扩展设计.由于预测是自适应的,所以应该根据失真率代价来判断是选择使用时域参考图像预测器,还是选择使用视点间参考图像预测器(以及双向预测器或者权重预测器)[12-15].用这种预测结构取得了比使用所谓的兼容框架结构更高效的立体压缩效果,兼容框架结构将不同视点的图像嵌入单个视点框架(左或右视点,上或下视点),但是无法消除视点间冗余.多视点扩展方案的后向兼容指的是单个视点的子比特流可从3D视频比特流中提取出来,并用HEVC解码器对其进行解码.为了实现更高效地压缩,还要继续使用HEVC对单个视点视频编码保持后向兼容,构成可选择的编码结构,可以利用改进后的基于分块编码工具的优势进行编码.这样的结构及上一节提到的类似结构,都能够完全兼容第一代HEVC的基本视点,并抽取出单个视点视频,这样,非基本视点就只能应用其他的编码.由于同一物体投射到不同视点有着相似的运动特征和纹理特点,因此如果能够发现视点间运动数据与残差数据之间的关系,就能够节省大量的码率开销[16-19].JCT-3V已经设计了参考模型,同时也起草了3D扩展的工作草案详述,并命名为3D-HEVC,目的是实现使用高级工具对多视点编码进行研发[20-21].下面将从更多细节方面来描述一些常用的MV-HEVC工具.1.1 基于相邻块视差矢量(NBDV)获取当前块视差矢量基于NBDV获取当前块视差矢量的基本思想是利用时空域上相邻块的有效视差运动矢量推导出当前块的视差矢量.为了识别不同视点间相关块的关系,在MV-HEVC中基于NBDV进行矢量识别,是按照类似高级位移矢量预测(AMVP)模式的方法和HEVC的合并(MERGE)模式的方法设计的.该技术的主要优点是用于视点间估计的视差矢量可以被直接推导出来,而不需要额外的比特开销,而且该视差矢量独立于相对应的深度图.当相机参数有效时,视差矢量也可以通过解码深度图来得到[23].空间相邻块在AMVP模式和MERGE模式中一样,有着相同的访问顺序,即A1,B1,B0,A0和B2,如图3所示.但是由于这两种模式都不能用于空域上的视点间参考,所以时域上的基于NBDV是可以被检测到的[24-25].一旦NBDV被识别,那么NBDV的搜索过程将被终止,而且推导出来的视差矢量将被定义为识别出来的视差矢量.1.2 视点间运动估计视点间的运动信息具有很高的相关度,而且比特流中包含了这些信息,因而良好的预测器通常可由一个视点估计出另一个视点,大大提高编码效率.为了实现这类估计,NBDV将被用于建立每个视点中块之间的联系,如图4所示.由图4可知,可以根据时间1中的视点0所对应的块的位置,以及基于这些块之间的视差矢量推导出视点1的运动矢量,推导过程类似NBDV的推导过程.3D-AVC和MV-HEVC中都有视点间运动估计的概念,但是其设计不一样.在3D-AVC中,视点间运动估计是用一种新的预测模式实现的.而在MV-HEVC中,视点间运动估计是通过利用MERGE和AMVP模式中的语法和解码过程实现的,且该实现过程已经引入到HEVC标准中.1.3 视点间残差估计高级残差估计(ARP)是利用两个视点间的运动补偿残差信号的相关性进行估计[26],可以提高残差估计的精确度.ARP中的运动矢量是连接当前块与参考块之间的一条有方向的线段,所以当前块的残差估计和残差信号之间的相似度是非常高的,这样ARP的其余矢量便可被略去,从而达到节省代码的目的.ARP的估计结构如图5所示,非基本视点中的块DC使用运动矢量VD实现运动补偿.首先,用NBDV识别出视点间参考块BC,再在基本视点中的重建块BC和对应的重建块Br之间进行运动补偿(用VD进行补偿),接着在预测信号中(来自块Dr 的运动补偿)添加预测残差信号.在使用相同的运动矢量VD的情况下,当前块的残差信号可以被更加准确地估计出来.一旦使用了ARP,残差估计就可以赋予0.5或1的加权.基本视点的运动补偿增加了内存访问量和计算量,所以JCT-3V研发了一些可使扩展设计更加实用的方法[26],但这些方法都不同程度地以牺牲编码效率作为代价.例如被同时用于参考块和当前块的运动补偿的双线性滤波器.1.4 光照补偿如果相机对色彩传递或光照效果不进行校准,那么对于不同相机捕捉的同一场景,则无法进行预测处理.为了解决这个问题,研发人员开发了一项名叫光照补偿的技术,用来提高对视点间参考图像块进行预测编码的效率[27].而这项技术只能应用于对视点间参考图像的块预测.然而,对于立体自由显示器的3D应用,如果使用MV-HEVC编码,则需要20个甚至更多的视点数.由于数据量庞大,不但给网络带来了巨大的负载压力,也对解码端的能力提出了很高的要求.因此,JCT-3V将深度信息(视差信息)融合了多视点视频编码,命名为3D-HEVC,这样就只需要两三个视点的信息便可表示出3D内容,从而降低了需要传送的数据量,所以3D-HEVC将会成为未来3D应用的发展趋势[28].为了对“视频加深度”格式的3D视频数据进行高效的压缩,研究人员开发了许多编码工具,并针对各个深度分量之间的独立性进行研究.如果某一个视频分量可以通过传统HEVC进行独立编码,那么该视频分量就需要兼容现有的2D视频业务.3D视频的各个分量,如基本视点的视频分量,可以通过传统的HEVC编码器编码,而基本视点的深度分量,则可采用改进了的编码工具进行编码.这样,3D视频编码可以从一系列传统2D编码工具和改进了的编码工具中选择最佳编码工具进行编码.深度图具有纹理单一、边缘锐利等特点.由于错误边缘重建可能会导致严重的失真,且会影响人工视点合成,所以保证深度图中边缘的有效性对高质量虚拟视点合成非常重要.深度图的另一个特点是其边缘信息(即场景中的深度的间断点)的一部分可以从对应的纹理分量中提取出来.JCT-3V已经计划制定出两个重要编码模块:基于分区的帧内深度编码模块和运动参数继承模块.另外,由于深度信息具有锐利边缘的特点,所以仅使用第一代HEVC中运动补偿的插值滤波器不能对保护深度图边缘起到效果.因此,运动补偿将整像素应用于深度图编码中,可以通过闭环滤波器(包括区块滤波器(DBF)和采样点自适应偏移(SAO)回路滤波器)对深度图边缘进行优化.此外,已经设计出来的虚拟视点合成估计可以利用深度信息进行纹理编码.2.1 基于分区的帧内深度编码为了更好地表达深度信息,现有的3D-HEVC中已经引入了许多特制的深度编码工具,这些工具都可以将深度块分割成非矩形的小块.这种基于深度图分割的编码模式包括深度模型模式(DMM)[29]、区域边界循环编码模式(RBC)[30]及简单深度编码模式(SDC)[31].在这些模式中,每一个深度预测单元都可以被分成两个部分,其每一部分都可以用一个定值来表示,深度预测单元分区模式如图6所示.每一部分的深度值都是通过相邻参考像素预测出来的,而且残差值可以进一步通过编码来补偿预测过程中出现的误差.尽管DMM和RBC都会将一个深度预测单元分割成两个部分,但是它们所表征的分区模式不同.DMM中应用了两种类型的分区模式,包括楔形模式和轮廓模式.如图6所示,楔形模式是用一条直线来分割深度预测单元.与楔形模式不同,轮廓模式用一系列方位链码来明确地表示出分割部分,方位链码是把1个像素与其周围的8个方位的像素连接起来,赋予0到7的值,所以其分区边缘是非直线的.图7为深度块的轮廓分割.如图7所示,左边一幅图表示连续的深度区域,中间一幅图表示对其进行离散化,右边一幅图表示对应的分割情况,其中,深度块的轮廓(分区边缘)取决于纹理图中的同位置块.2.2 运动参数继承在3D-HEVC中,深度信息的运动参数继承是通过将MERGE模式候选者添加到当前深度块的MERGE模式列表中实现的,其中也包括第一代HEVC里面MERGE模式中的时空候选者,而其余的候选者则由纹理图中同位置块的运动信息生成[32].2.3 视点合成估计视点合成估计VSP(view synthesis prediction)是一种减少视点间冗余的有效方法,它利用深度信息把参考视点的纹理数据应用到当前视点中,从而实现对当前视点的预测[33].在虚拟视点合成估计的编码环境下,基于深度图合成技术还不成熟,由于在对当前图像进行编解码之前,需要先生成一整个合成图,并将其存放在参考图的缓冲区内,这将提高解码复杂度.基于分块的向后虚拟视点合成估计(BVSP)框架已经引入到了3D-HEVC中,其中,当前块的深度信息是由视点间参考图像的对应像素点推算出来的[34-35].因为纹理编码是在深度编码之前进行的,所以当前块的深度信息可以用之前所提到的NBDV估计出来.此时,当前块有着与相邻块相同的深度信息(以及相同的视点间位移矢量).该深度块的最佳深度信息被转换成了视差矢量,该视差矢量可以被用于运动继承及执行向后虚拟视点合成估计.由于拍摄角度存在差异,多个摄像机在拍摄同一场景时,生成的视点之间存在几何失真.在现有的3D-HEVC设计中,虚拟视点合成估计是针对补偿几何失真所提出的,其主要思想是利用深度信息或者视差信息合成一个虚拟的视图用作当前编码图像的参考图像,并要求生成的虚拟图像比视点间参考图像更接近于当前编码图像,从而提高多视点编码的编码效率.为了评估不同结构和不同编码技术的压缩效率,需要使用参考软件完成仿真,同时标准化组织也给出了实验方法[36-37].实验分为两组,第1组实验评估了单视点及多视点纹理视频(不含深度图)的压缩效率,而第2组实验评估了多视点加深度图的编码效率.第1组仿真实验是MV-HEVC与HEVC联播编码的性能比较,其中MV-HEVC与HEVC联播编码相比,增加了视点间预测算法,而它们都不包含深度图信息.表1为MV-HEVC较联播编码的码率节省结果.由表1可见,MV-HEVC的平均码率相对于HEVC联播编码而言,在双视点的情况下可节省28%,在三视点的情况下可节省38%,由此论证了MV-HEVC编码视点间预测的效率要高于HEVC联播编码.从表1中还可以看出,对于单视点的编码((仅有)视点1或(仅有)视点2),MV-HEVC相比于HEVC联播编码,同样有着高于60%的码率节省.对于多视点视频来讲,由于MV-HEVC的编码复杂度比HEVC联播编码的编码复杂度低,因而,更多的是采用MV-HEVC的编码方案.第2组仿真实验是3D-HEVC标准与MV-HEVC和HEVC联播编码的性能比较.其中,3D-HEVC标准增加了一些新的编码工具,像基于深度图像绘制技术,利用该技术可以产生虚拟视点,然后进行视点合成优化VSO(view synthesis optimization),从而完成解码端的视点合成.第1组实验只是对纹理视频编码的压缩效率进行评估,而第2组实验由于加入了深度图信息,则需要考虑深度图质量和合成视点的编码质量.表2为三视点情况下3D-HEVC较联播编码和MV-HEVC的码率节省结果.由表2可见,即使 3D-HEVC标准不采用VSO,相对于所有纹理图像和深度图像都独立编码的HEVC联播编码,也可以节省41%的平均码率,而相对于MV-HEVC编码标准可以节省平均15.5%的码率.通过这两个对比,可以猜测性地认为,在深度图编码方面,MV-HEVC标准的编码效率要高于HEVC联播编码效率,然而,当3D-HEVC标准进行VSO时,与MV-HEVC相比,可以节省平均30.6%的码率(几乎是在不采用VSO情况下的两倍).同时,解码运行时间则是评估3D-HEVC编码复杂度的一个标准.由表2中的解码时间可见,3D-HEVC相对于联播编码与MV-HEVC参考模型的运行时间分别平均增长了11%和18%,虽然有所增长,但是与其降低的码率相比,这样的时间增加是在允许范围之内的.由于3D-HEVC是视频加深度格式,且使用了虚拟视点合成技术,所以相对于MV-HEVC,省去了大量的视点信息,从而可以实现节省码率.这样,在同样的处理性能和网络环境下,对同一视频序列进行编码和传输时,3D-HEVC的效率要明显高于MV-HEVC的效率,但是提取深度信息方面,如何快速去除块效应是一项3D-HEVC也未攻破的技术难题,还需要做进一步深入研究.综述了当前较流行的HEVC标准的多视点扩展MV-HEVC,以及基于深度信息的MV-HEVC即3D-HEVC.虽然3D视频在影院里很受欢迎,但是由于3D视频较高的编码代价,导致其在家庭娱乐和消费类电子产品中的潜能未能得到充分挖掘开发.随着显示技术的革新,可以达到裸眼立体效果的3D-HEVC编码技术,由于其具有低编码代价的特点,3D-HEVC更适于3D电视、自由立体视点电视和3D数字电影等多种三维体验中.随着智能移动设备的发展,手机互联网的规模日益壮大,手持终端采用3D-HEVC支持多视点3D视频将会成为未来的研究趋势.【相关文献】[1]Zhang Q,An P,Zhang Y,et al.Low complexity multiview video plus depth coding[J].IEEE Tra nsactions Consumer Electronic,2011,57(4):1857.[2] Chen Y,Vetro A.Next-generation 3D formats with depth map support[J].IEEE MultiMedia,2014,21(2):90. [3] Mül ler K,Schwarz H,Marpe D,et al.3D high efficiency video coding for multi-view video and depth data[J].IEEE Transactions on Circuits and Systems for Video Technol ogy,2013,22(9):3366.[4]Zhang Q,Tian L,Huang L,et al.Rendering distortion estimation model for 3D high efficiency depth coding[J].Math Probl Eng,2014,2014:1.[5]Ohm J,Sullivan G J,Schwarz parison of the coding efficiency of video coding standar ds—including high efficiency video coding (HEVC)[J].IEEE Transactions on Circuits and Systems for Video Technology,2012,22(12):1669.[6]Zhang Q,An P,Zhang Y,et al.Efficient depth map compression for view rendering in 3D vid eo[J].Imaging Sci J,2013,61(4):385-395.[7] Zhang Q,Li N,Wu Q.Fast mode decision for 3D-HEVC depth intracoding[J].The Scientific World Journal,2014,2014:1.[8]Zhang Q,Li N,Gan Y.Effective early termination algorithm for depth map intra coding in 3D -HEVC[J].Electron Lett,2014,50(14):994.[9]Chen Y,Wang Y K,Ugur K,et al.The emerging MVC standard for 3D video services[J].EURAS IP Journal on Advances in Signal Processing,2009,2009:1.[10]Vetro A,Wiegand T,Sullivan G J.Overview of the stereo and multiview video coding ext ensions of the H.264/AVC standard[J].Proc IEEE,2011,99(4):626.[11]Tech G,Wegner K,Chen Y,et al.MVHEVC draft text 5[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) Document JCT3V-E1004,Vienna:JCT-3V,2013.[12]Shen L,Zhang Z.Content-adaptive motion estimation algorithm for coarse-grain SVC[J].IEEE Transactions on Image Processing,2012,21(5):2582.[13]Wang H,Sam K,Chi-Wah K.An efficient mode decision algorithm for H.264/AVC encoding optimization[J].IEEE Transactions on Multimedia,2007,9(4):882.[14]Liu Z,Shen L,Zhang Z.An efficient intermode decision algorithm based on motion hom ogeneity for H.264/AVC[J].IEEE Transactions on Circuits and Systems for Video Technolog y,2009,19(1):128.[15]Shen L,Liu Z,Zhang X,et al.An effective CU size decision method for HEVC encoders[J].I EEE Transactions on Multimedia,2013,15(2):465.[16]Fang C,Chang Y ,Chung W.Fast Intra Mode Decision for HEVC Based on Direction Ener gy Distribution[R].Hsinchu:IEEE,2013:61-62.[17]Shen L,Liu Z,Zhang Z,et al.Fast inter mode decision using spatial property of motion fi eld[J].IEEE Transactions on Multimedia,2008,10(6):1208.[18]Shen L,Zhang Z,An P.Fast CU size decision and mode decision algorithm for HEVC intra coding[J].IEEE Transactions on Consumer Electronics,2013,59(1):207.[19]Jongho K.Yoonsik C,Yong-Goo K.Fast coding unit size decision algorithm for intra coding in HEVC[R].Las Vegas:IEEE,2013:637-638.[20]Tech G,Wegner K,Chen Y,et al.3D-HEVC draft text 1[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 5th Meeting Document JCT3V-E1001,Vienna:JCT-3V,2013.[21]Zhang L,Tech G,Wegner K,et al.3D-HEVC test model 5[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 5th Meeting Document JCT3V-E1005,Vienna:JCT-3V,2013.[22]Schwarz H,Bartnik C,Bosse S,et al.Description of 3D video technology proposal by frau nhofer HHI (HEVC Compatible;Configuration A)[Z].ISO/IEC JTC 1/SC 29/WG 11 (MPEG) do cument m22570,[s.n.]:[s.n.],2011.[23]Zhang L,Chen Y,Marta Karczewicz.Disparity vector based advanced inter-view prediction in 3D-HEVC[R].Beijing:IEEE,2013:1632-1635.[24]Kang J,Chen Y,Zhang L,et al.3D-CE5.h related:Improvements for disparity vector derivation[C]//Joint Collaborative Team on 3D Video C oding Extensions (JCT-3V) 2nd Meeting Document JCT3VB0047,Shanghai:JCT-3V,2012. [25]Sung J,Koo M,Yea S.3D-CE5.h:Simplification of disparity vector derivation for HEVC-based 3D video coding[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 1st Meeting Document JCT3V-A0126,Stockholm:JCT-3V,2012.[26]Zhang L,Chen Y,Li X,et al.CE4:Advanced residual prediction for multiview coding[C]//Joint Collaborative Team on 3D Vi deo Coding Extensions (JCT-3V) 4th Meeting Document JCT3V-D0117,Incheon:JCT-3V,2013.[27]Liu H,Jung J,Sung J,et al.3D-CE2.h:Results of illumination compensation for inter-view prediction[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 2nd Meeting Document JCT3VB0045,Shanghai:JCT-3V,2012.[28]Gu Zhouye,Zheng Jianhua,Ling Nam,et al.Fast Depth Modeling Mode Selection for 3D HEVC Depth Intra Coding[R].San Jose:IEEE,2013:1-4.[29]Müller K,Merkle P,Tech G,et al.3D video coding with depth modeling modes and view synthesis optimization[R].Hollywood:IEEE,2012:1-4.[30]Heo J,Son E,and Yea S.3D-CE6.h:Region boundary chain coding for depth-map[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 1st Meeting Document JCT3V-A0070,Stockholm:JCT-3V,2012.[31]Jäger F.3D-CE6.h results on simplified depth coding with an optional depth lookup table[C]//Joint Col laborative Team on 3D Video Coding Extensions (JCT-3V) 2nd Meeting Document JCT3V-B0036,Shanghai:JCT-3V,2012.[32]Chen Y W,Lin J L,Huang Y W,et al.3D-CE3.h results on removal of parsing dependency and picture buffers for motion parameter inheritance[C]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 3rd Meeting Document JCT3V-C0129,Geneva:JCT-3V,2013.[33]Yea S,Vetro A.View synthesis prediction for multiview video coding[J].Signal Processin g:Image Communication,2009,24(1-2):89.[34]Tian D,Zou F,Vetro A.CE1.h:Backward view synthesis prediction using neighbouring blocks[C]//Joint Collaborative Tea m on 3D Video Coding Extensions (JCT-3V) 3rd Meeting Document JCT3V-C0152,Geneva:JCT-3V,2013.[35]Tian D,Zou F,Vetro A.Backward View Synthesis Prediction for 3D-HEVC[R].Melbourne:IEEE,2013:1729-1733.[36]Rusanovskyy D,Mueller K,Vetro mon test conditions of 3DV core experiments[C ]//Joint Collaborative Team on 3D Video Coding Extensions (JCT-3V) 5th Meeting Document JCT3V-E1100,Vienna:JCT-3V,2013.[37]Advanced Television Systems Committee(ATSC).3D-TV Terrestrial Broadcasting,Part 2-SCHC Using Real-Time Delivery[Z].Washington DC:[s.n.],2012.。
HEVC关键技术2.1 引言视频编码标准主要由两大国际组织开发,即ITU-T(国际电信联盟电信标准化部门)和ISO/IEC(国际标准化组织/国际电工委员会),ITU-T开发了H.261[1]和H.263[2],ISO/IEC开发了MPEG-1[3]和MPEG4 Visual[4],两大组织合作开发了H.262/MPEG-2 Video[5]以及H.264/MPEG-4 AVC[6],这两个合作开发的视频标准得到了广泛的应用,尤其是H.264/MPEG-4 AVC,其应用领域包括高清卫星电视广播、有线电视、视频采集/编辑系统、便携摄像机、视频监控、网络和移动互联网视频传播、蓝光光盘、以及视频聊天、视频会议和网真系统等实时视频应用场景。
H.264/MPEG-4 AVC基本覆盖了所有数字视频应用领域并替代了其他一些视频标准。
然而,随着服务多样化的增加、高清视频的流行、以及超高清格式(4k×2k 或8k×4k)的出现,市场上需要比H.264/MPEG-4 AVC性能更优的视频编码标准。
另外,随着移动设备和平板电脑的兴起,人们对视频点播服务需求量不断增大,对视频质量和分辨率要求也不断提高,从而对现有网络带宽造成很大的威胁和挑战。
因此,针对这些应用,市场需要比H.264/MPEG-4 AVC更高效的视频编码标准。
在这样的背景下,HEVC作为新一代的视频编码标准应运而生,HEVC(High Efficiency Video Coding)是由ITU-T的VCEG(Video Coding Expert Group)和ISO/IEC的MPEG(Moving Picture Experts Group)联合开发,合作开发组称为JCT-VC(Joint Collaborative Team on Video Coding)[7],JCT-VC从2010年4月开始第一次会议,从世界各大公司、高校和研究机构征集新标准的提案,在2013年1月发布了HEVC的第一版,确定了HEVC的基本框架和内容,之后HEVC 仍会不断扩展其内容和功能以适应不同场景的应用需求,如对多种颜色空间格式的支持,SCC(Screen Content Coding),3D视频编码,可伸缩视频编码等。
ISO/IEC 将会把HEVC称为MPEG-H Part2 (ISO/IEC 23008-2),ITU-T可能会把HEVC称为H.265。
HEVC的设计目标是在同等图像质量下,比H.264/AVC的比特率降低50%,其设计侧重点主要有两个方面,即针对高分辨率视频和增加并行处理结构的运用。
和以前的ITU-T和ISO/IEC开发的视频标准一样,HEVC采用了基于分块结构的编码流程,图2-1为HEVC编码器结构图,其中包括块分割、帧内预测、帧间预测、运动估计/运动补偿、正变换/反变换、量化/反量化、熵编码、以及环路滤波等。
图2-1 HEVC视频编码器2.2 基于四叉树策略的编码单元分割和传统视频编码标准一样,HEVC先将一帧数据分割为若干二维对称结构的编码单元,再逐个进行处理。
HEVC定义了3种块分割单元,分别是CU(Coding Unit),PU(Prediction Unit),和TU(Transform Unit)。
CU是最基本的二维对称结构编码单位,和H.264/A VC中的“宏块”作用相似,唯一不同的地方是CU的大小没有严格的限制,如CU大小可以是64×64、32×32、16×16、和8×8。
除了以帧为单位的环路滤波外,其他编码环节如帧内/帧间预测、变换、量化、以及熵编码都是以CU为单位进行的。
最大的CU称为LCU(Largest Coding Unit),最小的CU称为SCU(Smallest Coding Unit),LCU 和SCU的大小一般限制为2的整数次幂且大于等于8。
一帧图像可以认为是由互相不重叠的LCU组合而成,由于CU是二维对称结构,对LCU的进一步分割是以递归四叉树方式进行的。
具体如图2-2所示。
64x64(LCU)8x8(SCU)图2-2 CU递归四叉树分割结构如果已知LCU的大小和递归分割的最大深度,就知道这个LCU中可能存在的CU大小。
如LCU大小为64×64,最大分割深度为4,则CU大小可以为:64×64(LCU),32×32,16×16,8×8。
如果LCU大小为16×16,最大分割深度为2,则CU大小为:16×16,8×8。
HEVC不限制编码单元大小的设计,有利于提高对高分辨率视频的编码效率,如果一帧图像某一区域数据分布比较均匀,使用较大的CU来编码(H.264/AVC 的宏块大小为16×16),会减少编码单元的数量,从而节省一些不必要的开销。
这些结论在文献[8-11]中进行了详细的论证,类似的方法在MPEG和VCEG的提案[12-14]中也曾提出过。
PU(Prediction Unit)是HEVC预测环节的基本编码单元,所有和预测相关的操作都是以PU为单位的,如帧内预测的方向、帧间预测的运动矢量差和参考帧索引、运动矢量预测、以及运动补偿都是基于PU进行处理的。
PU的大小受限于其所在的CU的大小,即在CU分割结束后,才开始考虑PU的处理。
在HEVC中有3种预测类型:Skip,Intra,Inter。
预测类型是影响PU分割的主要因素,具体如图2-3所示。
如果CU的大小是64×64,则Skip模式下,PU大小也是64×64;Intra模式下,PU大小可能是64×64或32×32;Inter 模式下,PU大小可能是64×64,64×32,32×64,32×32,64×16,64×48,16×64以及48×64。
图2-3 三种预测模式下PU 的分割除了CU 和PU ,HEVC 还定义了TU (Transform Unit )作为变换和量化的基本单元,TU 的大小可能会大于PU ,但不会超过所在CU 的大小,TU 必须是二维对称的。
TU 的大小取决于transform_unit_size_flag 的值以及PU 的分割方式,如果transform_unit_size_flag=0,则TU 大小等于所在CU 的大小,如果transform_unit_size_flag=1,则TU 大小为N×N 或N/2×N/2,并取决于PU 的分割方式。
具体如图2-4所示:图2-4 TU 的分割方式2Nx2NNxN2Nx2N Nx2N 2NxnU 2NxN NxN 2NxnD nLx2N nRx2N IntraInter2Nx2N2NN2N transform unit size flag = 0transform unit size flag = 0transform unit size flag = 1transform unit size flag = 1(a) 2Nx2N, 2NxN, Nx2N, NxN case (b) 2NxnU, 2NxnD, nLx2N, nRxN case图2-5 CU,PU,TU之间的关系图2-5给出了CU,PU,TU之间的关系,当TU size flag=1时,TU的大小取决于PU的分割类型(是否对称),非对称PU分割模式下,TU需要做更深的分割,这种设计的目的是为了避免TU跨越PU的边界。
CU、PU、TU三种单元相互独立又互有联系,这种设计使块的分割更符合图像的纹理特征,也使编码、预测、变换等各个环节更加灵活,有利于各个单元更好的完成各自的功能。
2.3 帧内预测2.3.1 帧内预测模式HEVC的帧内预测和H.264/AVC类似,也是根据相邻块的数据按照各种方式进行预测重建。
当编码高清视频时,HEVC会采用较大的编码单元,如果仍然使用H.264/AVC的预测模式,则不足以全面描述所有可能的预测匹配模型。
因为,为了使帧内预测更准确,HEVC对亮度分量的预测模式多达35种(包括DC,Planar[15-18]两种非方向性预测,以及另外33种方向性预测),具体如图2-6所示。
色度分量的预测模式有5种,即水平、垂直、DC、DM(Derivation Mode)和LM(Linear Mode),其中DM模式是根据亮度预测模式来决定色度预测模式。
LM 模式根据相邻块的亮度和色度线性模型关系来预测当前块的色度,详见2.3.2节。
Angle step, modes 18-34A n g l e s t e p , m o d e s 2-1723456789(a) 35种预测模式 (b) 33种方向预测角度图2-6 帧内预测模式2.3.2 Planar 预测模式Planar 预测模式适用于图像平滑内容的预测重建,JCT-VC 的提案[15]首先提出这种预测方案,具体如图2-7所示,首先把待预测块的右下角像素值写入码流,然后根据该值和相邻块重建像素来插值最右侧列和最下面行,然后通过双线性插值的方法得到其他像素的预测值。
图2-7 Planar 预测模式 提案[16]对planar 模式做了进一步的改进,首先最右下角的像素不再传送给解码端,而是通过相邻块重建像素插值得到。
另外把双线性插值改为分别作水平和垂直方向的线性插值,然后再求平均值,具体如图2-8所示。
图2-8 改进的planar 预测模式2.3.2 LM 预测LM(linear model)是HEVC 新增的色度预测模式[19-22],其基本思想是根据当前块的亮度重建信号来预测色度信号,具体计算方法如式(2-1)所示:[,]'[,]C L Pred x y Rec x y αβ=⋅+ (2-1)其中Pred C [x ,y ]为当前块的色度预测信号,Rec L '[x ,y ]为当前块的亮度重建信号。
α和β是根据相邻块重建亮度和色度信号的关系推导出来的。
如果视频源是YUV4:2:0格式,则色度信号的采样率是亮度信号的一半,在使用LM 预测时,色度和亮度信号就存在1/2个像素的相位差。
因此,需要先将亮度信号下采样,使其和色度信号的大小和相位相匹配。
在LM 预测方式中,对重建亮度信号在垂直方向上下采样,在水平方向上二次抽样,即:'[,]([2,2][2,21])1L L L Rec x y Rec x y Rec x y =++>> (2-2)通过使用最小二乘法,可以拟合出下采样后的重建亮度信号和色度信号之间的关系,从而推导出式(2-1)的参数α和β。