H264规范
- 格式:pdf
- 大小:245.90 KB
- 文档页数:3
H.264标准的特点及应用随着人类精神需求和空间需求的提升,人们不再满足面对面的语言交流,空间距离的增加导致人们面对面的语言交流变得越来越少,人们更需要在时空中交流与交往。
当传统的交流方式难以实现时,更需要视觉、感观以及信息交流。
正因为如此,促进了卫星通信、微波通信、有线/无线传输技术的发展,也推动信息压缩技术和宽带传输技术,同时推动了安防业的迅猛发展。
视频信息传输和视频通讯的猛增,给视频压缩技术带来了很大挑战。
无论是互联网还是无线网络,都需要一种新型的压缩算法,新算法要求高压缩比,且能适应不同的网络环境。
以较小的失真、较高的压缩比、更小的花费、较低的码率在信道中传递视频,进行多媒体通信是今后视频压缩技术研究的一个方向。
H.264,又称MPEG-4part10,也称AVC(AdvancedVideoCoding),是一个数字视频压缩标准,由VCEG(ITU-TVideoCodingExpertsGroup)和MPEG(ISO/IECMovingPictureExpertsGroup)联合组成的JVT(JointVideoTeam)于2003年3月正式发布[1,2]。
H.264标准的主要目标就是在同等保真条件下,提高编码效率。
这是一对矛盾,既然要求图像不失真,则图像传输的比特数就大,在网络带宽一定的情况下,图像信号传输的速度就快,因此,只有提高编码效率才能实现。
H.264的源起在以往众多的视频编码算法中,被广泛认可并应用于实际的是ISO/IEC制定的MPEG-X和ITU-T制定的H.26x两大系列视频编码国际标准。
H.261是早期的编码标准,主要是规范ISDN网上的会议电视和可视对讲。
它采用的是可减少时间冗余的帧间预测和减少空间冗余的DCT变换的混合编码方法,以及ISDN信道匹配,其输出码率是P×64kbit/s。
P较小时,传输清晰度不太高的图像;P较大时,可以传输清晰度较好的会议电视图像。
H264编解码协议详解H.264编解码协议,也被称为AVC(Advanced Video Coding),是一种广泛应用于视频压缩的标准。
它是一种基于帧的压缩算法,可以将高质量的视频数据以较低的比特率传输和存储。
以下是H.264编解码协议的详细解释:1.压缩结构H.264使用了多种技术来实现高效率的视频压缩。
它使用了预测编码、变换编码和熵编码等多种技术。
预测编码通过利用帧间和帧内的冗余性,对视频进行空间和时间上的预测。
变换编码则通过对预测误差进行离散余弦变换(DCT),在频域上进行编码。
最后,熵编码使用了熵编码表将变换后的数据进行进一步的压缩。
2.帧结构H264将视频数据划分为一系列的帧,每个帧包含了许多宏块(macroblock)。
其中,关键帧(I帧)是完全独立的帧,它包含了视频的全局信息。
预测帧(P帧)和双向预测帧(B帧)则通过对前一帧和前后一帧进行预测来进行编码。
P帧只依赖前一帧,而B帧则依赖前后两帧。
这种结构可以进一步提高视频压缩的效率。
3.量化参数H.264使用量化参数对预测误差进行编码。
量化参数决定了每个预测误差值的精度,较大的量化参数会导致更高的压缩率,但也会导致较大的失真。
编码器和解码器可以通过动态调整量化参数来平衡压缩率和失真。
4.帧间预测帧间预测是H.264压缩的核心技术之一、它通过对前后帧的像素进行比较,预测当前帧的像素值。
如果在帧间没有大的运动,那么预测误差就会较小,从而达到更好的压缩效果。
帧间预测有多种模式,包括帧间直接模式(inter-direct mode)、帧间双向模式(inter-bidirect mode)和帧间skip模式(inter-skip mode)等。
5.熵编码H.264使用了基于上下文的自适应变长编码(CAVLC)和基于上下文的自适应二进制算术编码(CABAC)两种熵编码技术。
CAVLC主要用于编码量化系数和运动矢量等数据,而CABAC主要用于编码预测模式和其他语法元素。
序列、图像(存储单元)、宏块、像素一个序列的第一个图像叫做IDR 图像(立即刷新图像),IDR 图像都是I 帧图像。
H.264 引入IDR 图像是为了解码的重同步,当解码器解码到IDR 图像时,立即将参考帧队列清空,将已解码的数据全部输出或抛弃,重新查找参数集,开始一个新的序列。
●I帧(帧内编码帧)是一种自带全部信息的独立帧,无需参考其它图像便可独立进行解码。
视频序列中的第一个帧始终都是I帧。
I帧可以用来实现快进、快退以及其它随机访问功能。
如果新的客户端将参与查看视频流,编码器将以相同的时间间隔或者根据要求自动插入I帧。
I帧的缺点在于它们会占用更多的数据位,但I帧不会产生可觉察的模糊现象。
●P帧(帧间预测编码帧)需要参考前面的I帧和/或P帧的不同部分才能进行编码。
与I帧相比,P帧通常占用更少的数据位,但其缺点是,由于P帧对前面的P和I参考帧有着复杂的依赖性,因此对传输错误非常敏感。
●B帧(双向预测编码帧)需要同时以前面的帧和后面的帧作为参考帧。
不是参考帧,不会造成解码错误的扩散。
运算比较复杂,CPU占用较高。
I、B、P各帧是根据压缩算法的需要人为定义的,它们都是实实在在的物理帧。
一般来说,I帧的压缩率是7(跟JPG差不多),P帧是20,B帧可以达到50。
网络打包、网络抽象层单元(NALU)、片NALU的网络打包:(1) 额外开销要少,使MTU尺寸在100~64k字节范围都可以;(2) 不用对包内的数据解码就可以判别该包的重要性;(3) 载荷规范应当保证不用解码就可识别由于其他的比特丢失而造成的包不可解码;(4) 支持将NALU分割成多个RTP包;(5) 支持将多个NALU汇集在一个RTP包中。
●灵活宏块次序(FMO) 可以通过设置宏块次序映射表(MBAmap)来任意地指配宏块到不同的片组,FMO模式打乱了原宏块顺序,降低了编码效率,增加了时延,但增强了抗误码性能。
划分图像的模式各种各样,主要的有棋盘模式、矩形模式等。
H264编码原理详解前言•在日常生活中我们知道,电脑中的视频文件先要通过视频采集设备对物体进行采集,然后通过编码核心部件得到mp4,rmvb等格式进行保存。
有没有可能不经过上述核心编码部件采集之后直接进行显示呢?答案是可以的。
那为什么还要进行编码呢?答案是原始采集到的视频数据为YUV格式,这种格式不经过处理的话特别大,对于网络传输和永久保存非常不利,为了解决这个问题,就需要对原原始的视频数据进行压缩处理。
而H264则是目前一种流传广泛,成熟的视频压缩算法。
•先来看一个例子在学习H.264编码之前,我们先了解一下在手机相机拍摄视频的过程,如果Camera采集的YUV图像不做任何处理进行传输,那么每秒钟需要传输的数据量是多少?Camera采集的YUV图像通常为YUV420,根据YUV420的采样结构,YUV图像中的一个像素中Y、U、V分量所占比例为1:1/4:1/4,而一个Y分量占1个字节,也就是说对于YUV图像,它的一个像素的大小为(1+1/4+1/4)Y=3/2个字节。
如果直播时的帧率设置为30fps,当分辨率为1280x720,那么每秒需要传输的数据量为1280720(像素)30(帧)3/2(字节)=39.5MB;当分辨率为1920x720,那么每秒需要传输的数据量接近60MB,这对于手机的存储空间有很大考验,因此,我们就必须在拍摄形成视频文件保存在本地之前对采集的视频数据进行压缩编码。
H26X简介H261•目前国际上制定视频编解码技术的组织有两个,一个是“国际电联(ITU-T)”,它制定的标准有H.261、H.263、H.263+等,另一个是“国际标准化组织(ISO)”它制定的标准有MPEG-1、MPEG-2、MPEG-4等。
•H.261是1990年ITU-T制定的一个视频编码标准,属于视频编解码器。
设计的目的是能够在带宽为64kbps的倍数的综合业务数字网(ISDN forIntegrated Services Digital Network)上质量可接受的视频信号。
H.264编码技术简介摘要:本文介绍了H.264编码基本概况,技术特点,并与其他标准进行了比较。
简单介绍了H.264视频编码标准的几个关键技术,并针对目前H.264在监控领域的应用做了讲解。
目录摘要: (1)一.引言 (2)二. H.264视频编码基本概况 (2)2.1 什么是H.264编码? (2)2.2 720P H.264高清成市场主流 (2)2.3 H.264 视频编码标准状况 (2)2.4 H.264 视频编码技术先进性 (3)2.5 H.264的核心竞争力是什么? (5)2.6 Main Profile (6)三、H.264与其他标准的比较 (6)3.1H.264与其他标准的比较 (6)3.2 H.264的技术特点 (8)3.2.1 分层设计 (8)3.2.2 高精度、多模式运动设计 (8)3.2.3 帧内预测功能 (8)3.2.4 4×4块的整数变换 (8)3.2.5 统一的VLC (8)3.3 H.264的主要特点 (9)四、关键技术 (10)五、H.264在监控的应用 (12)5.1 TOYA SDVR 7IV 系统简介 (12)5.2 TOYA SDVR 7IV 系统主要特点 (12)5.3 主要技术规格 (13)5.4 系统功能 (13)5.5 TOYA SDVR 7IV系统应用 (13)六、H.264的总体优缺点 (14)七、小结 (15)八、参考文献 (16)一.引言随着社会的不断进步和多媒体信息技术的发展,人们对信息的需求越来越丰富,方便、快捷、灵活地通过语音、数据、图像与视频等方式进行多媒体通信已成不可或缺的工具。
其中视觉信息给人们直观、生动的形象,因此图像与视频的传输更受到广泛的关注。
然而,视频数据具有庞大的数据量,以普通的25帧每秒,CIF格式(分辨率为352×288)的视频图像为例,一秒钟的原始视频数据速率高达3.8M字节。
不对视频信号进行压缩根本无法实时传输如此庞大的数据量,因此,视频压缩技术成为研究热点。
H.264基础及RTP封包详解一. h264基础概念1、NAL、Slice与frame意思及相互关系1 frame的数据可以分为多个slice.每个slice中的数据,在帧内预测只用到自己slice的数据,与其他slice 数据没有依赖关系。
NAL 是用来将编码的数据进行大包的。
比如,每一个slice 数据可以放在NAL 包中。
I frame 是自己独立编码,不依赖于其他frame 数据。
P frame 依赖 I frame 数据。
B frame 依赖 I frame, P frame 或其他 B frame 数据。
一个frame是可以分割成多个Slice来编码的,而一个Slice编码之后被打包进一个NAL单元,不过NAL单元除了容纳Slice编码的码流外,还可以容纳其他数据,比如序列参数集SPS。
NAL指网络提取层,里面放一些与网络相关的信息Slice是片的意思,264中把图像分成一帧(frame)或两场(field),而帧又可以分成一个或几个片(Slilce);片由宏块(MB)组成。
宏块是编码处理的基本单元。
2、NAL nal_unit_type中的1(非IDR图像的编码条带)、2(编码条带数据分割块A)、3(编码条带数据分割块B)、4(编码条带数据分割块C)、5(IDR图像的编码条带)种类型与 Slice种的三种编码模式:I_slice、P_slice、B_sliceNAL nal_unit_type 里的五种类型,代表接下来数据是表示啥信息的和具体如何分块。
I_slice、P_slice、B_slice 表示I类型的片、P类型的片,B类型的片.其中I_slice为帧内预测模式编码;P_slice为单向预测编码或帧内模式;B_slice 中为双向预测或帧内模式。
3、还有frame的3种类型:I frame、P frame、 B frame之间有什么映射关系么?I frame、P frame、 B frame关系同 I_slice、P_slice、B_slice,slice和frame区别在问题1中已经讲明白。
H264基础简介前⾔H264是属于视频的编码层的标准格式,视频编码显然是为了压缩⼤⼩。
我们看下⼀个完全没压缩的视频数据⼤⼩。
假设视频是⾼清(1280 * 720),每秒30帧,也就是每秒的数据1280 * 720 *30 / 8(字节) /1024(KB)/1024(MB) = 3.11MB那么90分钟的电影就要16.7GB,这个数据量显然在当前⽹络下是不现实的。
视频压缩的原理就是去除视频冗余部分,下⾯列举下1,时间冗余时间冗余是序列图像(电视图像、动画)和语⾳数据中所经常包含的冗余。
图像序列中的两幅相邻的图像,后⼀幅图像与前⼀幅图像之间有较⼤的相关性,这反映为时间冗余。
同理,在语⾔中,由于⼈在说话时发⾳的⾳频是⼀连续的渐变过程,⽽不是⼀个完全的在时间上独⽴的过程,因⽽存在时间冗余。
2,空间冗余空间冗余是图像数据中经常存在的⼀种冗余。
在同⼀幅图像中,规则物体和规则背景(所谓规则是指表⾯颜⾊分布是有序的⽽不是杂乱⽆章的)的表⾯物理特性具有相关性,这些相关性的光成像结构在数字化图像中就表现为数据冗余。
,3,知识冗余有许多图像的理解与某些基础知识有相当⼤的相关性,例如:⼈脸的图像有固定的结构。
⽐如,嘴的上⽅有⿐⼦。
⿐⼦的上⽅有眼睛,⿐⼦位于正脸图像的中线上等等。
这类规律性的结构可由先验知识相背景知识得到,我们称此类冗余为知识冗余。
4,结构冗余有些图像从⼤域上看存在着⾮常强的纹理结构,例如布纹图像和草席图像,我们说它们在结构上存在冗余。
5,视觉冗余⼈类视觉系统对于图像场的任何变化,并不是都能感知的。
例如,对于图像的编码和解码处理时,由于压缩或量⽐截断引⼊了噪声⽽使图像发⽣了⼀些变化,如果这些变化不能为视觉所感知,则仍认为图像⾜够好。
事实上⼈类视觉系统⼀般的分辨能⼒约为26灰度等级,⽽⼀般图像量化采⽤28灰度等级,这类冗余我们称为视觉冗余。
通常情况下,⼈类视觉系统对亮度变化敏感,⽽对⾊度的变化相对不敏感;在⾼亮度区,⼈眼对亮度变化敏感度下降。
H.264压缩编码标准Communication University of ChinaH.264概述1•ITU-T、ISO/IEC;•ITU针对可视会议等应用分别制定了H.261、H.262、H.263、H.263+、H.263++ ;•ISO/IEC主要制定了MPEG-1、MPEG-2、MPEG-4等标准;•由ITU-T视频编码专家组(VCEG)和ISO/IEC运动图像专家组(MPEG)联合组成的联合视频组(JVT,Joint Video Team)提出的新一代数字视频压缩标准。
H.264概述2•H.264/MPEG-4 AVC(Advanced Video Coding)MPEG-4第10部分;•注重实用,采用成熟的技术,要求更高的编码效率和简洁的表现形式;•注重对移动和IP网络的适应,采用分层技术,从形式上将编码和信道隔离开来,实质上是在源编码器算法中更多地考虑到信道的特点;•在混合编码器的基本框架下,对其主要关键模块都进行了重大改进;一、H.264编码原理•H.264/AVC标准没有明确定义一个编解码器。
•标准定义的是编码视频比特流的语法结构和对该比特流解码的方法。
H.264标准中诸如预测、变换、量化、熵编码等基本功能模块与前几个标准(MPEG-1, MPEG-2, MPEG-4, H.261, H.263)并无太大区别。
•它的变化主要体现在功能模块的具体细节上。
H.264/AVC编码器H.264/AVC解码器H.264/AVC与其它编码标准的差异•(1)与其它标准采用的DCT变换不同的是,H.264/AVC采用基于整数的变换,其优势在于反变换时不存在误匹配的问题;•(2)H.264/AVC使用不同尺寸的块和形状,高分辨率的子像素运动估计和选择多个参考帧来实现运动估计和运动补偿技术;•(3)H.264/AVC中采用的熵编码技术包括通用变长编码(UVLC, universal variable length coding)、基于上下文的自适应变长码编码(CAVLC, context-based adaptive variable length coding)或基于上下文的自适应二进制算术编码(CABAC, context-based adaptive binary arithmetic coding)。
.H.264标准简介摘要:众所周知,人类社会的三大支柱是:物质、信息和能量,而信息化的支柱就是信息。
作为传递信息的数字视频技术在通信和广播领域获得日益广泛的应用,特别是20世纪90年代以来,随着internet和移动通信的发展,视频信息和多媒体信息在通信领域的处理和传输技术成为了当前我国信息化的热点。
正文:随着HDTV的兴起,H.264这个规范频频出现在我们眼前,HD-DVD和蓝光DVD均计划采用这一标准进行节目制作。
而且自2005年下半年以来,无论是NVIDIA还是ATI都把支持H.264硬件解码加速作为自己最值得夸耀的视频技术。
H.264标准是在1997年由ITU的视频编码专家组(Video Coding Experts Group)提出时被称为H.26L,在ITU与ISO合作研究后被称为MPEG4 Part10(MPEG4 AVC)或H.264(JVT)。
一、H.264标准介绍H.264标准是一种高性能的视频编解码技术。
目前国际上制定视频编解码技术的组织有两个,一个是“国际电联(ITU-T)”,它制定的标准有H.261、H.263、H.263+等,另一个是“国际标准化组织(ISO)”它制定的标准有MPEG-1、MPEG-2、MPEG-4等。
而H.264则是由两个组织联合组建的联合视频组(JVT)共同制定的新数字视频编码标准,所以它既是ITU-T的H.264,又是ISO/IEC的MPEG-4高级视频编码(Advanced Video Coding,A VC),而且它将成为MPEG-4标准的第10部分。
因此,不论是MPEG-4 A VC、MPEG-4 Part 10,还是ISO/IEC 14496-10,都是指H.264。
H.264和以前的标准一样,也是DPCM加变换编码的混合编码模式。
但它采用“回归基本”的简洁设计,不用众多的选项,获得比H.263++好得多的压缩性能;加强了对各种信道的适应能力,采用“网络友好”的结构和语法,有利于对误码和丢包的处理;应用目标范围较宽,以满足不同速率、不同解析度以及不同传输(存储)场合的需求。
h264规范H.264是一种广泛使用的视频压缩标准,也被称为MPEG-4 Part 10或AVC(Advanced Video Coding)。
它提供了出色的视频质量和高压缩比率,适用于各种应用,包括广播、视频会议、流媒体和视频存储。
H.264规范定义了一种视频编码方式,将视频分割成块,并对每个块进行压缩。
编码过程包括运动估计、变换、量化和熵编码。
首先,H.264使用运动估计来减少冗余信息。
它检测相邻帧之间的运动向量,然后利用这些向量来预测当前帧的内容。
当两个帧之间存在较小的运动时,只需编码运动向量和残差信息,而无需编码整个帧。
这有效地减少了编码所需的比特数。
接下来,H.264使用变换来将时间域上的连续像素值转换为频域上的系数。
采用离散余弦变换(DCT)来减少冗余,并且可以通过量化来减小系数的值。
量化过程将频域系数除以一个量化矩阵,并将结果四舍五入成整数,从而减少了系数的精度。
随后,H.264使用熵编码来对量化后的系数进行编码。
它采用可变长度编码(VLC)和上下文自适应二进制算术编码(CABAC)来压缩剩余系数,并通过利用统计特性来实现高效的编码。
除了上述的编码过程,H.264还定义了一些其他的特性,以进一步提高编码效率。
例如,它引入了多个帧类型,如关键帧和预测帧,以便可以对帧进行更加有针对性的编码。
它还支持多个参考图像,这允许在运动估计过程中使用多个相邻帧的信息。
H.264还提供了灵活的比特率控制和层次化编码机制。
比特率控制可以根据网络带宽和质量要求来调整编码的比特率。
层次化编码允许在不同的分辨率和质量层之间进行逐步编码和传输,以便在带宽变化的情况下提供更好的用户体验。
总体而言,H.264规范通过运动估计、变换、量化和熵编码等技术,实现了高效的视频压缩和高质量的视频播放。
它在广泛的应用中发挥着重要的作用,并被广泛支持和采用。
二、H.264标准的码率控制模块(rate control)规范描述H.264标准中码率控制方法的提案主要有三个:JVT-F086(2002)算法、JvT-G012(2003)算法和JVT-O016(2005)算法,后两种即通常所说的李氏提案和吴氏提案。
其JVT-F086可以看成是MPEG-2 TM5改进版本;JVT-G012算法用流量往返模型来分配每个基本单元目标比特数,并采用二次率失真函数计算量化参数后进行编码,而JVT-O016则继承了JVT-G012的传统算法,侧重于率失真优化RDO模型的改进,充分挖掘图像的时空相关性。
2.1 JVT-F086(2002)JVT-F086算法与MPEG-2的码率控制算法TM5类似,其工作流程同样由三步组成。
首先是目标比特分配,在图像编码前,估计出对下一帧图像编码所需要的比特数:接着是速率控制,通过一个虚拟缓存器,给每个宏块设定量化参数的参考值;最后是自适应量化,根据宏块的空间活动性来调整量化参数的参考值,以获得用于宏块的量化参数值。
JVT-F086算法结构如图2-1所示:图2-1 JVT-F086算法结构图在目标比特分配步骤中,首先对图像序列中的第一个I帧,P帧或B帧定义不同的总体复杂度的度量,具体可由下式得到:,具体可由下式得到:=115*bitrate/115=15*bitrate/115=5*bitrate/115得到总体复杂度的度量以后,再求得下一帧图像的目标比特数目,即,根据分配给该组图像(GOP)的总比特数R来计算。
如果当前图像GOP(INTRA帧)是第一个,那么R值更新如下:R=bitrate*(++1)/framerateN是GOP中图像的数目,和分别是当前GOP中未编码的P帧和B帧的数目,且R初始设定为0。
如果当前帧不是GOP中的第一个图像,如果图像序列中已编码比特数为nbits,那么R值更新如下:R- nbits→R计算出分配给下一帧的目标比特数后,步骤一将结果传递给步骤二,进行速率控制,速率控制步骤基于虚拟缓存器的概念,在编码宏j(j>=1)之前,虚拟缓存器饱和度基于图像类型来计算:=QP*10*bitrate/(31*framerate)=(QP+2)*10*bitrate/(31*framerate)=(QP+2)*10*bitrate/31这里,,,的值分别是对I,P,B帧型的虚拟缓存器的初始饱和度值。
h264 编码标准H.264编码标准。
H.264,又称为MPEG-4 AVC(Advanced Video Coding),是一种用于视频压缩的标准。
它是由国际标准化组织(ISO)和国际电信联盟(ITU)共同制定的,旨在提供高质量的视频压缩,并且适用于各种不同的应用场景,包括广播、视频存储和互联网传输。
H.264编码标准的出现,极大地推动了数字视频技术的发展,并且被广泛应用于许多不同的领域。
H.264编码标准的核心是一种高效的视频压缩算法,它可以将视频信号压缩到较小的体积,同时保持高质量的视觉效果。
这一算法利用了运动补偿、变换编码和熵编码等技术,通过减少视频信号中的冗余信息来实现压缩。
与之前的视频编码标准相比,H.264在相同的画质下能够实现更高的压缩比,这意味着它可以在相同的带宽下传输更高质量的视频信号,或者在相同的质量下节省带宽资源。
除了高效的压缩算法之外,H.264还支持多种不同的视频分辨率和帧率,这使得它可以适用于各种不同的应用场景。
无论是高清电视、移动视频还是网络视频会议,H.264都能够提供出色的性能表现。
同时,H.264还支持多种不同的配置参数,用户可以根据自己的需求进行调整,以获得最佳的压缩效果。
在实际的应用中,H.264已经成为了许多不同领域的标准配置。
在数字电视领域,大多数高清电视节目都采用了H.264编码标准,以提供更清晰、更流畅的视频体验。
在移动互联网领域,H.264也是最为流行的视频编码格式之一,许多在线视频平台和移动应用都在使用H.264来传输视频内容。
此外,H.264还被广泛应用于视频监控、视频会议、医学影像等领域,它的高效性能和广泛适用性使得它成为了当今最为重要的视频编码标准之一。
总的来说,H.264编码标准是一种高效、灵活并且广泛适用的视频压缩标准。
它的出现极大地推动了数字视频技术的发展,为用户提供了更高质量的视频体验,同时也为各种不同的应用场景提供了更多的选择。
H.264 标准详解JVT(Joint Video Team,视频联合工作组)于2001 年12 月在泰国Pattaya 成立。
它由ITU-T和ISO 两个国际标准化组织的有关视频编码的专家联合组成。
JVT 的工作目标是制定一个新的视频编码标准,以实现视频的高压缩比、高图像质量、良好的网络适应性等目标。
目前JVT 的工作已被ITU-T 接纳,新的视频压缩编码标准称为H.264 标准,该标准也被ISO 接纳,称为A VC(Advanced Video Coding)标准,是MPEG-4 的第10 部分。
H.264 标准可分为三档:基本档次(其简单版本,应用面广);主要档次(采用了多项提高图像质量和增加压缩比的技术措施,可用于SDTV、HDTV 和DVD 等);扩展档次(可用于各种网络的视频流传输)。
H.264 不仅比H.263 和MPEG-4 节约了50%的码率,而且对网络传输具有更好的支持功能。
它引入了面向IP 包的编码机制,有利于网络中的分组传输,支持网络中视频的流媒体传输。
H.264 具有较强的抗误码特性,可适应丢包率高、干扰严重的无线信道中的视频传输。
H.264 支持不同网络资源下的分级编码传输,从而获得平稳的图像质量。
H.264 能适应于不同网络中的视频传输,网络亲和性好。
一、H.264 视频压缩系统H.264 标准压缩系统由视频编码层(VCL)和网络提取层(Network Abstraction Layer,NAL)两部分组成。
VCL 中包括VCL 编码器与VCL 解码器,主要功能是视频数据压缩编码和解码,它包括运动补偿、变换编码、熵编码等压缩单元。
NAL 则用于为VCL 提供一个与网络无关的统一接口,它负责对视频数据进行封装打包后使其在网络中传送,它采用统一的数据格式,包括单个字节的包头信息、多个字节的视频数据与组帧、逻辑信道信令、定时信息、序列结束信号等。
包头中包含存储标志和类型标志。
【H264】码流结构详解⽆论是解析视频⽂件或者通过⽹络传输,其实都是⼀串字节序列。
H264 码流就是按照⼀定的规则组织排列的字节串。
⼀、码流的组织形式在 H264 中完全没有 I 帧、P 帧、B 帧、IDR 帧的概念,之所以沿⽤这些说法是为了表明数据的编码模式。
H264 码流的组织形式从⼤到⼩排序是:视频序列(video sequence)、图像(frame/field-picture)、⽚组(slice group)、⽚(slice)、宏块(macroblock)、⼦块(sub-block)、像素(pixel)。
⼆、码流功能的⾓度从码流功能的⾓度可以分为两层:视频编码层(VCL)和⽹络提取层(NAL)VCL:进⾏视频编解码,包括预测(帧内预测和帧间预测),DCT 变化和量化,熵编码和切分数据等功能,是为了实现更⾼的视频压缩⽐。
NAL:负责以⽹络所要求的恰当的⽅式对 VCL 数据进⾏打包和传送。
VCL 是管理 H264 的视频数据层,是为了实现更⾼的视频压缩⽐,那 VCL 究竟是怎么管理 H264 视频数据的呢?抛开 H264 压缩算法细节来看就 3 步:压缩:预测(帧内预测和帧间预测)-> DCT 变化和量化 -> ⽐特流编码;切分数据,主要为了第三步。
这⾥⼀点,⽹上看到的“切⽚(slice)”、“宏块(macroblock)”是在VCL 中的概念,⼀⽅⾯提⾼编码效率和降低误码率、另⼀⽅⾯提⾼⽹络传输的灵活性。
压缩切分后的 VCL 数据会包装成为 NAL 中的⼀部分。
下⾯要重点讲解下 NAL。
三、⽹络提取层(NAL)NAL,英⽂全称为 Network Abstraction Layer,这块和 H264 压缩算法⽆关,涉设计出 NAL 的⽬的就是为了获得 “network-friendly”,即为了实现良好的⽹络亲和性,即可适⽤于各种传输⽹络。
终于要讲 NAL 了,但是,我们需要先看 NAL的组成单元 - NALU。
内容制作指导书威科姆科技1.目的威科姆IPTV网络DVD机顶盒支持MPG-1/2和AVI(H.264)多种格式的节目,本规范适用于威科姆IPTV系统的节目制作和人员培训。
其中包括节目源的选取标准,硬件设备和系统环境的要求,转码软件的使用方法和多种问题节目的处理技巧,保证节目制作的流程化和规范化。
2.节目源和成品格式2.1 节目源威科姆IPTV节目源包括碟片类(DVD、VCD)、卫星信号、网络下载类和其它形式的存储媒体等。
要求片源画面清晰,质量上有保证。
2.2 成品格式H264编码:最终形成*.264avi、*.264aviib、*.264aviidx、 *.264aviif、*.jpg、*.txt六个文件,该六个文件组成一个成品节目,供服务器使用。
(注意:对应的三个索引文件控制视频播放时的选时,快进,快退,是由服务器自动生成的,文本图片的制作规格将在后文讲到。
)3.设备和系统环境要求3.1 设备配置节目重新编码的过程中会占用大量的CPU和内存,需要稳定的系统环境和编码环境,所以对工作站的硬件和软件环境有一定的要求。
所以建议工作站的硬件和软件的基本配置如下:3.2 软件介绍和安装视频编码要求搭建系统干净、稳定一个编解码环境,由于部分软件的安装有冲突性,所以安装要严格按照以下顺序进行,具体安装方法如下:第一步安装Windows Media Player 10/11第二步安装RealPlayer 10.6第三步安装H.264_Install安装包,该安装包是由VCOM公司通过网络收集的开源工具,加以整合而成。
3.3 编码环境设置(X264编码需要)由于系统终端进行H264节目解码时对节目音频属性有要求,要在系统的音频属性里进行手动修改参数,所以安装完毕之后,请务必去掉设备管理器⇨音频编码解码器⇨Lame ACP MP3 CODEC⇨属性⇨设置⇨checksum的选项,否则编码出来的文件在系统终端上点播无声音。