有关音频编码的知识与技术参数
- 格式:docx
- 大小:7.96 KB
- 文档页数:3
⾳视频编码⼀些参数解析:码流、码率、⽐特率、帧速率、分辨率、⾼清的区别GOP/ 码流 /码率 / ⽐特率 / 帧速率 / 分辨率GOP(Group of picture)关键帧的周期,也就是两个IDR帧之间的距离,⼀个帧组的最⼤帧数,⼀般的⾼视频质量⽽⾔,每⼀秒视频⾄少需要使⽤ 1 个关键帧。
增加关键帧个数可改善质量,但是同时增加带宽和⽹络负载。
需要说明的是,通过提⾼GOP值来提⾼图像质量是有限度的,在遇到场景切换的情况时,H.264编码器会⾃动强制插⼊⼀个I帧,此时实际的GOP值被缩短了。
另⼀⽅⾯,在⼀个GOP中,P、B帧是由I帧预测得到的,当I帧的图像质量⽐较差时,会影响到⼀个GOP中后续P、B帧的图像质量,直到下⼀个GOP开始才有可能得以恢复,所以GOP值也不宜设置过⼤。
同时,由于P、B帧的复杂度⼤于I帧,所以过多的P、B帧会影响编码效率,使编码效率降低。
另外,过长的GOP还会影响Seek操作的响应速度,由于P、B帧是由前⾯的I或P帧预测得到的,所以Seek操作需要直接定位,解码某⼀个P或B帧时,需要先解码得到本GOP内的I帧及之前的N个预测帧才可以,GOP值越长,需要解码的预测帧就越多,seek响应的时间也越长。
CABAC/CAVLCH.264/AVC标准中两种熵编码⽅法,CABAC叫⾃适应⼆进制算数编码,CAVLC叫前后⾃适应可变长度编码,CABAC:是⼀种⽆损编码⽅式,画质好,X264就会舍弃⼀些较⼩的DCT系数,码率降低,可以将码率再降低10-15%(特别是在⾼码率情况下),会降低编码和解码的速速。
CAVLC将占⽤更少的CPU资源,但会影响压缩性能。
帧:当采样视频信号时,如果是通过逐⾏扫描,那么得到的信号就是⼀帧图像,通常帧频为25帧每秒(PAL制)、30帧每秒(NTSC 制);场:当采样视频信号时,如果是通过隔⾏扫描(奇、偶数⾏),那么⼀帧图像就被分成了两场,通常场频为50Hz(PAL制)、60Hz(NTSC制);帧频、场频的由来:最早由于抗⼲扰和滤波技术的限制,电视图像的场频通常与电⽹频率(交流电)相⼀致,于是根据各地交流电频率不同就有了欧洲和中国等PAL制的50Hz和北美等NTSC制的60Hz,但是现在并没有这样的限制了,帧频可以和场频⼀样,或者场频可以更⾼。
数字音频编码技术和A VS音频标准胡瑞敏 高 戈 张 勇 王晓晨摘要:随着信息技术和互联网的飞速发展,多媒体信息已经成为人们获取信息的主要载体之一。
作为多媒体技术的关键,多媒体数据压缩编码近年来在技术和应用方面都取得了长足的发展。
本文简要介绍了数字音频编码技术的发展概况,并重点介绍了我国自主知识产权的AVS系列数字音频编码标准及其核心关键技术,并对其在多媒体业务中的应用做了展望。
关键词:音频编码 AVS-P3音频标准 AVS-P10移动语音和音频标准 AVS-S音频标准1 引言数字技术的出现与应用为人类带来了深远的影响,数字音频技术作为应用最为广泛的数字技术之一,具有高保真、大动态范围和稳健性的优点已经伴随着CD、VCD、MP3、DVD等大众消费类产品走进千家万户。
但是原始的数字化信号的存储量是非常大的,随着多媒体应用的日益广泛,特别是在存储空间受限以及移动和网络传输中,常常受到带宽等因素的限制,无法兼容高码率。
但是用户期望在所有的数字系统上都能享受CD音质的回放,因此为了利用有限的资源,必须在不降低音质的情况下,对原始数字音频信号进行压缩,减小数据传输所需要的码率。
近10多年来,基于应用的需求促进了数字音频压缩技术的研究,各种高质量的音频编码技术取得了较快的发展[1]。
本文首先简要介绍了数字音频编码技术的发展概况,然后概要介绍了已制定完成的面向数字电视、高密度激光存储应用的AVS-P3音频标准,并重点介绍了正在制定的面向中低码率移动多媒体应用的AVS-P10移动语音和音频标准以及面向安防监控应用的AVS-S音频标准的核心关键技术与特色,并对它们在多媒体业务中的应用做了展望。
2 数字音频编解码技术的发展及研究现状音频压缩技术的发展最初是从无损压缩开始的。
上世纪70年代初期,音频编码中采用了脉冲编码调制(PCM)编码,这是一种最通用的无压缩编码,它的特点是保真度高,编解码运算复杂度低,但编码后的数据量大,编码效率比较低[2]。
音频编码及常用格式音频编码标准发展现状国际电信联盟(ITU)主要负责研究和制定与通信相关的标准,作为主要通信业务的电话通信业务中使用的语音编码标准均是由ITU负责完成的。
其中用于固定网络电话业务使用的语音编码标准如ITU-T G.711等主要在ITU-T SG 15完成,并广泛应用于全球的电话通信系统之中。
目前,随着Internet网络及其应用的快速发展,在2005到2008研究期内,ITU-T将研究和制定变速率语音编码标准的工作转移到主要负责研究和制定多媒体通信系统、终端标准的SG16中进行。
在欧洲、北美、中国和日本的电话网络中通用的语音编码器是8位对数量化器(相应于64Kb/s的比特率)。
该量化器所采用的技术在1972年由CCITT (ITU-T的前身)标准化为G.711。
在1983年,CCIT规定了32Kb/s的语音编码标准G.721,其目标是在通用电话网络上的应用(标准修正后称为G.726)。
这个编码器价格虽低但却提供了高质量的语音。
至于数字蜂窝电话的语音编码标准,在欧洲,TCH-HS是欧洲电信标准研究所(ETSI)的一部分,由他们负责制定数字蜂窝标准。
在北美,这项工作是由电信工业联盟(TIA)负责执行。
在日本,由无线系统开发和研究中心(称为RCR)组织这些标准化的工作。
此外,国际海事卫星协会(Inmarsat)是管理地球上同步通信卫星的组织,也已经制定了一系列的卫星电话应用标准。
音频编码标准发展现状音频编码标准主要由ISO的MPEG组来完成。
MPEG1是世界上第一个高保真音频数据压缩标准。
MPEG1是针对最多两声道的音频而开发的。
但随着技术的不断进步和生活水准的不断提高,有的立体声形式已经不能满足听众对声音节目的欣赏要求,具有更强定位能力和空间效果的三维声音技术得到蓬勃发展。
而在三维声音技术中最具代表性的就是多声道环绕声技术。
目前有两种主要的多声道编码方案:MUSICAM环绕声和杜比AC-3。
音频编码汇总PCMU(G.711U)类型:Audio制定者:ITU-T所需频宽:64Kbps(90.4)特性:PCMU和PCMA都能提供较好的语音质量,但是它们占用的带宽较高,需要64kbps。
优点:语音质量优缺点:占用的带宽较高应用领域:voip版税方式:Free备注:PCMU and PCMA都能够达到CD音质,但是它们消耗的带宽也最多(64kbps)。
如果网络带宽比较低,可以选用低比特速率的编码方法,如G.723或G.729,这两种编码的方法也能达到传统长途电话的音质,但是需要很少的带宽(G723需要5.3/6.3kbps,G729需要8kbps)。
如果带宽足够并且需要更好的语音质量,就使用PCMU 和 PCMA,甚至可以使用宽带的编码方法G722(64kbps),这可以提供有高保真度的音质。
PCMA(G.711A)类型:Audio制定者:ITU-T所需频宽:64Kbps(90.4)特性:PCMU和PCMA都能提供较好的语音质量,但是它们占用的带宽较高,需要64kbps。
优点:语音质量优缺点:占用的带宽较高应用领域:voip版税方式:Free备注:PCMU and PCMA都能够达到CD音质,但是它们消耗的带宽也最多(64kbps)。
如果网络带宽比较低,可以选用低比特速率的编码方法,如G.723或G.729,这两种编码的方法也能达到传统长途电话的音质,但是需要很少的带宽(G723需要5.3/6.3kbps,G729需要8kbps)。
如果带宽足够并且需要更好的语音质量,就使用PCMU 和 PCMA,甚至可以使用宽带的编码方法G722(64kbps),这可以提供有高保真度的音质。
ADPCM(自适应差分PCM)类型:Audio制定者:ITU-T所需频宽:32Kbps特性:ADPCM(adaptive difference pulse code modulation)综合了APCM的自适应特性和DPCM系统的差分特性,是一种性能比较好的波形编码。
音视频编解码理解音视频处理的编程原理音视频编解码是指将音视频信号转换为数字信号的过程,然后再将数字信号转换为可播放的音视频信号的过程。
在现代多媒体应用中,音视频编解码在很多方面都扮演着重要的角色,包括音频录制、音频处理、视频录制、视频处理等。
本文将详细介绍音视频编解码的原理以及与编程相关的技术。
一、音视频编解码的基本原理音视频编解码的基本原理是将模拟信号(如声音、图像)转换为数字信号,然后对数字信号进行压缩和解压缩处理,最后将解压缩后的信号转换为模拟信号以供播放。
整个过程可以分为以下几个关键步骤:1. 采样与量化:音视频信号是连续的模拟信号,在进行编码处理之前,需要对信号进行采样和量化操作。
采样是指周期性地记录信号的数值,量化是指将采样得到的连续信号的值映射为离散的数值。
2. 压缩编码:在音视频处理过程中,数据量通常非常庞大,如果直接将原始数据进行存储和传输,会导致资源浪费和传输速度慢。
因此,压缩编码技术应运而生。
压缩编码是通过编码算法对音视频信号进行压缩,减小数据量。
常见的音视频压缩编码算法有MPEG、H.264等。
3. 压缩数据传输与存储:经过压缩编码后的音视频数据可以更加高效地进行传输和存储。
传输方面,可以通过网络协议(如RTSP、RTP)将音视频数据传输到远程设备进行播放。
存储方面,可以将音视频数据保存在本地设备或其他存储介质中。
4. 解压缩处理:在音视频播放过程中,需要对编码后的音视频数据进行解压缩处理。
解压缩是压缩的逆过程,通过解码算法将压缩后的音视频数据还原为原始的数字信号。
5. 数字信号转换为模拟信号:解压缩处理后的音视频数据是数字信号,需要将其转换为模拟信号以供播放。
这一过程叫做数模转换,常见的设备有扬声器和显示器等。
二、音视频编码相关的编程原理与技术音视频编码相关的编程原理与技术主要包括以下几个方面:1. 编码库与解码库:编码库是实现音视频压缩编码的关键组件,解码库则是实现解压缩处理的关键组件。
视频与音频编码知识动态链接:Adobe premiere pro编码定义:原始的视屏图像数据和音频信息都包含有大量的冗余信息,编码就是压缩的过程,将信息中的冗余信息去掉。
分为视屏编码和音频编码,两者是分开的。
一般来说视频比那马方案往往决定了高清视频的画质高低(严格意义上还有码率因素).音频编码决定了起音质的好坏。
常用视频编码:XVID(DIVX的升级版),DIVX,H.264,MPEG-2\MPEG-4等。
Mpeg1:早期vcd使用,分辨率是352*288,压缩比低。
Mpeg2:一般DVD使用,有NTSC(720*480)和PAL(720*576),压缩比高于mpeg1.Mpeg4:目前使用最多的技术,avi文件始祖,大大提高压缩比,而质量堪比DVDDivx:基于mpeg4开发,有一定算法优先。
Xvid:divx技术封锁以后被人破解开发的,也是基于mpeg4的编码技术更先进,采用开放源码,画质更好。
H.261:早期的低码率编码,应用于352*288和176*144,现在已不用。
H.263:在低码率下能够提供比H.261更好的图像效果,改进一些算法。
H.263+:h.263的改进型H.264:H.264集中了以往标准的优点,高效压缩,与H.263+和mpeg4 sp相似。
Rm\rmvb:real 公司推出的应用于网络的高压缩编码,rm 是固定码率。
Rmvb是动态码率(就是静态画面采用低码率,动态采用高码率)X264X264是国际标准H.264的编码器实现,是一个开源encoder,得益于H.264的高效压缩性能,加之于X264的高效(编码速度快)实现,X264目前被广泛应用于DVDrip 领域。
封装格式(也叫容器)所谓封装格式就是将已经编码压缩好的视频和音频按照一定的格式放到一个文件中,也就是说仅仅是一个外壳。
格式类型AVI:微软在90年代初创立的封装标准,是当时为对抗quicktime格式(mov)而推出的,只能支持固定CBR恒定比特率编码的声音文件。
各种音频编码方式的对比各种音频编码方式的对比内容简介:文章介绍了PCM编码、WMA编码、ADPCM 编码、LPC编码、MP3编码、AAC编码、CELP编码等,包括优缺点对比和主要应用领域。
PCM编码(原始数字音频信号流)类型:Audio制定者:ITU-T所需频宽:1411.2 Kbps特性:音源信息完整,但冗余度过大优点:音源信息保存完整,音质好缺点:信息量大,体积大,冗余度过大应用领域:voip版税方式:Free备注:在计算机应用中,能够达到最高保真水平的就是PCM编码,被广泛用于素材保存及音乐欣赏,CD、DVD 以及我们常见的WAV文件中均有应用。
因此,PCM 约定俗成了无损编码,因为PCM代表了数字音频中最佳的保真水准,并不意味着PCM就能够确保信号绝对保真,PCM也只能做到最大程度的无限接近。
要算一个PCM音频流的码率是一件很轻松的事情,采样率值×采样大小值×声道数bps。
一个采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的WAV文件,它的数据速率则为44.1K×16×2 =1411.2Kbps。
我们常见的Audio CD就采用了PCM编码,一张光盘的容量只能容纳72分钟的音乐信息。
WMA(Windows Media Audio)类型:Audio制定者:微软公司所需频宽:320~112kbps(压缩10~12倍)特性:当Bitrate小于128K时,WMA几乎在同级别的所有有损编码格式中表现得最出色,但似乎128k是WMA一个槛,当Bitrate再往上提升时,不会有太多的音质改变。
优点:当Bitrate小于128K时,WMA最为出色且编码后得到的音频文件很小。
缺点:当Bitrate大于128K时,WMA音质损失过大。
WMA标准不开放,由微软掌握。
应用领域:voip版税方式:按个收取备注:WMA的全称是Windows Media Audio,它是微软公司推出的与MP3格式齐名的一种新的音频格式。
音视频编码技术与格式大全关键词:音质一、常见视频格式中采用的技术当PC开始拥有FPU(浮点处理器)后,PC如何处理多媒体信息的问题也被摆上台面。
无数专家开始为音频视频编码技术运用在PC上开始忙碌了,视频技术也因此得到了飞快的进步。
1、无声时代的FLCFLC、FLI是Autodesk开发的一种视频格式,仅仅支持256色,但支持色彩抖动技术,因此在很多情况下很真彩视频区别不是很大,不支持音频信号,现在看来这种格式已经毫无用处,但在没有真彩显卡没有声卡的DOS时代确实是最好的也是唯一的选择。
最重要的是,Autodesk的全系列的动画制作软件都提供了对这种格式的支持,包括著名的3D Studio X,因此这种格式代表了一个时代的视频编码水平。
直到今日,仍旧有不少视频编辑软件可以读取和生成这种格式。
但毕竟廉颇老矣,这种格式已经被无情的淘汰。
2、载歌载舞的AVIAVI——Audio Video Interleave,即音频视频交叉存取格式。
1992年初Microsoft 公司推出了AVI技术及其应用软件VFW(Video for Windows)。
在AVI文件中,运动图像和伴音数据是以交织的方式存储,并独立于硬件设备。
这种按交替方式组织音频和视像数据的方式可使得读取视频数据流时能更有效地从存储媒介得到连续的信息。
构成一个AVI 文件的主要参数包括视像参数、伴音参数和压缩参数等。
AVI文件用的是AVI RIFF形式,AVI RIFF形式由字串“AVI”标识。
所有的AVI文件都包括两个必须的LIST块。
这些块定义了流和数据流的格式。
AVI文件可能还包括一个索引块。
只要遵循这个标准,任何视频编码方案都可以使用在AVI文件中。
这意味着AVI有着非常好的扩充性。
这个规范由于是由微软制定,因此微软全系列的软件包括编程工具VB、VC都提供了最直接的支持,因此更加奠定了AVI在PC上的视频霸主地位。
由于AVI本身的开放性,获得了众多编码技术研发商的支持,不同的编码使得AVI不断被完善,现在几乎所有运行在PC上的通用视频编辑系统,都是以支持AVI为主的。
⾳频基础知识⼀.⾳频基础知识1.⾳频编解码原理数字⾳频的出现,是为了满⾜复制、存储、传输的需求,⾳频信号的数据量对于进⾏传输或存储形成巨⼤的压⼒,⾳频信号的压缩是在保证⼀定声⾳质量的条件下,尽可能以最⼩的数据率来表达和传送声⾳信息。
信号压缩过程是对采样、量化后的原始数字⾳频信号流运⽤适,当的数字信号处理技术进⾏信号数据的处理,将⾳频信号中去除对⼈们感受信息影响可以忽略的成分,仅仅对有⽤的那部分⾳频信号,进⾏编排,从⽽降低了参与编码的数据量。
数字⾳频信号中包含的对⼈们感受信息影响可以忽略的成分称为冗余,包括时域冗余、频域冗余和听觉冗余。
1.1时域冗余.幅度分布的⾮均匀性:信号的量化⽐特分布是针对信号的整个动态范围⽽设定的,对于⼩幅度信号⽽⾔,⼤量的⽐特数A.幅度分布的⾮均匀性据位被闲置。
B.样值间的相关性:声⾳信号是⼀个连续表达过程,通过采样之后,相邻的信号具有极强的相似性,信号差值与信号本⾝相⽐,数据量要⼩的多。
C.信号周期的相关性:声⾳信息在整个可闻域的范围内,每个瞬间只有部分频率成分在起作⽤,即特征频率,这些特征频率会以⼀定的周期反复出现,周期之间具有相关关系。
D.长时⾃我相关性:声⾳信息序列的样值、周期相关性,在⼀个相对较长的时间间隔也会是相对稳定的,这种稳定关系具有很⾼的相关系数。
E.静⾳:声⾳信息中的停顿间歇,⽆论是采样还是量化都会形成冗余,找出停顿间歇并将其样值数据去除,可以减少数据量。
1.2频域冗余.长时功率谱密度的⾮均匀性:任何⼀种声⾳信息,在相当长的时间间隔内,功率分布在低频部分⼤于⾼频部分,功率谱A.长时功率谱密度的⾮均匀性具有明显的⾮平坦性,对于给定的频段⽽⾔,存在相应的冗余。
B.语⾔特有的短时功率谱密度:语⾳信号在某些频率上会出现峰值,⽽在另⼀些频率上出现⾕值,这些共振峰频率具有较⼤的能量,由它们决定了不同的语⾳特征,整个语⾔的功率谱以基⾳频率为基础,形成了向⾼次谐波递减的结构。
格式编码详解---视频音频图片Adobe Media Encoder CC第一章:视频编码必备知识点(以Davinci及QT格式为例)一、封装格式VS编码格式在DaVinci Resolve中举例,封装格式相当于包装盒,编码格式相当于产品在盒内怎么摆放。
常用的封装格式有:Quicktime;MP4 ;MXF ; Cineon;DCP;DPX;EXR;IMF。
常用的编码格式有:DNxHD,DNxHR,ProRes,GoPro Cineform,Grass Valley,H.264,Kakadu JPEG 2000,MPEG,Photo JPEG,Uncompressed(无损)。
这些编码格式都可以压进Quicktime这种封装格式里。
这些编码格式都可以压进Quicktime(.mov)这种封装格式里1.封装格式(1) MXF:是英文Material exchange Format(素材交换格式)的缩语。
MXF是SMPTE(美国电影与电视工程师学会)组织定义的一种专业音视频媒体文件格式。
MXF主要应用于影视行业媒体制作、编辑、发行和存储等环节。
MXF文件通常被视为一种“容器”文件格式,也就是说MXF文件格式与内容数据的格式无关,这得益于MXF底层使用了KLV(键-长度-值)三元组编码方式。
MXF文件通常包含文件头、文件体和文件尾等几个部分。
(2)Cineon:Cineon 是由Kodak 开发的,它是一种适合于电子复合、操纵和增强的10 位/通道数字格式。
使用Cineon 格式可以在不损失图像品质的情况下输出回胶片。
此格式在 Cineon Digital Film System 中使用,该系统将源于胶片的图像转换为 Cineon 格式,再输出回胶片。
电影转换为数字格式的一种文件格式(cin dpx)。
Cineon是由柯达公司开发的,是一种使用于电子复合、操纵和增强的10位通道数字格式,此格式可以在不损失图像品质的情况下输出回胶片,在Cineon Digital Film System中使用,Cineon Digital Film System将源于胶片的图像转换为Cineon格式,再输出回胶片。
音频编码技术对数字音频信息的压缩主要是依据音频信息自身的相关性以及人耳对音频信息的听觉冗余度。
音频信息在编码技术中通常分成两类来处理,分别是语音和音乐,各自采用的技术有差异。
现代声码器的一个重要的课题是,如何把语音和音乐的编码融合起来。
语音编码技术又分为三类:波形编码、参数编码以及混合编码。
波形编码:波形编码是在时域上进行处理,力图使重建的语音波形保持原始语音信号的形状,它将语音信号作为一般的波形信号来处理,具有适应能力强、话音质量好等优点,缺点是压缩比偏低。
该类编码的技术主要有非线性量化技术、时域自适应差分编码和量化技术。
非线性量化技术利用语音信号小幅度出现的概率大而大幅度出现的概率小的特点,通过为小信号分配小的量化阶,为大信号分配大的量阶来减少总量化误差。
我们最常用的G.711标准用的就是这个技术。
自适应差分编码是利用过去的语音来预测当前的语音,只对它们的差进行编码,从而大大减少了编码数据的动态范围,节省了码率。
自适应量化技术是根据量化数据的动态范围来动态调整量阶,使得量阶与量化数据相匹配。
G.726标准中应用了这两项技术,G.722标准把语音分成高低两个子带,然后在每个子带中分别应用这两项技术。
参数编码:利用语音信息产生的数学模型,提取语音信号的特征参量,并按照模型参数重构音频信号。
它只能收敛到模型约束的最好质量上,力图使重建语音信号具有尽可能高的可懂性,而重建信号的波形与原始语音信号的波形相比可能会有相当大的差别。
这种编码技术的优点是压缩比高,但重建音频信号的质量较差,自然度低,适用于窄带信道的语音通讯,如军事通讯、航空通讯等。
美国的军方标准LPC-10,就是从语音信号中提取出来反射系数、增益、基音周期、清/浊音标志等参数进行编码的。
MPEG-4标准中的HVXC声码器用的也是参数编码技术,当它在无声信号片段时,激励信号与在CELP时相似,都是通过一个码本索引和通过幅度信息描述;在发声信号片段时则应用了谐波综合,它是将基音和谐音的正弦振荡按照传输的基频进行综合。
有关音频编码的知识与技术参数
2. 2视频数据的细化打包[4]
视频数据的细化打包可以保证信道使用和差错健壮性之间的最优化关系。
单一的MPEG4码流通常被分成一串独立可解码的、有规则长度的视频分组,每个分组都以复同步字开始。
这些视频分组通过MPEG4编码器产生,并被看作是压缩层的一部分。
因此他们应与IP、UDP和RTP层所创立的分组分开。
区分RTP 分组和MPEG4视频分组很重要,RTP分组的建立是与MPEG4编码过程分离的,而视频分组则是由MPEG4 编码器生成。
对一个固定大小的报头来说,视频载荷的大小是控制平衡的重要因素,可调整打包机制中差错健壮性和吞吐量的最正确关系。
一个分组头部任何一部分的损坏,都会导致整个RTP分组的丢失。
由于一个MPEG4视频分组内数据敏感度的不同,情况就更复杂了。
已数据分割的MPEG4分组被分成2部分, 第一部分包含了头和运动数据,第二部分包含了实质数据。
没有第一部分,第二部分就不能被译码。
因此,第一部分的损坏导致一个完整视频分组丢失。
任何RTP打包分析都必须考虑这些因素。
有2种打包机制可将MPEG4数据封装进RTP分组中。
在第一种机制中(见图2(a)), 一个MPEG4分组被封装进单一的RTP 分组;而在第二种机制中(见图2(b)), 一个RTP分组包含一个视频帧,每个视频帧包含许多个MPEG4分组,每个MPEG4分组末尾都插入8b的循环冗余效验码(CRC),来帮助
实现视频分组数据中的差错隐藏,同时保持和标准MPEG4解码器的向后兼容性。
2. 3移动网络上的优先级传输[1, 3]
当前的视频编码方案主要考虑带宽的限制,而对高误码率和分组丢失率的考虑不够。
可行的解决方法是采用基于分层的可伸缩编码方案,根据人的视觉特性,分层视频编码通常使用不平等的差错保护(UEP),即将编码视频流分割成几个误码保护等级不同的子流,主要保护最重要的子流,使高优先级基本层获得一个可保证的服务质量并使之细化。
这种方法称为带传输优先级的分层编码,在视频传输系统中专门用来使差错恢复变得更加容易。
为实现视频传输质量的提高还可以通过将视频数据作为两个独立的数据流发送,来实现视频比特流不同部分的优化。
这种情况下编码器要求网络通过不同优先级的信道来发送数据,将更重要的和差错敏感的数据分配给更可靠更安全的信道。
因此,运动和报头数据流被设定为更高的差错保护等级,再经比纹理数据流更可靠的载体来传送。
在MPEG4压缩标准系统中,数据分割是将关键数据放在每个视频分组的开始,从而当第二部分中低敏感性的纹理数据出错时,抑制丢失视频分组的可能性。
}
优先级传输方法的应用范围包括视频分层、视频数据分割、UEP和分优先级的多重载体的视频传输,然而在移动无线网络中,在应用层优先级机制的应用将使所有网络和传输层报头失去保护,高差错比特率也会导致分组附件重要部分的损坏,例如敏感载荷数据的报头等。
而且,在应用层使用
优先级机制会对各种应用的共同运行产生限制,这意味着系统提高服务质量需要修改所有运行的网络协议。
第三代移动通信多媒体应用协议正在研究制订之中,现在基本有3种方案:H. 324适应无线协议的扩展;H. 324的复接部分为无线应用做的改良;采用H. 323的IP / UDP / RTP 的传输协议。
如果采用IP/UDP/RTP协议,所采用的物理和链路层协议必须保证误码率很低、基本没有比特错,只有包丢失。
3结语
通信系统的特点决定了图像通信只能建立在现有的通信网络的根底上。
因此,图像通信所面临的问题有2个方面:一方面,对图像信息开展适当的处理使他尽可能地适应现有的通信设施和通信方式;另一方面,改造现有的通信系统使他尽可能地适应图像信息的特点。
所以,我们必须看到,要真正实现无线视频通信,在相关标准的制定、网络协议的研究等方面还有很多工作要做,相信在大家的努力下,无线网络的明天会更好,也一定会成为多媒体应用的主流网络。