当前位置:文档之家› 视频会议基础和术语及接口知识

视频会议基础和术语及接口知识

视频会议基础和术语及接口知识
视频会议基础和术语及接口知识

视频基础

视频系统术语

目前,国内外各个视频会议生产厂家都陆续推出了自己的各种高清或超清产品,都在不遗余力的宣传图像分辨率。但是,要达到高清/超清的视频会议,单单有720p或者1080p的图像分辨率是不够的。视频会议作为多媒体的一种应用,整个系统涉及到前端视频采集、图像的编码能力、高质量的网络传输、高清晰的视频显示设备。另外,如果我们在观看高清晰视频图像的时候,不能得到一个更清晰、连续的音频效果,那么这个过程实际上就没有任何意义,所以高质量音频的重要性完全不亚于视频。所以在高清或者超清的视频会议中有几个关键的知识点需要了解:高清的视频分辨率、高清视频显示设备的接口、高质量的音频传输接口、高质量的音频。技术的发展都是循序渐进的过程,在本文档中不但列出了高清视频的相关术语,还把非高清视频系统中的相关术语也一并列出,这样会有一个很直观的比较过程。

1视频接口

我们经常在家里的电视机、各种播放器上,视频会议产品和监控产品的编解码器的视频输入/输出接口上看到很多视频接口,这些视频接口哪些是模拟接口、哪些是数字接口,哪些接口可以传输高清图像等,下面就做一个详细的介绍。

目前最基本的视频接口是复合视频接口、S-vidio接口;另外常见的还有色差接口、VGA接口、DVI接口、HDMI接口、SDI接口。

1.1复合视频接口

1.1.1接口图

1.1.2说明

复合视频接口也叫AV接口或者Video接口,是目前最普遍的一种视频接口,几乎所有的电视机、影碟机类产品都有这个接口。

它是音频、视频分离的视频接口,一般由三个独立的RCA插头(又叫梅花接口、RCA接口)组成的,其中的V接口连接混合视频信号,为黄色插口;L接口连接左声道声音信号,为白色插口;R接口连接右声道声音信号,为红色插口。

1.1.3评价

它是一种混合视频信号,没有经过RF射频信号调制、放大、检波、解调等过程,信号保真度相对较好。图像品质影响受使用的线材影响大,分辨率一般可达350-450线,不过由于它是模拟接口,用于数字显示设备时,需要一个模拟信号转数字信号的过程,会损失不少信噪比,所以一般数字显示设备不建议使用。

1.2S-Video接口

1.2.1接口图

1.2.2说明

S接口也是非常常见的接口,其全称是Separate Video,也称为SUPER VIDEO。S-Video连接规格是由日本人开发的一种规格,S指的是“SEPARATE(分离)”,它将亮度和色度分离输出,避免了混合视讯讯号输出时亮度和色度的相互干扰。S接口实际上是一种五芯接口,由两路视亮度信号、两路视频色度信号和一路公共屏蔽地线共五条芯线组成。

1.2.3评价

同AV 接口相比,由于它不再进行Y/C混合传输,因此也就无需再进行亮色分离和解码工作,而且使用各自独立的传输通道在很大程度上避免了视频设备内信号串扰而产生的图像失真,极大地提高了图像的清晰度。但S-Video 仍要将两路色差信号(Cr Cb)混合为一路色度信号C,进行传输然后再在显示设备内解码为Cb和Cr进行处理,这样多少仍会带来一定信号损失而产生失真(这种失真很小但在严格的广播级视频设备下进行测试时仍能发现) 。而且由于Cr Cb的混合导致色度信号的带宽也有一定的限制,所以S-Video虽然已经比较优秀,但离完美还相去甚远。S-Video虽不是最好的,但考虑到目前的市场状况和综合成本等其它因素,它还是应用最普遍的视频接口之一。

1.3YPbPr /YCbCr色差接口

1.3.1接口图

1.3.2说明

色差接口是在S接口的基础上,把色度(C)信号里的蓝色差(b)、红色差(r)分开发送,其分辨率可达到600线以上。它通常采用YPbPr 和YCbCr两种标识,前者表示逐行扫描色差输出,后者表示隔行扫描色差输出。现在很多电视类产品都是靠色差输入来提高输入讯号品质,而且透过色差接口,可以输入多种等级讯号,从最基本的480i到倍频扫描的480p,甚至720p、1080i等等,都是要通过色差输入才有办法将信号传送到电视当中。

1.3.3评价

由电视信号关系可知,我们只需知道Y、Cr、Cb的值就能够得到G(绿色)的值,所以在视频输出和颜色处理过程中就统一忽略绿色差Cg而只保留Y Cr Cb,这便是色差输出的基本定义。作为S-Video的进阶产品,色差输出将S-Video传输的色度信号C分解为色差Cr和Cb,这样就避免了两路色差混合译码并再次分离的过程,也保持了色度信道的最大带宽,只需要经过反矩阵译码电路就可以还原为RGB三原色信号而成像,这就最大限度地缩短了视频源到显示器成像之间的视频信号信道,避免了因繁琐的传输过程所带来的影像失真,所以色差输出的接口方式是目前最好模拟视频输出接口之一。

1.4VGA接口

1.4.1接口图

1.4.2说明

VGA接口也叫D-Sub接口。VGA接口是一种D型接口,上面共有15针,分成三排,每排五个。VGA接口是显卡上应用最为广泛的接口类型,绝大多数的显卡都带有此种接口。迷你音响或者家庭影院拥有VGA接口就可以方便的和计算机的显示器连接,用计算机的显示器显示图像。

1.4.3评价

VGA接口传输的仍然是模拟信号,对于以数字方式生成的显示图像信息,通过数字/模拟转换器转变为R、G、B三原色信号和行、场同步信号,信号通过电缆传输到显示设备中。对于模拟显示设备,如模拟CRT显示器,信号被直接送到相应的处理电路,驱动控制显像管生成图像。而对于LCD、DLP等数字显示设备,显示设备中需配置相应的A/D(模拟/数字)转换器,将模拟信号转变为数字信号。在经过D/A和A/D二次转换后,不可避免地造成了一些图像细节的损失。VGA接口应用于CRT显示器无可厚非,但用于数字电视之类的显示设备,则转换过程的图像损失会使显示效果略微下降。

1.5DVI接口

1.5.1接口图

目前的DVI接口分为两种:

一个是DVI-D接口,只能接收数字信号,接口上只有3排8列共24个针脚,其中右上角的一个针脚为空。不兼容模拟信号。

另外一种则是DVI-I接口,可同时兼容模拟和数字信号。兼容模拟幸好并不意味着模拟信号的接口D-Sub 接口可以连接在DVI-I接口上,而是必须通过一个转换接头才能使用,一般采用这种接口的显卡都会带有相关的转换接头。

1.5.2说明

DVI全称为Digital Visual Interface,它是1999年由Silicon Image、Intel(英特尔)、Compaq(康柏)、IBM、HP(惠普)、NEC、Fujitsu(富士通)等公司共同组成DDWG(Digital Display Working Group,数字显示工作组)推出的接口标准。它是以Silicon Image公司的PanalLink接口技术为基础,基于TMDS (Transition Minimized Differential Signaling,最小化传输差分信号)电子协议作为基本电气连接。TMDS是一种微分信号机制,可以将象素数据编码,并通过串行连接传递。显卡产生的数字信号由发送器按

照TMDS协议编码后通过TMDS通道发送给接收器,经过解码送给数字显示设备。一个DVI显示系统包括一个传送器和一个接收器。传送器是信号的来源,可以内建在显卡芯片中,也可以以附加芯片的形式出现在显卡PCB上;而接收器则是显示器上的一块电路,它可以接受数字信号,将其解码并传递到数字显示电路中,通过这两者,显卡发出的信号成为显示器上的图象。

1.5.3评价

显示设备采用DVI接口具有主要有以下两大优点:

1、速度快

DVI传输的是数字信号,数字图像信息不需经过任何转换,就会直接被传送到显示设备上,因此减少了数字→模拟→数字繁琐的转换过程,大大节省了时间,因此它的速度更快,有效消除拖影现象,而且使用DVI进行数据传输,信号没有衰减,色彩更纯净,更逼真。

2、画面清晰

计算机内部传输的是二进制的数字信号,使用VGA接口连接液晶显示器的话就需要先把信号通过显卡中的D/A(数字/模拟)转换器转变为R、G、B三原色信号和行、场同步信号,这些信号通过模拟信号线传输到液晶内部还需要相应的A/D(模拟/数字)转换器将模拟信号再一次转变成数字信号才能在液晶上显示出图像来。在上述的D/A、A/D转换和信号传输过程中不可避免会出现信号的损失和受到干扰,导致图像出现失真甚至显示错误,而DVI接口无需进行这些转换,避免了信号的损失,使图像的清晰度和细节表现力都得到了大大提高。

1.6SDI接口

1.6.1接口图

1.6.2说明

SDI接口是“数字分量串行接口”。

串行接口是把数据的各个比特以及相应的数据通过单一通道顺序传送的接口。由于串行数字信号的数据率很高,在传送前必须经过处理。用扰码的不归零倒置(NRZI)来代替早期的分组编码,其标准为SMPTE-259M 和EBU-Tech-3267,标准包括了含数字音频在内的数字复合和数字分量信号。在传送前,对原始数据流进行扰频,并变换为NRZI码,确保在接收端可靠地恢复原始数据。这样在概念上可以将数字串行接口理解为一种基带信号调制。SDI接口能通过270Mb/s的串行数字分量信号,对于16:9格式图像,应能传送360Mb/s 的信号。

1.6.3评价

SDI接口不能直接传送压缩数字信号,数字录像机、硬盘等设备记录的压缩信号重放后,必须经解压并经SDI接口输出才能进入SDI系统。如果反复解压和压缩,必将引起图像质量下降和延时增加,为此各种不同格式的数字录像机和非线性编辑系统,规定了自己的用于直接传输压缩数字信号的接口。(a)索尼公司的串行数字数据接口SDDI(SerialDigital Data Interface),用于Betacam-SX非线性编辑或数字新闻传输系统,通过这种接口,可以4倍速从磁带上载到磁盘。(b)索尼公司的4倍速串行数字接口QSDI (QuarterSerial Digital Interface),在DVCAM录像机编辑系统中,通过该接口以4倍速从磁带上载到磁盘、从磁盘下载到磁带或在盘与盘之间进行数据拷贝。(c)松下公司的压缩串行数字接口CSDI (CompressionSerial Digital Interface),用于DVCPRO和Digital-S数字录像机、非线性编辑系统中,由带基到盘基或盘基之间可以4倍速传输数据。

以上三种接口互不兼容,但都与SDI接口兼容。在270Mb/s的SDI系统中,可进行高速传输。这三种接口是为建立数字音视频网络而设计的,这类网络不象计算机网络那样使用握手协议,而使用同步网络技术,不会因路径不同而出现延时。

人们常在SDI信号中嵌入数字音频信号,也就是将数字音频信号插入到视频信号的行、场同步脉冲(行、场消隐)期间与数字分量视频信号同时传输。

1.7HDMI接口

1.7.1接口图

1.7.2说明

HDMI的英文全称是“High Definition Multimedia”,中文的意思是高清晰度多媒体接口。HDMI接口可以提供高达5Gbps的数据传输带宽,可以传送无压缩的音频信号及高分辨率视频信号。同时无需在信号传送前进行数/模或者模/数转换,可以保证最高质量的影音信号传送。应用HDMI的好处是:只需要一条HDMI 线,便可以同时传送影音信号,而不像现在需要多条线材来连接;同时,由于无线进行数/模或者模/数转换,能取得更高的音频和视频传输质量。对消费者而言,HDMI技术不仅能提供清晰的画质,而且由于音频/视频采用同一电缆,大大简化了家庭影院系统的安装。

1.7.3评价

2002年的4月,日立、松下、飞利浦、Silicon Image、索尼、汤姆逊、东芝共7家公司成立了HDMI组织开始制定新的专用于数字视频/音频传输标准。2002年岁末,高清晰数字多媒体接口(High-definition Digital Multimedia Interface)HDMI 1.0标准颁布。与DVI相比,HDMI可以传输数字音频信号,并增加了对HDCP的支持,同时提供了更好的DDC可选功能。HDMI支持5Gbps的数据传输率,最远可传输15米,足以应付一个1080p的视频和一个8声道的音频信号。而因为一个1080p的视频和一个8声道的音频信号需求少于4GB/s,因此HDMI还有很大余量。这允许它可以用一个电缆分别连接DVD播放器,接收器和PRR。此外HDMI支持EDID、DDC2B,因此具有HDMI的设备具有“即插即用”的特点,信号源和显示设备之间会自动进行“协商”,自动选择最合适的视频/音频格式。

HDMI在针脚上和DVI兼容,只是采用了不同的封装:

HDMI to DVI-D转接头:

HDMI to DVI-D转接线:

1.8IEEE1394接口

1.8.1接口图

1.8.2说明

IEEE 1394也称为火线或iLink,它能够传输数字视频和音频及机器控制信号,具有较高的带宽,且十分稳定。通常它主要用来连接数码摄像机、DVD录像机等设备。IEEE 1394接口有两种类型:6针的六角形接口和4针的小型四角形接口。6针的六角形接口可向所连接的设备供电,而4针的四角形接口则不能。

1.8.3评价

它的设计初衷是成为电子设备(包括便携式摄像机、个人电脑、数字电视机、音/视频接收器、DVD播放机、打印机等)之间的一个通用连接接口。1394电缆可以传输不同类型的数字信号,包括视频、音频、数码音响、设备控制命令和计算机数据。IEEE 1394主要的性能特点如下:

数字接口:数据能够以数字形式传输,不需要模数转换,从而降低了设备的复杂性,保证了信号的质量。

热插拔:即系统在全速工作时,IEEE 1394设备也可以插入或拆除,用户会发现,增添一个1394器件,就像将电源线插入其电气插座中一样容易。

1.9BNC接口

1.9.1接口图

1.9.2说明

BNC接口是指同轴电缆接口,BNC接口用于75欧同轴电缆连接用,提供收(RX)、发(TX)两个通道,它用于非平衡信号的连接。

1.9.3评价

BNC(同轴电缆卡环形接口)接口主要用于连接高端家庭影院产品以及专业视频设备。BNC电缆有5个连接头,分别接收红、绿、蓝、水平同步和垂直同步信号。BNC接头可以让视频信号互相间干扰减少,可达到最佳信号响应效果。此外,由于BNC接口的特殊设计,连接非常紧,不必担心接口松动而产生接触不良。

2音频接口

除了高清视频带来的视觉上的冲击,音频方面质量也有很大提高,能给大家带来更逼真的现场效果。对于目前经常提到的音频接口做一个说明。

2.1RCA模拟音频

RCA接头就是常说的莲花头,利用RCA线缆传输模拟信号是目前最普遍的音频连接方式。每一根RCA线缆负责传输一个声道的音频信号,所以立体声信号,需要使用一对线缆。对于多声道系统,就要根据实际的声道数量配以相同数量的线缆。立体声RCA音频接口,一般将右声道用红色标注,左声道则用蓝色或者白色标注。

2.2平衡模拟音频

大三芯插头

XLR接口

与RCA模拟音频线缆直接传输声音的方式完全不同,平衡模拟音频(Balanced Analog Audio)接口使用两个通道分别传送信号相同而相位相反的信号。接收端设备将这两组信号相减,干扰信号就被抵消掉,从而获得高质量的模拟信号。平衡模拟音频通常采用XLR接口和大三芯接口。XLR俗称卡侬头,有三针插头和锁定装置组成。由于采用了锁定装置,XLR连接相当牢靠。大三芯接口则采用直径为6.35毫米的插头,其优点是耐磨损,适合反复插拔。平衡模拟音频连接主要出现在高级模拟音响器材或专业音频设备上。

2.3S/PDIF

S/PDIF(Sony/Philips Digital Interface,索尼和飞利浦数字接口)是由SONY公司与PHILIPS公司联合制定的一种数字音频输出接口。该接口广泛应用在CD播放机、声卡及家用电器等设备上,能改善CD的音

质,给我们更纯正的听觉效果。该接口传输的是数字信号,所以不会像模拟信号那样受到干扰而降低音频质量。需要注意的是,S/PDIF接口是一种标准,同轴数字接口和光线接口都属于S/PDIF接口的范畴。

2.4数字同轴

数字同轴(Digital Coaxial)是利用S/PDIF接口输出数字音频的接口。同轴线缆有两个同心导体,导体和屏蔽层共用同一轴心。同轴线缆是由绝缘材料隔离的铜线导体,阻抗为75欧姆,在里层绝缘材料的外部是另一层环形导体及其绝缘体,整个电缆由聚氯乙烯或特氟纶材料的护套包住。同轴电缆的优点是阻抗稳定,传输带宽高,保证了音频的质量。虽然同轴数字线缆的标准接头为BNC接头,但市面上的同轴数字线材多采用RCA接头。

2.5光纤

光纤(Optical)以光脉冲的形式来传输数字信号,其材质以玻璃或有机玻璃为主。光纤同样采用S/PDIF 接口输出,其是带宽高,信号衰减小,常常用于连接DVD播放器和AV功放,支持PCM数字音频信号、Dolby 以及DTS音频信号。

2.6凤凰头

凤凰头也经常被用来作为音频的输入和输出端口。

3视频分辨率

3.1CIF

CIF是常用的标准化图像格式(Common Intermediate Format)。在H.323协议簇中,规定了视频采集设备的标准采集分辨率。CIF = 352×288像素。

CIF格式具有如下特性:

(1) 电视图像的空间分辨率为家用录像系统(Video Home System,VHS)的分辨率,即352×288。

(2) 使用非隔行扫描。

(3) 使用NTSC帧速率,30幅/秒。

(4) 使用1/2的PAL水平分辨率,即288线。

(5) 对亮度和两个色差信号(Y、Cb和Cr)分量分别进行编码,它们的取值范围同ITU-R BT.601。即黑色=16,白色=235,色差的最大值等于240,最小值等于16。

下面为5种CIF 图像格式的参数说明。

sub-QCIF 128×96

QCIF 176×144

CIF 352×288

4CIF 704×576

9CIF 1056×864

16CIF 1408×1152

目前在视频会议行业中使用CIF、4CIF,而在监控行业中使用CIF、HALF D1、D1等几种分辨率。

3.2DCIF

在视频监控中,经过研究发现一种更为有效的监控视频编码分辨率(DCIF),其像素为528×384。DCIF分辨率的是视频图像来历是将奇、偶两个HALF D1,经反隔行变换,组成一个D1(720*576),D1作边界处理,变成4CIF(704×576),4CIF经水平3/4缩小、垂直2/3缩小,转换成528×384。528×384的像素数正好是CIF像素数的两倍,为了与常说的2CIF(704*288)区分,我们称之为DOUBLE CIF,简称DCIF。显然,DCIF在水平和垂直两个方向上,比Half D1更加均衡。

3.3Dx系列/720p/1080p

Dx系列是数字电视系统显示格式的标准,共分为如下五种规格。我们经常说的高清视频、超高清视频的720p 和1080p也是数字电视系统的显示格式。

D1:480i格式(525i):720×480(水平480线,隔行扫描),和NTSC模拟电视清晰度相同,行频为15.25kHz,相当于我们所说的4CIF(720×576)。

D2:480p格式(525p):720×480(水平480线,逐行扫描),较D1隔行扫描要清晰不少,和逐行扫描DVD规格相同,行频为31.5kHz。

D3:1080i格式(1125i):1920×1080(水平1080线,隔行扫描),高清采用最多的一种分辨率,分辨率为1920×1080i/60HZ,行频为33.75kHz。

D4:720p格式(750p):1280×720(水平720线,逐行扫描),虽然分辨率较D3要低,但是因为逐行扫描,市面上更多人感觉相对于1080i(实际逐次540线)视觉效果更加清晰。在最大分辨率达到1920×1080的情况下,D3要比D4感觉更加清晰,尤其是文字表现力上,分辨率为1280×720p/60HZ,行频为45kHz。

D5:1080p格式(1125p):1920×1080(水平1080线,逐行扫描),目前民用高清视频的最高标准,分辨率为1920×1080p/60HZ,行频为67.5KHZ。

其中D1 和D2标准是我们一般模拟电视的最高标准,并不能称的上高清晰,D3的1080i标准是高清晰电视的基本标准,它可以兼容720p格式,而D5的1080p只是专业上的标准,并不是民用级别的,上面所给出的60HZ只是理想状态下的场频,而它的行频为67.5KHZ,目前还没有如此高行频的电视问世,实际在专业领域里1080p的场频只有24HZ,25HZ和30HZ。

需要指出的一点是,DVI接口是日本独有的特殊接口,国内电视几乎没有带这种接口的,最多的是色差接口,而色差接口最多支持到D4,理论上肯定没有HDMI(纯数字信号,支持到1080p)的最高清晰度高,但在1920×1080以下分辨率的电视机上,一般也没有很大差别。

4音频技术

视频通讯过程是视频和音频的实时双向完整通讯过程。在这个过程中我们为了获得高清晰视频图像,有时却忽略了另外一个重要的过程——音频通讯过程。如果我们在观看高清晰视频图像的时候,不能得到一个更清晰、连续的音频效果。那么这个过程实际上就没有任何意义,所以其重要性甚至超过视频。在传统的视频会议系统中音频技术发展极其缓慢,原因在于目前应用于视频通讯的音频编解码压缩标准都是为了保持传输时的低带宽占用和较高的编解码效率,从而将音频信号的采样频率、采样精度和采样范围指标做了极大的降低,使得所能提供的音频清晰度和还原性都有很大程度上的衰减。与用于存储和回放非实时压缩协议的标准(如OGG、MP3等)相比,音频的保真度非常低。这样就在某种程度上对现场声音的还原达不到要求。目前传统视频通讯过程中主要采用的是G.711、G.722、G.722.1、G.728等音频标准,音频宽度仅有50Hz-7KHz单声道,而人耳所能感知的自然界的频响能力可以达到20Hz-20KHz,因此,在对现场环境音的还原过程中过多的音频信息的丢失造成了无法真实表现现场情况。所以在高清晰视频通讯过程中我们势必要有一种相辅助的音频处理方式解决此问题。使整个高清晰通讯过程更去近于完美。

目前国际上对音频处理技术上标准较多,在对下一代实时交互音频处理上可以采用MPEG-1 Layer 2或AAC 系列音频,对选用标准的原则是,音频频响范围要达到22KHz,这样就几乎可以覆盖了人耳听觉的全部范围,甚至在高频方面还有所超越,能够使现场音频得到真实自然的还原,并且在还原时可以采用双声道立体声回放,使整个视频通讯的声音有更强的临近感,达到CD级音质。同时在对链路带宽的适应和编解码效率上达到最佳。下面是各种音频编码标准的说明:

4.1G.711

类型:Audio

制定者:ITU-T

所需频宽:64Kbps

特性:算法复杂度小,音质一般

优点:算法复杂度低,压缩比小(CD音质>400kbps),编解码延时最短(相对其它技术)

缺点:占用的带宽较高

备注:70年代CCITT公布的G.711 64kb/s脉冲编码调制PCM。

4.2G.721

制定者:ITU-T

所需带宽:32Kbps

音频频宽:3.4KHZ

特性:相对于PCMA和PCMU,其压缩比较高,可以提供2:1的压缩比。

优点:压缩比大

缺点:声音质量一般

备注:子带ADPCM(SB-ADPCM)技术。G.721标准是一个代码转换系统。它使用ADPCM转换技术,实现64 kb/s A律或μ律PCM速率和32 kb/s速率之间的相互转换。

4.3G.722

制定者:ITU-T

所需带宽:64Kbps

音频宽度:7KHZ

特性:G722能提供高保真的语音质量

优点:音质好

缺点:带宽要求高

备注:子带ADPCM(SB-ADPCM)技术

4.4G.722.1

制定者:ITU-T

所需带宽:32Kbps/24Kbps

音频宽度:7KHZ

特性:可实现比G.722 编解码器更低的比特率以及更大的压缩。目标是以大约一半的比特率实现 G.722 大致相当的质量。

优点:音质好

缺点:带宽要求高

备注:目前大多用于电视会议系统。

4.5G.722.1附录C

制定者:ITU-T

所需带宽:48Kbps/32Kbps/4Kbps

音频宽度:14KHZ

特性:采用自Polycom 的Siren?14 专利算法,与早先的宽频带音频技术相比具有突破性的优势,提供了低时延的14 kHz 超宽频带音频,而码率不到MPEG4 AAC-LD 替代编解码器的一半,同时要求的运算能力仅为十分之一到二十分之一,这样就留出了更多的处理器周期来提高视频质量或者运行因特网应用程序,并且移动设备上的电池续航时间也可延长。

优点:音质更为清晰,几乎可与CD 音质媲美,在视频会议等应用中可以降低听者的疲劳程度。

缺点:是Polycom的专利技术。

备注:目前大多用于电视会议系统

4.6G.723(低码率语音编码算法)

制定者:ITU-T

所需带宽:5.3Kbps/6.3Kbps

音频宽度:3.4KHZ

特性:语音质量接近良,带宽要求低,高效实现,便于多路扩展,可利用C5402片内16kRAM实现53coder。达到ITU-TG723要求的语音质量,性能稳定。可用于IP电话语音信源编码或高效语音压缩存储。

优点:码率低,带宽要求较小。并达到ITU-TG723要求的语音质量,性能稳定。

缺点:声音质量一般

备注:G.723语音编码器是一种用于多媒体通信,编码速率为5.3kbits/s和6.3kbit/s的双码率编码方案。

G.723标准是国际电信联盟(ITU)制定的多媒体通信标准中的一个组成部分,可以应用于IP电话等系统中。其中,5.3kbits/s码率编码器采用多脉冲最大似然量化技术(MP-MLQ),6.3kbits/s码率编码器采用代数码激励线性预测技术。

4.7G.723.1(双速率语音编码算法)

制定者:ITU-T

所需带宽:5.3Kbps(22.9)

音频宽度:3.4KHZ

特性:能够对音乐和其他音频信号进行压缩和解压缩,但它对语音信号来说是最优的。G.723.1采用了执行不连续传输的静音压缩,这就意味着在静音期间的比特流中加入了人为的噪声。除了预留带宽之外,这

种技术使发信机的调制解调器保持连续工作,并且避免了载波信号的时通时断。

优点:码率低,带宽要求较小。并达到ITU-TG723要求的语音质量,性能稳定,避免了载波信号的时通时断。缺点:语音质量一般

备注:G.723.1算法是ITU-T建议的应用于低速率多媒体服务中语音或其它音频信号的压缩算法,其目标应用系统包括H.323、H.324等多媒体通信系统。目前该算法已成为IP电话系统中的必选算法之一。

4.8G.728

制定者:ITU-T

所需带宽:16Kbps/8Kbps

音频宽度:3.4KHZ

特性:用于IP电话、卫星通信、语音存储等多个领域。G.728是一种低时延编码器,但它比其它的编码器都复杂,这是因为在编码器中必须重复做50阶LPC分析。G.728还采用了自适应后置滤波器来提高其性能。优点:后向自适应,采用自适应后置滤波器来提高其性能

缺点:比其它的编码器都复杂

备注:G.728 16kb/s短延时码本激励线性预测编码(LD-CELP)。1996年ITU公布了G.728 8kb/s的CS-ACELP算法,可以用于IP电话、卫星通信、语音存储等多个领域。16 kbps G.728低时延码激励线性预测。

G.728是低比特线性预测合成分析编码器(G.729和G.723.1)和后向ADPCM编码器的混合体。G.728是

LD-CELP编码器,它一次只处理5个样点。对于低速率(56~128 kbps)的综合业务数字网(ISDN)可视电话,G.728是一种建议采用的语音编码器。由于其后向自适应特性,因此G.728是一种低时延编码器,但它比其它的编码器都复杂,这是因为在编码器中必须重复做50阶LPC分析。G.728还采用了自适应后置滤波器来提高其性能。

4.9G.729

制定者:ITU-T

所需带宽:8Kbps

音频宽度:3.4KHZ

特性:在良好的信道条件下要达到长话质量,在有随机比特误码、发生帧丢失和多次转接等情况下要有很好的稳健性等。这种语音压缩算法可以应用在很广泛的领域中,包括IP电话、无线通信、数字卫星系统和数字专用线路。

G.729算法采用“共轭结构代数码本激励线性预测编码方案”(CS-ACELP)算法。这种算法综合了波形编码和参数编码的优点,以自适应预测编码技术为基础,采用了矢量量化、合成分析和感觉加权等技术。G.729编码器是为低时延应用设计的,它的帧长只有10ms,处理时延也是10ms,再加上5ms的前视,这就使得G.729产生的点到点的时延为25ms,比特率为8 kbps。

优点:语音质量良,应用领域很广泛,采用了矢量量化、合成分析和感觉加权,提供了对帧丢失和分组丢失的隐藏处理机制。

缺点:在处理随机比特错误方面性能不好。

备注:国际电信联盟(ITU-T)于1995年11月正式通过了G.729。ITU-T建议G.729也被称作“共轭结构代数码本激励线性预测编码方案”(CS-ACELP),它是当前较新的一种语音压缩标准。G.729是由美国、法国、日本和加拿大的几家著名国际电信实体联合开发的。

4.10G.729A

制定者:ITU-T

所需带宽:8Kbps(34.4)

音频宽度:3.4KHZ

特性:复杂性较G.729低,性能较G.729差。

优点:语音质量良,降低了计算的复杂度以便于实时实现,提供了对帧丢失和分组丢失的隐藏处理机制

缺点:性能较G.729差

备注:96年ITU-T又制定了G.729的简化方案G.729A,主要降低了计算的复杂度以便于实时实现,因此目前使用的都是G.729A。

4.11MPEG-1 audio layer 1

制定者:MPEG

所需带宽:384kbps(压缩4倍)

音频宽度:

特性:编码简单,用于数字盒式录音磁带,2声道,VCD中使用的音频压缩方案就是MPEG-1层Ⅰ。

优点:压缩方式相对时域压缩技术而言要复杂得多,同时编码效率、声音质量也大幅提高,编码延时相应增加。可以达到“完全透明”的声音质量(EBU音质标准)

缺点:频宽要求较高

备注:MPEG-1声音压缩编码是国际上第一个高保真声音数据压缩的国际标准,它分为三个层次:

--层1(Layer 1):编码简单,用于数字盒式录音磁带

--层2(Layer 2):算法复杂度中等,用于数字音频广播(DAB)和VCD等

--层3(Layer 3):编码复杂,用于互联网上的高质量声音的传输,如MP3音乐压缩10倍

4.12MPEG-1 audio layer 2,即MP2

制定者:MPEG

所需带宽:256~192kbps(压缩6~8倍)

音频宽度:

特性:算法复杂度中等,用于数字音频广播(DAB)和VCD等,2声道,而MUSICAM由于其适当的复杂程度和优秀的声音质量,在数字演播室、DAB、DVB等数字节目的制作、交换、存储、传送中得到广泛应用。

优点:压缩方式相对时域压缩技术而言要复杂得多,同时编码效率、声音质量也大幅提高,编码延时相应增加。可以达到“完全透明”的声音质量(EBU音质标准)

缺点:

备注:同MPEG-1 audio layer 1

4.13MPEG-1 audio layer 3(MP3)

制定者:MPEG

所需带宽:128~112kbps(压缩10~12倍)

音频宽度:

特性:编码复杂,用于互联网上的高质量声音的传输,如MP3音乐压缩10倍,2声道。MP3是在综合MUSICAM 和ASPEC的优点的基础上提出的混合压缩技术,在当时的技术条件下,MP3的复杂度显得相对较高,编码不利于实时,但由于MP3在低码率条件下高水准的声音质量,使得它成为软解压及网络广播的宠儿。

优点:压缩比高,适合用于互联网上的传播

缺点:MP3在128KBitrate及以下时,会出现明显的高频丢失

备注:同MPEG-1 audio layer 1

4.14MPEG-2 audio layer

制定者:MPEG

所需带宽:与MPEG-1层1,层2,层3相同

音频宽度:

特性:MPEG-2的声音压缩编码采用与MPEG-1声音相同的编译码器,层1, 层2和层3的结构也相同,但它能支持5.1声道和7.1声道的环绕立体声。

优点:支持5.1声道和7.1声道的环绕立体声

缺点:

备注:MPEG-2的声音压缩编码采用与MPEG-1声音相同的编译码器,层1, 层2和层3的结构也相同,但它能支持5.1声道和7.1声道的环绕立体声。

4.15AAC-LD (dvanced Audio Coding,先进音频编码)

制定者:MPEG

所需带宽:48-64 kbps

音频宽度:22KHZ

特性:提供高质量的低延时的音频编码标准,以其20ms的算法延时提供更高的比特率和各种声音信号的高质量音频。

缺点:

备注:超宽带编解码器技术支持高达48KHz采样率的语音传输,与传统的窄带与宽带语音编解码器相比大幅提高了音质。该技术可提供接近CD音质的音频,数据速率高达48–64kbps,不仅提高了IP语音与视频应用的清晰度,而且支持电话音乐传输功能。高清语音通道支持更高的采样率,配合音频编解码器的高保真音效,显著丰富并扩展了频谱两端的音质范围,有效改善了语音回响性能,提高了清晰度。

1、H.323协议(ITU-T国际电信联盟标准化部门制定的适用于视频会议的标准)

1997年3月提出的H.323,为现有的分组网络PBN(如IP网络)提供多媒体通信标准,是目前应用最广泛的协议。

很多视频会议产品通常会强调自己是支持 H.323协议的产品。那么用户是否一定要选用支持H.323的产品呢?或者说不是H.323的我就不买?答案是否定的,因为支持H.323的产品只代表它的兼容性更好一点,它可以和符合H.323

标准的硬件终端互相通讯,可以有更好的扩展等等。但是,不支持H.323协议的产品一样能很好的使用,而有些用户也完全不需要与别的产品互通。

2、SIP 协议( IETF The Internet Engineering Task Force 制定的信令协议)

可用来创建、修改以及终结多个参与者参加的多媒体会话进程。参与会话的成员可以通过组播方式、单播连网或者两者结合的形式进行通信。我们大家最常用的MSN就是使用的 SIP协议。

H.323 和SIP对于用户的区别:对于用户来说,这两个协议本身并不会影响使用效果和使用方式,最大的区别在于,目前市场上分别有一些只支持H.323 或者只支持SIP的硬件终端,那么这两者之间就不能互连互通了,这将产生兼容问题。不过已经有一些同时支持SIP和H.323的终端产品出现了。

3、MCU(多点控制器)

MCU是整个会议系统的“心脏”,它为用户提供群组会议、多组会议的连接服务。简单说来,如果用户使用的是三个终端或更多用户的视频会议,那么就必须有MCU了(有两种情况下,用户感受不到MCU存在:一,MCU内置于某个终端上;二,MCU由供应商开放于公网)

4、语音常用协议(指在视频会议中通过网络发送语音所使用的实时编码)

目前常用的语音编码有:G.. 711;G..729;G..7231;GSM 等等。这些对于用户使用而言并无多大分别,其本质在于压缩的比例和声音的质量。然而由于不同产品在其它方面的差别,所以采用不同的音频编码也可达到同样的声音效果,反之亦然。也有很多厂家的产品使用一些其它标准编码或者自己特有的音频编码。

5、MPEG-4标准:(常用视频压缩编码)

MPEG是运动图像专家组(Moving Pictures Experts Group)的英文缩写。这个专家组是由ISO(国际标准化组织)与IEC(国际电子委员会)于1988年联合成立的,致力于运动图像及其伴音编码的标准化工作。

和其它标准相比,MPEG-4的压缩比更高,节省存储空间,图像质量更好,特别适合在低带宽等条件下传输视频,并能保持图像的质量。

基于软件的视频会议系统,基本上都是采用这一技术标准。

6、H.264标准:(常用视频压缩编码)

它结合了H.323协议中的H.263协议和MPEG-4协议,解决了目前基于软件视频会议MPEG-4标准无法与H.323协议的终端兼容问题,这使之成为目前最好的视频压缩协议。

7、MPEG-4与H.264对于用户的区别

虽然我们把H.264 定义为最好的视频压缩协议,但并不代表着我们一定要选用支持H.264的视频会议产品。因为在关键性的视频压缩率和视频质量上,这两个标准并无本质的区别,它们间最主要的区别是H.264的兼容性更好。因此,如果不存在使用H.323硬件终端加入会议的情况下,没有必要一定选用H.264的产品。

8、视频分辨率

这里有必要写一下视频分辨率。因为,这个参数直接会对用户的感观产生影响。注意,当分辨率固定后,我们将屏幕放大是会影响视频质量的。

视频分辨率是指视频会议产品所成图像的大小或尺寸,单位为dpi。常见的视像分辨率有352×288,176×144,640 x 480,1024 x 768。在成像的两组数字中,前者为图片长度,后者为图片的宽度,两者相乘得出的是图片的像素,长宽比一般为4:3。

目前有一种叫作“数据矢量化”的技术,可以达到放大图象而不降低视频质量,但应用还不是很广。

9、回音抑制

顾名思义,当用户使用视频会议产品时,如果用的是喇叭加麦克风的组合,那么由于喇叭里放出的声音会被麦克风采进去,这样就形成回音,就好象我们在

(完整版)华为视频会议基本知识

华为视频会议基本知识 1.、什么是视频会议系统?视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。其交流形式为点到点,点对多点。主要设备包括MCU(多点控制单元)、视频会议终端、网关、网守和相关的配套外围设备。如显示设备,音响系统等。 2.、视频会议系统的作用是什么?视频会议可以实现数据、视频、语音应用的有机融合与网络资源的高效利用,与远在千里之外的人进行面对面交谈,做到远在天边,近在咫尺,并能够随时自主地组织和召开会议,进行业务调度、远程管理、信息交流、技术培训等等,节约时间和差旅经费,大大提高工作效率。 3.、视频会议的发展趋势?视频会议的发展经历了四代:第一代是70年代。采用模拟传输,占用带宽大(960个话路),因此用户极少。第二代是80年代。其传输由模拟转为数字传输,由最初的数字静态传输到动态图像传输,占用带宽8—34Mbps。第三代为90年代。视频会议采用了国际电联(ITU)标准H.320。正是进入商用领域。传输带宽为64Kbps-2Mbps。第四代为21世纪。视频会议进入多媒体通信。基于国际标准H.323和

SIP,将音频、视频和数据融合与一体。适用于不同的用户,不同需求的融合通信。 4.、视频会议系统对网络的需求是什么?视频会议系统可以广泛运行于IP、ISDN、FR、DDN、卫星网络等各种网络环境中。华为终端提供E1、IP、ISDN等多种线路接口。 5. 建立视频会议系统的成本包括那些?视频会议系统的建设成本分为建设费和使用费。建设费是一次性投资,包括视频会议设备的购买费用,基础网络的建设费用和会议室的装修费用。使用费主要包括网络的使用费用,如电信线路的租费等。 6、视频会议有哪些国际标准?视频会议行业的国际标准是由ITU(国际电信联合会)和IETF(国际工程师组织)制定的。主要以字母H开头。 视频会议行业的国际标准有H.320、H.323和SIP(H.324)三个主要的标准集。其中H.323是目前主流的标准。SIP是已经确定的下一代标准。常用的算法如下:图像处理算法有:H.261、H.263、H.263++和H.264 图像清晰度:CIF(VCD)、4CIF(DVD)和10CIF(HD,16:9数字高清电视)声音处理算法有:G.711、 G.722、G.722.1Annex C、G.723、G.728和G.729 声音清晰度:3.4KHz(电话音质)、7KHz(调幅收音机音质)、14KHz(调频收音机音质)和20KHz(CD音质)

视频基础知识详解

视频基础知识详解 视频技术发展到现在已经有100多年的历史,虽然比照相技术历史时间短,但在过去很长一段时间之内都是最重要的媒体。 由于互联网在新世纪的崛起,使得传统的媒体技术有了更好的发展平台,应运而生了新的多媒体技术。而多媒体技术不仅涵盖了传统媒体的表达,又增加了交互互动功能,成为了目前最主要的信息工具。 在多媒体技术中,最先获得发展的是图片信息技术,由于信息来源更加广泛,生成速度高生产效率高,加上应用门槛较低,因此一度是互联网上最有吸引力的内容。 然而随着技术的不断进步,视频技术的制作加工门槛逐渐降低,信息资源的不断增长,同时由于视频信息内容更加丰富完整的先天优势,在近年来已经逐渐成为主流。 那么我们就对视频信息技术做一个详细的介绍。 模拟时代的视频技术 最早的视频技术来源于电影,电影技术则来源于照相技术。由于现代互联网视频信息技术原理则来源于电视技术,所以这里只做电视技术的介绍。 世界上第一台电视诞生于1925年,是由英国人约翰贝德发明。同时也是世界上第一套电视拍摄、信号发射和接收系统。而电视技术的原理大概可以理解为信号采集、信号传输、图像还原三个阶段。 摄像信号的采集,通过感光器件获取到光线的强度(早期的电视是黑白的,所以只取亮度信号)。然后每隔30~40毫秒,将所采集到光线的强度信息发送到接收端。而对于信号的还原,也是同步的每隔30~40毫秒,将信号扫描到荧光屏上进行展示。 那么对于信号的还原,由于荧光屏电视采用的是射线枪将射线打到荧光图层,来激发荧光显示,那么射线枪绘制整幅图像就需要一段时间。射线枪从屏幕顶端

开始一行一行的发出射线,一直到屏幕底端。然后继续从顶部开始一行一行的发射,来显示下一幅图像。但是射线枪扫描速度没有那么快,所以每次图像显示,要么只扫单数行,要么只扫双数行。然后两幅图像叠加,就是完整的一帧画面。所以电视在早期都是隔行扫描。 那么信号是怎么产生的呢? 跟相机感光原理一样,感光器件是对光敏感的设备,对于进光的强弱可以产生不同的电压。然后再将这些信号转换成不同的电流发射到接收端。电视机的扫描枪以不同的电流强度发射到荧光屏上时,荧光粉接收到的射线越强,就会越亮,越弱就会越暗。这样就产生了黑白信号。 那么帧和场的概念是什么? 前面说到,由于摄像采集信号属于连续拍摄图像,比如每隔40毫秒截取一张图像,也就是说每秒会产生25副图像。而每个图像就是一帧画面,所以每秒25副图像就可以描述为帧率为25FPS(frames per second)。而由于过去电视荧光屏扫描是隔行扫描,每两次扫描才产生一副图像,而每次扫描就叫做1场。也就是说每2场扫描生成1帧画面。所以帧率25FPS时,隔行扫描就是50场每秒。 模拟时代在全世界电视信号标准并不是统一的,电视场的标准有很多,叫做电视信号制式标准。黑白电视的时期制式标准非常多,有A、B、C、D、E、G、H、I、K、K1、L、M、N等,共计13种(我国采用的是D和K制)。到了彩色电视时代,制式简化成了三种:NTSC、PAL、SECAM,其中NTSC又分为NTSC4.43和NTSC3.58。我国彩色电视采用的是PAL制式中的D制调幅模式,所以也叫PAL-D 制式。有兴趣的可以百度百科“电视制式”来详细了解。 另外你可能会发现,场的频率其实是和交流电的频率一致的。比如我国的电网交流电的频率是50Hz,而电视制式PAL-D是50场每秒,也是50Hz。这之间是否有关联呢?可以告诉你的是,的确有关联,不过建议大家自己去研究。如果确实不懂的同学可以@我。 彩色信号又是怎么产生的呢?

安防监控中的各种视频接口知识简介

安防监控中的各种视频接口知识简介 来源:中国一卡通网作者:广州众成弱电设备安装有限公司发布时间:2011-01-21 14:25:11 字体:[大 中小] 关键字:安防监控视频接口 摘要:本文结合一些图片来说下视频及其接口方面的知识及工程的设计施工中大家可能碰到的一些困惑。 本文结合一些图片来说下视频及其接口方面的东西。顺便聊聊在工程的设计施工中大家可能碰到的一些困惑。 一、复合视频(composite video): 复合视频接口是一种就普遍和常见的视频接口,顾名思义就是把视频信号的色度和亮度复合在一起进行传输的视频信号。在物理上,复合视频端子有“芯”和“皮”,“芯”传递的是复合视频信号,“皮”就是端子外壳(接地)。因为色度和亮度的的频率会相互干扰和影响,因此复合视频信号总的来说质量一般,因此,其也主要应用在家庭用的音视频设备或者要求不是很高的视频监控设备中,比如VCD、DVD、摄像机等。 复合视频接口有两种端子:分别是RCA端子和BNC端子。RCA端子就是通常所说的莲花头和莲花座,BNC端子就是BNC头和BNC座。

图一 RCA端子和S-VIDEO端子 图二 BNC端子 有一点要提醒大家,就是RCA端子既可以用在复合视频接口,也可以用在音频接口,如果用在音频接口的话,通常又叫做3.5莲花头(座)。 至于RCA端子和BNC端子在实用中有什么区别,答案是没有区别,关键看设备上的接口,设备如果是BNC座,那就用同轴电缆线做BNC头;设备如果是RCA座,那么还是用同轴

电缆做RCA头。当然家用的音视频设备比较多用RCA端子,而视频监控设备比较多用BNC 端子做视频接口。 二、二分量视频(S-VIDEO) S-VIDEO接口 S端子实际上是一种五芯接口,由两路视亮度信号、两路视频颜色度信号和一路公

视频会议基础知识

视频会议基础知识

视频会议基础知识全系列介绍 1、什么是视频会议 通俗的说:视频会议系统就是为人们无法聚集到同一个地方进行会议的时候,提供一种高科技的通信、协作和决策的一种现代化手段。 专业的说:视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。其交流形式为点到点,点对多点和多点对多点。 主要设备包括MCU(多点控制单元)、视频会议终端、网关、网闸和相关的配套外围设备,如显示设备、音响系统等。 2、视频会议系统协议标准 视频会议行业的国际标准是由ITU电子桌牌(国际电信联合会)和IETF(国际工程师组织)制定的。 目前视频会议行业的国际标准有H.320、H.323(ITU)和SIP(IETF)3个标准集。其中H.323是目前主流的标准。SIP是已经确定的下一代标准。 ITU-T H.320标准是关于在速率从56Kbps到2Mbps的ISDN和交换的 56Kbps电路上进行电视会议的标准。自从1990年最早通过以后,H.320成为广泛接受的关于ISDN会议电视的标准。H.320是一个"系统"标准,它包含了许多关于系统各部分的其它 ITU-T标准,下列标准是H.320的主要组成部分: H.320是一套标准,他包括视频、音频的压缩与解压缩、静止图像、多点会议、加密及一些更新的特性,主要用于系统的终端和MCU的设计。H.320标准包括H.200系列标准和T.120系列标准;H.200系列指的是视听业务,具体来说是以传送活动图像为主的通信业务.T.120系列主要针对声像业务,即传送静止图像 的通信业务。 ?ITU-T H.323标准涵盖了音频、视频及数据在以IP包为基础的网络——LAN、INTRANET、EXTRANET和INTERNET上的通讯,建立H.323标准是为了允许不同厂商的多媒体产品和应用能够互操作。对于范围广泛的基于IP网络的多媒体通信应用来说,H.323标准是非常重要的构件。另外,该标准也允许通过ISDN 和POTS与基于PPP的网络直接相连。 1996年,ITU批准了H.323规范。该标准范围广泛,涵盖了各种独立设备。个人计算机技术以及点对点和多点视频会议。标准解决了点对点及多点视频会议中诸如呼叫与会话控制,多媒体与带宽管理等许多问题。H.323为现有的企业基础设施(如IP网)电子桌牌建立了多媒体标准,设计时考虑了弥补质量保证(QOS)机制的不足,H.323使用户能使用多媒体应用而无需改变他们网络的基础结构。 SIP(会话初始协议)是IETF提出的在IP网上进行多媒体通信的应用层控制协议。SIP是IETF标准进程的一部分,它是在诸如SMTP(简单邮件传送协议)和HTTP(超文本传送协议)基础之上建立起来的。它用来建立、改变和终止基于IP网络的用户间的呼叫。 3、相对于H.323协议标准,为什么H.320标准是落后的被淘汰的? 1.终端图像与声音的编解码技术

数字视频基础知识

第三章 数字视频基础知识 3.1 视频的基础知识 在人类接受的信息中,有70%来自视觉,其中视频是最直观、最具体、信息量最丰富的。我们在日常生活中看到的电视、电影、VCD、DVD以及用摄像机、手机等拍摄的活动图像等都属于视频的范畴。 摄影机是指用胶片拍摄电影的机器,摄像机是用磁带、光盘、硬盘等作为界质记录活动影像的机器,广泛用于电视节目制作、家庭及其他各个方面。 摄影机使用胶片和机械装置记录活动影像,所采用的是光学和化学记录方式,摄象机是采用电子记录方式。 1 视频的定义 ?视频(Video)就其本质而言,是内容随时间变化的一组动态图像(25或30帧/秒),所以视频又叫作运动图像或活动图像。 ?一帧就是一幅静态画面,快速连续地显示帧,便能形运动的图像,每秒钟显示帧数越多,即帧频越高,所显示的动作就会越流畅。 『视觉暂留现象』 ?人眼在观察景物时,光信号传人大脑神经,需经过一段短暂的时间,光的作用结束后,视觉形象并不立即消失,这种残留的视觉称“后像”,视觉的这一现象则被称为“视觉暂留现象”。 ?具体应用是电影的拍摄和放映。 ?根据实验人们发现要想看到连续不闪烁的画面,帧与帧之间的时间间隔最少要达到是二十四分之一秒。 ?视频信号具有以下特点: ?内容随时间而变化 ?有与画面动作同步的声音(伴音) ?图像与视频是两个既有联系又有区别的概念:静止的图片称为图像(Image),运动的图像称为视频(Video)。 ?图像与视频两者的信源方式不同,图像的输入靠扫描仪、数字照相机等设备;视频的输入是电视接收机、

摄象机、录象机、影碟机以及可以输出连续图像信号的设备。 2.视频的分类 ?按照处理方式的不同,视频分为模拟视频和数字视频。 ?模拟视频(Analog Video) ?模拟视频是用于传输图像和声音的随时间连续变化的电信号。早期视频的记录、存储和传输都采用模拟方式,如在电视上所见到的视频图像是以一种模拟电信号的形式来记录的,并依靠模拟调幅的手段在空间传播,再用盒式磁带录像机将其作为模拟信号存放在磁带上。 ?模拟视频的特点: ?以模拟电信号的形式来记录 ?依靠模拟调幅的手段在空间传播 ?使用磁带录象机将视频作为模拟信号存放在磁带上 ?传统视频信号以模拟方式进行存储和传送然而模拟视频不适合网络传输,在传输效率方面先天不足,而且图像随时间和频道的衰减较大,不便于分类、检索和编辑。 ?要使计算机能对视频进行处理,必须把视频源即来自于电视机、模拟摄像机、录像机、影碟机等设备的模拟视频信号转换成计算机要求的数字视频形式,这个过程称为视频的数字化过程。 ?数字视频可大大降低视频的传输和存储费用、增加交互性、带来精确稳定的图像。 ?如今,数字视频的应用已非常广泛。包括直接广播卫星(DBS)、有线电视(如图5.2)、数字电视在内的各种通信应用均需要采用数字视频。 ?一些消费产品,如VCD和DVD,数字式便携摄像机,都是以MPEG视频压缩为基础的。 数字化视频的优点 ?适合于网络应用 ?在网络环境中,视频信息可方便地实现资源共享。视频数字信号便于长距离传输。 ?再现性好 ?模拟信号由于是连续变化的,所以不管复制时精确度多高,失真不可避免,经多次复制后,误差就很大。

九大视频接口全接触知识介绍

九大视频接口全接触知识介绍 1、射频 天线和模拟闭路连接电视机就是采用射频(RF)接口。作为最常见的视频连接方式,它可同时传输模拟视频以及音频信号。RF接口传输的是视频和音频混合编码后的信号,显示设备的电路将混合编码信号进行一系列分离、解码在输出成像。由于需要进行视频、音频混合编码,信号会互相干扰,所以它的画质输出质量是所有接口中最差的。有线电视和卫星电视接收设备也常用RF连接,但这种情况下,它们传输的是数字信号。 2、复合视频 不像射频接口那样包含了音频信号,复合视频(Composite)通常采用黄色的RCA(莲 花插座)接头。“复合”含义是同一信道中传输亮度和色度信号的模拟信号,但电视机如果不 能很好的分离这两种信号,就会出现虚影。 3、S端子

S端子(S-Video)连接采用Y/C(亮度/色度)分离式输出,使用四芯线传送信号,接口为四针接口。接口中,两针接地,另外两针分别传输亮度和色度信号。因为分别传送亮度和色度信号,S端子效果要好于复合视频。不过S端子的抗干扰能力较弱,所以S端子线的长度最好不要超过7米。 4、色差 色差(Component)通常标记为Y/Pb/Pr,用红、绿、蓝三种颜色来标注每条线缆和接口。绿色线缆(Y),传输亮度信号。蓝色和红色线缆(Pb和Pr)传输的是颜色差别信号。色差的效果要好于S端子,因此不少DVD以及高清播放设备上都采用该接口。如果使用优质的线材和接口,即使采用10米长的线缆,色差线也能传输优秀的画面。 5、VGA VGA(Video Graphics Array)还有一个名称叫D-Sub。VGA接口共有15针,分成3排,每排5个孔,是显卡上应用最为广泛的接口类型,绝大多数显卡都带有此种接口。它传输红、绿、蓝模拟信号以及同步信号(水平和垂直信号)。使用VGA连接设备,线缆长度最好不要超过10米,而且要注意接头是否安装牢固,否则可能引起图像中出现虚影。6、DVI DVI(Digital Visual Interface)接口与VGA都是电脑中最常用的接口,与VGA不同的是,DVI可以传输数字信号,不用再进过数模转换,所以画面质量非常高。目前,很多高清

视频会议基础知识

视频基础知识---高清晰度视频会议 高清晰度视频会议 在高清晰度编码/ 解码技术产生之前,视频会议数据是根据公用交换格式(CIF) 进行编码的。国际电信联盟-电信标准部门(ITU-T) 制定了视频标准,称为H.261 和H.263。H.261 标准只定义了QCIF 和CIF 格式。四分之一CIF (QCIF) 格式只被用于最低数据率(64 千位/ 秒及更低)的会议,今天已经很少使用。自从H.263 标准发行以来,更多使用“全分辨率”(定以为16CIF)的格式(4CIF 和16CIF)被采用。由于采用此类标准时,计算和宽带功能有限,所以,用于全动感视频会议的公用分辨率仍然是CIF 到4CIF。下面的表格列出了用于NTSC(北美)和PAL(欧洲)视频信号的H.261 和H.263 标准的相应格式分辨率。以下列出的分辨率代表4:3 的屏幕高度比。 ITU-T 最近采用了视频压缩新标准,该方法减小了整个视频文件的大小,从而文件可以更为节省地通过容量更小的网络连接(更低的数据率/ 宽带)进行传输。现在,ITU-T 建议高清晰度视频会议采用H.264 视频标准,该标准通过比较低的数据传输率提供上好的画面质量。现在,H.264 是HD-DVD(高清晰度DVD)以及广播、电缆、视频会议和消费者电子产品的强制使用的标准。下面的表格说明了H.264 标准中引入的SD和HD 分辨率。 H.264 规格是视频会议理想的工具。尽管和之前的H.26x 算法相比,它需要更强的处理能力,但是自2004年之后生产的大多数视频会议系统都包括H.264。它可提供优质的视频传输和低延时的编码和解码,从而视频流更为流畅、自然。事实上,H.264 的效率是H.263 的两倍,在特定线路速率下的视频质量也要高出一倍。此外,某些增强的H.264 规格包括互动视频的错误隐藏算法,此技术可自动调整视频操作,即便网络负担过重、不稳定或者出错率高,都可以保证操作自如,并提供更高品质的视觉享受。H.264 编码标准提供了更强的灵活性,为不同的开发商提供了进行互操作的通用平台。H.263 标准支持大量可能的变异产品,与此不同,H.264 标准只包括少量的压缩技术。这样一来,可以在不大幅度下、降视频质量的前提下更为轻易地实现来自多个生产商的不同视频会议设备的集成。

高清视频会议基本技术要求

一、技术要求 第1.1节概述 MCU要求 1.1.1MCU应符合H.323和H.320标准及SIP协议,支持H.323 V4以上版本。 1.1.2MCU应采用整机一体化的体系结构,为保证系统的高度稳定性,MCU的操作系统必 须为嵌入式操作系统,MTBF不小于100000小时。 1.1.3MCU采用中文WEB管理界面,采用图形化控制界面。无需安装客户端软件,只需 要通过帐号就可以实现对于MCU会议管理及系统配置的所有操作。 1.1.4MCU支持高清晰分辨率,可支持30帧/秒的H.264 HD(1280×720)活动视频编码 协议。 1.1.5MCU具备H.264HD视频编码,同时支持H.263、H.263+视频编码,H.263、H.264 协议的速率应达到2M。 1.1.6MCU能在同一个会议中接入标清(CIF、4CIF)及720P高清视频终端,不能降低高清 终端分辨率及声音及图像质量。 1.1.7MCU具备H.239高清(720P)双流协议,可以实现全网的双流会议,并且双流会议时 不降低会议容量。 1.1.8MCU支持终端以128Kbps/s-4Mbps/s速率接入,投标方应明确设备所支持的用户 速率范围。 1.1.9容量 1)考虑到系统可靠性、系统处理能力及今后的扩展性,MCU应至少具有24个2Mbps 速率以上终端的接入能力,能够同时召开多组会议。 1.1.10音频指标 1)投标方应说明支持的音频编码,语音编解码应符合ITU-T G.711、G.722、G.722.1 和G.728等建议。支持MPEG-4 AAC/LC的宽频声音,如果有高于上述标准的编解 码技术请详细说明。 2)投标方需给出MCU会议中同时混音的数量。混音数量不能低于4方。 3)具有自动唇音同步,误差应不可察觉,音频视频相对延迟小于40ms。 4)多个会议同时召开的时候,各个会议的声音互不影响。 1.1.11视频指标 1)视频编码应支持H.263、H.263+、H.264建议,各编码速率要求达到4M。 2)图像分辨率:支持QCIF、CIF、4CIF,HD(720P)。 3)在图像带宽上,要求在384Kb/s速率时达到25帧CIF连续运动图像,512Mbp时 达到30帧/秒连续的DVD画质,在1Mbps以上带宽时达到30帧/秒连续的720P高

视频输入输出常用接口介绍

视频输入输出常用接口介绍 随着视频清晰度的不断提升,这也促使我们对高清视频产生了浓厚的兴趣,而如果要达某些清晰度的视频就需要配备相应的接口才能完全发挥其画质。所以说视频接口的发展是实现高清的前提,从早期最常见且最古老的有线TV输入到如今最尖端的HDMI数字高清接口,前前后后真是诞生了不少接口。但老期的接口信号还在继续使用,能过信号转换器就能达到更清晰的效果,比如: AV,S-VIDEO转VGA AV,S-VIDEO转HDMI,图像提升几倍,效果更好。 从现在电视机背后的接口也能看出这点,背后密密麻麻且繁琐的接口让人第一眼看过去有点晕的感觉。今天小编就将这些接口的名称与作用做一个全面解析,希望能对选购电视时为接口而烦恼的朋友起到帮助。 TV接口

TV输入接口 TV接口又称RF射频输入,毫无疑问,这是在电视机上最早出现的接口。TV接口的成像原理是将视频信号(CVBS)和音频信号(Audio)相混合编码后输出,然后在显示设备内部进行一系列分离/ 解码的过程输出成像。由于需要较多步骤进行视频、音视频混合编码,所以会导致信号互相干扰,所以它的画质输出质量是所有接口中最差的。 AV接口 AV接口又称(RCARCA)可以算是TV的改进型接口,外观方面有了很大不同。分为了3条线,分别为:音频接口(红色与白色线,组成左右声道)和视频接口(黄色)。

AV输入接口与AV线 由于AV输出仍然是将亮度与色度混合的视频信号,所以依旧需要显示设备进行亮度和色彩分离,并且解码才能成像。这样的做法必然对画质会造成损失,所以AV接口的画质依然不能让人满意。在连接方面非常的简单,只需将3种颜色的AV线与电视端的3种颜色的接口对应连接即可。 总体来说,AV接口实现了音频和视频的分离传输,在成像方面可以避免音频与视频互相干扰而导致的画质下降。AV接口在电视与DVD连接中使用的比较广,是每台电视必备的接口之一。 S端子 S端子可以说是AV端子的改革,在信号传输方面不再将色度与亮度混合输出,而是分离进行信号传输,所以我们又称它为“二分量视频接口”。

视频会议系统基础知识

基本形态 一般的视频会议系统包括MCU多点控制器(视频会议服务器)、会议室终端、PC 桌面型终端、电话接入网关(PSTNGateway)、Gatekeeper(网闸)等几个部分。各种不同的终端都连入MCU进行集中交换,组成一个视频会议网络。 (1)多点处理单元(MCU) MCU是视频会议系统的核心部分,为用户提供群组会议、多组会议的连接服务。目前主流厂商的MCU一般可以提供单机多达64个用户的接入服务,并且可以进行级联,可以基本满足用户的使用要求。MCU的使用和管理不应该太复杂,要使客户方技术部甚至行政部的一般员工能够操作。 (2)大中小型会议室终端产品(End Ponint) 大中小型会议室终端产品是提供给用户的会议室使用的,设备自带摄像头和遥控键盘,可以通过电视机或者投影仪显示,用户可以根据会场的大小选择不同的设备。一般会议室设备带SONY或CANON的专用摄像头,可以通过遥控方式前后左右转动从而覆盖参加会议的任何人和物。 (3)桌面型(PC)终端产品 直接在电脑上举行视频会议,一般配置费用比较低的PC摄像头,现已支持几十点几百点甚至上千点的会议。由于PC已经是办公的标准配置,桌面会议终端不需要增加很多的硬件投入。而会议室型终端也只需要购买比较高性能的PC和视频采集卡即可,其成本也低于普通的硬件视频终端。国内的网络视频会议厂商已经率先推出saas模式的会议系统,创新式的推出租用服务,更是让网络视频会议的成本降到一般企业可以接收的范围内。由于基于Windows操作系统,可以在召开视频会议的同时实现电子白板、程序共享、文件传输等数据会议功能,作为会议的辅助工具。 (4)电话接入网关(PSTN Gateway) 用户直接通过电话或手机在移动的情况下加入视频会议,这点对国内许多领导和出差多的人尤其重要。可以说今后将成为视频会议不可或缺的功能。 此外,视频会议系统一般还具有录播功能。能够进行会议的即时发布并且会议内容能够即时记录下来。基于现时流行的会议信息资料的要求,本系统能够支持演讲者电脑中电子资料PPT 文档、FLASH、IE浏览器及DVD等视频内容,也包括音频的内容等、会议中领导嘉宾视频画面、会场参与者视频画面的同步录制。

图像及视频基础知识

图像及视频基础知识 光和颜色 1 光和颜色 可见光是波长在380 nm~780 nm 之间的电磁波,我们看到的大多数光不是 一种波长的光,而是由许多不同波长的光组合成的。如果光源由单波长组成,就称为单色光源。该光源具有能量,也称强度。实际中,只有极少数光源是单色的,大多数光源是由不同波长组成,每个波长的光具有自身的强度。这称为光源的光谱分析。 颜色是视觉系统对可见光的感知结果。研究表明,人的视网膜有对红、绿、 蓝颜色敏感程度不同的三种锥体细胞。红、绿和蓝三种锥体细胞对不同频率的光的感知程度不同,对不同亮度的感知程度也不同。 自然界中的任何一种颜色都可以由R,G,B 这3 种颜色值之和来确定,以这三种颜色为基色构成一个RGB 颜色空间,基色的波长分别为700 nm(红色)、546.1nm(绿色)和435.8 nm(蓝色)。 颜色=R(红色的百分比)+G(绿色的百分比)+B(蓝色的百分比) 可以选择不同的三基色构造不同的颜色空间,只要其中一种不是由其它两种 颜色生成。例如Y(Yellow,黄色),C( Cyan,青色),M(Magenta,品红)。 2 颜色的度量 图像的数字化首选要考虑到如何用数字来描述颜色。国际照明委员会CIE (International Commission on Illumination )对颜色的描述作了一个通用的定义,用颜色的三个特性来区分颜色。这些特性是色调,饱和度和明度,它们是颜色所固有的并且是截然不同的特性。 色调(hue)又称为色相,指颜色的外观,用于区别颜色的名称或颜色的种类。 色调用红、橙、黄、绿、青、蓝、靛、紫等术语来刻画。用于描述感知色调的一个术语是色彩(colorfulness)。 饱和度(saturation)是相对于明度的一个区域的色彩,是指颜色的纯洁性, 它可用来区别颜色明暗的程度。完全饱和的颜色是指没有渗入白光所呈现的颜色,例如仅由单一波长组成的光谱色就是完全饱和的颜色。 明度(brightness)是视觉系统对可见物体辐射或者发光多少的感知属性。它 和人的感知有关。由于明度很难度量,因此国际照明委员会定义了一个比较容易度量的物理量,称为亮度(luminance) 来度量明度,亮度(luminance)即辐射的能量。明度的一个极端是黑色(没有光),另一个极端是白色,在这两个极端之间

日常生活中的音视频功能端口基础知识

Composite Video Output(模拟信号) 复合视频端子也叫AV端子或者Video端子,是声、画分离的视频端子,一般由三个独立的RCA插头(又叫梅花接口RCA端子)组成的,其中的V接口连接混合视频信号,为黄色插口;L接口连接左声道声音信号,为白色插口;R接口连接右声道声音信号,为红色插口。 S-Video Output(不适用于高清视频,其信号最高分辨率有限) S端子也是非常常见的端子,其全称是Separate Video,也称为SUPER VIDEO。S端子实际上是一种五芯接口,由两路视亮度信号、两路视频色度信号和一路公共屏蔽地线共五条芯线组成 HDMI Output 高清晰度多媒体接口(英文:High Definition Multimedia Interface,HDMI)是一种数字化视频/音频接口技术,是适合影像传输的专用型数字化接口,其可同时传送音频和影音信号,最高数据传输速度为5Gbps。同时无需在信号传送前进行数/模或者模/数转换。 DVI DVI的英文全名为Digital Visual Interface,中文称为“数字视频接口”。是一种视频接口标准,设计的目标是通过数字化的传送来强化个人电脑显示器的画面品质。

RJ45 / Ethernet RJ45 型网线插头又称水晶头,共有八芯做成,广泛应用于局域网和ADSL 宽带上网用户的网络设备间网线(称作五类线或双绞线)的连接。10 100base tx RJ45接口是常用的以太网接口,支持10兆和100兆自适应的网络连接速度,常见的RJ45接口有两类:用于以太网网卡、路由器以太网接口等的DTE类型,还有用于交换机等的DCE类型。 常见音视频格式: MP3全称是动态影像专家压缩标准音频层面3(Moving Picture Experts Group Audio Layer III)。是当今较流行的一种数字音频编码和有损压缩格式,它设计用来大幅度地降低音频数据量WMA(Windows Media Audio)是微软公司推出的与MP3格式齐名的一种新的音频格式。由于WMA在压缩比和音质方面都超过了MP3 Dolby Digital杜比数字技术(英文名称:Dolby Digital),是杜比实验室发布的新一代家庭影院环绕声系统。其数字化的伴音中包含左前置、中置、右前置、左环绕、右环绕5个声道的信号。它是DVD-Video影碟的指定音频标准。广泛应用于卫星电视机顶盒、数字有线等领域。Dolby Digital Plus 杜比数字+技术是专为所有的高清节目与媒体所设计的下一代音频技术。杜比数字+技术建立在杜比数字技术的基础之上,杜比数字技术是全世界DVD和高清广播节目的多声道音频标准。 Dolby TrueHD 杜比TrueHD是专为高清光盘媒体所开发的下一代无损压缩技术。特点100%无损的编码技术。码率高达18 Mbps。支持多达八个分离式24比特/96 kHz全频带声道。 碟片类型种类: CD 英语:Compact Disc),是一种用以储存数字资料的光学碟片。容量:700MB CD-R Compact Disk-Recordable, CD-R是一种一次写入、永久读的标准。其工作原理是通过激光照射到盘片上的“凹陷”和“平地”其反射光的变化来读取的;CD-ROM的“凹陷”是印制的,而CD-R是由刻录机烧制而成。 CD-RW 可擦写光盘。盘片由于采用了相变技术,它的激光反射率比一般的CD盘片要低很多。D-RW驱动器的激光头有两种波长设置,分别为写(P-Write)和擦除(P-Eraze),刻录时(500~700摄氏度)使该物质的分子自由运动,多晶结构被改变,呈现一种非晶状(随即)状态(反射率只有5%)。而擦除数据就利用(200℃)温度让刻录层物质恢复到多晶结构(即CD-RW 光盘初始状态)。 DVD 数字多功能光盘(英文:Digital Versatile Disc),简称DVD,是一种光盘存储器,通常用来播放标准电视机清晰度的电影,高质量的音乐与作大容量存储数据用途。 DVD-R 采用有机染料的方法制成,容量:4.7GB。 DVD-RW 可重写超过1,000次。容量都是4.7GB

HDM基础知识

HDMI基础知识 DVI的缺点是没有附带Audio音频联接,而且DVI的接口插座是沿袭以前的一些插座模式(例如什么P&D、DFP ...),显得有些大。大家都知道如今计算机多媒体常用的IEEE1394以及USB接口吧,都很小、轻灵。但它们的速度也不慢啊。DVI 的下一代继承者:HDMI 出现了,解决了俺说的上述问题。本图相片中的插座只有DVI-D,还没有HDMI 插座: HDMI 的样式: 与大家经常玩的USB接口、IEEE1394 接口以及一些数码相机的接口相仿,但是内含全部Video视频,Audio 音频联接信号。麻雀虽小,五脏俱全。承担将来的HDTV 高清晰数字电视信号传输也绰绰有余,大家不必担心:)

HDMI 肯定会替代DVI 的,HDMI 发扬光大了DVI 的特点(数字视频信号TMDS传输),并融入了AUDIO (数字音频信号传输)。所以HDMI =VIDEO+HDCP+AUDIO (数字视频,版权保护,数字音频)。 出于向下兼容的考虑,HDMI兼容DVI,所以有许多可行的解决方案,例如:从视频源(HTPC、影碟机、机顶盒等)处的DVI-D 信号,汇集别处的音频源的音频信号,一起接驳在终端的HDMI接口处。 还可以由信号源(例如影碟机、机顶盒等)的HDMI接口处,将视频和音频信号分离(剥离),分别供给你的音视频终端:例如影碟机的HDMI 输出中的视频给DVI 接口的投影仪,同时影碟机的HDMI 输出中的音频供给AV Receiver (功放),你看不矛盾吧^_^

HDMI支持标准、增强、以及高清晰数字电视视频、以及标准立体声、多声道环绕立体声数字音频格式。 HDMI支持未经压缩的数字视频信号,注意是“未经压缩”,那可是“纯正”高保真哪!同样HDMI是被那些联盟的成员一起开发的,自然少不了Silicon Image (竟跟他们打交道了) 。具备HDMI 的机器已经面世: 大家看到两个机器背面的 HDMI 输出接口/插座了吧。右侧的那台机器的 DCDI 标志的右边,就是 HDMI OUT 。HDMI 目前已经有1.1 的版本了。现在已经有具备HDMI 的家用型器材面世了。相继的配套线缆也会普及的……

视频会议系统基础知识

基本形态一般的视频会议系统包括MCI多点控制器(视频会议服务器)、会议室终端、PC 桌面型终端、电话接入网关(PSTNGateway) Gatekeeper(网闸)等几个部分。各种不同的终端都连入MCI进行集中交换,组成一个视频会议网络。 ⑴多点处理单元(MCU) MCI是视频会议系统的核心部分,为用户提供群组会议、多组会议的连接服务。 目前主流厂商的MCI一般可以提供单机多达64个用户的接入服务,并且可以进行级联,可以基本满足用户的使用要求。MCU勺使用和管理不应该太复杂,要使客户方技术部甚至行政部的一般员工能够操作。 ⑵大中小型会议室终端产品(End Ponint ) 大中小型会议室终端产品是提供给用户的会议室使用的,设备自带摄像头和遥控 键盘,可以通过电视机或者投影仪显示,用户可以根据会场的大小选择不同的设备。一般会议室设备带SONY或CANO的专用摄像头,可以通过遥控方式前后左右转动从而覆盖参加会议的任何人和物。 (3)桌面型(PC)终端产品 直接在电脑上举行视频会议,一般配置费用比较低的PC摄像头,现已支持几十 点几百点甚至上千点的会议。由于PC已经是办公的标准配置,桌面会议终端不需要增加很多的硬件投入。而会议室型终端也只需要购买比较高性能的PC和视频采集卡即可,其成本也低于普通的硬件视频终端。国内的网络视频会议厂商已经率先推出saas模式的会议系统,创新式的推出租用服务,更是让网络视频会议的成本降到一般企业可以接收的范围内。由于基于Windows操作系统,可以在召开视频会议的同时实现电子白板、程序共享、文件传输等数据会议功能,作为会议的辅助工具。 ⑷电话接入网关(PSTN Gateway) 用户直接通过电话或手机在移动的情况下加入视频会议,这点对国内许多领导和 出差多的人尤其重要。可以说今后将成为视频会议不可或缺的功能。 此外,视频会议系统一般还具有录播功能。能够进行会议的即时发布并且会议内容能够即时记录下来。基于现时流行的会议信息资料的要求,本系统能够支持演讲者电脑中电子资料PPT文档、FLASH IE浏览器及DVD等视频内容,也包括音频的内容等、会议中领导嘉宾视频画面、会场参与者视频画面的同步录制。

常用视频接口详解

常用视频接口详解 ● 必备接口: ·HDMI接口:是最新的高清数字音视频接口,收看高清节目,只有在HDMI通道下,才能达到最佳的效果,是高清平板电视必须具有的基本接口。 ·DVI接口:是数字传输的视频接口,可将数字信号不加转换地直接传输到显示器中。 ·色差分量接口:是目前各种视频输出接口中较好的一种。 ·AV接口:AV接口实现了音频和视频的分离传输,避免了因音/视频混合干扰而导致的图像质量下降。 ·RF输入接口:是接收电视信号的射频接口,将视频和音频信号相混合编码输出,会导致信号互相干扰,画质输出质量是所有接口中最差的。 ● 实用接口: ·光纤接口:使用这种接口的平板电视不通过功放就可以直接将音频连接到音箱上,是目前最先进的音频输出接口。 ·RS-232接口:是计算机上的通讯接口之一,用于调制解调器、打印机或者鼠标等外部设备连接。带此接口的电视可以通过这个接口对电视内部的软件进行维护和升级。 ·VGA接口:是源于电脑显卡上的接口,显卡都带此种接口。VGA就是将模拟信号传输到显示器的接口。 ·S端子:是AV端子的改革,在信号传输方面不再对色度与亮度混合传输,这样就避免了设备内信号干扰而产生的图像失真,能够有效地提高画质的清晰程度。 ● 可选接口: ·USB接口:是目前使用较多的多媒体辅助接口,可以连接U盘、移动硬盘等设备。 ·蓝牙接口:是一种短距的无线通讯技术,不需要链接实现了无线听音乐,无线看电视。 ·耳机接口:使用电视无线耳机可在电视静音的情况下,自由欣赏精彩节目。 ● 趋势接口: ·DisplayPort接口:可提供的带宽就高达10.8Gb/s,也允许音频与视频信号共用一条线缆传输,支持多种高质量数字音频。 ● 必备接口:什么是HDMI接口? HDMI是新一代的多媒体接口标准,全称是High-Definition Multimedia InteRFace,中文意思为高清晰多媒体接口,该标准由索尼、日立、松下、飞利浦、东芝、Silicon image、Thomson (RCA)等7家公司在2002年4月开始发起的。其产生是为了取代传统的DVD碟机、电视及其它视频输出设备的已有接口,统一并简化用户终端接线,并提供更高带宽的数据传输速度和数字化无损传送音视频信号。

视频会议基础知识培训

...../ ...../ 扫盲级培训基础知识文档资料一 (视频会议基础知识篇) 1、什么是视频会议 通俗的说:视频会议系统就是为人们无法聚集到同一个地方进行会议的时候,提供一种高科技的通信、协作和决策的一种现代化手段。 专业的说:视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。其交流形式为点到点,点对多点和多点对多点。 主要设备包括MCU(多点控制单元)、视频会议终端、网关、网闸和相关的配套外围设备,如显示设备、音响系统等。 2、视频会议系统协议标准 视频会议行业的国际标准是由ITU(国际电信联合会)和IETF(国际工程师组织)制定的。

目前视频会议行业的国际标准有H.320、H.323(ITU)和SIP(IETF)3个标准集。其中H.323是目前主流的标准。SIP是已经确定的下一代标准。 ITU-T H.320是关于在从56Kbps到2Mbps的ISDN和交换的56Kbps电路上进行电视会议的标准。自从1990年最早通过以后,H.320成为广泛接受的关于ISDN会议电视的标准。H.320是一个"系统"标准,它包含了许多关于系统各部分的其它ITU-T标准,下列标准是H.320的主要组成部分: H.320是一套标准,他包括视频、音频的压缩与解压缩、静止图像、多点会议、加密及一些更新的特性,主要用于系统的终端和MCU的设计。H.320标准包括H.200系列标准和T.120系列标准;H.200系列指的是视听业务,具体来说是以传送活动图像为主的通信业务.T.120系列主要针对声像业务,即传送静止图像的通信业务。 ITU-T H.323标准涵盖了音频、视频及数据在以IP包为基础的网络——LAN、INTRANET、EXTRANET和INTERNET上的通讯,建立H.323标准是为了允许不同厂商的多媒体产品和应用能够互操作。对于范围广泛的基于IP网络的多媒体通信应用来说,H.323标准是非常重要的构件。另外,该标准也允许通过ISDN和POTS与基于PPP的网络直接相连。 1996年,ITU批准了H.323规范。该标准范围广泛,涵盖了各种独立设备。个人计算机技术以及点对点和多点视频会议。标准解决了点对点及多点视频会议中诸如呼叫与会话控制,多媒体与带宽管理等许多问题。H.323为现有的企业基础设施(如IP网)建立了多媒体标准,设计时考虑了弥补质量保证(QOS)机制的不足,H.323使用户能使用多媒体应用而无需改变他们网络的基础结构。

影视合成基础知识

一、色彩知识 (一)色彩模式 1、RGB色彩模式:是由红、绿、蓝三原色组成的色彩模式。所谓三原色是指不能由其他色彩组合而成的色彩。 2、灰度模式属于非彩色模式。 3、LAB模式是用来从一种颜色模式向另外一种颜色模式转变的内部颜色模式。由三个通道组成:一个亮度和两个色度通道A和B组成,其中A代表从绿到红,B代表从蓝到黄。 4、HSB模式色相:区分色彩的名称。饱和度:某种颜色的浓度含量。饱和度越高,颜色的强度也就越高。亮度:颜色中光的强度表述。 (二)图形、像素和分辨率 1、计算机图形可分为两种类型:位图图形和矢量图形。位图图形也叫光栅图形,通常也称之为图像,它由大量的像素组成。位图图形是依靠分辨率的图形,每一幅都包含着一定数量的像素。矢量图形是与分辨率无关的独立的图形。它通过数学方程式得到的,由矢量所定义的直线和曲线组成。例如徽标在缩放到不同大小时都保持清晰的线条。 2、像素:像素是构成图形的基本元素,它是位图图形的最小单位。像素有以下三种特性:像素与像素间有相对位置;像素具有颜色能力,可以用位来度量,像素都是正主形的;像素的大小是相对的,它依赖于组成整幅图像像素的数量多少。 3、分辨率:分辨率是指图像单位面积内像素的多少。分辨率越高,则图像越清晰。 (三)颜色深度 图像中每个像素可显示出的颜色数称作颜色深度,通常有以下几种颜色深度标准:1、24位真彩色:每个像素所能显示的颜色数为24位,也就是2的24次方,约有1680万种颜色;2、16位增强色:增强色为16位颜色,每个像素显示的颜色数为2的16次方,有65536种颜色;3、8位色:每个像素显示的颜色数为2的8次方,有256种颜色。 (四)Alpha通道 视频编辑除了使用标准的颜色深度外,还可以使用32位颜色深度。32位颜色深度实际上是在24位颜色深度上添加了一个8位的灰度通道,为每一个像素存储透明度信息。这个8位灰度通道被称为Alpha通道。 二、视频基础 (一)非线性编辑 简单地说就是使用计算机对视频进行处理通常称为非线性编辑,指应用计算机图形、图像技术,在计算机中对各种原始素材进行各种编辑操作,并将最终结果输出到计算机硬盘、光盘等记录设备上这一系列完整的工艺过程。 (二)非线性编辑的应用范围

相关主题
相关文档 最新文档