网络音频基础
- 格式:pptx
- 大小:5.92 MB
- 文档页数:47
网络音视频基础知识考核题1.以下哪一项不是视频文件封装格式?Ca)AVIb)MP4c)AVCd)MPEG-TS2.以下哪一项不是音视频编码格式?Ba)Window Media Video Codec 9b)MPEG-PSc)HE-AACd)MPEG-23.以下哪一项为Flash Media Encoder录制文件格式?Da)MP4b)M4Vc)MOVd)F4V4.Adobe Flash Player不支持以下哪种音视频格式?Da)MP4:AVC+AACb)3GP:AVC+AMR-NBc)FLV:H263+MP3d)MOV: AVC+AAC5.Apple手持终端(iphone,ipod,ipad)本地播放器支持以下哪种视频编码?Ba)H.264+MP3b)H.264+AACc)OnVP6+MP3d)H.263+AAC6.以下哪一项不属于H.264视频编码标准框架(Profile)?Da)Baseline Profileb)Main Profilec)High Profiled)MEI Profile7.视频关键帧又称?Aa)I Frameb) B Framec)P Framed) A Frame8.如果设置视频编码帧速率为29.97fps,需要每秒2个关键帧,则每隔多少帧需设置一个关键帧?Aa)10b)15c)20d)309.以下哪套编码设置是Flash Media Encoder不支持的?Da)H.264+MP3,350K+32K,15fps,22050,320x240b)H.264+MP3,350K+32K,15fps,22050,320x240H.264+MP3,500K+64K,25fps,44100,480x320c)H.264+MP3,500K+64K,25fps,44100,480x320H.264+MP3,800K+64K,25fps,44100,640x480d)ONVP6+MP3,300K+32K,12fps,22050,480x320ONVP6+MP3,400K+32K,12fps,22050,320x240ONVP6+MP3,500K+32K,12fps,22050,240x18010.以下哪套编码设置是Wirecast不支持的?Da)H.264+AAC,350K+32K,15fps,22050,320x240b)H.264+AAC,350K+32K,15fps,22050,320x240H.263+MP3,500K+64K,25fps,44100,480x320c)H.264+AAC,500K+64K,25fps,44100,480x320H.264+AAC,800K+128K,15fps,22050,640x480d)H.264+AAC,300K+32K,12fps,22050,480x320H.264+AAC,500K+64K,15fps,44100,640x480WMV9+WMA9,500K+48K,25fps,29.97,320x24011.如果设置音视频编码码率为500kb+64kb,则录制一小时后文件预估大小为?Ca)150 MBb)200 MBc)250 MBd)300 MB12.Wowza Media Server不支持以下哪种播出协议?Da)RTMPb)RTSPc)HTTPd)TCP13.Wowza Media Server不支持以下哪种播放终端?Ca)Adobe Flash Player 9以上b)iOS Player 3.0以上c)Windows Media Player 11以上d)Sliverlight 3以上14.渐进式下载播放与流媒体播放都各自有什么特点?列举出至少三点。
音频,英文是AUDIO,也许你会在录像机或VCD的背板上看到过AUDIO输出或输入口。
这样我们可以很通俗地解释音频,只要是我们听得见的声音,就可以作为音频信号进行传输。
有关音频的物理属性由于过于专业,请大家参考其他资料。
自然界中的声音非常复杂,波形极其复杂,通常我们采用的是脉冲代码调制编码,即PCM编码。
PCM通过采样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。
一、音频基本概念1、什么是采样率和采样大小(位/bit)。
声音其实是一种能量波,因此也有频率和振幅的特征,频率对应于时间轴线,振幅对应于电平轴线。
波是无限光滑的,弦线可以看成由无数点组成,由于存储空间是相对有限的,数字编码过程中,必须对弦线的点进行采样。
采样的过程就是抽取某点的频率值,很显然,在一秒中内抽取的点越多,获取得频率信息更丰富,为了复原波形,一次振动中,必须有2个点的采样,人耳能够感觉到的最高频率为20kHz,因此要满足人耳的听觉要求,则需要至少每秒进行40k次采样,用40kHz表达,这个40kHz就是采样率。
我们常见的CD,采样率为。
光有频率信息是不够的,我们还必须获得该频率的能量值并量化,用于表示信号强度。
量化电平数为2的整数次幂,我们常见的CD位16bit的采样大小,即2的16次方。
采样大小相对采样率更难理解,因为要显得抽象点,举个简单例子:假设对一个波进行8次采样,采样点分别对应的能量值分别为A1-A8,但我们只使用2bit的采样大小,结果我们只能保留A1-A8中4个点的值而舍弃另外4个。
如果我们进行3bit的采样大小,则刚好记录下8个点的所有信息。
采样率和采样大小的值越大,记录的波形更接近原始信号。
2、有损和无损根据采样率和采样大小可以得知,相对自然界的信号,音频编码最多只能做到无限接近,至少目前的技术只能这样了,相对自然界的信号,任何数字音频编码方案都是有损的,因为无法完全还原。
在计算机应用中,能够达到最高保真水平的就是PCM编码,被广泛用于素材保存及音乐欣赏,CD、DVD以及我们常见的WAV文件中均有应用。
数字音频网络IP化的原理及应用1. 引言在数字化时代,音频领域也迎来了数字化的浪潮。
数字音频网络IP化成为了音频行业的重要趋势。
本文将介绍数字音频网络IP化的原理和应用,并深入探讨其优势和挑战。
2. 数字音频网络IP化的原理数字音频网络IP化是指将音频信号通过网络传输,并利用IP协议进行管理和控制的过程。
它基于数字音频技术和计算机网络技术,实现了音频信号的数字化和网络化。
2.1 数字音频技术数字音频技术将模拟音频信号转换为数字数据。
通过采样、量化和编码等过程,将连续的模拟音频信号转换为数字音频数据。
这种数字音频数据可以更加稳定地在网络中传输,并且可以方便地进行处理和存储。
2.2 计算机网络技术计算机网络技术提供了音频信号在网络中传输的基础。
通过建立网络连接和使用网络协议,可以将数字音频数据传输到目标设备。
IP协议是网络传输中常用的协议之一,它提供了数据的分组传输和路由选择功能,非常适合用于音频信号的传输。
2.3 数字音频网络IP化的原理数字音频网络IP化的原理包括两个方面:音频数据的数字化和网络传输的管理和控制。
2.3.1 音频数据的数字化音频数据的数字化是将模拟音频信号转换为数字音频数据的过程。
这一过程包括三个主要步骤:采样、量化和编码。
•采样:采样是指对模拟音频信号进行离散化处理,将连续的模拟信号转换为离散的数字信号。
采样率决定了采样点的数量,常用的采样率有44.1kHz、48kHz等。
•量化:量化是指将采样后的离散信号映射到有限的离散值上。
通过量化,可以将模拟音频信号的连续取值转换为离散的数字取值。
常用的量化位数有16位、24位等。
•编码:编码是将量化后的数字信号表示为二进制数据的过程。
常用的音频编码算法有PCM、MP3等。
2.3.2 网络传输的管理和控制网络传输的管理和控制是使用网络协议将数字音频数据传输到目标设备的过程。
IP协议可以提供数据分组的传输和路由选择功能,将音频数据从发送端传输到接收端。
本文详细介绍了组建AES67音频网络的几个基础及其需要注意的地方,对PTP 同步和组播数据的分发进行了深入分析,同时提出了构建该类AoIP 网络时需要注意的地方。
AES67 AoIP PTP 组播一 关键概念介绍AES67旨在采用COTS 通用交换机为基础架构,构建通用的音频数据交换网络。
假如网络配置正确,音频数据流和其他数据流可以共享在一个网络中,同时不会影响用户的整体使用体验。
AES67音频网络主要依靠以下四个基础来建立: z 同步; z 组播数据包传输; z 服务质量; z 会话信息。
1. 同步AES67网络实现同步的关键是在该网络的所有节点中传输精度足够高的参考时间(wall clock time ,指以PTP 纪元时间1970年1月1日零时为时基计算的参考时间数值),同时AES67标准规定了使用IEEE 1588-2008标准(亦称作PTP v2)传输同步时间。
这里要注意的是,PTP v2与PTP v1(IEEE 1588-2002)并不兼容。
PTP v2中包含最佳主时钟算法,它确保了最优时钟被选为网络中所有节点的主时钟。
当某节点与由主时钟衍生的参考时间同步后,任何地方所需的媒体时钟都可以由此节点生成。
如果网络同步的精度足够高,所有本地生成的媒体时钟将具有相同的采样频率,甚至它们还可以准确地相互锁定。
使用PTP 同步可以达到亚微秒级别范围内的精度(指的是本地时钟对于主时钟来说的偏差值),然而在大多数情况下这需要部署PTP 感知交换机来实现。
所幸的是,大多2. 组播数据包传输PTP 同步是基于组播数据包传输的,AES67标准要求组播流支持音频数据的传输。
一般通用交换机都支持组播流传输,但只有管理型交换机(Managed Switches )可以提供组播管理并有效避免网络风暴。
非管理型交换机(或配置不当的管理型交换机)会将组播流当成广播流进行处理,将所有输入的组播数据包转发到交换机的所有端口。
音频入门知识声音的概念.1. 声音是一种机械振动状态的传播现象,它表现为一种机械被即声波。
产生声波的条件:a) 有作机械振动的物体:声源 b) 有能传播机械振功的弹性介质 声波示意(L. A. Rowe )2.声波频率声压变化可以是周期性的和非周期性 频率概念循环(cycle)- 压缩/稀薄过程 频率(frequency):每秒cycle 数,单位 hertz (Hz) 周期 – cycle 的持续时间 (1/frequency)声音信号一般由许多频率不同的信号组成,称为复合信号;而单一频率的信号称为分量信号时间幅度频率范围频率小于20Hz 一般称为次声波(subsonic)人的听觉器官能感知的声音频率范围约为20Hz~20kHz的信号称为音频(Audio)信号人发音器官发声频率约是80~3400Hz,但人说话的信号频率约为300~3000Hz,即话音(speech)信号高于20kHz的信号称为超声波 (ultrasonic)超声波及次声波一般不能引起人听觉器官的感觉,但可借助一些仪器设备进行观察和测量乐音与噪音1.一般乐音指具有确定的基频以及与该基频有较小整数倍关系的各阶谐频(harmonic tone)2.频率比基音高的所有分音统称泛音(over tone),泛音的频率不必与基音成整数倍关系3.在主观上把令人不愉快或不需要的声音定义为噪音4.噪音的频谱较为复杂,具有无规则的振幅和波形的连续频谱声音三要素1.响度(音响)loudness到达人耳的声扰动振幅所产生的听觉的大小声振动能量是物理特性,可用声强(sound pressure)定义,单位:帕斯卡 (Pa)实用上通常都以对数方式的声压级 (sound pressure level)表示,单位:分贝(db)响度是主观量,不能用任何仪器正确地测量声音响度使用了以两个声强之比的对数为基础的相对标度,单位:宋(sone)2.音调(音高)pitch或tone人对声音刺激频率的主观判断与估量,称之为音调 (Pitch),单位:美(Mel)Frequency是物理量,而音调是人的感觉听觉经验一般女生的声音比男生高较大物体振动的音调较低3.音色(音质)timber由其频谱决定: 不同乐器发出同一音高的乐音,仍然可以分辨可以把音色描述为音的瞬时横截面,即用谐音(泛音)的数目、强度、分布和相位来描述。
AOIP网络音频技术在广播电台的应用摘要在传统的音频传输技术中,主要是将数字电缆以及光纤等进行点对点的连接,然而随着计算机技术的不断发展,网络技术的音频信号传输也更加的成熟。
这种传输技术极大的改变了媒体行业以及广播机构的音频传输基础架构,促进了相关行业的进一步发展。
本文主要围绕AOIP网络音频技术,就其在广播电台中的应用进行探究。
关键词AOIP;网络音频技术;广播电台前言为了迎合市场的需求,基于IP的网络音频传输技术取得了较大的发展,该技术是基于OSI的三层协议设计,故此能够进行跨网传输,甚至可以在WAN中传输,这种技术也被人们称为AOIP技术。
下文就该技术在广播电台中的应用进行分析。
1 AOIP技术的相关概述在阐述AOIP技术之前,就需要说到OSI网络模型。
从底层向上,OSI参考模型分为七层[1],主要为:①物理层、②数据链路层、③网络层、④传输层、⑤会话层、⑥表示层、⑦应用层。
物理层就是为硬件的物理链路提供电子特性,数据链路层就是逻辑连接,对网络的类型进行定义。
如,数据链路层定义这是一个异步传输模式网还是一个以太网。
数据链路分为以下两个子层:①逻辑链路控制层;②媒体访问控制层。
至于网络层,主要进行网络的路由操作,将数据打包或者分包,并且提供路由信息。
在这一层,其公共协议主要是Internet协议。
传输层主要提供了决定传送方式的协议。
AOIP网络音频技术就是在这四层基础上的应用,该音频技术具备跨网段传输的能力,甚至能够在广域网上进行传输。
AOIP就是以开放的标准技术为基础,充分利用现有的网络架构,或者是利用网络基础设施,从而达到音频数据的网络传输这一最终目的。
2 AOIP网络音频技术的应用2.1 远程的音频传输随着网络技术的不断发展,增强了市场的激烈竞争,这就使得网络设备的成本不断下降。
与传统的音频线缆的布线结构相比,采用AOIP网络音频技术节约了大量的线材,节省了施工工作量。
该技术应用了开放标准的网络技术,是以现有的网络架构为基础,在其中进行开发设计。