基于MPEG-7的视频描述的研究与实现
- 格式:doc
- 大小:23.50 KB
- 文档页数:6
MPEG-7标准介绍(doc 8页)第三章MPEG-7标准介绍MPEG-7[18]的正式名称为“多媒体内容描述接口”(Multimedia Content Description Interface)。
其制定目标就是通过制定一组标准的描述符(Descriptor) 及其描述方案(Description Scheme)来为不同类型的多媒体信息提供一套描述多媒体内容数据的标准化工具集, 使得内容描述与媒体内容结合, 构造一个统一的、标准的多媒体检索平台来支持基于内容的快速、高效的检索, 满足实时、非实时以及推拉应用的需求。
本章介绍了MPEG-7目标和对象、体系结构、描述工具、描述定义语言及系统工具。
3.1 MPEG-7 目标和对象MPEG-7标准的目的是要制定一种针对各类多媒体信息的描述标准。
该描述与内容有关,并能够达到快速高效地搜索用户感兴趣的素材。
无论描述的形式如何,描述都可以附在任何一种多媒体素材之后。
具有此种附加信息的存储素材就可以被方便地索引和搜索了。
尽管MPEG-7描述与被描述内容的表达方式无关,但在一定程度上还是依赖于MPEG-7标准,在该标准中提供了一种将声音图像内容作为在时间(同步)和空间(屏幕)上有一定联系的对象来编码的方法。
MPEG-7定义的“多媒体”含义十分广泛,包括:1.客观类:图像、图表、文本、三维模型、音频、语音、视频等。
2.主观类:对对象/事件的概括、人的感性色彩等。
3.合成类:各种元素之间的有机结合以构成一个真正意义上的多媒体演示。
如人的面部表情、性格特征、以至一段电影的主题都是MPEG-7中的数据类型之一。
为此,MPEG-7定义了“标准描述子集合(Standard Set of Descriptors)”用于描述各种类型的多媒体数据,与之相应的“描述方案(Description Schemes)”用于规范多媒体描述子的生成和不同描述子之间的有机联系。
这些描述子与所指定的多媒体对象的内容紧密联系,采用提取对象特征的方法为实现基于内容的语义的准确检索提供了接口。
mpeg是什么标准MPEG是什么标准?MPEG,全称为Moving Picture Experts Group,是一种数字视频和音频压缩标准,它是一种压缩技术,用来减小视频和音频文件的大小,以便更容易存储和传输。
MPEG标准是由国际标准化组织ISO/IEC制定的,它是一种通用的压缩标准,被广泛应用于数字电视、DVD、数字音频播放器、数字广播等领域。
MPEG标准的发展可以追溯到20世纪80年代初。
当时,视频和音频文件的传输和存储需要大量的存储空间和带宽,这给数字媒体的发展带来了很大的困难。
为了解决这个问题,国际标准化组织成立了Moving Picture Experts Group,并开始着手制定一种数字视频和音频压缩标准,从而推动数字媒体的发展。
MPEG标准的主要特点是高压缩比和高质量的压缩。
通过MPEG标准,可以将视频和音频文件的大小减小到原始大小的几分之一甚至更小,同时保持较高的视听质量。
这使得视频和音频文件更容易存储和传输,也为数字媒体的发展提供了强大的支持。
MPEG标准包括了一系列的压缩技术和编码格式,其中最著名的是MPEG-1、MPEG-2和MPEG-4。
MPEG-1是最早的MPEG标准,它主要用于VCD(Video CD)和MP3等格式;MPEG-2则广泛应用于DVD、数字电视和数字广播等领域;而MPEG-4则是一种更为先进的压缩技术,支持更高的压缩比和更丰富的多媒体内容。
除了视频和音频压缩标准外,MPEG还制定了一系列相关的标准,如MPEG-7和MPEG-21。
MPEG-7是一种多媒体内容描述标准,用于描述和检索多媒体内容;而MPEG-21则是一种多媒体框架标准,用于多媒体内容的交互和管理。
总的来说,MPEG标准在数字媒体领域发挥着重要的作用。
它不仅推动了数字媒体的发展,也为用户提供了更好的视听体验。
随着数字媒体技术的不断发展,MPEG标准也在不断更新和完善,为数字媒体的未来发展提供了强大的支持。
3GP:3GP是一种3G流媒体的视频编码格式,主要是为了配合3G网络的高传输速度而开发的,也是目前手机中最为常见的一种视频格式。
3GP是新的移动设备标准格式,应用在手机、PSP等移动设备上,优点是文件体积小,移动性强,适合移动设备使用,缺点是在PC机上兼容性差,支持软件少,且播放质量差,帧数低,较AVI等传统格式相差很多。
诺基亚提供的PC套件可以很好的支持3GP文件,暴风影音也可播放。
:(MPEG的全名为[Moving Pictures Experts Group],中文译名是动态图像专家组。
MPEG标准MPEG标准主要有以下五个,MPEG-1、MPEG-2、MPEG-4、MPEG-7及MPEG-21等。
(注意,没有MPEG-3,大家熟悉的MP3 只是MPEG Layeur 3)该专家组建于1988年,专门负责为CD建立视和音频标准,而成员都是为视频、音频及系统领域的技术专家。
及后,他们成功将声音和影像的记录脱离了传统的模拟方式,建立了ISO IEC1172压缩编码标准,并制定出MPEG-格式,令视听传播方面进入了数码化时代。
因此,大家现时泛指的MPEG-X版本,就是由ISO(International Organization for Standardization)所制定而发布的视频、音频、数据的压缩标准。
MPEG标准的视频压缩编码技术主要利用了具有运动补偿的帧间压缩编码技术以减小时间冗余度,利用DCT技术以减小图像的空间冗余度,利用熵编码则在信息表示方面减小了统计冗余度。
这几种技术的综合运用,大大增强了压缩性能。
MPEG-1MPEG-1标准于1992年正式出版,标准的编号为ISO/IEC11172,其标题为“码率约为1.5Mb/s用于数字存贮媒体活动图像及其伴音的编码”。
MPEG-2标准于1994年公布,包括编号为13818-1系统部分、编号为13818-2的视频部分、编号为13818-3的音频部分及编号为13818-4的符合性测试部分。
媒体行业中视频压缩算法的研究与应用分析视频压缩算法是媒体行业中非常重要的技术之一,它可以将视频数据进行压缩,从而减少存储空间和传输带宽的需求。
随着网络和媒体技术的迅速发展,视频压缩算法在媒体行业中的应用变得越来越广泛。
本文将对媒体行业中的视频压缩算法的研究现状和应用进行分析。
一、媒体行业视频压缩算法的研究现状1. 传统压缩算法传统的视频压缩算法主要包括MPEG-1、MPEG-2和MPEG-4等。
这些算法主要采用帧间压缩和帧内压缩相结合的方式,通过利用帧间的冗余性和帧内的局部冗余性来实现视频压缩。
然而,传统压缩算法在视频质量和压缩比方面存在一定的局限性。
2. 现代压缩算法随着计算机技术和图像处理技术的不断进步,现代视频压缩算法也在不断发展。
目前,最为广泛使用的压缩算法是H.264和HEVC(High Efficiency Video Coding,高效视频编码)。
H.264是一种基于帧间和帧内压缩相结合的算法,它采用了先进的运动补偿、整形滤波、变换和量化等技术,能够在保证视频质量的同时,实现较高的压缩比。
H.264被广泛应用于网络视频传输、数字电视和蓝光光盘等领域。
HEVC是继H.264之后提出的一种高效视频编码标准,它采用了更加先进的压缩算法和更高效的编码方式,能够实现更高质量的视频和更低的比特率。
HEVC在4K超高清视频传输和视频会议等领域具有重要的应用价值。
二、视频压缩算法在媒体行业中的应用分析1. 视频流媒体传输视频流媒体传输是媒体行业中视频压缩算法的重要应用之一。
通过将视频压缩为适当的码率和格式,可以实现视频的实时传输和流媒体播放。
在视频流媒体传输中,H.264和HEVC等压缩算法的应用非常广泛,它们能够实现高质量的视频传输和较低的带宽占用。
2. 视频点播和存储视频点播和存储是另一个重要的应用领域。
通过视频压缩算法,可以将视频文件压缩为较小的大小,从而减少存储空间的需求,提高视频点播和存储的效率。
第三章MPEG-7标准介绍MPEG-7[18]的正式名称为“多媒体内容描述接口”(Multimedia Content Description Interface)。
其制定目标就是通过制定一组标准的描述符(Descriptor) 及其描述方案(Description Scheme)来为不同类型的多媒体信息提供一套描述多媒体内容数据的标准化工具集, 使得内容描述与媒体内容结合, 构造一个统一的、标准的多媒体检索平台来支持基于内容的快速、高效的检索, 满足实时、非实时以及推拉应用的需求。
本章介绍了MPEG-7目标和对象、体系结构、描述工具、描述定义语言及系统工具。
3.1 MPEG-7 目标和对象MPEG-7标准的目的是要制定一种针对各类多媒体信息的描述标准。
该描述与内容有关,并能够达到快速高效地搜索用户感兴趣的素材。
无论描述的形式如何,描述都可以附在任何一种多媒体素材之后。
具有此种附加信息的存储素材就可以被方便地索引和搜索了。
尽管MPEG-7描述与被描述内容的表达方式无关,但在一定程度上还是依赖于MPEG-7标准,在该标准中提供了一种将声音图像内容作为在时间(同步)和空间(屏幕)上有一定联系的对象来编码的方法。
MPEG-7定义的“多媒体”含义十分广泛,包括:1.客观类:图像、图表、文本、三维模型、音频、语音、视频等。
2.主观类:对对象/事件的概括、人的感性色彩等。
3.合成类:各种元素之间的有机结合以构成一个真正意义上的多媒体演示。
如人的面部表情、性格特征、以至一段电影的主题都是MPEG-7中的数据类型之一。
为此,MPEG-7定义了“标准描述子集合(Standard Set of Descriptors)”用于描述各种类型的多媒体数据,与之相应的“描述方案(Description Schemes)”用于规范多媒体描述子的生成和不同描述子之间的有机联系。
这些描述子与所指定的多媒体对象的内容紧密联系,采用提取对象特征的方法为实现基于内容的语义的准确检索提供了接口。
基于MPEG-7的视频描述的研究与实现作者:姜静张校尉来源:《电脑知识与技术》2012年第13期摘要:该文首先介绍了MPEG-7标准,及分析了MPEG-7的核心内容,然后介绍了基于MPEG-7的图像/视频特征的标准化描述,运用视频对象、事件和数据来描述视频信息,以支持不同抽象层次上复杂语义关系的描述,可使用户更加灵活地访问数字视频库,获得自己所需的视频信息。
并以一个视频例子进行详细阐述,用XML语言实现以上基于MPEG-7的视频描述方案,可见此描述方案不仅规范了视频描述,而且提高了对视频的检索。
关键词:MPEG-7标准;视频信息;事件;数字视频库;视频描述方案中图分类号:TP37文献标识码:A文章编号:1009-3044(2012)13-3184-03The Reserarch and Realization of Video Description Based on the MPEG-7JIANG Jing, ZHANG Xiao-wei(School of Computer Science and Technology, Zhoukou Normal University, HeNan Province, Zhoukou 466001,China)Abstract: This paper first introduces the MPEG-7 standard and core content, and then introduces a standardized description of the image/ video based on MPEG-7 features, which is use of video objects, events, and data to describe the video information to support the description of complex semantic relations on different levels of abstraction, allowing users more flexible access to digital video libraries to get video information. At last, it explaines the video description scheme in a video example through XML language. Therefore,this video description scheme regulates the video description and improves the retrieval of video.Key words: MPEG-7 standard; video information; Events; Digital Video Library;video description scheme随着多媒体技术的发展和信息高速公路的出现,数字视频的存储和传输技术都取得了重大的进展,各种视频资料源源不断地产生,随之出现越来越多的视频数据库。
人们可以坐在家中访问远端的多媒体数据库,如进行视频点播、电子购物和访问多媒体图书馆等。
这方面所具有的广阔的商业背景,使得视频检索技术的研究受到日益广泛的关注。
图像/视频信息的检索借助计算机对图像/视频信息从底层到高层进行处理、分析和理解以有效获取其内容,并根据内容实现方便快捷的检索。
在制定的国际标准中,MPEG-1用来解决声音图像信息在CD-ROM上的存储,MPEG-2解决了数字电视、高清晰度电视及其伴音的压缩编码,MPEG-4用以解决在多媒体环境下高效存储、传输和处理声音图像信息问题。
而MPEG-7旨在解决对多媒体信息描述的标准问题,并将描述的内容相联系,以实现快速有效的搜索。
只有首先解决了多媒体信息的规范化描述之后,才能更好地实现信息定位。
1 MPEG-7的核心内容MPEG-7标准的正式名称是“多媒体内容描述接口”[1](Multimedia Content Description Interface),其目标是提供一种有效的多媒体描述机制,规范多媒体描述接口,实现多媒体描述的标准化。
其中,MPEG-7标准的核心内容[2-4]包括描述子D、描述方案DS和描述定义语言DDL。
描述子D(Descriptor)定义了表示特征的语法和语义,并可赋值。
一个特征可以有多个描述子,如形状特征的描述子可有区域形状描述子、轮廓形状描述子及三维形状描述子等。
描述方案DS(Description Scheme)说明描述符的结构和相互关系。
描述定义语言DLL(Description Definition Language)采用XML Schema作为其基础,生成描述方案和描述子的语言,同时允许对原描述方案进行修改和扩展。
图1给出了核心内容之间的关系,如图1所示:图1 MPEG-7核心内容之间的关系2基于MPEG-7标准的图像/视频描述方案图像、视频、多媒体数据的描述方案的目的是描述其内容,也就是:一幅图像、一个视频序列、一个多媒体数据流。
他们都具有同样的基本元素:对象、事件、对象等级、事件等级。
该文提出的描述方案中,图像是由一个对象集合对象之间的关系来代表的。
每个对象都具有一个或多个特征,这些特征可以是自动提取的,如纹理描述子、颜色描述子及形状描述子,也可以是人工注释的。
每个特征都包括描述子和相似度匹配编码。
对象等级是用来描述对象之间的关系,对象等级分为两类:逻辑类和语义类。
同理,视频序列、多媒体数据流也按此方法描述。
2.1图像描述方案图像描述体系的基础元素是对象元素(object),一个对象元代表的是图像的一个区域,因此我们定义两种不同类型的对象:物理和逻辑对象。
物理对象通常与图像中的实际对象是一致的,逻辑元是一些元素按高级的语义关系组织起来的。
一幅图像中的所有元素的集合包括在图像元素集中(object-set),每个对象元素在一个图像描述中有一个独一无二的标识符,这个标识符是对象元素的一个属性。
图像描述方案可以通过对象等级元素(object-hierarchy)来组织对象元素,每个对象等级包括了一个对象节点元素(object-node)的树,每个对象节点指向另一个对象节点。
同样,也有两种不同组织的一幅图像元素的方式。
物理等级描述一幅图像中对象的物理位置,逻辑等级描述了对象之间的语义关系有了高级理解的基础上的一些关系。
等级的类型是对象等级的一个属性,带有特定标识符的对象节点元素作为节点的一个属性。
对象元素通过另一个节点元素的标识符来连接另一个节点,和对象元素的链接包括在一个(object-ref)的属性内。
一个对象元素可能也包括和其他节点的链接,并将此链接作为它的一个属性(object-node-ref)。
在图像描述方案中,节点元素包含的图像特征有:位置,颜色,纹理,时间,等等。
时间描述子在视频序列中有效,这些特征既可以是人工提取也可以是自动提取的。
一个图像元是由一个对象集元素和一个或多个等级元素形成,它代表了所描述的图像或图形。
对象等级和对象集元素是图像元的一部分,在对象集中的对象按一个或多个等级元素中的描述组织起来。
另外,在对象集中的对象元之间的链接和对象等级中的相应的对象节点可以实现节点之间的遍历。
2.2视频描述方案在视频描述方案中的基础元是事件,一个事件代表了一个或几个视频的镜头,或者是一组不连续的镜头。
所有在视频中被标识的事件包含在事件集元素中。
与图像描述方案相似,罗列在事件集合中的每一个事件元素都有一个特定的标识,这个标识就是事件元素的属性,并且因为这3种类型可以分为3种不同的事件类型。
视频描述方案可以通过事件等级(Event hierarchy)来组织,每个事件节点指向另一个节点。
同样地,也用两种不同方式来组织一段视频中的对象,物理等级元描述的是视频中事件时间表,逻辑等级描述的是在对事件之间的语义更高层的理解基础上的对关系的描述。
以下图示2示例视频的事件描述,其中(a)视频示例,包括了四个连续的事件,而(b)事件描述等级,对这四个事件通过物理事件等级来进行组织,便于描述和访问。
(a)视频示例(b)事件描述等级图2示例视频的事件描述以图2所示的视频示例,用XML语言来展示视频描述方案如下:<event_set><event id=”0”type=”SHOT”></event><!-Forward-><event id=”1”type=”SHOT”></event><!-Pass the ball-><event id=”2”type=”SHOT”></event><!-run-><event id=”3”type=”CONTINUOUS_GROUP-SHOTS”></event><!-Feeding-><event id=”4”type=”SHOT”></event><!-Receive the ball-><event id=”5”type=”SHOT”></event><!-Shoot the ball-></event_set>可见,等级的类型是事件等级的一个属性,事件节点通过特定的标识符访问另一个事件节点,这些关系包括在一个属性中(Event-ref)。
一个事件元素可以包括与其他事件节点之间的链接,这个链接即是属性(Object-node-ref)。
通过此属性可以实现事件节点之间的跳跃:<event_hierarchy typ e=”PHYSICAL”><event_node id=”10”event_ref=”0”><!-Forward-><event_node id=”11”event_ref=”1”/><!-Pass the ball-><event_node id=”12”event_ref=”2”/><!-Run-><event_node id=”13”event_ref=”3”/><!-Shooting-><event_node id=”14”event_ref=”4”/><!-Receive the ball-><event_node id=”15”event_ref=”5”/><!-Shoot the goal-></event_node></event_node></event_hierachy>和图像描述方案相同,事件元素也包括特征元素,如位置、镜头切换、摄像机移动、时间、关键帧、注释和对象集元素等。
这些元素可以自动或人工提取。
对于那些自动提取的特征,特征描述元可包括和提取相似性匹配代码的链接,例如:<event id id=”3”type=”PHYSICAL”event_node_ref=”10”><!-Run-><object_set></object_set><camera_motion><backgroud_affine_motion_value><panning direction=”NE”/><zoom directio n=”IN”/></backgroud_affine_motion_value><code type=”DISTANCE”language=”Java”version=”1.0”><-Link to similarity matching code-><Location><location_site href=ftp://dist.bacgrou.affine/></location></code></backgroud_affine_model></camera_motion><time></time></event>一个事件集元素和一个或多个事件等级元素组织形成一个视频元素(video),这个视频元素代表了所有描述的视频序列。