视频基础知识详解
- 格式:docx
- 大小:3.04 MB
- 文档页数:29
影视制作的基础知识1 帧和帧速率20世纪最后十年,无论是广播电视还是电影行业,都在数字化的大潮中驶过。
的确,由于数字技术的发展和广泛应用,不仅使这一领域引入了全新的技术和概念,而且也给这一领域的节目制作、传输和播出都带来了革命性变化。
数字技术的发展速度已经超乎于一般人的预料和想象。
像电影一样,视频是由一系列的单独图像(称之为帧)组成的,并放映到观众面前的屏幕上。
每秒钟放映若干张图像,会产生动态的画面效果,因为人脑可以暂时保留单独的图像,典型的帧速率范围是24~30帧/秒,这样才会产生平滑和连续的效果。
在正常情况下,一个或者多个音频轨迹与视频同步,并为影片提供声音。
帧速率也是描述视频信号的一个重要概念,对每秒钟扫描多少帧有一定的要求,这就是帧速率。
对于PAL制式电视系统,帧速率为25帧,而对于NTSC制式电视系统,帧速率为30帧。
虽然这些帧速率足以提供平滑的运动,但它们还没有高到足以使视频显示避免闪烁的程度。
根据实验,人的眼睛可觉察到以低于1/50秒速度刷新图像中的闪烁。
然而,要求帧速率提高到这种程度,要求显著增加系统的频带宽度,这是相当困难的。
为了避免这样的情况,全部电视系统都采用了隔行扫描方法。
2常用图像文件格式介绍常用的图像文件格式总共有12种,现在分别对它们进行简单介绍。
1).GIF格式GIF格式(图形交换格式)形成一种压缩的8位图像文件,这种格式的文件目前多用于网络传输,它可以指定透明的区域,以使图像与页背景很好地融为一体。
GIF图像可以随着它下载的过程,从模糊到清晰逐渐演变显示在屏幕上。
Animated GIF(动画GIF)图像可使网页生动活泼,上网的人肯定已经有所体会。
利用GIF动画程序,把一系列不同的GIF图像集合在一个文件里,这种文件可以和普通GIF文件一样插入网页中,GIF格式的不足之处在于它只能处理256色,不能用于存储真彩色图像。
2).BMP格式BMP格式是微软Windows应用程序所支持的,特别是图像处理软件,基本上都支持BMP格式,BMP格式可简单分为黑白、16色、256色、真彩色几种格式,其中前3种有彩色映像。
快速入门视频拍摄基础知识视频拍摄已经成为现代人生活中不可或缺的一部分。
随着智能手机的普及以及社交媒体的兴起,越来越多的人开始尝试拍摄自己的视频内容来记录生活、分享经验或传达自己的观点。
本文将介绍一些快速入门的视频拍摄基础知识,帮助大家制作出高质量的视频内容。
1. 脚架:稳定画面拍摄视频时,稳定画面是非常重要的。
不稳定的画面会给观众带来不适,也会降低视频的质量。
因此,一个好的脚架是必不可少的工具。
脚架可以帮助你固定相机,保证画面稳定。
选择一个适配你相机的脚架,并学会正确设置和使用它,可以极大提升你的视频拍摄质量。
2. 照明:打造逼真画面照明是视频拍摄中不可忽视的因素之一。
适当的照明可以改变画面的色彩、明暗,让视频更加逼真。
室内拍摄时可以利用自然光,并辅以合适的照明设备,如摄影灯,来增加光线。
要注意避免过度曝光或太暗的画面,通过调整照明强度和角度来达到理想的效果。
3. 对焦:保持清晰画面对焦是保持视频画面清晰的关键。
大多数相机都具有自动对焦功能,但有时候它可能并不理想,尤其是在拍摄人物时。
在拍摄前,务必检查对焦是否准确,可使用相机上的对焦锁定功能来避免对焦变化。
此外,还可以利用手动对焦来精确控制画面清晰度,特别适用于需要远离相机的拍摄场景。
4. 帧率:选择合适的画面效果帧率是视频中每秒钟显示的帧数。
一般来说,常见的帧率有24帧/秒、30帧/秒和60帧/秒。
选择合适的帧率可以影响视频的流畅度和真实感。
24帧/秒常用于电影拍摄,能够给人一种电影般的质感;30帧/秒适用于大多数场景,视频流畅度较好;60帧/秒适用于拍摄运动场景,可以呈现更清晰的画面。
5. 音频:确保声音清晰一个好的视频需要不仅仅有好的画面,还需要清晰的音频。
当拍摄视频时,要确保麦克风位置正确,声音清晰。
如果使用外部麦克风,要检查麦克风是否连接稳定并能正常录音。
此外,在后期制作视频时,可以通过剪辑、混音等技术对音频进行优化,提升音频质量。
6. 视频剪辑软件:打造专业效果拍摄好的视频只是第一步,后期制作同样重要。
视频制作基础知识一、引言视频制作已经成为现代社会中流行的传播方式。
通过视频,人们可以更直观地了解信息和故事,从而提高信息传递效果。
本文将介绍视频制作的基础知识,包括前期准备、拍摄技巧、后期处理和发布。
二、前期准备1.确定目标:在制作视频之前,需要明确视频的目标和受众。
这有助于塑造视频的风格和内容,并指导整个制作过程。
2.编写脚本:撰写一个详细的脚本,包括文字、场景和镜头指导等。
脚本将成为视频制作的基础,帮助保持制作进度和一致性。
3.筹备设备:根据视频类型和预算,选择合适的摄像机、麦克风、灯光和三脚架等设备。
三、拍摄技巧1.构图与角度:选择合适的构图和拍摄角度,可以让画面更有吸引力。
例如,使用规律的三分法或对称构图来调整画面的平衡感。
2.稳定画面:稳定的画面可以提升观看体验。
使用三脚架、稳定器或其他辅助设备,避免手持摄像带来的抖动。
3.合理运动:使用平滑的运动来增加画面的动感。
例如,运用轨迹摄影、慢动作或快速切换镜头等技巧。
4.良好照明:使用适当的灯光来烘托场景氛围。
掌握自然光和人工光的运用,确保画面明亮且不失细节。
四、后期处理1.文件导入:将拍摄下来的素材导入到视频编辑软件中。
确保文件组织有序,并备份至可靠的存储设备,以防数据丢失。
2.剪辑与选取:根据脚本和场景需要,对素材进行剪辑和选取。
删除多余镜头,保留精彩片段,确保视频整体流畅且紧凑。
3.特效与转场:添加适当的特效和转场效果,以增强视觉冲击力。
注意不要过度使用,以免影响观众的视觉体验。
4.音频处理:调整音频的音量、平衡和音效等。
确保声音清晰且与画面相匹配,避免噪音和杂音的干扰。
5.字幕与字体:根据需要插入字幕,以便更好地传递信息。
选择合适的字体和样式,确保字幕易读且与视频风格协调。
五、发布与分享1.输出设置:选择合适的视频输出格式和分辨率,以适应不同的播放平台和设备。
常见的输出格式包括MP4、MOV、AVI等。
2.视频平台:将制作好的视频上传至视频平台,如YouTube、微博等。
短视频的基础知识点总结一、定义与特点短视频是指时长较短、内容简洁、形式多样的视频作品。
它通常以15秒、30秒或1分钟为主,具有快节奏、富有创意和生动活泼的特点。
短视频能够快速吸引观众的注意力,展示生活、分享趣事,成为人们日常社交和娱乐的重要方式。
短视频的特点主要体现在以下几个方面:1. 时长短:短视频的时长通常在15秒至1分钟之间,内容简洁明了,能够迅速吸引观众的注意力。
2. 快节奏:短视频采用快速剪辑和动感音乐,节奏感强,能够让观众在短时间内获得强烈的视听冲击。
3. 创意丰富:短视频形式多样,创意十足,可以通过剪辑、配音、特效等手段,生动活泼地展示生活场景和趣味瞬间。
4. 传播速度快:短视频易于传播和分享,能够在社交媒体上迅速引发转发和评论,传播速度极快。
二、制作流程短视频的制作流程主要包括创意策划、拍摄录制、剪辑制作和发布传播等环节。
下面将对短视频制作的每个环节进行简要介绍。
1. 创意策划:短视频的制作首先需要一个好的创意,要根据所要表达的主题或内容,制定出创意构思和故事情节。
要注意创意要新颖、有趣,能够吸引观众的注意力。
2. 拍摄录制:在确定好创意的基础上,进行拍摄和录制工作。
这个环节需要选择合适的场景和道具,进行角色扮演或实地拍摄,并且要注意拍摄的稳定和画面的清晰度。
3. 剪辑制作:拍摄完成后,需要对素材进行剪辑和后期制作。
可以通过剪辑软件进行视频的剪裁、配音、特效等处理,使得视频画面更加生动和有趣。
4. 发布传播:完成剪辑制作后,就可以将视频上传至各大短视频平台或社交媒体,进行发布传播。
同时还可以通过转发、评论、互动等方式,扩大视频的传播范围。
三、发布渠道和注意事项短视频的发布渠道主要包括抖音、快手、微博、微信等各大社交媒体平台。
这些平台都具有大量的用户群体,能够帮助视频快速传播和获得关注。
在发布短视频时,需要注意以下几个方面:1. 标题和封面:视频的标题和封面是吸引观众的第一要素,要简洁明了、有吸引力,能够让观众一眼就产生兴趣。
网络视频基础知识随着互联网的发展和网络带宽的提高,网络视频已经成为人们日常娱乐和学习的重要方式。
无论是在家中观看电影、追剧,还是在办公室学习教育视频,网络视频都已经深入到我们的生活中。
在使用网络视频的过程中,了解基础知识非常重要,下面将为您介绍一些网络视频的基本概念和常用技术。
一、视频编码格式视频编码格式是指将视频信号转换成数字信号的一种技术,它对视频信号进行压缩和解压缩,以达到提高视频压缩比和保持视频质量的目的。
目前常见的视频编码格式有H.264、H.265、VP9等。
H.264是应用最广泛的视频编码格式,它能够在保持良好视频质量的同时,实现较高的压缩比,适用于各种网络环境。
H.265是H.264的升级版,它在保证同等画质的情况下,能够进一步减少视频数据量,降低带宽需求。
二、视频流媒体视频流媒体是一种通过互联网传输视频数据的技术。
在视频流媒体中,视频数据会被分成一系列的小数据包,通过网络传输到用户的终端设备,然后再根据播放需求进行解码和播放。
常见的流媒体协议有HTTP、RTMP、HLS等。
HTTP协议是目前应用最广泛的流媒体协议,它可以通过普通的HTTP服务器进行视频的传输,并且在传输过程中能够适应网络带宽的变化,提供更好的观看体验。
三、自适应码率技术自适应码率技术是一种根据用户的实际网络环境和设备性能来自动调整视频码率的技术。
在视频播放过程中,自适应码率技术可以根据网络带宽的情况,选择合适的视频码率进行播放。
如果网络带宽不稳定或者较低,自适应码率技术会自动选择较低的码率,以保证视频的连续播放和较好的观看体验。
而当网络带宽较高时,自适应码率技术则会选择较高的码率,以提供更清晰的视频质量。
四、4K、8K视频4K、8K视频是指视频的分辨率达到了4K(3840×2160像素)或者8K(7680×4320像素)。
随着显示设备的发展和技术的进步,4K、8K视频已经逐渐进入人们的视野。
视频相关的理论知识与基础概念本文将视频相关的理论知识与基础概念划分为 11 个知识点,如下:•视频•分辨率•比特率•采样率•帧率•视频编码•编码标准•视频封装格式•视频解码•视频播放原理•视频与流媒体1.视频根据人眼视觉暂留原理,每秒超过 24 帧的图像变化看上去是平滑连续的,这样的连续画面叫视频。
2.分辨率分辨率是以横向和纵向的像素数量来衡量的,表示平面图像的精细程度。
视频精细程度并不只取决于视频分辨率,还取决于屏幕分辨率。
1080P 的 P 指 Progressive scan(逐行扫描),即垂直方向像素点,也就是"高",所以1920X1080 叫1080P,不叫 1920P。
当 720P 的视频在 1080P 屏幕上播放时,需要将图像放大,放大操作也叫上采样。
上采样几乎都是采用内插值方法,即在原有图像的像素点之间采用合适的插值算法插入新的元素,所以图像放大也称为图像插值。
简单的记录一下插值算法:image.png(1)邻插值算法:将四个像素(放大一倍)用原图一个像素的颜色填充,较简单易实现,早期的时候应用比较普遍,但会产生明显的锯齿边缘和马赛克现象。
(2)双线性插值法:是对邻插值法的一种改进,先对两水平方向进行一阶线性插值,再在垂直方向上进行一阶线性插值。
能有效地弥补邻插值算法的不足,但还存在锯齿现象并会导致一些不期望的细节柔化。
(3)双三次插值法:是对双线性插值法的改进,它不仅考虑到周围四个直接相邻像素点灰度值的影响,还考虑到它们灰度值变化率的影响,使插值生成的像素灰度值延续原图像灰度变化的连续性,从而使放大图像浓淡变化自然平滑。
除此之外还有很多更复杂效果更优的算法,比如小波插值、分形等等。
当 1080P 的视频在 720P 屏幕上播放时,需要将图像缩小,缩小操作也叫下采样。
下采样的定义为:对于一个样值序列,间隔几个样值取样一次,得到新序列。
对于一幅分辨率为 MN 的图像,对其进行 s 倍下采样,即得到 (M/s)(N/s) 分辨率的图像(s 应为M、N 的公约数),就是把原始图像s*s 窗口内的图像变成一个像素,这个像素点的值就是窗口内所有像素的均值。
一.视频基础知识1. 视频编码原理视频图像数据有极强的相关性,也就是说有大量的冗余信息。
其中冗余信息可分为空域冗余信息和时域冗余信息。
压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。
1.1去时域冗余信息使用帧间编码技术可去除时域冗余信息,它包括以下三部分:A.运动补偿:运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。
B.运动表示:不同区域的图像需要使用不同的运动矢量来描述运动信息。
运动矢量通过熵编码进行压缩。
C.运动估计:运动估计是从视频序列中抽取运动信息的一整套技术。
注:通用的压缩标准都使用基于块的运动估计和运动补偿。
1.2去空域冗余信息主要使用帧内编码技术和熵编码技术:A.变换编码:帧内图像和预测差分信号都有很高的空域冗余信息。
变换编码将空域信号变换到另一正交矢量空间,使其相关性下降,数据冗余度减小。
B.量化编码:经过变换编码后,产生一批变换系数,对这些系数进行量化,使编码器的输出达到一定的位率。
这一过程导致精度的降低。
C.熵编码:熵编码是无损编码。
它对变换、量化后得到的系数和运动信息,进行进一步的压缩。
2. 视频编码解码标准2.1 H.264H.264是国际标准化组织(ISO)和国际电信联盟(ITU)共同提出的继MPEG4之后的新一代数字视频压缩格式,它即保留了以往压缩技术的优点和精华又具有其他压缩技术无法比拟的许多优点。
H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。
举个例子,原始文件的大小如果为88GB,采用MPEG-2压缩标准压缩后变成3.5GB,压缩比为25∶1,而采用H.264压缩标准压缩后变为879MB,从88GB到879MB,H.264的压缩比达到惊人的102∶1。
视频基础知识面试1. 视频的基本概念和特点视频是一种通过电子设备记录、传输和显示连续运动图像的媒体形式。
与静态图像相比,视频包含了时间维度,能够呈现更加生动、具体的信息。
视频的基本特点包括:•连续性:视频是由一系列连续的图像帧组成的,通过快速的连续播放,使得人眼产生运动的错觉。
•时序性:视频中的每一帧都有一个时间戳,按照一定的顺序排列,播放时能够还原出连续的动作。
•帧率:视频的帧率指每秒钟显示的图像帧数,常用单位为帧/秒(fps)。
帧率越高,视频越流畅。
•分辨率:视频的分辨率指图像的水平和垂直像素数,常用单位为像素(p)。
分辨率越高,图像越清晰。
•编码格式:视频的编码格式决定了如何将原始图像数据压缩存储,常见的编码格式有H.264、H.265等。
2. 视频的存储格式视频的存储格式是指视频文件在计算机中的组织方式,常见的视频存储格式包括:•AVI(Audio Video Interleave):是一种由微软开发的多媒体容器格式,支持多种编码格式,但文件较大。
•MP4(MPEG-4 Part 14):是一种常用的多媒体容器格式,可以存储视频、音频、字幕等数据,具有较高的压缩比。
•MKV(Matroska Video):是一种开放的多媒体容器格式,支持多种视频、音频和字幕流,可以扩展性强。
•MOV(QuickTime Movie):是苹果公司开发的多媒体容器格式,适用于存储视频和音频数据,常用于Mac系统。
不同的存储格式具有不同的特点和适用场景,选择合适的存储格式可以提高视频的播放和存储效率。
3. 视频的编码和解码视频的编码是指将原始的视频数据按照一定的规则进行压缩编码,以减小文件大小和传输带宽。
常见的视频编码标准包括:•H.264:是一种常用的视频编码格式,具有较高的压缩比和广泛的应用领域,如在线视频、蓝光光盘等。
•H.265:是H.264的升级版,相比于H.264,能够进一步减小文件大小和提高视频质量。
视频基础知识详解视频技术发展到现在已经有100多年的历史,虽然比照相技术历史时间短,但在过去很长一段时间之内都是最重要的媒体。
由于互联网在新世纪的崛起,使得传统的媒体技术有了更好的发展平台,应运而生了新的多媒体技术。
而多媒体技术不仅涵盖了传统媒体的表达,又增加了交互互动功能,成为了目前最主要的信息工具。
在多媒体技术中,最先获得发展的是图片信息技术,由于信息来源更加广泛,生成速度高生产效率高,加上应用门槛较低,因此一度是互联网上最有吸引力的内容。
然而随着技术的不断进步,视频技术的制作加工门槛逐渐降低,信息资源的不断增长,同时由于视频信息内容更加丰富完整的先天优势,在近年来已经逐渐成为主流。
那么我们就对视频信息技术做一个详细的介绍。
模拟时代的视频技术最早的视频技术来源于电影,电影技术则来源于照相技术。
由于现代互联网视频信息技术原理则来源于电视技术,所以这里只做电视技术的介绍。
世界上第一台电视诞生于1925年,是由英国人约翰贝德发明。
同时也是世界上第一套电视拍摄、信号发射和接收系统。
而电视技术的原理大概可以理解为信号采集、信号传输、图像还原三个阶段。
摄像信号的采集,通过感光器件获取到光线的强度(早期的电视是黑白的,所以只取亮度信号)。
然后每隔30~40毫秒,将所采集到光线的强度信息发送到接收端。
而对于信号的还原,也是同步的每隔30~40毫秒,将信号扫描到荧光屏上进行展示。
那么对于信号的还原,由于荧光屏电视采用的是射线枪将射线打到荧光图层,来激发荧光显示,那么射线枪绘制整幅图像就需要一段时间。
射线枪从屏幕顶端开始一行一行的发出射线,一直到屏幕底端。
然后继续从顶部开始一行一行的发射,来显示下一幅图像。
但是射线枪扫描速度没有那么快,所以每次图像显示,要么只扫单数行,要么只扫双数行。
然后两幅图像叠加,就是完整的一帧画面。
所以电视在早期都是隔行扫描。
那么信号是怎么产生的呢?跟相机感光原理一样,感光器件是对光敏感的设备,对于进光的强弱可以产生不同的电压。
然后再将这些信号转换成不同的电流发射到接收端。
电视机的扫描枪以不同的电流强度发射到荧光屏上时,荧光粉接收到的射线越强,就会越亮,越弱就会越暗。
这样就产生了黑白信号。
那么帧和场的概念是什么?前面说到,由于摄像采集信号属于连续拍摄图像,比如每隔40毫秒截取一张图像,也就是说每秒会产生25副图像。
而每个图像就是一帧画面,所以每秒25副图像就可以描述为帧率为25FPS(frames per second)。
而由于过去电视荧光屏扫描是隔行扫描,每两次扫描才产生一副图像,而每次扫描就叫做1场。
也就是说每2场扫描生成1帧画面。
所以帧率25FPS时,隔行扫描就是50场每秒。
模拟时代在全世界电视信号标准并不是统一的,电视场的标准有很多,叫做电视信号制式标准。
黑白电视的时期制式标准非常多,有A、B、C、D、E、G、H、I、K、K1、L、M、N等,共计13种(我国采用的是D和K制)。
到了彩色电视时代,制式简化成了三种:NTSC、PAL、SECAM,其中NTSC又分为NTSC4.43和NTSC3.58。
我国彩色电视采用的是PAL制式中的D制调幅模式,所以也叫PAL-D 制式。
有兴趣的可以百度百科“电视制式”来详细了解。
另外你可能会发现,场的频率其实是和交流电的频率一致的。
比如我国的电网交流电的频率是50Hz,而电视制式PAL-D是50场每秒,也是50Hz。
这之间是否有关联呢?可以告诉你的是,的确有关联,不过建议大家自己去研究。
如果确实不懂的同学可以@我。
彩色信号又是怎么产生的呢?其实有了基础的黑白摄像技术之后,人们就一直想实现彩色摄像。
早在1861年,英国物理学家麦克斯韦就论证了所有彩色都可以使用红、蓝、绿三种基色来叠加生成。
但是感光器件只是对光线敏感,但是对颜色却无法识别。
为了实现对颜色的识别,人们用分光镜加滤光片的方式,将光线分解成为三种基色的纯色模式。
然后分别对三个基色的纯色亮度进行采集,然后再把信号叠加实现了对彩色信号的采集能力。
色彩信号是如何表达的?因为原来黑白电视的时候,基本上只需要一路信号就可以还原图像(同步信号后面讲)。
但是有了彩色之后,一路信号能否表达一副完整的彩色图像,以及如何表达呢?彩色电视出现之后,为了兼容早期的黑白电视信号(也就是黑白电视机可以接收彩色信号,但是只显示黑白),科学家引入了YUV色彩表示法。
YUV信号有多种叫法,可以称作色差信号(Y,R-Y,B-Y),也可以称作分量信号(YCbCr,或者Component、YPbPr)。
它是由一个亮度信号Y (Luminance 或Luma),和两个色度信号U和V组成(Chrominance或Chroma)。
黑白电视只使用亮度信号Y,彩色电视可以额外使用两个色度信号,来实现彩色效果。
但是YUV信号是怎么来的呢?首先,是因为考虑到黑白电视兼容,所以基础信号仍然采用亮度信号。
而颜色表达本身是通过RGB三基色的叠加来实现的,为了能够将YUV信号可以还原成三基色RGB色彩值,数学家利用了色差算法,即选取一路Cr信号和一路Cb 信号。
Cr信号是指RGB的红色信号部分与RGB亮度值之间的差异,Cb信号是指RGB的蓝色信号与RGB亮度值之间的差异。
所以YUV信号有时候也表达为Y,R-Y和B-Y,所以也叫色差信号。
为什么YUV色彩会延续至今?如果大家平时经常拿手机拍摄视频,你可以把拍摄的视频文件传输到电脑上,然后用MediaInfo软件打开,你会发现很多关于视频的参数信息。
而这些参数信息里面,你一定会发现手机拍摄的视频色彩也是使用YUV信号模式。
为什么不用RGB来表达?现在早都没有黑白电视了啊?其实不必考虑兼容性的原因,因为你无论是什么信号模式拍摄的视频,只要是数字化的信息文件形式,都可以与播放设备的信号模式无关。
因为播放设备在播放视频文件时需要解码,再进行渲染。
这时候不管什么信号模式还是色彩空间,都能转化成设备兼容的方式。
至于为什么YUV信号模式一直会持续至今,最主要的原因不是因为兼容性考虑,而是YUV信号有个巨大的优势,就是节省带宽。
这在数字媒体领域是很重要的。
人眼的视觉特点是,人眼对于亮度信号最为敏感,对色度信号敏感度要弱一些。
所以可以适当减少色度信号的容量,也不会被人眼观察到差异。
就好比音频里面的MP3压缩格式,是将耳朵不敏感的频率信号容量降低或去除掉,以大大降低文件的大小,但是人耳却基本听不到差异。
至于YUV信号是如何做到降低信息容量的,可以看下面的引文:YUV主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。
其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值),每 2x2 个点保存一个 Cr 和Cb 值,图像在肉眼中的感觉不会起太大的变化。
所以,原来用 RGB(R,G,B 都是 8bit unsigned) 模型, 1个点需要 8x3=24 bits(如下图第一个图),(全采样后,YUV仍各占8bit)。
按4:1:1采样后,而现在平均仅需要 8+(8/4)+(8/4)=12bits(4个点,8*4(Y)+8(U)+8(V)=48bits), 平均每个点占12bits。
这样就把图像的数据压缩了一半。
以上内容引自百度百科“YUV”条目。
限于篇幅原因,对于YUV的各种采样模式不再祥加描述,大家可以参考百度百科中的详细解释。
如有不懂的同学可以@我。
数字化时代的视频技术视频技术发展到了数字化时代,其实原理上并没有太多变化。
这也就是为什么前面要提到模拟时代视频技术的知识的原因。
但是数字化的视频技术,虽然基础原理没有改变,但是各方面的性能和功能有了很大的提升。
这些就重点讲一下数字化之后的视频技术有了哪些突破:彩色摄像的演进前面讲到,实现彩色摄像其实是把光线分解成为三个基色分别取亮度值,但是这种结构比较复杂,成本也高。
因为实现彩色摄像需要有一个分光用的棱镜,然后采集光线必须要用到三片感光器件(CCD或CMOS)。
这种结构带来第二个不好的地方就是结构会比较庞大,不利于小型化微型化。
后来呢,德国人拜耳发明了一种滤镜,是一种马赛克滤镜。
将含三基色的马赛克滤镜覆盖在感光器件上面,这样就可以实现用一片感光器件来采集三种颜色,同时也取消了分光棱镜这种结构。
这样下来,不仅成本降低了,结构也简化了。
有了这种技术之后,摄像设备就可以越做越小,现在集成在手机上的摄像头整体厚度只有2~3毫米,尺寸只有1~3毫米。
当然在专业领域,高端的摄像机仍然采用分光棱镜加3CCD的技术,原因不是他们不愿意改,而是3CCD的色彩丰度更好。
而且专业摄像机CCD技术也从IT型发展到了FIT型,感兴趣的同学可以查看一下SONY公司关于FIT型CCD专业摄像机的介绍来了解。
总而言之,就是民用领域和专业领域发展方向不一样,所以路线也不同。
场概念消失在模拟电视时代,受限于显像管技术原因,采用的是隔行扫描技术来还原图像显示。
但是现在都是平板电视了(液晶电视、等离子电视、激光电视),电视的成像方式不再是一条线一条线的扫描,而是一次性全画面呈现。
所以现在的视频拍摄一般都没有场的概念,当然为了向前兼容,在视频文件信息中,你会看到扫描模式的参数。
利用手机拍摄的视频文件,其扫描模式的参数都是Progressive,就是逐行扫描的意思。
采样率和采样精度大家都知道模拟和数字的最大差别就是信息存储和传递方式,一个是模拟量一个是数字量化的。
那么数字化对于连续过程的量化就必须用到采样过程,也可以理解为片段化。
例如音频数字化,就是把音频在每个很小的时间间隔上获取音频的信息然后进行数字量化,最后把所有连续采样的数字量化数据组合,来形成最终的信息。
视频也是这样,按照一定的时间间隔,把获取到的图像进行数字量化,然后连续的数字量化的集合就是一段完整的视频文件。
但是视频的采样率并非是大家理解的那样,每秒钟产生25帧的图像,采样率就是25Hz。
实际上,ITU(International Telecommunications Union,国际电信联盟)在CCIR 601标准中,对于视频的采样标准有了明确的界定:一、采样频率:为了保证信号的同步,采样频率必须是电视信号行频的倍数。
CCIR为NTSC、PAL和SECAM制式制定的共同的电视图像采样标准:f s=13.5MHz这个采样频率正好是PAL、SECAM制行频的864倍,NTSC制行频的858倍,可以保证采样时采样时钟与行同步信号同步。
对于4:2:2的采样格式,亮度信号用fs频率采样,两个色差信号分别用f s/2=6.75MHz的频率采样。
由此可推出色度分量的最小采样率是3.375MHz。
二、分辨率:根据采样频率,可算出对于PAL和SECAM制式,每一扫描行采样864个样本点;对于NTSC制则是858个样本点。