10Bit 色彩 数字视频编码
- 格式:docx
- 大小:19.35 KB
- 文档页数:6
10Bit 色彩数字视频编码根据我最近研究高清播放的经验,得出了以下结论,如果有说的不对的欢迎指出。
有关整个视频处理过程的颜色问题,水很深。
首先是目前视频本身的色系一般用的是YUV,而不是显示器输出使用的RGB。
因为色度抽样(Chroma subsampling)用的是Y:Cb:Cr=4:2:0(YUV色系中,Y为亮度通道,Cb和Cr 为色差通道信号),亮度抽取样(Luma subsample)和色度抽样不平衡,所以可以节省一半的空间,而只有4:4:4才是完整的色度取样。
引用一段百科:“4:2:0并不意味着只有Y,Cb而没有Cr分量。
它指得是对每行扫描线来说,只有一种色度分量以2:1的抽样率存储。
相邻的扫描行存储不同的色度分量,也就是说,如果一行是4:2:0的话,下一行就是4:0:2,再下一行是4:2:0...以此类推。
对每个色度分量来说,水平方向和竖直方向的抽样率都是2:1,所以可以说色度的抽样率是4:1。
PAL制式和SECAM制式的色彩系统特别适合于用这种方式来存储。
绝大多数视频编解码器都采用这种格式作为标准的输入格式。
对非压缩的8比特量化的视频来说,每个由2x2个2行2列相邻的像素组成的宏像素需要占用6字节内存。
”而视频目前所使用的色深(Bit Depth)是8bit,也就是Y、Cb、Cr每个通道使用8bit存储信息,又由于4:2:0抽样,一个像素点占用8bit×3/2=12bit数据量。
8bit的色深意味着Y、Cb、Cr每个通道可以取值0-255(2^8个),这个是全范围(Full Range);而目前视频里使用的都是有限范围(Limited Range或601 Range),Y取16-235、Cb和Cr取16-240。
这个就是指输入级别(Input Level)。
H.264压缩的视频经过视频解码器(Video Decoder)解码以后生成了8bit的YUV(4:2:0)的图像,然后输出时会需要一个输出色系,主要有平面YUV:YV12、NV12等,压缩YUV:YUY2、UYVY等,RGB:RGB32、RGB24等。
前言:玩4K的同学都知道,HDMI接口是视频传输最常用的接口,但是这个接口却有好几个版本HDMI1.4、HDMI2.0、HDMI2.0a、HDMI2.0b等等,每个都有一些差异。
下面就来知识大普及。
截止目前最全的资料了。
HDMI接口又叫高清晰度多媒体接口(英文:High Definition Multimedia Interface,HDMI),这是一种数字化视频/音频接口技术,是适合影像传输的专用型数字化接口,其可同时传送音频和影像信号,且无需在信号传送前进行数/模或者模/数转换。
简单来说,HDMI接口就是一种用来传输影像和声音信号的接口,内容制造设备通过HDMI就可以将影像和声音以极高的效率传输到观影设备上。
这类接口在智能电视、机顶盒、投影仪等设备中比较常见,其接口呈倒梯形,较偏平。
如下图:HDMI的进化史其实最早出现在传输领域的技术是DVI而非DHMI,DVI接口的出现在当时也被广泛用于输出领域,但是随着伴随着数字高清影音技术的发展,DVI接口也开始逐渐暴露出种种问题,甚至在一定程度上成为数字影像技术进步的瓶颈。
因此,无论是IT厂商,平板电视制造商,还是好莱坞的众多出版商,都迫切需要一种更好的能满足未来高清视频行业发展的接口技术,也正是基于这些原因,才促使了HDMI标准的诞生。
HDMI 1.0最早的HDMI 1.0版本于2002年12月推出,它的最大特点就是整合了音频流的数字接口,与当时PC界面中很流行的DVI接口相比,它更先进,更方便。
HDMI 1.0版本支持从DVD到蓝光格式的视频流,而且具备CEC(consumer electronics control)功能,也就是在应用中,可以在所有连接设备间形成一种共通的联络,对设备组具备更方便的控制。
HDMI 1.12004年5月,HDMI 1.1版本面试。
新增对DVD音频的支持。
HDMI 1.2HDMI1.2版本于2005年8月推出,很大程度上解决了HDMI 1.1支持的分辨率较低、同电脑设备兼容性较差等问题。
之前我也发了贴说明10bit压制的优势以及播放方法,也提供了一些自压的10bit视频供测试:/thread-708211-1-1.html当然光提供10bit视频的确很难让人信服其优势,于是我今天就做了个8bit与10bit编码的对比测试。
前者就是带patch以及位深转换修复的x264编译版。
后者是个方便的脚本,可以实现1st pass使用指定的CRF(固定质量模式,数值越低质量越好)编码,然后2nd pass使用1st pass 判定出来的码率进行编码。
所以下文所说的CRF指的都是1st pass使用的,实际上还是2pass (二次编码)模式。
------------------------------------------------------------------------------------------8月31日新增3个高压视频测试:1.码率大约1230kbps的720p,K-ON!的NCED加上雪飘的华丽字幕(做成了内嵌,因为外挂的话会非常耗CPU资源)。
8bit和10bit在色彩过渡区域有着巨大差距。
2.码率大约700kbps的Anohana EP01的ED,加上雪飘的字幕做成内嵌。
3.用了2pass bitrate=4000压的Planet Earth 1080i25版本(fake interlaced)EP01前2分钟的片段,封装了1条DTS-HDHR音轨和9条PGS字幕(包括DIY中字)。
/folder/f02c9c0983f------------------------------------------------------------------------------------------这里要强调的关键的一点就是抖动(dither),我们用的TN屏都是6bit的,却能显示8bit 的色彩,就是因为使用了dither,举个例子,就是反复显示16和17两个值来达到16.5的效果,通过改变其比例,可以实现16-17之间的某个值。
三分钟了解颜色深度8bit、10bit、12bit这些都是个啥?2018-08-03如果你是一个电影圈的新人,你或许已经明白了专业摄像机的使用,也明白了什么是像素,什么是动态范围,你甚至掌握了不同传感器尺寸的不同,与它们的优缺点。
但就在你认为已经掌握了主要功能的基本原理的时候,这个小小的词语或许让你感到困惑:颜色深度。
别担心,这并不是有关摄影机画面的最复杂的词汇,但它却是在新人们中不经常被提起的一个词。
在8比特深度的视频文件中,每个颜色通道的数据储存能力为8 bits,也就是说使用2进制来表示这个范围的话,它就是从00000000到11111111。
这给予了每个通道256种色调。
通常来说,相比8 bits的素材,高颜色深度的素材的额外信息会给后期调色带来更大的范围,而不会迅速降低画面质量。
所以,什么是颜色深度?嗯,基本上它决定了你的设备能够捕捉的可能颜色的范围。
颜色深度越高,能够捕获的颜色数量越多,这意味着渐变更平滑,色轮现象更少(或没有)。
但是,图像深度越高,文件越大,这意味着对存储空间的需求越大,并且可能需要使用更强大的计算机来处理所有数据。
色轮现象即使你所使用的设备支持更高的颜色深度,也不一定会转换为令人惊叹的图像质量。
还有许多其他因素在色域和颜色深度中起作用,包括颜色采样和码流。
如果你仍在疑惑是否要使用更高的颜色深度,以下是你需要记住的:1、色轮现象会让画面变得很丑;2、你是否能够处理高颜色深度下的素材量;3、高颜色深度可以给你后期的调色带来更高的自由度。
32 bit4,294,967,296 colors 98 KB8 bit256 colors37 KB (-62%)4 bit16 colors13 KB (-87%)2 bit4 colors6 KB (-94%)1 bit2 colors4 KB (-96%)最后,小编要对想成为大师级别的新人们说,想要在任何一个专业上有所建树,或者成为大家,都不可能是一朝一夕的事情,还需要不断地努力学习和日积月累的丰富经验才行,希望大家能够在看完这篇文章后对颜色深度有一个基础的了解,也对成为一个更优秀的摄影人有更专业帮助。
H.264和H.265两种视频编码有什么不同?前言:目前主流的两种视频编码标准为是H.264和H.265,你了解这两种标准吗?他们有什么不同?正文:一、H.264和H.265表述H.265是ITU-T VCEG 继H.264之后所制定的新的视频编码标准。
H.265标准围绕着现有的视频编码标准H.264,保留原来的某些技术,同时对一些相关的技术加以改进。
新技术使用先进的技术用以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置。
具体的研究内容包括:提高压缩效率、提高鲁棒性和错误恢复能力、减少实时的时延、减少信道获取时间和随机接入时延、降低复杂度等。
H264由于算法优化,可以低于1Mbps的速度实现标清数字图像传送;H265则可以实现利用1~2Mbps的传输速度传送720P(分辨率1280*720)普通高清音视频传送。
H.265旨在在有限带宽下传输更高质量的网络视频,仅需原先的一半带宽即可播放相同质量的视频。
这也意味着,我们的智能手机、平板机等移动设备将能够直接在线播放1080p的全高清视频。
H.265标准也同时支持4K(4096×2160)和8K(8192×4320)超高清视频。
可以说,H.265标准让网络视频跟上了显示屏“高分辨率化”的脚步。
H.264,同时也是MPEG-4第十部分,是由ITU-T视频编码专家组(VCEG)和ISO/IEC动态图像专家组(MPEG)联合组成的联合视频组(JVT,Joint Video Team)提出的高度压缩数字视频编解码器标准。
这个标准通常被称之为H.264/AVC(或者AVC/H.264或者H.264/MPEG-4 AVC或MPEG-4/H.264 AVC)而明确的说明它两方面的开发者。
H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。
在数字视频中,位深度(也称为色彩深度或色深)指的是每个像素使用的位数,用于表示颜色和透明度信息。
常见的位深度有8位、10位和12位等。
1. **8位编码**:
* 每个颜色通道(红色、绿色和蓝色)使用8位。
* 总共是 8 位 x 3 通道 = 24 位。
* 可以表示 2^8 = 256 个不同的颜色值。
* 通常用于标准清晰度的视频和许多数字摄影。
2. **10位编码**:
* 每个颜色通道使用10位。
* 总共是 10 位 x 3 通道 = 30 位。
* 可以表示 2^10 = 1024 个不同的颜色值。
* 通常用于高清和更高质量的视频。
* 在某些应用中,如广播和高端制作,10位编码被认为是必要的。
更高的位深度提供了更大的颜色范围和更平滑的色彩过渡,从
而产生更真实、更生动的图像。
然而,高位的视频需要更多的存储空间和处理能力,因此它们通常比8位视频更昂贵。
一、YUV色彩空间简介YUV色彩空间是一种用于表示彩色视瓶的色彩空间,常用于视瓶编码和传输中。
在YUV色彩空间中,颜色信息与亮度信息是分离的,这种分离使得YUV色彩空间在视瓶编码中表现出色彩信息和亮度信息的独立性,因此在视瓶编码中被广泛应用。
二、YUV色彩空间的数据排列方式YUV色彩空间中的数据排列方式通常有两种:YUV422和YUV420。
这两种数据排列方式分别用于表示不同色彩深度和空间分辨率的视瓶。
1. YUV422数据排列方式YUV422数据排列方式是一种色彩采样格式,它将亮度信息(Y)和色度信息(U、V)分别进行采样。
在YUV422数据排列方式中,亮度信息(Y)的采样率是全分辨率的,而色度信息(U、V)的采样率是亮度信息的一半。
这种数据排列方式在色彩保真度和图像质量上有较好的表现,适用于对色彩保真度要求较高的视瓶场景。
2. YUV420数据排列方式YUV420数据排列方式是另一种色彩采样格式,它也将亮度信息(Y)和色度信息(U、V)分别进行采样。
不同的是,YUV420数据排列方式中,亮度信息(Y)和色度信息(U、V)的采样率都是亮度信息的一半。
这种数据排列方式在节约存储空间和传输带宽上有优势,适用于对存储和传输资源要求较高的视瓶场景。
三、YUV10bit的数据排列方式YUV10bit是指YUV色彩空间中的每个分量(Y、U、V)使用10位来表示的数据排列方式。
相较于传统的8位色彩深度,YUV10bit具有更高的色彩精度和更丰富的色彩表现力。
1. YUV10bit在视瓶编码中的应用在视瓶编码中,色彩精度直接影响着视瓶的质量和表现力。
传统的8位色彩深度在表现细节和色彩过渡时会出现明显的色带和色彩断层现象,而YUV10bit能够更准确地还原色彩信息,提高视瓶的质量和真实感。
在视瓶编码中应用YUV10bit能够显著提升视瓶的观感和表现力。
2. YUV10bit的数据排列方式在YUV10bit的数据排列方式中,每个色彩分量(Y、U、V)都使用10位来表示,这意味着每个分量能够表示的色彩数目从256级扩展到1024级,色彩过渡更加细腻自然,色带和色彩断层现象也得到了显著改善。
前言:目前很多摄像机采用了H.265的编码标准,H.264编码的摄像机逐渐减少,为什么H.265会流行?H.264和H.265有何不同?正文:一、什么是H.265H.265是ITU-TVCEG继H.264之后所制定的新的视频编码标准。
H.265标准围绕着现有的视频编码标准H.264,保留原来的某些技术,同时对一些相关的技术加以改进。
新技术使用先进的技术用以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置。
具体的研究内容包括:提高压缩效率、提高鲁棒性和错误恢复能力、减少实时的时延、减少信道获取时间和随机接入时延、降低复杂度等。
H264由于算法优化,可以低于1Mbps的速度实现标清数字图像传送;H265则可以实现利用1~2Mbps的传输速度传送720P(分辨率1280*720)普通高清音视频传送。
H.265旨在在有限带宽下传输更高质量的网络视频,仅需原先的一半带宽即可播放相同质量的视频。
这也意味着,我们的智能手机、平板机等移动设备将能够直接在线播放1080p的全高清视频。
H.265标准也同时支持4K(4096×2160)和8K(8192×4320)超高清视频。
可以说,H.265标准让网络视频跟上了显示屏“高分辨率化”的脚步。
二、什么是H.264H.264,同时也是MPEG-4第十部分,是由ITU-T视频编码专家组(VCEG)和ISO/IEC动态图像专家组(MPEG)联合组成的联合视频组(JVT,Joint Video Team)提出的高度压缩数字视频编解码器标准。
这个标准通常被称之为H.264/AVC(或者AVC/H.264或者H.264/MPEG-4AVC或MPEG-4/H.264 AVC)而明确的说明它两方面的开发者。
H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。
举个例子,原始文件的大小如果为88GB,采用MPEG-2压缩标准压缩后变成3.5GB,压缩比为25∶1,而采用H.264压缩标准压缩后变为879MB,从88GB到879MB,H.264的压缩比达到惊人的102∶1。
色彩深度技术探讨,关于8bit,10bit,12bit,16bit,什么是灰阶?色彩深度色彩深度(Depth of Color),色彩深度又叫色彩位数。
视频画面中红、绿、蓝三个颜色通道中每种颜色为N位,总的色彩位数则为3N,色彩深度也就是视频设备所能辨析的色彩范围。
目前有18bit、24bit、30bit、36bit、42bit和48bit位等多种。
24位色被称为真彩色,R、G、B各8bit,常说的8bit,色彩总数为1670万,如诺基亚手机参数,多少万色素就这个概念。
灰阶什么又是灰阶呢?通常来说,液晶屏幕上人们肉眼所见的一个点,即一个像素,它是由红、绿、蓝(RGB)三原色组成的。
每一个基色,其背后的光源都可以显现出不同的亮度级别。
而灰阶代表了由最暗到最亮之间不同亮度的层次级别。
把三基色每一个颜色从纯色(如纯红)不断变暗到黑的过程中的变化级别划分成为色彩的灰阶,并用数字表示,就是最常见的色彩存储原理。
这中间层级越多,所能够呈现的画面效果也就越细腻。
以8bit 为例,我们就称之为256灰阶。
8bit 10bit 12bit 14bit 16bit在数字信息存贮中,计算设备用2进制数来表示,每个0或1就是一个位(bit)。
假设1代表黑、0代表白,在黑白双色系统中最少有2bit。
单基色为nbit,画面位数就为2 ?bit,位数越大,灰度越多,颜色也越多,彩色系统中同理。
视频画面10bit含义就是画面能以10为二进制数的数量控制色彩层次(即灰阶)。
通常 8bit相当于256级灰阶——即常说得24位真彩色;而10bit就相当于1024级灰阶。
三基色混合成彩色,增加1 bit就意味色彩数增加8倍。
10bit就相当于1024的三次方——1073741824,约为10.7亿色。
远大于8bit的1670万色。
x265是一种视频编码工具,可以用于将视频转换为H.265/HEVC格式。
在x265中,10bit编码参数可以用于指定视频的位深度为10位。
具体的x265 10bit编码参数可能因不同的版本和配置而有所不同,因此无法提供具体的参数值。
如果您需要了解x265 10bit编码参数的具体信息,建议您查阅x265的官方文档或相关资料,或者咨询专业的技术人员。
另外,需要注意的是,x265 10bit编码参数的正确设置对于视频质量和压缩效率至关重要。
因此,在使用x265进行视频编码时,建议根据具体的需求和场景进行参数调整和优化。
本文章2012.1.18更新测试用视频:/folder/fdon21ks一、前言10bit视频的播放,想偷懒的人可以直接用最新版MPC-HC、Potplayer、mplayer、QQ 影音等播放器,或者使用各种解码包的最新版(都是使用ffdshow/LAV实现解码的),其内部解码器都是基于ffmpeg(libav)的。
这些播放器和解码器中用的色彩转换也基本都是libswscale,所以有部分会出现色彩空间转换上的错误以及dither方式的不恰当。
并且由于10bit YUV到8bit YUV再到8bit RGB的坑爹转换过程使损失也大大增加(前一步对于10bit而言还有dither的过程,可以增加一定的精度,8bit视频播放就是做了后面的一步,所以即使这样10bit的效果也还是比8bit重编码的情况好不少)。
于是对回放质量(8bit、10bit都能受益)有追求的可以参考下面介绍的基于MPC-HC使用madVR的播放教程,也可以看VX的播放攻略,其中也包括对于电脑性能不足的情况的解决方案:/article/552.htm关于10bit视频播放对电脑性能的要求,主要是不支持硬解(包括DXVA、CUVID、QuickSync),所以要靠软解,而目前软解10bit视频效率最高的就是LAV Video Decoders,基本上短时码率不超过30Mbps的话现在的双核CPU都能应付。
但为了最佳的回放要靠madVR渲染器,而madVR内部各种mad的处理过程靠的不是CPU,而是GPU的Shader,也就是说显卡不能太差,显卡要能支持DX 9.0c,显存最好在384MB以上,对显卡性能的要求我没有什么可以参考的依据,只知道我自己笔记本上的GT420M 和HTPC上的HD5550都毫无压力。
二、10bit的优势有关10bit重编码的优势,实际上就是用更高位深来进行数据的有损编码的优势,而且bit 越高效果越好。
最简单的一句话就是,压缩率更高,以更低的码率提供更好的还原效果,这已经足够具有意义了。
数字视频的采样格式
根据电视信号的特征,亮度信号的带宽是色度信号带宽的两倍。
因此其数字化时可采用幅色采样法,即对信号的色差分量的采样率低于对亮度分量的采样率。
用Y:U:V来表示YUV三分量的采样比例,则数字视频的采样格式分别有4:1:1、4:2:2和4:4:4三种。
电视图像既是空间的函数,也是时间的函数,而且又是隔行扫描式,所以其采样方式比扫描仪扫描图像的方式要复杂得多。
分量采样时采到的是隔行样本点,要把隔行样本组合成逐行样本,然后进行样本点的量化,YUV到RGB色彩空间的转换等等,最后才能得到数字视频数据。
一、Y:U:V=4:1:1
这种方式是在每4个连续的采样点上,取4个亮度Y的样本值,而色差U、V分别取其第一点的样本值,共6个样本。
显然这种方式的采样比例与全电视信号中的亮度、色度的带宽比例相同,数据量较小。
二、Y:U:V=4:2:2
这种方式是在每4个连续的采样点上,取4个亮度Y的样本值,而色差U、V分别取其第一点和第三点的样本值,共8个样本。
这种方式能给信号的转换留有一定余量,效果更好一些。
这是通常所用的方式。
三、Y:U:V=4:4:4
在这种方式中,对每个采样点,亮度Y、色差U、V各取一个样本。
显然这种方式对于原本就具有较高质量的信号源(如S-Video源),可以保证其色彩质量,但信息量大。
10bit差分编码
10位差分编码是一种数字信号处理技术,通常用于音频和视频数据的编码和传输。
差分编码的基本原理是通过记录连续样本之间的差异来减少数据传输量,从而节省存储空间和传输带宽。
在10位差分编码中,每个样本被表示为10位二进制数字。
与其他差分编码技术不同的是,10位差分编码不仅考虑相邻样本之间的差异,还可以跨越多个样本进行编码。
这种方法可以更好地捕捉信号的动态范围,提高编码的效率和质量。
10位差分编码的优点之一是在数据传输过程中具有较好的容错性。
由于它记录的是样本之间的差异,即使在传输过程中出现了部分数据丢失或损坏,接收端仍然可以通过对差分数据进行解码来恢复原始信号。
这使得10位差分编码在不稳定的传输环境中具有一定的优势。
此外,10位差分编码还可以在一定程度上减少数据传输时的噪声和失真。
通过记录样本之间的差异,一些常见的噪声和失真可以在解码过程中被消除或减轻,从而提高了信号的质量和保真度。
然而,10位差分编码也存在一些局限性。
由于需要记录样本之间的差异,这种编码方式通常需要更多的计算和存储资源。
此外,对于某些信号类型,特别是在动态范围较大或变化较快的情况下,10位差分编码可能无法完全满足质量要求。
总的来说,10位差分编码是一种有效的数字信号处理技术,适用于音频和视频数据的编码和传输。
它具有较好的容错性和抗噪声能力,但也需要在实际应用中权衡其优点和局限性,以选择最合适的编码方式。
因为最近发的资源很多,求问10bit如何播放的吧友也不少,就集中开个贴写的详细一点。
即便你能正确的解码10bit也还是建议读一读,知道如何设置画质最好。
因为有的时候不妥当的设置,再好的Rip作品看起来也和youku无异。
有的时候字幕组辛辛苦苦做出来的高水准作品就被很多人不合适的播放设置给毁了。
MKVtoolnix教程是因为最近不少人求助这方面的东西,包括普通的吧友,包括学习视频编码相关知识的。
总结起来写个教程好了。
本教程内容如下,如果有你想知道的内容,按图索骥就行了。
括号内A代表适合一般读者,B代表适合研究视频编码的:(以下为系统解码器相关知识,MediaCoder/MEGUI使用者强烈建议阅读)1. 什么是分离器,解码器和渲染器(A)2. 为什么要删除Windows7系统自带解码器,怎么删(B)3. 如何设置完美解码10bit+最佳画质的解码器设置。
(A)4. 解码器设置(B)5. 用ffdshow实现编码添加滤镜(A)(以下为MKVtoolnix相关教程)6. 如何将一个视频无损地、很方便地转为MKV格式(A)。
7. 如何将外挂音轨、外挂字幕封装到MKV文件里去,使之成为一个单独文件(A)。
8. 如何将>4GB的视频文件较快的切割成<4GB的分块,以获得android系统fat32支持(A)。
9. 下载好的文件音画不同步,相差几秒钟,如何调整(A)。
10. 怎样从文件里无损分离出音轨,以及内嵌字幕(B)。
1. 分离器,解码器和渲染器相关知识首先不解释媒体文件的封装格式了。
以一个MKV为例:封装视频流一个,H.264格式;音频流两个,flac+aac字幕一个,ass格式一个章节文件那么我们播放的时候,发生了什么事情呢?首先,这个mkv必须先被解包。
这个过程是分离器的作用。
分离器的作用,就是将视频文件临时分离成不同的部分。
如果有多个流,比如音频流,选择哪一个流也是分离器的作用。
一般分离器。
数字化视频编码技术详解数字化视频编码技术是指将模拟视频信号转化为数字信号,并通过压缩算法进行编码的过程。
这种技术广泛应用于数字电视、视频会议、视频监控、互联网视频传输等领域。
本文将详细解析数字化视频编码技术的原理和应用。
一、数字化视频编码技术的原理数字化视频编码技术主要包括两个基本步骤:采样和编码。
采样是指将连续的模拟视频信号转化为离散的数字信号。
在视频信号的采样过程中,根据采样定理,对原始视频信号进行等间隔采样,获取一系列采样点。
采样率越高,所能还原的视频细节就越多,但同时也会导致编码所需的存储空间增加。
编码是指将采样得到的数字信号进行压缩编码,以减少数据的存储和传输量。
常用的数字化视频编码标准包括H.264、MPEG-2和VP9等。
这些标准通过以牺牲一定视频质量为代价,实现视频信号数据的高效传输和存储。
二、数字化视频编码技术的应用1. 数字电视:数字化视频编码技术在数字电视中发挥着重要作用。
通过对视频信号的数字化和编码,数字电视可以提供高清晰度的图像和良好的音频效果,为用户提供更加丰富多样的观看体验。
2. 视频会议:数字化视频编码技术在视频会议中的应用也非常广泛。
通过高效的压缩编码算法,可以实现低带宽的网络环境下的实时视频传输,提高会议的效果和体验。
3. 视频监控:数字化视频编码技术为视频监控系统的发展提供了技术基础。
通过数字化的视频信号和高效的编码算法,可以实现对监控视频的实时采集、传输、存储和分析,提高监控的效率和准确性。
4. 互联网视频传输:数字化视频编码技术使得互联网视频传输成为可能。
通过高效的压缩编码算法,互联网用户可以通过在线视频平台观看高清晰度的视频内容,实现了视频的快速传输和共享。
三、数字化视频编码技术的发展趋势随着科技的不断进步和应用需求的不断增加,数字化视频编码技术也在不断发展和演进。
1. 高效率编码:为了提高视频传输效率和节约网络带宽,数字化视频编码技术正在朝着更加高效的方向发展。
HDR视频通常采用10bitHEVC编码,只有支持10bitHEVC解码,也就支持HDR视频播放。
技术总是在不断进步中,特别是针对我们的视觉体验,各个厂商都在不遗余力地开发着新技术来满足观众们的需求。
在H.265、10bit、4K已经越来越难引起消费者关注的时候,HDR的横空出世,再一次引发了新一轮的图像话题。
不夸张地说,在2016年,无论是平板电视、4K蓝光以及如盒子、播放机这样的设备,都会将支持HDR作为自己的重要功能。
但对于大多数普通用户而言,谈到HDR视频还是一脸“蒙圈”,这个词说来不陌生,无论是拍摄照片还是游戏,HDR效果早就普及多年,怎么视频极其相关设备就突然冒出这样一个标准呢?下面就让我们给大家介绍HDR对于视频的作用和意义,以及如何才能在观看视频时获得HDR的绝佳体验。
HDR,像素质量的一次革命无论是相片中我们看到的HDR效果,还是在游戏中的HDR特效,实际上和我们现在要介绍的HDR视频,在某种程度上是一种东西。
只是HDR作为电视画面来说,之前从未在民用领域普及,而从2015年开始,HDR作为一种显示标准,才逐渐在电视上蔓延。
HDR,全称High Dynamic Range,即高动态范围。
通俗来说,HDR 可以拓展显示的亮度范围,展现更多的亮部和暗部细节,为画面带来更丰富的色彩和更生动自然的细节表现,从而使得电视画面更接近人眼所见。
如果说4K 分辨率是对像素数量的一次提升,那么HDR 显示技术则是对像素质量的一次升级。
相对于4K 分辨率,HDR 技术所带来的视觉震撼更为明显。
如果说4K分辨率需要大尺寸电视以及合适的距离才能在电视上体现出和1080P的区别,那么HDR无论屏幕尺寸如何、观影距离多少,其对画质的提升效果都是显而易见的。
HDR和SDR的画面区别人眼所能感受的亮度范围约为10-³nit~106 nit ,所能感受到的瞬时对比度范围可达10000∶1,而目前消费级液晶显示器的亮度一般在300nit~400nit 左右,其亮度范围一般为2000∶1 。
之前我也发了贴说明10bit压制的优势以及播放方法,也提供了一些自压的10bit视频供测试:/thread-708211-1-1.html当然光提供10bit视频的确很难让人信服其优势,于是我今天就做了个8bit与10bit编码的对比测试。
前者就是带patch以及位深转换修复的x264编译版。
后者是个方便的脚本,可以实现1st pass使用指定的CRF(固定质量模式,数值越低质量越好)编码,然后2nd pass使用1st pass 判定出来的码率进行编码。
所以下文所说的CRF指的都是1st pass使用的,实际上还是2pass (二次编码)模式。
------------------------------------------------------------------------------------------8月31日新增3个高压视频测试:1.码率大约1230kbps的720p,K-ON!的NCED加上雪飘的华丽字幕(做成了内嵌,因为外挂的话会非常耗CPU资源)。
8bit和10bit在色彩过渡区域有着巨大差距。
2.码率大约700kbps的Anohana EP01的ED,加上雪飘的字幕做成内嵌。
3.用了2pass bitrate=4000压的Planet Earth 1080i25版本(fake interlaced)EP01前2分钟的片段,封装了1条DTS-HDHR音轨和9条PGS字幕(包括DIY中字)。
/folder/f02c9c0983f------------------------------------------------------------------------------------------这里要强调的关键的一点就是抖动(dither),我们用的TN屏都是6bit的,却能显示8bit 的色彩,就是因为使用了dither,举个例子,就是反复显示16和17两个值来达到16.5的效果,通过改变其比例,可以实现16-17之间的某个值。
10bit究竟是什么?10bit显⽰器画质更好?影⾳的世界⾥永远有着数不清的⽞学和噱头,各种各样的奇怪概念让⼈觉得不明觉厉,意志薄弱⼀些的消费者甚⾄⽴刻就要慷慨解囊了。
在这些看上去⾼深莫测,⾮常唬⼈的名词⾥,10bit就是其中之⼀。
显⽰设备第⼀重要的是画质,⽽画质好坏却⼜是⼀种⾮常主观的东西。
除⾮屏幕出现了诸如严重偏⾊的问题,否则你要说设备的画质效果如何,这还真是每个⼈都有⾃⼰的想法。
正是因为这样,⼚商们就有了做⽂章的空间,各种各样不明觉厉的术语和技术都被当成卖点宣传了出去。
随着⼈们消费⽔平的提升,不少⼈也渐渐脱离了“显⽰器只要能看见东西就⾏”这样的思维,开始追求起更好的画质了。
如果对和影⾳有关的知识并不太了解,显⽰设备所拥有的那些卖点就成为了⼈们参考的依据。
在这之中,不少⼈注意到了所谓的“10bit”。
就在不久前的纽约PhotoPlus⼤展上,明基公司发布了两款专业显⽰器新品,分别为SW320和PV270。
除了4K分辨率外,10bit⾯板也是它的⼀⼤宣传点。
另外⼈们还发现,拥有10bit的并不⼀定是那些昂贵的显⽰器,现在市⾯上也有许多2000元级别的10bit显⽰器产品。
它们都以更好的⾊彩表现为亮点,这也吸引了不少⼈前去尝试。
那么,10bit究竟是什么呢?我们在选购显⽰器的时候应该如何看待⼚商这样去宣传?什么是bit?如果要说10bit能为我们带来什么,最好还是先从“bit”开始说起。
如果要翻译成中⽂,⼀般会⽤“位深”作为它的译名。
当然了,就算是翻译过来,我们还是很难从译名中得知它的概念。
这样⼀来,还不如举个例⼦呢。
10bit有什么⽤?如果要⽤最直观的说法去描述,它能够让⾊彩呈现出更加细腻的渐变变化,因为每⼀个颜⾊通道中的⾊彩级数由8bit的256级(⽬前我们绝⼤多数的显⽰设备都采⽤的是8bit,甚⾄还有6bit)⼀下⼦暴涨到了1024级。
这样,颜⾊的呈现⾃然就更加细腻了。
我们可以从最简单的⿊⽩两⾊这个通道说起。
10bit422 亮度范围解释说明引言1.1 概述在今天的数字影像和视频领域中,色彩深度和亮度范围是至关重要的概念。
10bit422是一种广泛应用于高质量图像处理和传输领域的技术。
本文将深入探讨10bit422的概念、亮度范围的定义与解释,以及它们在不同场景中的重要性。
1.2 文章结构本文分为五个主要部分。
首先是引言部分,对10bit422的概念进行简要介绍。
其次是亮度范围的重要性,涵盖了影响图像质量的因素、使用不同亮度范围的场景和需求以及对比不同亮度范围下图像效果与感受。
接下来是10bit422的优势与应用领域,包括提升图像细节和平滑过渡能力、视觉特效、动画和电影制作中的应用案例以及广播电视、摄影与游戏产业中的应用案例。
最后是结论与展望部分,总结文章要点与主要观点论述,并对未来10bit422技术发展趋势进行猜测。
1.3 目的本文旨在帮助读者更好地理解10bit422的概念以及亮度范围的重要性。
通过深入分析其优势与应用领域,读者将能够了解为什么这些概念在数字影像和视频处理中如此关键。
同时,我们也希望能够展望未来10bit422技术的发展趋势,并对其在不同领域的进一步应用进行思考。
2. 10bit422 的概念2.1 什么是10bit42210bit422是指一种色彩采样和编码方式,它使用10位深度进行色彩采样并将其以4:2:2的比例进行编码。
这个概念在数字图像处理领域非常重要,特别是在视频领域中。
在传统的8位色彩深度下,每个颜色通道只能表示256种亮度级别。
而采用了10位深度的10bit422色彩采样方式,则可以表示更多的亮度级别,达到1024种亮度级别。
相比于8位色彩深度,拥有更高的亮度分辨率使得图像能够呈现更为细腻和逼真的色彩效果。
同时,4:2:2的编码比例意味着每两个水平方向上的像素只会共享一组颜色信息。
相较于全尺寸取样(4:4:4),这种压缩方式减少了对颜色信息的采样量,但仍然能够保留足够多的信息使图像质量不受严重损失。
16bit到10bit色调映射下载提示:该文档是本店铺精心编制而成的,希望大家下载后,能够帮助大家解决实际问题。
文档下载后可定制修改,请根据实际需要进行调整和使用,谢谢!本店铺为大家提供各种类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by this editor. I hope that after you download it, it can help you solve practical problems. The document can be customized and modified after downloading, please adjust and use it according to actual needs, thank you! In addition, this shop provides you with various types of practical materials, such as educational essays, diary appreciation, sentence excerpts, ancient poems, classic articles, topic composition, work summary, word parsing, copy excerpts, other materials and so on, want to know different data formats and writing methods, please pay attention!在数字图像处理中,色调映射是一项重要的技术,它可以帮助我们将高位色调映射到低位色调,从而在保持图像质量的同时减少数据存储和传输的开销。
10Bit 色彩数字视频编码根据我最近研究高清播放的经验,得出了以下结论,如果有说的不对的欢迎指出。
有关整个视频处理过程的颜色问题,水很深。
首先是目前视频本身的色系一般用的是YUV,而不是显示器输出使用的RGB。
因为色度抽样(Chroma subsampling)用的是Y:Cb:Cr=4:2:0(YUV色系中,Y为亮度通道,Cb和Cr 为色差通道信号),亮度抽取样(Luma subsample)和色度抽样不平衡,所以可以节省一半的空间,而只有4:4:4才是完整的色度取样。
引用一段百科:“4:2:0并不意味着只有Y,Cb而没有Cr分量。
它指得是对每行扫描线来说,只有一种色度分量以2:1的抽样率存储。
相邻的扫描行存储不同的色度分量,也就是说,如果一行是4:2:0的话,下一行就是4:0:2,再下一行是4:2:0...以此类推。
对每个色度分量来说,水平方向和竖直方向的抽样率都是2:1,所以可以说色度的抽样率是4:1。
PAL制式和SECAM制式的色彩系统特别适合于用这种方式来存储。
绝大多数视频编解码器都采用这种格式作为标准的输入格式。
对非压缩的8比特量化的视频来说,每个由2x2个2行2列相邻的像素组成的宏像素需要占用6字节内存。
”而视频目前所使用的色深(Bit Depth)是8bit,也就是Y、Cb、Cr每个通道使用8bit存储信息,又由于4:2:0抽样,一个像素点占用8bit×3/2=12bit数据量。
8bit的色深意味着Y、Cb、Cr每个通道可以取值0-255(2^8个),这个是全范围(Full Range);而目前视频里使用的都是有限范围(Limited Range或601 Range),Y取16-235、Cb和Cr取16-240。
这个就是指输入级别(Input Level)。
H.264压缩的视频经过视频解码器(Video Decoder)解码以后生成了8bit的YUV(4:2:0)的图像,然后输出时会需要一个输出色系,主要有平面YUV:YV12、NV12等,压缩YUV:YUY2、UYVY等,RGB:RGB32、RGB24等。
通常视频解码器会输出YV12。
视频解码器已经将YV12的图像交给了视频渲染器(Video Renderer),视频渲染器负责将视频从YV12转换为RGB然后输出最后的画面(给显卡,显卡再将画面输出至显示器),首先最后输出的RGB通常是8bit色深,而且对于RGB肯定是4:4:4的全采样模式,RGB32就是红绿蓝各8bit,剩下一个不使用的通道占8bit,另外一种叫ARGB32,最后这个通道就是Alpha通道(透明通道)。
从YV12到RGB的过程就存在2个问题,第一个是转换矩阵,目前主要使用的YCbCr规范有2种:ITU-R BT.601和ITU-R BT.709。
这2种转换矩阵会产生不同的结果,如果一个RGB视频源使用ITU-R BT.601转换为YUV然后进行编码,那么最后解码以后也要用ITU-R BT.601将其转换成RGB,对于ITU-R BT.709也是一样的道理,如果最后解码时用了错误的转换矩阵,就会出来错误的颜色。
ITU-R BT.601主要是在标清时代所采用,包括DVD、NTSC、PAL和SDTV之类的;而高清视频,包括BD和HDTV以及各种高清的重编码,多数都是使用ITU-R BT.709。
但也可能存在少数例外,解码这些例外时就很容易因为使用了错误的转换矩阵而得出错误的颜色。
比如AIR的BD就存在一定争议,这个BD用了MPEG-2编码,是从DVD的标清视频直接upconv上来的,分辨率是1920x1080,帧模式十分混乱,各种24t、30i、30p混杂在一起。
如果从它是DVD upconv来看,应该是用BT.601,但是BD/高清视频应该是普遍使用BT.709的,所以它到底是什么,还真的说不清楚。
第二个问题是输出级别(Output Level),决定转换后的RGB的每个通道的范围。
一般有2种,Full Range的电脑显示器(RGB:16-255),Limited Range的电视机(RGB:16-235),但是现在有不少电视机也是支持0-255的全范围输入的,所以需要有正确的判断。
而且电视机的画面的设置调整也很重要,需要配合Super HiVi CAST一类的调整视频来调出正确的黑位和白位。
将Limited Range转换至Full Range的RGB,这个过程可以称作YC伸张,反过来的话就是YC压缩。
在高清播放中这个很关键,一般如果输入是Limited Range,而你输出的设备支持Full Range,那要做1次YC伸张;如果输出设备是Limited Range或者输入是Full Range,那么就不需要做YC伸张。
而可以做YC伸张的东西有视频解码器、视频渲染器、播放器的Shader后处理、显卡,所以控制好他们最后做的YC伸张的次数成了一个关键。
幸好现在Win7下EVR一般会对YV12输入做一次YC伸张,对RGB32输入不做改变,而显卡通常不去做改变,所以还是比较容易控制的,以前XP系统时用VMR7/9作渲染器,就很容易碰到黑位不正的问题,往往就是YC伸张没做对。
引用一段六维的zfylich写的教程:TV/PCRange:TVrange -> PC Range称之为YC伸张;提到这个主要涉及一个YC压缩和伸张的过程,该过程出现来自于BT.601和BT.709(601标准的高清版)标示颜色的可取数值与实际可取数值的偏差导致。
在601标准中,YC的每个通道可取值并没有256个,对色度通道,可取值是16-240,对亮度通道,可取值只有16-235,这么设计是考虑到了模拟信号传输过程中的过冲效应(Gibbs效应);值得注意的是,在电脑播放的过程中,使用的是每个通道0-255都是可取的full range,那么从601色彩标准到full range的过程就是一个将16-235(或16-240)伸张到0-255的过程,这个过程一般称为YC伸张,那么其逆过程YC压缩也就可以理解了。
而现在10bit的视频开始普及(由于支持10bit H.264解码的解码器变多了),输入级别大大扩展,所以从根源上减轻了banding(色彩平滑过渡区域由于可用颜色数量不够产生的色带)的产生,并加强了画面暗场的还原能力,具有更高的动态范围和色彩数量。
Now let's check what the BT.709 specification says:Black level, 8bit: 16, 10bit: 64Achromatic, 8bit: 128, 10bit: 512Nominal peak, 8bit: 235, 10bit: 940也就是BT.709规定,10bit下的Y通道范围是64-940,512为中值(中灰)。
Cb、Cr通道范围是64-960,512为中值。
而我也见到有些视频使用了Full Range(0-255)的YUV编码。
也提出了用全采样的4:4:4的YUV进行编码,甚至说既然都用4:4:4了,那就直接用RGB来编码视频,省去了在RGB和YUV 之间互相转换带来的各种画面损失和各种问题。
不过还是任重而道远,这些不光考验编码器和压制的人,也考验播放器及各种解码器、渲染器,还包括显卡、显示线和显示设备的支持程度。
总结一下,有关高清播放方面,要能正确地还原出视频信息,需要能支持并正确判断其使用的色深(8bit、10bit,以后还会更高),能支持并正确判断Limited Range和Full Range的YUV输入,能支持并正确判断4:2:0和4:4:4的YUV输入,能正确判断使用何种转换矩阵(BT.601还是BT.709),判断转换后的RGB是使用Limited Range还是Full Range(这点要靠人自己根据显示设备去决定,播放器没有能力判断),然后根据判断的结果做正确的YC伸张,如果是10bit视频,转换后的RGB能够保持10bit并且一路输出给显示设备。
这里还有很多难点依然无法比较方便地去实现(一些规格比现在普遍的情况要先进很多),只有不断努力去完善了。
有关10bit视频的讨论,详见:/newbbs/viewtopic.php?f=8&t=319还有国外的CCCP论坛:/forums/另外关于BT.601和BT.709转换也存在一些另类的问题,就是诸如DirectVobSub这种字幕滤镜,它使用的是BT.601,但是高清视频最后在渲染器端是用BT.709转换的,所以色彩就出现了问题。
解决方法之一是在ffdshow这种视频解码器里就强制转换为RGB32输出,然后字幕再被加入视频画面里,已经是RGB,在渲染器里就不需要再经过转换,最后可以输出正确的颜色。
详情见:/newbbs/viewtopic.php?f=8&t=319&start=60现在有关8bit到10bit的转换问题讨论很多,现在x264所使用的libswscale做的是将8bit 左移8位再加上这8bit得到对应的16bit采样的数据,然后再右移6位得到10bit的数据。
例如原始一个8bit数据为10110110(182),转成16bit得到10110110 10110110(46774),再转成10bit得到10110110 10(730)但是madVR的作者madshi认为应该直接将8bit左移2位得到对应的10bit数据。
例如原始一个8bit数据为10110110(182),转成10bit得到10110110 00(728),得到了与libswscale 不一样的结果。
madshi指出libswscale现在使用的方法会造成量化误差,由于16bit到10bit的过程直接舍弃了最后6bit而又没做dither(抖动),导致转换后的梯度是不平滑的,如下所示:8bit full-range RGB data:60, 61, 62, 63, 64, 65, 66, 6710bit full-range RGB data, upscaled with x264:240, 244, 248, 252, 257, 261, 265, 269252, 257这2个之间就相差了5所以madshi认为应该宁可舍弃一小部分动态范围,直接将8bit数据左移2位得到10bit,能保证无损失的平滑转换。
经过一番讨论后,x264的主要编写人员Dark Shikari也察觉到了问题,说可能所有x264所使用的libswscale需要重新编写了。
doom9上原始的讨论在这里:/showthread.php?p=1517620补充一下:根据06_taro菊苣的解释,现在认为对于Limited Range,BT.709里有明确的规定,就是通过左移2位的方式进行8bit到10bit的转换(相当于十进制的数据乘以4);而对于Full Range,并无这样的规定,所以并不明确,但是madshi所认为的对这也采用左移2位的方式是错误的,应该采用8bit-->16bit然后再dither(抖动)成10bit的方式转换。