大家好,又见面了,我是你们的朋友全栈君。
一.YUV格式与RGB格式的换算
RGB 转换成 YUVY = (0.257 * R) + (0.504 * G) + (0.098 * B) + 16
Cr = V = (0.439 * R) – (0.368 * G) – (0.071 * B) + 128
Cb = U = -( 0.148 * R) – (0.291 * G) + (0.439 * B) + 128YUV 转换成 RGBB = 1.164(Y – 16) + 2.018(U – 128)
G = 1.164(Y – 16) – 0.813(V – 128) – 0.391(U – 128)
R = 1.164(Y – 16) + 1.596(V – 128)
RGB取值范围均为0~255,Y=0~255,U=-122~+122,V=-157~+157以下是经过简化的公式,运算量比上述公式要小一些。
RGB转YUVY = 0.299R + 0.587G + 0.114B
U’= (BY)*0.565
V’= (RY)*0.713YUV转RGBR = Y + 1.403V’
G = Y – 0.344U’ – 0.714V’
B = Y + 1.770U’
RGB转灰度整数算法
而实际应用时,希望避免低速的浮点运算,所以需要整数算法。
注意到系数都是3位精度的没有,我们可以将它们缩放1000倍来实现整数运算算法:
Gray = (R*299 + G*587 + B*114 + 500) / 1000
RGB一般是8位精度,现在缩放1000倍,所以上面的运算是32位整型的运算。注意后面那个除法是整数除法,所以需要加上500来实现四舍五入。
就是由于该算法需要32位运算,所以该公式的另一个变种很流行:
Gray = (R*30 + G*59 + B*11 + 50) / 100
但是,虽说上一个公式是32位整数运算,但是根据80×86体系的整数乘除指令的特点,是可以用16位整数乘除指令来运算的。而且现在32位早普及了(AMD64都出来了),所以推荐使用上一个公式。
如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。因此用YUV格式由彩色转黑白信号相当简单.
在技术文档里,YUV经常有另外的名字, YCbCr ,其中Y与YUV 中的Y含义一致,Cb , Cr
同样都指色彩,,只是在表示方法上不同而已,Cb Cr
就是本来理论上的“分量/色差”的标识。C代表分量(是component的缩写)Cr、Cb分别对应r(红)、b(蓝)分量信号,Y除了g(绿)分量信
号,还叠加了亮度信号。
还有一种格式是YPbPr格式,它与YCbPr格式的区别在于,其中YCbCr是隔行信号,YPbPr是逐行信号。
数字信号都是YCbCr ,其应用领域很广泛,JPEG、MPEG均采用此格式。在后文中,如无特别指明,讲的YUV都是指YCbCr格式。
而YPbPr一般是模拟信号,我引用两段来说明两者区别
什么是YCbCr?
YCbCr表示隔行分量端子,是属于YUV经过缩放和偏移的翻版,常说的YUV也称
作YCbCr。其中Y与YUV 中的Y含义一致,Cb , Cr 同样都指色彩,,只是在表示方法上不同而已,Cb Cr
就是本来理论上的“分量/色差”的标识。C代表分量(是component的缩写)Cr、Cb分别对应r(红)、b(蓝)分量信号,Y除了g(绿)分量信
号,还叠加了亮度信号。
其中YCbCr是隔行信号,YPbPr是逐行信号。YCbCr 是在计算机系统中应用最多的一种信号,其应用领域很广泛,JPEG、MPEG均采用此格式。
什么是YPbPr?
Y’CbCr 在模拟分量视频(analog component
video)中也常被称为YPbPr,YPbPr是将模拟的Y、PB、PR信号分开,使用三条线缆来独立传输,保障了色彩还原的准确性,YPbPr表示逐
行扫描色差输出.YPbPr接口可以看做是S端子的扩展,与S端子相比,要多传输PB、PR两种信号,避免了两路色差混合解码并再次分离的过程,也保持了
色度通道的最大带宽,只需要经过反矩阵解码电路就可以还原为RGB三原色信号而成像,这就最大限度地缩短了视频源到显示器成像之间的视频信号通道,避免了
因繁琐的传输过程所带来的图像失真,保障了色彩还原的准确,目前几乎所有大屏幕电视都支持色差输入。
二.YUV的存储格式
RGB格式中,一个24bpp像素要占用4字节空间。在YUV格式中,可以对于UV分量的数据压缩,但是对图像整体质量影响不大,这样YUV所占的空间就比RGB要小一些
不过RGB中 16bpp的 565格式每一个点只占2个字节,从这一点看也没有省多少。不过视频应用都是清一色的YUV应用。因此YUV的处理还是一个比较重要课题。
YUV的存储中与RGB格式最大不同在于,RGB格式每个点的数据是连继保存在一起的。即R,G,B是前后不间隔的保存在2-4byte空间中。而YUV
的数据中为了节约空间,U,V分量空间会减小。每一个点的Y分量独立保存,但连续几个点的U,V分量是保存在一起的,(反正人眼一般也看不出区别).这几
个点合起来称为macro-pixel, 这种存储格式称为Packed格式。
另外一种存储格式是把一幅图像中Y,U,V分别用三个独立的数组表示。这种模式称为planar模式。
YUV格式有两大类:planar和packed。对于planar的YUV格式,先连续存储所有像素点的Y,紧接着存储所有像素点的U,随后是所有像素点的V。
对于packed的YUV格式,每个像素点的Y,U,V是连续交*存储的。
YUV,分为三个分量,“Y”表示明亮度(Luminance或Luma),也就是灰度值;而“U”和“V” 表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。
与我们熟知的RGB类似,YUV也是一种颜色编码方法,主要用于电视系统以及模拟视频领域,它将亮度信息(Y)与色彩信息(UV)分离,没有UV信息一样可以显示完整的图像,只不过是黑白的,这样的设计很好地解决了彩色电视机与黑白电视的兼容问题。并且,YUV不像RGB那样要求三个独立的视频信号同时传输,所以用YUV方式传送占用极少的频宽。
YUV码流的存储格式其实与其采样的方式密切相关,主流的采样方式有三种,YUV4:4:4,YUV4:2:2,YUV4:2:0,关于其详细原理,可以通过网上其它文章了解,这里我想强调的是如何根据其采样格式来从码流中还原每个像素点的YUV值,因为只有正确地还原了每个像素点的YUV值,才能通过YUV与RGB的转换公式提取出每个像素点的RGB值,然后显示出来。
用三个图来直观地表示采集的方式吧,以黑点表示采样该像素点的Y分量,以空心圆圈表示采用该像素点的UV分量。
先记住下面这段话,以后提取每个像素的YUV分量会用到。
YUV 4:4:4采样,每一个Y对应一组UV分量。
YUV 4:2:2采样,每两个Y共用一组UV分量。
YUV 4:2:0采样,每四个Y共用一组UV分量。
2. 存储方式
下面我用图的形式给出常见的YUV码流的存储方式,并在存储方式后面附有取样每个像素点的YUV数据的方法,其中,Cb、Cr的含义等同于U、V。
(1) YUVY 格式 (属于YUV422)
YUYV为YUV422采样的存储格式中的一种,相邻的两个Y共用其相邻的两个Cb、Cr,分析,对于像素点Y’00、Y’01 而言,其Cb、Cr的值均为 Cb00、Cr00,其他的像素点的YUV取值依次类推。 (2) UYVY 格式 (属于YUV422)
UYVY格式也是YUV422采样的存储格式中的一种,只不过与YUYV不同的是UV的排列顺序不一样而已,还原其每个像素点的YUV值的方法与上面一样。
(3) YUV422P(属于YUV422)
YUV422P也属于YUV422的一种,它是一种Plane模式,即平面模式,并不是将YUV数据交错存储,而是先存放所有的Y分量,然后存储所有的U(Cb)分量,最后存储所有的V(Cr)分量,如上图所示。其每一个像素点的YUV值提取方法也是遵循YUV422格式的最基本提取方法,即两个Y共用一个UV。比如,对于像素点Y’00、Y’01 而言,其Cb、Cr的值均为 Cb00、Cr00。
(4)YV12,YU12格式(属于YUV420)
YU12和YV12属于YUV420格式,也是一种Plane模式,将Y、U、V分量分别打包,依次存储。其每一个像素点的YUV数据提取遵循YUV420格式的提取方式,即4个Y分量共用一组UV。注意,上图中,Y’00、Y’01、Y’10、Y’11共用Cr00、Cb00,其他依次类推。
(5)NV12、NV21(属于YUV420)
NV12和NV21属于YUV420格式,是一种two-plane模式,即Y和UV分为两个Plane,但是UV(CbCr)为交错存储,而不是分为三个plane。其提取方式与上一种类似,即Y’00、Y’01、Y’10、Y’11共用Cr00、Cb00
YUV420 planar数据, 以720×488大小图象YUV420 planar为例,
其存储格式是: 共大小为(720×480×3>>1)字节,
分为三个部分:Y,U和V
Y分量: (720×480)个字节
U(Cb)分量:(720×480>>2)个字节
V(Cr)分量:(720×480>>2)个字节
三个部分内部均是行优先存储,三个部分之间是Y,U,V 顺序存储。
即YUV数据的0--720×480字节是Y分量值,
720×480--720×480×5/4字节是U分量
720×480×5/4 --720×480×3/2字节是V分量。
4 :2: 2 和4:2:0 转换:
最简单的方式:
YUV4:2:2 —> YUV4:2:0 Y不变,将U和V信号值在行(垂直方向)在进行一次隔行抽样。 YUV4:2:0 —> YUV4:2:2 Y不变,将U和V信号值的每一行分别拷贝一份形成连续两行数据。
在YUV420中,一个像素点对应一个Y,一个4X4的小方块对应一个U和V。对于所有YUV420图像,它们的Y值排列是完全相同的,因为只有Y的图像就是灰度图像。YUV420sp与YUV420p的数据格式它们的UV排列在原理上是完全不同的。420p它是先把U存放完后,再存放V,也就是说UV它们是连续的。而420sp它是UV、UV这样交替存放的。(见下图) 有了上面的理论,我就可以准确的计算出一个YUV420在内存中存放的大小。
width * hight =Y(总和) U = Y / 4 V = Y / 4
所以YUV420 数据在内存中的长度是 width * hight * 3 / 2,
假设一个分辨率为8X4的YUV图像,它们的格式如下图:
YUV420sp格式如下图
YUV420p数据格式如下图
旋转90度的算法:public static void rotateYUV240SP(byte[] src,byte[] des,int width,int height)
{
int wh = width * height;
//旋转Y
int k = 0;
for(int i=0;i
for(int j=0;j
{
des[k] = src[width*j + i];
k++;
}
}
for(int i=0;i
for(int j=0;j
{
des[k] = src[wh+ width*j + i];
des[k+1]=src[wh + width*j + i+1];
k+=2;
}
}
}
YV12和I420的区别 一般来说,直接采集到的视频数据是RGB24的格式,RGB24一帧的大小size=width×heigth×3 Bit,RGB32的size=width×heigth×4,如果是I420(即YUV标准格式4:2:0)的数据量是 size=width×heigth×1.5 Bit。 在采集到RGB24数据后,需要对这个格式的数据进行第一次压缩。即将图像的颜色空间由RGB2YUV。因为,X264在进行编码的时候需要标准的YUV(4:2:0)。但是这里需要注意的是,虽然YV12也是(4:2:0),但是YV12和I420的却是不同的,在存储空间上面有些区别。如下: YV12 : 亮度(行×列) + U(行×列/4) + V(行×列/4)
I420 : 亮度(行×列) + V(行×列/4) + U(行×列/4)
可以看出,YV12和I420基本上是一样的,就是UV的顺序不同。
继续我们的话题,经过第一次数据压缩后RGB24->YUV(I420)。这样,数据量将减少一半,为什么呢?呵呵,这个就太基础了,我就不多写了。同样,如果是RGB24->YUV(YV12),也是减少一半。但是,虽然都是一半,如果是YV12的话效果就有很大损失。然后,经过X264编码后,数据量将大大减少。将编码后的数据打包,通过RTP实时传送。到达目的地后,将数据取出,进行解码。完成解码后,数据仍然是YUV格式的,所以,还需要一次转换,这样windows的驱动才可以处理,就是YUV2RGB24。
YUY2 是 4:2:2[Y0 U0 Y1 V0]
yuv420p 和 YUV420的区别 在存储格式上有区别
yuv420p:yyyyyyyy uuuuuuuu vvvvv yuv420: yuv yuv yuv
YUV420P,Y,U,V三个分量都是平面格式,分为I420和YV12。I420格式和YV12格式的不同处在U平面和V平面的位置不同。在I420格式中,U平面紧跟在Y平面之后,然后才是V平面(即:YUV);但YV12则是相反(即:YVU)。
YUV420SP, Y分量平面格式,UV打包格式, 即NV12。 NV12与NV21类似,U 和 V 交错排列,不同在于UV顺序。
I420: YYYYYYYY UU VV =>YUV420P
YV12: YYYYYYYY VV UU =>YUV420P
NV12: YYYYYYYY UVUV =>YUV420SP
NV21: YYYYYYYY VUVU =>YUV420SP
Four CC 码
关于YUV444,YUV422,YUV420的名称还有别外一种命名方式,FOURCC 码,上文中用就是这个命令,这Four CC使用四个字母的命名,
FourCC全称Four-Character Codes,是由4个字符(4
bytes)组成,是一种独立标示视频数据流格式的四字节,在wav、avi档案之中会有一段FourCC来描述这个AVI档案,是利用何种codec来
编码的。因此wav、avi大量存在等于“IDP3”的FourCC
按fourcc的命名.
YUV444 的FourCC 称为 AYUV
YUV422 的FourcCC 按字节序分为YUY2 和UYVY
YUV420 的FourcCC 按字节序分为IMC1和IMC2V4L2 采用编码
我们一般是在V4L驱动里使用这一些编码,而且V4L2也有一类对应的编码.参见vedio2dev.h,在编程中要与实际排列对应上.它后面的定义值实际就是FourCC 码.
#define V4L2_PIX_FMT_YVU420 v4l2_fourcc(‘Y’, ‘V’, ‘1’, ‘2’) /* 12 YVU 4:2:0 */
#define V4L2_PIX_FMT_YUYV v4l2_fourcc(‘Y’, ‘U’, ‘Y’, ‘V’) /* 16 YUV 4:2:2 */
#define V4L2_PIX_FMT_UYVY v4l2_fourcc(‘U’, ‘Y’, ‘V’, ‘Y’) /* 16 YUV 4:2:2 */
#define V4L2_PIX_FMT_YUV422P v4l2_fourcc(‘4’, ‘2’, ‘2’, ‘P’) /* 16 YVU422 planar */
#define V4L2_PIX_FMT_YUV411P v4l2_fourcc(‘4’, ‘1’, ‘1’, ‘P’) /* 16 YVU411 planar */
#define V4L2_PIX_FMT_Y41P v4l2_fourcc(‘Y’, ‘4’, ‘1’, ‘P’) /* 12 YUV 4:1:1 */
#define V4L2_PIX_FMT_YUV444 v4l2_fourcc(‘Y’, ‘4’, ‘4’, ‘4’) /* 16 xxxxyyyy uuuuvvvv */
#define V4L2_PIX_FMT_YUV555 v4l2_fourcc(‘Y’, ‘U’, ‘V’, ‘O’)
比如在CMOS摄像头里 支持
V4L2_PIX_FMT_YVU420 ,它对应的是YV12 格式,查相应文档,它是Plane格式,即Y,U,V分三个区排列
0x32315659
12
8 bit Y plane followed by 8 bit 2×2 subsampled V and U planes.
This is the format of choice for many software MPEG codecs. It comprises an NxM Y plane followed by (N/2)x(M/2) V and U planes.
Horizontal
Vertical
Y Sample Period
1
1
V Sample Period
2
2
U Sample Period
2
2
Positive biHeight implies top-down image (top line first)
YUV,是一种颜色编码方法。
YUV是编译true-color颜色空间(color space)的种类,Y’UV, YUV, YCbCr,YPbPr等专有名词都
可以称为YUV,彼此有重叠。“Y”表示
紧缩格式(packed formats):将Y、U、V值储存成Macro Pixels阵列,和RGB的
存放方式类似。
平面格式(planar formats):将Y、U、V的三个份量分别存放在不同的矩阵中。
紧缩格式(packed
format)中的YUV是混合在一起的,对于YUV4:4:4格式而言,用紧缩格式很合适的,因此就有了UYVY、YUYV等。平面格式(planar
formats)是指每Y份量,U份量和V份量都是以独立的平面组织的,也就是说所有的U份量必须在Y份量后面,而V份量在所有的U份量后面,此一格式适
用于采样(subsample)。平面格式(planar format)有I420(4:2:0)、YV12、IYUV等。
U-V color plane范例,Y value = 0.5,代表RGB色域(color gamut)
[历史]
Y’UV 的发明是由于彩色电视与黑白电视的过渡时期YIQ
的格式来处理彩色电视图像,把 UV 视作表示彩度的 C(Chrominance或Chroma),如果忽略 C 讯号,那么剩下的
Y(Luma)讯号就跟之前的黑白电视讯号相同,这样一来便解决彩色电视机与黑白电视机的相容问题。Y’UV 最大的优点在于只需占用极少的带宽。
彩色图像记录的格式,常见的有 RGB、YUV、CMYK等。彩色电视最早的构想是使用RGB三原色来同时传输。这种设计方式是原来黑白带宽的3倍,在
当时并不是很好的设计。RGB 诉求于人眼对色彩的感应,YUV则着重于视觉对于亮度的敏感程度,Y 代表的是亮度,UV
代表的是彩度(因此黑白电影可省略UV,相近于RGB),分别用Cr和CB来表示,因此YUV的记录通常以 Y:UV 的格式呈现。
常用的YUV格式
为节省带宽起见,大多数 YUV 格式平均使用的每像素位数都少于24位元。主要的采样(subsample)格式有YCbCr
4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。YUV的表示法称为 A:B:C 表示法:
4:4:4 表示完全取样。
4:2:2 表示 2:1 的水平取样,没有垂直下采样。
4:2:0 表示 2:1 的水平取样,2:1 的垂直下采样。
4:1:1 表示 4:1 的水平取样,没有垂直下采样。
最常用Y:UV记录的比重通常 1:1 或 2:1,DVD-Video 是以 YUV 4:2:0 的方式记录,也就是我们俗称的I420,YUV4:2:0
并不是说只有U(即 Cb), V(即 Cr)一定为
0,而是指U:V互相援引,时见时隐,也就是说对于每一个行,只有一个U或者V份量,如果一行是4:2:0的话,下一行就是4:0:2,再下一行是
4:2:0…以此类推。至于其他常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、
IYUV、YV12、YVU9、YUV411、YUV420等。
图中的Y’, U和V组成
YUY2
YUY2(和YUYV)格式为像素保留 Y,而 UV 在水平空间上相隔二个像素采样一次。YVYU,
UYVY格式跟YUY2类似,只是排列顺序有所不同。Y211格式是Y每2个像素采样一次,而UV每4个像素采样一次。AYUV格
式则有一 Alpha通道。
YV12
YV12格式与IYUV类似,每个像素都提取Y,在UV提取时,将图像2 x
2的矩阵,每个元素中提取一个U和一个V。YV12格式和I420格式的不同处在V平面和U平面的位置不同。在I420格式中,U平面紧跟在Y平面之后,
然后才是V平面(即:YUV);但YV12则是相反(即:YVU)。NV12与YV12类似,效果一样,YV12中 U 和 V
是连续排列的,而在NV12中,U 和 V 就交错排列的。
转换
YUV 与 RGB 的转换公式:
U 和 V 元件可以被表示成原始的 R、 G,和 B:
如一般顺序,转移元件的范围可得到:
在逆转关系上,从 YUV 到 RGB,可得
取而代之,以矩阵表示法(matrix representation),可得到公式:
YUV 转 RGB
function RGB* YUV444toRGB888(Y, U, V);将 YUV format 移转成简单的 RGB format
并可以用浮点运算实作:
Y’UV444
大多数 YUV 格式平均使用的每像素位数都少于24位元。YUV444是最逼真的格式,一格不删(24 bits),即每4个Y,配上4个
U,还有4个 V;YUV422则是在UV格式上减半,即每4个Y,配2个U,2个V
;YUV420则是在UV上减1/4之格式,即每4个Y,配1个U,再配1个V。
这些公式是基于 NTSC standard;
在早期的非SIMD(non-SIMD)构造中,floating point arithmetic 会比
fixed-point arithmetic 稍慢,所以有一替代公式如下:
C = Y’ – 16D = U – 128E = V – 128
使用前面的系数并且用 clip() 注明切割的值域是 0 至 255,如下的公式是从 Y’UV 到 RGB (NTSC version):
注意:上述的公式多暗示为 YCbCr. 虽然称为 YUV,但应该严格区分 YUV 和 YCbCr 这两个专有名词有时并非完全相同。
ITU-R 版本的公式差异:
ITU-R 标准 YCbCr(每一通道8位元)至 RGB888:
Cr = Cr – 128; Cb = Cb – 128;
R = Y + Cr + Cr
> > 2 + Cr > > 3 + Cr > >
5G = Y ? (Cb >
> 2 + Cb > > 4 + Cb > > 5) ? (Cr
> > 1 + Cr > > 3 + Cr > >
4 + Cr > > 5)B = Y + Cb + Cb
> > 1 + Cb > > 2 + Cb > >
6
Y’UV422
Input:读取 Y’UV 的4bytes(u, y1, v, y2 )Output:写入 RGB的6bytes (R, G, B, R, G, B)
u = yuv[0];
y1 = yuv[1];
v = yuv[2];
y2 = yuv[3];
以此一资讯可以剖析出 regular Y’UV444 格式而成为 2 RGB pixels info:
rgb1 = Y’UV444toRGB888(y1, u, v);
rgb2 = Y’UV444toRGB888(y2, u, v);
Y’UV422 可被表达成 Y’UY’2 FourCC 格式码。意思是 2 pixels 将被定义成 each macropixel (four
bytes) treated in the image.
Y’UV411
// Extract YUV components
u = yuv[0];
y1 = yuv[1];
y2 = yuv[2];
v = yuv[3];
y3 = yuv[4];
y4 = yuv[5];
rgb1 = Y’UV444toRGB888(y1, u, v);
rgb2 = Y’UV444toRGB888(y2, u, v);
rgb3 = Y’UV444toRGB888(y3, u, v);
rgb4 = Y’UV444toRGB888(y4, u, v);
所以结果会得到 4 RGB 像素的值 (4*3 bytes) from 6 bytes. This means reducing size
of transferred data to half and with quite good loss of quality.
YV12
The Y’V12 的格式相当类似 Y’UV420p,但 U 与 V 资料反转:Y’ 跟随着 V, U 殿后。Y’UV420p 与
Y’V12 使用相同算法。许多重要的编码器都采用YV12空间存储视频:MPEG-4(x264,XviD,DivX),DVD-
Video存储格式MPEG-2,MPEG-1以及MJPEG。
将Y’UV420p 转换成 RGB
Height = 16;
Width = 16;
Y’ArraySize = Height × Width; // (256)
Y’ = Array[7 × Width + 5];
U = Array[(7/2) × (Width/2) + 5/2 + Y’ArraySize];
V = Array[(7/2) × (Width/2) + 5/2 + Y’ArraySize + Y’ArraySize/4];
RGB = Y’UV444toRGB888(Y’, U, V);
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/127061.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...