之前对RGB、YUV和YCbCr一直没有清晰的理解和认识,今天打算做一个小结,结合网上的文章谈谈自己的看法,也希望有机会看到这篇文章的人能指点一二,相互交流,共同进步。

首先要说明,上述的RGB、YUV和YCbCr都是人为规定的彩色模型或颜色空间(有时也叫彩色系统或彩色空间)。它的用途是在某些标准下用通常可接受的方式对彩色加以说明。本质上,彩色模型是坐标系统和子空间的阐述。

【1】RGB

RGB(红绿蓝)是依据人眼识别的颜色定义出的空间,可表示大部分颜色。但在科学研究一般不采用RGB颜色空间,因为它的细节难以进行数字化的调整。它将色调,亮度,饱和度三个量放在一起表示,很难分开。它是最通用的面向硬件的彩色模型。该模型用于彩色监视器和一大类彩色视频摄像。

【2】YUV

在 YUV 空间中,每一个颜色有一个亮度信号 Y,和两个色度信号 U 和 V。亮度信号是强度的感觉,它和色度信号断开,这样的话强度就可以在不影响颜色的情况下改变。

YUV 使用RGB的信息,但它从全彩色图像中产生一个黑白图像,然后提取出三个主要的颜色变成两个额外的信号来描述颜色。把这三个信号组合回来就可以产生一个全彩色图像。

Y 通道描述 Luma 信号,它与亮度信号有一点点不同,值的范围介于亮和暗之间。 Luma 是黑白电视可以看到的信号。U (Cb) 和 V (Cr) 通道从红 (U) 和蓝 (V) 中提取亮度值来减少颜色信息量。这些值可以从新组合来决定红,绿和蓝的混合信号。

YUV和RGB的转换:
       Y = 0.299 R + 0.587 G + 0.114 B
       U = -0.1687 R - 0.3313 G + 0.5 B + 128
       V = 0.5 R - 0.4187 G - 0.0813 B + 128

R = Y + 1.402 (V-128)

G= Y - 0.34414 (U-128) - 0.71414 (V-128)

B= Y + 1.772 (U-128)

【3】YCbCr

YCbCr 是在世界数字组织视频标准研制过程中作为ITU - R BT1601 建议的一部分, 其实是YUV经过缩放和偏移的翻版。其中Y与YUV 中的Y含义一致, Cb , Cr 同样都指色彩, 只是在表示方法上不同而已。在YUV 家族中, YCbCr 是在计算机系统中应用最多的成员, 其应用领域很广泛,JPEG、MPEG均采用此格式。一般人们所讲的YUV大多是指YCbCr。

YCbCr与RGB的相互转换

     Y=0.299R+0.587G+0.114B

     Cb=0.564(B-Y)

     Cr=0.713(R-Y)

     R=Y+1.402Cr

     G=Y-0.344Cb-0.714Cr

B=Y+1.772Cb

YUVYCbCr)采样格式:

主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值), 每 2 x 2 个点保存一个 Cr和Cb值, 图像在肉眼中的感觉不会起太大的变化。所以, 原来用 RGB(R,G,B 都是 8bit unsigned) 模型, 每个点需要 8x3=24 bits, 而现在仅需要 8+(8/4)+(8/4)=12bits, 平均每个点占12bits。这样就把图像的数据压缩了一半。

上边仅给出了理论上的示例,在实际数据存储中是有可能是不同的,下面给出几种具体的存储形式:

(1) YUV 4:4:4

  YUV三个信道的抽样率相同,因此在生成的图像里,每个象素的三个分量信息完整(每个分量通常8比特),经过8比特量化之后,未经压缩的每个像素占用3个字节。

  下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]

  存放的码流为: Y0 U0 V0 Y1 U1 V1 Y2 U2 V2 Y3 U3 V3

(2) YUV 4:2:2

  每个色差信道的抽样率是亮度信道的一半,所以水平方向的色度抽样率只是4:4:4的一半。对非压缩的8比特量化的图像来说,每个由两个水平方向相邻的像素组成的宏像素需要占用4字节内存(例如下面映射出的前两个像素点只需要Y0、Y1、U0、V1四个字节)。

  下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]

  存放的码流为: Y0 U0 Y1 V1 Y2 U2 Y3 V3

  映射出像素点为:[Y0 U0 V1] [Y1 U0 V1] [Y2 U2 V3] [Y3 U2 V3]

(3) YUV 4:1:1

  4:1:1的色度抽样,是在水平方向上对色度进行4:1抽样。对于低端用户和消费类产品这仍然是可以接受的。对非压缩的8比特量化的视频来说,每个由4个水平方向相邻的像素组成的宏像素需要占用6字节内存

  下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]

  存放的码流为: Y0 U0 Y1 Y2 V2 Y3

  映射出像素点为:[Y0 U0 V2] [Y1 U0 V2] [Y2 U0 V2] [Y3 U0 V2]

(4)YUV4:2:0

  4:2:0并不意味着只有Y,Cb而没有Cr分量。它指得是对每行扫描线来说,只有一种色度分量以2:1的抽样率存储。相邻的扫描行存储不同的色度分量,也就是说,如果一行是4:2:0的话,下一行就是4:0:2,再下一行是4:2:0...以此类推。对每个色度分量来说,水平方向和竖直方向的抽样率都是2:1,所以可以说色度的抽样率是4:1。对非压缩的8比特量化的视频来说,每个由2x2个2行2列相邻的像素组成的宏像素需要占用6字节内存。

下面八个像素为:

[Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]

  [Y5 U5 V5] [Y6 U6 V6] [Y7U7 V7] [Y8 U8 V8]

存放的码流为:

Y0 U0 Y1 Y2 U2 Y3

  Y5 V5 Y6 Y7 V7 Y8

映射出的像素点为:

[Y0 U0 V5] [Y1 U0 V5] [Y2 U2 V7] [Y3 U2 V7]

[Y5 U0 V5] [Y6 U0 V5] [Y7U2 V7] [Y8 U2 V7]

之前对于4:4:4、4:2:2、4:2:0一直没有清晰地认识,而上面的解释是我见到的最直观的,使我一目了然,豁然开朗。

图片的pitch

2013-07-14 22:28 1618人阅读 评论(0) 收藏 举报

分类: 图片处理

版权声明:本文为博主原创文章,未经博主允许不得转载。

之前在bitmap中看到过pitch,一直没搞明白,这次项目中又遇到了,所以就仔细了解了下。

pitchwidth

以一张640*480的每个像素点为24位(3字节)颜色的图为例:

width:表示图片的逻辑宽度,在这里就是640,这个值与色深无关及其他都无关,你所见的宽度就是它的值

pitch:表示图片中一行数据所占的字节数,或者说是跨度,在这里应该是640*3,因为图片宽度是640,每个像素是3个字节数据,那么一行数据就是640*3

注意:

有些情况下,pitch的值可能是正也可能是负,取决于数据排列方式

几个参考资料:

http://msdn.microsoft.com/en-us/library/windows/desktop/bb206357(v=vs.85).aspx

http://www.freetype.org/freetype2/docs/glyphs/glyphs-7.html

YUV和RGB介绍

标签: buffer数据结构byte视频会议存储struct

2011-12-15 13:23 2062人阅读 评论(1) 收藏 举报

分类: 图像相关

今天对颜色一些格式转换有些不明白的地方,在网上找了一些文章,感谢原作者,现张贴如下:

颜色空间是一个三维坐标系统,每一种颜色由一个 点表示。在 RGB 颜色空间中,红,绿,蓝是基本元素。RGB 格式是显示器通常使用的格式。在 YUV 空间中,每一个颜色有一个亮度信号 Y,和两个色度信号 U 和 V。亮度信号是强度的感觉,它和色度信号断开,这样的话强度就可以在不影响颜色的情况下改变。YUV 格式通常用于 PAL制,即欧洲的电视传输标准,而且缺省情况下是图像和视频压缩的标准。

YUV 使用RGB的信息,但它从全彩色图像中产生一个黑白图像,然后提取出三个主要的颜色变成两个额外的信号来描述颜色。把这三个信号组合回来就可以产生一个全彩色图像。

YUV 使用红,绿,蓝的点阵组合来减少信号中的信息量。Y 通道描述 Luma 信号,它与亮度信号有一点点不同,值的范围介于亮和暗之间。 Luma 是黑白电视可以看到的信号。U (Cb) 和 V (Cr) 通道从红 (U) 和蓝 (V) 中提取亮度值来减少颜色信息量。这些值可以从新组合来决定红,绿和蓝的混合信号。

YUV和RGB的转换:                ★这里是不是不是yuv而是Y Cb Cr???★

Y = 0.299 R + 0.587 G + 0.114 B

U = -0.1687 R - 0.3313 G + 0.5 B + 128

V = 0.5 R - 0.4187 G - 0.0813 B + 128

R = Y + 1.402 (V-128)

G = Y - 0.34414 (U-128) - 0.71414 (V-128)

B = Y + 1.772 (U-128)

以前,一直没明白yuv和YcbCr之间的差异,想必有些朋友也会有同样的 疑惑。所以,我看完之后就记载下来了。

一、和rgb之间换算公式的差异

yuv<-->rgb

Y'= 0.299*R' + 0.587*G' + 0.114*B'

U'= -0.147*R' - 0.289*G' + 0.436*B' = 0.492*(B'- Y')

V'= 0.615*R' - 0.515*G' - 0.100*B' = 0.877*(R'- Y')

R' = Y' + 1.140*V'

G' = Y' - 0.394*U' - 0.581*V'

B' = Y' + 2.032*U'

yCbCr<-->rgb

Y’ = 0.257*R' + 0.504*G' + 0.098*B' + 16

Cb' = -0.148*R' - 0.291*G' + 0.439*B' + 128

Cr' = 0.439*R' - 0.368*G' - 0.071*B' + 128

R' = 1.164*(Y’-16) + 1.596*(Cr'-128)

G' = 1.164*(Y’-16) - 0.813*(Cr'-128) - 0.392*(Cb'-128)

B' = 1.164*(Y’-16) + 2.017*(Cb'-128)

Note: 上面各个符号都带了一撇,表示该符号在原值基础上进行了gamma correction

二、来源上的差异

yuv色彩模 型来源于rgb模型,该模型的特点是将亮度和色度分离开,从而适合于图像处理领域。

应用:basic color model used in analogue color TV broadcasting.用在模拟彩色电视广播的基本颜色模型中

YCbCr模型来源于yuv模 型。YCbCr is a scaled and offset version of the YUV color space.

应用:数字视 频,ITU-R BT.601 recommendation

ps:

通过上面的比较可以确定,我们在h.264,mpeg等编码 标准中用的yuv其实是YcbCr,大家不要被名称搞混淆了。

人类视觉系统(HVS)相比亮度来说对于颜色 不是那么敏感的。在RGB颜色空间中,三种颜色被平等地看待,并用相同的分辨率

存放起来。但是通过把亮度与颜色信息分离,并对亮度值取更高的分辨 率可以更有效地表示一个颜色图像。

YCbCr颜色空间和它的变换(通常写为YUV)是一种流行而高效的表示一个颜色图像的方法。Y是亮度 值,由R,G,B的加权平均可以

得到: Y=krR + kgG + kbB

这里k是加权因子。

颜色信号可以由不同的颜 色差别来表示:

Cb = B-Y

Cr = R-Y

Cg = G-Y

对于一个颜色图像的完整的描述由给定Y和三个色 差:Cb,Cr,Cg来表示。

目前为止,我们的表示方法好像并不那么好,因为相比RGB表示来说,我们这次用了四个参数。然后 Cb+Cr+Cg是一个常数,那么

我们只需要两个色度参数就可以了,第三个可以通过其他两个计算出来。在YCbCr空间中,只有Y和Cb,Cr值 被传输和存储,而且

Cb和Cr的分辨率可以比Y低,因为人类视觉系统对于亮度更加敏感。这就减少了表示图像的数据量。通常的观察情况下,RGB和

YCbCr 表示的图像看上去没有什么不同。对于色度采用比亮度低的分辨率进行采样是一种简单而有效的压缩办法。

一个RGB图像可以在捕捉之后转换为 YCbCr格式用来减少存储和传输负担。在显示图象之前,再转回为RGB.注意没有必要去指明

分别的加权值kg(因为kb+kr+kg=1),而 且G可以从YCbCr中解压出来,这说明不需要存储和传输Cg参数。

Y = kr R + (1-kb-kr)G + kb B

Cb = 0.5/(1-kb) * (B-Y)

Cr = 0.5/(1-kr) * (R-Y)

R = Y + (1-kr)/0.5 * Cr

G = Y - 2kb(1-kb)/(1-kb-kr) * Cb - 2kr(1-kr)/(1-kb-kr) * Cr

B = Y + (1-kb)/0.5 * Cb

ITU-R的BT.601决 议定义了kb=0.114,kr=0.299,那么代换参数就有了如下等式:

Y = 0.299R + 0.587G + 0.114B

Cb = 0.564(B - Y )

Cr = 0.713(R - Y )

R = Y + 1.402Cr

G = Y - 0.344Cb - 0.714Cr

B = Y + 1.772Cb

2.4.3 YCbCr采样格式

4:4:4 采样就是说三种元素Y,Cb,Cr有同样的分辨率,这样的话,在每一个像素点上都对这三种元素进行采样.数字4是指在水平方向

上对于各种元素的采 样率,比如说,每四个亮度采样点就有四个Cb的Cr采样值.4:4:4采样完整地保留了所有的信息值.4:2:2采样中

(有时记为YUY2),色 度元素在纵向与亮度值有同样的分辨率,而在横向则是亮度分辨率的一半(4:2:2表示每四个亮度值就有两个Cb

和Cr采样.)4:2:2视频用来 构造高品质的视频彩色信号.

在流行的4:2:0采样格式中(常记为YV12)Cb和Cr在水平和垂直方向上有Y分辨率的一半.4:2:0 有些不同,因为它并不是指在实际采样

中使用4:2:0,而是在编码史中定义这种编码方法是用来区别于4:4:4和4:2:2方法的).4:2:0 采样被广泛地应用于消费应用中,比如

视频会议,数字电视和DVD存储中。因为每个颜色差别元素中包含了四分之一的Y采样元素量,那么 4:2:0YCbCr视频需要刚好4:4:4

或RGB视频中采样量的一半。

4:2:0采样有时被描述是一个"每像素12位"的方 法。这么说的原因可以从对四个像素的采样中看出.使用4:4:4采样,一共要进行12次

采样,对每一个Y,Cb和Cr,就需要12*8=96位,平均下来要96/4=24位。使用4:2:0就需要6*8=48位,平均每个像素48/4=12位。

在一个4:2:0隔行扫描的视频序列 中,对应于一个完整的视频帧的Y,Cb,Cr采样分配到两个场中。可以得到,隔行扫描的总采样数跟

渐进式扫描中使用的采样数目是相同的。

2.5 视频格式

这本书中描述的视频压缩标准可以压缩很多种视频帧格式。实际中,捕捉或转化一个中间格式或一系列中间格式是很平常的事情。

CIF 就是一种常见的流行的格式,并由它衍生出了4CIF和Sub-QCif。帧分辨率的选择取决于应用程序,可使用的存储量以及传输带宽

。比如说 4CIF对于标准定义的电视和DVD视频来说是合适的,CIF和QCIF在视频会议中是常被使用的格式。QCIF和SQCIF对于移动设备

的多媒 体程序来说是合适的,在这样的情况下,显示分辨率和码率都是有限的。以下是各种格式的具体使用位数的需求(使用4:2:0

采样,对于每个元素用8 个位大小表示):

格式: Sub-QCIF 亮度分辨率: 128*96 每帧使用的位: 147456

格式: QCIF 亮度分辨率: 176*144 每帧使用的位: 304128

格式: CIF 亮度分辨率: 352*288 每帧使用的位: 1216512

格 式: 4CIF 亮度分辨率: 704*576 每帧使用的位: 4866048

一种在电视信号中被应用的很广的数字视频信号编 码格式就是ITU-R的BT.601-5 提案。亮度元素被在13.5MHz下采样,而亮度值则

在6.75MHz下采样,这样就形成了一个 4:2;2的Y:Cb:Cr采样结果。采样数字信号的参数取决于视频码率(对于NTSC来说是30Hz,对于

PAL/SECAM来说是 25Hz)。NTSC的30Hz是对低空间分辨率的补偿,这样总的码率就是216Mbps.实际显示的激活部分的区域要比总量小

,因为它去掉了在 一帧边缘处的水平和垂直空白间隔。

每一个采样都有0-255的采样范围。0和255两个等级被留作同步,而且激活的亮度信号被限制到26(黑色) 到235(白色)之间.

YUV

视频编解码器功能

视频编码器要求 YUV4:2:0格式的视频输入,因此可能根据应用需要进行视频输入的预处理,即对YUV4:2:2隔行扫描(例如从摄像机)到YUV 4:2:0非隔行扫描转换,仅抽取但不过滤UV分。对视频解码器而言,还需要进行后处理,以将解码的YUV 4:2:0数据转换为RGB进行显示,包括:YUV 4:2:0到RGB转换;16位或12位RGB显示格式;0到90度旋转,实现横向或纵向显示。此外,视频编解码器通常还要求具有以下功能和特性:

支 持MPEG-4简单类 0、1 与 2 级;

兼容H.263与 MPEG-4 编解码标准;

MPEG-4视频解码器支持的可选项有:AC/DC预测、可逆可变长度编码(RVLC)、再同步标志(RM)、数据分割(DP)、错误隐藏专利技术、支持每个宏块4个运动矢量(4MV)、自由运动补偿、解码VOS层;

MPEG-4视频编码器选项有:RVLC、RM、DP、支持每个宏块4个运动矢量(4MV)、报头扩展码、支持编码期间码率改变、支持编码期间编码帧率改变、插入或不插入可视对象序列起始码;

支持编码期间序列中插入I帧;

支持编码器自适应帧内刷新 (AIR);

支持多编解码器,可用相同代码运行多个编解码器实例。

RGB

红绿蓝(RGB)是计算机显示的基 色,RGB565支持的色深可编程至高达每像素16位,即 RGB565(红色5位,绿色6位,蓝色5位)。

YCbCr

在 DVD、摄像机、数字电视等消费类视频产品中,常用的色彩编码方案是YCbCr,其中Y是指亮度分量,Cb指蓝色色度分量,而Cr指红色色度分量。人的肉眼对视频的Y分量更敏感,因此在通过对色度分量进行子采样来减少色度分量后,肉眼将察觉不到的图像质量的变化。主要的子采样格式有 YCbCr 4:2:0、YCbCr 4:2:2 和 YCbCr 4:4:4。

4:2:0表示每4个像素有4个亮度分量,2个色度分量 (YYYYCbCr),仅采样奇数扫描线,是便携式视频设备(MPEG-4)以及电视会议(H.263)最常用格式;4:2:2表示每4个像素有4个亮度分量,4个色度分量(YYYYCbCrCbCr),是DVD、数字电视、HDTV 以及其它消费类视频设备的最常用格式;4:4:4表示全像素点阵(YYYYCbCrCbCrCbCrCbCr),用于高质量视频应用、演播室以及专业视频产品。

小知识:RGB与YUV

计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用 R(Red)、G(Green)、B(Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。这种色彩的表示方法称为RGB色彩空间表示(它也是多媒体计算机技术中用得最多的一种色彩空间表示方法)。

根据三基色原理,任意一种色光F都可以 用不同分量的R、G、B三色相加混合而成。

F = r [ R ] + g [ G ] + b [ B ]

其中,r、 g、b分别为三基色参与混合的系数。当三基色分量都为0(最弱)时混合为黑色光;而当三基色分量都为k(最强)时混合为白色光。调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。

那么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到 RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。这种色彩的表示方法就是所谓的YUV色彩空间表示。

采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

YUV与RGB相互转换的公式如下(RGB取值范围均为0-255):

Y = 0.299R + 0.587G + 0.114B

U = -0.147R - 0.289G + 0.436B

V = 0.615R - 0.515G - 0.100B

R = Y + 1.14V

G = Y - 0.39U - 0.58V

B = Y + 2.03U

在DirectShow 中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32等;常见的YUV格式有 YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、YUV411、 YUV420等。作为视频媒体类型的辅助说明类型(Subtype),它们对应的GUID见表2.3。

表2.3 常见的RGB和YUV格式

GUID    格式描述

MEDIASUBTYPE_RGB1    2色,每个像素用1位表示,需要调色板

MEDIASUBTYPE_RGB4    16色,每个像素用4位表示,需要调色板

MEDIASUBTYPE_RGB8    256色,每个像素用8位表示,需要调色板

MEDIASUBTYPE_RGB565    每个像素用16位表示,RGB分量分别使用5位、6位、5位

MEDIASUBTYPE_RGB555    每个像素用16位表示,RGB分量都使用5位(剩下的1位不用)

MEDIASUBTYPE_RGB24    每个像素用24位表示,RGB分量各使用8位

MEDIASUBTYPE_RGB32    每个像素用32位表示,RGB分量各使用8位(剩下的8位不用)

MEDIASUBTYPE_ARGB32    每个像素用32位表示,RGB分量各使用8位(剩下的8位用于表示Alpha通道值)

MEDIASUBTYPE_YUY2    YUY2格式,以4:2:2方式打包

MEDIASUBTYPE_YUYV    YUYV格式(实际格式与YUY2相同)

MEDIASUBTYPE_YVYU    YVYU格式,以4:2:2方式打包

MEDIASUBTYPE_UYVY    UYVY格式,以4:2:2方式打包

MEDIASUBTYPE_AYUV    带Alpha通道的4:4:4 YUV格式

MEDIASUBTYPE_Y41P    Y41P格式,以4:1:1方式打包

MEDIASUBTYPE_Y411    Y411格式(实际格式与Y41P相同)

MEDIASUBTYPE_Y211    Y211格式

MEDIASUBTYPE_IF09    IF09格式

MEDIASUBTYPE_IYUV    IYUV格式

MEDIASUBTYPE_YV12    YV12格式

MEDIASUBTYPE_YVU9    YVU9格式

下面分别介绍各种RGB格式。

¨ RGB1、RGB4、RGB8都是调色板类型的RGB格式,在描述这些媒体类型的格式细节时,通常会在BITMAPINFOHEADER数据结构后面跟着一个调色板(定义一系列颜色)。它们的图像数据并不是真正的颜色值,而是当前像素颜色值在调色板中的索引。以RGB1(2色位图)为例,比如它的调色板中定义的两种颜色值依次为0x000000(黑色)和0xFFFFFF(白色),那么图像数据001101010111…(每个像素用1位表示)表示对应各像素的颜色为:黑黑白白黑白黑白黑白白白…。

¨ RGB565使用16位表示一个像素,这16位中的5位用于R,6位用于G,5位用于B。程序中通常使用一个字(WORD,一个字等于两个字节)来操作一个像素。当读出一个像素后,这个字的各个位意义如下:

高字节              低字节

R R R R R G G G     G G G B B B B B

可以组合使用屏蔽字和移位操作来得到RGB各分量的值:

#define RGB565_MASK_RED    0xF800

#define RGB565_MASK_GREEN  0x07E0

#define RGB565_MASK_BLUE   0x001F

R = (wPixel & RGB565_MASK_RED) >> 11;   // 取值范围0-31

G = (wPixel & RGB565_MASK_GREEN) >> 5;  // 取值范围0-63

B =  wPixel & RGB565_MASK_BLUE;         // 取值范围0-31

¨ RGB555是另一种16位的RGB格式,RGB分量都用5位表示(剩下的1位不用)。使用一个字读出一个像素后,这个字的各个位意义如下:

高字节             低字节

X R R R R G G       G G G B B B B B       (X表示不用,可以忽略)

可以组合使用屏蔽字和移位操作来得到RGB各分量的值:

#define RGB555_MASK_RED    0x7C00

#define RGB555_MASK_GREEN  0x03E0

#define RGB555_MASK_BLUE   0x001F

R = (wPixel & RGB555_MASK_RED) >> 10;   // 取值范围0-31

G = (wPixel & RGB555_MASK_GREEN) >> 5;  // 取值范围0-31

B =  wPixel & RGB555_MASK_BLUE;         // 取值范围0-31

¨ RGB24使用24位来表示一个像素,RGB分量都用8位表示,取值范围为0-255。注意在内存中RGB各分量的排列顺序为:BGR BGR BGR…。通常可以使用RGBTRIPLE数据结构来操作一个像素,它的定义为:

typedef struct tagRGBTRIPLE {

BYTE rgbtBlue;    // 蓝色分量

BYTE rgbtGreen;   // 绿色分量

BYTE rgbtRed;     // 红色分量

} RGBTRIPLE;

¨ RGB32使用32位来表示一个像素,RGB分量各用去8位,剩下的8位用作Alpha通道或者不用。(ARGB32就是带Alpha通道的 RGB32。)注意在内存中RGB各分量的排列顺序为:BGRA BGRA BGRA…。通常可以使用RGBQUAD数据结构来操作一个像素,它的定义为:

typedef struct tagRGBQUAD {

BYTE    rgbBlue;      // 蓝色分量

BYTE    rgbGreen;     // 绿色分量

BYTE    rgbRed;       // 红色分量

BYTE    rgbReserved;  // 保留字节(用作Alpha通道或忽略)

} RGBQUAD;

下面介绍各种YUV格式。YUV格式通常有两大类:打包(packed)格式和平面(planar)格式。前者将YUV分量存放在同一个数组中,通常是几个相邻的像素组成一个宏像素(macro- pixel);而后者使用三个数组分开存放YUV三个分量,就像是一个三维平面一样。表2.3中的YUY2到 Y211都是打包格式,而IF09到YVU9都是平面格式。(注意:在介绍各种具体格式时,YUV各分量都会带有下标,如Y0、U0、V0表示第一个像素的YUV分量,Y1、U1、V1表示第二个像素的YUV分量,以此类推。)

¨ YUY2(和YUYV)格式为每个像素保留Y分量,而UV分量在水平方向上每两个像素采样一次。一个宏像素为4个字节,实际表示2个像素。(4:2:2的意思为一个宏像素中有4个Y分量、2个U分量和2个V分量。)图像数据中YUV分量排列顺序如下:

Y0 U0 Y1 V0    Y2 U2 Y3 V2 …

¨ YVYU格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同:

Y0 V0 Y1 U0    Y2 V2 Y3 U2 …

¨ UYVY格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同:

U0 Y0 V0 Y1    U2 Y2 V2 Y3 …

¨ AYUV格式带有一个Alpha通道,并且为每个像素都提取YUV分量,图像数据格式如下:

A0 Y0 U0 V0    A1 Y1 U1 V1 …

¨ Y41P(和Y411)格式为每个像素保留Y分量,而UV分量在水平方向上每4个像素采样一次。一个宏像素为12个字节,实际表示8个像素。图像数据中 YUV分量排列顺序如下:

U0 Y0 V0 Y1    U4 Y2 V4 Y3    Y4 Y5 Y6 Y8 …

¨ Y211格式在水平方向上Y分量每2个像素采样一次,而UV分量每4个像素采样一次。一个宏像素为4个字节,实际表示4个像素。图像数据中YUV分量排列顺序如下:

Y0 U0 Y2 V0    Y4 U4 Y6 V4 …

¨ YVU9格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个4 x 4的宏块,然后每个宏块提取一个U分量和一个V分量。图像数据存储时,首先是整幅图像的Y分量数组,然后就跟着U分量数组,以及V分量数组。IF09格式与YVU9类似。

¨ IYUV格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个2 x 2的宏块,然后每个宏块提取一个U分量和一个V分量。YV12格式与IYUV类似。

¨ YUV411、YUV420格式多见于DV数据中,前者用于NTSC制,后者用于PAL制。YUV411为每个像素都提取Y分量,而UV分量在水平方向上每4个像素采样一次。YUV420并非V分量采样为0,而是跟YUV411相比,在水平方向上提高一倍色差采样频率,在垂直方向上以U/V间隔的方式减小一半色差采样,如图2.12所示。

http://img.ogg.cn:8080/1308.jpg

YUV 转换为RGB的公式

第一个公式是YUV转换RGB(范围0-255)时用的,第二个公式是用在YUV(601)也成为YCbCr 转换RGB(范围0-255)时用的。

1.Y =   0.299R + 0.587G + 0.114B

U = -0.147R - 0.289G + 0.436B

V =  0.615R - 0.515G - 0.100B

R = Y             + 1.14V

G = Y - 0.39U - 0.58V

B = Y + 2.03U

2.B= 1.164 * (Y - 16) + 2.018 * (U - 128)

G= 1.164 * (Y - 16) -   0.38 * (U - 128) - 0.813 * (V - 128)

R= 1.164 * (Y - 16)                             + 1.159 * (V - 128)

程 序读出来显现的不正确,源代码大概是这样的:

Mywidth = 176;

Myheight = 144;

tmp = (uchar *)malloc(Mywidth * Myheight *3);

buffer = (uchar *)malloc(Mywidth * Myheight *4);

device_fd = open("/dev/video0", O_RDONLY);

static struct video_window vidwin;

vidwin.width = Mywidth;

vidwin.height = Myheight;

ioctl(device_fd, VIDIOCSWIN, &vidwin);

read(device_fd, tmp, Mywidth*Myheight*3);

for(int i = 0; i < 176 * 144; ++i)

{

buffer[4*i] = tmp[3*i];//first bit is blue

buffer[4*i + 1] = tmp[3*i + 1];//second bit is green

buffer[4*i + 2] = tmp[3*i + 2] ;//third bit is red

buffer[4*i + 3] = 130;//forth bit

}

//后面这此是用QT库写的,意思是将buffer的内容转为image再转为pixmap,然 后显示出来

QImage img(buffer, Mywidth, Myheight, 32, NULL, 0, QImage::LittleEndian);

QPixmap pic;

pic.convertFromImage(img);

PixmapVideo->setPixmap(pic);

FillEllips 函数填充指定的椭圆。椭圆心为(sx, sy),X 轴半径为 rx,Y 轴半径为 ry。

FillSector 函数填充由圆弧和两条半径形成的扇形。圆心为(x, y),半径为 r,起始弧度为 ang1,终止弧度为 ang2。

FillPolygon 函数填充多边形。pts 表示多边形各个顶点,vertices 表示多边形顶点个数。

FloodFill 从指定点(x, y)开始填注。

需要注意的是,所有填充函数使用当前画刷属性(颜色),并且受当前光栅操作的影响。

下面的例子说明了如何使用 FillCircle 和 FillEllipse 函数填充圆或者椭圆。假定给定了两个点,pts[0] 和 pts[1],其中 pts[0] 是圆心或者椭圆心,而 pts[1] 是圆或者椭圆外切矩形的一个顶点。

int rx = ABS (pts[1].x - pts[0].x);

int ry = ABS (pts[1].y - pts[0].y);

if (rx == ry)

FillCircle (hdc, pts[0].x, pts[0].y, rx);

else

FillEllipse (hdc, pts[0].x, pts[0].y, rx, ry);

5 建立复杂区域

除了利用填充生成器进行填 充绘制以外,我们还可以使用填充生成器建立由封闭曲线包围的复杂区域。我们知道,MiniGUI 当中的区域是由互不相交的矩形组成的,并且满足 x-y-banned 的分布规则。利用上述的多边形或者封闭曲线生成器,可以将每条扫描线看成是组成区域的高度为 1 的一个矩形,这样,我们可以利用这些生成器建立复杂区域。MiniGUI 利用现有的封闭曲线生成器,实现了如下的复杂区域生成函数:

BOOL GUIAPI InitCircleRegion (PCLIPRGN dst, int x, int y, int r);

BOOL GUIAPI InitEllipseRegion (PCLIPRGN dst, int x, int y, int rx, int ry);

BOOL GUIAPI InitPolygonRegion (PCLIPRGN dst, const POINT* pts, int vertices);

BOOL GUIAPI InitSectorRegion (PCLIPRGN dst, const POINT* pts, int vertices);

利用这些函数,我们可以将某个区域分别初始化为圆、椭圆、多边形和扇形区 域。然后,可以利用这些区域进行点击测试(PtInRegion 和 RectInRegion),或者选择到 DC 当中作为剪切域,从而获得特殊显示效果。

6 直接访问显示缓冲区

在新的 GDI 接口中,我们添加了用来直接访问显示缓冲区的函数,原型如下:

Uint8* GUIAPI LockDC (HDC hdc, const RECT* rw_rc, int* width, int* height, int* pitch);

void GUIAPI UnlockDC (HDC hdc);

LockDC 函数锁定给定 HDC 的指定矩形区域(由矩形 rw_rc指定,设备坐标),然后返回缓冲区头指针。当 width、height、pitch 三个指针不为空时,该函数将返回锁定之后的矩形有效宽度、有效高度和每扫描线所占的字节数。

UnlockDC 函数解开已锁定的 HDC。

锁定一个 HDC 意味着 MiniGUI 进入以互斥方式访问显示缓冲区的状态。如果被锁定的 HDC 是一个屏幕 DC(即非内存 DC),则该函数将在必要时隐藏鼠标光标,并锁定 HDC 对应的全局剪切域。在锁定一个 HDC 之后,程序可通过该函数返回的指针对锁定区域进行访问。需要注意的是,不能长时间锁定一个 HDC,也不应该在锁定一个 HDC 时进行其他额外的系统调用。

假定以锁定矩形左上角为原点建立坐标系,X 轴水平向右,Y 轴垂直向下,则可以通过如下的公式计算该坐标系中(x, y)点对应的缓冲区地址(假定该函数返回的指针值为 frame_buffer):

Uint8* pixel_add = frame_buffer + y * (*pitch) + x * GetGDCapability (hdc, GDCAP_BPP);

根据该 HDC 的颜色深度,就可以对该象素进行读写操作。作为示例,下面的程序段随机填充锁定区域:

int i, width, height, pitch;

RECT rc = {0, 0, 200, 200};

int bpp = GetGDCapability (hdc, GDCAP_BPP);

Uint8* frame_buffer = LockDC (hdc, &rc, &width, &height, &pitch);

Uint8* row = frame_buffer;

for (i = 0; i < *height; i++) {

memset (row, rand ()%0x100, *width * bpp);

row += *pitch;

}

UnlockDC (hdc);

7 YUV 覆盖和 Gamma 校正

为了增强 MiniGUI 对多媒体的支持,我们增加了对 YUV 覆盖(Overlay)和 Gamma 校正的支持。

7.1 YUV 覆盖(Overlay)

多媒体领域中,尤其在涉及到 MPEG 播放时,通常使用 YUV 颜色空间来表示颜色,如果要在屏幕上显示一副 MPEG 解压之后的图片,则需要进行 YUV 颜色空间到 RGB 颜色空间的转换。YUV 覆盖最初来自一些显示芯片的加速功能。这种显示芯片能够在硬件基础上完成 YUV 到 RGB 的转换,免去软件转换带来的性能损失。在这种显示芯片上建立了 YUV 覆盖之后,可以直接将 YUV 信息写入缓冲区,硬件能够自动完成 YUV 到 RGB 的转换,从而在 RGB 显示器上显示出来。在不支持 YUV 覆盖的显示芯片上,MiniGUI 也能够通过软件实现 YUV 覆盖,这时,需要调用 DisplayYUVOverlay 函数将 YUV 信息转换并缩放显示在建立 YUV 覆盖的 DC 设备上。

MiniGUI 提供的 YUV 覆盖操作函数原型如下:

/***************************** YUV overlay support ***************************/

/* 最常见的视频覆盖格式.

*/

#define GAL_YV12_OVERLAY 0x32315659  /* Planar mode: Y + V + U (3 planes) */

#define GAL_IYUV_OVERLAY 0x56555949  /* Planar mode: Y + U + V (3 planes) */

#define GAL_YUY2_OVERLAY 0x32595559  /* Packed mode: Y0+U0+Y1+V0 (1 plane) */

#define GAL_UYVY_OVERLAY 0x59565955  /* Packed mode: U0+Y0+V0+Y1 (1 plane) */

#define GAL_YVYU_OVERLAY 0x55595659  /* Packed mode: Y0+V0+Y1+U0 (1 plane) */

/* 该函数创建一个视频输出覆盖

*/

GAL_Overlay* GUIAPI CreateYUVOverlay (int width, int height,

Uint32 format, HDC hdc);

/* 锁定覆盖进行直接的缓冲区读写,结束后解锁 */

int GAL_LockYUVOverlay (GAL_Overlay *overlay);

void GAL_UnlockYUVOverlay (GAL_Overlay *overlay);

#define LockYUVOverlay GAL_LockYUVOverlay

#define UnlockYUVOverlay GAL_UnlockYUVOverlay

/* 释放视频覆盖 */

void GAL_FreeYUVOverlay (GAL_Overlay *overlay);

#define FreeYUVOverlay GAL_FreeYUVOverlay

/* 将视频覆盖传送到指定 DC 设备上。该函数能够进行 2 维缩放

*/

void GUIAPI DisplayYUVOverlay (GAL_Overlay* overlay, const RECT* dstrect);

有关视频格式的信息,可参见:

http://www.webartz.com/fourcc/indexyuv.htm

有关颜色空间的相互关系的息,可参见:

http://www.neuro.sfc.keio.ac.jp/~aly/polygon/info/color-space-faq.html

7.2 Gamma 校正

Gamma 校正通过为 RGB 颜色空间的每个颜色通道设置 Gamma 因子,来动态调整 RGB 显示器上的实际 RGB 效果。需要注意的是,Gamma 校正需要显示芯片的硬件支持。

应用程序可 以通过 SetGamma 函数设置 RGB 三个颜色通道的 Gamma 校正值。该函数原型如下:

int GAL_SetGamma (float red, float green, float blue);

#define SetGamma GAL_SetGamma

线性 Gamma 校正值的范围在 0.1 到 10.0 之间。如果硬件不支持 Gamma 校正,该函数将返回 -1。

应用程序也可以通过 SetGammaRamp 函数设置 RGB 三个颜色通道的非线性 Gamma 校正值。该函数原型如下:

int GAL_SetGammaRamp (Uint16 *red, Uint16 *green, Uint16 *blue);

#define SetGammaRamp GAL_SetGammaRamp

int GAL_GetGammaRamp (Uint16 *red, Uint16 *green, Uint16 *blue);

#define GetGammaRamp GAL_GetGammaRamp

函数 SetGammaRamp 实际设置的是每个颜色通道的 Gamma 转换表,每个表由 256 个值组成,表示设置值和实际值之间的对应关系。当设置屏幕上某个象素的 RGB 分别为 R、G、B 时,实际在显示器上获得的象素 RGB 值分别为:red[R]、green[G]、blue[B]。如果硬件不支持 Gamma 校正,该函数将返回 -1。

函数 GetGammaRamp 获得当前的 Gamma 转换表。

Gamma 校正的最初目的,是为了能够在显示器上精确还原一副图片。Gamma 值在某种程度上表示的是某个颜色通道的对比度变化。但 Gamma 在多媒体和游戏程序中有一些特殊用途――通过 Gamma 校正,可以方便地获得对比度渐进效果。

8 小结

本文描述了自 MiniGUI 1.1.0Pre4 版本发布以来新增的 GDI 接口。这些接口涉及到曲线和填充生成器、复杂曲线的绘制、封闭曲线填充、复杂区域的创建、直接访问 FrameBuffer、YUV 覆盖和 Gamma 校正等等。通过本文的介绍,相信读者能够对 MiniGUI 的新 GDI 接口有一个更加全面的认识。

RGB、YUV和YCbCr相关推荐

  1. RGB 转换至 YCbCr (YUV) 的计算公式

    RGB 转换至 YCbCr (YUV) 的计算公式 博客分类: Programming BBSPHP.net 对于每个取样点的 R,G,B 值, 在转换到 YUV colour space 时, 首先 ...

  2. c语言yuv图片cb,RGB、YUV和YCbCr

    之前对RGB.YUV和YCbCr一直没有清晰的理解和认识,今天打算做一个小结,结合网上的文章谈谈自己的看法,也希望有机会看到这篇文章的人能指点一二,相互交流,共同进步. 首先要说明,上述的RGB.YU ...

  3. RGB、YUV和YCbCr三种颜色空间

    转载自:https://blog.csdn.net/u010186001/article/details/52800250 [转载] http://blog.sina.com.cn/s/blog_a8 ...

  4. FPGA-图像处理-色彩空间转换(RGB转YUV和YCBCR)

    之前转了一篇定点运算的文章希望大家看完再看这个, 涉及到FPGA的色彩空间转换的知识,一定要提定点运算,其实之前在进行小数运算的时候已经用到了,这里我也不详细说了看文章吧 OV7670摄像头采集的数据 ...

  5. RGB、YUV、YCbCr几种颜色空间的区别

    首先要说明RGB.YUV和YCbCr都是人为规定的彩色模型或颜色空间(有时也叫彩色系统或彩色空间).它的用途是在某些标准下用通常可接受的方式对彩色加以描述.本质上,彩色模型是坐标系统和子空间的阐述. ...

  6. RGB/YUV/YCbCr--关于显示,颜色你需要了解的一些事

    工作中常听说RGB/YUV/YCbCr 这样一些名词,概念上似乎很混淆?这里是一个简介,部分内容来自wiki,理解不对的地方欢迎指正. A:首先两个基本概念: Color model和Color Sp ...

  7. RGB YUV [转]

    http://jxx.sdecu.com/jpkc/dsyl/jiaoxuefangfa/wangluoketang/seven/7.htm 人类眼睛的色觉,具有特殊的特性,早在上世纪初,Young( ...

  8. RGB YUV的来历及相互转换

    在视频等相关的应用中, YUV 是一个经常出现的格式.本文主要以图解的资料的形式详细描述 YUV 和 RGB 格式的来由,相互关系以及转换方式,并对 C 语言实现的 YUV 转为 RGB 程序进行介绍 ...

  9. YUV YPbPr YCbCr CCIR 601 CCIR 656

                                                        YUV YPbPr YCbCr CCIR 601 CCIR 656   转自:http://bl ...

最新文章

  1. hdu 2028 Lowest Common Multiple Plus
  2. FreeTextBox License机制的粗浅分析
  3. 【科普】大脑是如何编码复杂信息的?
  4. 第九届全国大学生智能汽车竞赛获奖名单
  5. Python计算机视觉:安装
  6. Java里optionsMenu.add_NoActionBar主题下如何添加OptionsMenu
  7. eclipse正则表达式查找
  8. 热部署在java中的包名_09-springboot工程中的热部署实现。
  9. 各自然带代表植被_必备知识:植被与地理环境
  10. vue 不识别svg_vue配置svg 图标显示不出来
  11. VMware虚拟化技术培训(6) 虚拟网络和虚拟存储
  12. day10.函数,函数的参数
  13. mnist数据集下载——mnist数据集提供百度网盘下载地址
  14. npm启动报错——端口被占用
  15. 小程序支付:appid和mch_id不匹配采坑实录
  16. 25行Java代码将普通图片转换为字符画图片和文本
  17. FreeTextBox编辑框遇到的问题
  18. 强力回击 跨境侵权(TRO)卖家通过诉讼大获全胜,还净赚数万?
  19. P2973 [USACO10HOL]赶小猪
  20. react-native-beacons-manager在Android上的使用 --工作笔记

热门文章

  1. .NET基础篇——分部类和分部方法
  2. 全网天下:中小企业如何做好线上品牌推广?
  3. IBM X230I装回xp或win7
  4. 《制造业中的机器人、自动化和系统集成》—— 2.2 机器人的性能
  5. AlphaGo Zero「无师自通」背后的伟大与局限 | 旷视孙剑解读
  6. 中专计算机教师天涯,中职教师进来聊聊!
  7. 手把手教搭建微信小程序教程
  8. 今天,影响了一位试用期员工的去留
  9. Unity AR Shadow 阴影
  10. Laf: 云开发中的战斗机,让你写代码像写博客一样简单