TV 颜色空间YUV

本文介绍了YUV色彩空间的基本概念及其在彩色电视系统中的应用。重点讲解了YUV与RGB色彩空间之间的转换原理,以及YUV色彩空间在图像压缩方面的优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

       YUV是被欧洲电视系统所采用的一种颜色编码方法(属于PAL),是PAL和SECAM模拟彩色电视制式采用的颜色空间。在现代彩色电视系统中,通常采用三管彩色摄影机或彩色CCD摄影机进行取像,然后把取得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号B-Y(即U)、R-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。这种色彩的表示方法就是所谓的YUV色彩空间表示。采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。

       下面主要介绍YUV 。 Y:亮度信号,U: cr 红色信号与亮度对比信号,V:cr 蓝色信号与亮度信号的对比信号。

      YUV主要用于优化彩色视频信号的传输,使其向后相容老式 黑白电视。与RGB 视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。其中“Y”表示明亮度(Luminance或Luma),也就是灰阶值;而“U”和“V” 表示的则是 色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。“亮度”是透过RGB输入信号来建立的,方法是将RGB信号的特定部分叠加到一起。“色度”则定义了颜色的两个方面─色调与饱和度,分别用Cr和Cb来表示。其中,Cr反映了RGB输入信号红色部分与RGB信号亮度值之间的差异。而Cb反映的是RGB输入信号蓝色部分与RGB信号亮度值之间的差异。
采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白 灰度图像彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与 黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

      YUV 最终的来源都是来自于,YUV信号,计算方式有多种
从 RGB 到 YUV 转换的定义以下列内容开始:L = Kr * R + Kb * B + (1 – Kr – Kb) * G然后,按照下列方式获得 YUV 值:
Y = floor(2^(M-8) * (219*(L–Z)/S + 16) + 0.5)
U = clip3(0, 2^M-1, floor(2^(M-8) * (112*(B-L) / ((1-Kb)*S) + 128) + 0.5))
V = clip3(0, 2^M-1, floor(2^(M-8) * (112*(R-L) / ((1-Kr)*S) + 128) + 0.5))

      YUV 与RGB 的关系,(YCBCR, CB: 蓝色差异,CR: 红色差异)。YCBCR:主要是对图像进行压缩。
主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值),每 2x2 个点保存一个 Cr 和Cb 值,图像在肉眼中的感觉不会起太大的变化。所以, 原来用 RGB(R,G,B 都是 8bit unsigned) 模型, 1个点需要 8x3=24 bits(如下图第一个图),(全采样后,YUV仍各占8bit)。按4:1:1采样后,而现在平均仅需要 8+(8/4)+(8/4)=12bits(4个点,8*4(Y)+8(U)+8(V)=48bits), 平均每个点占12bits(如下图第二个图)。这样就把图像的 数据压缩了一半。


YUV: 详细解释:
上边仅给出了理论上的示例,在实际数据存储中是有可能是不同的,下面给出几种具体的存储形式:
(1) YUV 4:4:4
YUV三个信道的抽样率相同,因此在生成的图像里,每个象素的三个分量信息完整(每个分量通常8比特),经过8比特量化之后,未经压缩的每个像素占用3个字节。
下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]
存放的码流为: Y0 U0 V0 Y1 U1 V1 Y2 U2 V2 Y3 U3 V3
(2) YUV 4:2:2
每个色差信道的抽样率是亮度信道的一半,所以水平方向的 色度抽样率只是4:4:4的一半。对非压缩的8比特量化的图像来说,每个由两个水平方向相邻的像素组成的宏像素需要占用4字节内存。
下面的四个像素为:[Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]
存放的码流为:Y0 U0 Y1 V1 Y2 U2 Y3 V3
映射出像素点为:[Y0 U0 V1] [Y1 U0 V1] [Y2 U2 V3] [Y3 U2 V3]
(3) YUV 4:1:1
4:1:1的 色度抽样,是在水平方向上对色度进行4:1抽样。对于低端用户和消费类产品这仍然是可以接受的。对非压缩的8比特量化的视频来说,每个由4个水平方向相邻的像素组成的宏像素需要占用6字节内存。
下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]
存放的码流为: Y0 U0 Y1 Y2 V2 Y3
映射出像素点为:[Y0 U0 V2] [Y1 U0 V2] [Y2 U0 V2] [Y3 U0 V2]
(4)YUV4:2:0
4:2:0并不意味着只有Y,Cb而没有Cr分量。它指得是对每行扫描线来说,只有一种色度分量以2:1的抽样率存储。相邻的扫描行存储不同的色度分量,也就是说,如果一行是4:2:0的话,下一行就是4:0:2,再下一行是4:2:0...以此类推。对每个色度分量来说,水平方向和竖直方向的抽样率都是2:1,所以可以说色度的抽样率是4:1。对非压缩的8比特量化的视频来说,每个由2x2个2行2列相邻的像素组成的宏像素需要占用6字节内存。
下面八个像素为:[Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]
[Y5 U5 V5] [Y6 U6 V6] [Y7U7 V7] [Y8 U8 V8]
存放的码流为:Y0 U0 Y1 Y2 U2 Y3
Y5 V5 Y6 Y7 V7 Y8
映射出的像素点为:[Y0 U0 V5] [Y1 U0 V5] [Y2 U2 V7] [Y3 U2 V7]
[Y5 U0 V5] [Y6 U0 V5] [Y7U2 V7] [Y8 U2 V7]


YUV与RGB的转换公式:
U和V元件可以被表示成原始的R、G,和B:
取而代之,以矩阵表示法(matrix representation),可得到公式:
词条图册







<think>好的,我现在需要回答用户关于如何用YUV420格式保存图像文件的问题。首先,我得回顾一下用户提供的引用资料,看看里面有没有相关的信息。用户提到了四个引用,其中引用[2]详细说明了YUV420的不同存储格式,比如I420、YV12、NV12和NV21,并给出了C代码生成YUV420 planar格式文件的例子。引用[4]则提到了使用FFmpeg保存原始YUV420P文件的方法,可能涉及到AVFrame的处理。 用户的问题是如何保存YUV420格式的图像文件,所以我需要结合这些引用中的信息来构建答案。首先,应该解释YUV420的基本概念,然后分步骤说明保存方法,可能包括手动处理数据和使用现有工具如FFmpeg或OpenCV。 从引用[2]来看,YUV420有不同的子格式,比如I420和YV12属于平面格式(planar),而NV12和NV21属于半平面(semi-planar)。保存时需要按照这些格式的存储顺序来排列Y、U、V分量。例如,I420是先存储所有Y,然后是U,最后是V,每个分量占用不同的内存区域。手动处理的话,可能需要将RGB或其他颜色空间转换到YUV,并正确排列数据。 引用[4]提到FFmpeg可以保存AVFrame中的YUV数据,说明使用现有的库可以简化过程。比如,用FFmpeg的API获取AVFrame,然后按行大小(linesize)写入文件,这样可以避免对齐问题带来的多余填充字节。 另外,用户提供的引用[3]提到使用OpenCV处理图像,虽然主要是关于保存为PNG和AVI,但可能可以结合OpenCV的颜转换函数将图像从BGR转换为YUV420,然后手动写入文件。不过需要确认OpenCV是否支持直接输出YUV420格式的数据。 总结下来,保存YUV420图像的步骤可能包括: 1. 获取原始图像的YUV420数据,可能需要颜色空间转换。 2. 根据具体格式(如I420、NV12)排列Y、U、V分量的数据。 3. 处理内存对齐,注意linesize可能不等于图像宽度。 4. 将数据写入文件,或使用工具如FFmpeg来保存。 需要检查引用中的示例代码,如引用[2]的C代码生成YUV420 planar文件,可能可以作为手动保存的参考。而引用[4]的FFmpeg方法则更适合在已有视频处理流程中使用。此外,7yuv工具(引用[1])可以用来验证生成的YUV文件是否正确。 可能的注意事项包括:不同的YUV子格式的数据排列方式,内存对齐导致的linesize问题,以及是否需要考虑图像尺寸是否为偶数(因为YUV420的度分量是下采样的一半)。如果用户是从RGB转换而来,需要正确的转换矩阵,并处理可能的颜范围问题(比如TV范围与PC范围)。 最后,生成相关问题的时候,需要考虑用户可能进一步的问题,比如不同格式的区别、转换工具的使用,或者如何处理对齐问题等。</think>### 如何用 YUV420 格式保存图像文件? YUV420 是一种常用的图像存储格式,广泛应用于视频编码和图像处理领域。以下是实现 YUV420 格式图像保存的两种方法: --- #### **方法 1:手动生成 YUV420 数据并保存** 1. **颜色空间转换** 将原始图像(如 RGB 或 BGR)转换为 YUV 颜色空间YUV420 的亮度分量(Y)保留全分辨率,而度分量(U、V)以 2x2 的块为单位进行下采样。例如,对于分辨率 $W \times H$ 的图像: - Y 分量大小为 $W \times H$ - U 和 V 分量大小均为 $\frac{W}{2} \times \frac{H}{2}$ 2. **数据排列** 根据 YUV420 的子格式(如 I420、NV12)排列数据: - **I420(YUV420P)**:先存储所有 Y 分量,再依次存储 U 和 V 分量。 例如: ``` YYYYYYYY...UUUU...VVVV... ``` - **NV12(YUV420SP)**:先存储 Y 分量,再交替存储 U 和 V 分量。 例如: ``` YYYYYYYY...UVUVUV... ``` 3. **写入文件** 将排列好的数据直接写入二进制文件。 **C 代码示例**(生成 I420 格式文件): ```c FILE *fp = fopen("output.yuv", "wb"); fwrite(y_data, 1, width * height, fp); // 写入 Y 分量 fwrite(u_data, 1, (width/2) * (height/2), fp); // 写入 U 分量 fwrite(v_data, 1, (width/2) * (height/2), fp); // 写入 V 分量 fclose(fp); ``` --- #### **方法 2:使用 FFmpeg 工具保存** FFmpeg 支持直接提取和保存 YUV420 原始数据,适用于视频处理场景[^4]: 1. **从视频中提取 YUV420 帧** ```bash ffmpeg -i input.mp4 -pix_fmt yuv420p output.yuv ``` 2. **代码中保存 AVFrame 数据** 在 C/C++ 中,通过 FFmpeg 的 API 获取 AVFrame 的 YUV 分量并写入文件: ```c // 假设 frame 是 AVFrame 结构体 FILE *fp = fopen("frame.yuv", "wb"); for (int i = 0; i < frame->height; i++) { fwrite(frame->data[0] + i * frame->linesize[0], 1, frame->width, fp); // Y 分量 } for (int i = 0; i < frame->height/2; i++) { fwrite(frame->data[1] + i * frame->linesize[1], 1, frame->width/2, fp); // U 分量 fwrite(frame->data[2] + i * frame->linesize[2], 1, frame->width/2, fp); // V 分量 } fclose(fp); ``` --- #### **验证 YUV 文件** 使用工具 **7yuv** 或 **YUView** 打开生成的 `.yuv` 文件,需指定分辨率与像素格式(如 I420)[^1]。 --- #### **注意事项** - **分辨率要求**:YUV420 格式要求图像的宽高均为偶数,否则度分量下采样会出错。 - **内存对齐**:FFmpeg 的 `linesize` 可能包含填充字节,直接按 `width` 写入可能引入噪声[^4]。 - **性能优化**:手动生成适合小图像,FFmpeg 适合批量或视频流处理。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值