3D H.264视频播放功能简单实现
yuyutoo 2024-11-21 23:34 1 浏览 0 评论
3D H.264也可以通过解码获得两个YUV文件,分别代表不同两个不同视点拍摄得到内容。根据3D视频的制作原理,要想实现3D效果,需要对3D视频的两个视点文件进行同步播放。
YUV介绍如下:
YUV是被欧洲电视系统所采用的一种颜色编码方法(属于PAL),是PAL和SECAM模拟彩色电视制式采用的颜色空间。在现代彩色电视系统中,通常采用三管彩色摄影机或彩色CCD摄影机进行取像,然后把取得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。
YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。其中Y表示明亮度(Luma),也就是灰阶值;而U和V表示的则是色度(Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。“亮度”是透过RGB输入信号来建立的,方法是将RGB信号的特定部分叠加到一起。“色度”则定义了颜色的两个方面─色调与饱和度,分别用Cr和Cb来表示。
主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2和YCbCr 4:4:4。其中YCbCr 4:2:0比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值),每 2x2 个点保存一个 Cr 和Cb值,而且Cr和Cb交替出现,图像在肉眼中的感觉不会起太大的变化。所以,原来用 RGB(R,G,B 都是 8bits,无符号的) 模型, 1个点需要 8x3=24 bits(全采样后,YUV仍各占8bit)。按4:2:0采样后,而现在平均仅需要 8+(8/4)+(8/4)=12bits(4个点,8*4(Y)+8(U)+8(V)=48bits), 平均每个点占12bits。这样就把图像的数据压缩了一半。
由于实际中一般都采用的是YUV420的采样格式,以下以此格式为准。YUV格式通常有两大类:打包格式和平面格式。前者将YUV分量存放在同一个数组中,通常是几个相邻的像素组成一个宏像素;而后者使用三个数组分开存放Y、U、V三个分量,就像是一个三维平面一样。在实际使用中,通常使用前一种格式进行存放。
播放功能设计的原理如下:
第一步,如何使两个不同视点的帧同时播放。在解码过程中,会出现解码不同步的现象,也就是说,第一个视点的YUV文件可能已经解码了好几帧,但是第二个视点的才解码了一帧。因为要实现实时播放,也就是在解码的同时就要实现播放,即解码完一帧就要播放一帧,而不能是将264文件解码完毕之后,通过同时读取两个YUV的一帧,然后再进行播放。虽然后者做法不行,但是也提供了一个思路,因为解码完成的YUV格式内容最终会写到磁盘上,可以申请两个缓冲区,分别存放两个不同视点解码出来的视频帧,当两个缓冲区的使用数量相等的时候,申请一个为单一帧大小两倍的字符数组,按照一帧的packed存储格式,先存储一帧的Y数据,然后存储另一帧的Y数据,接着存储一帧的U数据,再存储另一个视点帧的U数据,最后存储一帧的V数据,再存储另一个视点帧的V数据,这样,新数组就形成一个将两个视点拼接的YUV数据帧,这样播放播放这个数据帧就等于同时播放两个视点的帧。第二步,将YUV转化为RGB。YUV格式不能直接进行播放,而是必须先将其转化为RGB格式。第三步,将YUV转化为RGB之后,使用windows API函数StretchDIBits将图像显示在窗体上。
整个过程的流程图如图3所示。