叮当猫咪
最近在做视频浓缩的项目。以前一直用OpenCV这项神器辅助编程,然而发现opencv在视频的压缩编码和写入封装上有些弊端和小bug。比如压缩比很小,无法写入生成过大的文件,格式封装不完美。所以在下又去寻求另一个开源库ffmpeg的帮助。讲道理,ffmpeg比opencv学起来更费劲。版本更新换代太快,网上也没用成体系的教程资料,所以只有去大婶们的博客去取经,溜了几圈受益匪浅。不得不说这个库很厉害,有完整的视频编解码方案,解决了之前生成的视频文件太大的问题。由于用到了opencv封装的一些算法,所以我对每一帧图像使用的是opencv的Mat数据结构。然而ffmpeg编码视频要求输入是YUV,那么问题来了,我怎么把这两个库数据结构对接上?查找了一些资料,不管你是什么数据结构,都得从像素级别处理图像,所以可以从内存地址下功夫。下面是我的代码[cpp] view plain copymemcpy(pYuvBuf, Img.data, bufLen*sizeof(unsigned char));pict->data[0] = pYuvBuf; // Ypict->data[1] = pYuvBuf + y_size; // Upict->data[2] = pYuvBuf + y_size * 5 / 4; // V其中Img为Mat结构。