在一些嵌入式系统中,视频以jpeg图像格式传出来,而且数据量非常大。这种情况下如果要对jpeg图像进行解码并且重新编码成264之类的格式再放入视频容器中会消耗大量的CPU资源,若不是性能特别犀利的CPU是无法承受的,这个时候有一个折衷的办法,就是直接将jpeg连续保存起来(也就是保存成mjpeg视频格式),然后直接放入视频容器中。
这个方面的代码实现网上资料比较少,可以说几乎没有,基本都是直接用FFmpeg的命令行来实现的,这一方法虽然可行但毕竟不太适合软件的集成,是故本人做了些研究,并将代码放出来供各位参考指正。
在贴出代码之前特别感谢雷霄骅老师的博客,其关于FFmpeg的博文提供了非常多的参考,如果对FFmpeg有深入了解需求的可以去看看,会有很多收获。
&nbs

本文介绍如何在嵌入式系统中,面对大量JPEG图像时,通过FFmpeg将JPEG图片转换为MJPEG格式,然后直接封装到视频容器中,以降低CPU资源消耗。由于相关代码实现资料稀缺,作者分享了自己的研究和实现代码,适用于软件集成。该方法受到雷霄骅老师关于FFmpeg博客的启发。
订阅专栏 解锁全文
3063





