在 Rust 中使用 FFmpeg (2):视频解码测试

在上一篇文章《在 Rust 中使用 FFmpeg (1):环境搭建》中我们完成了环境搭建,通过一个简单的 API 调用打通了在 Rust 中调用 FFmpeg 的完整路径。这次我们将通过一个简单的示例程序学习如何用 ffmpeg-next 库实现视频解码。

dump-frames, ffmpeg-next 仓库自带的 example,实现了对输入视频文件的逐帧解码,并保存为图像文件的功能。完整的源码在这里

首先,为 crate ffmpeg_next 定义别名为 ffmpeg,方便使用:

extern crate ffmpeg_next as ffmpeg;

main 函数入口处例行的初始化:

ffmpeg::init().unwrap();

这个初始化是必要的,其内部除了调用 ffmpeg 的初始化方法外还初始化了常用错误码的描述信息,这对出错时的调试排障很有帮助。

接下来是个巨大的 if let 代码块。input 函数负责打开视频文件解析头信息等,文件路径是从命令行参数中获取的。

if let Ok(mut ictx) = input(&env::args().nth(1).expect("Cannot open file.")) {
  ...
}

我们可以看下 input 函数的内部实现:

pub fn input<P: AsRef<Path> + ?Sized>(path: &P) -> Result<context::Input, Error> {
    unsafe {
        let mut ps = ptr::null_mut();
        let path = from_path(path);

        match avformat_open_input(&mut ps, path.as_ptr(), ptr::null_mut(), ptr::null_mut()) {
            0 => match avformat_find_stream_info(ps, ptr::null_mut()) {
                r if r >= 0 => Ok(context::Input::wrap(ps)),
                e => {
                    avformat_close_input(&mut ps);
                    Err(Error::from(e))
                }
            },

            e => Err(Error::from(e)),
        }
    }
}

avformat_open_inputavformat_find_stream_info,果然是我们熟悉的 FFmpeg 。这两个函数是 crate ffmpeg-sys-next 提供的,我们也可以直接使用 ffmpeg-sys-next,不过那样的话需要写大量 unsafe 代码,比较麻烦,所以我们在满足需求的前提下优先使用 ffmpeg-next

接下来的代码依然是熟悉的流程,记录视频流 id,创建解码器,因为最终需要输出的是 RGB 格式的图像所以创建对应的格式转换对象 scaler 。这里也可以不创建 scaler 直接写 YUV 裸数据到文件,然后用 YUView 之类的 YUV 工具软件查看解码结果。

let input = ictx
    .streams()
    .best(Type::Video)
    .ok_or(ffmpeg::Error::StreamNotFound)?;
let video_stream_index = input.index();

let context_decoder = ffmpeg::codec::context::Context::from_parameters(input.parameters())?;
let mut decoder = context_decoder.decoder().video()?;

let mut scaler = Context::get(
    decoder.format(),
    decoder.width(),
    decoder.height(),
    Pixel::RGB24,
    decoder.width(),
    decoder.height(),
    Flags::BILINEAR,
)?;

定义一个闭包用来实现解码转码和写图像文件,因为 ffmpeg-next 是高层抽象,所以使用起来比较简单:

let mut frame_index = 0;

let mut receive_and_process_decoded_frames =
    |decoder: &mut ffmpeg::decoder::Video| -> Result<(), ffmpeg::Error> {
        let mut decoded = Video::empty();
        while decoder.receive_frame(&mut decoded).is_ok() {
            let mut rgb_frame = Video::empty();
            scaler.run(&decoded, &mut rgb_frame)?;
            save_file(&rgb_frame, frame_index).unwrap();
            frame_index += 1;
        }
        Ok(())
    };    

解析文件读取音视频帧的过程被抽象成了迭代器,这在 Rust 中是很常见的做法,使用起来也很简单:

for (stream, packet) in ictx.packets() {
    if stream.index() == video_stream_index {
        decoder.send_packet(&packet)?;
        receive_and_process_decoded_frames(&mut decoder)?;
    }
}

不过对于商业强度的播放器项目,现实情况要复杂得多,每帧读取后都有一大串的工作要做,记录信息、处理失败、处理音频和视频的同步、处理 Seek(对应播放器上拖动进度条的操作)等等,这时候迭代器可能就不够用了,仍然需要回归原始的命令式编程一步一步的实现各种处理。

最后是一点收尾工作,取出仍缓存在解码器中的视频帧:

decoder.send_eof()?;
receive_and_process_decoded_frames(&mut decoder)?;

保存每帧图像的代码,使用的 PPM 格式,非常简单的一种图像格式,特别适合用于当前这种简单的示例程序:

fn save_file(frame: &Video, index: usize) -> std::result::Result<(), std::io::Error> {
    let mut file = File::create(format!("frame{}.ppm", index))?;
    file.write_all(format!("P6\n{} {}\n255\n", frame.width(), frame.height()).as_bytes())?;
    file.write_all(frame.data(0))?;
    Ok(())
}

关于 PPM 格式可以参考 Wikipedia 上的文档 Netpbm

编译执行:

cargo run --example dump-frames -- "C:\Videos\bear.mp4"

用看图软件查看输出的 .ppm 文件:
在这里插入图片描述
解码顺利完成,后续我们会在这个代码的基础增加视频渲染到窗口的能力,一步步向着一个正经播放器的样子前进。

在 Rust 中使用 FFmpeg 系列文章

《在 Rust 中使用 FFmpeg (1):环境搭建》
《在 Rust 中使用 FFmpeg (2):视频解码测试》
《在 Rust 中使用 FFmpeg (3):动态链接和静态链接》

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值