实现录屏功能,需要将Android设备通过Socket发送到客户端的AVPacket数据保存成文件。
在前面的文章中讲过界面如何通过OpenGL绘制AVPacket.
简单回顾下:Demuxer线程不断的读取视频socket链路上的数据,以AVPacket对象的形式交给解码器,解码器遍历PacketSink列表,PacketSink按照各自的实现使用AVPacket数据。我们继承PacketSink类,分别实现
RecoderVideoSink和RecoderAudioSink
class RecoderVideoSink:public PacketSink{
public:
RecoderVideoSink(RecorderThread *handler);
~RecoderVideoSink();
virtual bool open(AVCodecContext *ctx);
virtual void close();
virtual bool push(AVPacket *packet);
//virtual void disable();
private:
RecorderThread *recorder;
};
class RecoderAudioSink:public PacketSink{
public:
RecoderAudioSink(RecorderThread *handler);
~RecoderAudioSink();
virtual bool open(AVCodecContext *ctx);
virtual void close();
virtual bool push(AVPacket *packet);
//virtual void disable();
private:
RecorderThread *recorder;
};
将实现的这两个Sink,加入到Decoder的Sink列表,这样在解码过程中AVPacket会复制过来。
录屏功能新创建一个线程,线程的优先级可是设低一些,把宝贵的CPU资源优先让给

本文介绍了如何通过Socket在Android设备上实现录屏功能,通过Demuxer读取数据并将其封装为AVPacket,然后通过自定义的RecoderVideoSink和RecoderAudioSink解码器Sink进行处理,最后将数据保存为文件。重点讲述了文件的打开、视频头信息写入以及关键技术点的实现过程。
最低0.47元/天 解锁文章
1106

被折叠的 条评论
为什么被折叠?



