但愿管理员的大婶们能发布啊。
/*
@author :jiaZhengShen,qq群中网名:,qq号:
avPlayer中的libav工程的api的中文介绍,以英文原文为准。
*/
/* 播放器状态. */
typedef enum play_status
{
inited, playing, paused, completed, stoped
} play_status;
enum sync_type
{
AV_SYNC_AUDIO_MASTER, /* 默认选择. */
AV_SYNC_VIDEO_MASTER, /* 同步到视频时间戳. */
AV_SYNC_EXTERNAL_CLOCK, /* 同步到外部时钟. */
};
/* 用于config_render参数表示所配置的render或source或demux. */
#define MEDIA_SOURCE 0
#define MEDIA_DEMUX 1
#define AUDIO_RENDER 2
#define VIDEO_RENDER 3
/* 用于标识渲染器类型. */
#define VIDEO_RENDER_D3D 0
#define VIDEO_RENDER_DDRAW 1
#define VIDEO_RENDER_OPENGL 2
#define VIDEO_RENDER_SOFT 3
/* 队列. */
typedef struct _av_queue
{
void *m_first_pkt, *m_last_pkt;
int m_size; /* 队列大小. */
int m_type; /* 队列类型. */
int abort_request;
pthread_mutex_t m_mutex;
pthread_cond_t m_cond;
} av_queue;
/* 数据源结构分配和释放. */
EXPORT_API source_context* alloc_media_source(int type, const char *addition, int addition_len, int64_t size);
EXPORT_API void free_media_source(source_context *ctx);
/* 音频结构分配和释放. */
EXPORT_API ao_context* alloc_audio_render();
EXPORT_API void free_audio_render(ao_context *ctx);
/* 视频渲染结构分配和释放. */
EXPORT_API vo_context* alloc_video_render(void *user_data);
EXPORT_API void free_video_render(vo_context *ctx);
/* 分配视频分离和释放. */
EXPORT_API demux_context* alloc_demux_context();
EXPORT_API void free_demux_context(demux_context *ctx);
/* 计算视频实时帧率和实时码率的时间单元. */
#define MAX_CALC_SEC 5
typedef struct avplay
{
/* 文件打开指针. */
AVFormatContext *m_format_ctx;
/* 音视频队列. */
av_queue m_audio_q;
av_queue m_video_q;
av_queue m_audio_dq;
av_queue m_video_dq;
/* 各解码渲染线程. */
pthread_t m_audio_dec_thrd;
pthread_t m_video_dec_thrd;
pthread_t m_audio_render_thrd;
pthread_t m_video_render_thrd;
pthread_t m_read_pkt_thrd;
/* 重采样音频指针. */
struct SwsContext *m_swsctx;
struct SwrContext *m_swr_ctx;
ReSampleContext *m_resample_ctx;
/* 音频和视频的AVStream、AVCodecContext指针和index. */
AVCodecContext *m_audio_ctx;
AVCodecContext *m_video_ctx;
AVStream *m_audio_st;
AVStream *m_video_st;
int m_audio_index;
int m_video_index;
/* 读取数据包占用缓冲大小. */
long volatile m_pkt_buffer_size;
pthread_mutex_t m_buf_size_mtx;
/* 同步类型. */
int m_av_sync_type;
/*
* 用于计算视频播放时间
* 即: m_video_current_pts_drift = m_video_current_pts - time();
* m_video_current_pts是当前播放帧的pts时间, 所以在pts向前推进
* 的同时, time也同样在向前推进, 所以pts_drift基本保存在一个
* time_base范围内浮动.
* 播放时间 = m_video_current_pts_drift - time()
*/
double m_video_current_pts_drift;
double m_video_current_pts;
/* 以下变量用于计算音视频同步. */
double m_frame_timer;
double m_frame_last_pts;
double m_frame_last_duration;
double m_frame_last_delay;
double m_frame_last_filter_delay;
double m_frame_last_dropped_pts;
double m_frame_last_returned_time;
int64_t m_frame_last_dropped_pos;
int64_t m_video_current_pos;
int m_drop_frame_num;
/* seek实现. */
int m_read_pause_return;
int m_seek_req;
int m_seek_flags;
int64_t m_seek_pos;
int64_t m_seek_rel;
int m_seek_by_bytes;
int m_seeking;
/* 最后一个解码帧的pts, 解码帧缓冲大小为2, 也就是当前播放帧的下一帧. */
double m_audio_clock;
double m_video_clock;
double m_external_clock;
double m_external_clock_time;
/* 当前数据源读取器. */
source_context *m_source_ctx;
AVIOContext *m_avio_ctx;
unsigned char *m_io_buffer;
/* 用于视频分离的组件. */
demux_context *m_demux_context;
/* 当前音频渲染器. */
ao_context *m_ao_ctx;
/* 当前视频渲染器. */
vo_context *m_vo_ctx;
/* 当前音频渲染器是否已经初始化完成, 为1表示完成初始化, 0表示未完成初始化. */
int m_ao_inited;
/* 当前音频播放buffer大小. */
uint32_t m_audio_buf_size;
/* 当前音频已经播放buffer的位置. */
uint32_t m_audio_buf_index;
int32_t m_audio_write_buf_size;
double m_audio_current_pts_drift;
double m_audio_current_pts_last;
/* 播放状态. */
play_status m_play_status;
int m_rendering;
/* 实时视频输入位率. */
int m_enable_calc_video_bite;
int m_real_bit_rate;
int m_read_bytes[MAX_CALC_SEC]; /* 记录5秒内的字节数. */
int m_last_vb_time;
int m_vb_index;
/* 帧率. */
int m_enable_calc_frame_rate;
int m_real_frame_rate;
int m_frame_num[MAX_CALC_SEC]; /* 记录5秒内的帧数. */
int m_last_fr_time;
int m_fr_index;
/* 正在播放的索引, 只用于BT文件播放. */
int m_current_play_index;
double m_start_time;
double m_buffering;
/* 停止标志. */
int m_abort;
} avplay;
/*
*作用: 为Player分配上下文(为avplay结构体动态分配内存。)
*输入: void
*输出: 如果成功返回一个avpaly的结构体指针,
如果失败返回NULL。
*/
EXPORT_API avplay* alloc_avplay_context();
/*
*作用: 释放由alloc_avplay_context()函数非配的内存,应该与alloc_avplay_context()
函数成对使用,否则会产生内存泄露。
*输入: 由alloc_avplay_context()函数的返回值的指针。
*输出: void。
*/
EXPORT_API void free_avplay_context(avplay *ctx);
/*
*作用: 初始化avplay结构。
*输入: play是有alloc_avplay_context()函数返回的指针。
sc是“源上下文”,用于读取媒体数据。
*输出: 成功返回0,失败返回AVERROR ,既-1;
*例子:
avplayer *play = alloc_avplay_context();
int ret;
source_context sc = alloc_media_source(MEDIA_TYPE_FILE,"test.mp4",strlen("test.mp4")+1,filesize("test.mp4") );
ret = initialize(play,sc);
if(ret!=0)
return ret;//出现错误。
*问:在这个函数中都初始化了哪些数据。
*答:1.注册了ffmpeg库中所有的codec,初始化了avformat_network_init();
2.为avplay结构中的m_format_ctx初始化。
3.把avplay中的m_source_ctx=sc。找到正确的数据源。分配内存。
4.得到audio和video在streams中的index.保存音视频用到的AVStream和AVCodecContext指针。
5.打开媒体文件对应的音视频解码器。
6.设置同步方式为默认的AV_SYNC_AUDIO_MASTER(同步音频)方式,
7。初始化打开媒体文件用到的package。
8.初始化线程。
9.把avplay结构中的其余数据均置零。
*/
EXPORT_API int initialize(avplay *play, source_context *sc);
/*
*@author:jeanWin:我认为这个函数是没有实现的函数,这个函数没有做任何东西,
建议不用这个函数,而是用initialize()函数。
* Initialize the player.
* @param play pointer to user-supplied avplayer (allocated by alloc_avplay_context).
* @param file_name specifies the source file path or url.
* @param source_type specifies source type, MEDIA_TYPE_FILE or MEDIA_TYPE_BT、
* MEDIA_TYPE_HTTP、 MEDIA_TYPE_RTSP、 MEDIA_TYPE_YK.
* @param dc pointer to user-supplied demux_context object (allocated by alloc_demux_context).
* @return 0 on success, a negative AVERROR on failure.
* example:
* avplayer* play = alloc_avplay_context();
* int ret;
* demux_context *dc = alloc_demux_context();
* ret = initialize_avplay(play, "test.mp4", MEDIA_TYPE_FILE, dc);
* if (ret != 0)
* return ret; // ERROR!
*/
EXPORT_API int initialize_avplay(avplay *play, const char *file_name, int source_type, demux_context *dc);
/*
*作用: 配置play的渲染器或者数据源。
*输入: play由alloc_avplay_context()函数的返回值。
param:音视频渲染器或者数据源。
type:标志类型可以取的值有 : MEDIA_SOURCE or AUDIO_RENDER、 MEDIA_DEMUX、 VIDEO_RENDER.
*输出 void
*注意 函数没有进行出错处理,由使用者自己来正确的填写类型,例如:如果param为视频渲染器,而type为AUDIO_RENDER,程序将发生运行时错误,而可以编译通过。
*/
EXPORT_API void configure(avplay *play, void *param, int type);
/*
*作用: play开始运行。
*输入: play由alloc_avplay_context()函数的返回值。
fact这里指的是媒体文件播放的开始时间。一般为0.0000
index正在播放的索引号,仅对bt文件有用。别的文件可以任意写这个参数,
*问: 这个函数内部是如何实现的呢?
*答: 1.开始设置fact和index参数到avplay结构中。
2.创建了5个线程。作用分别为
(1)媒体文件解包
(2)视频解码
(3)音频解码
(4)音频渲染
(5)视频渲染
*/
EXPORT_API int av_start(avplay *play, double fact, int index);
/*
*作用: 空运转等待播放完毕。
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*问: 这个函数可以由其他的空运转函数代替吗?例如while(1){};
*答: 可以,但要保证av_start()函数所在的线程不被kill掉。
*/
EXPORT_API void wait_for_completion(avplay *play);
/*
*作用: 停止播放
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*问: 他是如何实现停止的作用的呢?
*答: 1.通知各个线程退出,
2.等待各个线程退出
3.各个线程退出后,释放资源。
*/
EXPORT_API void av_stop(avplay *play);
/*
*作用: 暂停播放。
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*问: 是如何实现的?
*答: 自己看代码、
*/
EXPORT_API void av_pause(avplay *play);
/*
*作用: 恢复播放。
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*问: 是如何实现的?
*答: play->m_play_status = playing;
*
*/
EXPORT_API void av_resume(avplay *play);
/*
*作用: 跳转到fact
*输入: play由alloc_avplay_context()函数的返回值。
fact跳转到的位置最大值1.0,最小值0.0
*输出: void
*/
EXPORT_API void av_seek(avplay *play, double fact);
/*
*作用: 设置音量。
*输入: play由alloc_avplay_context()函数的返回值。
l 左(left)声道
r 右(right)声道
*输出: 如果成功返回0,失败返回其他值。
*/
EXPORT_API int av_volume(avplay *play, double l, double r);
/*
*作用: 音频设备是否初始化
*输入: play由alloc_avplay_context()函数的返回值。
*输出: 初始化了返回0,否则其他值。
*/
EXPORT_API int audio_is_inited(avplay *play);
/*
*作用: 静音设置。
*输入: play由alloc_avplay_context()函数的返回值。
s如果为真静音,为假,则不静音或恢复到原始的音量。
*输出: void
*/
EXPORT_API void av_mute_set(avplay *play, int s);
/*
*作用: 返回当前的播放时间。最大值为1.0,最小值为0.0百分比
*输入: play由alloc_avplay_context()函数的返回值。
*输出: 返回当前的播放时间。最大值为1.0,最小值为0.0百分比
*/
EXPORT_API double av_curr_play_time(avplay *play);
/*
*作用: 返回当前的播放时间。单位是秒
*输入: play由alloc_avplay_context()函数的返回值。
*输出: 返回当前的播放时间。单位是秒
*/
EXPORT_API double av_duration(avplay *play);
/*
*作用: 调用av_close(),并把play结构体free掉。调用这个函数之后
不能再调用free_avplay_context()函数。否则会出现重复free的错误。
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*/
EXPORT_API void av_destory(avplay *play);
/*
*作用: 使能计算帧速率。
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*问: 他是如何实现的?
*答: play->m_enable_calc_frame_rate = 1;
*/
EXPORT_API void enable_calc_frame_rate(avplay *play);
/*
*作用: 使能计算bit速率
*输入: play由alloc_avplay_context()函数的返回值。
*输出: void
*/
EXPORT_API void enable_calc_bit_rate(avplay *play);
/*
*作用: 得到bit速率
*输入: play由alloc_avplay_context()函数的返回值。
*输出: bit速率
*/
EXPORT_API int current_bit_rate(avplay *play);
/*
*作用: 得到帧速率
*输入: play由alloc_avplay_context()函数的返回值。
*输出: 帧速率
*/
EXPORT_API int current_frame_rate(avplay *play);
/*
*这个函数仅用于bt文件。
* Get buffer progress.
* @param play pointer to the player.
* @This function return buffering(percent).
*/
EXPORT_API double buffering(avplay *play);
/*
*作用: 设置下载的文件的保存路径
*输入: play由alloc_avplay_context()函数的返回值。
save_path 保存的路径
*输出: void
*问: 什么文件可以设置路径
*答: MEDIA_TYPE_BT,MEDIA_TYPE_YK这两种形式的文件可以。
*/
EXPORT_API void set_download_path(avplay *play, const char *save_path);
/*
*作用: 设置优酷视频的类型
*输入: play由alloc_avplay_context()函数的返回值。
type可以取下面的值:
hd2,mp4,3gp,3gphd,flv,m3u8.
0 1 2 3 4 5
*输出: void
*/
EXPORT_API void set_youku_type(avplay *play, int type);
/*
*作用: 把日志写到文件中
*输入: logfile,日志的文件名。
*输出:成功返回0
*/
EXPORT_API int logger_to_file(const char* logfile);
/*
*作用:关闭log文件。
*输入: void
*输出:成功返回0,失败返回-1;
*/
EXPORT_API int close_logger_file();
/*
*作用: 设置日志的格式
*输入: format string that contains the text to be written to log.
*/
EXPORT_API int logger(const char *fmt, ...);
/*
* Blurring algorithm to the input video.
* @param frame pointer to the frame.
* @param fw is the width of the video.
* @param fh is the height of the video.
* @param dx is the x start coordinates of the target location.
* @param dy is the y start coordinates of the target location.
* @param dcx is width of the target range.
* @param dcx is height of the target range.
*/
EXPORT_API void blurring(AVFrame *frame,
int fw, int fh, int dx, int dy, int dcx, int dcy);
/*
* Alpha blend image mixing.
* @param frame pointer to the frame.
* @param rgba pointer to the RGBA image.
* @param fw is the width of the video.
* @param fh is the height of the video.
* @param rgba_w is the width of the image.
* @param rgba_h is the height of the image.
* @param x is the x start coordinates of the target location.
* @param y is the y start coordinates of the target location.
*/
EXPORT_API void alpha_blend(AVFrame *frame, uint8_t *rgba,
int fw, int fh, int rgba_w, int rgba_h, int x, int y);