ffmpeg滤镜


ffmpeg简单滤镜 -vf:一个输入,对应一个输出;复杂滤镜 -filter_complex

滤镜描述符规则

“,” —— 前一个输出作为后一个输入
“;” —— 表示两个滤镜为并列关系
“:” —— 用于分割参数
 

Overlay
最常使用的滤镜;会以第一个输入为背景,后续的叠加到背景上;

用例:视频加logo

ffplay -i logo.mp4 -vf "movie=logo.png,scale=64:64[water];[in][water]overlay=W-w-30:10"

参数详解:-vf使用简单滤镜overlay,"movie=logo.png,scale=64:64[water]"定义logo,并将其裁剪为64x64的大小,处理后的输出记为water;

“[in][water]overlay=W-w-30:10”—— in代表视频输入,作为背景;water表示后续输入,叠加到背景上;W-w-30:10定义logo位置,W表示背景视频宽度,w表示logo宽度;

视频去logo

ffplay -i logo-with.mp4 -vf "delogo=544-64-30:10:64:64:show=1" logo-without.mp4

原理是使用插值法将该区域的像素使用周边像素代替

使用滤镜

### 开发 FFmpeg 滤镜 开发自定义 FFmpeg 滤镜涉及多个方面,包括理解 FFmpeg 的架构、编写 C 代码以及编译集成到 FFmpeg 中。以下是创建简单滤镜的过程。 #### 创建简单的灰度转换滤镜 为了实现一个将彩色图像转为灰度图的滤镜,可以按照如下方式操作: 1. **初始化项目结构** 建立一个新的目录用于存放源码文件,并下载 FFmpeg 源码作为参考和依赖库。 2. **编写滤镜核心逻辑** 下面是一个简化版本的灰度化滤镜 `vf_grayscale.c` 文件的内容示例[^1]: ```c #include "libavutil/imgutils.h" #include "libavutil/opt.h" #include "libavutil/pixdesc.h" #include "libavfilter/buffersink.h" #include "libavfilter/buffer.h" typedef struct GrayscaleContext { const AVClass *class; } GrayscaleContext; #define OFFSET(x) offsetof(GrayscaleContext, x) #define FLAGS AV_OPT_FLAG_VIDEO_PARAM | AV_OPT_FLAG_FILTERING_PARAM static const AVOption grayscale_options[] = { { NULL } }; AVFILTER_DEFINE_CLASS(grayscale); // 初始化函数 static int init(AVFilterContext *ctx){ // 可以在这里设置一些默认参数或分配资源 return 0; } // 执行过滤器的核心算法 static int filter_frame(AVFilterLink *inlink, AVFrame *inpicref){ AVFilterContext *ctx = inlink->dst; AVFilterLink *outlink = ctx->outputs[0]; /* 获取输出缓冲区 */ AVFrame *outpicref = ff_get_video_buffer(outlink, outlink->w, outlink->h); if (!outpicref) return AVERROR(ENOMEM); uint8_t *src = inpicref->data[0]; // 输入数据指针 uint8_t *dst = outpicref->data[0]; // 输出数据指针 int linesize_in = inpicref->linesize[0]; int linesize_out = outpicref->linesize[0]; for (int y=0; y<inpicref->height; ++y){ for(int x=0; x<inpicref->width*3; x+=3){ // 假设RGB24格式 unsigned char r = src[y*linesize_in+x]; unsigned char g = src[y*linesize_in+x+1]; unsigned char b = src[y*linesize_in+x+2]; // 计算亮度值 Y = 0.299R + 0.587G + 0.114B float gray_value = 0.299*r + 0.587*g + 0.114*b; dst[y*linesize_out+(x/3)] = (unsigned char)(gray_value); } } av_frame_free(&inpicref); return ff_filter_frame(outlink, outpicref); } // 定义静态常量描述符 static const AVFilterPad inputs[] = { { .name = "default", .type = AVMEDIA_TYPE_VIDEO, .filter_frame = filter_frame, }, {NULL} }; static const AVFilterPad outputs[] = { { .name = "default", .type = AVMEDIA_TYPE_VIDEO, }, {NULL} }; // 注册此滤镜FFmpeg框架内 AVFilter ff_vf_grayscale = { .name = "grayscale", .description = NULL_IF_CONFIG_SMALL("Convert video to grayscale."), .init = init, .uninit = uninit, .query_formats = query_formats, .priv_size = sizeof(GrayscaleContext), .inputs = inputs, .outputs = outputs, .priv_class=&grayscale_class, }; ``` 这段代码实现了基本的功能——接收输入帧,在内存中将其颜色空间由 RGB 转换为单通道灰度表示形式后再传递给下一个环节。注意这里假设输入像素是以 RGB24 格式存储;实际应用时可能需要考虑更多种情况下的兼容性处理[^3]。 3. **配置与构建** 完成上述工作之后,还需要修改 FFmpeg 构建系统的 Makefile 和其他必要的配置文件来包含新添加的模块。具体来说就是编辑 `filters/filters.c`, 添加一行注册语句以便让整个程序知道有这样一个新的外部插件存在。 最后运行标准流程重新编译整个工程即可使新增加的效果生效。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

步基

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值