ffmepg.exe使用的例子

本文详细介绍FFmpeg的强大功能,包括视频转码、音频处理、截图、水印添加等操作,并提供了丰富的命令实例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ffmpeg -s 1280*720   -r 1 -pixel_format yuv420p -i test1.yuv -t 0.01  output-1.yuv

ffmpeg 截取yuv的帧。

PAR - pixel aspectratio(可以理解为单个像素的宽高比)大多数情况为1:1,就是一个正方形像素,否则为长方形像素。常用的PAR比率(1:1,10:11,40:33, 16:11, 12:11 ).

DAR - display aspectratio就是视频播放时,我们看到的图像宽高的比例,缩放视频也要按这个比例来,否则会使图像看起来被压扁或者拉长了似的。

SAR - storage aspectratio就是对图像采集时,横向采集与纵向采集构成的点阵,横向点数与纵向点数的比值。比如VGA图像640/480 = 4:3,D-1PAL图像720/576 = 5:4。

这三者的关系PAR x SAR =DAR或者PAR DAR/SAR。比如(1/1) *(640/480) = 4/3。

通常par=视频分辨率

aspect参数改变视频的dar

当保持par=dar时,sar=1:1

参数说明:

-bitexact 使用标准比特率
-vcodec xvid 使用xvid压缩
-s 320x240 指定分辨率
-r 29.97 帧速率(可以改,确认非标准桢率会导致音画不同步,所以只能设定为15或者29.97)
画面部分,选其一
-b <比特率> 指定压缩比特率,似乎ffmpeg是自动VBR的,指定了就大概是平均比特率,比如768,1500这样的,
-qscale <数值> 以<数值>质量为基础的VBR,取值0.01-255,约小质量越好
-qmin <数值> 设定最小质量,与-qmax(设定最大质量)共用,比如-qmin 10 -qmax 31
-sameq 使用和源同样的质量

-crf 量化比例的范围为0~51,其中0为无损模式,23为缺省值,51可能是最差的。该数字越小,图像质量越好。从主观上讲,18~28是一个合理的范围。18往往被认为从视觉上看是无损的,它的输出视频质量和输入视频一模一样或者说相差无几。但从技术的角度来讲,它依然是有损压缩。  若Crf值加6,输出码率大概减少一半;若Crf值减6,输出码率翻倍。通常是在保证可接受视频质量的前提下选择一个最大的Crf值,如果输出视频质量很好,那就尝试一个更大的值,如果看起来很糟,那就尝试一个小一点值。

声音部分
-acodec aac 设定声音编码
-ac <数值> 设定声道数,1就是单声道,2就是立体声,转换单声道的TVrip可以用1(节省一半容量),高品质的DVDrip就可以用2
-ar <采样率> 设定声音采样率,PSP只认24000
-ab <比特率> 设定声音比特率,前面-ac设为立体声时要以一半比特率来设置,比如192kbps的就设成96,转换均默认比特率都较小,要听到较高品质声音的话建议设到160kbps(80)以上
-vol <百分比> 设定音量,某些DVDrip的AC3轨音量极小,转换时可以用这个提高音量,比如200就是原来的2倍

-bsf h264_mp4toannexb
主要是因为使用了mp4中的h264编码,而h264有两种封装:一种是annexb模式,传统模式,有startcode,SPS和PPS是在ES中;另一种是mp4模式,一般mp4、mkv、avi会没有startcode,SPS和PPS以及其它信息被封装在container中,每一个frame前面是这个frame的长度,很多解码器只支持annexb这种模式,因此需要将mp4做转换;在ffmpeg中用h264_mp4toannexb_filter可以做转换;所以需要使用-bsf h264_mp4toannexb来进行转换。

map

1、-map 0 选择第一个文件的所有流

2、-map i:v 从文件序号i(index)中获取所有视频流, -map i:a 获取所有音频流,-map i:s 获取所有字幕流等等。

3、特殊参数-an,-vn,-sn分别排除所有的音频,视频,字幕流。

例子:

ffmpeg -i 1.mp4 1.yuv

视频图片

ffmpeg -i 1.ts -t 500  -r 1 -s 352x288  -f image2  %d.jpg   视频转jpg

图片转视频

ffmpeg -f image2  -framerate 5 -i %d.jpg  1.gif                   jpg转gif

ffmpeg -i 1.gif -vcodec h264  -s 352x288   -an 1.mp4  -y    gif转视频

或者:

如果视频不相关的图片,jpg转h264可以通过这种办法。

ffmpeg   -r 10 -i %d.jpg  -vcodec h264 -r 25  a.mp4

如果是相关的图片,直接调用:ffmpeg   -r 10 -i %d.jpg  -vcodec h264  a.mp4

如果是同一图片转视频

ffmpeg -r 25 -f image2 -loop 1 -i s.jpg -s 640x360  -pix_fmt yuvj420p -bf 0 -t 25 -vcodec libx264 hb.mp4

声音加图片

方法1:

ffmpeg -r 15 -f image2 -loop 1 -i 1.jpg -i hb.mp3 -s 640x360  -pix_fmt yuvj420p -t 272 -vcodec libx264 hb.mp4

hb为音频文件,1.jpg为图片,1120为音频长度。

方法2:

ffmpeg -i hb.mp3 -i 1.jpg -filter_complex "nullsrc=size=640x360[base];[base][1:v]overlay[v]" -map "[v]"  -map 0:a  -vcodec h264  -c:a copy   -t 1120 hb.mp4

hb为音频文件,1.jpg为图片,1120为音频长度。

单一化

不要视频 vn,不要音频an。

编码

//YUV到h263
ffmpeg.exe -s 352*288 -i stefan_cif.yuv -vcodec h263 -b:v 128k -y test.h263
//YUV到mpeg4
ffmpeg.exe -s 352*288 -i stefan_cif.yuv -vcodec mpeg4 -b:v 128k -y test.mp4

转码

-movflags faststart

FFMPEG转码成MP4文件时,将头信息置于视频末尾,而播放器只有读取到视频头信息之后才能播放。最终,通过查找手册,找到了解决办法。即:在转码指令中添加-movflags faststart参数,此参数可以将头信息移到视频头部。具体转码指令如下:
ffmpeg -i input.wmv -c:v libx264  -movflags faststart output.mp4

加水印转码:ffmpeg -y -i url  -acodec copy    -vf "movie=2.png [watermark]; [in][watermark]overlay=main_w-overlay_w-0:0 [out]"  -f hls -hls_time 2 -hls_list_size 0   a.m3u8

 ffmpeg-i 输入文件.f4v -vcodec copy -acodec copy 输出文件.mp4

-vcodec的意思是指定一个视频编码器,copy的意思就是不编码,直接复制到新文件。-acodec的意思是指定一个音频编码器,copy的意思就是不编码,直接复制到新文件。

ffmpeg -i in.nut -codec copy -bsf:v h264_mp4toannexb -ss 00:01:00 -to 00:04:10 -hls_time 9 -hls_list_size 0 -hls_segment_filename 'lj%03d.ts' out.m3u8

ffmpeg -i 1.flv -vcodec copy  -bsf:v  h264_mp4toannexb -f hls -hls_time 10 a.m3u8
-bsf:v h264_mp4toannexb: 视频H.264流过滤, 犹其那类非标准H.264码流格式的视频更需要。
-ss 00:01:00 -to 00:04:10: 截取一分钟长度后的视频并开始分段到四分十秒止。
-hls_time 9: 设定段长度9秒,设置每片的长度,默认值为2。单位为秒。

-hls_list_size 0: 设置播放列表保存的最多条目,设置为0会保存所有片信息,默认值为5。
-hls_segment_filename 'lj%03d.ts': 设置段文件名以lj开始。

-hls_wrap n:设置多少片之后开始覆盖,如果设置为0则不会覆盖,默认值为0.这个选项能够避免在磁盘上存储过多的片,而且能够限制写入磁盘的最多的片的数量。
-hls_start_number n:设置播放列表中sequence number的值为number,默认值为0。

out.m3u8 播放列表(自动生成):
如果将 -hls_segment_filename 'lj%03d.ts' 换作 -hls_flags single_file 即所有段文件将存储在一个单一的MPEG-TS文件(out.ts)中。

转苹果

ffmpeg -i h.mp4  -vcodec prores -profile:v 3  -color_primaries 1 -color_trc 1 -colorspace 1 -s 1920x1080 -vb 164M -r 25 -map 0:a -acodec pcm_s24le -ac 1  -ab 768k -ar 48000 a.mov

转双码率

ffmpeg -i cw.ts -vcodec h264 -s 640x360 -g 25  -keyint_min 25 -sc_threshold 0  -crf 30 -bsf:v h264_mp4toannexb   -acodec aac -ac 2 -ar 48000  -fhls -hls_time 2 -hls_list_size 0   c7/c7.m3u8   -vcodec h264 -s 480x270 -g 25  -keyint_min 25 -sc_threshold 0  -crf 30 -bsf:v h264_mp4toannexb   -acodec aac -ac 2 -ar 48000  -f hls -hls_time 2 -hls_list_size 0   c4/c4.m3u8

ffmpeg -i udp://127.0.0.1:10502?overrun_nonfatal=1&fifo_size=50000000 1.MP4

overrun_nonfatal=1 prevents ffmpeg from exiting, it can recover in most circumstances.
fifo_size=50000000 uses a 50MB udp input buffer (default 5MB)

音频定码率

ffmpeg -i input.wav -c:a libfdk_aac -b:a 128k output.m4a

设置视频定码率 ffmpeg -i l.mp4 -c:v libx264 -x264-params "nal-hrd=cbr" -b:v 1M -minrate 1M -maxrate 1M -bufsize 2M  -acodec mp2    output.ts 

或    ffmpeg -i l.mp4 -nal-hrd cbr  -b:v 1M -minrate 1M -maxrate 1M -bufsize 2M  -acodec mp2    output.ts

TS整体定码率

例子:ffmpeg -i 20180622T142255.ts    -vcodec h264   -b:v 300k   -acodec aac   -muxrate   800k   a.ts    -y

缩放

ffmpeg -i 视频源地址 -vf scale=853:480 -acodec aac -vcodec h264 视频输出地址(如:out.mp4)
各个参数的含义:
-i a.mov 指定待处理视频的文件名
-vf scale=853:480 vf 参数用于指定视频滤镜,其中 scale 表示缩放,后面的数字表示缩放至 853×480 px,其中的 853px 是计算而得,因为原始视频的宽高比为 16:9,所以为了让目标视频的高度为 480px,则宽度 = 480 x 9 / 16 = 853,-acodec aac 指定音频使用 aac 编码。

旋转

ffmpeg -i 1.mp4 -vf hflip  2.mp4          //水平倒转

ffmpeg -i 1.mp4 -vf vflip  2.mp4          //垂直倒转

ffmpeg -i t.mp4 -vf transpose=0  t0.mp4   //左转,逆时针
ffmpeg -i t.mp4 -vf transpose=1  t1.mp4   //右转,顺时针
语法:transpose={0,1,2,3}
0:逆时针旋转90°然后垂直翻转
1:顺时针旋转90°
2:逆时针旋转90°
3:顺时针旋转90°然后水平翻转

获取时长

ffprobe -i /data/channellist/channel03/700.m3u8 -show_streams|grep duration

或者
duarion=`ffprobe -i /data/channellist/channel03/700.m3u8 2>&1|grep Duration`; duration=`echo "$duration" | sed -r 's/.*Duration:(.*), start.*/\1/'`; echo $duration

合并

mp4 不支持直接 concat

ffmpeg -i concat:"1.ts|2.ts|3.ts" -vcodec copy  -bsf:v h264_mp4toannexb  o.ts

音频合并

ffmpeg -i 1.mp3  -i 2.mp3 -filter_complex amix=inputs=2:duration=first:dropout_transition=2 -f mp3 a.mp3

放大声音

 ffmpeg -i  1.aac -vol 512  2.aac   //m默认是256

合成视频和音频

ffmpeg -i son.wav -i video_origine.avi video_finale.mpg

截取音视频

ffmpeg -ss 0 -i ~/Movies/yedian.avi -strict -2 -vf trim=0:10 -af atrim=0:20 b.mp4

抓图

/usr/local/ffmpeg/bin/ffmpeg -ss 00:00:10.000 -r 1 -t 1  -i /x/1.mp4 -s 212x120 -f image2  /x/0.jpg -y

ffmpeg -ss  10  -t 200 -i 11.mp4 -f image2 -vf fps=fps=1/20 out%d.png
ffmpeg -ss 10 -i 11.mp4 -f image2 -r 0.2 -t 30 %3d.jpg  //时间不准

ffmpeg -s 480x270 -i 1.yuv 1.png

ffmpeg  -ss 00:00:30.000  -t 0.001 -i dota.mp4  2.yuv

视频关键帧提取
ffmpeg -i video_name.mp4 -vf select='eq(pict_type\,I)' -vsync 2 -s 1920*1080 -f image2 core-%02d.jpeg
各个参数解释:
-i :输入文件,这里的话其实就是视频,
-vf:是一个命令行,表示过滤图形的描述, 选择过滤器select会选择帧进行输出:包括过滤器常量
pict_type和对应的类型:PICT_TYPE_I 表示是I帧,即关键帧。
-vsync 2:阻止每个关键帧产生多余的拷贝
-f image2 name_%02d.jpeg:将视频帧写入到图片中,样式的格式一般是:
“%d” 或者 “%0Nd”
-s:分辨率,1920*1080

水印

Top left corner
ffmpeg -i inputvideo.avi -vf "movie=watermarklogo.png [watermark]; [in][watermark] overlay=10:10 [out]" outputvideo.flv
Top right corner
ffmpeg -i inputvideo.avi -vf "movie=watermarklogo.png [watermark]; [in][watermark] overlay=main_w-overlay_w-10:10 [out]" outputvideo.flv
Bottom left corner
ffmpeg -i inputvideo.avi -vf "movie=watermarklogo.png [watermark]; [in][watermark] overlay=10:main_h-overlay_h-10 [out]" outputvideo.flv
Bottom right corner
ffmpeg -i inputvideo.avi -vf "movie=watermarklogo.png [watermark]; [in][watermark] overlay=main_w-overlay_w-10:main_h-overlay_h-10 [out]" outputvideo.flv

例子

ffmpeg -i yfx.mp4 -vf "movie=1.png [watermark]; [in][watermark] overlay=10:10 [out]" outputvideo.mp4

PNG图片必须含有alpha通道。Overlay过滤器是根据alpha通道来进行复盖的。所以,你想要透明效果时,须先制做一张透明的PNG图片。

zerolatency

ret = avcodec_encode_video2(c, &pkt, frame, &got_output); 编码开始后,等过了30多帧才会得到码流,got_output才有输出,之后就是每编码一帧都有输出。导致接收端解码延迟了好几秒。

办法:
Low Latency
libx264 offers a -tune zerolatency option. See the StreamingGuide.  
http://ffmpeg.org/trac/ffmpeg/wiki/x264EncodingGuide  
http://ffmpeg.org/trac/ffmpeg/wiki/StreamingGuide
AVCodecContext *c 如此设置即可  av_opt_set(c->priv_data, "tune", "zerolatency", 0);

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值