最近在看webrtc的混音,几路声音混成一路,直接用原始音频流做相应的叠加处理,不是用ffmpeg的amix滤镜,为此,我想根据这样的算法,写个demo,将两个原始音频流pcm混音成一个pcm文件。
所以,这里写一个demo,读取系统声音,然后向文件写原始流,生成pcm文件。
本人之前写过如何抓取系统声音,需要先安装软件Setup Screen Capturer Recorder v0.12.11.exe
如下所示,本人将读取到的音频数据,写入文件,第二个参数是通道数x每个样例的字节数,第三个参数readcount为样例数。
fwrite(frame_audio_inner->data[0], m_pReadCodecCtx_AudioInner->channels * m_iPerBytes, readcount, m_fpPcm);
这里的通道数为2,每个样例的字节数是16,每个样例的字节数通过下面方式获取:
m_iPerBytes = av_get_bytes_per_sample(m_pReadCodecCtx_AudioInner->sample_fmt);
最后,生成的pcm文件可以通过下面工具进行播放验证,播放之前,采样率,样本精度,声道数需要设置正确。

代码结构如下:

其中,FfmpegGeneratePcm.cpp的内容如下:
#include <iostream>
#include "VoiceCapture.h"
#include <vector>
int main()
{
CVoiceCapture cVoiceCapture;
const char *pFileA = "E:\\learn\\ffmpeg\\FfmpegGeneratePcm\\x64\\Release\\pcm_inner_audio.pcm";
cVoiceCapture.StartGenerateInnerVoice(pFileA);
Sleep(30000);
cVoiceCapture.StopGenerateInnerVoice();
return 0;
}
VoiceCapture.h的内容如下:
#pragma once
#include <Windows.h>
#include <string>
#ifdef __cplusplus
extern "C"
{
#endif
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswscale/swscale.h"
#include "libswresample/swresample.h"
#include "libavdevice/avdevice.h"
#include "libavutil/audio_fifo.h"
#include "libavutil/avutil.h"
#include "libavutil/fifo.h"
#include "libavutil/frame.h"
#include "libavutil/imgutils.h"
#include "libavfilter/avfilter.h"
#include "libavfilter/buffersink.h"
#include "libavfilter/buffersrc.h"
#pragma comment(lib, "avcodec.lib")
#pragma comment(lib, "avformat.lib")
#pragma comment(lib, "avutil.lib")
#pragma comment(lib, "avdevice.lib")
#pragma comment(lib, "avfilter.lib")
#pragma comment(lib, "postproc.lib")
#pragma comment(lib, "swresample.lib")
#pragma comment(lib, "swscale.lib")
#ifdef __cplusplus

该博客介绍了一种不使用ffmpeg的amix滤镜,而是通过原始音频流叠加处理来实现多路音频混音的方法。作者计划编写一个DEMO,读取系统声音并将其写入PCM文件。博客详细阐述了代码结构,包括`FfmpegGeneratePcm.cpp`、`VoiceCapture.h`和`VoiceCapture.cpp`的实现,涉及AVFoundation库和线程处理,用于实时捕获和混合音频流。
最低0.47元/天 解锁文章
2252

被折叠的 条评论
为什么被折叠?



