关于Offline Rendering,在以前的编程中,接触比较少,为了解决 一次录音,多次变声的问题,我在google搜索了很久,最终放弃。最近,时间相对比较充足,全面的研究苹果与音频相关的demo和API,终于让我找到了Offline Rendering,兴奋之余,我写了一系列关于AudioToolbox的文章,记录自己的学习过程,也让后来者少走弯路。
1,AudioQueueOfflineRender
函数功能:
使用一个音频播放队列的音频数据,将这些数据抽取到一个缓冲区中,而不是进行播放。(有没有觉得很神武)
函数原型:
OSStatus AudioQueueOfflineRender (
AudioQueueRef inAQ,
const AudioTimeStamp *inTimestamp,
AudioQueueBufferRef ioBuffer,
UInt32 inNumberFrames
);
参数解析:
inAQ:音频回放队列。
inTimestamp:相对于当前音频队列开始位置的时间戳。
ioBuffer:输入的时候,是音频队列所提供的,供渲染的音频数据。输出的时候,是被渲染过的音频数据,这些数据可以直接被写入文件中。
inNumberFrames:需要渲染的音频数据的帧个数。
调用实例:
XThrowIfError(AudioQueueOfflineRender(myInfo.mQueue, &ts, captureBuffer, reqFrames), "AudioQueueOfflineRender");