AuidioStreamPlayer简易实现

本文详细介绍iOS平台下AudioStream的工作原理及实现过程,包括网络数据流的获取、解析、缓冲区管理及AudioQueue的使用。
首先可以先从下面列出的参考中进行对整个Audio Stream进行一定程度的理解

参考:

https://github.com/muhku/FreeStreamer
https://github.com/mattgallagher/AudioStreamer
http://msching.github.io/blog/2014/07/09/audio-in-ios-3/
http://msching.github.io/blog/2014/08/02/audio-in-ios-5/

主要数据结构:
typedef struct AudioStream{
    AudioFileStreamID                       mAudioFileStream;
    AudioQueueRef                           mQueue;
    AudioQueueBufferRef                     mBuffer[kNumbersOfBuffer];
    AudioStreamPacketDescription            mPacketDecs[kMaxPacketDescs];
    AudioStreamBasicDescription             mAudioStreamBasicDesc;
    unsigned int                            mFillBufferIndex;
    UInt32                                  mPacketBufferSize;
    size_t                                  mBytesFilled;
    size_t                                  mPacketsFilled;
    bool                                    mInused[kNumbersOfBuffer];
    NSInteger                               mBuffersUsed;

}AS;

typedef struct StreamFile{
    UInt32                                  mBitRate;
    NSInteger                               mFileLength;
    NSInteger                               mDataOffset;
    UInt64                                  mAudioDataByteCount;

}SF;
extern NSString * const ASStatusChangedNotification;
@interface FileStreamPlayer : NSObject{
    AS                                      audioStream;
    BOOL                                    discontinuous;
    NSThread                                *internalThread;
    NSURL                                   *url;
    NSDictionary                            *httpHeader;
    NSString                                *fileExtension;
    SF                                      streamFile;
    double                                  sampleRate;
    double                                  packetDuration;
    CFReadStreamRef                         stream;
    pthread_mutex_t                         queueBuffersMutex;
    pthread_cond_t                          queueBufferReadyCondition;
    AudioStreamState                        state;
    AudioStreamStopReason                   stopReason;
    NSNotificationCenter                    *notificationCenter;
}
首先,要实现AudioStream的获取,通过CFNetWorking的库来发送HTTP请求,并通过建立客户端接受数据将数据加入到当前RunLoop中:
CFHTTPMessageRef message= CFHTTPMessageCreateRequest(NULL,
                                                             (CFStringRef)@"GET",
                                                             (CFURLRef)url,
                                                             kCFHTTPVersion1_1);
        stream = CFReadStreamCreateForHTTPRequest(NULL, message);
        CFRelease(message);

        CFDictionaryRef proxySettings = CFNetworkCopySystemProxySettings();
        CFReadStreamSetProperty(stream, kCFStreamPropertyHTTPProxy, proxySettings);
        CFRelease(proxySettings);
        CFStreamClientContext context = {0, self, NULL, NULL, NULL};
        CFReadStreamSetClient(
                              stream,
                              kCFStreamEventHasBytesAvailable |
                              kCFStreamEventErrorOccurred |
                              kCFStreamEventEndEncountered,
                              ASReadStreamCallBack,
                              &context);
        CFReadStreamScheduleWithRunLoop(stream, CFRunLoopGetCurrent(), kCFRunLoopCommonModes);
这里会要求实现网络流数据获取后的回调函数:ReadStreamCallBack
static void ASReadStreamCallBack(CFReadStreamRef                aStream,
                                 CFStreamEventType              eventType,
                                 void*                          inClientInfo) {

    FileStreamPlayer* this = (FileStreamPlayer *)inClientInfo;

    [this handleReadFromStream:aStream eventType:eventType];
}

函数参数中要求:当前数据流,流事件类型,以及上下文对象

成功读取数据以后,通过:AudioFileStreamOpen将数据打开,可以理解成AudioFile读取时候打开一个数据流,然后进行解析


    AudioFileStreamOpen
    AudioFileStreamParseBytes
OpenStream中要求填入两个回调函数:PropertyListenerProc和ASPacketsProc,分别作为流信息和流解析分离帧的回调之后的分离帧解析中,每次都会回调刚刚填入的回调函数
static void ASPropertyListenerProc(//callback from audioStream header
                                   void *                           inClientData,
                                   AudioFileStreamID                inAudioFileStream,
                                   AudioFileStreamPropertyID        inPropertyID,
                                   UInt32 *                         ioFlags) {

    FileStreamPlayer* this = (FileStreamPlayer *)inClientData;

    [this handleFileStreamPropertyChange:inAudioFileStream
                        fileStreamPropertyID:inPropertyID
                                     ioFlags:ioFlags];
}


static void ASPacketsProc(//callback from audioStream body
                          void *                            inClientData,
                          UInt32                            inNumberBytes,
                          UInt32                            inNumberPackets,
                          const void *                      inInputData,
                          AudioStreamPacketDescription      *inPacketDescriptions) {

    FileStreamPlayer* this = (FileStreamPlayer *)inClientData;

    [this handleAudioPackets:inInputData
                 numberBytes:inNumberBytes
               numberPackets:inNumberPackets
          packetDescriptions:inPacketDescriptions];
}
接下来的操作就是包括流信息解析后存入相应的数据结构中,利用Buffer存储塞到AudioQueue中去进行运行,设置相应的AudioQueue的回调函数对完成任务后的buffer进行再次调用:

AudioQueueNewOutput(&audioStream.mAudioStreamBasicDesc,
                        ASAudioQueueOutputCallback,
                        self, NULL, NULL, 0, &audioStream.mQueue);
static void ASAudioQueueOutputCallback(//callBack from Running Queue Buffers completed
                                       void*                    inClientData,
                                       AudioQueueRef            inAQ,
                                       AudioQueueBufferRef      inBuffer) {

    FileStreamPlayer* this = (FileStreamPlayer*)inClientData;

    [this handleCompleteBuffer:inAQ
                        buffer:inBuffer];
}

接下来就可以对AudioQueue进行各种操作了,播放暂停和停止等。另外,还要注意各个操作过程中线程资源之间的调用必须要用锁进行保护,在这里我主要参考了AudioStreamer,所以采用了互斥锁pthread_和@synchronized(self)。

最后,附上我的DEMO:

http://download.youkuaiyun.com/detail/atomic123/9323745

标题基于Python的汽车之家网站舆情分析系统研究AI更换标题第1章引言阐述汽车之家网站舆情分析的研究背景、意义、国内外研究现状、论文方法及创新点。1.1研究背景与意义说明汽车之家网站舆情分析对汽车行业及消费者的重要性。1.2国内外研究现状概述国内外在汽车舆情分析领域的研究进展与成果。1.3论文方法及创新点介绍本文采用的研究方法及相较于前人的创新之处。第2章相关理论总结和评述舆情分析、Python编程及网络爬虫相关理论。2.1舆情分析理论阐述舆情分析的基本概念、流程及关键技术。2.2Python编程基础介绍Python语言特点及其在数据分析中的应用。2.3网络爬虫技术说明网络爬虫的原理及在舆情数据收集中的应用。第3章系统设计详细描述基于Python的汽车之家网站舆情分析系统的设计方案。3.1系统架构设计给出系统的整体架构,包括数据收集、处理、分析及展示模块。3.2数据收集模块设计介绍如何利用网络爬虫技术收集汽车之家网站的舆情数据。3.3数据处理与分析模块设计阐述数据处理流程及舆情分析算法的选择与实现。第4章系统实现与测试介绍系统的实现过程及测试方法,确保系统稳定可靠。4.1系统实现环境列出系统实现所需的软件、硬件环境及开发工具。4.2系统实现过程详细描述系统各模块的实现步骤及代码实现细节。4.3系统测试方法介绍系统测试的方法、测试用例及测试结果分析。第5章研究结果与分析呈现系统运行结果,分析舆情数据,提出见解。5.1舆情数据可视化展示通过图表等形式展示舆情数据的分布、趋势等特征。5.2舆情分析结果解读对舆情分析结果进行解读,提出对汽车行业的见解。5.3对比方法分析将本系统与其他舆情分析系统进行对比,分析优劣。第6章结论与展望总结研究成果,提出未来研究方向。6.1研究结论概括本文的主要研究成果及对汽车之家网站舆情分析的贡献。6.2展望指出系统存在的不足及未来改进方向,展望舆情
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值