在之前的文章中,对多媒体音视频开发的经典流程做过一个简单的介绍。在这篇文章中,将首先就音视频从采集部分做一个实例的讲解。首先以iOS平台为例。
AVFoundation
Apple 官方给我们提供了一个很大的一个集合框架 AVFoundation。Apple的官方介绍原文如下
AVFoundation is one of several frameworks that you can use to play and create time-based audiovisual media. It provides an Objective-C interface you use to work on a detailed level with time-based audiovisual data. For example, you can use it to examine, create, edit, or reencode media files. You can also get input streams from devices and manipulate video during realtime capture and playback.
AVFoundation是你可以用来播放和创建基于时间的多媒体视听体验的框架之一,它提供了Objective-C的接口来让我们操作这些基于时间的视听多媒体数据。比如,你可以用它来检测,创建,编辑或者重新编码媒体文件。你也可以从设备中获取流,并且在媒体流的实时采集和播放的过程中对它进行操作。