AudioContext用来创建nodes并执行音频程序.任何音频程序都需要先创建AudioContext

构造
AudioContext() 创建AudioContext对象,表示一个由AudioNode构成的audio-processing graph.
var audioCtx = new AudioContext();
var audioCtx = new AudioContext(options);
| 参数 | 描述 |
|---|---|
| options | latencyHint,sampleRate |
例子
var AudioContext = window.AudioContext || window.webkitAudioContext;
var audioCtx = new AudioContext({
latencyHint: 'interactive',
sampleRate: 44100,
});
`
属性
方法
继承BaseAudioContext
| 方法 | 描述 |
|---|---|
| AudioContext.close() | |
| AudioContext.createMediaElementSource() | 控制<video>与<audio>标签 |
| AudioContext.createMediaStreamSource() | 处理麦克风 |
| AudioContext.createMediaStreamDestination() | 处理本地文件 |
| AudioContext.createMediaStreamTrackSource() | 跟踪media stream |
| AudioContext.getOutputTimestamp() | |
| AudioContext.resume() | 暂停之后再播放 |
| AudioContext.suspend() | 挂起 |
参考:
https://developer.mozilla.org/en-US/docs/Web/API/AudioContext
1979

被折叠的 条评论
为什么被折叠?



