Whisper模型架构深度剖析与技术实现

Whisper模型架构深度剖析与技术实现

【免费下载链接】whisper openai/whisper: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 【免费下载链接】whisper 项目地址: https://gitcode.com/GitHub_Trending/whisp/whisper

本文深入解析OpenAI Whisper语音识别模型的完整技术架构与实现细节。从核心的Transformer编码器-解码器设计,到音频预处理与梅尔频谱图生成机制,再到多任务学习框架与注意力机制实现,最后涵盖模型参数配置与性能优化策略。文章通过详细的代码示例、架构图表和技术参数对比,全面揭示Whisper如何实现高质量的语音识别、翻译和多语言处理能力。

Transformer编码器-解码器架构解析

Whisper模型采用了经典的Transformer编码器-解码器架构,这是现代语音识别系统的核心设计。该架构通过编码器处理音频输入,解码器生成文本输出,实现了从语音到文本的序列到序列转换。

编码器架构设计

Whisper的编码器(AudioEncoder)专门设计用于处理音频频谱特征。它接收梅尔频谱图作为输入,通过卷积层和Transformer块进行特征提取和编码。

class AudioEncoder(nn.Module):
    def __init__(self, n_mels: int, n_ctx: int, n_state: int, n_head: int, n_layer: int):
        super().__init__()
        self.conv1 = Conv1d(n_mels, n_state, kernel_size=3, padding=1)
        self.conv2 = Conv1d(n_state, n_state, kernel_size=3, stride=2, padding=1)
        self.register_buffer("positional_embedding", sinusoids(n_ctx, n_state))
        
        self.blocks = nn.ModuleList([
            ResidualAttentionBlock(n_state, n_head) for _ in range(n_layer)
        ])
        self.ln_post = LayerNorm(n_state)

编码器的处理流程如下:

  1. 卷积预处理:使用两个1D卷积层对梅尔频谱图进行初步特征提取
  2. 位置编码:使用正弦位置编码为序列提供位置信息
  3. Transformer块堆叠:多层残差注意力块进行深度特征学习
  4. 层归一化:最终输出前进行层归一化

解码器架构设计

解码器(TextDecoder)负责基于编码器输出的音频特征生成文本序列。它采用自回归方式生成文本标记。

class TextDecoder(nn.Module):
    def __init__(self, n_vocab: int, n_ctx: int, n_state: int, n_head: int, n_layer: int):
        super().__init__()
        self.token_embedding = nn.Embedding(n_vocab, n_state)
        self.positional_embedding = nn.Parameter(torch.empty(n_ctx, n_state))
        
        self.blocks = nn.ModuleList([
            ResidualAttentionBlock(n_state, n_head, cross_attention=True) 
            for _ in range(n_layer)
        ])
        self.ln = LayerNorm(n_state)
        
        mask = torch.empty(n_ctx, n_ctx).fill_(-np.inf).triu_(1)
        self.register_buffer("mask", mask, persistent=False)

解码器的关键特性包括:

  • 标记嵌入:将文本标记映射到高维向量空间
  • 因果掩码:确保自回归生成时只能看到之前的标记
  • 交叉注意力:每个解码器块都包含交叉注意力机制,用于关注编码器输出
残差注意力块设计

Whisper使用自定义的残差注意力块(ResidualAttentionBlock),这是Transformer架构的核心组件:

class ResidualAttentionBlock(nn.Module):
    def __init__(self, n_state: int, n_head: int, cross_attention: bool = False):
        super().__init__()
        self.attn = MultiHeadAttention(n_state, n_head)
        self.attn_ln = LayerNorm(n_state)
        
        self.cross_attn = (MultiHeadAttention(n_state, n_head) 
                          if cross_attention else None)
        self.cross_attn_ln = LayerNorm(n_state) if cross_attention else None
        
        n_mlp = n_state * 4
        self.mlp = nn.Sequential(
            Linear(n_state, n_mlp), nn.GELU(), Linear(n_mlp, n_state)
        )
        self.mlp_ln = LayerNorm(n_state)

每个残差块包含:

  • 自注意力机制:处理序列内部依赖关系
  • 交叉注意力机制(解码器中):连接编码器和解码器
  • 前馈神经网络:进行非线性变换
  • 层归一化和残差连接:确保训练稳定性

多头注意力机制

Whisper实现了高效的多头注意力机制,支持缩放点积注意力优化:

class MultiHeadAttention(nn.Module):
    use_sdpa = True
    
    def __init__(self, n_state: int, n_head: int):
        super().__init__()
        self.n_head = n_head
        self.query = Linear(n_state, n_state)
        self.key = Linear(n_state, n_state, bias=False)
        self.value = Linear(n_state, n_state)
        self.out = Linear(n_state, n_state)

注意力计算过程:

mermaid

编码器-解码器交互机制

Whisper的编码器和解码器通过交叉注意力机制进行交互:

组件功能输入输出
编码器音频特征提取梅尔频谱图音频特征向量
解码器文本生成文本标记 + 音频特征下一个标记概率
交叉注意力信息融合解码器查询 + 编码器键值注意力加权的音频特征

位置编码策略

Whisper使用不同的位置编码策略:

编码器位置编码:使用正弦函数生成固定位置编码

def sinusoids(length, channels, max_timescale=10000):
    assert channels % 2 == 0
    log_timescale_increment = np.log(max_timescale) / (channels // 2 - 1)
    inv_timescales = torch.exp(-log_timescale_increment * torch.arange(channels // 2))
    scaled_time = torch.arange(length)[:, np.newaxis] * inv_timescales[np.newaxis, :]
    return torch.cat([torch.sin(scaled_time), torch.cos(scaled_time)], dim=1)

解码器位置编码:使用可学习的位置编码参数

self.positional_embedding = nn.Parameter(torch.empty(n_ctx, n_state))

模型维度配置

Whisper支持多种模型尺寸,通过ModelDimensions数据结构进行配置:

@dataclass
class ModelDimensions:
    n_mels: int           # 梅尔频带数
    n_audio_ctx: int      # 音频上下文长度
    n_audio_state: int    # 音频编码器状态维度
    n_audio_head: int     # 音频编码器注意力头数
    n_audio_layer: int    # 音频编码器层数
    n_vocab: int          # 词汇表大小
    n_text_ctx: int       # 文本上下文长度
    n_text_state: int     # 文本解码器状态维度
    n_text_head: int      # 文本解码器注意力头数
    n_text_layer: int     # 文本解码器层数

不同模型尺寸的配置差异:

模型尺寸编码器层数解码器层数注意力头数状态维度
Tiny446384
Base668512
Small121212768
Medium2424161024
Large3232201280

前向传播流程

完整的编码器-解码器前向传播流程:

mermaid

这种编码器-解码器架构使Whisper能够有效处理语音识别任务,编码器专注于音频特征提取,解码器专注于文本生成,两者通过注意力机制紧密协作,实现了高质量的语音到文本转换。

音频预处理与梅尔频谱图生成机制

Whisper模型的音频预处理流程是其语音识别能力的核心基础,它将原始音频信号转换为适合Transformer模型处理的梅尔频谱图表示。这一过程涉及多个关键步骤,包括音频加载、重采样、短时傅里叶变换、梅尔滤波器组应用以及对数压缩等。

音频参数配置与预处理流程

Whisper采用固定的音频处理参数,确保输入数据的一致性和标准化:

# 音频超参数配置
SAMPLE_RATE = 16000        # 采样率:16kHz
N_FFT = 400                # FFT窗口大小:400个采样点
HOP_LENGTH = 160           # 帧移:160个采样点(10ms)
CHUNK_LENGTH = 30          # 音频块长度:30秒
N_SAMPLES = CHUNK_LENGTH * SAMPLE_RATE  # 480,000个采样点
N_FRAMES = exact_div(N_SAMPLES, HOP_LENGTH)  # 3,000帧梅尔频谱图

音频预处理的核心流程可以通过以下流程图展示:

mermaid

音频加载与预处理

load_audio函数负责音频文件的解码和预处理:

def load_audio(file: str, sr: int = SAMPLE_RATE):
    """加载音频文件并转换为单声道波形,必要时进行重采样"""
    cmd = [
        "ffmpeg", "-nostdin", "-threads", "0", "-i", file,
        "-f", "s16le", "-ac", "1", "-acodec", "pcm_s16le",
        "-ar", str(sr), "-"
    ]
    out = run(cmd, capture_output=True, check=True).stdout
    return np.frombuffer(out, np.int16).flatten().astype(np.float32) / 32768.0

该函数使用FFmpeg进行音频解码,将音频转换为:

  • 单声道(mono)格式
  • 16kHz采样率
  • 16位有符号整数PCM格式
  • 最终归一化到[-1, 1]范围的浮点数

音频长度标准化

为确保输入一致性,pad_or_trim函数将音频处理为固定长度:

def pad_or_trim(array, length: int = N_SAMPLES, *, axis: int = -1):
    """将音频数组填充或裁剪为N_SAMPLES长度"""
    if array.shape[axis] > length:
        array = array.take(indices=range(length), axis=axis)
    if array.shape[axis] < length:
        pad_widths = [(0, 0)] * array.ndim
        pad_widths[axis] = (0, length - array.shape[axis])
        array = np.pad(array, pad_widths)
    return array

梅尔滤波器组

Whisper使用预计算的梅尔滤波器组,支持80和128个梅尔频带:

@lru_cache(maxsize=None)
def mel_filters(device, n_mels: int) -> torch.Tensor:
    """加载梅尔滤波器组矩阵,用于将STFT投影到梅尔频谱图"""
    assert n_mels in {80, 128}, f"Unsupported n_mels: {n_mels}"
    filters_path = os.path.join(os.path.dirname(__file__), "assets", "mel_filters.npz")
    with np.load(filters_path, allow_pickle=False) as f:
        return torch.from_numpy(f[f"mel_{n_mels}"]).to(device)

梅尔滤波器组的频率响应特性如下表所示:

参数说明
采样率16kHz符合语音识别标准
FFT点数40025ms窗口长度
梅尔频带数80/128模型配置相关
最低频率0Hz全频带覆盖
最高频率8kHz奈奎斯特频率

梅尔频谱图生成

核心的log_mel_spectrogram函数实现完整的频谱图生成流程:

def log_mel_spectrogram(audio, n_mels=80, padding=0, device=None):
    """计算对数梅尔频谱图"""
    if not torch.is_tensor(audio):
        audio = torch.from_numpy(audio)
    
    if device is not None:
        audio = audio.to(device)
    if padding > 0:
        audio = F.pad(audio, (0, padding))
    
    # 应用汉宁窗进行STFT
    window = torch.hann_window(N_FFT).to(audio.device)
    stft = torch.stft(audio, N_FFT, HOP_LENGTH, window=window, return_complex=True)
    
    # 计算功率谱
    magnitudes = stft[..., :-1].abs() ** 2
    
    # 应用梅尔滤波器组
    filters = mel_filters(audio.device, n_mels)
    mel_spec = filters @ magnitudes
    
    # 对数压缩和动态范围调整
    log_spec = torch.clamp(mel_spec, min=1e-10).log10()
    log_spec = torch.maximum(log_spec, log_spec.max() - 8.0)
    log_spec = (log_spec + 4.0) / 4.0
    
    return log_spec

频谱图处理技术细节

1. 短时傅里叶变换(STFT)

Whisper使用汉宁窗(Hann Window)进行STFT计算,参数配置为:

  • 窗口长度:400采样点(25ms)
  • 帧移:160采样点(10ms)
  • 重叠:240采样点(60%重叠率)
2. 梅尔尺度转换

梅尔尺度更符合人类听觉感知,其转换公式为:

mel(f) = 2595 * log10(1 + f/700)
3. 动态范围压缩

采用对数压缩来处理音频信号的大动态范围:

  • 避免数值下溢:clamp(min=1e-10)
  • 限制动态范围:8.0的对数范围
  • 标准化输出:映射到[0,1]范围

时间-频率特性

生成的梅尔频谱图具有特定的时间-频率分辨率:

维度数值物理意义
时间帧数3,00030秒音频
时间分辨率10ms每帧持续时间
频率频带80/128梅尔滤波器数量
频率范围0-8kHz覆盖语音主要频率

与模型架构的集成

生成的梅尔频谱图直接输入到AudioEncoder中:

class AudioEncoder(nn.Module):
    def __init__(self, n_mels: int, n_ctx: int, n_state: int, n_head: int, n_layer: int):
        super().__init__()
        self.conv1 = Conv1d(n_mels, n_state, kernel_size=3, padding=1)
        self.conv2 = Conv1d(n_state, n_state, kernel_size=3, stride=2, padding=1)
        # ... 后续处理层

音频编码器通过两个卷积层进一步处理梅尔频谱图:

  1. 第一层卷积:保持时间分辨率,扩展特征维度
  2. 第二层卷积:时间维度下采样(stride=2),为后续Transformer处理做准备

这种预处理管道确保了原始音频信号被有效地转换为富含语义信息的频谱表示,为后续的序列到序列转录任务提供了高质量的输入特征。

多任务学习与注意力机制实现

Whisper模型的核心创新之一在于其巧妙的多任务学习框架与高效的注意力机制实现。这一设计使得单一模型能够同时处理语音识别、语音翻译、语言识别和语音活动检测等多种任务,展现了强大的泛化能力和零样本学习性能。

多任务学习框架设计

Whisper采用统一的序列到序列Transformer架构,通过特殊的标记(token)系统实现多任务学习。模型在训练时接收不同的任务指令,这些指令通过特殊的起始标记来指定:

# 特殊标记定义示例
SOT = tokenizer.special_tokens["<|startoftranscript|>"]
TRANSCRIBE = tokenizer.special_tokens["<|transcribe|>"]
TRANSLATE = tokenizer.special_tokens["<|translate|>"]
LANGUAGE_TOKENS = {lang: tokenizer.to_language_token(lang) for lang in LANGUAGES}

模型的多任务输入序列构建遵循特定的模式:

mermaid

这种设计使得模型能够根据不同的起始标记序列自适应地执行不同的任务:

任务类型标记序列输出语言
语音识别SOT + 语言标记 + TRANSCRIBE输入语言
语音翻译SOT + 语言标记 + TRANSLATE英语
语言识别SOT + 语言标记概率分布

注意力机制架构

Whisper采用标准的Transformer编码器-解码器架构,但在注意力机制实现上进行了优化:

多头注意力实现
class MultiHeadAttention(nn.Module):
    use_sdpa = True  # 使用优化的scaled_dot_product_attention

    def __init__(self, n_state: int, n_head: int):
        super().__init__()
        self.n_head = n_head
        self.query = Linear(n_state, n_state)
        self.key = Linear(n_state, n_state, bias=False)
        self.value = Linear(n_state, n_state)
        self.out = Linear(n_state, n_state)

    def qkv_attention(self, q: Tensor, k: Tensor, v: Tensor, mask: Optional[Tensor] = None):
        n_batch, n_ctx, n_state = q.shape
        scale = (n_state // self.n_head) ** -0.25
        
        # 重塑为多头形式
        q = q.view(*q.shape[:2], self.n_head, -1).permute(0, 2, 1, 3)
        k = k.view(*k.shape[:2], self.n_head, -1).permute(0, 2, 1, 3)
        v = v.view(*v.shape[:2], self.n_head, -1).permute(0, 2, 1, 3)

        if SDPA_AVAILABLE and MultiHeadAttention.use_sdpa:
            # 使用优化的PyTorch SDPA实现
            a = scaled_dot_product_attention(q, k, v, is_causal=mask is not None and n_ctx > 1)
            out = a.permute(0, 2, 1, 3).flatten(start_dim=2)
            qk = None
        else:
            # 回退到手动实现
            qk = (q * scale) @ (k * scale).transpose(-1, -2)
            if mask is not None:
                qk = qk + mask[:n_ctx, :n_ctx]
            w = F.softmax(qk, dim=-1).to(q.dtype)
            out = (w @ v).permute(0, 2, 1, 3).flatten(start_dim=2)
            qk = qk.detach()

        return out, qk
残差注意力块设计

Whisper使用残差注意力块(ResidualAttentionBlock)作为基本构建单元,支持自注意力和交叉注意力:

class ResidualAttentionBlock(nn.Module):
    def __init__(self, n_state: int, n_head: int, cross_attention: bool = False):
        super().__init__()
        self.attn = MultiHeadAttention(n_state, n_head)  # 自注意力
        self.attn_ln = LayerNorm(n_state)
        
        # 交叉注意力(仅解码器使用)
        self.cross_attn = MultiHeadAttention(n_state, n_head) if cross_attention else None
        self.cross_attn_ln = LayerNorm(n_state) if cross_attention else None
        
        # 前馈网络
        n_mlp = n_state * 4
        self.mlp = nn.Sequential(
            Linear(n_state, n_mlp), nn.GELU(), Linear(n_mlp, n_state)
        )
        self.mlp_ln = LayerNorm(n_state)

交叉注意力机制

在解码器中,交叉注意力机制负责将音频特征与文本标记进行对齐:

mermaid

这种设计使得模型能够在生成每个文本标记时关注到最相关的音频片段,实现精确的对齐。

键值缓存优化

为了提高推理效率,Whisper实现了键值缓存机制:

def forward(self, x: Tensor, xa: Optional[Tensor] = None, 
           mask: Optional[Tensor] = None, kv_cache: Optional[dict] = None):
    q = self.query(x)
    
    if kv_cache is None or xa is None or self.key not in kv_cache:
        # 首次计算或交叉注意力的键值
        k = self.key(x if xa is None else xa)
        v = self.value(x if xa is None else xa)
    else:
        # 重用缓存的键值
        k = kv_cache[self.key]
        v = kv_cache[self.value]
    
    wv, qk = self.qkv_attention(q, k, v, mask)
    return self.out(wv), qk

多任务注意力模式分析

Whisper在不同任务中展现出不同的注意力模式:

任务类型主要注意力机制特征
语音识别交叉注意力 + 自注意力关注音频-文本对齐
语音翻译交叉注意力 + 语言建模跨语言语义映射
语言识别全局池化 + 分类语言特征提取

性能优化策略

Whisper在注意力机制实现上采用了多项优化:

  1. SDPA优化:使用PyTorch的scaled_dot_product_attention实现,大幅提升计算效率
  2. 键值缓存:避免重复计算,加速自回归生成
  3. 混合精度训练:使用FP16/BF16减少内存占用
  4. 梯度检查点:在训练时节省内存
# 混合精度训练示例
with torch.autocast(device_type='cuda', dtype=torch.float16):
    logits = model(mel, tokens)
    loss = F.cross_entropy(logits.view(-1, logits.size(-1)), targets.view(-1))

这种多任务学习与注意力机制的精心设计,使得Whisper能够在单一模型中实现多种语音处理任务,同时保持高效的推理性能和优秀的准确性。

模型参数配置与性能优化策略

Whisper模型提供了丰富的参数配置选项,允许用户根据不同的应用场景和性能需求进行精细调优。这些参数主要分为解码策略参数、采样控制参数和性能优化参数三大类,通过合理的配置可以在准确性和效率之间找到最佳平衡点。

解码策略参数配置

Whisper支持多种解码策略,主要包括贪婪解码和束搜索(Beam Search)两种方式:

# 解码选项配置示例
options = DecodingOptions(
    temperature=0.0,           # 温度参数,0表示使用束搜索
    beam_size=5,               # 束搜索的束宽
    patience=1.0,              # 束搜索的耐心参数
    best_of=5,                 # 非零温度时的候选样本数
    length_penalty=None        # 长度惩罚系数
)

**温度参数(Temperature)**是控制解码随机性的关键参数:

  • temperature=0.0:使用确定性束搜索,输出最可能的结果
  • temperature>0.0:使用随机采样,值越大输出越多样化
  • 支持温度调度,可传入温度元组进行退火采样

束搜索参数包括:

  • beam_size:束宽大小,影响搜索空间和计算复杂度
  • patience:耐心系数,控制束搜索的提前终止策略
  • 束搜索仅在温度为零时生效

采样质量控制参数

为确保转录质量,Whisper提供了多个质量控制阈值:

# 质量控制参数配置
result = model.transcribe(
    audio_file,
    temperature=(0.0, 0.2, 0.4, 0.6, 0.8, 1.0),
    compression_ratio_threshold=2.4,
    logprob_threshold=-1.0,
    no_speech_threshold=0.6
)

各参数的作用如下表所示:

参数默认值作用描述优化建议
compression_ratio_threshold2.4压缩比阈值,检测重复文本降低值可减少幻觉,但可能增加漏检
logprob_threshold-1.0平均对数概率阈值提高值可过滤低置信度片段
no_speech_threshold0.6无语音概率阈值调整静音检测灵敏度
temperature(0.0, 0.2, 0.4, 0.6, 0.8, 1.0)温度退火序列根据内容复杂度调整

性能优化策略

1. 内存优化配置

Whisper模型大小选择直接影响内存使用和推理速度:

mermaid

2. 计算优化技术

KV缓存优化:Whisper实现了高效的键值缓存机制,避免重复计算:

# KV缓存使用示例
inference = PyTorchInference(model, initial_token_length)
inference.install_kv_cache_hooks()  # 安装缓存钩子

批处理优化:通过合理的批处理大小平衡内存使用和计算效率:

# 批处理配置
options = DecodingOptions(
    fp16=True,        # 使用半精度浮点数
    batch_size=16     # 根据GPU内存调整
)
3. 实时处理优化

对于实时应用,可采用分块处理策略:

# 实时处理配置
def realtime_transcribe(audio_stream, chunk_size=30):
    for chunk in split_audio(audio_stream, chunk_size):
        result = model.transcribe(
            chunk,
            temperature=0.0,
            beam_size=3,        # 降低束宽以提高速度
            without_timestamps=True  # 禁用时间戳以节省计算
        )
        yield result

多语言优化策略

针对不同语言的特点,需要调整相应的参数:

# 多语言优化配置
language_specific_config = {
    "English": {"temperature": 0.0, "beam_size": 5},
    "Japanese": {"temperature": 0.2, "beam_size": 8},
    "Chinese": {"temperature": 0.1, "beam_size": 6},
    "Spanish": {"temperature": 0.0, "beam_size": 5}
}

def optimize_for_language(language, base_options):
    config = language_specific_config.get(language, {})
    return replace(base_options, **config)

错误处理和重试机制

Whisper内置了智能的重试机制,当检测到低质量输出时会自动尝试不同的温度设置:

mermaid

这种机制通过以下参数控制:

  • temperature:温度序列,默认(0.0, 0.2, 0.4, 0.6, 0.8, 1.0)
  • 质量检查基于compression_ratio_thresholdlogprob_threshold

实践建议配置

根据不同的应用场景,推荐以下配置方案:

高精度转录(用于正式文档):

high_accuracy_config = DecodingOptions(
    temperature=0.0,
    beam_size=8,
    patience=1.2,
    compression_ratio_threshold=2.2,
    logprob_threshold=-0.8
)

实时应用(需要快速响应):

realtime_config = DecodingOptions(
    temperature=0.0,
    beam_size=3,
    without_timestamps=True,
    fp16=True
)

创意内容(需要多样化输出):

creative_config = DecodingOptions(
    temperature=0.8,
    best_of=5,
    compression_ratio_threshold=2.8
)

通过合理配置这些参数,用户可以在不同的硬件条件和应用需求下获得最佳的Whisper模型性能表现。关键是要根据具体的转录内容特点、硬件资源和质量要求进行有针对性的调优。

技术总结与展望

Whisper模型通过精心设计的Transformer编码器-解码器架构、高效的音频预处理管道和创新的多任务学习框架,实现了业界领先的语音识别性能。其关键技术特点包括:统一的序列到序列架构支持多种语音任务;优化的注意力机制确保计算效率;灵活的参数配置满足不同应用场景需求。未来发展方向可能包括:模型压缩以适应边缘设备部署、多模态扩展支持视频内容理解,以及进一步优化实时处理性能。Whisper为语音AI技术的发展奠定了坚实基础,展示了大规模预训练模型在语音领域的巨大潜力。

【免费下载链接】whisper openai/whisper: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 【免费下载链接】whisper 项目地址: https://gitcode.com/GitHub_Trending/whisp/whisper

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值