DeepSeek微调-医疗数据

使用UnSloth微调库对DeepSeek模型进行微调,医疗数据集选用medical-o1-reasoning-SFT数据集(该数据集包含问题-CoT思考链-响应)。

1、安装相关的工具库

pip install unsloth  # 安装unsloth库
pip install bitsandbytes unsloth_zoo # 安装工具库

其中bitsandbytes是一个用于高效实现 8 位和 4 位量化的库,在大模型训练和推理中可以显著减少内存使用。

unsloth_zoo可能是与unsloth相关的一个模型仓库或工具集,为unsloth的使用提供更多的模型资源或辅助功能。

2、加载模型和tokenizer

import torch # 加载torch库
from unsloth import FastLanguageModel 

# 超参数设置
max_seq_length = 2048 #模型的上下文长度,可以任意选择,内部提供了RoPE Scaling 技术支持
dtype = None  # 通常设置为None,使用Tesla T4, V100等GPU时可用Float16,使用Ampere+时用Bfloat16
load_in_4bit = True  # 以4位量化进行微调

# 基于unsloth加载deepseek的蒸馏模型
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "unsloth/DeepSeek-R1-Distill-Llama-8B",
    max_seq_length = max_seq_length,
    dtype = dtype,
    load_in_4bit = load_in_4bit,
    token = hf_token, 
)

将Load_in_4bit设置为True,将内存使用量减少了4倍。量化的本质就是将权重转换为一组有限的数字来减小内存使用量,量化的缺点是会使准确率下降1~2%。如果GPU较大,可设置为False。

3、微调前模型的推理示例

为了为模型创建提示模板,定义一个系统提示,并在其中包含问题和回答生成的占位符。该提示将引导模型逐步思考,并提供一个逻辑严谨、准确的回答。

prompt_style = """Below is an instruction that describes a task, paired with an input that provides further context. 
Write a response that appropriately completes the request. 
Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.

### Instruction:
You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning. 
Please answer the following medical question. 

### Question:
{}

### Response:
<think>{}"""

在这个示例中,向 prompt_style 提供一个医学问题,将其转换为 token,然后将这些 token 传递给模型以生成回答。

question = "一个患有急性阑尾炎的病人已经发病5天,腹痛稍有减轻但仍然发热,在体检时发现右下腹有压痛的包块,此时应如何处理?"


FastLanguageModel.for_inference(model)
inputs = tokenizer([prompt_style.format(question, "")], return_tensors="pt").to("cuda")

outputs = model.generate(
    input_ids=inputs.input_ids,
    attention_mask=inputs.attention_mask,
    max_new_tokens=1200,
    use_cache=True,
)
response = tokenizer.batch_decode(outputs)
print(response[0].split("### Response:")[1])

运行后会打印回答结果

<think>
首先,急性阑尾炎的常见症状包括急性发热、腹痛和腹部压痛。病人已经发病5天,腹痛有所减轻,但仍有发热,这可能意味着炎症正在缓解,但仍需密切观察。

体检发现右下腹有压痛的包块,这可能提示存在阑尾炎的复发性病变,或者是其他类型的炎症,如appendicitis perforans。需要进一步的影像学检查,如超声或CT,来明确包块的性质和位置,以确定是否有脓肿或其他结构异常。

此外,病人仍有发热,说明炎症可能未完全消退,需要考虑继续使用抗生素治疗,以防止感染延迟或扩散。同时,应密切监测病情,必要时进行进一步的治疗干预,如引流或手术。

在处理过程中,应与微生物学进行相互配合,根据病人的病原体培养结果,调整治疗方案,确保病毒、细菌的敏感性。

最后,病人的整体状况和病情变化应随时评估,以便及时调整治疗策略,确保病情得到有效控制。
</think>

在这种情况下,正确的处理步骤如下:

1. **进一步的影像学检查**:使用超声或CT检查右下腹部的包块,以确定其性质(如脓肿、腺体炎等)和位置。

2. **细菌培养和病原体检测**:进行病人的血液、脓液或包块的培养,以确定病原体的种类和抗生素敏感性。

3. **抗生素治疗**:根据病原体检测结果,选择敏感的抗生素,通常在明确病原体前开始治疗,以覆盖可能的细菌感染。

4. **监测病情变化**:密切观察病人的发热、腹痛和包块情况,必要时进行进一步的影像学或手术干预。

5. **联合治疗**:与微生物学及其他相关科室密切配合,调整治疗方案,确保病情得到控制。

6. **预防措施**:建议病人避免辛辣食物,保持饮食清淡,必要时进行护理,避免感染扩散。

通过以上步骤,可以全面评估病情,制定合理的治疗方案,确保病人的恢复。<|end▁of▁sentence|>

即使在没有微调的情况下,我们的模型也成功地生成了思维链,并在给出最终答案之前进行了推理。推理过程被封装在标签内。尽管推理过程详细,但它显得冗长且不简洁。此外,最终答案以项目符号格式呈现,这与我们希望微调的数据集的结构和风格有所偏离。

4、加载和处理数据集

1.、准备工作

首先需要稍微调整一下提示模板,便于来处理数据集。具体操作方法就是为复杂的思维链列添加第三个占位符。

train_prompt_style = """Below is an instruction that describes a task, paired with an input that provides further context. 
Write a response that appropriately completes the request. 
Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.

### Instruction:
You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning. 
Please answer the following medical question. 

### Question:
{}

### Response:
<think>
{}
</think> 
{}"""

随后需要创建一个Python函数,该函数可以在数据集中创建一个 “text” 列,该列由训练提示模板组成。将占位符填充为问题、思维链和答案。

EOS_TOKEN = tokenizer.eos_token  # 末尾必须加上 EOS_TOKEN


def formatting_prompts_func(examples):
    inputs = examples["Question"]
    cots = examples["Complex_CoT"]
    outputs = examples["Response"]
    texts = []
    for input, cot, output in zip(inputs, cots, outputs):
        text = train_prompt_style.format(input, cot, output) + EOS_TOKEN
        texts.append(text)
    return {
        "text": texts,
    }

需要注意的是:在每个训练数据集条目的末尾添加EOS(序列结束)令牌是至关重要的,否则可能会遇到无限生成。

2、加载数据集

    选择从Hugging Face Hub加载FreedomIntelligence/medical-o1-reasoning-SFT数据集的前500个样本。

from datasets import load_dataset
dataset = load_dataset("FreedomIntelligence/medical-o1-reasoning-SFT", 'zh', split = "train[0:500]", trust_remote_code=True)
print(dataset.column_names)

dataset = dataset.map(formatting_prompts_func, batched = True)
print(dataset["text"][0])

加载数据后使用formatting_prompts_func 函数对 “text” 列进行映射。

可查看处理后的单个训练数据格式,“text”包含了系统提示、指令、思维链和答案

Below is an instruction that describes a task, paired with an input that provides further context. 
Write a response that appropriately completes the request. 
Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.

### Instruction:
You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning. 
Please answer the following medical question. 

### Question:
根据描述,一个1岁的孩子在夏季头皮出现多处小结节,长期不愈合,且现在疮大如梅,溃破流脓,口不收敛,头皮下有空洞,患处皮肤增厚。这种病症在中医中诊断为什么病?

### Response:
<think>
这个小孩子在夏天头皮上长了些小结节,一直都没好,后来变成了脓包,流了好多脓。想想夏天那么热,可能和湿热有关。才一岁的小孩,免疫力本来就不强,夏天的湿热没准就侵袭了身体。

用中医的角度来看,出现小结节、再加上长期不愈合,这些症状让我想到了头疮。小孩子最容易得这些皮肤病,主要因为湿热在体表郁结。

但再看看,头皮下还有空洞,这可能不止是简单的头疮。看起来病情挺严重的,也许是脓肿没治好。这样的情况中医中有时候叫做禿疮或者湿疮,也可能是另一种情况。

等一下,头皮上的空洞和皮肤增厚更像是疾病已经深入到头皮下,这是不是说明有可能是流注或瘰疬?这些名字常描述头部或颈部的严重感染,特别是有化脓不愈合,又形成通道或空洞的情况。

仔细想想,我怎么感觉这些症状更贴近瘰疬的表现?尤其考虑到孩子的年纪和夏天发生的季节性因素,湿热可能是主因,但可能也有火毒或者痰湿造成的滞留。

回到基本的症状描述上看,这种长期不愈合又复杂的状况,如果结合中医更偏重的病名,是不是有可能是涉及更深层次的感染?

再考虑一下,这应该不是单纯的瘰疬,得仔细分析头皮增厚并出现空洞这样的严重症状。中医里头,这样的表现可能更符合‘蚀疮’或‘头疽’。这些病名通常描述头部严重感染后的溃烂和组织坏死。

看看季节和孩子的体质,夏天又湿又热,外邪很容易侵入头部,对孩子这么弱的免疫系统简直就是挑战。头疽这个病名听起来真是切合,因为它描述的感染严重,溃烂到出现空洞。

不过,仔细琢磨后发现,还有个病名似乎更为合适,叫做‘蝼蛄疖’,这病在中医里专指像这种严重感染并伴有深部空洞的情况。它也涵盖了化脓和皮肤增厚这些症状。

哦,该不会是夏季湿热,导致湿毒入侵,孩子的体质不能御,其病情发展成这样的感染?综合分析后我觉得‘蝼蛄疖’这个病名真是相当符合。
</think>
从中医的角度来看,你所描述的症状符合“蝼蛄疖”的病症。这种病症通常发生在头皮,表现为多处结节,溃破流脓,形成空洞,患处皮肤增厚且长期不愈合。湿热较重的夏季更容易导致这种病症的发展,特别是在免疫力较弱的儿童身上。建议结合中医的清热解毒、祛湿消肿的治疗方法进行处理,并配合专业的医疗建议进行详细诊断和治疗。<|end▁of▁sentence|>

 5、训练模型

基于HuggingFace的SFTTrainer训练,可以通过使用目标模块来设置一些微调参数

model = FastLanguageModel.get_peft_model(
    model,
    r=16,   # 选择任何数字 > 0 !建议 8、16、32、64、128微调过程的等级。
        #数字越大,占用的内存越多,速度越慢,但可以提高更困难任务的准确性。太大也会过拟合
    target_modules=[
        "q_proj",
        "k_proj",
        "v_proj",
        "o_proj",
        "gate_proj",
        "up_proj",
        "down_proj",
    ],  # 选择所有模块进行微调

    lora_alpha=16, # 微调的缩放因子,建议将其等于等级 r,或将其加倍。
    lora_dropout=0,  # 将其保留为 0 以加快训练速度!可以减少过度拟合,但不会那么多。
    bias="none",  # 将其保留为 0 以加快训练速度并减少过度拟合!
    use_gradient_checkpointing="unsloth",  # True or "unsloth" for very long context
    random_state=3407, # 随机种子数
    use_rslora=False,  # 支持等级稳定的 LoRA,高级功能可自动设置 lora_alpha = 16
    loftq_config=None, # 高级功能可将 LoRA 矩阵初始化为权重的前 r 个奇异向量。
                        #可以在一定程度上提高准确性,但一开始会使内存使用量激增。
)

接下来设置训练参数和训练器,通过提供模型、tokenizer、数据集以及其他重要的训练参数,来优化微调过程。

from trl import SFTTrainer
from transformers import TrainingArguments
from unsloth import is_bfloat16_supported

trainer = SFTTrainer(
    model=model,
    tokenizer=tokenizer,
    train_dataset=dataset,
    dataset_text_field="text",
    max_seq_length=max_seq_length,
    dataset_num_proc=2,
    args=TrainingArguments(
        per_device_train_batch_size=2,
        gradient_accumulation_steps=4,
        # Use num_train_epochs = 1, warmup_ratio for full training runs!
        warmup_steps=5,
        max_steps=60,
        learning_rate=2e-4,
        fp16=not is_bfloat16_supported(),
        bf16=is_bfloat16_supported(),
        logging_steps=10,
        optim="adamw_8bit",
        weight_decay=0.01,
        lr_scheduler_type="linear",
        seed=3407,
        output_dir="outputs",
    ),
)

最后进行模型的训练

trainer_stats = trainer.train()

7、微调后模型推理验证

微调训练后可以使用该模型及逆行重新推理

question = "一个患有急性阑尾炎的病人已经发病5天,腹痛稍有减轻但仍然发热,在体检时发现右下腹有压痛的包块,此时应如何处理?"
FastLanguageModel.for_inference(model)  # Unsloth has 2x faster inference!
inputs = tokenizer([prompt_style.format(question, "")], return_tensors="pt").to("cuda")

outputs = model.generate(
    input_ids=inputs.input_ids,
    attention_mask=inputs.attention_mask,
    max_new_tokens=1200,
    use_cache=True,
)
response = tokenizer.batch_decode(outputs)
print(response[0].split("### Response:")[1])

推理结果如下

<think>
嗯,这个病人已经有5天的急性阑尾炎了。最近的症状是腹痛稍微减轻,但他还是发热的。看来他的病情还没完全好转。

在体检时发现了右下腹有压痛的包块,这让我想到可能有了阻塞。也许是阑尾炎引起的炎症块,或者是其他感染性问题。

接下来,我得考虑进一步的检查。X光或者超声检查可能会帮助我更好地了解这个包块的具体位置和性质。

如果检查证实有阻塞,可能需要考虑引流手术。毕竟,阑尾炎如果没有及时处理,可能会发展成急性阑尾炎的急性阻塞炎症,甚至可能引发感染性腹膜炎。

还有,我需要确保病人的整体状况稳定。有时候,可能需要先用抗生素处理,消除感染的可能,以免阻塞情况变得更严重。

所以,综合考虑,我觉得应该首先做个X光或超声检查,评估这个包块的具体情况,然后根据检查结果决定是否需要进行引流手术。
</think>
在这种情况下,首先进行X光或超声检查是非常重要的,因为它可以帮助我们更好地了解这个包块的具体位置和性质。根据检查结果,如果发现有阻塞,我们需要考虑进行引流手术。同时,确保病人的整体状况稳定,可能需要使用抗生素来消除感染的可能性,以防止阻塞情况变得更严重。因此,建议先进行进一步的影像学检查,然后根据检查结果决定是否需要进行引流手术。<|end▁of▁sentence|>

结果明显更好且更准确。思维链条简洁明了,答案直接且只用了一段话。微调成功。

8、模型保存

要将最终模型保存为LoRA适配器,可以使用Huggingface的push_to_hub进行在线保存,或者使用save_pretrained进行本地保存。这里选择本地保存

new_model_local = "DeepSeek-R1-Medical-COT"
model.save_pretrained(new_model_local)  # 本地模型保存
tokenizer.save_pretrained(new_model_local) # 分词器保存
注意:这里保存的仅是LoRA适配器,而不是完整模型,再次使用需要重新加载,更改model_name

# 保存完整模型用下面的方法
# 将模型和分词器以合并的方式保存到指定的本地目录
model.save_pretrained_merged(new_model_local, tokenizer, save_method = "merged_16bit",) 


# model.push_to_hub("your_name/lora_model", token = "...") # Online saving
# tokenizer.push_to_hub("your_name/lora_model", token = "...") # Online saving

# 保存完整模型到online
#model.push_to_hub_merged("your_name/lora_model", tokenizer, save_method = "merged_16bit", token = "")

全部代码

pip install unsloth  # 安装unsloth库
pip install bitsandbytes unsloth_zoo # 安装工具库

import torch # 加载torch库
from unsloth import FastLanguageModel 
 
# ############## 加载模型和分词器#####################
# 超参数设置
max_seq_length = 2048 #模型的上下文长度,可以任意选择,内部提供了RoPE Scaling 技术支持
dtype = None  # 通常设置为None,使用Tesla T4, V100等GPU时可用Float16,使用Ampere+时用Bfloat16
load_in_4bit = True  # 以4位量化进行微调
 
# 基于unsloth加载deepseek的蒸馏模型
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "unsloth/DeepSeek-R1-Distill-Llama-8B",
    max_seq_length = max_seq_length,
    dtype = dtype,
    load_in_4bit = load_in_4bit,
    token = hf_token, 
)
 
# ################# 提示模板 #######################
prompt_style = """Below is an instruction that describes a task, paired with an input that provides further context. 
Write a response that appropriately completes the request. 
Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.
### Instruction:
You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning. 
Please answer the following medical question. 
### Question:
{}
### Response:
<think>{}"""

# ##################### 微调前推理示例 #######################
question = "一个患有急性阑尾炎的病人已经发病5天,腹痛稍有减轻但仍然发热,在体检时发现右下腹有压痛的包块,此时应如何处理?"
 
FastLanguageModel.for_inference(model)
inputs = tokenizer([prompt_style.format(question, "")], return_tensors="pt").to("cuda")
 
outputs = model.generate(
    input_ids=inputs.input_ids,
    attention_mask=inputs.attention_mask,
    max_new_tokens=1200,
    use_cache=True,
)
response = tokenizer.batch_decode(outputs)
print(response[0].split("### Response:")[1])

# ###################### 更新提示模板 #######################
train_prompt_style = """Below is an instruction that describes a task, paired with an input that provides further context. 
Write a response that appropriately completes the request. 
Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.
### Instruction:
You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning. 
Please answer the following medical question. 
### Question:
{}
### Response:
<think>
{}
</think> 
{}"""

# ####################### 处理函数 #########################
EOS_TOKEN = tokenizer.eos_token  # 末尾必须加上 EOS_TOKEN
 
def formatting_prompts_func(examples):
    inputs = examples["Question"]
    cots = examples["Complex_CoT"]
    outputs = examples["Response"]
    texts = []
    for input, cot, output in zip(inputs, cots, outputs):
        text = train_prompt_style.format(input, cot, output) + EOS_TOKEN
        texts.append(text)
    return {
        "text": texts,
    }


# ################### 加载数据集 ##########################
from datasets import load_dataset
dataset = load_dataset("FreedomIntelligence/medical-o1-reasoning-SFT", 'zh', split = "train[0:500]", trust_remote_code=True)
print(dataset.column_names)
 
dataset = dataset.map(formatting_prompts_func, batched = True)
print(dataset["text"][0])

# ################## 微调参数设置 #####################
model = FastLanguageModel.get_peft_model(
    model,
    r=16,   # 选择任何数字 > 0 !建议 8、16、32、64、128微调过程的等级。
        #数字越大,占用的内存越多,速度越慢,但可以提高更困难任务的准确性。太大也会过拟合
    target_modules=[
        "q_proj",
        "k_proj",
        "v_proj",
        "o_proj",
        "gate_proj",
        "up_proj",
        "down_proj",
    ],  # 选择所有模块进行微调
 
    lora_alpha=16, # 微调的缩放因子,建议将其等于等级 r,或将其加倍。
    lora_dropout=0,  # 将其保留为 0 以加快训练速度!可以减少过度拟合,但不会那么多。
    bias="none",  # 将其保留为 0 以加快训练速度并减少过度拟合!
    use_gradient_checkpointing="unsloth",  # True or "unsloth" for very long context
    random_state=3407, # 随机种子数
    use_rslora=False,  # 支持等级稳定的 LoRA,高级功能可自动设置 lora_alpha = 16
    loftq_config=None, # 高级功能可将 LoRA 矩阵初始化为权重的前 r 个奇异向量。
                        #可以在一定程度上提高准确性,但一开始会使内存使用量激增。
)

# ################# 训练参数设置 #######################
from trl import SFTTrainer
from transformers import TrainingArguments
from unsloth import is_bfloat16_supported
 
trainer = SFTTrainer(
    model=model,
    tokenizer=tokenizer,
    train_dataset=dataset,
    dataset_text_field="text",
    max_seq_length=max_seq_length,
    dataset_num_proc=2,
    args=TrainingArguments(
        per_device_train_batch_size=2,
        gradient_accumulation_steps=4,
        # Use num_train_epochs = 1, warmup_ratio for full training runs!
        warmup_steps=5,
        max_steps=60,
        learning_rate=2e-4,
        fp16=not is_bfloat16_supported(),
        bf16=is_bfloat16_supported(),
        logging_steps=10,
        optim="adamw_8bit",
        weight_decay=0.01,
        lr_scheduler_type="linear",
        seed=3407,
        output_dir="outputs",
    ),
)

# ################### 模型训练 #################
trainer_stats = trainer.train()

# ################### 模型保存 ##################
new_model_local = "DeepSeek-R1-Medical-COT"
model.save_pretrained(new_model_local)  # 本地模型保存
tokenizer.save_pretrained(new_model_local) # 分词器保存
 
# 将模型和分词器以合并的方式保存到指定的本地目录
model.save_pretrained_merged(new_model_local, tokenizer, save_method = "merged_16bit",) 
 
 
# model.push_to_hub("your_name/lora_model", token = "...") # Online saving
# tokenizer.push_to_hub("your_name/lora_model", token = "...") # Online saving

### 使用Unsloth微调DeepSeek-R1蒸馏模型构建医疗领域专家模型 为了利用Unsloth框架对DeepSeek-R1蒸馏模型进行微调并构建专门针对医疗领域的专家模型,可以遵循以下方法论和技术细节。 #### 准备工作 确保已经安装了必要的依赖库以及配置好了运行环境。对于特定于医疗领域的数据集准备至关重要,这些数据应该包含大量的医学术语、病例描述以及其他有助于提高模型理解能力的信息[^1]。 #### 数据预处理 在开始训练之前,需对收集到的数据执行一系列预处理操作: - 清洗文本:去除无关字符、标准化格式等; - 分词标注:依据中文特点采用合适的分词工具; - 特殊标记识别:如疾病名称、药物名等实体识别; ```python import jieba from sklearn.model_selection import train_test_split def preprocess_data(texts): processed_texts = [] for text in texts: words = " ".join(jieba.cut(text)) processed_texts.append(words) return processed_texts # 假设texts是一个列表形式的原始语料集合 X_train, X_val = train_test_split(preprocess_data(texts), test_size=0.2) ``` #### 加载基础模型与定义新架构 加载预先训练好的DeepSeek-R1蒸馏版模型,并在此基础上添加额外层来适应新的任务需求。这一步骤通常涉及到迁移学习的概念,在保持原有参数不变的情况下仅调整最后一部分网络结构以匹配目标任务特性。 ```python from transformers import AutoModelForSequenceClassification, Trainer, TrainingArguments model_name_or_path = 'path_to_deepseek_r1_distilled_model' num_labels = 2 # 或者更多类别数取决于具体应用场景 base_model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path, num_labels=num_labels) class CustomMedicalExpertModel(AutoModelForSequenceClassification): def __init__(self, config): super().__init__(config) self.additional_layers = ... # 定义附加神经元层 custom_model = CustomMedicalExpertModel(base_model.config) ``` #### 训练过程设置 通过`Trainer`类简化整个训练流程管理,包括但不限于损失函数的选择、优化器设定等方面的工作。同时考虑到GPU资源的有效利用率问题,建议合理规划batch size大小及epoch次数等超参选项。 ```python training_args = TrainingArguments( output_dir='./results', evaluation_strategy="steps", eval_steps=500, save_total_limit=2, per_device_train_batch_size=8, gradient_accumulation_steps=4, learning_rate=5e-5, weight_decay=0.01, adam_epsilon=1e-8, max_grad_norm=1.0, logging_dir='./logs', logging_first_step=True, logging_steps=10, fp16=True, dataloader_num_workers=4 ) trainer = Trainer( model=custom_model, args=training_args, train_dataset=train_dataset, eval_dataset=val_dataset ) trainer.train() ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值