【精华收藏】从零打造大模型:程序员必知的五个关键步骤

文章详细介绍了从零开始训练大型语言模型的五个关键步骤:数据收集与清洗作为基础;搭建Transformer架构;资源密集的预训练阶段;通过微调与对齐适应特定任务;最后通过评估测试性能。大模型训练需要巨大计算资源、专业知识和高质量数据,但利用开源预训练模型进行微调是可行的入门路径。


我们都知道训练一个大模型都是家里有矿的人才能干的事情。

但是到底需要多少张GPU卡?

训练规模从千卡到万卡,到十万卡。

例如:马斯克的grok就是十万卡H100训练出来的。

而deepseek v3则是2048张H800训练出来的。

所以从零开始训练,我们需要有个大的炼丹炉(万卡的智算集群)。

毕竟大代表着“算力高”。

有了大的炼丹炉(智算集群),才是训练大模型的基础。

而接下来才是展示真正技术的时刻

第一步:筑基——“数字藏经阁”的广博与精纯

大模型的全称叫做,LLM(Large Language Model)

顾名思义,这就是处理语言的模型。

而训练LLM的第一步就是收集原始材料,获取海量文本

这些海量高质量数据,训练LLM的基础,这些通常称为“语料库”。

这些原始材料不可或缺,因为它教会模型语法的复杂性、事实知识和常见的语言模式。

数据从哪里来,坦白来说,

来源极其多样,包括维基百科、Common Crawl(一个庞大的网页档案)、GitHub(用于代码)和古腾堡计划(用于公共领域书籍)等公共存储库。

对于专业的大模型,例如对于为法律或医疗应用等专业领域设计的LLM,纳入法律文件、案例研究或医疗记录等领域特定数据至关重要。

怎么获取?

一般来说就是使用机器人或爬虫从网站提取数据的自动化网络抓取,以及访问在线平台提供的应用程序编程接口(API)以检索结构化数据。

另外,Kaggle或UCI机器学习存储库等公开数据集和存储库也作为宝贵来源。

此外,像Amazon Mechanical Turk这样的众包平台,会雇佣人工标注员来收集或标注数据,从而增加数据集的多样性和丰富性。

未经处理的原始数据很少是纯净的;

它通常包含不准确、不一致和不相关的信息。

还可能有一些有害的信息,这个就不展开说了。

懂得都懂,除非家里没有通网。

因此,数据清洗成为LLM有效训练的关键但具有挑战性的先决条件。

数据清洗:确保质量、消除偏见和道德考量

数据清洗,也不是完全的去除有害信息。

所以数据清洗的动作包括:

1:数据去重:

识别并删除相同或近似重复的内容对于防止冗余训练和“过拟合”至关重要,过拟合是指模型过度记忆训练数据,导致在新、未见过的信息上表现不佳的现象。为此,采用了MinHash或局部敏感哈希(LSH)等技术。

把那些重复啰嗦的“套路”给删掉,免得模型学僵了,老是说车轱辘话。

2:语言过滤:

此步骤确保内容仅为所需语言,丢弃嘈杂的多语言数据或与目标语言无关的内容。

3:内容质量过滤:

系统地消除低质量内容,例如垃圾邮件、重复文本或因过多语法错误或不完整句子而损坏的文档。

这一步那些没营养的“街头小报”内容,直接扔掉,咱只要“真传”。

N-gram分析或启发式规则(例如,基于字数或标点密度)等自动化方法有助于识别此类内容。

4:冗余过滤:

为了确保模型获得平衡的学习体验,此技术避免了常见主题的过度表示。

这可能涉及按数据集多样性比例采样数据,或为来自特定来源的相似文档设置阈值。

5:数据标准化:

这涉及标准化文本格式以确保统一性。常见的标准化步骤包括将所有文本转换为小写(如果不需要区分大小写)、标准化Unicode字符以及标准化引号、破折号和撇号。

6:删除敏感信息:

检测和删除个人身份信息(PII),例如姓名、地址或电话号码,否则,你在deepseek上问你想要的人的身份证或者电话就有可能拿得到,以及敏感的财务或医疗数据。

更重要的是,得把里头的什么个人隐私啊,或者带着歧视性的“歪理邪说”给剔除干净,免得你的“神功”练成了“歪门邪道”,惹人诟病。

LLM训练数据集的巨大规模(通常达到TB甚至PB级别)使得手动数据质量检查几乎不可能。这需要强大的自动化数据清洗系统,以防止错误和偏见在模型中传播,否则可能会损害其准确性和可靠性。

这个一步的目标是确保LLM从准确、相关且无偏见的信息中学习,从而产生更准确、公正和灵活的输出。

这一步,是筑基。

地基不牢,再高的楼也盖不起来。

数据就是大模型的“内力之源”,源头不净,迟早要出大问题。

第二步:“经脉重塑”——Transformer架构

有了“藏经阁”,接下来得给你的模型“重塑经脉”了。

它得有一套高效的运行机制,能把那些散乱的文字,变成能理解的、能生成的“内功真气”。

这套“经脉”,在现代大模型里,就叫Transformer架构

现代LLM的核心是Transformer架构,这是一种神经网络,旨在通过学习上下文和跟踪组件之间的关系,将输入序列转换为输出序列。

在此架构中,有三种主要变体:仅编码器(Encoder)、仅解码器(Decoder)和编码器-解码器(也称为序列到序列)模型。

仅编码器(Encoder)模型,

例如BERT,仅使用Transformer的编码器部分。它们的注意力层可以同时访问输入句子中的所有单词,提供“双向”注意力。这些模型擅长需要深入理解整个输入的任务,例如句子分类、命名实体识别和抽取式问答。

仅解码器(Decoder)模型,

以GPT系列为例,是“自回归”模型,仅根据前面的单词预测序列中的下一个单词。它们的注意力层是因果掩码的,这意味着它们只能“看到”已经生成或在序列中位于其左侧的标记。

编码器(Encoder)-解码器(Decoder)模型,

如BART和T5,结合了Transformer的两个部分。编码器双向处理输入序列,而解码器单向生成输出序列,仅关注先前的输出标记和编码器的输出。这些模型非常适合涉及将一个序列转换为另一个序列的任务,例如机器翻译或摘要。

仅解码器(Decoder)模型这种单向处理使其非常适合文本生成任务。

大多数现代LLM,包括广为人知的GPT模型,都采用这种仅解码器架构,因为它简单、可扩展,并且能够高效地在大量无监督数据上进行预训练。

这可是当今的“主流心法”,就像deepseek那样,专长就是“妙语连珠”,适合生成文本。

这种设计简化了训练过程,并避免了编码器-解码器模型中随着层数加深可能出现的信息瓶颈。

自注意力机制是Transformer架构的创新核心,它允许模型在处理每个单词时权衡序列中不同单词的重要性。

这是Transformer的“武学精髓”。

它能让模型在理解一个词的时候,眼睛不光盯着这一个词,而是能同时“看到”句子里的其他词,并且判断哪个词对这个词的理解最重要。

自注意力机制不是按严格顺序处理数据,而是使模型能够同时查看序列的不同部分,并确定哪些部分彼此最相关。

这对于理解上下文至关重要。

例如,

在句子“The animal didn’t cross the street because it was too tired”(动物没有过马路,因为它太累了)中,自注意力机制帮助模型理解“it”指的是“animal”而不是“street”。

这种机制通过直接从输入序列生成上下文感知向量来操作。

它可以使用涉及查询(Q)、键(K)和值(V)的数据库类比来概念化。

想象一下句子中的每个单词都是一个“查询”,试图找到相关的“键”(句子中的其他单词)。

注意力权重量化了每个键与查询的匹配程度。

一旦确定了这些匹配,就根据这些注意力分数对“值”(单词向量本身)进行加权并求和,为每个单词创建新的、富含上下文的表示。

这个过程允许模型动态地关注输入序列中与每个单词最相关的部分,显著增强了其理解单词上下文含义的能力。

同时计算所有单词的注意力进一步加快了处理速度,与旧的顺序方法相比。

语言的DNA:嵌入和位置编码

在任何文本被LLM处理之前,它必须被转换为算法可以理解的数字格式。这种转换发生在两个关键阶段:分词和嵌入,然后是位置编码。

分词(Tokenization)

分词是将文档或文本主体分解为称为“标记”(tokens)的更小单元的过程。

这些标记可以是单个单词、子词,甚至是字符,具体取决于所选择的方法。

对于LLM,通常使用子词分词方法,如字节对编码(BPE)、WordPiece和SentencePiece。

这些方法之所以受到青睐,是因为它们在词汇量和序列长度之间取得了平衡。

如果每个独特的单词都是一个标记,词汇量将非常庞大,使模型计算成本高昂。

如果每个字符都是一个标记,序列将非常长,使Transformer的固定上下文窗口更难捕获长距离依赖关系。

子词分词通过将罕见词分解为常见的子词单元(例如,“unhappiness”分解为“un”、“happi”、“ness”)来解决这个问题,从而使模型能够处理未见过的单词并提高泛化能力,同时保持词汇量可管理且序列长度合理。

然后,每个标记被分配一个唯一的整数ID。

输入嵌入(Input Embeddings)

输入嵌入将这些整数表示的标记转换为数学向量。

这些向量是高维数值表示,捕获输入的语义和句法含义。

想象一下,具有相似含义或语法角色的单词被映射到这个多维空间中彼此靠近的点。

这些向量属性在训练过程中学习,使模型能够以数学方式理解单词之间的关系。

位置编码(Positional Encoding)

因为Transformer架构由于其并行处理的性质,本身不按顺序处理序列数据。

没有位置编码,模型将丢失句子中单词顺序的信息。

位置编码为每个标记的嵌入添加独特的数值信号,指示其在序列中的位置。

这使得模型能够保留标记的顺序并理解序列上下文,这对于语言生成等任务至关重要,因为词序至关重要。

分词与嵌入: 把文章拆成一个个小“零件”(Token),然后给每个零件赋予一个数学上的“内力值”(向量)。

位置编码: 这就像给每个“零件”编号,告诉模型它们在句子里的相对位置。

不然,模型就不知道“我爱你”和“你爱我”有什么区别了。

架构这一步,是打通任督二脉。

光有数据,没有好的架构,就像有再多内力也使不出来。

第三步:内功修炼——“闭关苦修”的预训练

前面两步都到位了,接下来就是真刀真枪的“闭关苦修”了。

这可是最漫长、最烧钱、也最见真功夫的一步——预训练。

我们所说的大模型的训练,一般就是指的这一步。

预训练阶段是LLM教育的初始阶段,也是资源最密集阶段。

涉及将模型暴露于大量未标记的文本数据集,本质上是让它“阅读”大量的书籍、文章和网站。

在这个自监督学习过程中,模型处理数十亿个单词,学习基本模式、语法、语义和世界知识。

预训练有两个主要目标,具体取决于模型的架构:

因果语言建模(CLM):

主要由GPT等仅解码器模型使用,CLM训练模型在给定所有前置标记的情况下预测序列中的下一个标记。

这种单向方法模仿了人类自然生成语言的方式,使这些模型在文本生成任务中非常有效。

模型通过迭代预测下一个单词来提高生成连贯和相关响应的能力。

比如你给模型一句话“华山论剑,五绝……”它就得努力猜下一个字是不是“齐”或者“会”。

猜对了,内功就增一分。

掩码语言建模(MLM):

由BERT等仅编码器模型采用,MLM涉及掩盖输入序列中一定百分比的标记,并训练模型根据周围上下文预测这些被掩盖的标记。

这种方法提供了“双向”理解,允许模型在进行预测时考虑前置和后继单词。MLM对于需要深入上下文理解的任务特别有效,例如情感分析或信息检索。

就像给模型一道完形填空题,“郭靖[ ]了降龙十八掌”,让它猜是“学会”了还是“修炼”了。

在这两种情况下,模型的参数(权重)最初是随机的,并通过无数次迭代进行调整,以反映训练数据中的统计模式。

模型输出可能下一个标记的概率分布,并且“正确”的标记以自回归方式反馈到网络中,继续生成过程。

这种广泛的暴露使模型能够学习语言的工作原理,包括语法、语义和事实知识,而无需对每个数据片段进行显式的人工标注。

大型语言模型中的“大”直接指的是其预训练所需的数据和计算能力的巨大规模。

这些模型在由数万亿个单词组成的数据集上进行训练,这些数据通常来源于整个互联网。

训练LLM需要大量的钱和计算资源。

这主要源于对强大硬件的需求,特别是高端图形处理单元(GPU)或专用AI加速器,如张量处理单元(TPU),这些设备购置和运行成本高昂。

例如,虽然2017年原始Transformer模型的训练成本约为900美元。

但2020年训练GPT-3(1750亿参数)的计算成本估计在50万美元到460万美元之间。更

近期的模型将这些成本推得更高。

GPT-4的估计成本超过1亿美元。

谷歌的Gemini Ultra训练计算成本估计为1.91亿美元。

费用不仅仅是GPU本身,还包括CPU、内存、存储和分布式设置所需的高速网络等支持资源。

漫长的训练运行,通常持续数月,意味着这些成本会显著累积,尤其是在对大量数据集进行多次迭代的情况下。

这种在硬件和能源消耗方面的巨额投资,对于许多希望从头开始训练LLM的组织来说,是一个主要的进入壁垒。

这一步,可不是开玩笑的。

几万亿个字,几百万上千万美金的投入,几个月甚至更长时间的“闭关”,才能练出像样的“内功”。

那些高端的GPU、TPU,就是你的“练功房”,烧的电和钱,那都是实实在在的“香火钱”。

第四步:融会贯通——“招式精修”的微调与对齐

经过预训练,你的大模型已经有了深厚的内力,

就像一个武林新秀,虽然功力不凡,但尚未精通某项具体绝技。

此时,就需要进行微调,让它在特定任务上“招式精修”,甚至通过“高人指点”让其行为更符合预期。

微调涉及获取一个预训练的LLM,并在一个更小、更专业的数据集上对其进行进一步训练,以使其能力适应特定目标。

可以将其视为将广泛的技能提炼为特定主题的专业知识。

例如,一个通用LLM可能会生成通用的法律条款。通过在法律文件、案例研究和法规数据集上进行微调,该模型在起草法律特有的法律准确文件方面会显著提高。

此过程调整模型的预训练权重,使其能够“内化”新的、特定于任务的信息和模式。

当使用规模证明前期训练成本合理时,微调是理想的选择,因为它将所需信息直接编码到模型中,确保一致且高效的响应,而无需在推理过程中进行外部检索。

那么怎么进行微调?

监督微调(SFT)与人类反馈强化学习(RLHF)

1:名师指点,精进招式(监督微调SFT):

这是一种直接训练方法,其中预训练模型在由人类专家整理的高质量、标记数据集(包含输入-输出对)上进行进一步训练。

就像得到高人指点,针对某个特定武功招式进行集中训练。

比如,你想让模型擅长写诗,就用大量的诗歌作为“训练教材”,让模型学会作诗的韵律和意境。

这是一种直接且高效的训练方法。

它通常比其他方法更简单,计算成本更低,并且由于直接在标记数据上进行训练,因此更稳定。在高质量数据的情况下,SFT在某些场景下可以实现与更复杂方法相当甚至更优的结果,使其成为一个直接且高效的选择。

2:高手过招,迭代提升(人类反馈强化学习RLHF):

这是一种更复杂、迭代的方法,在训练过程中将人类反馈作为奖励信号。

该过程通常从初始SFT阶段开始,为模型提供一个坚实的起点。

RLHF是一种更高级的“修炼”方式,就像张三丰指导张无忌,通过不断的实战和纠正来完善武功。

首先,人类专家对模型的输出进行评估和排名。

然后,利用这些人类反馈训练一个“奖励模型”,它能判断模型的输出好坏

最后,模型根据“奖励模型”的反馈,不断调整自身行为,使其生成的内容更符合人类的偏好——有用、诚实且无害。

微调是让大模型从“通才”变为“专才”的关键。它让模型的通用能力落地生根,解决具体的实际问题。

RLHF更是赋予模型“人性”,使其输出更符合人类的价值观和偏好。

第五步:华山论剑——“武功考核”的评估与基准测试

“绝世神功”练成后,最终要通过“华山论剑”来检验。

大模型也是如此,需要通过各种评估与基准测试来衡量其“武功”高低。

LLM如何被评判

评估大型语言模型的性能对于理解其能力和指导其发展至关重要。

这主要通过LLM基准测试来完成

基准测试一系列技能,包括语言理解、问答、数学问题解决和编码任务。

示例包括HellaSwag、BigBench、TruthfulQA和用于编码的HumanEval。模型通过不同的方法引入这些基准测试:

1:零样本学习:

LLM在没有任何先验示例的情况下被提示完成任务,揭示其理解新概念和适应新场景的能力。

在不给任何例子的情况下,模型能解决新问题,考验其“顿悟”能力。

2:少样本学习:

LLM在被提示之前提供少量相关的训练示例,给出少量例子,模型就能迅速掌握,考验其“触类旁通”能力。

3:微调:

模型已在与基准测试使用的数据集相似的数据集上进行了专门训练,旨在优化其在该特定任务上的性能。

测试完成后,基准测试会计算模型输出与预期解决方案或“真实”答案的相似程度,生成一个分数,通常在0到100之间。

常用指标包括准确率(正确预测的百分比)、召回率(真阳性数量)和F1分数(结合两者)。对于翻译或问答等任务,“精确匹配”是一个有价值的标准。

评估并非万能。

我们需要警惕:

数据污染:

就像考前泄题,如果模型在训练时就接触过考题,成绩会虚高。

模型可能已经在它们后来被测试的数据上进行了训练。这种重叠可能会人为地夸大性能指标,从而难以衡量模型的真实泛化能力。

偏见与幻觉:

模型可能会像走火入魔般产生虚假信息或带有偏见的输出,需要持续关注和修正。

评估不是考试,

考完就结束了。

评估是不断完善模型的重要环节。它帮助我们发现模型的长处和短板,指导我们如何进一步“精进武功”,使其变得更强大、更可靠。

结语:你的“大模型之路”才刚刚开始

从零开始训练大型语言模型是一项艰巨的任务,

需要巨大的计算资源、海量且精心策划的数据集以及深厚的技术专业知识。

此过程中固有的挑战,谁也没有办法绕过。

但是有一种捷径。

就是利用别人开源预训练的结果进行微调。

但是开源有开源的规则,要标注好引用。

但是,

和从零开始打造出属于自己的大模型相比,那种成就感将是无与伦比的。

预训练大模型这一步,是练就童子功。

预训练的童子功不是用来打架的。

但没有童子功,后面的精妙招式都是空中楼阁。

普通人如何抓住AI大模型的风口?

为什么要学习大模型?

在DeepSeek大模型热潮带动下,“人工智能+”赋能各产业升级提速。随着人工智能技术加速渗透产业,AI人才争夺战正进入白热化阶段。如今近**60%的高科技企业已将AI人才纳入核心招聘目标,**其创新驱动发展的特性决定了对AI人才的刚性需求,远超金融(40.1%)和专业服务业(26.7%)。餐饮/酒店/旅游业核心岗位以人工服务为主,多数企业更倾向于维持现有服务模式,对AI人才吸纳能力相对有限。

在这里插入图片描述

这些数字背后,是产业对AI能力的迫切渴求:互联网企业用大模型优化推荐算法,制造业靠AI提升生产效率,医疗行业借助大模型辅助诊断……而餐饮、酒店等以人工服务为核心的领域,因业务特性更依赖线下体验,对AI人才的吸纳能力相对有限。显然,AI技能已成为职场“加分项”乃至“必需品”,越早掌握,越能占据职业竞争的主动权

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

img

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

如果你真的想学习大模型,请不要去网上找那些零零碎碎的教程,真的很难学懂!你可以根据我这个学习路线和系统资料,制定一套学习计划,只要你肯花时间沉下心去学习,它们一定能帮到你!

大模型全套学习资料领取

这里我整理了一份AI大模型入门到进阶全套学习包,包含学习路线+实战案例+视频+书籍PDF+面试题+DeepSeek部署包和技巧,需要的小伙伴文在下方免费领取哦,真诚无偿分享!!!

vx扫描下方二维码即可

在这里插入图片描述

部分资料展示

一、 AI大模型学习路线图

这份路线图以“阶段性目标+重点突破方向”为核心,从基础认知(AI大模型核心概念)到技能进阶(模型应用开发),再到实战落地(行业解决方案),每一步都标注了学习周期和核心资源,帮你清晰规划成长路径。

img

二、 全套AI大模型应用开发视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

三、 大模型学习书籍&文档

收录《从零做大模型》《动手做AI Agent》等经典著作,搭配阿里云、腾讯云官方技术白皮书,帮你夯实理论基础。

在这里插入图片描述

四、大模型大厂面试真题

整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题,涵盖基础理论、技术实操、项目经验等维度,每道题都配有详细解析和答题思路,帮你针对性提升面试竞争力。

在这里插入图片描述

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值