
Tuning
文章平均质量分 79
花千树-010
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Adapter-Tuning:高效适配预训练模型的新任务
相比 Fine-Tuning,Adapter-Tuning 计算资源消耗更低,并且存储占用小,是预训练模型调优的一个理想选择。Adapter-Tuning 通过在 Transformer 层中插入可训练的 “Adapter” 模块,而不改变原始预训练模型的参数。Adapter-Tuning 作为一种高效的模型调优方法,允许我们在预训练模型的基础上,通过引入轻量级 “Adapter” 层来进行任务特定的学习。本文介绍 Adapter-Tuning 技术,并通过一个意图识别任务的代码示例展示其应用。原创 2025-03-05 14:00:00 · 2194 阅读 · 0 评论 -
P-Tuning:高效利用预训练模型的轻量级调优方法
这些 Prompt Token 是可训练的参数,类似于传统 Fine-Tuning 过程中的权重更新,但它们仅作用于输入层,避免了对整个预训练模型进行参数调整。P-Tuning(Prefix-Tuning 或 Prompt-Tuning)是一种更高效的微调方法,它通过在输入前添加一组可训练的 “Prompt Embeddings” 来调整模型的行为,而无需修改预训练模型的权重。随着预训练语言模型(PLM)在自然语言处理(NLP)任务中的广泛应用,Fine-Tuning 仍然是最常用的微调方法。原创 2025-03-05 09:00:00 · 456 阅读 · 0 评论 -
Prompt-Tuning:让预训练模型更高效地适配任务
随着预训练语言模型(如 BERT、GPT、T5)的发展,Fine-Tuning 已成为 NLP 任务中的常见方法。Prompt-Tuning 作为一种轻量级替代方案,通过添加任务相关的提示(Prompt)来调整模型的行为,极大减少了参数更新的需求,同时提升任务适配性。Prompt-Tuning 是一种高效的 NLP 任务适配方法,能够在不改变大量模型参数的情况下,引导预训练模型完成特定任务。Prompt-Tuning 的核心思想是利用 “提示模板” 来引导预训练模型的输出,而不直接修改模型权重。原创 2025-03-04 15:40:00 · 947 阅读 · 0 评论 -
Fine-Tuning:从零开始训练文本润色模型
在自然语言处理(NLP)任务中,文本润色(text polishing)是一项重要的应用,例如帮助用户提升写作质量、改善语法或增强表达清晰度。T5(Text-to-Text Transfer Transformer)模型以其强大的泛化能力和灵活的文本转换特性,成为 Fine-Tuning 任务的理想选择。本文将通过一个简单的示例,介绍如何对 T5 模型进行 Fine-Tuning,使其具备自动文本润色能力。在 T5 中,所有任务都需要一个前缀,例如“polish:”,用于指示任务类型。原创 2025-03-04 08:00:00 · 359 阅读 · 0 评论 -
微调训练方法概述:Fine-tuning、Prompt-tuning、P-tuning 及其他高效技术
在深度学习和自然语言处理的应用中,微调是一个至关重要的步骤。通过选择合适的微调方法,我们可以更高效、更精确地将预训练模型应用到特定任务中。不同的微调技术各有其优势和应用场景,选择适合自己任务的微调策略,将大大提升模型的性能与效率。原创 2025-02-28 15:09:39 · 1093 阅读 · 0 评论