
大语言模型GPT
文章平均质量分 77
shuoyes123
这个作者很懒,什么都没留下…
展开
-
PEFT介绍及其源码解析
PEFT(Parameter-Efficient Fine-Tuning,参数高效微调)是由 Hugging Face 开源的一个高效微调库,旨在通过少量可训练参数实现对大型预训练模型的快速适应,从而显著降低计算和存储成本。核心功能与优势多种高效微调方法:通过引入低秩矩阵来微调模型权重,仅需训练少量参数即可达到与全参数微调相当的性能。:通过优化输入提示(prompt)来调整模型,不改变模型权重,适应性强。:通过优化连续提示来微调模型,适用于零样本和少样本学习。BitFit。原创 2025-02-26 12:10:28 · 878 阅读 · 0 评论 -
DPO算法介绍及其缺陷
DPO算法的理由分析和缺陷介绍转载 2024-12-09 21:55:40 · 519 阅读 · 0 评论 -
【提示学习简介及其分类】
在深度学习领域,预训练语言模型通过在大量文本数据上进行训练,获得了卓越的表征能力和内蕴知识。这些模型通常通过掩码语言建模(如BERT的MLM)和下句预测等预训练任务来提升其性能。为了在下游任务中充分利用这些模型的潜力,提示学习(Prompt Learning)应运而生。原创 2024-03-22 22:45:11 · 346 阅读 · 0 评论