- 博客(3)
- 资源 (7)
- 收藏
- 关注
原创 大模型微调Parameter-Efficient Transfer Learning for NLP论文浅析
论文提出了一种基于适配器模块(Adapter Modules)的迁移学习方案,将模块应用于26个不同的文本分类任务,包括GLUE基准测试。实验结果表明,使用适配器的方法接近最先进的性能水平,同时每个任务只增加了3.6%的参数,相比之下,全量微调需要调整100%的参数。
2024-07-19 23:09:56
508
原创 论文《AdaLoRA: Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning》浅析
AdaLoRA方法有效地解决了现有参数高效微调方法在预算分配上的不足,提高了在资源有限情况下的模型性能,为NLP领域的实际应用提供了新的思路和技术支持。性能表现:AdaLoRA在低预算设置下表现尤为突出,如使用不到0.1%的全参数微调的可训练参数,在SQuAD2.0数据集上实现1.2%的F1提升。优势:相比传统的SVD方法,AdaLoRA避免了昂贵的SVD计算,同时保留了重要信息的恢复能力。贡献:提出了一种新的自适应预算分配方法,提高了参数高效微调的性能,特别是在资源受限的场景下。
2024-07-18 23:24:01
805
原创 自然语言模型-论文Class-based n-gram models of natural language简单解析
自然语言处理内容之n元语法模型。当前深受关注的AI大模型微调基础论文。
2024-07-17 22:52:47
547
AdaLoRA Adaptive xxx for Parameter-Efficient Fine-Tuning论文
2024-07-18
INA193电流检测芯片手册
2017-10-17
高速USB芯片CY7C68013A手册
2017-10-17
PISI 电源完整性-芯片电源design&simulation
2024-07-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅