
大模型
文章平均质量分 76
爪哇 o_O
这个作者很懒,什么都没留下…
展开
-
LoRA中值得注意的微调细节
究竟LoRA怎么用到大模型训练上。首先要有几点认识1、 理论上LoRA可以用到不同类型神经网络的权重矩阵,减少可训练的参数量2、 不同的大语言模型基于Transformer的不同改版,Transformer结构主要self attention层(W_q,W_k,W_v,W_o)和MLP层。原创 2023-09-24 11:04:36 · 6643 阅读 · 1 评论 -
大模型微调技术——Prefix Tuning 与 Prompt Tuning总结
四大模块,40个知识点,快速阅览Prefix Tuning 与 Prompt Tuning 技术建议补完Prefix Tuning 与 Prompt Tuning 技术基础,再去回顾P-Tuning及P-Tuning v2技术,能更好理解这四项技术之间的联系与区别。原创 2023-07-26 14:04:15 · 3111 阅读 · 1 评论 -
大模型微调技术——P-Tuning及P-Tuning v2总结
从五大模块总结P-Tuning及P-Tuning v2 微调技术,近200个小知识点。【技术回顾】、【P-Tuning技术原理】、【P-Tuning与超大规模模型微调关系】、【P-Tuning价值】、【P-Tuning v2】大模型微调技术系列原理:[大模型微调技术——概述](https://blog.youkuaiyun.com/qq_41838627/article/details/132327479)[大模型微调技术——LoRA](https://blog.youkuaiyun.com/qq_41838627/artic原创 2023-07-26 13:51:11 · 8076 阅读 · 9 评论