
大模型相关基础
文章平均质量分 94
lucky_Bill
喜欢探索 AI 领域的菜鸡NLPer
展开
-
大模型相关知识-Transformers里面的Autoxxx函数
Hugging Face 的 Auto 系列通过动态适配机制,显著简化了模型加载流程,支持跨架构、跨任务的灵活切换。同一代码适配不同模型。通过 AutoModelForXXX 快速加载任务头。减少硬编码依赖,提升可维护性。对于需要快速实验或多模型支持的项目,Auto 类是首选;而在对性能或透明度要求极高的场景中,可结合显式类使用。原创 2025-02-19 22:40:01 · 735 阅读 · 0 评论 -
大模型相关基础知识-简易理解版-预训练模型微调
如果使用的不是BERT模型,而是其他类型的模型(例如RoBERTa、DistilBERT、XLNet等),微调的基本步骤和思路是相似的。通过交叉验证和早停策略选择最佳模型。DistilBERT是BERT的一个轻量级版本,具有更少的参数,但仍保留了较好的性能。通过以上步骤,可以有效地对下游任务的数据集进行预处理,从而提高模型的性能和泛化能力。:适用于源域和目标域样本高度相似的情况,或者需要充分利用预训练模型的通用特征的任务。RoBERTa是BERT的一个改进版本,训练时使用了更多的数据和不同的训练策略。原创 2025-02-18 09:15:09 · 1951 阅读 · 0 评论