FineTuning
文章平均质量分 91
Psycho_MrZhang
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
迁移学习(基础)
根据实际经验, 自定义为微调网络参数总数应当大于0.5倍的训练数据量, 小于10倍的训练数据量, 这样有助于模型在合理的时间范围内收敛, 如果是分类任务样本数量应当保持在1:1"""自定义微调网络"""""":param char_size: 输入句子中的字符数量, 输入句子规范后的长度128:param embedding_size: 字嵌入的维度, 因为使用的bert中文模型嵌入维度是768, 因此这里也使用768"""# 因为是一个2分类, 所以输出为2。原创 2025-04-25 14:52:05 · 1109 阅读 · 0 评论 -
FineTuning介绍
将通用大模型转化为专业大模型:"普通医生"代表通用模型,"皮肤科/心脏病专家"代表专业模型,后者能深入解决特定领域问题。在短提示词和长文本之间找到平衡具有挑战性,微调是调整大语言模型输出语气的有效方式。原创 2025-04-08 17:44:32 · 1003 阅读 · 0 评论
分享