大模型这套先用大量数据预训练(采用无标注数据进行无监督训练),再在遇到任务时,使用任务包含的内容模型进行微调,去除掉与任务无关的知识,留下与任务相关的知识,然后再生成结果。这样效果往往很好。
这样的原理其实就是迁移学习,很像我们人类在学习了很多知识之后,遇到问题,会想起跟这个问题相关的知识,然后依据这些知识去解决问题
大模型这套先用大量数据预训练(采用无标注数据进行无监督训练),再在遇到任务时,使用任务包含的内容模型进行微调,去除掉与任务无关的知识,留下与任务相关的知识,然后再生成结果。这样效果往往很好。
这样的原理其实就是迁移学习,很像我们人类在学习了很多知识之后,遇到问题,会想起跟这个问题相关的知识,然后依据这些知识去解决问题
您可能感兴趣的与本文相关的镜像
Llama Factory
LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调
7223
1834
790
955
730

被折叠的 条评论
为什么被折叠?