基础岛 第1关 书生大模型全链路开源体系
专用模型:针对于特定任务、一个模型解决一个任务
通用大模型:一个模型应对多种任务,多种模态,大模型的本质是在做语言建模,通过给定的context,预测下一个token。实现好的训练效果的关键是有高质量的语料
InternLM2的体系
无论是7B模型,还是20B模型,都由三部分组成:基座模型base;在基座模型基础上,经过SFT(Supervised fine-tuning)和RLHF(Reinforcement Learning from Human Feedback),为对话交互进行优化的Chat模型;对base模型的多个能力进行强化的模型InternLM2
全链条开源体系
包括数据、预训练、微调、部署、评测、应用。
1. 数据
多模态数据集:书生万卷
2. 预训练
预训练平台:InternEvo
3. 微调
微调工具:XTuner
在大模型的下游应用中,增量续训和有监督微调是常用的两种方式。
增量续训
使用场景:让基座模型学到一些新知识,如某个垂直领域的知识
训练数据:文章、书籍、代码等
有监督微调:
使用场景:让模型学会理解指令进行对话,或者注入少量的领域知识
训练数据:高质量的对话和问答数据
包括:全量参数微调,部分参数微调
4. 部署
工具:LMDeploy
5. 评测
工具:OpenCompass
6. 应用
支持多种智能体、支持代码解释器