课程链接:InternLM/Tutorial at camp2 (github.com)
课程录播链接:InternLM/Tutorial at camp2 (github.com)
1.书生浦语模型家族

2.从基座模型到大模型应用的过程
根据自身业务场景结合自身算力,选择合适参数规模的基座模型与微调方法,例如在jetson Nano上部署时,由于显存只有4GB,可选择1.8B模型作为基座模型。
3.书生浦语开发工具集
提供数据集->预训练->微调->部署->评测->应用全套工具。
3.1书生万卷
3.2InternLM-Train:
只需修改配置文件,即可实现不同模型、不同数据集下的训练。
3.3XTuner
内置Lora、QLora等多种微调算法.
3.4LMDeply
支持高效部署,内置INT4、INT8量化实现。
3.5OpenCompass
提供非常全面的评测体系。被Meta推荐。
3.6Lagent
智能体构建工具包,构建智能体查询外部资料如网站、文档等,提高模型回答准确性与可靠性。同时支持图像、文字、语音等多种模态。