书生浦语大模型已经进行了全链路打通,包括:
数据收集整理、数据标注、模型训练、微调参数、模型评测再到基于模型AI应用部署都进行了方案实现并开源。
发展历程:
[2024.08.01] 发布了 InternLM2.5-1.8B、InternLM2.5-1.8B-Chat、InternLM2.5-20B 和 InternLM2.5-20B-Chat。可以在下方的 模型库 进行下载,或者在 model cards 中了解更多细节。
[2024.07.19] 发布了 1.8B、7B 和 20B 大小的 InternLM2-Reward 系列奖励模型。可以在下方的 模型库 进行下载,或者在 model cards 中了解更多细节。
[2024.06.30] 发布了 InternLM2.5-7B、InternLM2.5-7B-Chat 和 InternLM2.5-7B-Chat-1M。可以在下方的