[书生·浦语] 大模型全链路开源体系

介绍书生浦语

大模型的发展背景

大模型已成为发展通用人工智能的重要途径。从本世纪初至2021-2022年,研究主要集中在专用模型上,针对特定任务采用特定模型。然而,近两年趋势转向发展通用大模型,即一个模型应对多种任务和模态。
在这里插入图片描述

书生浦语大模型的特点

书生浦语大模型是一个全链条的开源体系,支持长达20万汉字的输入,是全球大模型产品中支持的最长上下文输入长度。模型具备超长上下文能力、推理数学代码能力、对话和创作体验,以及工具调用能力。

开源历程

书生浦语大模型自发布以来,经历了快速迭代。包括升级千亿参数大模型、支持8K语境、推出全免费商用的7B开源模型和全链条工具体系、发布多模态预训练语料库、升级对话模型等。
在这里插入图片描述

回归语言建模的本质

在这里插入图片描述

书生浦语2.0的主要亮点

书生浦语的20B小参数模型在部分场景下达到接近或超越GPT-3.5的水平,换言之达到其他开源模型70B的效果,能有效减少调用成本。
在这里插入图片描述
在这里插入图片描述

从模型到应用

在这里插入图片描述

全链路开放体系

为了简化从模型到应用的过程,开发了全链条的工具体系并开源。这包括数据集、预训练框架、微调框架、部署解决方案、评测体系和智能体框架等。这些工具支持从数据准备、模型训练、微调、部署到评测的整个过程,旨在帮助开发者和研究者更容易地使用和开发大模型应用。
在这里插入图片描述

数据集(书生万卷)

在这里插入图片描述

预训练框架InternLM-Train

在这里插入图片描述

高效微调框架XTuner

在这里插入图片描述

部署平台 LMDeploy

在这里插入图片描述

智能体框架:Lagent

在这里插入图片描述

多模态智能体工具箱AgentLego

在这里插入图片描述

InternLM2大型语言模型技术报告概览

链接: arxiv.org/pdf/2403.17297.pdf

摘要

随着ChatGPT和GPT-4等大型语言模型(LLMs)的演进,对通用人工智能(AGI)的到来展开了热烈讨论。然而,在开源领域复制这些进步面临挑战。本报告介绍了InternLM2,这是一款开源LLM,通过创新的预训练和优化技术,在六个维度和三十个基准测试中超越了其前辈,尤其在长上下文建模和开放式主观评估方面表现出色。InternLM2在超过2万亿字节的高质量预训练语料上进行了训练,涵盖18亿、70亿和200亿参数规模的模型,适应多种应用场景。为了更好地支持长上下文,模型采用了GQA方法降低推理成本,并针对最长32K的上下文进行了额外训练。除模型本身开源外,还提供了训练过程各阶段的检查点,便于未来研究。

技术细节

数据处理与预训练

数据来源:覆盖文本、代码、长文本数据类型,以及对齐数据,确保多样性。
代码数据:基于学习分类器的质量分级,高质量数据多次训练,中等质量一次,低质量数据剔除。对于资源稀缺的编程语言数据则保留不统计在内。
数据去重:考虑到代码的特殊性,如Python中缩进的不同表示,采用了考虑上下文完整性的文件级去重策略,尽管细粒度去重技术已有所进展。
质量过滤:采用混合过滤流程,包含规则和模型基础评分器。发现代码风格不是可靠的指标,因此依赖模型评分,通过约5万条标注样本训练多个基线模型,但注意到不同语言下评分与人工判断的相关性差异。

训练框架与技术创新

长上下文处理:引入GQA方法减少长上下文模型的推理成本,有效应对大规模数据处理。
条件在线RLHF:为解决强化学习过程中偏好冲突问题,提出条件在线RLHF算法,实现偏好和谐。

开源与贡献

模型开源:不仅模型代码开源,还包括详细的训练流程说明,如训练框架、数据准备、预训练策略等,为构建更高效的大模型提供宝贵经验。
数据格式化:详细介绍了以网页数据为例的数据处理流程,从原始数据抽取到最终格式化存储的每一步骤。
重复数据处理:利用局部敏感哈希(LSH)与MinHash方法进行文本去重,确保数据集的新颖性和质量。

结论

InternLM2的发布,不仅代表了开源社区在大型语言模型领域的重大突破,也为研究者和开发者提供了一个高性能、多用途的工具箱,推动了自然语言处理技术的发展。通过对高质量多样数据的精心准备、创新的预训练策略及有效的数据管理,InternLM2在多个维度展现了卓越性能,为迈向通用人工智能的道路提供了坚实的基础。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值