书生·浦语大模型全链路开源体系-第1关

书生·浦语大模型全链路开源体系解读

书生·浦语大模型全链路开源体系-第1关

为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。
本文是书生·浦语大模型全链路开源体系-开源开放体系课程的笔记。

相关资源

  • InternLM项目地址

https://github.com/InternLM/InternLM

  • InternLM2技术报告

https://arxiv.org/pdf/2403.17297.pdf

  • 书生·万卷 数据

https://opendatalab.org.cn/

  • 课程链接

https://space.bilibili.com/1293512903/channel/collectiondetail?sid=4017857

课程笔记

大模型已经成为发展通用人工智能的重要途经,从本世纪初到2021年左右,专用模型发展迅速。专用模型主要是针对特定的任务,一个模型主要解决一个问题,比如图像识别、语音识别、人脸识别、比赛等。

最近两年,通用大模型成为了人工智能领域的热点。通用大模型可以应对多种任务、多种模态。

2023年7月,基于千亿参数的大语言模型InternLM发布,随后全面开源、免费商用。在经过一年的快速迭代与发展,2024年7月InternLM 2.5开源了。

image-20241120084628372

书生·浦语,面向不同的使用需求,提供了不同规格的版本。轻量级的研究和应用可以使用70亿参数的7B版本,200亿参数的20B则综合性能更为强劲,可以有效地支持更加复杂的场景。

image-20241120084731843

书生·浦语 2.5 的主要亮点:推理能力领先、支持百万上下文、自主规划和搜索完成复杂任务。

image-20241120084821997

书生·浦语 2.5 广泛使用模型参与自身迭代,加速模型能力提升,并且融合了多种高质量的数据方案,提升合成的数据质量。

image-20241120084924602

image-20241120084959523

书生·浦语 2.5 具有领先的推理能力,比上一代模型有了大幅的提升,并且领先于同量级的开源模型。

image-20241120085159762

书生·浦语 2.5 在大海捞针实验中,对于不同文本长度的数据,表现都比较突出。

image-20241120085238687

书生·浦语 2.5 可以实现像人类一样的思考方式,来搜索解决复杂的问题。

image-20241120085533778

image-20241120085615252

以下是书生·浦语开源体系的简单介绍。

image-20241120085654934

image-20241120085732778

image-20241120090203153

image-20241120090238365

image-20241120090353914

书生·浦语 2.5 从模型到应用拥有一套典型的流程。简单场景下可以直接使用预训练的模型,复杂业务场景下可以根据算力情况对模型进行全参数微调或部分参数微调以满足场景需求。高效微调框架XTuner可以让我们的微调变得更简单高效。

image-20241120090430033

image-20241120090612354

image-20241120091047501

image-20241120091122893

技术报告笔记

InternLM 2.5 是由上海人工智能实验室开源大语言模型,在多个维度和基准测试中表现出色,特别是在长文本建模和开放式主观评估方面。模型采用了创新的预训练优化技术以提高性能。

### 书生·浦语大模型 书生·浦语是由上海人工智能实验室推出的大规模预训练语言模型,其设计目标是在多个自然语言处理任务上表现出卓越性能的同时保持高效性和易用性[^1]。该模型不仅支持多种应用场景下的开箱即用功能,还提供了灵活的微调能力以适应特定需求。 #### 模型使用方法 为了使用书生·浦语大模型,可以通过指定 `local_llm_path` 参数加载本地已有的模型文件或者通过提供 Hugging Face 平台上的模型名称来自动下载并加载远程模型。例如可以使用的模型名有 `"internlm/internlm2-chat-7b"` 或者 `"internlm/internlm2-chat-20b"` 等。此外,在实际部署前需确保设置合理的参数如 `local_llm_max_text_length` 来控制输入的最大长度以便优化运行效率和效果。 对于初次使用者来说,准备环境的第一步可能涉及创建目录结构以及复制预先获取到的模型仓库至相应位置的操作命令如下所示: ```bash mkdir -p /root/model/Shanghai_AI_Laboratory && \ cp -r /root/share/temp/model_repos/internlm-chat-7b /root/model/Shanghai_AI_Laboratory/ ``` 上述脚本片段展示了如何构建存储路径并将 internlm-chat-7b 版本的具体实现迁移过去的过程[^2]。 #### 微调与扩展支持 值得一提的是,除了基础的服务外,书生·浦语也兼容其他主流框架内的调整流程和技术方案,比如但不限于 InternLM, Llama, Qwen (通义千问), BaiChuan 及 ChatGLM 这些知名系列的产品线均被纳入考虑范围之内;并且能够很好地融入像 HuggingFace 和 ModelScope 那样的开放生态系统之中去寻找更多可能性[^3]。 另外值得注意的一点在于围绕着这些先进工具所建立起来的标准评估机制同样值得称赞——它由国内权威机构主导制定而成,并得到了国际巨头 Meta 的正式背书成为唯一推荐给用户的本土化考核标准之一,涵盖了上百套测试集合总计五十多万道试题用于全面衡量各项指标表现情况[^4]。 ### 提供的相资源链接 虽然这里无法直接给出具体的文档地址或安装包下载连接,但是可以根据前面提到的信息自行前往官方网站查询最新版本资料详情页面获取进一步指导说明材料。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wux_labs

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值