书生大模型实战营第4期 基础岛 第1关 L1G1000 书生大模型全链路开源体系

书生大模型全链路开源体系

观看「本关卡视频」和「官网」、[GitHub」 写一篇关于书生大模型全链路开源开放体系的笔记

视频:https://www.bilibili.com/video/BV1CkSUYGE1v/
官网:https://internlm.intern-ai.org.cn/
github:https://github.com/internLM/

书生大模型全链路开源体系是由上海人工智能实验室推出的,旨在为开发者和研究者提供一套完整的、开源的、高效的大模型构建和应用工具。
它将降低大模型应用的门槛,加速大模型技术的普及和应用,推动人工智能技术的发展和创新。通过提供完整的、开源的工具和框架,为广大开发者和研究者提供了一个强大的平台,支持他们在人工智能领域开展创新和研究。

大模型

书生-浦语 开源版本

  • InternLM 如 https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm-chat-7b
  • InternLM2 如 https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-chat-7b
  • InternLM2.5 如 https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

灵笔(多模态理解、内容生成)

  • InternLM-XComposer
    如 https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm-xcomposer2d5-7b
    https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm-xcomposer2-vl-7b

数学

  • InternLM-Math
    如 https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-math-20b

文曲星(高考题目)

  • InternLM-WQX
    https://modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-wqx-20b

数据

书生-万卷
https://github.com/opendatalab/WanJuan1.0

预训练

InternEvo 轻量级训练框架
https://github.com/InternLM/InternEvo

微调

Xtuner
https://github.com/InternLM/xtuner

部署

LMDeploy
https://github.com/InternLM/lmdeploy

评估

OpenCompass 大模型标准测试工具
https://github.com/open-compass/opencompass

应用

  • MindSearch (AI 搜索引擎框架)https://github.com/InternLM/MindSearch
  • LabelLLM (数据标注平台)https://github.com/opendatalab/LabelLLM
  • LabelU (数据标注)https://github.com/opendatalab/labelU
  • LAgent (智能体)https://github.com/InternLM/lagent
  • MinerU (PDF解析)https://github.com/opendatalab/MinerU
  • Huixiangdou (基于 LLM 的专业知识助手)https://github.com/InternLM/HuixiangDou
### 书生大模型 L1G1000 技术文档概述 书生大模型全链路开源体系提供了详尽的技术文档,涵盖了从基础架构搭建到具体应用场景实现的各个方面[^3]。该体系由上海人工智能实验室开发,旨在为用户提供全面的支持。 #### 主要组成部分 - **数据处理工具**:提供了一系列高效的数据预处理方法和技术,确保输入数据的质量和一致性。 - **技术栈**:包括但不限于自然语言处理(NLP),计算机视觉(CV)等领域所需的各种算法库和支持框架[^2]。 - **应用实例** - **MINSEARCH**: 基于AI驱动的搜索引擎解决方案,利用先进的检索技术和机器学习优化搜索体验。 - **RAG (Retrieval-Augmented Generation)**: 将传统的信息检索系统与现代的语言生成能力相结合,实现了更精准的内容理解和表达转换服务。 - **LabelLLM Project**: 提供了一套完整的自动化标签生成流程,极大地方便了NLP任务中的数据标注工作。 - **OpenCompass Platform**: 构建了一个公开透明的大规模评测环境,有助于推动整个行业的健康发展并提高模型评估的标准性。 ```python # 示例代码片段展示如何加载预训练好的BookSheng模型进行推理预测 from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("shanghaiai/booksheng-l1g1000") model = AutoModelForCausalLM.from_pretrained("shanghaiai/booksheng-l1g1000") input_text = "你好世界" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 此段Python脚本展示了通过Hugging Face Transformers库快速上手使用书生大模型的方法之一。只需几行简单的命令即可完成对给定文本序列的编码解码操作,并获得相应的输出结果。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值