书生第四期速通 - L1 全链路大模型

前情提要

RAG
感觉这一节都是讲述的一些历史,以及介绍优势

InternLM

有关开源

在这里插入图片描述

  1. InternLM在开源开放方面始终保持前列
  2. 性能保持前列,在较小的参数达到了较好的效果
  3. 依托于上海AILab的研究成果

LM2.5

  1. 推理性能的优化
  2. 10MB级别的上下文
  3. 自主规划于搜索完成复杂任务的模型

迭代方式

  1. 根据数据进行迭代
    1. 高质量的合成数据
      1. 基于规则的数据构造
        例如: 代码,公式,函数,数学题解
      2. 基于模型的数据扩充
        对模型进行直接的数据扩充
      3. 基于人类反馈的数据生成
        例如更为详细的Prompt数据生成

对长上下文问题解决能力的校验

“大海捞针”:对长文本中信息检索是否准确
更长上下文: 10m级别的有效上下文记忆

开源模型规模

一般来讲,将模型依照参数数量分划为四种不同的规模

  1. 1.8B 超轻量级的端侧应用模型
  2. 7B 轻量级应用模型的强力支持
  3. 20B 综合能力较强的模型规模
  4. 102B 性能强大的闭源模型

开源生态

  1. 广泛的平台支持,开源模型
  2. 开源的数据集
  3. 开源的框架
  4. 开源的微调对齐算法
  5. 开源的推理部署框架
  6. 开源的评价体系
  7. 开源的工具架构

数据管理

MINORU, LABELLM,OPENCOMPASS

模型架构

INTURNUvil, INTRUNComposer, INTRUNMath

模型微调

Xtuner

应用实践

  1. RAG
  2. MINSERARCH: AI驱动的搜索引擎
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值