- 博客(5)
- 收藏
- 关注
原创 第3节 茴香豆:搭建你的 RAG 智能助理 作业
1 环境配置 1.1 创建开发机并配置conda环境 1.2 下载基础文件和茴香豆 2 使用茴香豆搭建 RAG 助手 2.1 修改配置文件 2.2 创建知识库 2.3 运行茴香豆知识助手
2024-04-14 22:03:42
260
1
原创 第3节 茴香豆:搭建你的 RAG 智能助理
原始的InternLM2-Chat-7B无法回答茴香豆是什么,而针对这种新增知识的情况,想要没有训练过程实现垂直领域的LLM助手,就用到了RAG技术。利用检索和生成技术,通过外部知识库来增强LLM的性能。组成部分:知识库、前端、大模型、茴香豆。
2024-04-09 12:14:04
812
原创 第2节 轻松玩转书生·浦语大模型趣味Demo 基础作业+进阶作业
八戒-Chat-1.8B、Chat-嬛嬛-1.8B、Mini-Horo-巧耳 均是在第一期实战营中运用 InternLM2-Chat-1.8B 模型进行微调训练的优秀成果。其中,八戒-Chat-1.8B 是利用《西游记》剧本中所有关于猪八戒的台词和语句以及 LLM API 生成的相关数据结果,进行全量微调得到的猪八戒聊天模型。作为 Roleplay-with-XiYou 子项目之一,八戒-Chat-1.8B 能够以较低的训练成本达到不错的角色模仿能力,同时低部署条件能够为后续工作降低算力门槛。
2024-04-04 20:50:26
1372
1
原创 第2节 轻松玩转书生·浦语大模型趣味Demo 笔记
一、Demo实战任务内容 二、具体内容 1. InternLM2-Chat-1.8B 2. 八戒Chat-1.8B 三、进阶任务 1. Lagent Demo 2. InternLM-XComposer2 四、兴趣小组
2024-04-04 19:25:28
357
1
原创 第1节 书生·浦语大模型全链路开源体系
面向不同的使用需求,每个规格包含三个模型版本:InternLM2-Base、InternLM2、InternLM2-Chat。均提供了7B和20B的版本。大模型的下游应用中,增量续训和有监督微调是两种常用方式。
2024-03-29 10:57:45
528
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人