自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 第四期书生大模型实战营-基础岛 第六关

export INTERNLM_API_KEY=xxxxxxxxxxxxxxxxxxxxxxx # 填入你申请的 API Key。获得 api key 和 api 服务地址 (也可以从第三方平台。3.配置数据集: 在终端中运行。2.配置模型: 在终端中运行。1.打开网站浦语官方地址。

2024-12-24 20:18:06 396

原创 第四期书生大模型实战营-基础岛 第五关

对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。表示微调的模型权重文件路径,即要转换的模型权重,

2024-12-23 19:17:41 826

原创 第四期书生大模型实战营-基础岛 第四关

基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前 InternLM2-Chat-1.8B 模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力,截图保存。正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。messages=[{"role": "user", "content": "xtuner是什么?

2024-12-20 00:33:50 1039

原创 第四期书生大模型实战营-基础岛 第三关

Prompt是一种用于指导以大语言模型为代表的生成式人工智能生成内容(文本、图像、视频等)的输入方式。它通常是一个简短的文本或问题,用于描述任务和要求。Prompt可以包含一些特定的关键词或短语,用于引导模型生成符合特定主题或风格的内容。例如,如果我们要生成一篇关于“人工智能”的文章,我们可以使用“人工智能”作为Prompt,让模型生成一篇关于人工智能的介绍、应用、发展等方面的文章。Prompt还可以包含一些特定的指令或要求,用于控制生成文本的语气、风格、长度等方面。

2024-12-18 16:09:58 591

原创 第四期书生大模型实战营-基础岛(第一、二关)

同时,推出了一套全面的开源工具,包括X-Tuner微调工具和LM Deploy部署工具。这一体系覆盖了从数据准备、模型训练、推理部署到监控维护等人工智能模型开发的全流程,提供了丰富的工具和资源,帮助开发者和研究人员更高效地构建和应用大模型。书生浦语2.5较上一代有了比较大的提升,原生推理能力提升20%,支持百万字上下文,具备自主规划和搜索完成复杂任务的能力。书生浦语融合多种数据合成方案,包括基于规则的数据构造、基于模型的数据扩充、基于反馈的数据生成,提升合成数据质量。

2024-12-09 23:13:06 330

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除