自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 MindSearch深度解析实践

参考文档:Tutorial/docs/L2/MindSearch at camp4 · InternLM/Tutorialhttps://github.com/InternLM/Tutorial/tree/camp4/docs/L2/MindSearch1.1.1打开codespace主页,选择Blank模板进行创建1.1.2创建conda环境隔离并安装依赖如果只针对于这个实验的话,其实在codespace里面不用单独创建conda环境。但是隔离是一个好习惯,因此我们还是创建一个相应的虚拟环境来隔离c

2024-12-28 21:31:53 596

原创 InternVL 部署微调实践

我们主要通过## 1.导入相关依赖包## 2.使用你的模型初始化推理管线## 3.读取图片(此处使用PIL读取也行)## 4.配置推理参数## 5.利用 pipeline.chat 接口 进行对话,需传入生成参数## 6.之后的对话轮次需要传入之前的session,以告知模型历史上下文。

2024-12-28 21:07:25 1946

原创 LMDeploy量化部署进阶实践

参考文档:Tutorial/docs/L2/LMDeploy at camp4 · InternLM/Tutorialhttps://github.com/InternLM/Tutorial/tree/camp4/docs/L2/LMDeploy在终端中,让我们输入以下指令,来创建一个名为lmdeploy的conda环境,python版本为3.10,创建成功后激活环境并安装0.5.3版本的lmdeploy及相关包。1.2 InternStudio环境获取模型为方便文件管理,我们需要一个存放模型

2024-12-28 20:28:03 1882

原创 Lagent:从零搭建你的 Multi-Agent

参考资料:Tutorial/docs/L2/Agent at camp4 · InternLM/Tutorialhttps://github.com/InternLM/Tutorial/tree/camp4/docs/L2/Agent首先来为 Lagent 配置一个可用的环境等待安装完成~接下来,我们通过源码安装的方式安装 lagent。首先,需要申请 API 授权令牌 ,请前往 书生·浦语 API 文档 申请并获取 令牌,将其填入后续代码的 变量中。创建一个代码example,创建,在

2024-12-28 17:17:41 867

原创 LangGPT结构化提示词编写实践

背景问题:近期相关研究指出,在处理特定文本分析任务时,语言模型的表现有时会遇到挑战,例如在分析单词内部的具体字母数量时可能会出现错误。你是提示词专家,根据用户的输入设计用于生成**高质量(清晰准确)**的大语言模型提示词。我是您的提示词专家助手,请随时告诉我您需要设计什么用途的提示词吧。- 为代码或文章提供**详细、准确和深入**的内容。- 为代码或文章提供**详细、准确和深入**的内容。任务要求:利用对提示词的精确设计,引导语言模型正确回答出。**你的任务是帮助用户设计高质量提示词。

2024-12-15 22:20:20 430

原创 评测 InternLM-1.8B 实践

上一篇链接:优快云本次内容参考文档:OpenCompass 提供了和两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。首先在训练营提供的开发机上创建用于评测 conda 环境:cd /root。

2024-12-12 21:19:45 755

原创 XTuner 微调实践微调

上一篇链接:Llamaindex RAG 实践-优快云博客本期我们进行XTuner 微调,参考文档如下。

2024-12-07 20:16:16 622

原创 Llamaindex RAG 实践

注意到在CodeSpace平台上是没有GPU资源的,因此我们Python代码中只使用CPU进行推理,我们需要修改跟CUDA有关的API,在。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换里面的内容,然后再次git push一下就可以了。正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。messages=[{"role": "user", "content": "xtuner是什么?

2024-12-05 23:16:53 571

原创 书生·浦语大模型全链路开源开放体系&体验书生,多模态对话,AI 搜索等功能

2.通过CLI上传 Hugging Face同样是跟Git相关联,通常大模型的模型文件都比较大,因此我们需要安装git lfs,对大文件系统支持。注意到在CodeSpace平台上是没有GPU资源的,因此我们Python代码中只使用CPU进行推理,我们需要修改跟CUDA有关的API,在。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换<>里面的内容,然后再次git push一下就可以了。运行程序,等待几分钟后,会在控制台返回模型生成的结果(解除注释后),完成下载及运行。

2024-11-24 22:36:44 873

原创 使用Hugging Face平台下载模型&在HF平台上使用Spaces部署intern_cobuild&模型上传

2.通过CLI上传 Hugging Face同样是跟Git相关联,通常大模型的模型文件都比较大,因此我们需要安装git lfs,对大文件系统支持。注意到在CodeSpace平台上是没有GPU资源的,因此我们Python代码中只使用CPU进行推理,我们需要修改跟CUDA有关的API,在。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换<>里面的内容,然后再次git push一下就可以了。运行程序,等待几分钟后,会在控制台返回模型生成的结果(解除注释后),完成下载及运行。

2024-11-21 14:25:36 1872

原创 在 GitHub 上创建一个 Pull Request&创建并提交一个项目

git commit -m "add git_camp4_036_introduction" # 提交信息记录,这里需要修改为自己的uid。2.本次使用的学习项目的链接:https://github.com/InternLM/Tutorial/tree/camp4。# 修改为自己fork的仓库,改为上图中你的https仓库的git地址,将random-zhou改为自己的用户名。将本项目直接fork到自己的账号下,这样就可以直接在自己的账号下进行修改和提交。出现这个问题,需要进行下面的操作,或在提交前设置。

2024-11-17 19:31:29 597

原创 pip安装到指定目录& Vscode连接InternStudio debug笔记

1.在终端输入 conda create --name myenv python=3.9 创建虚拟环境,创建虚拟环境时我们主要需要设置两个参数,一是虚拟环境的名字,二是python的版本。这里一定要注意,浦语的token只有刚创建的时候才能看到全文,后续没法再查看已经创建好的token,如果忘记需要重新创建,所以创建完了以后记得先复制保存到本地。4.建立test_json.py文件,将调用程序粘贴并执行debug,显示报错信息。6.解除34,35行注释,在终端运行程序,无报错,正常显示,完成调试。

2024-11-10 21:45:49 622

原创 InternStudio 与 VSCode 配合完成SSH连接与端口映射并运行 hello_world.py

1.打开开发机页面,选择进入开发机,新建hello_world.py 文件,复制并粘贴程序代码到hello_world.py 文件中。6.配置SSH主机参数,注意Port 为登录命令中数字,例如 ssh-32678 Port 则为32678。3.点击开发机中自定义服务按钮,复制命令,在powershell中运行自定义服务中复制命令。至此,SSH连接与端口映射并运行 hello_world.py完成。选择linx系统环境,粘贴密码(序号4中,登录命令下方密码)三,后续是linx基础命令练习。

2024-11-04 23:39:35 338

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除