- 博客(13)
- 收藏
- 关注
原创 MindSearch深度解析实践
参考文档:Tutorial/docs/L2/MindSearch at camp4 · InternLM/Tutorialhttps://github.com/InternLM/Tutorial/tree/camp4/docs/L2/MindSearch1.1.1打开codespace主页,选择Blank模板进行创建1.1.2创建conda环境隔离并安装依赖如果只针对于这个实验的话,其实在codespace里面不用单独创建conda环境。但是隔离是一个好习惯,因此我们还是创建一个相应的虚拟环境来隔离c
2024-12-28 21:31:53
596
原创 InternVL 部署微调实践
我们主要通过## 1.导入相关依赖包## 2.使用你的模型初始化推理管线## 3.读取图片(此处使用PIL读取也行)## 4.配置推理参数## 5.利用 pipeline.chat 接口 进行对话,需传入生成参数## 6.之后的对话轮次需要传入之前的session,以告知模型历史上下文。
2024-12-28 21:07:25
1946
原创 LMDeploy量化部署进阶实践
参考文档:Tutorial/docs/L2/LMDeploy at camp4 · InternLM/Tutorialhttps://github.com/InternLM/Tutorial/tree/camp4/docs/L2/LMDeploy在终端中,让我们输入以下指令,来创建一个名为lmdeploy的conda环境,python版本为3.10,创建成功后激活环境并安装0.5.3版本的lmdeploy及相关包。1.2 InternStudio环境获取模型为方便文件管理,我们需要一个存放模型
2024-12-28 20:28:03
1882
原创 Lagent:从零搭建你的 Multi-Agent
参考资料:Tutorial/docs/L2/Agent at camp4 · InternLM/Tutorialhttps://github.com/InternLM/Tutorial/tree/camp4/docs/L2/Agent首先来为 Lagent 配置一个可用的环境等待安装完成~接下来,我们通过源码安装的方式安装 lagent。首先,需要申请 API 授权令牌 ,请前往 书生·浦语 API 文档 申请并获取 令牌,将其填入后续代码的 变量中。创建一个代码example,创建,在
2024-12-28 17:17:41
867
原创 LangGPT结构化提示词编写实践
背景问题:近期相关研究指出,在处理特定文本分析任务时,语言模型的表现有时会遇到挑战,例如在分析单词内部的具体字母数量时可能会出现错误。你是提示词专家,根据用户的输入设计用于生成**高质量(清晰准确)**的大语言模型提示词。我是您的提示词专家助手,请随时告诉我您需要设计什么用途的提示词吧。- 为代码或文章提供**详细、准确和深入**的内容。- 为代码或文章提供**详细、准确和深入**的内容。任务要求:利用对提示词的精确设计,引导语言模型正确回答出。**你的任务是帮助用户设计高质量提示词。
2024-12-15 22:20:20
430
原创 评测 InternLM-1.8B 实践
上一篇链接:优快云本次内容参考文档:OpenCompass 提供了和两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。首先在训练营提供的开发机上创建用于评测 conda 环境:cd /root。
2024-12-12 21:19:45
755
原创 Llamaindex RAG 实践
注意到在CodeSpace平台上是没有GPU资源的,因此我们Python代码中只使用CPU进行推理,我们需要修改跟CUDA有关的API,在。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换里面的内容,然后再次git push一下就可以了。正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。messages=[{"role": "user", "content": "xtuner是什么?
2024-12-05 23:16:53
571
原创 书生·浦语大模型全链路开源开放体系&体验书生,多模态对话,AI 搜索等功能
2.通过CLI上传 Hugging Face同样是跟Git相关联,通常大模型的模型文件都比较大,因此我们需要安装git lfs,对大文件系统支持。注意到在CodeSpace平台上是没有GPU资源的,因此我们Python代码中只使用CPU进行推理,我们需要修改跟CUDA有关的API,在。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换<>里面的内容,然后再次git push一下就可以了。运行程序,等待几分钟后,会在控制台返回模型生成的结果(解除注释后),完成下载及运行。
2024-11-24 22:36:44
873
原创 使用Hugging Face平台下载模型&在HF平台上使用Spaces部署intern_cobuild&模型上传
2.通过CLI上传 Hugging Face同样是跟Git相关联,通常大模型的模型文件都比较大,因此我们需要安装git lfs,对大文件系统支持。注意到在CodeSpace平台上是没有GPU资源的,因此我们Python代码中只使用CPU进行推理,我们需要修改跟CUDA有关的API,在。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换<>里面的内容,然后再次git push一下就可以了。运行程序,等待几分钟后,会在控制台返回模型生成的结果(解除注释后),完成下载及运行。
2024-11-21 14:25:36
1872
原创 在 GitHub 上创建一个 Pull Request&创建并提交一个项目
git commit -m "add git_camp4_036_introduction" # 提交信息记录,这里需要修改为自己的uid。2.本次使用的学习项目的链接:https://github.com/InternLM/Tutorial/tree/camp4。# 修改为自己fork的仓库,改为上图中你的https仓库的git地址,将random-zhou改为自己的用户名。将本项目直接fork到自己的账号下,这样就可以直接在自己的账号下进行修改和提交。出现这个问题,需要进行下面的操作,或在提交前设置。
2024-11-17 19:31:29
597
原创 pip安装到指定目录& Vscode连接InternStudio debug笔记
1.在终端输入 conda create --name myenv python=3.9 创建虚拟环境,创建虚拟环境时我们主要需要设置两个参数,一是虚拟环境的名字,二是python的版本。这里一定要注意,浦语的token只有刚创建的时候才能看到全文,后续没法再查看已经创建好的token,如果忘记需要重新创建,所以创建完了以后记得先复制保存到本地。4.建立test_json.py文件,将调用程序粘贴并执行debug,显示报错信息。6.解除34,35行注释,在终端运行程序,无报错,正常显示,完成调试。
2024-11-10 21:45:49
622
原创 InternStudio 与 VSCode 配合完成SSH连接与端口映射并运行 hello_world.py
1.打开开发机页面,选择进入开发机,新建hello_world.py 文件,复制并粘贴程序代码到hello_world.py 文件中。6.配置SSH主机参数,注意Port 为登录命令中数字,例如 ssh-32678 Port 则为32678。3.点击开发机中自定义服务按钮,复制命令,在powershell中运行自定义服务中复制命令。至此,SSH连接与端口映射并运行 hello_world.py完成。选择linx系统环境,粘贴密码(序号4中,登录命令下方密码)三,后续是linx基础命令练习。
2024-11-04 23:39:35
338
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人