自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 书生实战营-L2-MindSearch 部署到Github Codespace 和 Hugging Face Space

由于硅基流动 API 的相关配置已经集成在了 MindSearch 中,所以我们可以直接执行下面的代码来启动 MindSearch 的后端。首先创建新 API 密钥,然后点击密钥进行复制,以备后续使用。最后,我们先新建一个目录,准备提交到 HuggingFace Space 的全部文件。填这个new secrets时候,复制API Key一定要显性复制,不然会报错。在后端启动完成后,我们打开新终端启动 MindSearch 的前端。来注册硅基流动的账号(如果注册过,则直接登录即可)。

2024-08-30 23:06:13 485

原创 书生实战营-L2-茴香豆

在实际的生产和生活环境需求,对 RAG 系统的开发、部署和调优的挑战更大,如需要解决群应答、能够无关问题拒答、多渠道应答、更高的安全性挑战。茴香豆的架构中,除了利用 LLM 的功能判断问题相关性,也可以通过手动添加正例(希望模型回答的问题)和反例(希望模型拒答的问题)来调优知识助手的应答效果。修改完配置文件后,就可以进行知识库的搭建,本次教程选用的是茴香豆和 MMPose 的文档,利用茴香豆搭建一个茴香豆和 MMPose 的知识问答助手。需要注意的是,每次更新原始知识文档和正反例,都需要重新运行。

2024-08-29 23:04:31 871

原创 书生实战营-L2-InternVL 多模态模型部署微调实践

让我们一起修改XTuner下 InternVL的config,文件在: /root/InternLM/code/XTuner/xtuner/configs/internvl/v2/internvl_v2_internlm2_2b_qlora_finetune.py。让我们打开数据集的一张图看看,我们选择jsonl里的第一条数据对应的图片。数据集我们从官网下载下来并进行去重,只保留中文数据等操作。并已在share里,我们一起从share里挪出数据集。该模型已在share文件夹下挂载好,现在让我们把移动出来。

2024-08-28 17:40:38 892

原创 书生实战营-L2-LMDeploy 量化部署进阶实践

文档分前期学习和作业两大块,助教直接翻到下面作业即可!

2024-08-27 23:01:07 1143

原创 书生实战营-L2-Lagent 自定义你的 Agent 智能体

下面我们将实现一个调用 MagicMaker API 以完成文生图的功能。结果报错,问群里大佬说依赖版本得降,griffe==0.48,然后就成了。首先来为 Lagent 配置一个可用的环境。(为啥不直接显示- -)

2024-08-23 22:14:57 351

原创 书生实战营-L1-OpenCompass 评测 InternLM-1.8B 实践

首先安装opencompass和一些依赖项。

2024-08-22 20:30:53 452

原创 书生实战营-L1-XTuner微调个人小助手认知

克隆Tutorial仓库的资料到本地# 创建虚拟环境conda create -n xtuner0121 python=3.10 -y# 激活虚拟环境(注意:后续的所有操作都需要在这个虚拟环境中进行)conda activate xtuner0121# 安装一些必要的库conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y# 安装其他依赖

2024-08-21 21:23:36 779

原创 书生实战营-L1-Llamaindex RAG实践

虽然最新的是InternLM2.5 - -

2024-08-20 17:54:04 266

原创 书生实战营-L1-浦语提示词工程实践(浮点数)

初始情况不回答先直接用InternLM扮演提示词生成助手,自动化地生成符合LangGPT框架的结构化提示词:

2024-08-11 21:42:01 262

原创 书生实战营-L1-浦语提示词工程实践

左侧边栏为对话的部分设置,其中最大token长度设置为0时表示不限制生成的最大token长度。API Key和Base URL是部署InternLM时的设置,必须填写。部署成功后,可以利用如下脚本调用部署的InternLM2-chat-1_8b模型并测试是否部署成功。{"role": "system", "content": "请介绍一下你自己"}由于服务需要持续运行,需要将进程维持在后台,所以这里使用。创建图形化界面,在实战营项目的tools项目中。InternLM部署完成后,可利用提供的。

2024-08-11 21:35:02 677

原创 书生实战营-L1-8G 显存玩转书生大模型 Demo

我们首先来为 Demo 创建一个可用的环境(下载有点慢)# 创建环境# 激活环境# 安装 torchPytorch是torch的python版本,是由Facebook开源的神经网络框架,专门针对 GPU 加速的深度神经网络(DNN)编程。Torch 是一个经典的对多维矩阵数据进行操作的张量(tensor )库,在机器学习和其他数学密集型应用有广泛应用。与Tensorflow的静态计算图不同,pytorch的计算图是动态的,可以根据计算需要实时改变计算图。

2024-08-06 19:00:30 790

原创 书生实战营-L1-书生大模型全链路开源体系

最新的internLM2.5-20B-Chat性能与GPT-4齐平。全链路开源,从数据到最终应用。.各个环节开源工具介绍。调用外部工具的智能体。介绍完毕后去官网看看。

2024-08-06 17:46:23 238

原创 书生实战营python

这边有个不方便的地方,python -m debugpy --listen 5678 --wait-for-client这个命令太长了,每次都打很麻烦。这里我们可以给这段常用的命令设置一个别名。请使用本地vscode连接远程开发机,将上面你写的wordcount函数在开发机上进行debug,体验debug的全流程,并完成一份debug笔记(需要截图)。返回一个字典,key为单词,value为对应单词出现的次数。一步步查看变量(如text、text_list、text_dict),调试错误。

2024-07-20 13:26:52 315

原创 python急速入门

python定义函数的关键字为defdef 函数名(参数列表):函数体#定义一个打招呼的函数,别忘了冒号print(out)#注意,函数中定义的变量为局部变量,只有函数内能访问到,这就是变量的作用领域print(out)#当我们尝试使用变量out时就会报错,提示out没有被定义1 #注意,函数中定义的变量为局部变量,只有函数内能访问到,这就是变量的作用领域3 #当我们尝试使用变量out时就会报错,提示out没有被定义。

2024-07-20 10:28:01 823

原创 书生实战营-Linux

是一种网络技术,它可以将外网中的任意端口映射到内网中的相应端口,实现内网与外网之间的通信。通过端口映射,可以在外网访问内网中的服务或应用,实现跨越网络的便捷通信。,通过加密和认证机制实现安全的访问和文件传输等业务。SSH 协议通过对网络数据进行加密和验证,在不安全的网络环境中提供了安全的网络服务。组成,为建立安全的 SSH 通道,双方需要先建立 TCP 连接,然后协商使用的版本号和各类算法,并生成相同的。全称Secure Shell,中文翻译为安全外壳,它是一种。完成SSH连接与端口映射并运行。

2024-07-18 19:22:27 304 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除