自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 Antv/g2踩坑日记之Legend图例监听方法不生效

【前言】:本人是由于业务需要,刚刚接触g2图表库,由于有x6的实际开发经验,上手也比较顺利。

2024-12-05 16:44:41 1051

原创 评测 InternLM-1.8B 实践

这样我们使用了 CMMLU Benchmark 的每个子数据集的 1 个样本进行评测.

2024-11-27 20:48:47 374

原创 XTuner 微调个人小助手认知任务

微调完成后,我们可以再次运行 xtuner_streamlit_demo.py 脚本来观察微调后的对话效果,不过在运行之前,我们需要将脚本中的模型路径修改为微调后的模型的路径。模型转换的本质其实就是将原本使用 Pytorch 训练出来的模型权重文件转换为目前通用的 HuggingFace 格式文件,那么我们可以通过以下命令来实现一键转换。对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。

2024-11-27 17:34:35 352

原创 Llamaindex RAG 实践

下载 Sentence Transformer 模型。运行以下指令,新建一个python文件。安装 Llamaindex和相关的包。创建与大模型通话的python文件。安装 Llamaindex。下载 NLTK 相关资源。运行以下命令,获取知识库。

2024-11-26 23:51:47 375

原创 LangGPT结构化提示词编写实践

使用前:使用后:提示词:使用前:使用后:提示词:对比使用前:使用后:提示词:对比

2024-11-16 16:12:39 349

原创 玩转书生「多模态对话」与「AI搜索」产品

书生产品使用

2024-11-16 13:26:38 141

原创 书生大模型全链路开源开放体系

首个精细处理的开源多模态语料库。

2024-11-14 16:10:06 1814

原创 Mass闯关

'/'1'filename'运行该文件可以看到,已经从Hugging Face上下载了相应配置文件运行该文件我这里由于已经运行过了,所以需要再强制安装下(为了演示)至此,模型就被我们下载下来了。

2024-11-06 22:47:45 775

原创 Python task

选择debugger时选择python debuger。选择debug config时选择remote attach就行,随后会让我们选择debug server的地址,因为我们是在本地debug,所以全都保持默认直接回车就可以了,也就是我们的server地址为 localhost:5678。点击VSCode侧边栏的“Run and Debug”(运行和调试),单击"create a lauch.json file"在命令行中输入如上代码,开启本地的debug模式。使用SSH连接开发机。

2024-11-02 16:44:55 323

原创 完成SSH连接与端口映射并运行hello_world.py

Remote-SSH3. 输入连接密码此时SSH连接成功!!那么如果不想输入密码怎么办呢?这时候就得靠另一个工具了:SSH密钥。

2024-10-28 23:17:51 419

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除