自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 RAGAS × Ollama × LangChain搭建RAG并用本地模型评估RAG

2、运行ollama上面的embedding模型和LLM模型,我用的是quentinz/bge-large-zh-v1.5和qwen2.5:7b.要求每个文档的 ID 是唯一的,编码格式要求:UTF-8 编码。我使用的数据库格式是:(.csv格式的文件)

2025-04-13 16:46:08 207

原创 哪吒套件从0开始安装系统、驱动,并远程连接

准备:基于英特尔N97的哪吒开发套件、空的U盘、显示屏、鼠标、键盘。

2025-04-01 16:19:08 367

原创 pycharm2023远程连接服务器

这里我服务器上用的是miniconda。里一般可以找到python解释器。,在连接成功之后,你。

2025-03-02 20:21:43 63

原创 Ollma+LightRag本地服务器部署+输入PDF格式文档

用到的模型:LLM:deepseek-r1(7B)embedding模型:quentinz/bge-large-zh-v1.5软件:MobaXterm链接:GitHub - HKUDS/LightRAG: "LightRAG: Simple and Fast Retrieval-Augmented Generation"下载好之后解压,然后上传到服务器(eg:文件位置为/home/user/LLM/LightRAG)运行ollama:下载模型:3、把ollama中LLM模型的上下文长度调整

2025-03-02 14:36:05 673

原创 RAG相关论文LightRAG: Simple and Fast Retrieval-Augmented Generation

根据问题提取出high level和low level两种关键词,low level提取问题中的一些特定的实体,high level提取一些主题、摘要等更广泛的内容。每个实体及其相互关系被表示为图中的节点和边,这使得系统能够更高效地处理复杂的查询,特别是涉及多个文档段落的多跳查询。索引图构建 (Index Graph): 将提取出的实体和关系构建为一个图结构,其中每个节点表示一个实体,每条边表示实体之间的关系。”),整合多个实体之间的关系,提供更高层次的回答。

2025-02-27 10:29:37 737

原创 研一大语言模型论文阅读--推荐一个网站

每周都会总结LLMs领域的重要论文。

2025-02-24 10:58:09 101

原创 把一个服务器的环境迁移到另一个服务器(使用conda-pack)

一开始用的是先生成requirement.txt,然后再pip install,但是环境里有库冲突,经过一番折腾,换了另一种方法。:MobaXterm:把服务器1上miniconda里的环境名为Linly的虚拟环境,迁移到服务器2上,服务器2上环境名依旧为Linly。

2025-02-23 12:11:56 337

原创 纯新手的langchain-chatchat0.3.1的linux本地部署

从 0.3.0 版本起,Langchain-Chatchat 不再根据用户输入的本地模型路径直接进行模型加载,涉及到的模型种类包括 LLM、Embedding、Reranker 及后续会提供支持的多模态模型等,如下载bge-large-zh-v1.5,我的下载位置是/home/……因此,请确认在启动 Langchain-Chatchat 项目前,首先进行模型推理框架的运行,并加载所需使用的模型。如果需要使用 Xinference 进行模型推理,可以根据不同的模型指定不同的引擎。

2024-11-06 16:30:33 2099

原创 在服务器安装ollama(Command ‘curl‘ not found)(不在 sudoers 文件中)

因为我的服务器系统上还没有curl,而且我的权限不够不能使用sudo命令。所以选择第二种方式,即手动安装。

2024-10-25 20:39:08 2509 1

原创 conda安装cuda(11.8)+cudnn(8.9.2)+pytorch(2.0.0)

参考链接:(无意间刷到一个博主发现遇到了同样的问题,且提出了解决办法)什么都没出现说明pytorch安装成功。中找到你要下载的版本的指令(出现True说明成功。

2024-10-24 22:51:19 4977

原创 linux服务器上安装miniconda(使用MobaXterm)

根据提示,在键盘中找到"Enter" ,按下"Enter"键。

2024-10-24 16:15:20 468

原创 在本地服务器部署chatglm(含在langchain中加载)

参考视频:【ChatGLM+Langchain构建本地知识库,只需6G显存,支持实时上传文档-哔哩哔哩】 https://b23.tv/XdgztUvUP:新建文件夹X按照视频一步一步来的,但是up是在自己的电脑上部署的,和在服务器上的有细微差别,为了自己以后的学习,记录一下。

2024-10-22 21:22:57 1807

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除