- 博客(12)
- 收藏
- 关注
原创 RAGAS × Ollama × LangChain搭建RAG并用本地模型评估RAG
2、运行ollama上面的embedding模型和LLM模型,我用的是quentinz/bge-large-zh-v1.5和qwen2.5:7b.要求每个文档的 ID 是唯一的,编码格式要求:UTF-8 编码。我使用的数据库格式是:(.csv格式的文件)
2025-04-13 16:46:08
207
原创 Ollma+LightRag本地服务器部署+输入PDF格式文档
用到的模型:LLM:deepseek-r1(7B)embedding模型:quentinz/bge-large-zh-v1.5软件:MobaXterm链接:GitHub - HKUDS/LightRAG: "LightRAG: Simple and Fast Retrieval-Augmented Generation"下载好之后解压,然后上传到服务器(eg:文件位置为/home/user/LLM/LightRAG)运行ollama:下载模型:3、把ollama中LLM模型的上下文长度调整
2025-03-02 14:36:05
673
原创 RAG相关论文LightRAG: Simple and Fast Retrieval-Augmented Generation
根据问题提取出high level和low level两种关键词,low level提取问题中的一些特定的实体,high level提取一些主题、摘要等更广泛的内容。每个实体及其相互关系被表示为图中的节点和边,这使得系统能够更高效地处理复杂的查询,特别是涉及多个文档段落的多跳查询。索引图构建 (Index Graph): 将提取出的实体和关系构建为一个图结构,其中每个节点表示一个实体,每条边表示实体之间的关系。”),整合多个实体之间的关系,提供更高层次的回答。
2025-02-27 10:29:37
737
原创 把一个服务器的环境迁移到另一个服务器(使用conda-pack)
一开始用的是先生成requirement.txt,然后再pip install,但是环境里有库冲突,经过一番折腾,换了另一种方法。:MobaXterm:把服务器1上miniconda里的环境名为Linly的虚拟环境,迁移到服务器2上,服务器2上环境名依旧为Linly。
2025-02-23 12:11:56
337
原创 纯新手的langchain-chatchat0.3.1的linux本地部署
从 0.3.0 版本起,Langchain-Chatchat 不再根据用户输入的本地模型路径直接进行模型加载,涉及到的模型种类包括 LLM、Embedding、Reranker 及后续会提供支持的多模态模型等,如下载bge-large-zh-v1.5,我的下载位置是/home/……因此,请确认在启动 Langchain-Chatchat 项目前,首先进行模型推理框架的运行,并加载所需使用的模型。如果需要使用 Xinference 进行模型推理,可以根据不同的模型指定不同的引擎。
2024-11-06 16:30:33
2099
原创 在服务器安装ollama(Command ‘curl‘ not found)(不在 sudoers 文件中)
因为我的服务器系统上还没有curl,而且我的权限不够不能使用sudo命令。所以选择第二种方式,即手动安装。
2024-10-25 20:39:08
2509
1
原创 conda安装cuda(11.8)+cudnn(8.9.2)+pytorch(2.0.0)
参考链接:(无意间刷到一个博主发现遇到了同样的问题,且提出了解决办法)什么都没出现说明pytorch安装成功。中找到你要下载的版本的指令(出现True说明成功。
2024-10-24 22:51:19
4977
原创 在本地服务器部署chatglm(含在langchain中加载)
参考视频:【ChatGLM+Langchain构建本地知识库,只需6G显存,支持实时上传文档-哔哩哔哩】 https://b23.tv/XdgztUvUP:新建文件夹X按照视频一步一步来的,但是up是在自己的电脑上部署的,和在服务器上的有细微差别,为了自己以后的学习,记录一下。
2024-10-22 21:22:57
1807
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人