系列文章目录
玩转大语言模型——使用langchain和Ollama本地部署大语言模型
玩转大语言模型——三分钟教你用langchain+提示词工程获得猫娘女友
玩转大语言模型——ollama导入huggingface下载的模型
玩转大语言模型——langchain调用ollama视觉多模态语言模型
玩转大语言模型——使用transformers中的pipeline调用huggingface中模型
玩转大语言模型——transformers微调huggingface格式的中文Bert模型
玩转大语言模型——使用GraphRAG+Ollama构建知识图谱
玩转大语言模型——完美解决GraphRAG构建的知识图谱全为英文的问题
玩转大语言模型——配置图数据库Neo4j(含apoc插件)并导入GraphRAG生成的知识图谱
玩转大语言模型——本地部署带聊天界面deepseek R1的小白教程
玩转大语言模型——本地部署deepseek R1和本地数据库的小白教程(Ollama+AnythingLLM)
玩转大语言模型——使用LM Studio在本地部署deepseek R1的零基础)教程
玩转大语言模型——Ubuntu系统环境下使用llama.cpp进行CPU与GPU混合推理deepseek
玩转大语言模型——使用Kiln AI可视化环境进行大语言模型微调数据合成
前言
按照原本GraphRAG的提示词,直接生成的知识图谱全为英文。这对于中文文本显然不利,本篇将从提示词的方面完美解决这一问题。关于使用本地模型运用GraphRAG构建知识图谱,可以参照:玩转大语言模型——使用graphRAG+Ollama构建知识图谱
初始化
以笔者的知识图谱的路径ragtest为例
使用以下命令初始化
graphrag init --root ./ragtest
笔者也可以自己新建一个其他名称的文件夹初始化知识图谱。
文件结构
经过初始化后,生成的文件和文件夹如下,input中存放txt格式的数据,settings.yaml的设置见:玩转大语言模型——使用graphRAG+Ollama构建知识图谱。prompts中存放的是提示词。
订阅专栏 解锁全文
2625

被折叠的 条评论
为什么被折叠?



