Obsidian + RAGFlow,打造最强本地知识库,大模型入门到精通,收藏这篇就足够了!

背景

使用 Obsidian 来记录笔记已经有很多年了,近几年 AI 普及之后就一直想着能把 Obsidian 作为本地知识库对接 AI 来使用。但是因为这些年在 Obsidian 里面记录了不少隐私的东西,担心使用云端的 AI 服务不安全,而在尝试了 Obsidian 的一些 RAG 相关的插件之后,效果又都不是很好,这个事情于是就搁置了。

然后是 RAGFlow,最早去年初就试用过,但是尝试上传了几个 pdf 文件解析都失败了,之后每隔几个月都会再尝试一下更新后会不会更好用,但是也没有明显的改善。直到前两天看到一篇文章,介绍了一个新思路,就是用 mineru 来解析 pdf 文件,然后再调用 RAGFlow 的 API 来直接将解析后的文本传入 RAGFlow 的知识库。自己手动尝试了一下之后,发现真的好用,于是这才开始真正使用 RAGFlow 来作为自己的本地知识库。(关于这个方案,因为原始方案的坑比较多,后面我会再写一篇详细的保姆级教程来讲)

RAGFlow的安装步骤和配置

关于 RAGFlow 的安装,可参考官网,在此就不赘述:

https://github.com/infiniflow/ragflow/blob/main/README_zh.md

安装好之后,设置好大模型,我目前都是用本地 Ollama 跑的,如下:

然后是创建知识库,注意要记住知识库的名字,例如我这里是"obsidian",如下图:

obsidian-ragflow-sync 插件安装步骤

在开始真正使用 RAGFlow 之后,目前 pdf 文件的导入和使用已经没问题了,下一步就是考虑 Obsidian 里的笔记,于是很自然的想到,能否使用类似的思路,把 Obsidian 里的笔记自动同步到 RAGFlow 的知识库里面。先搜了一下,发现目前没有现成的 Obsidian 插件可以干这个,所以干脆直接让 AI 来帮我写一个这样的插件。

这里要吐槽一下 Cursor,一开始是让 Cursor 来写的,但最近 Cursor 降智很明显,写出来的插件功能很简单,关键是一堆错误,改了几遍都改不好。刚好这两天在试用 AI IDE 的后起之秀 Augment,没想到效果出奇的好,不单单完成了我要起的功能,还很贴心的增加了一个控制的界面。

下面进入正题,说一下如何使用,因为目前已经申请发布到 Obsidian 官方的插件市场,但是审核还需要时间,所以暂时只能手动安装:

  • 进入项目主页,https://github.com/colin4k/obsidian-ragflow-sync,,点击右侧 “Release"下面的"1 tags”,然后点击版本号"1.0.0",下载压缩包

  • 解压后,将三个文件 main.js,style.css,manifest.json 放在目录obsidian-ragflow-sync下面(注意一定要叫这个名字),然后复制到你的 Obsidian 仓库的插件目录,例如 :MyVault/.obsidian/plugins/

  • 然后重启 Obsidian - 进入 Obsidian 的设置页面,然后选择“第三方插件”,找到“RAGFlow Sync”,打开它

  • 再点击小齿轮,进入插件的设置界面,主要设置如下:

  • A PI Key:即 RAGFlow 提供的 API Key,在 RAGFlow 主页点击右上角头像,然后在左侧菜单栏找到“API”页面进入即可创建

  • Base URL:RAGFLow 的URL,如 http://localhost:80

  • Knowledge Base Name:也就是前面创建的知识库的名称 ‘obsidian’

  • Sync Startup:是否在 Obsidian 启动时自动同步,按需设置

  • Exclude Folds:按需设置,建议保持默认

  • Chunk Size:建议 384

这样参数就都设置好了。

  • 设置好之后,在 Obsidian 中进入命令窗口,不知道怎么进的,注意看左侧工具栏的这个位置:

  • 这时会弹出控制窗口,点击左下角的’Start Sync’即可开始同步,这里需要注意:

  • 开始同步之后,点击任意地方会退出控制界面,但是后台仍会继续同步,除非你手动点击’Stop Sync’,或者退出 Obsidian
  • 也可以通过打开 View - Toggle Developer Tools 查看后台同步进度
  • 有部分笔记因为内容格式问题,会被 RAGFlow 拒绝,这个只能你自己手动调整了。

最后看看效果吧:

大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业呢?是不是就暂时能抵抗35岁中年危机呢?

答案当然是这样,大模型必然是新风口!

那如何学习大模型 ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:

最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习路线完善出来!

在这里插入图片描述

在这个版本当中:

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全咨料,放心领取)👈

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源

在这里插入图片描述

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码免费领取

👉优快云大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全资料,放心领取)👈

### 将 Obsidian本地数据导入或集成到大型 AI 模型中的方法 Obsidian 是一款基于 Markdown 的知识管理工具,支持本地存储和高度自定义的插件系统。将 Obsidian本地内容整合到大型 AI 模型中,可以实现知识库的自动化处理、语义搜索、问答系统等功能。以下是几种可行的方式: #### 使用 Obsidian 插件与本地大模型集成 Obsidian 提供了丰富的插件系统,可以通过安装特定插件将本地内容与大模型进行交互。例如,`Obsidian Copilot` 插件支持接入本地部署的 LLM(如 DeepSeek V3 或 Llama3),并通过嵌入模型(如 BAAI/bge-m3)实现语义检索[^3]。 **步骤如下:** 1. 在 Obsidian 插件市场中搜索并安装 `Copilot` 插件。 2. 配置 `Chat Models`,添加本地运行的大模型 API 地址,例如运行在本地的 Ollama 提供的 Llama3 模型。 3. 添加嵌入模型(Embedding Model),例如 `BAAI/bge-m3`,用于生成笔记内容的向量表示。 4. 启用默认的 `Chat Model` 和 `Embedding Model`。 5. 通过插件提供的界面,对 Obsidian 中的知识库进行语义搜索或问答操作。 #### 通过 Ollama 部署本地大模型并与 Obsidian 集成 Ollama 是一个轻量级框架,允许用户在本地快速部署大型语言模型,并提供命令行接口进行交互。可以使用 Ollama 运行 Llama3 等模型,并将其与 Obsidian 结合[^4]。 **示例命令:** ```bash # 列出已安装的模型 ollama list # 运行 Llama3 模型并输入提示 ollama run llama3 "总结这个文件:$(cat README.md)" ``` 结合 Obsidian本地 Markdown 文件,可以编写脚本批量读取笔记内容,并调用 Ollama 的 API 实现自动摘要、分类或生成关联内容。 #### 手动导出 Obsidian 内容并导入训练/推理流程 如果希望将 Obsidian 数据用于训练或更复杂的推理任务,可以手动导出所有 `.md` 文件,并使用 Python 脚本进行预处理。 **Python 示例代码:** ```python import os def read_obsidian_notes(directory): notes = [] for root, _, files in os.walk(directory): for file in files: if file.endswith(".md"): with open(os.path.join(root, file), 'r', encoding='utf-8') as f: content = f.read() notes.append(content) return notes notes_content = read_obsidian_notes("/path/to/obsidian/vault") print(notes_content[:2]) # 输出前两条笔记内容 ``` 上述代码可以从 Obsidian 的 vault 目录中读取所有 Markdown 文件内容,后续可进一步使用 Hugging Face Transformers 库调用本地模型进行推理。 #### 自动化知识增强与分类 借助本地大模型的能力,Obsidian 用户可以实现以下功能: - **自动分类**:根据笔记内容的主题自动分配标签或文件夹。 - **语义搜索**:通过嵌入模型生成向量索引,实现基于语义的高效检索。 - **知识图谱构建**:利用 LLM 提取实体关系,生成可视化知识图谱。 - **智能摘要**:为每笔记生成简洁的摘要,便于快速浏览。 这些功能可通过 Obsidian 插件或外部脚本实现,具体取决于用户的开发能力和需求复杂度。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值