Obsidian Local GPT 插件技术文档
安装指南
1. 安装插件
通过 Obsidian 插件商店安装(推荐)
该插件可在 Obsidian 社区插件商店中找到,地址为 https://obsidian.md/plugins?id=local-gpt。
通过 BRAT 安装
您也可以通过 BRAT 安装该插件:pfrankov/obsidian-local-gpt。
2. 安装 LLM
安装 Ollama(推荐)
额外配置:如果您想启用 Ollama 的流式完成功能,您需要将环境变量 OLLAMA_ORIGINS 设置为 *:
- 对于 MacOS,运行
launchctl setenv OLLAMA_ORIGINS "*". - 对于 Linux 和 Windows,请参考 Ollama 文档。
安装 OpenAI 兼容服务器
有多种选项可以运行本地 OpenAI 兼容服务器:
3. 配置 Obsidian 快捷键(可选)
- 打开 Obsidian 设置。
- 进入快捷键设置。
- 筛选 "Local",您应该会看到 "Local GPT: Show context menu"。
- 点击
+图标并按下快捷键(例如⌘ + M)。
4. 使用 "Use fallback" 选项
您还可以指定一个备用服务器来处理请求,这允许您在在线时使用较大的模型,而在离线时使用较小的模型。
5. 使用 OpenAI
由于您可以提供任何 OpenAI 兼容的服务器,因此可以使用 OpenAI 服务器本身。
- 在
Selected AI provider中选择OpenAI compatible server。 - 将
OpenAI compatible server URL设置为https://api.openai.com。 - 从 API keys 页面 获取并粘贴您的
API key。 - 点击 "refresh" 按钮并选择适合您需求的模型(例如
gpt-3.5-turbo)。
项目使用说明
1. 基本功能
该插件允许您在选中的文本上打开上下文菜单,选择 AI 助手的操作。默认操作包括:
- 继续写作
- 总结文本
- 修正拼写和语法
- 在文本中查找行动项
- 通用帮助(使用选中的文本作为任何目的的提示)
2. 自定义操作
您还可以添加自己的操作,分享最佳操作或从社区获取操作。
3. 支持的 AI 提供商
- Ollama
- OpenAI 兼容服务器(包括 OpenAI)
项目 API 使用文档
1. 配置 AI 提供商
在插件设置中,您可以选择 AI 提供商,并配置相应的服务器 URL 和 API 密钥。
2. 使用 OpenAI 兼容服务器
您可以配置 OpenAI 兼容服务器,并选择适合的模型。
项目安装方式
1. 通过 Obsidian 插件商店安装
访问 Obsidian 社区插件商店,搜索并安装 Local GPT 插件。
2. 通过 BRAT 安装
使用 BRAT 插件管理器,输入 pfrankov/obsidian-local-gpt 进行安装。
3. 手动安装
您也可以手动下载插件文件并将其放置在 Obsidian 的插件目录中。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



