Cobolt开源项目教程
1. 项目介绍
Cobolt 是一个跨平台桌面应用程序,它允许用户与本地托管的大型语言模型(LLM)进行聊天,并支持模型上下文协议(MCP)。Cobolt 的设计理念是保护用户数据,不将其发送至远程服务器,从而保证用户隐私。
2. 项目快速启动
以下是在不同操作系统上快速启动 Cobolt 项目的步骤:
MacOS
在 macOS 上,使用 Homebrew 安装依赖项。确保已安装 Homebrew。如果未安装,请在终端运行以下命令安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Linux
在 Linux 系统上运行 Linux 应用之前,请安装所需的依赖项:
curl -O https://raw.githubusercontent.com/platinum-hill/cobolt/refs/heads/main/assets/scripts/linux_deps.sh
chmod +x linux_deps.sh
sudo ./linux_deps.sh
Windows
在 Windows 上,使用 Windows 包管理器 Winget 安装依赖项。如果需要安装 Winget,请以管理员身份运行 PowerShell 并执行以下命令:
Install-Module -Name Microsoft.WinGet.Client -Repository PSGallery -Confirm:$false -AllowClobber
Repair-WinGetPackageManager
安装后,可以使用以下命令确认 Winget 是否存在:
winget -v
3. 应用案例和最佳实践
修改默认模型
默认情况下,Cobolt 使用 llama3.2:3b
进行推理,使用 nomic-embed-text
进行嵌入。如果您的设备可以运行更大的模型,建议使用 llama3.1:8b
或 qwen3:8b
。
要下载新的模型进行推理,从 Ollama 安装:
ollama ls # 查看可用的模型
ollama pull llama3.1:8b # 下载 llama3.1:8b 模型
下载的模型可以在应用的设置部分选择。
添加新集成
您可以在 这里 找到最有用的 MCP 支持的集成。通过应用添加新的 MCP 服务器。应用会引导您到一个 JSON 文件来添加您的 MCP 服务器。我们使用与 Claude Desktop 相同的格式,以便于用户添加新的服务器。
添加必要的服务器后,重新启动应用程序或重新加载集成。
4. 典型生态项目
Cobolt 依赖于以下几个开源项目和框架:
- Ollama:用于本地运行大型语言模型的强大框架。
- Model Context Protocol:由 Anthropic 创建的模型上下文管理协议规范。
- Mem0:启发我们实现内存管理系统的项目。
- Electron:支持我们跨平台桌面应用程序的框架。
Cobolt 团队对这些项目和它们的贡献者及维护者表示感激。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考