随着人工智能技术的飞速发展,本地部署大型语言模型(LLM)已成为许多技术爱好者的热门选择。本地部署不仅能够保护隐私,还能提供更灵活的使用体验。本文将详细介绍如何在 Mac mini M2(24GB 内存)上部署 DeepSeek-R1:14B 模型,并通过 Ollama 和 Chatbox 进行交互。同时,我们也会对比使用 Open-WebUI 的体验,帮助你选择最适合自己的工具。
一、环境准备
硬件要求
- 设备:Mac mini M2,24GB 内存。
- 存储空间:至少需要 50GB 的可用空间,建议预留更多空间以避免磁盘空间不足。
软件要求
- 操作系统:macOS Monterey 或更高版本。
- Ollama:用于运行和管理 DeepSeek 模型的本地引擎。
- Chatbox:轻量级的图形界面工具,用于与模型进行交互。
- Docker(可选):如果需要使用 Open-WebUI,需要安装 Docker。
二、安装Ollama
Ollama 是一个轻量级的本地 AI 模型管理工具,支持多种语言模型的运行和管理。以下是安装步骤:
1、安装 Ollama

访问 Ollama 官方网站https://ollama.com/,下载适用于 macOS 的安装包。下载完成后,点击安装包使行安装
2、启动 Ollama 服务
安装完成后,运行以下命令启动 Ollama 服务:
ollama serve

最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



