引言
想在自己的电脑上运行强大的大型语言模型(LLM)吗?Ollama 让你轻松实现!Ollama 是一个流行的工具,它简化了在本地运行各种开源 LLM 的过程,让你能充分利用它们的强大功能,而无需依赖云服务。
本文将深入探讨 Ollama 的使用,从安装到高级功能,助你成为本地 LLM 的玩转高手。
1. 快速上手 Ollama:安装与模型运行
安装 Ollama 异常简单,只需访问其官方网站并下载适合你操作系统的版本即可。

安装完成后,打开终端,运行模型就像输入一行命令一样轻松:
ollama run [模型名称]
例如,要运行 Qwen 0.5b 模型:
ollama run qwen:0.5b

Ollama 会自动下载并启动该模型。你甚至可以尝试 Google 的 Gemma 模型,它甚至支持图像理解!
2. 模型存储与管理:告别 C 盘爆满!
默认情况下,Ollama 会将模型下载到系统盘,这可能会导致空间不足。别担心,Ollama 提供了灵活的解决方案。
更改模型存储位置
要更改默认的模型下载位置,你需要设置 OLLAMA_MODELS 环境变量,并将已下载的模型移动到新位置。
-
Mac/Linux:
- 打开终端,编辑你的 shell 配置文件(例如
~/.bashrc,~/.zshrc或~/.bash_profile)。 - 添加以下行,将
/path/to/your/new/directory替换为你希望的新路径:export OLLAMA_MODELS=
- 打开终端,编辑你的 shell 配置文件(例如

最低0.47元/天 解锁文章
720

被折叠的 条评论
为什么被折叠?



