文章目录
1. Ollama 概述
Ollama 是一个强大的本地大语言模型运行框架,它允许用户在本地计算机上运行各种开源大语言模型。与传统的云服务不同,Ollama 提供了完全本地化的解决方案,这意味着:
- 数据隐私性更好
- 无需网络连接
- 可以完全控制模型运行环境
- 支持多种模型格式
2. 系统要求
在开始安装之前,请确保您的系统满足以下要求:
2.1 硬件要求
- CPU: 推荐 4 核以上
- 内存: 最低 8GB,推荐 16GB 以上
- 存储空间: 至少 20GB 可用空间(用于存储模型)
- GPU: 可选,但推荐使用 NVIDIA GPU 以获得更好的性能
2.2 软件要求
- 操作系统:
- macOS 10.15 或更高版本
- Linux (Ubuntu 20.04 或更高版本)
- Windows 10/11 (通过 WSL2)
- Python 3.8 或更高版本
- Git
3. 安装步骤
3.1 macOS 安装
# 使用 Homebrew 安装(推荐)
brew install ollama
# 或者使用 curl 安装
curl -fsSL https://ollama.ai/install.sh | sh
3.2 Linux 安装
# 使用 curl 安装
curl -fsSL https://ollama.ai/install.sh | sh
# 或者手动安装
# 1. 下载安装包
wget https://ollama.ai/download/ollama-linux-amd64
# 2. 添加执行权限
chmod +x ollama-linux-amd64
# 3. 移动到系统路径
sudo mv ollama-linux-amd64 /usr/local/bin/ollama
3.3 Windows 安装(通过 WSL2)
# 1. 首先确保已安装 WSL2
# 2. 在 WSL2 中运行以下命令
curl -fsSL https://ollama.ai/install.sh | sh
4. 环境配置
4.1 基本配置
安装完成后,需要进行一些基本配置:
# 创建配置文件目录
mkdir -p ~/.ollama
# 创建配置文件
touch ~/.ollama/config.json
4.2 配置文件示例
{
"model_path": "~/.ollama/models", // 模型存储路径
"cache_path": "~/.ollama/cache", // 缓存路径
"log_level": "info", // 日志级别
"gpu_enabled": true, // 是否启用 GPU
"max_memory": "16GB" // 最大内存使用量
}
4.3 环境变量设置
# 添加到 ~/.bashrc 或 ~/.zshrc
export OLLAMA_MODELS_PATH=~/.ollama/models
export OLLAMA_CACHE_PATH=~/.ollama/cache
5. 验证安装
安装完成后,可以通过以下命令验证安装是否成功:
# 检查版本
ollama --version
# 运行测试命令
ollama list
6. 常见问题解决
6.1 安装失败
- 问题:安装过程中出现权限错误
- 解决方案:
# 添加执行权限 chmod +x /usr/local/bin/ollama # 或者使用 sudo 安装 sudo curl -fsSL https://ollama.ai/install.sh | sh
6.2 模型下载失败
- 问题:下载模型时网络连接超时
- 解决方案:
# 设置代理(如果需要) export https_proxy=http://127.0.0.1:7890 export http_proxy=http://127.0.0.1:7890
6.3 GPU 支持问题
- 问题:GPU 无法被识别
- 解决方案:
# 检查 CUDA 安装 nvidia-smi # 确保安装了正确的驱动 sudo apt-get install nvidia-driver-xxx
7. 下一步
安装完成后,您可以:
- 下载第一个模型
- 开始使用 Ollama
- 探索更多高级功能
建议先尝试下载一个小型模型进行测试,例如:
ollama pull llama2:7b
8. 注意事项
- 首次运行时,Ollama 会自动下载必要的依赖
- 模型下载可能需要较长时间,取决于网络速度
- 建议定期更新 Ollama 以获取最新功能和修复
- 如果遇到问题,可以查看日志文件:
~/.ollama/logs/ollama.log