安装速度还可以,试了一下很快就成功了。
执行命令即可。
curl -fsSL https://ollama.com/install.sh | sh
系统会执行以下操作:
### 完整执行流程及产生的效果:
```mermaid
graph TD
A[开始安装] --> B[下载安装脚本]
B --> C[执行系统检测]
C --> D[添加软件源]
D --> E[安装主程序]
E --> F[创建系统服务]
F --> G[设置目录结构]
G --> H[启动Ollama服务]
H --> I[验证安装]
```
#### 具体执行步骤和系统变更:
1. **系统检测与准备**
- 自动检测 Linux 发行版(支持 Ubuntu/Debian/CentOS/RHEL)
- 安装依赖包:`ca-certificates`、`curl`、`gnupg` 等
2. **添加官方软件源**
- 创建源配置文件:`/etc/apt/sources.list.d/ollama.list` (Debian系) 或 `/etc/yum.repos.d/ollama.repo` (RHEL系)
- 导入 GPG 密钥:`https://ollama.com/gpg.key`
3. **安装核心组件**
- 下载并安装 Ollama 主程序包:`ollama_x.x.x_linux_amd64.deb/.rpm`
- 安装位置:`/usr/bin/ollama`
4. **创建系统服务**
- 生成 systemd 服务文件:`/etc/systemd/system/ollama.service`
- 设置服务用户:专有用户 `ollama`(UID 111)
- 启用服务自启动:`systemctl enable ollama`
5. **建立核心目录**
```bash
/var/lib/ollama # 主存储目录(模型文件)
/etc/systemd/system # 服务配置文件
~/.ollama # 用户级配置目录
```
6. **启动服务**
- 自动启动服务:`systemctl start ollama`
- 生成日志文件:`journalctl -u ollama -f` 可查看实时日志
7. **环境准备**
- 设置默认监听端口:`:11434`(HTTP)
- 开放必要防火墙端口(如有)
### 安装后验证:
# 检查版本
ollama --version
# 示例输出:ollama version 0.1.32
# 检查服务状态
systemctl status ollama
# 应显示 active (running)
# 验证端口监听
ss -tuln | grep 11434
# 应显示 LISTEN 状态
### 首次使用准备:
1. 下载基础模型:
ollama run llama2
2. 模型默认存储位置: /var/lib/ollama/models
> 注意:如果系统中存在旧版本,安装脚本会自动执行升级操作。安装完成后无需手动重启系统。
3.也可以拉取其他模型并运行
# 下载模型文件(或第一次启动模型的时候,也会自动下载)
ollama pull deepseek-r1:7b
ollama pull qwen2:7b
在命令启动模型使用
ollama run deepseek-r1:7b
如果对开始安装Ollama的命令不放心可以使用以下验证命令(按执行顺序排列):
1.验证服务是否安装并运行
# 检查系统服务状态(Systemd系统)
sudo systemctl status ollama# 检查服务端口是否监听(默认11434)
sudo ss -tulnp | grep ':11434'
# 或
curl http://localhost:11434 # 应返回{"status":"success"}或Ollama版本信息
### 2. 验证核心程序安装
# 查看安装路径
ls -l /usr/bin/ollama# 检查版本号
ollama --version # 例如:ollama version 0.1.32
### 3. 验证系统组件
# 检查用户组是否存在
getent group ollama# 检查服务配置文件
ls -l /etc/systemd/system/ollama.service# 检查数据存储目录(默认在 ~/.ollama)
ls -al ~/.ollama
### 4. 功能测试命令
# 获取可用模型列表
ollama list# 测试模型运行(需先下载模型)
ollama run llama2 "你好,世界!"
### 5. 深度验证(日志检查)
# 查看实时服务日志
journalctl -u ollama.service -f# 检查安装过程日志(在/tmp目录)
ls -l /tmp/ollama*.log
### 验证结果对照表
| 验证点 | 成功标志 | 失败处理 |
|---------|----------------|------------------------------|
| 服务状态 | `active (running)| `sudo systemctl restart ollama` |
| 端口监听 | `LISTEN` 状态 | 检查防火墙 `sudo ufw allow 11434` |
| CLI响应 | 版本号输出 | 检查PATH变量 `/usr/bin/ollama` |
| 模型运行 | 返回AI响应 | ollama pull llama2` 下载模型 |
sudo systemctl enable ollama 开启ollama开机自启
sudo systemctl disable ollama 关闭ollama开机自启
sudo systemctl start ollama 启动
ollma sudo systemctl status ollama 查看ollama运行状态
sudo systemctl stop ollama 停止ollama