3.Linux(Debian)傻瓜式安装Ollama

安装速度还可以,试了一下很快就成功了。

执行命令即可。

curl -fsSL https://ollama.com/install.sh | sh

系统会执行以下操作:

### 完整执行流程及产生的效果:
```mermaid
graph TD
    A[开始安装] --> B[下载安装脚本]
    B --> C[执行系统检测]
    C --> D[添加软件源]
    D --> E[安装主程序]
    E --> F[创建系统服务]
    F --> G[设置目录结构]
    G --> H[启动Ollama服务]
    H --> I[验证安装]
```

#### 具体执行步骤和系统变更:
1. **系统检测与准备**
   - 自动检测 Linux 发行版(支持 Ubuntu/Debian/CentOS/RHEL)
   - 安装依赖包:`ca-certificates`、`curl`、`gnupg` 等

2. **添加官方软件源**
   - 创建源配置文件:`/etc/apt/sources.list.d/ollama.list` (Debian系) 或 `/etc/yum.repos.d/ollama.repo` (RHEL系)
   - 导入 GPG 密钥:`https://ollama.com/gpg.key`

3. **安装核心组件**
   - 下载并安装 Ollama 主程序包:`ollama_x.x.x_linux_amd64.deb/.rpm`
   - 安装位置:`/usr/bin/ollama`

4. **创建系统服务**
   - 生成 systemd 服务文件:`/etc/systemd/system/ollama.service`
   - 设置服务用户:专有用户 `ollama`(UID 111)
   - 启用服务自启动:`systemctl enable ollama`

5. **建立核心目录**
   ```bash
   /var/lib/ollama        # 主存储目录(模型文件)
   /etc/systemd/system    # 服务配置文件
   ~/.ollama              # 用户级配置目录
   ```

6. **启动服务**
   - 自动启动服务:`systemctl start ollama`
   - 生成日志文件:`journalctl -u ollama -f` 可查看实时日志

7. **环境准备**
   - 设置默认监听端口:`:11434`(HTTP)
   - 开放必要防火墙端口(如有)

### 安装后验证:

# 检查版本
ollama --version
# 示例输出:ollama version 0.1.32

# 检查服务状态
systemctl status ollama
# 应显示 active (running)

# 验证端口监听
ss -tuln | grep 11434
# 应显示 LISTEN 状态

   

### 首次使用准备:
1. 下载基础模型:

ollama run llama2

2. 模型默认存储位置:   /var/lib/ollama/models

> 注意:如果系统中存在旧版本,安装脚本会自动执行升级操作。安装完成后无需手动重启系统。

3.也可以拉取其他模型并运行

# 下载模型文件(或第一次启动模型的时候,也会自动下载)

ollama pull deepseek-r1:7b

ollama pull qwen2:7b  

在命令启动模型使用

ollama run deepseek-r1:7b

如果对开始安装Ollama的命令不放心可以使用以下验证命令(按执行顺序排列):

1.验证服务是否安装并运行

# 检查系统服务状态(Systemd系统)
sudo systemctl status ollama

# 检查服务端口是否监听(默认11434)
sudo ss -tulnp | grep ':11434'
# 或
curl http://localhost:11434  # 应返回{"status":"success"}或Ollama版本信息

### 2. 验证核心程序安装
 

# 查看安装路径
ls -l /usr/bin/ollama

# 检查版本号
ollama --version  # 例如:ollama version 0.1.32

### 3. 验证系统组件

# 检查用户组是否存在
getent group ollama# 检查服务配置文件
ls -l /etc/systemd/system/ollama.service# 检查数据存储目录(默认在 ~/.ollama)
ls -al ~/.ollama

### 4. 功能测试命令
 

# 获取可用模型列表
ollama list# 测试模型运行(需先下载模型)
ollama run llama2 "你好,世界!"

### 5. 深度验证(日志检查)
 

# 查看实时服务日志
journalctl -u ollama.service -f# 检查安装过程日志(在/tmp目录)
ls -l /tmp/ollama*.log

### 验证结果对照表
| 验证点    |     成功标志         |                         失败处理             |
|---------|----------------|------------------------------|
| 服务状态 | `active (running)| `sudo systemctl restart ollama` |
| 端口监听 | `LISTEN` 状态     | 检查防火墙 `sudo ufw allow 11434` |
| CLI响应 | 版本号输出           | 检查PATH变量 `/usr/bin/ollama` |
| 模型运行 | 返回AI响应          | ollama pull llama2` 下载模型 |

sudo systemctl enable ollama    开启ollama开机自启

sudo systemctl disable ollama    关闭ollama开机自启

sudo systemctl start ollama    启动

ollma sudo systemctl status ollama    查看ollama运行状态

sudo systemctl stop ollama    停止ollama

<think>好的,用户想在Debian Linux的Docker环境中安装和运行Ollama。我需要先回忆一下Ollama安装步骤,尤其是Docker相关的部分。 首先,根据用户提供的引用[1],Linux用户通常可以通过运行命令`curl -fsSL https://ollama.com/install.sh | sh`来安装Ollama。但用户现在需要在Docker环境中安装,可能需要构建一个Docker镜像或者使用现有的镜像。 然后看引用[2],用户之前提到过构建Docker镜像的命令,比如`docker build -t mld05_gpu_train -f &#39;Dockerfile.train&#39; .`。所以可能需要创建一个Dockerfile来安装Ollama。 接下来,我需要确定Ollama是否有官方的Docker镜像。如果没有的话,可能需要自己编写Dockerfile,基于Debian系统,然后安装Ollama的依赖项,运行安装脚本,最后设置入口点或者运行命令。 另外,用户提到的是Debian系统,所以在Dockerfile中应该使用Debian的基础镜像,比如`debian:latest`。然后安装curl,因为安装脚本需要使用curl下载。之后运行安装脚本,暴露必要的端口,比如11434,这是Ollama默认的端口。 可能还需要考虑权限问题,比如在Docker容器中是否需要使用--gpus参数来启用GPU支持,但用户的问题中没有特别提到GPU,可能暂时不需要。不过如果有的话,可能需要安装NVIDIA的依赖。 最后,运行容器的时候需要映射端口,这样宿主机可以访问Ollama的服务。可能需要测试一下容器运行后是否能正常使用Ollama的命令,比如`ollama run`之类的。 总结步骤应该是:创建Dockerfile,构建镜像,运行容器,并验证安装。同时,用户可能还想知道如何验证安装是否成功,比如运行一个模型或者访问API端点。 可能的问题点包括:确保Dockerfile中的步骤正确,比如安装curl,正确运行安装脚本,处理依赖项,以及正确暴露端口。另外,可能需要检查Ollama在Docker中的运行日志是否有错误。 用户可能还关心如何在容器中使用Ollama,比如如何下载模型,如何持久化存储模型数据,可能需要挂载卷到容器中,这样模型数据不会丢失。但用户的问题主要是安装和运行,这部分可能在后续问题中提及。 现在需要将这些步骤整理成清晰的指令,确保用户能够按照步骤操作。同时生成相关问题,帮助用户扩展了解,比如持久化存储、GPU支持、更新等。</think>### 在 Debian Linux Docker 中安装和运行 Ollama 的步骤 #### 1. 创建 Dockerfile 新建文件 `Dockerfile`,内容如下: ```dockerfile FROM debian:latest # 安装依赖 RUN apt-get update && apt-get install -y curl # 安装 Ollama RUN curl -fsSL https://ollama.com/install.sh | sh # 暴露默认端口 EXPOSE 11434 # 启动命令 ENTRYPOINT ["ollama", "serve"] ``` #### 2. 构建 Docker 镜像 执行以下命令构建镜像: ```bash docker build -t ollama-debian . ``` 这会基于 Debian 系统安装 Ollama 并命名为 `ollama-debian`[^1]。 #### 3. 运行容器 启动容器并映射端口: ```bash docker run -d -p 11434:11434 --name ollama-instance ollama-debian ``` 参数说明: - `-d`: 后台运行 - `-p 11434:11434`: 将容器端口映射到宿主机 - `--name ollama-instance`: 指定容器名称[^2] #### 4. 验证运行状态 检查容器日志: ```bash docker logs ollama-instance ``` 若输出包含 `Listening on 0.0.0.0:11434` 则表示运行成功。 #### 5. 使用 Ollama 在容器内执行命令(例如下载模型): ```bash docker exec -it ollama-instance ollama run llama2 ``` --- ### 持久化模型数据(可选) 若需保存模型文件,可挂载卷到容器: ```bash docker run -d -p 11434:11434 -v ollama-data:/root/.ollama --name ollama-instance ollama-debian ``` 这会创建名为 `ollama-data` 的卷存储模型[^2]。 --- ### GPU 支持(如需) 若需启用 GPU 加速,添加 `--gpus all` 参数: ```bash docker run -d --gpus all -p 11434:11434 --name ollama-gpu ollama-debian ``` 需提前安装 NVIDIA Container Toolkit[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值