ubuntu ollama 遇到的若干问题

Ubuntu重装Ollama遇到的问题及解决

服务器原先有ollama,想要重装,遇到一系列问题

安装下载连接:https://github.com/ollama/ollama/blob/main/docs/linux.md

模型下载链接:https://ollama.com/library/deepseek-r1:1.5b

一、安装新的ollama

在root用户下操作

1.卸载已安装的ollama

# Remove the ollama service:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

# Remove the ollama binary from your bin directory (either /usr/local/bin, /usr/bin, or /bin):

sudo rm $(which ollama)

# Remove the downloaded models and Ollama service user and group:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

# Remove installed libraries:

sudo rm -rf /usr/local/lib/ollama

# Rremove the old libraries
sudo rm -rf /usr/lib/ollama

2.安装

curl -fsSL https://ollama.com/install.sh | sh

该命令国内下载缓慢,采取手工安装方式

Download and extract the package:

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
# 如果在服务器无法下载,直接在本地电脑浏览器打开 https://ollama.com/download/ollama-linux-amd64.tgz 下载文件,然后将文件移到服务器上

sudo tar -C /usr -xzf ollama-linux-amd64.tgz

# Start Ollama:

ollama serve
# 可以正常启动,但是显示日志,所以使用以下命令 
# ollama serve &

# In another terminal, verify that Ollama is running:

ollama -v

3.设置启动服务

# Adding Ollama as a startup service (recommended)
# Create a user and group for Ollama:

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

# Create a service file in /etc/systemd/system/ollama.service:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=multi-user.target

# Then start the service:

sudo systemctl daemon-reload
sudo systemctl enable ollama

4.对外提供模型服务

便于dify,ragflow平台调用

vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

Environment="PATH=$PATH"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_PORT=11434"
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=multi-user.target
sudo systemctl daemon-reload

sudo systemctl restart ollama

二、遇到的问题

1.Error: listen tcp 127.0.0.1:11434: bind: address already in us

# 命令
ollama serve
# 问题
Error: listen tcp 127.0.0.1:11434: bind: address already in us

查找占用 11434 端口的进程并终止进程

# 查看
sudo lsof -i :11434
# 终止
kill -9 <PID>
# 重新启动
ollama serve

若问题没有解决

root@user-NF5280M6:/home/lzm/Downloads# sudo lsof -i :11434
COMMAND     PID USER   FD   TYPE    DEVICE SIZE/OFF NODE NAME
ollama  3558609 root    3u  IPv4 274643309      0t0  TCP localhost:11434 (LISTEN)
root@user-NF5280M6:/home/lzm/Downloads# kill -9 3558609
root@user-NF5280M6:/home/lzm/Downloads# sudo lsof -i :11434
COMMAND     PID USER   FD   TYPE    DEVICE SIZE/OFF NODE NAME
ollama  3563660 root    3u  IPv4 274711630      0t0  TCP localhost:11434 (LISTEN)
ps aux | grep ollama

# 强制终止所有 Ollama 进程
pkill ollama

2.下载模型超时,无法下载

ollama run deepseek-r1:1.5b
[GIN] 2025/06/27 - 10:42:02 | 200 |      42.146µs |       127.0.0.1 | HEAD     "/"
[GIN] 2025/06/27 - 10:42:02 | 404 |     209.992µs |       127.0.0.1 | POST     "/api/show"
pulling manifest ⠏ time=2025-06-27T10:42:12.655+08:00 level=INFO source=images.go:713 msg="request failed: Get \"https://registry.ollama.ai/v2/library/deepseek-r1/manifests/1.5b\": dial tcp: lookup registry.ollama.ai on 127.0.0.53:53: read udp 127.0.0.1:36213->127.0.0.53:53: i/o timeout"
[GIN] 2025/06/27 - 10:42:12 | 200 |  10.00749667s |       127.0.0.1 | POST     "/api/pull"
pulling manifest
Error: pull model manifest: Get "https://registry.ollama.ai/v2/library/deepseek-r1/manifests/1.5b": dial tcp: lookup registry.ollama.ai on 127.0.0.53:53: read udp 127.0.0.1:36213->127.0.0.53:53: i/o timeout

选用国内镜像

阿里云:https://registry.ollama.ai
DeepSeek 官方镜像:https://ollama.deepseek.com
浙江大学镜像站:https://ollama.zju.edu.cn
魔搭社区:https://ollama.modelscope.cn
mkdir -p ~/.ollama
cat << EOF > ~/.ollama/config.json
{
    "registry": {
        "mirrors": {
            "registry.ollama.ai": "https://ollama.deepseek.com"
        }
    }
}
EOF
sudo systemctl restart ollama


sudo systemctl status ollama

参考链接:Ollma通过国内源实现模型本地化部署_ollama国内镜像源-优快云博客

通义

三、运行情况展示

1.服务器端(UBUNTU OLLAMA)

2.平台端(DIFY)

### 安装指南 #### 下载与安装 在 Ubuntu 系统上安装 Ollama,可以通过以下几种方式进行: 1. **在线安装** 如果您的系统有互联网连接,可以使用官方提供的安装脚本进行安装。执行以下命令: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 该脚本会自动创建 `ollama` 用户,并将其添加到 `render` 和 `video` 组中。同时,它还会将当前用户添加到 `ollama` 组,并创建一个 systemd 服务来运行 Ollama API。 2. **离线安装** 对于没有网络连接的环境,可以从 GitHub 手动下载 Ollama 的二进制文件并进行安装。首先,访问以下链接下载适用于 AMD64 架构的版本: - [https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tgz](https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tgz) 或者,如果您希望加速下载速度,可以使用如下镜像地址: - [https://ghfast.top/https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tgz](https://ghfast.top/https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tgz) 下载完成后,解压文件并将 `ollama` 可执行文件移动到 `/usr/local/bin/` 目录下: ```bash tar -xvf ollama-linux-amd64.tgz sudo mv ollama /usr/local/bin/ ``` 3. **解决依赖问题** 在某些情况下,可能会遇到依赖性错误。如果出现此类问题,可以尝试使用 `apt-get install --fix-broken` 来修复: ```bash sudo apt-get install -f ``` #### 配置 Ollama 安装完成后,默认会在本地监听 `127.0.0.1:11434` 提供 API 服务。您可以直接通过命令行工具调用 `ollama` 命令来启动和管理模型。 此外,Ollama 会在安装过程中自动创建一个名为 `ollama` 的用户,并配置相应的权限。如果没有检测到 NVIDIA 或 AMD GPU,Ollama 将默认以 CPU-only 模式运行[^1]。 #### 使用 一旦安装成功,您就可以开始使用 Ollama 来加载和运行各种机器学习模型。例如,要拉取并运行一个预训练的模型(如 `llama2`),可以执行以下命令: ```bash ollama pull llama2 ollama run llama2 ``` 这将会从远程仓库下载指定的模型,并在本地环境中启动交互式会话。 对于更高级的用途,比如自定义模型或者调整运行参数,可以查阅 Ollama 的官方文档获取更多信息。 ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

你喜欢喝可乐吗?

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值