Ollama【部署 05】Linux环境安装、升级、启动脚本(connection reset by peer异常)

1.安装

GitHub下载 安装包,上传到 Linux 服务器后:

# 解压
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
# 启动
ollama serve
# 验证
ollama -v

2.升级

2.1 官网升级说明

可查看《手动安装文档》的 Updating 章节:

Update Ollama by running the install script again:

curl -fsSL https://ollama.com/install.sh | sh

Or by re-downloading Ollama:

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

实际上就是覆盖之前的安装文件。

2.2 实际升级步骤

下载最新版本安装包并上传服务器后:

# 依然是解压
tar -zxvf ollama-linux-amd64.tgz

# 输出日志(0.5.11升级到0.6.2)
bin/ollama
lib/ollama/cuda_v11/
lib/ollama/cuda_v11/libcublas.so.11
lib/ollama/cuda_v11/libggml-cuda.so

gzip: stdin: invalid compressed data--format violated
tar: 归档文件中异常的 EOF
tar: 归档文件中异常的 EOF
tar: Error is not recoverable: exiting now

# 输出日志(0.6.2升级到0.6.8)
bin/ollama
lib/ollama/cuda_v11/
lib/ollama/cuda_v11/libcudart.so.11.0
lib/ollama/cuda_v11/libcublas.so.11.5.1.109
lib/ollama/cuda_v11/libcublasLt.so.11
lib/ollama/cuda_v11/libcublas.so.11
lib/ollama/cuda_v11/libcudart.so.11.3.109
lib/ollama/cuda_v11/libggml-cuda.so
lib/ollama/cuda_v11/libcublasLt.so.11.5.1.109
lib/ollama/cuda_v12/
lib/ollama/cuda_v12/libcudart.so.12
lib/ollama/cuda_v12/libcublasLt.so.12
lib/ollama/cuda_v12/libcublas.so.12
lib/ollama/cuda_v12/libcudart.so.12.8.90
lib/ollama/cuda_v12/libcublas.so.12.8.4.1
lib/ollama/cuda_v12/libcublasLt.so.12.8.4.1
lib/ollama/cuda_v12/libggml-cuda.so
lib/ollama/libggml-base.so
lib/ollama/libggml-cpu-alderlake.so
lib/ollama/libggml-cpu-haswell.so
lib/ollama/libggml-cpu-icelake.so
lib/ollama/libggml-cpu-sandybridge.so
lib/ollama/libggml-cpu-skylakex.so
lib/ollama/libggml-cpu-sse42.so
lib/ollama/libggml-cpu-x64.so

可以忽略升级过程中的日志输出。

3.启动脚本

使用 lscpu查看 CPU 核心数:

# 查询命令
lscpu

# 输出结果
架构:                   x86_64
  CPU 运行模式:         32-bit, 64-bit
  Address sizes:         46 bits physical, 48 bits virtual
  字节序:               Little Endian
CPU:                     40
  在线 CPU 列表:        0-39

启动脚本:

export OMP_NUM_THREADS=40
export OLLAMA_NUM_THREADS=40
export OLLAMA_NUM_PARALLEL=0
export OLLAMA_KEEP_ALIVE="2h"
export OLLAMA_MODELS=/root/.ollama/models
export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_HOST=0.0.0.0:11434
nohup ./ollama serve >> serve.log 2>&1 &

3.1 变量说明

  1. OLLAMA_DEBUG(显示额外的调试信息)
# 没有开启
export OLLAMA_DEBUG=1
  1. OLLAMA_HOST(指定 ollama 服务器的 IP 地址和端口,默认为 127.0.0.1:11434)
export OLLAMA_HOST=0.0.0.0:11434
  1. OLLAMA_KEEP_ALIVE(设置模型在内存中保持加载的时间,默认为 5m)
export OLLAMA_KEEP_ALIVE="2h"
  1. OLLAMA_MAX_LOADED_MODELS(指定每个 GPU 上可以同时加载的最大模型数)
  2. OLLAMA_MAX_QUEUE(设置允许排队的最大请求数量)
  3. OLLAMA_MODELS(指定存储模型的目录路径)
  4. OLLAMA_NUM_PARALLEL(设置允许同时处理的最大并行请求数量)
  5. OLLAMA_NOPRUNE(禁用启动时清理模型 blob 文件的功能)
  6. OLLAMA_ORIGINS(指定允许的跨域请求来源,以逗号分隔)
export OLLAMA_ORIGINS="http://example.com,https://localhost"
  1. OLLAMA_SCHED_SPREAD(强制将模型均匀分配到所有 GPU 上)
  2. OLLAMA_FLASH_ATTENTION(启用 Flash Attention,加速注意力机制)
  3. OLLAMA_KV_CACHE_TYPE(设置 K/V 缓存的量化类型,默认为 f16)
export OLLAMA_KV_CACHE_TYPE="q4_0"
  1. OLLAMA_LLM_LIBRARY(指定 LLM 库以绕过自动检测)
  2. OLLAMA_GPU_OVERHEAD(为每个 GPU 预留一部分 VRAM,以字节为单位)
  3. OLLAMA_LOAD_TIMEOUT(设置模型加载的最大等待时间,默认为 5m)
export OLLAMA_LOAD_TIMEOUT="10m"

4.connection reset by peer

Error: pull model manifest: Get "https://registry.ollama.ai/v2/library/qwen3/manifests/0.6b": read tcp xxx.xxx.x.xxx:49086->104.21.75.227:443: read: connection reset by peer

公司内网问题,所有的服务器都无法下载模型文件,我使用云服务器下载模型,进行了离线导入。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@寻觅远方

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值