Linux系统离线安装ollama【详细版】

部署运行你感兴趣的模型镜像

前期准备

先下载好ollama安装包:ollama-linux-amd64.tgz
放入系统中
我的测试系统为:麒麟服务器操作系统V10 SP3 2403
在这里插入图片描述

安装

sudo tar -C /usr -xzvf ollama-linux-amd64.tgz //解压到目录

ollama serve //运行测试

在这里插入图片描述
以上为启动成功

启动失败

在这里插入图片描述
启动失败会出现:ollama: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.25‘ not found (required by ollama)

解决缺少GLIBCXX_3.4.25的问题

解决方法我写有文章:ollama: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.25‘ not found (required by ollama)

创建自动启动ollama

vim  /etc/systemd/system/ollama.service

填入

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"

[Install]
WantedBy=default.target

执行命令做开机自启

sudo systemctl daemon-reload
systemctl start ollama
systemctl enable ollama

在这里插入图片描述
这样就设置成功了

测试

在这里插入图片描述
测试下载deepseek-r1:70b没问题

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

<think>嗯,用户想要在Linux系统离线安装Ollama,这看起来有点挑战,因为Ollama默认可能需要在线下载模型或者依赖。首先,我需要回忆一下Ollama安装步骤,常规情况下是怎么安装的,然后再考虑离线情况下需要哪些调整。 首先,常规安装Ollama是通过脚本下载并安装的,比如使用curl命令从官网获取安装脚本然后执行。但离线环境显然不能这样。所以用户需要提前下载好所有必要的文件,包括Ollama的二进制包和可能的依赖项。 接下来,我得确认Ollama是否有提供离线安装的选项或者二进制包直接下载。查看Ollama的官方文档或者GitHub仓库,看是否有Release页面提供Linux的二进制文件。假设存在的话,用户需要先在有网络的环境下下载这些文件,然后转移到离线机器上。 然后,依赖项的问题。Ollama可能依赖一些库,比如GPU相关的驱动,如CUDA、Nvidia驱动等,或者是其他系统库。在离线环境中,这些依赖需要预先安装好,或者将它们的安装包一并下载并手动安装。 另外,Ollama运行时可能需要访问某些端口或者服务,离线环境下需要确保这些端口没有被防火墙阻挡,并且服务正常启动。比如,Ollama默认的11434端口是否开放。 用户可能还关心如何在没有网络的情况下加载模型。通常Ollama会从网上下载模型,所以离线情况下需要提前下载好模型文件,然后通过某种方式导入到Ollama中。可能需要使用Ollama的命令行工具导入模型,或者将模型文件放置在正确的目录下。 需要分步骤说明:先在有网络的环境准备所有文件,然后转移到离线机器,安装二进制文件,处理依赖,配置环境,最后导入模型并测试运行。此外,可能还需要设置服务或者开机启动,确保Ollama离线环境下能正常启动。 还要考虑用户可能的系统本,比如是Ubuntu还是CentOS,不同的发行安装依赖的方法不同。可能需要给出通用的方法,或者提示用户根据系统类型调整步骤。 最后,要验证安装是否成功,比如运行ollama serve,或者执行ollama run命令加载本地模型,检查是否有错误输出。可能需要处理常见的权限问题,比如用户是否有权限访问指定的端口或目录。 总结步骤应该是:下载离线包和模型,传输到目标机器,安装Ollama安装依赖,配置模型,测试运行。需要详细说明每一步的具体操作,比如如何下载二进制文件,如何导入模型,如何处理可能的依赖缺失等。</think>以下是在Linux系统离线安装Ollama详细步骤: 一、准备工作(需联网环境) 1. 下载离线包 访问Ollama官方GitHub Releases页面(https://github.com/olm/ollama/releases) 下载对应架构的二进制包(如:ollama-linux-amd64) 2. 下载模型文件 在有网环境执行: ```bash ollama pull llama2 ``` 模型文件将保存在:`~/.ollama/models/` 3. 准备依赖库(以Ubuntu为例) 下载所需依赖: ```bash apt download libssl3 openssl libc6 libgcc-s1 ``` 二、离线环境操作 1. 传输文件到目标机器 将以下内容打包传输: - ollama-linux-amd64 - models目录 - 依赖的.deb包 2. 安装依赖库 ```bash sudo dpkg -i libssl3*.deb openssl*.deb libc6*.deb libgcc-s1*.deb ``` 3. 部署Ollama ```bash sudo install -Dm755 ollama-linux-amd64 /usr/local/bin/ollama sudo mkdir -p /usr/share/ollama/.ollama sudo cp -r models /usr/share/ollama/.ollama/ ``` 4. 创建服务文件 新建`/etc/systemd/system/ollama.service`: ```ini [Unit] Description=Ollama Service After=network-online.target [Service] User=ollama Group=ollama ExecStart=/usr/local/bin/ollama serve Restart=always [Install] WantedBy=default.target ``` 5. 创建专用用户 ```bash sudo useradd -r -s /bin/false ollama sudo chown -R ollama:ollama /usr/share/ollama ``` 三、验证安装 1. 启动服务 ```bash sudo systemctl daemon-reload sudo systemctl start ollama ``` 2. 检查状态 ```bash systemctl status ollama ``` 3. 测试接口 ```bash curl http://localhost:11434 ``` 四、使用模型 1. 运行模型(需提前导入) ```bash ollama run llama2 ``` 注意事项: 1. 模型文件需完整复制`~/.ollama/models`目录结构 2. 确保系统glibc本不低于2.31 3. 如需GPU加速,需提前安装CUDA驱动 4. 防火墙需开放11434端口 常见问题处理: - 依赖缺失:使用`ldd /usr/local/bin/ollama`检查缺失库 - 权限问题:确保/usr/share/ollama目录属于ollama用户 - 模型加载失败:检查模型文件哈希值与manifest.json是否一致
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值