linux系统unbantu安装离线版ollama

一, 下载脚本和安装包

  1. 下载脚本
wget https://ollama.com/install.sh
  1. 修改脚本
#注释掉下面4行代码
#status "Downloading Linux ${ARCH} bundle"
#curl --fail --show-error --location --progress-bar \
#    "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
#    $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"

#接着添加这行代码
$SUDO tar -C "$OLLAMA_INSTALL_DIR" -xzf ./ollama-linux-amd64.tgz

  1. 修改权限:
sudo chmod a+x  install.sh
  1. 下载安装包
    github地址
    [后续放在网盘里]
    根据cpu选择对应的,我的是ollama-linux-amd64.tgz , 注意install.sh 和 ollama-linux-amd64.tgz 在相同路径下

  2. 执行安装

./install.sh

在这里插入图片描述

二,启动测试

  1. 启动
ollama serve

在这里插入图片描述

2.查询版本

root:~/ollama-model# ollama -v
ollama version is 0.9.6

  1. 关闭服务
service ollama stop

三,添加开机自启服务

  1. 修改配置文件
sudo vim /etc/systemd/system/ollama.service

在这里插入图片描述
根据上图进行修改

  1. 把User改为 你的linux系统用户名 ,Group 改为 你的linux用户组
  2. 添加 Environment=“OLLAMA_MODELS=/path/ollama_cache” 改为你的路径
  3. 添加 Environment=“OLLAMA_HOST=0.0.0.0:11434” 配置ollama 服务监听所有IP和端口11434

修改后如下:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="OLLAMA_MODELS=/root/ollama-model"
Environment="OLLAMA_HOST=0.0.0.0:11434
Environment="PATH=/root/miniconda3/bin:/usr/local/bin:/usr/local/nvidia/bin:/usr/local/cuda/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"

[Install]
WantedBy=default.target

2.重新加载配置

systemctl daemon-reload

3.启动ollama

systemctl start ollama

如果是autoDL服务器,它的系统未使用 systemd 作为初始化系统,因此无法通过 systemctl 命令管理服务,只手工启动即可

# 前台启动(适合调试,关闭终端则服务停止)
ollama serve

# 后台启动(推荐,服务在后台运行)
ollama serve &

# 停止服务
service ollama stop

  1. 查询模型配置文件
ollama show deepseek --modelfile
### 安装环境准备 对于仅能使用带GPU资源的内部Linux服务器(X86-64/CentOS7),当服务器无外网连接时,离线安装Ollama需提前准备好所需文件并传输至目标机器。确保本地计算机可以访问互联网以便下载必要的组件[^1]。 ### 获取安装包 在有网络连接的工作站上获取适用于CentOS 7版本的Ollama安装文件以及其他依赖库。官方通常会提供不同操作系统的二进制分发版;确认选择与当前系统架构相匹配的那个。如果存在特定版本需求,则按照项目文档指引定位相应标签下的资产链接完成下载工作。 ### 转移文件到目标主机 利用安全拷贝协议(SCP)或者其他物理介质如USB驱动器等方式把之前获得的数据集传送到内网中的计算节点之上。注意保持目录结构不变以简化后续配置流程。 ```bash scp ollama-package.tar.gz user@target-server:/path/to/destination/ ``` ### 解压并设置执行权限 到达目的地之后解压缩归档并将可执行位赋予给即将运行的应用程序主体部分: ```bash tar -xzf ollama-package.tar.gz -C /opt/ chmod +x /opt/ollama/bin/* ``` ### 配置环境变量(如有必要) 依据实际情况决定是否要永久修改用户的shell profile来添加新工具路径到`PATH`环境变量中去。这一步骤可以让命令行界面识别来自自定义位置的新指令而无需每次都指定全限定名调用它们。 编辑~/.bashrc 或者其他合适的启动脚本加入如下内容: ```bash export PATH=$PATH:/opt/ollama/bin ``` 使更改立即生效可以通过source命令加载更新后的配置文件: ```bash source ~/.bashrc ``` ### 测试安装成果 最后验证一切正常运作的方法就是尝试发起一些简单的请求看看能否得到预期响应。比如查看帮助信息或者查询已知模型列表等基础功能测试均有助于初步判断部署状态良好与否。 ```bash ollama --help ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值