本地离线部署ubuntu,自己配置OLLAMA.SERVICE 服务

sudo tee /etc/systemd/system/ollama.service > /dev/null <<EOF
[Unit]
Description=Ollama Service
After=network.target

[Service]
User=ollama
ExecStart=/usr/local/bin/ollama serve
Restart=always
Environment="OLLAMA_DEBUG=0"
Environment="OLLAMA_LOG_LEVEL=error"
Environment="OLLAMA_NUM_PARALLEL=8"
Environment="OLLAMA_MAX_LOADED_MODELS=2"
Environment="OMP_NUM_THREADS=16"
Environment="OLLAMA_GPU_LAYERS=40"
Environment="CUDA_VISIBLE_DEVICES=0,1"
Environment="OLLAMA_ENABLE_CUDA=1"
Environment="OLLAMA_HOST=0.0.0.0:5111"
Environment="OLLAMA_MODELS=/AI/OLLAMA/models"

[Install]
WantedBy=multi-user.target
EOF

如果你是离线环境 不能安装sh版本的ollama 只能通过该Tar安装时候,需要以上代码

之后进行服务重启

# 重载配置
sudo systemctl daemon-reload
# 启动服务
sudo systemctl start ollama
# 设置开机自启
sudo systemctl enable ollama
# 验证状态
systemctl status ollama

如果出现异常  建议将系统变量设置为你需要监听的需要的端口 

sudo usermod -g ollama funcir #权限给 用户
sudo usermod -aG ollama funcir #给用户添加到Ollama组

将模型文件夹权限给到 funcir

/usr/share/ 属于系统级目录

sudo mkdir -p /AI/OLLAMA/models
sudo chown -R ollama:ollama /AI/OLLAMA  
sudo chmod 775 /AI/OLLAMA/models


sudo chown -R funcir:ollama /usr/share/ollama
sudo chmod -R 750 /usr/share/ollama

<think>好的,用户想在Ubuntu 22.04服务器上离线部署Ollama。我需要根据之前提供的引用内容来整理步骤。首先,用户提到了离线安装,所以需要下载安装包并上传到服务器。引用[1]和[3]都提到了下载地址,应该用哪个呢?引用[1]给的GitHub releases页面,而引用[3]用的是curl下载tgz包。可能两者都是可行的,但需要统一一下步骤。 接下来,安装步骤方面,引用[1]提到上传文件后,给执行权限并运行服务,但路径可能需要调整。引用[3]用的是解压到/usr目录,这样可能更规范。所以应该建议用户下载tgz包,解压到/usr,这样ollama可执行文件就在系统路径里了。 然后,配置服务部分,用户需要让Ollama作为服务运行,这样重启后还能自动启动。可能需要创建systemd服务文件,这部分之前的引用没提到,但根据Linux常规操作,需要补充。比如创建/etc/systemd/system/ollama.service文件,定义服务配置离线模型导入也是关键,用户无法在线下载模型,所以需要手动导入。Ollama的模型存储路径一般在/usr/share/ollama/.ollama/models,可能需要用户将提前下载的模型文件放在这里。或者使用ollama create命令导入Modelfile和模型文件,这需要进一步确认。 权限问题,解压后的文件可能需要正确权限,引用[1]用了chmod +x,解压到/usr后可能已经具备执行权限,但需要确认。另外,服务运行的用户可能需要访问模型文件的权限,可能需要调整目录权限或者用户组。 防火墙设置,如果用户需要远程访问,可能需要开放端口11434。这部分之前的引用没提到,但属于常见配置步骤,应该包含进去。 最后验证安装,用curl访问本地API,或者运行ollama list命令,确认服务正常。用户可能还想知道如何导入模型的具体步骤,比如使用ollama pull的话离线情况下不行,所以需要手动放置模型文件,或者用ollama create结合Modelfile。 需要检查是否有遗漏的依赖,比如引用[2]提到了CUDA和cuDNN的安装,如果用户服务器有NVIDIA GPU,可能需要这些依赖来加速,但因为是离线环境,用户可能需要提前准备好这些库的安装包。不过用户的问题主要围绕Ollama,可能CUDA部分属于额外优化,可以放在可选步骤里。 总结步骤:下载安装包,上传服务器,解压到/usr,配置systemd服务,设置权限和防火墙,导入模型,验证安装。同时提供离线模型导入的具体方法,比如使用ollama create或者直接放置模型文件。</think>### Ubuntu 22.04 服务离线部署 Ollama 分步指南 #### 一、准备工作 1. **下载离线安装包** 从可联网设备访问 [Ollama GitHub Releases](https://github.com/ollama/ollama/releases/) 或直接下载: ```bash wget https://ollama.com/download/ollama-linux-amd64.tgz # 下载地址来自引用[3] ``` 2. **传输文件到服务器** 将 `ollama-linux-amd64.tgz` 通过U盘或SCP上传至目标服务器的 `/tmp` 目录。 #### 二、安装步骤 1. **解压安装文件** ```bash sudo tar -C /usr -xzf /tmp/ollama-linux-amd64.tgz # 引用[3]的解压方式 ``` 文件将被解压到 `/usr/bin/ollama` 2. **配置系统服务** 创建服务文件 `/etc/systemd/system/ollama.service`: ```ini [Unit] Description=Ollama Service After=network.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always [Install] WantedBy=multi-user.target ``` 3. **创建专用用户** ```bash sudo useradd -r -s /bin/false ollama ``` #### 三、离线模型部署 1. **模型目录准备** ```bash sudo mkdir -p /usr/share/ollama/.ollama/models sudo chown -R ollama:ollama /usr/share/ollama ``` 2. **手动导入模型**(需提前获取模型文件) 将预下载的模型文件(如 `llama2` 的 `bin` 和 `modelfile`)复制到模型目录: ```bash sudo cp /path/to/local/model/* /usr/share/ollama/.ollama/models/ ``` #### 四、启动与验证 1. **启动服务** ```bash sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama ``` 2. **验证安装** ```bash curl http://localhost:11434 # 预期返回Ollama版本信息 ``` #### 五、高级配置(可选) 1. **GPU加速支持** 若需CUDA加速,需提前离线安装NVIDIA驱动和CUDA工具包(参考引用[2]的方法准备deb包): ```bash sudo dpkg -i cudnn-local-repo-*.deb sudo apt-get install cudnn-cuda-12 ``` 2. **防火墙设置** ```bash sudo ufw allow 11434/tcp ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值