ollama部署

之前工作就是给公司搞人工智能,最近deepseek火了,我还是把之前在ubuntu的GPU服务器上安装ollama的方式写一下吧

摘要:大模型框架,以及一站式大模型管理平台的部署,本文填写了一些部署的方式以及遇到一些问题的解决方法

各个组件的要求

python3.10+

CPU

4核
内存8G

服务介绍

Ollama是一个用于在本地计算机上运行大型语言模型的命令行工具,用来进行模型拉取,模型运行等

一.ollama安装

(1)官方地址https://ollama.com/

(2)官方提供脚本安装,直接使用脚本进行安装

curl -fsSL https://ollama.com/install.sh | sh

简单傻瓜式安装比二进制方便多了

(3)安装完毕后需要进行更改

第一处,查看想要使用的显卡编号 ,我这里使用0,1两个显卡

第二处,修改启动文件

Environment="OLLAMA_HOST=0.0.0.0" #服务启动后对外的地址 Environment="CUDA_VISIBLE_DEVICES=0,1" #指定显卡使用的显卡块 Environment="OLLAMA_MODELS=/data/ollama/models" #指定模型存储位置

这个是systemctl启动的代码

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=/root/.pyenv/shims:/root/.pyenv/bin:/root/.pyenv/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="CUDA_VISIBLE_DEVICES=0,1"
Environment="OLLAMA_MODELS=/data/ollama/models"

[Install]
WantedBy=default.target

(4)启动服务

Systemctl start ollama

### Ollama 部署指南 Ollama 是一种用于运行大型语言模型的服务,支持多种操作系统上的本地部署。以下是针对不同环境下的 Ollama 部署方法及相关注意事项。 #### Linux 环境下 Ollama 部署Linux部署 Ollama 可以通过简单的命令完成,并且可以通过 systemd 设置为后台服务运行。具体操作如下: 1. **下载并安装 Ollama** 使用 `curl` 命令下载 Ollama 的二进制文件至系统的 PATH 目录中[^1]。 ```bash sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama sudo chmod +x /usr/bin/ollama ``` 2. **创建 Ollama 用户和服务** 为了安全性和稳定性,建议为 Ollama 创建专用用户并将它设置为启动服务[^1]。 ```bash sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama ``` 3. **更新配置文件** 如果需要更改默认端口或其他参数,编辑 `/etc/systemd/system/ollama.service` 文件[^4]。 ```bash Environment="OLLAMA_HOST=0.0.0.0:8891" ``` 修改完成后保存退出,并重新加载服务配置。 ```bash sudo systemctl daemon-reload sudo systemctl restart ollama ``` #### Windows 环境下 Ollama 部署 对于 Windows 平台,Ollama 提供了一个 ZIP 包来简化安装过程。该包包含了必要的 CLI 工具以及 GPU 支持所需的库文件[^2]。 1. **解压 zip 文件** 下载 `ollama-windows-amd64.zip` 后将其解压缩到任意位置即可使用其中的可执行程序。 2. **集成作为服务(可选)** 若希望长期稳定运行,则可通过第三方工具如 NSSM (Non-Sucking Service Manager) 来注册 Ollama 成为系统服务[^2]。 #### Mac OS X 或其他 Unix-like 系统 MacOS 用户可以直接利用 Homebrew 进行快速安装: ```bash brew install ollama/tap/ollama ``` 之后按照官方文档进一步初始化和管理实例[^3]。 #### API 测试与图形界面接入 无论在哪种平台上完成了基本搭建工作后,都可以借助 Postman/Apifox 类似软件发起 HTTP 请求验证功能正常与否;另外还有现成客户端可供选择以便更直观地操控整个流程。 --- ### 注意事项 - 对于资源有限的小型设备来说可能需要注意内存占用情况以及性能调优策略[^5]。 - 当涉及到敏感数据处理时务必遵循相关法律法规做好隐私保护措施。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值