ollama部署

之前工作就是给公司搞人工智能,最近deepseek火了,我还是把之前在ubuntu的GPU服务器上安装ollama的方式写一下吧

摘要:大模型框架,以及一站式大模型管理平台的部署,本文填写了一些部署的方式以及遇到一些问题的解决方法

各个组件的要求

python3.10+

CPU

4核
内存8G

服务介绍

Ollama是一个用于在本地计算机上运行大型语言模型的命令行工具,用来进行模型拉取,模型运行等

一.ollama安装

(1)官方地址https://ollama.com/

(2)官方提供脚本安装,直接使用脚本进行安装

curl -fsSL https://ollama.com/install.sh | sh

简单傻瓜式安装比二进制方便多了

(3)安装完毕后需要进行更改

第一处,查看想要使用的显卡编号 ,我这里使用0,1两个显卡

第二处,修改启动文件

Environment="OLLAMA_HOST=0.0.0.0" #服务启动后对外的地址 Environment="CUDA_VISIBLE_DEVICES=0,1" #指定显卡使用的显卡块 Environment="OLLAMA_MODELS=/data/ollama/models" #指定模型存储位置

这个是systemctl启动的代码

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=/root/.pyenv/shims:/root/.pyenv/bin:/root/.pyenv/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="CUDA_VISIBLE_DEVICES=0,1"
Environment="OLLAMA_MODELS=/data/ollama/models"

[Install]
WantedBy=default.target

(4)启动服务

Systemctl start ollama

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值