liunx服务器本地部署deepseek-r1:1.5b通过网页链接使用

部署运行你感兴趣的模型镜像

一、本次本地部署deepseek安装系统为:Anolis OS 8.6

1、首先下载拉取deepseek镜像工具,通过这个工具拉取deepseek镜像。

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

2、配置ollama的system启动脚本

 [Unit]
Description=Ollama Service
After=network.target

[Service]
Environment=OLLAMA_HOST=0.0.0.0:11434
ExecStart=/usr/bin/ollama serve
Restart=always
User=root
Group=root

[Install]
WantedBy=multi-user.target

3、开启服务并设置开机自启

systemctl start ollama
systemctl enable ollama

4、测试ollama是否安装成功

#可以通过服务器ip+port访问
#http://192.168.253.129:11434/
#页面返回Ollama is running 说明启动成功
#查看版本号
ollama --version
#查看拉取的镜像有哪些
ollama list

5、拉取deepseek-r1:1.5b镜像

ollama pull deepseek-r1:1.5b

6、运行deepseek-r1:1.5b

ollama run deepseek-r1:1.5b

二、下载客户端通过客户端进行访问以及使用deepseek

客户端下载地址
https://chatboxai.app/zh
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
配置chatbox接入本地的deepseek
在这里插入图片描述
在这里插入图片描述
到此步骤就可以正常使用,本地部署deepseek。
在这里插入图片描述
到此本地部署deepseek正式完成

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值