本地部署deepseek

前言

如果你电脑配置不错,且期望不受网络限制也可以流畅使用deepseek,那就本地部署deepseek试试吧。

下载并安装Ollama

Ollama是一个开源的 LLM(大型语言模型)服务工具(就是大模型运行工具),用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型。

地址:https://ollama.com/

根据自己电脑系统类型下载

这里要科雪上网下载(可以私信推荐稳定的科雪上网方式)

https://github.com/ollama/ollama/releases/latest/download/OllamaSetup.exe

双击安装

安装完成后,右下角隐藏的图标中可以看到如下图标

部署deepseekR1模型

从左到右,越来越精准,对电脑配置也依次变高

这里只是演示,选择1.5b

复制右侧命令

cmd中执行刚刚复制的命令:ollama run deepseek-r1:1.5b

然后可以输入问题获取回复结果

下载、安装、配置chatbox可视化对话框

上面每次都要在cmd中输入运行命令,比较麻烦,我们可以用chatbox可视化对话框。

下载:https://chatboxai.app/zh

安装

配置

选择模型提供方:OLLAMA API

选择模型:deepseek-r1:1.5b

然后点击“保存”

然后就可以在chatbox中输入问题了

是不是很简单?赶紧试试吧。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值