DeepSeek本地部署详细教程!

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

相信大家在使用DeepSeek时,经常会遇到这种情况:

图片

要想解决此问题,除了不断刷新重试之外,你还可以将其部署到本地使用。这样即便电脑没有联网也可以使用,还可以更好地保护自己的数据隐私。

这里教大家一种非常简单的DeepSeek本地部署的方法。

  1. 首先我们需要用到的是ollama这款软件,可以从官网上进行下载(无需翻墙):

    图片

    这里可以根据自己电脑的系统自行选择:

    图片

2.安装完成之后在本地查看,win+R,之后输入cmd,打开命令窗口,输入:ollama 如果出现如下界面则代表安装完成。

图片

如果,未出现该界面,可以尝试找到对应的安装目录,将其添加到path 环境中。

3. 之后,再次进入官网,点击DeepSeek R1,根据自己电脑性能选择。这里b是指十亿参数量。如果没有独立显卡,选择最小参数量的即可。

图片

这里推荐不同显卡性能对应的模型参数量大小(仅参考)。像RTX4060 8G 同样也可以部署32B参数量的模型,但是运行速度可能稍慢。所以一般推荐配置小一级的参数量模型。

图片

4. 选择好对应的模型参数安装命令,在命令窗口粘贴,运行即可。

图片

等待ing...

当看到窗口显示:success时,表示已经安装成功!

图片

5. 但现在只能在终端使用这种命令行的方式进行对话,体验感不太好。所以我们可以借助第三方工具,来实现官网的这种对话方式。这里推荐使用:Cherry Studio

安装方式也是采用一键安装的方式!默认即可。

图片

安装完成之后,运行:

图片

之后,点击界面左下角设置,在模型服务中选择Ollama:

图片

在右上角顶部,打开开关,之后点击管理,选择安装好的模型:

图片

再回到首页,选择刚刚安装添加的模型即可:

图片

这样,我们的一套DeepSeek本地部署就完成了!

可以关注小弟gzh支持一下哦~~

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Stuomasi_xiaoxin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值