一篇文章教你本地部署DeepSeek!毫无废话,全是干货

你们好,我是金金金。

在这里插入图片描述

场景

最近DeepSeek那是相当的火啊,我们也本地部署个耍耍呗~话不多说,开搞!

下载

Ollama

  • 是什么? Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互

根据不同环境下载不同版本,下载地址:https://ollama.com/download

  • 下载好了直接安装即可,安装也很简单 下一步下一步即可。
  • Ollama貌似是没有让你选择安装目录的直接给你安装到C盘了,有一种方法可以自定义
  1. 在你下载好的程序目录当中,打开cmd,输入命令符安装
  2. 然后在cmd窗口输入:OllamaSetup.exe /DIR=E:\MySoftware\Ollama

    语法:软件名称 /DIR=这里放你上面创建好的Ollama指定目录

然后Ollama就会进入安装,点击Install后,可以看到Ollama的安装路径就变成了我们指定的目录了

进入Ollama官网

  1. 进入Ollama官方网站后,可以看到Ollama已经支持DeepSeek-R1的部署

在这里插入图片描述

  1. 点击DeepSeek-R1的链接可以看到有关deepseek-r1的详细介绍

在这里插入图片描述

  1. 目前deepseek-r1模型大小提供了7个选择:1.5b7b8b14b32b70b671b,根据你们自己电脑的配置选择需要安装的模型,我这里选择的是8b模型(通常模型大小(参数量)越大,模型的理解和生成能力越强,但也会消耗更多的计算资源)

  2. 复制对应的命令 在cmd命令窗口中执行即可

在这里插入图片描述

  1. 静静等就行(可能需要挂梯子),以下图片为安装好之后的效果

在这里插入图片描述

  1. 发个信息测试

在这里插入图片描述

如此就成功了!

可视化

在命令行交互可读性太差了,而且操作特别不方便,所以还需要一个可视化ui页面,我这里使用的是Chatbox

  • Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 WindowsMacOSAndroidiOSLinux 和网页版上使用
  1. 下载Chatbox客户端,下载地址:https://chatboxai.app/zh#

在这里插入图片描述

  1. 下载好了打开软件如下:

在这里插入图片描述

  1. 使用本地我们下载好的DeepSeek模型,对话设置-模型提供方选择Ollama API

在这里插入图片描述

  1. 模型选择你本地下载的即可,点击保存

在这里插入图片描述

  1. 测试

在这里插入图片描述

开始使用吧!

总结

  1. 下载Ollama
  2. 下载指定模型
  3. 下载AI可视化客户端
  4. 选择本地模型
  • 编写有误还请大佬指正,万分感谢。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值