deepseek爆火之后我也算是玩上了本地deepseek

部署运行你感兴趣的模型镜像

AIGC的火已经把世界烧过一遍了,但是大家有没有想过,市面上那些开源的大模型,原理是什么,是怎么跑起来的?从而衍生出了很多的问题,不仅仅是大模型是怎么训练的?我们如何在本地部署大模型等等这些问题。那么为了不被时代淘汰,跟上AI的步伐,所以作者决定出一系列的文章来和大家一起探索一下AIGC的世界,专栏就叫《重生之我要学AIGC》,欢迎大家订阅!!!谢谢大家。 。

在这里插入图片描述

前言

今年回了个年,约高中同学去聚一聚,发现不是行内的同学都知道了deepseek,而且过年这段时间几乎被deepseek给刷屏了,还有人公众号作者在评论区说deepseek就是一个搜索引擎(啊?是这样的吗?)。那么我心中有个疑问deepseek是个啥啊?于是就去了解了一下,并且在本地部署了一套deepseek,就有了这篇文章。
在这里插入图片描述

deepseek是什么

我们从官网中可以看到deepseek的相关介绍,原来就是类似OpenAI的GPT-4o,阿里的Qwen2.5 也是个模型来着。

image-20250205180339213

但是不知道大家有没有发现,这次deepseek的爆火程度远远超过阿里原来发布Qwen模型的时候,上一次这么火还是ChatGPT横空出世的时候了。事后和同事聊了一些,之所以能如此**“爆红”**,我们讨论出来的大致原因就是:好传播。因为deepseek是国内的模型,所以相比于本身就有网络限制的ChatGPT,大家直接能登录网站就能即时体验了。

不过有个问题,本地部署不了非常大的模型,例如 deepseek-r1 671b(404GB)。而本地部署的好处是稳定性高,不会像 deepseek 那样经常崩溃。如果你的电脑只是几千块钱的配置,那可能只能尝试一些小模型,但这仍然对我们了解大模型有所帮助。

环境准备

这次我们用到的环境有:Dify,Ollama,deepseek模型,Docker

image-20250206183334947

Ollama和Docker作者之前有介绍并且有说过他们的安装方法,如果感兴趣的话可以去这里翻翻:

标题链接
如果我们需要在本地运行大模型,我们应该怎么做?Ollama入门指南https://juejin.cn/post/7433426879448629274
SpringBoot应用:Docker与Kubernetes全栈实战秘籍https://juejin.cn/post/7440687454594793522
Docker入门之Windows安装Docker初体验https://juejin.cn/post/7415656200463581211
从零开始玩转 Docker:一站式入门指南,带你快速掌握镜像、容器与仓库https://juejin.cn/post/7403184763501117480
面试官让你介绍一下docker,别再说不知道了https://juejin.cn/post/7402830607124905999

由于Ollama是默认安装在C盘的,所以我们需要在安装完成Ollama之后可以选择把Ollama安装路径软链接到其他非系统盘去,先把文件夹剪切到新的目录中,然后执行下面的命令即可

mklink /D C:\Users\Windows用户名\AppData\Local\Programs\Ollama D:\Ollama\app

安装Dify

技术也是需要包装的

image-20250206185757928

虽然我们可以直接用命令行去吧deepseek跑起来,并且和它进行对话,但是如果我们通过页面化的工具来与他进行对话,这样会不会有一种科技之美了,所以我们这次使用Dify来进行网页版的集成。

Dify地址

我们需要把仓库clone下来,如果clone不下来我们也可以下载压缩包,之后我们执行下面的命令即可(注意,需要把Docker启动起来):

cd dify-main
cd docker
cp .env.example .env #复制文件
docker compose up -d #启动Compose应用

image-20250206190531817

docker-compose up -d 是 Docker Compose 的一个常用命令,用于在后台(detached mode)启动和管理多个容器。例如我们执行这个命令之后就会通过docker把这个文件夹里面所有的服务启动起来。

  • docker-compose up 用于根据 docker-compose.yml 文件中定义的配置启动容器。
  • -d 参数表示以“分离模式”(detached mode)运行容器,即容器在后台运行,不会占用当前终端。

适用于开发、测试和生产环境中快速部署多容器应用。

执行完之后就会发现我们docker里面多了很多的容器(作者这是第二次执行,第一次执行会很慢):

image-20250206191330412

之后我们就可以访问地址 http://localhost/install 去初始化Dify,然后就可以直接访问:http://localhost/ 来访问我们的网页端

image-20250206191727130

Ollama运行deepseek

我们可以直接在Ollama官网上看到deepseek有哪些版本:

https://ollama.com/library/deepseek-r1

image-20250206192124776

然后在安装Ollama之后,选好对应的deepseek版本,作者这里选的是1.5b ,直接敲命令行运行:

ollama run deepseek-r1:1.5b

cmd_F35pqB02tW

Dify集成Ollama

右上角头像设置选择模型供应商,如下配置即可

image-20250206192535000

接下来创建一个空白应用

image-20250206192630151

image-20250206192658991

右上角选择我们刚刚配置好的deepseek模型即可开始对话

image-20250206192733271

image-20250206193451156

如果出现 NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8bb7af5a90>: Failed to establish这样的报错,命令行run一下deepseek即可解决

至此,我们就实现了在本地运行了deepseek模型了。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

掉头发的王富贵

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值