第一篇、家人们,Docker 部署 DeepSeek 保姆级教程在此,快收藏

下面咱开整,教大伙用Docker安装DeepSeek哈! 

一、先把ollama镜像给搞到手:家人们,直接在命令行里输入 “docker pull ollama/ollama” ,一键下载,超简单! 

家人们注意啦!Docker这“歪果仁”对咱国内网络环境不太“友好”,下载时跟抽风似的,超不稳定。要是屏幕上蹦出下面这些错误提示,搞不定下载的小伙伴,别慌!在评论区吼一声,我这就双手奉上导出好的ollama.tar下载链接,包你能拿到!

二、接下来,咱就得把ollama容器给创建并启动起来啦!这里有两种启动方式哦:

无显卡启动:兄弟们,直接在命令行输入这串代码 “docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama” ,敲回车,轻轻松松就搞定无显卡启动,超丝滑! 

有显卡启动:要是你电脑带显卡,那更牛了!输入 “docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama” ,一键启动,让显卡性能直接拉满! 

不管选哪种方式,启动成功后,你就能看到正在欢快运行的ollama容器啦,是不是超酷! 

宝子们,现在到了下载 DeepSeek 模型的环节啦!

咱在命令行里直接输入“docker exec -it ollama ollama pull deepseek - r1:1.5b”,然后就坐等它下载。要是屏幕上蹦出“success”这个超酷的成功提示,那可就说明模型稳稳当当地下载好啦,是不是超简单,赶紧动手试试!

家人们,激动人心的时刻到啦,现在要启动 DeepSeek 咯!

大家在命令行麻溜地输入 “docker exec -it ollama ollama run deepseek - r1:1.5b”,眼睛紧紧盯着屏幕。一旦看到 “>>>Send a message(/? for help)” 出现在眼前,那可就意味着启动成功啦!从这刻起,你就能和 DeepSeek 畅快地对话交流,开启一场超酷的智能交互之旅,冲就完事儿!

家人们按电脑配置选 DeepSeek 模型版本,改命令后的版本号就行。想下 1.7b 版,输 “docker exec -it ollama ollama run deepseek - r1:1.7b” 回车搞定!

各版本模型硬件要求:

宝子们!目前只能在控制台和DeepSeek聊天,别急,下集安排Web可视化和数据投喂训练,之后在浏览器就能畅聊,还能打造专属AI,狠狠期待!

点赞关注走一波,咱们一起深挖DeepSeek应用,也给delbug项目管理工具探索AI新玩法,冲! 

有空去体验delbug,小团队免费,白嫖高效管理快乐,速冲!

下面是体验地址哦~

www.delbug.cnhttp://www.delbug.cn

### DeepSeek V3 本地部署文件下载方法 对于希望在本地环境中部署DeepSeek V3模型的情况,可以按照如下方式获取所需文件: #### 使用 Kubernetes 和 Hugging Face 下载模型 当 Pod 启动成功之后,需先进入名为 `prepare` 的容器内部,在此环境内完成后续命令的操作。通过执行特定指令来安装必要的 Python 库并从Hugging Face平台拉取目标AI模型。 ```bash kubectl exec -it $( kubectl get pod -n deepseek | awk 'NR>1 {print $1}' | grep prepare ) bash -n deepseek pip install huggingface_hub huggingface-cli download --resume-download deepseek-ai/DeepSeek-V3 --local-dir /model/deepseek-ai/DeepSeek-V3 ``` 上述脚本实现了进入指定Kubernetes命名空间下的Pod,并在其内部创建交互式的Bash会话;接着利用Python包管理器安装来自[Hugging Face](https://huggingface.co/)社区维护的库以便于处理大型预训练语言模型;最后一步则是调用CLI客户端以断点续传的方式将所需的DeepSeek V3版本存储到指定路径下[^1]。 #### 利用 Docker 构建镜像进行部署 另一种途径是借助Docker技术栈来进行更便捷的一键式构建流程。这种方法通常适用于那些想要速搭建测试环境或是不具备复杂集群配置条件的研发人员。具体步骤可参照官方文档或其他第三方编写的指南材料,比如一篇题为《DeepSeek本地部署 | 保姆教程》的文章就提供了详尽指导[^2]。 #### 借助 SGlang 开源框架加速部署过程 除了以上两种常见手段外,还有专门针对高性能计算场景设计的解决方案——SGlang。该工具不仅能够兼容不同类型的图形处理器架构(例如NVIDIA与AMD),而且还能显著提升推理效率。因此如果项目中有特殊需求,则不妨考虑采用这种方式作为备选方案之一[^3]。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值