一、DeepSeek介绍
DeepSeek(深度求索)是一家专注于实现AGI(通用人工智能)的中国公司,致力于探索AGI技术的前沿,尤其在大模型研发领域表现突出。其技术覆盖自然语言处理、代码生成、数学推理等多个方向,并且部分模型已开源,受到开发者广泛关注。
二、本地部署DeepSeek
部署流程:
- 安装Ollama
- 使用Ollama部署DeepSeek
笔者部署环境:(仅供参考)
- 操作系统:Windows10
- Cpu:AMD R7 3700X
- 内存:16g
- 磁盘:1T
开始部署吧!
(1)安装Ollama
Ollama 官网:https://ollama.com/
进入官网后点击Download进入下载页面,根据自己的操作系统选择对应的版本进行下载即可
安装完成后搜索一下Ollama就能找到这个应用,点击此应用就会运行
点击Ollama图标运行之后,会在电脑右小角的状态栏出现Ollama的小图标
测试一下Ollama安装是否成功,按下Win+r键,输入cmd,打开命令提示符(或者搜索命令提示符打开也行),在命令提示符终端中输入“ollama -v”,若返回ollama的八本号则表示安装成功。
(2)使用Ollama部署DeepSeek
Ollama 支持大模型列表:https://ollama.com/library
选择我们想要安装的deepseek-r1
点击进入后可以看到deepseek可选择的大模型版本
DeepSeek不同版本介绍:
模型参数规模 | 典型用途 | CPU 建议 | GPU 建议 | 内存建议 (RAM) | 磁盘空间建议 | 适用场景 |
---|---|---|---|---|---|---|
1.5b (15亿) | 小型推理、轻量级任务 | 4核以上 (Intel i5 / AMD Ryzen 5) | 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) | 8GB | 10GB 以上 SSD | 小型 NLP 任务、文本生成、简单分类 |
7b (70亿) | 中等推理、通用任务 | 6核以上 (Intel i7 / AMD Ryzen 7) | 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) | 16GB | 20GB 以上 SSD | 中等规模 NLP、对话系统、文本分析 |
14b (140亿) | 中大型推理、复杂任务 | 8核以上 (Intel i9 / AMD Ryzen 9) | 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) | 32GB | 50GB 以上 SSD | 复杂 NLP、多轮对话、知识问答 |
32b (320亿) | 大型推理、高性能任务 | 12核以上 (Intel Xeon / AMD Threadripper) | 高性能 GPU (如 NVIDIA A100, 40GB 显存) | 64GB | 100GB 以上 SSD | 大规模 NLP、多模态任务、研究用途 |
70b (700亿) | 超大规模推理、研究任务 | 16核以上 (服务器级 CPU) | 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) | 128GB | 200GB 以上 SSD | 超大规模模型、研究、企业级应用 |
671b (6710亿) | 超大规模训练、企业级任务 | 服务器级 CPU (如 AMD EPYC / Intel Xeon) | 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) | 256GB 或更高 | 1TB 以上 NVMe SSD | 超大规模训练、企业级 AI 平台 |
根据自己的电脑配置条件,选择不同的版本进行安装即可,打开CMD命令提示符窗口,根据版本输入对应的运行指令:
- 若选择 1.5B 版本,输入 ollama run deepseek-r1:1.5b (我 选择的是这个,仅作参考)
- 若选择 7B 版本,输入 ollama run deepseek-r1:7b
- 若选择 8B 版本,输入 ollama run deepseek-r1:8b
- 若选择 32B 版本,输入 ollama run deepseek-r1:32b
例如,安装并运行DeepSeek 的1.5b版本:
这样就部署完成了啦!直接在命令行中输入就可以使用DeepSeek啦
如果仅仅是测试体验DeepSeek的话,到上面第二步就结束啦。如果想经常使用,并且觉得命令窗口的形式过于丑陋的,请看第三步
三、使用客户端连接使用DeepSeek(提升使用体验专用)
市面上有很多工具可以对接各种大模型(其中包括DeepSeek),这里选用了 ChatBox 来与我们本地的DeepSeek进行交互,它支持跨平台,使用较为方便。
ChatBox 官网地址:https://chatboxai.app/zh
进入官网,下载对应的安装包,进行安装:
开始安装chatbox,按默认仅为我安装即可
这边个人喜欢更改安装位置,按自己喜好选择即可
安装完成后直接运行即可
运行后开始配置chatbox,按照如下步骤配置即可
点击保存后就可以直接使用啦!输入“你是谁”,测试一下吧
好了,到这里就可以愉快地使用DeepSeek啦~
我的DeepSeek部署资料已打包好(自取↓)
https://pan.quark.cn/s/7e0fa45596e4
但如果你想知道这个工具为什么能“听懂人话”、写出代码 甚至预测市场趋势——答案就藏在大模型技术里!
❗️为什么你必须了解大模型?
1️⃣ 薪资爆炸:应届大模型工程师年薪40万起步,懂“Prompt调教”的带货主播收入翻3倍
2️⃣ 行业重构:金融、医疗、教育正在被AI重塑,不用大模型的公司3年内必淘汰
3️⃣ 零门槛上车:90%的进阶技巧不需写代码!会说话就能指挥AI
(附深度求索BOSS招聘信息)
⚠️警惕:当同事用DeepSeek 3小时干完你3天的工作时,淘汰倒计时就开始了。
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?老师啊,我自学没有方向怎么办?老师,这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!当然这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!