一、DeepSeek相关资料参考
DeepSeek官网:https://www.deepseek.com/
DeepSeek-R1论文链接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
DeepSeek-R1新闻发布:https://api-docs.deepseek.com/zh-cn/news/news250120
DeepSeek HF链接:https://huggingface.co/deepseek-ai
DeepSeek资料链接:https://pan.quark.cn/s/1ae60157e7fa
DeepSeek从入门到精通:https://pan.quark.cn/s/13a2166ffa2e
二、DeepSeek R1介绍
2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布高性能AI推理模型DeepSeek-R1,对标OpenAI的o1正式版。目前发布了两个版本:DeepSeek R1-Zero 和 DeepSeek R1。其中,DeepSeek-R1-Zero 是一个完全基于强化学习(RL)训练而无需监督微调(SFT)的模型。通过强化学习(RL),DeepSeek-R1-Zero 自然地展现出许多强大且有趣的推理行为。然而,它也遇到了一些挑战,如可读性差和语言混合问题。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它基于 DeepSeek-V3 Base 作为基础模型,并结合强化学习技术,在无需监督数据的情况下显著提升推理能力,突破了传统模型的局限性。通过独创的GRPO 组相对策略优化方法,模型在训练过程中不断自我优化,从而具备强大的逻辑推理和深度上下文理解能力。上述两个版本都是671B 参数。
同时,也针对Qwen和LLama系列模型使用DeepSeek-R1生成的80万条样本(包括详细答案以及完整的推理链条)进行SFT蒸馏(Distill),推出了多款具备强大推理能力的小型模型。这些蒸馏版本在保留 R1 逻辑推理能力的同时,大幅降低了推理计算成本,使其更加适合个人用户和企业的私有化部署需求。
-
DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。
-
DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置
model='deepseek-reasoner'
即可调用。 -
DeepSeek 官网与 App 即日起同步更新上线。
DeepSeek-R1官方地址:https://github.com/deepseek-ai/DeepSeek-R1
-
完整版(671B):需要至少 350GB 显存/内存,适合专业服务器部署
-
蒸馏版:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。
蒸馏版与完整版的区别
特性 | 蒸馏版 | 完整版 |
参数量 | 参数量较少(如 1.5B、7B),性能接近完整版但略有下降。 | 参数量较大(如 32B、70B),性能最强。 |
硬件需求 | 显存和内存需求较低,适合低配硬件。 | 显存和内存需求较高,需高端硬件支持。 |
适用场景 | 适合轻量级任务和资源有限的设备。 | 适合高精度任务和专业场景。 |
蒸馏版模型的特点
模型版本 | 参数量 | 特点 |
deepseek-r1:1.5b | 1.5B | 轻量级模型,适合低配硬件,性能有限但运行速度快 |
deepseek-r1:7b | 7B | 平衡型模型,适合大多数任务,性能较好且硬件需求适中。 |
deepseek-r1:8b | 8B | 略高于 7B 模型,性能稍强,适合需要更高精度的场景。 |
deepseek-r1:14b | 14B | 高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。 |
deepseek-r1:32b | 32B | 专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。 |
deepseek-r1:70b | 70B | 顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。 |
可根据下表配置选择使用自己的模型
模型名称 | 参数量 | 大小 | VRAM (Approx.) | 推荐 Mac 配置 | 推荐 Windows/Linux 配置 |
deepseek-r1:1.5b | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
deepseek-r1:1.5b-qwen-distill-q4_K_M | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b-qwen-distill-q4_K_M | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b-llama-distill-q4_K_M | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b-qwen-distill-q4_K_M | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b-qwen-distill-q4_K_M | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b-llama-distill-q4_K_M | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
DeepSeek-R1的能力
通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。
三、DeepSeek R1使用
3.1 DeepSeek官方App与网页端
登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。
3.2 本地部署
前提:硬件要求
所以对于大多数个人用户,建议部署4bit量化模型:
- 7B/8B模型:8GB显存。
- 14B模型:16GB显存。
- 32B模型:22GB显存。
- 70B模型:48GB显存。
3.2.1 ollama
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
3.2.2 HuggingFace
HuggingFace 链接: https://huggingface.co/deepseek-ai
3.2.3 Xinference
3.3 第三方平台
秘塔搜索👍--https://metaso.cn
360纳米AI搜索👍--https://www.n.cn
硅基流动👍--https://cloud.siliconflow.cn
字节跳动火山引擎👍--https://console.volcengine.com/ark/region:ark+cn-beijing/experience
百度云千帆👍--https://console.bce.baidu.com/qianfan/modelcenter/model/
英伟达NIM👍--https://build.nvidia.com/deepseek-ai/deepseek-r1
Groq👍--https://groq.com/
Fireworks👍--https://fireworks.ai/models/fireworks/deepseek-r1
Chutes👍--https://chutes.ai
Github👍--https://github.com/marketplace/models/azureml-deepseek/DeepSeek-R1/playground
POE👍--https://poe.com/DeepSeek-R1
Cursor👍--https://cursor.sh/
Monica👍--https://monica.im/
Lambda👍-https://lambdalabs.com/
Cerebras👍--https://cerebras.ai
Perplexity👍--https://www.perplexity.ai
阿里云百炼👍--https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1
超算互联网👍--https://chat.scnet.cn/
CSGHub 👍--https://opencsg.com/
如果卡顿,可以通过硅基流动官方网站进行在线体验,也可以使用Cherry Studio或者Chatbox接入硅基流动API。
个人推荐使用POE,不过这个需要VPN。国内的话试试秘塔AI
四、API 及定价
DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。
五、开放的许可证和用户协议
参考文献:
[1] https://mp.weixin.qq.com/s/njkbsizu7S6mSOdlEU5RmQ
[2] https://mp.weixin.qq.com/s/5SZVRAdaUv45tMkAjTMcQA