LLM(十四)| DeepSeek-R1概况

一、DeepSeek相关资料参考

DeepSeek官网:https://www.deepseek.com/

DeepSeek-R1论文链接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

DeepSeek-R1新闻发布:https://api-docs.deepseek.com/zh-cn/news/news250120

DeepSeek HF链接:https://huggingface.co/deepseek-ai

DeepSeek资料链接:https://pan.quark.cn/s/1ae60157e7fa

DeepSeek从入门到精通:https://pan.quark.cn/s/13a2166ffa2e

二、DeepSeek R1介绍

        2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布高性能AI推理模型DeepSeek-R1,对标OpenAI的o1正式版。目前发布了两个版本:DeepSeek R1-Zero 和 DeepSeek R1。其中,DeepSeek-R1-Zero 是一个完全基于强化学习(RL)训练而无需监督微调(SFT)的模型。通过强化学习(RL),DeepSeek-R1-Zero 自然地展现出许多强大且有趣的推理行为。然而,它也遇到了一些挑战,如可读性差和语言混合问题。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它基于 DeepSeek-V3 Base 作为基础模型,并结合强化学习技术,在无需监督数据的情况下显著提升推理能力,突破了传统模型的局限性。通过独创的GRPO 组相对策略优化方法,模型在训练过程中不断自我优化,从而具备强大的逻辑推理和深度上下文理解能力。上述两个版本都是671B 参数。

        同时,也针对Qwen和LLama系列模型使用DeepSeek-R1生成的80万条样本(包括详细答案以及完整的推理链条)进行SFT蒸馏(Distill),推出了多款具备强大推理能力的小型模型。这些蒸馏版本在保留 R1 逻辑推理能力的同时,大幅降低了推理计算成本,使其更加适合个人用户和企业的私有化部署需求。

  • DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。

  • DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置 model='deepseek-reasoner' 即可调用。

  • DeepSeek 官网与 App 即日起同步更新上线。

DeepSeek-R1官方地址:https://github.com/deepseek-ai/DeepSeek-R1

  • 完整版(671B):需要至少 350GB 显存/内存,适合专业服务器部署

  • 蒸馏版:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。

蒸馏版与完整版的区别

特性

蒸馏版

完整版

参数量

参数量较少(如 1.5B、7B),性能接近完整版但略有下降。

参数量较大(如 32B、70B),性能最强。

硬件需求

显存和内存需求较低,适合低配硬件。

显存和内存需求较高,需高端硬件支持。

适用场景

适合轻量级任务和资源有限的设备。

适合高精度任务和专业场景。

蒸馏版模型的特点

模型版本

参数量

特点

deepseek-r1:1.5b

1.5B

轻量级模型,适合低配硬件,性能有限但运行速度快

deepseek-r1:7b

7B

平衡型模型,适合大多数任务,性能较好且硬件需求适中。

deepseek-r1:8b

8B

略高于 7B 模型,性能稍强,适合需要更高精度的场景。

deepseek-r1:14b

14B

高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。

deepseek-r1:32b

32B

专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。

deepseek-r1:70b

70B

顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。

可根据下表配置选择使用自己的模型

模型名称

参数量

大小

VRAM (Approx.)

推荐 Mac 配置

推荐 Windows/Linux 配置

deepseek-r1:1.5b

1.5B

1.1 GB

~2 GB

M2/M3 MacBook Air (8GB RAM+)

NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)

deepseek-r1:7b

7B

4.7 GB

~5 GB

M2/M3/M4 MacBook Pro (16GB RAM+)

NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)

deepseek-r1:8b

8B

4.9 GB

~6 GB

M2/M3/M4 MacBook Pro (16GB RAM+)

NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)

deepseek-r1:14b

14B

9.0 GB

~10 GB

M2/M3/M4 Pro MacBook Pro (32GB RAM+)

NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)

deepseek-r1:32b

32B

20 GB

~22 GB

M2 Max/Ultra Mac Studio

NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)

deepseek-r1:70b

70B

43 GB

~45 GB

M2 Ultra Mac Studio

NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)

deepseek-r1:1.5b-qwen-distill-q4_K_M

1.5B

1.1 GB

~2 GB

M2/M3 MacBook Air (8GB RAM+)

NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)

deepseek-r1:7b-qwen-distill-q4_K_M

7B

4.7 GB

~5 GB

M2/M3/M4 MacBook Pro (16GB RAM+)

NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)

deepseek-r1:8b-llama-distill-q4_K_M

8B

4.9 GB

~6 GB

M2/M3/M4 MacBook Pro (16GB RAM+)

NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)

deepseek-r1:14b-qwen-distill-q4_K_M

14B

9.0 GB

~10 GB

M2/M3/M4 Pro MacBook Pro (32GB RAM+)

NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)

deepseek-r1:32b-qwen-distill-q4_K_M

32B

20 GB

~22 GB

M2 Max/Ultra Mac Studio

NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)

deepseek-r1:70b-llama-distill-q4_K_M

70B

43 GB

~45 GB

M2 Ultra Mac Studio

NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)

DeepSeek-R1的能力

       通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

三、DeepSeek R1使用

3.1 DeepSeek官方App与网页端

       登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。

3.2 本地部署

前提:硬件要求

所以对于大多数个人用户,建议部署4bit量化模型:

- 7B/8B模型:8GB显存。

- 14B模型:16GB显存。

- 32B模型:22GB显存。

- 70B模型:48GB显存。

3.2.1 ollama

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

3.2.2 HuggingFace

HuggingFace 链接: https://huggingface.co/deepseek-ai

3.2.3 Xinference

3.3 第三方平台

秘塔搜索👍--https://metaso.cn 

360纳米AI搜索👍--https://www.n.cn

硅基流动👍--https://cloud.siliconflow.cn

字节跳动火山引擎👍--https://console.volcengine.com/ark/region:ark+cn-beijing/experience 

百度云千帆👍--https://console.bce.baidu.com/qianfan/modelcenter/model/

英伟达NIM👍--https://build.nvidia.com/deepseek-ai/deepseek-r1

Groq👍--https://groq.com/  

Fireworks👍--https://fireworks.ai/models/fireworks/deepseek-r1 

Chutes👍--https://chutes.ai

Github👍--https://github.com/marketplace/models/azureml-deepseek/DeepSeek-R1/playground

POE👍--https://poe.com/DeepSeek-R1

Cursor👍--https://cursor.sh/

Monica👍--https://monica.im/ 

Lambda👍-https://lambdalabs.com/

Cerebras👍--https://cerebras.ai

Perplexity👍--https://www.perplexity.ai  

阿里云百炼👍--https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1 

超算互联网👍--https://chat.scnet.cn/

CSGHub 👍--https://opencsg.com/

如果卡顿,可以通过硅基流动官方网站进行在线体验,也可以使用Cherry Studio或者Chatbox接入硅基流动API。

个人推荐使用POE,不过这个需要VPN。国内的话试试秘塔AI

四、API 及定价

       DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。

五、开放的许可证和用户协议

参考文献:

[1] https://mp.weixin.qq.com/s/njkbsizu7S6mSOdlEU5RmQ

[2] https://mp.weixin.qq.com/s/5SZVRAdaUv45tMkAjTMcQA

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wshzd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值