最热DeepSeek 不同安装及使用方式

一、介绍

春节期间,热度高的当属DeepSeek了,优秀的计算能力和中文能力。
在这里插入图片描述

但是随着时间的发酵,大家会发现DeepSeek经常不能用,那是因为DeepSeek受到了大规模恶意攻击。

下面这个是查看DeepSeek状态的网站:

status.deepseek.com/

可以发现,最近标红的就是故障中
在这里插入图片描述

如果你遇到使用的时候,提示服务器繁忙,就大概率是被攻击了
在这里插入图片描述

由于DeepSeek是开源生态,模型都提供了,所以有一种解决方案是本地部署,然后利用一些第三方软件来接入这个模型来使用。
在这里插入图片描述

最近我看很多博主写了很多这方面的教程,一些不明真相的人就跟着去本地搭建,然后本地接入使用,其实这有很大的缺陷:

  • 一方面电脑配置制约了你选择的模型,我个人4090显卡的电脑顶多只能跑32b,再往上就跑不了,又卡又慢。
  • 另一方面你可知道满血版本模型是671b的,个人电脑基本无望,你如果电脑配置不高,运行了7b这种低参数的模型,这种低配版本的没啥意思好吧,效果绝对不好的,只是个玩具。

所以一般就企业会考虑本地部署方案,比如内网环境下,或者就是你的需求不需要那么强的模型,并且想生成一些mg类话题内容,不然真的不推荐个人本地部署。

二、推荐方案

所以,最好的方案就是去寻找满配版本,目前,DeepSeek官网之外提供满血版DeepSeek能力的有三家。

第一家是360的纳米AI搜索,原本只提供32b的,后面上了满血的但是有限度。

www.n.cn/

使用的时候勾上这个慢思考模式就是了
在这里插入图片描述
在这里插入图片描述

第二家是秘塔AI搜索

metaso.cn/
在这里插入图片描述

秘塔AI搜索算是去年比较火的一个AI搜索引擎了,挺好用,现在接入了R1模型,效果更好,一边帮你深度搜索一边帮你深度思考,效果很强。

最后一个就是2月1号刚出来的,经过硅基流动和华为云团队连日攻坚,今天,我们也为国内用户献上春节礼物:大模型云服务平台 SiliconCloud 首发上线基于华为云昇腾云服务的 DeepSeek-V3、DeepSeek-R1。

这是一种API的方案,官网API最近也经常不行,所以这家公司结合华为云团队,推出了DeepSeek-R1 API接口服务。

硅基流动大家应该有印象吧,就是以前给大家推荐的ComfyUI BizyAir插件的公司,他们提供了 DeepSeek R1的API服务。

API的价格和DeepSeek 官方优惠期价格保持一致,SiliconCloud 上的 DeepSeek-V3 的优惠期价格(截止 2 月 8 日 24:00)为 ¥1 / M tokens(输入)& ¥2 / M tokens (输出),DeepSeek-R1 的价格为 ¥4 / M tokens(输入)& ¥16 / M tokens (输出)。

一般情况下模型中 token 和字数的换算比例大致如下:
1 个英文字符 ≈ 0.3 个 token。
1 个中文字符 ≈ 0.6 个 token。

DeepSeek 的API价格其实也很便宜,随便充值了10多块可以用非常久了,但是官方的最近不是经常受到攻击么,API也无法使用,所以我是推荐直接用 SiliconCloud 家的API服务。

之所以推荐这家,是因为目前这家注册是有送奖励金的,可以实现白嫖的效果。

SiliconCloud 邀请别人注册,您与好友均可获赠2000万Tokens(14元平台配额)

直接邀请家人注册一下,你就有2000万Tokens,可以用很久很久。所以大家一会走我的邀请链接,就直接可以获得2000万Tokens了。

弄到API密钥后,再配合一些第三方支持配置API接口的软件,就可以直接用上满血版本的DeepSeek 了,这才是大家应该学的。

下面我就教大家如何搞定这个完整流程,免费的用上这个满血版本的 DeepSeek。

三、白嫖满血版 DeepSeek 流程

3.1 注册账号

登录一下网址,通过手机号注册个账号

cloud.siliconflow.cn/i/jLn1Ba4N
在这里插入图片描述

3.2 提取API key

登录后,打开API密钥,新建一个API密钥,如下图这样,点击复制一下
在这里插入图片描述

3.3 安装客户端软件

如果你想直接在客户端应用里体验 DeepSeek-R1 & V3 模型,可在本地安装以下产品,接入 SiliconCloud 的 API 后(可自定义添加这两款模型),即可体验 DeepSeek-R1 & V3。

如果你想直接在客户端应用里体验 DeepSeek-R1 & V3 模型,可在本地安装以下产品,接入 SiliconCloud 的 API 后(可自定义添加这两款模型),即可体验 DeepSeek-R1 & V3。

  • 大模型客户端应用:ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat
  • 代码生成应用:Cursor、Windsurf、Cline
  • 大模型应用开发平台:Dify
  • AI 知识库:Obsidian AI、FastGPT
  • 翻译插件:沉浸式翻译、欧路词典

这里我是使用 Cherry Studio, 就拿这个当做案例讲解,其他软件类似

进入Cherry Studio官网(cherry-ai.com/),按步骤下载安装对应版本的Cherry Studio即可直接使用。

目前Cherry Studio支持Windows、Mac、Linux三种版本

3.4配置API并且管理模型

运行 Cherry Studio,左下角点击设置,第一个就是硅基流动的,把API密钥填入,然后选择下方的管理,勾选上最新的DeepSeek-R1即可,最后点一下检查,没问题的话会提示链接成功。
在这里插入图片描述

然后就可以开心的使用了,点击左侧上方的聊天菜单,顶部选择好了DeepSeek-R1模型,就可以开始愉快的使用了

四、总结

这种方案即不要求电脑配置,还能用上满血版的DeepSeek-R1,回答速度还很快,算是目前最优方案了。

当然,这2个方案都是备选方案,官网能使用的情况下还是推荐直接官网使用,如果是前端可以使用VsCode+cline+DeepSeek,可以直接在编辑器中使用、改写代码(国产AI大模型编程辅助工具链-VsCode+cline+DeepSeek - Pony的文章 - 知乎
https://zhuanlan.zhihu.com/p/15856514476)。

不过最近不懂是一直被攻击还是太多人使用,深度模式经常提示服务器繁忙。

转载

### H200 GPU 上部署 DeepSeek 模型 R1 版本的方法 为了在 H200 GPU 硬件上成功部署 DeepSeek 的 R1 版本模型,以下是详细的说明: #### 1. 环境准备 确保服务器环境满足以下条件: - 安装 NVIDIA 驱动程序并配置 CUDA 和 cuDNN 支持。推荐使用 CUDA 11.7 或更高版本以及 cuDNN 8.x[^1]。 - 使用 Python 3.9 及以上版本作为开发环境的基础。 安装必要的依赖库可以通过 `pip` 实现: ```bash pip install torch transformers accelerate deepspeed ``` 这些工具包提供了 PyTorch 加速支持、Transformer 架构优化以及大规模分布式训练的能力。 --- #### 2. 数据加载与预处理 DeepSeek-R1 是基于 Transformer 结构的大规模语言模型,在实际应用前需完成数据加载和预处理工作。可以利用 Hugging Face 提供的 `transformers` 库来简化这一过程: ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("deepseek/r1") model = AutoModelForCausalLM.from_pretrained("deepseek/r1", device_map="auto", offload_folder="./offload") ``` 上述代码片段展示了如何通过指定设备映射 (`device_map`) 将模型分配到多个 GPU 中运行,并设置离线存储路径以便管理内存占用情况。 --- #### 3. 多卡加速策略 对于单机多卡场景(如题目提到的 8×H200),建议采用混合精度训练技术以减少显存消耗并提升计算效率。具体实现方式如下所示: ```python import torch from accelerate import init_empty_weights, load_checkpoint_and_dispatch with init_empty_weights(): model = AutoModelForCausalLM.from_config(AutoConfig.from_pretrained("deepseek/r1")) model = load_checkpoint_and_dispatch( model, "./path/to/checkpoint", device_map="balanced_low_0" ) torch_dtype=torch.float16 ``` 这里我们引入了 Accelerate 工具箱中的函数来进行零初始化权重操作,随后加载检查点文件并将各层参数分布至不同 GPU 设备之上;同时设定浮点数类型为半精度模式 (float16),从而进一步降低资源需求量。 --- #### 4. 性能调优技巧 针对特定硬件平台特性做出相应调整能够显著改善推理性能表现。例如开启 Tensor Core 功能可大幅提高矩阵运算速度;另外还可以尝试冻结部分编码器层或者裁剪冗余组件等方式达到节省成本目的。 最后提醒一点就是务必监控整个系统的健康状态指标比如温度变化趋势等等以防过热损坏等问题发生影响正常业务运转进程。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值