🚀 个人主页 极客小俊
✍🏻 作者简介:程序猿、设计师、技术分享
🐋 希望大家多多支持, 我们一起学习和进步!
🏅 欢迎评论 ❤️点赞💬评论 📂收藏 📂加关注

DeepSeek 使用方式
在使用DeepSeek之前,我们必须到官网去注册一个账号方便我们后续的使用
新用户注册官网还会赠送价值10块钱的Tokens进行使用!
官网地址: https://www.deepseek.com
如图


1.DeepSeek 网页版方式
这种方式也是最常见,最简单的使用方式!
地址: https://chat.deepseek.com/

在网页版本中还有3个特殊的功能按钮不知道大家有没有发现
这三个按钮分别是深度思考(R1)、联网搜索、附件
如图

默认情况下DeepSeek使用的是V3大模型,对于很多基本的提问都可以回答
但是当你需要更加深入和分析的问题那么这个时候我们就需要把深度思考(R1)这个按钮点选一下了!
例如一些编程开发、数学、推理等问题上我们就可以开启深度思考
如图


至于联网搜索那么其实就是会去搜互联网上的信息! 如果你的问题跟时间有关系的情况下你可以尝试打开它!
附件上传比较实用,我们可以把自己的一些文件上传到DeepSeek让它给我们进行分析和拆解!
比如我们上传一本书,让它快速给我们分析,并得出结论和总结!
如图

注意开启联网搜索的情况下,不能使用附件上传
2.DeepSeek 手机移动端APP
直接到手机应用商城搜索关键字DeepSeek进行下载就可以使用了!
如图

注意:在手机APP上进行对话,会自动同步到网页web端
3.DeepSeek调用远程服务API方式
这种方式适用于开发者,程序员~属于高阶使用方式!
如图

这个调用API方式在我之前的教程里面也已经讲过了,并且这种方式使用是需要付费的!
但是目前官方已经限制了充值服务,这是因为太多人进行访问了,为了保证大多数普通人的正常使用!
官方DeepSeek暂时关闭对API的充值服务调用,以确保大众都能尽可能的正常使用上DeepSeek
如图

在之后的教程中,关于API调用的方式我还会进行讲解!
4.DeepSeek第三方服务平台
现在不管是网页版、APP版、还是调用API方式其实都会出现一定的卡顿,或者服务器繁忙的提示
如图

这就很让人懊恼了!
那这个时候有些大型的服务商就把DeepSeek大模型部署在他们的第三方服务器上了!
然后公开出来让我们进行使用, 这就大大减少了DeepSeek官方的压力!
这里推荐硅基流动、秘塔搜索、
硅基流动
https://siliconflow.cn/zh-cn/models
如图

秘塔搜索
https://metaso.cn/

不会使用的朋友也没关系,在后面的教程中我都会讲到, 一定要持续关注哦…
5.DeepSeek模型本地算力部署
这种方式其实是目前大多数人也采用的一种方式!
直接到huggingface或者Github上拉取模型,然后通过在自己电脑上搭建平台来运行模型的一种方式!
但是这种方式需要你有足够的硬件条件支持才可以,并且搭建的模型都是蒸馏模型, 说难听一点个人完全在本地部署的R1模型都是蒸馏模型,有些人造谣说满血,这不是狗屁吗?你那来得算力支持?忽悠客户的这群人真恶心!
😂😂毕竟有些人也是傻啦吧唧的送人头!
当然对于正儿八经的普通人而言蒸馏模型是完完全全足够使用的!
使用满血版的DeepSeek 671B全量模型的文件大小在720GB!
资源配置上据我了解,大概是需要2台8卡H100来实现满血大模型,预算也就是几百万左右,企业级吧,才能勉强使用上R1满血本地化部署,这里2台8卡H100指的是配置有两台服务器,每台服务器装有8张H100显卡,H100显卡的价格大约在1.5万元至2万元或3000美元左右, 所以就看着条件,也能判断出你当前使用的到底是不是满血!😈😈
DeepSeek官方发布的蒸馏模型参数,参数越大当然约好,就看你电脑顶部顶得住! 😈😈
https://github.com/deepseek-ai/DeepSeek-R1
如图

本地算力部署这个方法我也在前面的Ollama+DeepSeek-R1+Chatbox本地部署教程已经有非常详细的讲解,想学习的朋友先赶紧去看看吧!
如图

这种方式的优点就是可以离线使用,数据安全、并且完全免费,当然缺点也就是需要你本地电脑和硬件资源能够提供足够的算力,才能让模型更加聪明!


"👍点赞" "✍️评论" "收藏❤️"欢迎一起交流学习❤️❤️💛💛💚💚

好玩 好用 好看的干货教程可以点击下方关注❤️微信公众号❤️
说不定有意料之外的收获哦..🤗嘿嘿嘿、嘻嘻嘻🤗!
🌽🍓🍎🍍🍉🍇


1007

被折叠的 条评论
为什么被折叠?



