【DeepSeek小白学习系列教程】 血泪警告! 上下文超过2048token竟导致42%成本浪费! (7)

🚀 个人主页 极客小俊
✍🏻 作者简介:程序猿、设计师、技术分享
🐋 希望大家多多支持, 我们一起学习和进步!
🏅 欢迎评论 ❤️点赞💬评论 📂收藏 📂加关注

DeepSeek-R1大模型也有限制

1.上下文记忆限制

也就是说上下文理解能力是有限制的,比如说随着时间推移,会话时间延长,模型处理过去信息的能力回受到一定的限制,从而导致遗忘之前的交互信息内容,也容易出现一些奇异问题!

另外我们上传附件的时候,如果文字太多,那么DeepSeek就可能无法读取完整的文档结构,只能读取到部分内容作为数据参考和我们进行交互!

2.输出长度限制

其实如果你有使用大模型的经验,就肯定知道很多大模型在输出字符长度上都是有所控制的,一般也就是控制在几千字符以内!

所以我们才没有办法去让这些大模型翻译长篇大论,我们基本上要获取的需求内容也都是在2K字以内比较合适!

3.主题分开

我们有些朋友往往在使用大模型的时候,喜欢问一个问题之后,接下来问的这个问题跟之前所交流的问题毫不相干,这种习惯很不好! 这会导致AI思考和推理出现混淆幻觉,因为AI在之间的交互中还保留有一个问题的记忆, 所以最好把主题分开,新建一个对话即可!

解决方案

如果很复杂很庞大的问题,我们需要拆分解决,也就是分步拆分,把问题拆解!

举个栗子

1.在国内注册公司需要哪些步骤和准备哪些材料
2.如果要经营影视后期自媒体,还需要办理哪些许可证,以及法律相关的问题和流程整个花费的时间,金钱,人力你都给我列举出来!

所以针对这种比较复杂多变的问题,我们需要进行问题的拆解,然后再去和大模型沟通!

"👍点赞" "✍️评论" "收藏❤️"

大家的支持就是我坚持下去的动力!

如果以上内容有任何错误或者不准确的地方,🤗🤗🤗欢迎在下面 👇👇👇 留个言指出、或者你有更好的想法,
欢迎一起交流学习❤️❤️💛💛💚💚

更多好玩 好用 好看的干货教程可以点击下方关注❤️微信公众号❤️
说不定有意料之外的收获哦..🤗嘿嘿嘿、嘻嘻嘻🤗!
🌽🍓🍎🍍🍉🍇

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值