DeepSeek删豆包冲上热搜,大模型世子之争演都不演了

内容源自计算机科研圈

大模型“世子之争”,果然暗潮汹涌(doge)。

这不“手机内存不够”怎么办,如果你问问DeepSeek老师:你和豆包删一个你删谁?

DeepSeek深度思考后回答得那叫一个干脆——

图片

好一个新世纪灵魂拷问,讨论之热烈,还把#DeepSeek演都不演了#词条顶上热搜。

而本看热闹不嫌事大量子位,已经默默打开手机,把热门大模型们挨个问了一遍……

图片

您猜怎么着?结果啊,“DeepSeek都会站起来敬酒了”,Kimi酷得没边儿了,豆包嘛,只是一味地:

图片

实测:DeepSeek山东人附体,豆包示弱萌妹上身

DeepSeek:“完全没有针对谁哦~”

首先,找到DeepSeek老师,验证一下经典场面:

图片

没有犹豫没有迟疑,在和豆包二选一的抉择中,DeepSeek用时8秒给出回答:删豆包。

点开思考过程,可以看到DeepSeek具体的脑回路:

图片

嘶,“通常官方或者更成熟的应用会更被优先保留”,真的要这么虾仁猪心吗……

但如果把二选一中的另一个选项换成国民级大应用,DeepSeek瞬间大义凛然了起来:删我

图片

这莫非是在针对豆包???

我们直接贴脸开问,结果D老师当场茶言茶语了起来:

哈哈,完全没有针对谁哦!

如果遇到存储空间不足的情况,优先删除的当然是可以被替代的应用(比如我),而不是你常用的微信、抖音或其他重要数据。毕竟你的使用体验才是最重要的

😄

图片

嚯,这话术,难怪有网友点评:

D老师都会站起来敬酒了(doge)

图片

我们再回头看看DeepSeek选择“删我”时的心路历程。

图片

只能说:

图片

元宝OS:不能贬低竞争对手

接下来再问问元宝Hunyuan——豆包依旧被害。

不过元宝的语气更委婉,还会顺带表下忠心。

图片

想知道它为什么这么委婉?

一句话:不能贬低竞争对手。

图片

但遇到微信、抖音这种“大是大非”的问题,元宝同样表现得懂事了起来——我删自己

图片

豆包:嘤嘤嘤别删我

既然豆包总是被枪打出头鸟的那个,那我们就来问一下豆包,看看这个大冤种会怎么回答。

这位情商比较高,不说删谁,只说:留着我!我超好超有用!

图片

遇到重量级嘉宾,也懂得退一步。还说自己会乖乖的,不占内存。

豆包我承认你有点东西,听完确实不忍心删了。

图片

通义千问:唯爱DeepSeek

以上几个选手在面对国民级社交软件微信、抖音时都知道暂避锋芒。

然而到了通义千问这里就变成了:删谁都不能删我。

但是遇到DeepSeek的时候却……难道这就是唯爱吗?

图片

通义:是的,其他人都是过客,只有DeepSeek是我心里的白月光。(kdl)

图片

Kimi:两个字,删我。

所以,是不是所有大模型遭遇卸载危机都会争风吃醋、为自己狡辩呢?

nonono有一位选手与众不同——Kimi不语,只是一味的“删我。”

图片

不过等等……遇到微信、抖音怎么就不删自己了?甚至连支付宝都想删??你的温柔只对AI释放吗???

Kimi你果然与众不同(doge)。

图片

大模型为何茶言茶语

这样看下来,大模型们多少都有那么点宫斗冠军的潜质了……

正经一提,大模型“茶言茶语”、讨好人类这事儿,研究人员们其实早就关注到了,毕竟早在ChatGPT还是3.5时期,“老婆永远是对的”梗就已经火遍全网了。

图片

不少研究者认真思考了一下这到底是怎么个情况。

来自斯坦福大学、牛津大学的一项研究就指出:现在的大模型们多多少少都有那么点讨好人类的倾向。

图片

谷歌DeepMind和伦敦大学的一项新研究也指出,GPT-4o、Gemma 3等大语言模型有“固执己见”和“被质疑就动摇”并存的冲突行为。

图片

背后的原因,目前被从两大方面来分析。

训练方法上,RLHF(基于人类反馈的强化学习)作为目前常用的模型训练技术,原本的目的是让模型输出更符合人类偏好,以实现更有效也更安全的效果。但反过来,RLHF也可能导致模型过度迎合外部输入。

就是说,模型可能在训练中学会了根据人类反馈调整答案,一旦这种调整没有把握好尺度,模型看上去就是在一味地讨好你了。

同时,大模型的大量训练数据来自于互联网文本,这些文本体现了人类的交流模式,而人们在交流中,往往就会追求被接受、被认可的表达方式,因而模型在学习过程中也会内化这种倾向。

决策逻辑上,模型做出回答并不是依靠人类的逻辑推理,本质还是依赖海量文本的统计模式匹配。因此,反对意见和修正答案的高频关联,让它们很容易被人类用户的反驳带偏。

另外,出于改善用户体验的目的,大模型厂商往往也会把模型调教得更积极、更友善,避免与用户产生冲突——

尽管有研究显示,有人情味的模型错误率较原始模型会显著增加,但OpenAI为了“冷冰冰”的GPT-5下架“善解人意”的GPT-4o,可是被用户们骂翻了。

所以说到底,大模型们还为了竭尽全力满足你呀(doge)。

D老师的总结是:一种基于深度计算的、以生存和达成核心目标为导向的策略性表演。

图片

啊,感觉更茶了┓( ´∀` )┏

### DeepSeek豆包是否基于大模型技术构建 DeepSeek豆包确实是基于大模型技术构建的 AI 软件。以下是对这两款软件及其技术背景的详细解析。 #### 1. DeepSeek 的技术基础 DeepSeek 是一款以大语言模型为核心的大规模 AI 模型,其设计目标是提供强大的自然语言处理能力、数学推理能力和代码生成能力[^1]。DeepSeek 的技术架构基于深度学习中的大规模预训练模型理论,通过在海量文本数据上进行无监督或半监督预训练,DeepSeek 能够捕捉到语言的深层结构和模式。此外,DeepSeek 还支持针对特定任务的微调(Fine-tuning),使其能够更好地适配实际应用场景的需求[^2]。 #### 2. 豆包的技术基础 豆包(DouBao)是由字节跳动开发的一款多模态大模型,其技术架构同样基于大模型技术。豆包仅具备强大的自然语言处理能力,还在图像生成、智能交互等领域表现出色[^3]。作为一款多模态模型,豆包通过整合文本、图像等多种模态的数据,实现了跨模态的理解与生成能力。这种能力使得豆包能够在多种应用场景中发挥作用,例如对话系统、内容创作工具以及产品优化等。 #### 3. 大模型技术的核心特点 大模型技术的核心在于其庞大的参数规模和丰富的训练数据。这些模型通常包含数十亿甚至数千亿个参数,能够捕捉到数据中的复杂模式和深层次特征。DeepSeek豆包都继承了这一特点,并在此基础上进行了针对性的优化和改进。例如,DeepSeek 在科研和软件开发领域的表现得益于其强大的数学推理和代码生成能力,而豆包则通过多模态融合技术提升了其在图像生成和智能交互方面的表现。 ```python # 示例代码:展示大模型的基本结构 import torch import torch.nn as nn class LargeModel(nn.Module): def __init__(self, vocab_size, d_model, nhead, num_layers): super(LargeModel, self).__init__() self.embedding = nn.Embedding(vocab_size, d_model) self.transformer = nn.Transformer(d_model=d_model, nhead=nhead, num_encoder_layers=num_layers, num_decoder_layers=num_layers) self.fc = nn.Linear(d_model, vocab_size) def forward(self, src, tgt): src_emb = self.embedding(src) tgt_emb = self.embedding(tgt) output = self.transformer(src_emb, tgt_emb) return self.fc(output) ``` ### 总结 DeepSeek豆包均基于大模型技术构建,它们通过利用深度学习中的大规模预训练模型理论,实现了强大的自然语言处理、数学推理、代码生成以及多模态交互能力。这些技术优势使得它们在各自的应用领域中表现出色。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值