迷茫
23年被openai震惊了,火急火燎找了个AI创业公司入了职;去年搞了一年迷迷糊糊找不到(产品)方向;春节突然间deepseek出圈,而且热度居然持续了这么久,范围这么大,留存还出乎意料的好,更加迷惑了。AI到底用户价值在哪?到底会怎样?最近想这个想的有些神神叨叨的,而且愈发悲观,开始强烈共情23年说人类即将消亡的未来学家们了。
出圈
去年下半年一直在想,包括后来聊天也被问到过,模型能力迭代到什么时候才算合格,可以慢下来。特别是推理类模型出来之后,大部分模型的showcase我是场景用不到、问题没听说、答案看不懂。那么再去精进人类最后的考试这种神测评的价值是什么呢?
纠结了快一个月之后,终于有点想明白了,一句话总结:任何认知水平的人提问题,大概率都能拿到一个大于等于自己认知水平的答案。达到这个水平就可以给人用了,后面再提升智力水平更多的是为了追梦,而不是面向短期用户落地。当然,能力还是包括了很多维度的,非智力的提升还是很重要的。
智力价值的消失
如果一个模型能达到上文提到的水平,那么对应的人的智力可以完全被这个人向模型提问并获取结果替代,且效果更好。中间差了非文本或本次对话的上下文,人的规划能力,人的提问能力。
上下文是可以靠RAG、硬件持续收集信息、反问等技术手段达成,甚至由于这些信息细节要比人的记忆多很多,整体效果的预期是超越人类的。人的规划能力,绝大部分人在绝大部分情况下(快思考)是绝对比推理模型差很多的,而且模型随着agent能力的提升(agent的核心是planning),这部分的预期也是超越人类的。最后提问能力,现有模型优化的prompt已经比我写的好很多了,不是预期是既定的超越人类。
如果上面分析是正确的,那么人做为智力主体的价值就消失了,因为模型的智力在客观上超过了人类,成本又低了无数个数量级。
站在单人角度上是这样,站在组织上呢?一个组织的协助抽象都是发现问题解决问题,只不过每个层级发现问题的粒度不同,解决问题又都依赖下一个层级。抽象看,问题来源只有两个:人和客观存在。人的问题是组织的核心问题,但是当人被替代后,人的问题本身也就不存在了。客观存在的问题比如数学是有稳定的reward model的,这种问题的解决模型向来好过人类。而且人类的上下文其实很差的,任何一个长上下文模型都能比人类更好的记住所有细节。大量分工也只是因为人类并不能很好的适配长上下文,大范围的能力迁移,越大规模的问题模型原则上是能解决的更好的。致命的问题就来了:从下往上,当某个层级被模型替代了(因为模型比人更强),这个层级的上一级是不是没有了存在的价值?或者从上往下的替换是不是更符合比较优势?
如果答案是“是”,那人类作为智力提供者的价值是不是也就消失了。
假装我是未来学家
还原到最基础的马哲,生产力剧变会带来生产关系的剧变。这次是人类智力价值的消失,长远看由于人类智力限制带来的分工、奇形怪状的工具也会随之消失(比如用友和会计这个行业)。马圣说的free conscious activity本身的价值也大幅减少。人类的生产生活可能会变成低智能团体的自娱自乐,大概就是桃花源中小社会的生活逻辑,从自然资源(和模型智力)中获取增量,以一种极为质朴的方式进行无实际意义的生产,原地踏步,自给自足,自生自灭。
那不过这种生活的人呢?可能不存在,因为整个世界应该是会停滞的。因为模型终归是没有自我意识和欲望的,当模型达到了人类无法评价的水平,模型也不会继续迭代了。而由于这时候的模型还是很轻易的能替代所有人的有意义的生产工作,也不会有组织希望继续迭代。同时资本由于并不能通过增殖获取收益,以及资本后的人并不能通过资本满足欲望,资本似乎也不太会有继续发展的动力。
悲观
这不是个技术文章,算是一个极为悲观的预测。希望会预测错误。
Deepseek
https://yuanbao.tencent.com/bot/app/share/chat/d1ea92d03d19c73c654ea487fe478bfc 把原文给Deepseek,并聊了聊。一方面,我和Deepseek比是智力下位者;另一方面,价值观本身模型也是有且强大的。
补充一些想法:
- 人类生产存在的价值可能只是为了填补人类的欲望,所以非增值类的人类生产(写诗)也是有实际意义的。哪怕是人类智能冠绝所有生物和物品的时代,人类也是为了自给自足而生产的,并不是为了抽象的发展。
- 人类核心能力无非是体力和智力,工业革命干掉了体力,这次可能会消弭掉智力。所谓的意义、情感、好奇心,这些可能并不是本质能力,而是挽尊。当放弃人类中心主义时,这些没有价值。