Meta FAIR田渊栋:符号和神经推理的融合统一(上篇)

近日,在Meta FAIR担任研究总监的田渊栋在某站上分享了近期一系列关于符号推理与神经网络推理两者间在不同复杂推理任务上的计算差异、性能优劣甚至未来融合统一的研究成果。

1c02e8e981c74ceca85df74550a8ffcd.jpg

讲者开门见山的从LLM当前核心功能-复杂推理&规划入手展开,引出AI应用于复杂认识推理可能的3个渐进式演化options(Scaling Law/Hybrid System/Emerging Symbol&Neural),并首先拿Agent常见领域-旅行规划任务着手,从option1带入到option2…

91bf06b6ba30482db1f48b69ddf0d922.jpg

在Option2的第一个子路线中,通过引用一篇EMNLP24的Demo论文对于旅行规划任务中所采用的混合整数规划(Mixed Integer Linear Programming,MILP)求解器对比与分析了symbol&neural在推理求解性能及Agent灵活性的运用探索。- 这里算是对上述Option2的一小步探索与尝试,即尝试将形式化的符号推理范式嵌入拼接到DNN中来,但其中的形式化符号内涵并未展开。

随后,在Option2的第二个子路线中,讲者抛出了近期的系列工作:采用Searchformer和Deformer形式化求解器应用于经典的走迷宫和推箱子的复杂推理与规划问题。这里的形式化求解器即大家所熟知的A*,并通过实验印证solution-only model与search-augmented model两种推理范式Scaling Law的不同 (注:在这里个人认为并不单单是两种范式下scaling law的不同,而本质是由于来自底层数据所呈现的分布上差异造成的)。

当然大家这里可以很自然的想象到:对于后者的范式,可以采用RL思想继续探索采样与利用,并进一步寻求最优/短路径以增强模型,实现超越A*求解器的思路,到这里相信大家也看到了些许o1的影子;)

- 个人观点:上述本质是进一步参数化压缩模型内的neural链接,这里未来亦将会有很大的探索空间和研究价值,也与本讲座的Option3有一定的关联…另外,在这里其实我个人也有着对这种进一步的对数据采样到模型压缩路径的不安,即是这种采样与压缩也许会扰乱真实世界中所固有的泛化涟漪或会给模型掌握真实流形分布带来挑战。

因此篇讲解内容丰富,共分为上中下三篇为大伙解读,本篇为上篇,小伙伴们敬请期待后续…

0c6715554c464d1dbcc8507b68ddc68e.png

 55bc1d7fd7fa429293e9f2837bdc6b1d.jpg

d57ad50dc61b45919892f15c43e7a86c.jpg 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值