这篇文章聚焦于解决大语言模型(LLMs)高能耗问题,提出了基于脉冲神经网络(SNN)的SpikingMamba模型,核心是通过知识蒸馏从Mamba模型迁移能力,在大幅提升能效的同时最小化精度损失。

一、文章主要内容总结
-
研究背景
- 现有LLMs(包括Mamba)依赖密集矩阵运算,能耗高,难以部署在边缘设备;SNN虽通过稀疏脉冲降低能耗,但现有SNN-based LLMs存在“精度-能效”权衡,且全量预训练成本极高。
- 对比量化与SNN两种能效优化方案:量化无法消除密集矩阵运算的固有成本,而SNN通过二进制脉冲的时间和通道稀疏性,能进一步缓解边缘设备的I/O瓶颈。
-
核心方案:SpikingMamba模型
- 基于预训练Mamba模型,通过单阶段知识蒸馏迁移能力,无需全量预训练;同时引入强化学习(DPO/KTO)进一步提升精度。
- 关键组件包括:三元整数脉冲神经元(TI-LIF)、训练专属的平滑梯度补偿路径(SGC),以及“蒸馏+RL”的混合训练框架。
-
实验结果
- 1.3B参数的SpikingMamba相比原Mamba,能效提升

订阅专栏 解锁全文
1365

被折叠的 条评论
为什么被折叠?



