由上海交通大学计算机学院赵海教授团队研发的全球首个宏观模拟人类大脑工作机制的大语言模型BriLLM(Brain-inspired Large Language Model)近日正式发布。这一突破性成果彻底摆脱了传统Transformer架构的束缚,开创性地采用受脑科学启发的动态信号传播机制,为解决当前大模型的算力黑洞、黑箱困境和上下文限制等核心问题提供了全新思路。
核心创新:SiFu机制颠覆传统架构
研究团队从脑科学两大关键发现获得灵感:
-
静态语义映射:模拟大脑皮层区域分工机制,实现语义特征分布式编码
-
动态电信号传导:借鉴神经通路电信号流动特性,建立动态决策机制
基于此提出的SiFu(Signal Fully-connected Flowing)学习机制,构建了全新的有向图神经网络架构。该模型所有节点均具备可解释性,信号流动遵循"最小阻力原则",实现了三大突破:
-
无限上下文处理:模型参数完全独立于序列长度,支持任意长上下文输入而无需扩容
-
100%全流程可解释:从节点到决策过程全程透明,突破传统模型黑箱困境
-
超高参数效率:通过低频词元边共享技术,将参数规模缩减90%,20亿参数模型性能对标初代GPT
技术实现与性能表现
研究团队发布了中英文两个版本:
-
BriLLM-Chinese:20亿参数(稀疏率87%)
-
BriLLM-English:10亿参数(稀疏率94.3%)
实验表明,该架构在保持较小规模的同时,展现出与Transformer架构相当的基准性能。更值得关注的是,当词表扩展至常规大模型水平(4万)时,预期参数量仅需100-200B,却可天然支持无限长上下文处理。
未来展望:通往AGI的新路径
BriLLM的"节点-信号"设计为多模态融合提供了天然支持:
-
可灵活添加视觉、听觉等模态节点
-
支持感知-运动整合的具身智能开发
-
为构建真正类人的通用人工智能奠定基础
该项目已入选上海交通大学"交大2030"计划2025年度重点项目,获得500万元专项资助。团队表示,下一步将重点推进多模态脑启发AGI的研发工作,这一突破性架构或将成为通向通用人工智能的重要里程碑。
相关资源


被折叠的 条评论
为什么被折叠?



