目录
自2022年ChatGPT诞生以来,因其在语言理解和知识问答方面的优异表现,大模型受到了学术界和工业界的广泛关注,并被认为具备记忆和应用世界知识的能力。但训练大模型和提高模型的推理速度并非易事,近期在大模型训练领域,MoE这一范式吸引了很多科研人的目光。
Mixture-of-Experts (MoE)
1991年,混合专家模型(MoE)的创始论文《Adaptive Mixtures of Local Experts》由机器学习领域的大牛Michael Jordan和人工智能教父、图灵奖得主Geoffrey Hinton等联合发表。
这篇论文的摘要中提到:We present a new supervised learning procedure for systems composed of many separate networks, each of which learns to handle a subset of the complete set of training cases.
作者在该篇论文中提出了一个全新的监督学习范式!这个范式将一个系统巧妙地拆分成了多个独立的网络,每个网络都针对性地处理一部分训练数据集。这些独立的神经网络就像是一群各具专长的专家,各司其职。当我们把每个专家的学习成果加权汇总起来,就得到了最终的结果。
MoE的学习过程可以看做是多层监督网络的超级模块版,或者说是竞争学习的新概念版。更有趣的是,由于每个专家都是独立训练的,它们只专注于自己“擅长”的那一部分数据,这有效地减少了各种数据间的干扰,同时也让学习速度和泛化能力都得到了极大的提升!

本文介绍了Mixture-of-Experts(MoE)模型,一种通过将任务分解为独立专家处理的神经网络架构,对比了其与集成学习的差异,强调了MoE在大模型训练中的优势,如降低训练成本和提升性能。Google的GLaM模型展示了MoE的实际应用和效率提升。
最低0.47元/天 解锁文章
2686

被折叠的 条评论
为什么被折叠?



