神经计算中的RELR方法与传统神经网络对比
1. RELR方法概述
RELR方法在确定神经元胞体的放电概率方面具有优势,它形成的聚合表示可以通过解析方式处理,这与更复杂的多室模型只能通过模拟来理解形成对比。RELR能够对神经元内的学习计算进行解释,这些计算决定了轴突在胞体处的二进制放电。
与传统神经网络模型不同,RELR并不直接模拟突触权重学习,而是模拟通过神经动力学和突触学习效应在胞体处产生的权重学习。例如,Izhikevich简单模型等描述了如何通过现实的权重参数确定神经动力学,而RELR作为一种神经模型,刻画了这些模型中的记忆权重如何通过学习产生,这里的学习被广泛定义为遗传和环境的历史学习。
RELR方法通过受线性约束的最大熵方法自动学习快速膜电位向量v的系数以及神经动力学模型中所有相关的非线性和交互效应的后验权重参数。先验的遗传或环境权重可以被解释为每个特征独特的先验权重,类似于Izhikevich简单模型中的u慢离子电流变量,它可以随时间缓慢变化,直到在二进制放电时突然更新。RELR的学习产生最优的后验系数记忆权重,这些权重在所有自变量约束下使熵最大化。自变量特征可能是高度共线的特征,包括所有主要输入效应以及由此产生的交互和非线性效应,这可能出现在像隐式RELR这样的高维统计模型中,或者通过显式RELR选择非常特定的主要、交互或非线性效应的简约特征选择模型中。
2. 小样本神经学习
大脑似乎能够通过工作记忆中的缓存、在线小样本更新学习快速学习新的复杂输入模式。例如,内侧颞叶的一些神经元在识别记忆任务中表现出单试验学习,尽管一次学习试验可能与单个神经元中的许多二进制响应的多次爆发相关,并且相同的二进制放电输入模式可能在工作记忆中
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



