24、人工意识智能中的工作记忆研究

人工意识智能中的工作记忆研究

1. 聚焦工作记忆的原因

目前,关于有意识但不在工作记忆中的事物仍是待解问题。聚焦工作记忆的一个重要原因在于,它是认知的基本要素,能为过去提出的意识的多种可能功能提供统一视角。例如,工作记忆的神经生物学机制在大脑皮层中广泛存在,这与意识支持信息的全局访问和整合的假设相符。工作记忆中符号信息的表征体现了符号处理和基础在人类意识中的重要性。工作记忆的自上而下、目标导向的控制使其区别于低级的感觉运动过程,这也与过去认为高级认知、执行功能和注意力机制是意识思维关键方面的观点一致。简而言之,工作记忆的“工作”特性在于其内容会被认知过程主动操控,它处于算法和数据结构的交叉点。由于工作记忆是人类认知的基础方面,它可能是此前提出的意识所有功能的共同潜在因素。

2. 工作记忆与意识的计算关联

工作记忆的计算模型能否为意识提供特定的计算关联,从而最终用于增强人工智能系统呢?我们近期一直在研究这个问题。在模拟神经网络中,实现给定功能有多种不同方式。我们最初的工作聚焦于基于工作记忆标准心理测试(如n - 回溯任务)的特定应用模型,以及解决涉及卡片匹配任务的问题。最近,在开发能够进行通用计算的神经虚拟机(NVM)的背景下,我们极大地推广了工作记忆的计算模型。

NVM是一个纯粹的神经计算、与应用无关的软件环境,允许在具有速率编码(非脉冲)神经元的神经网络中实例化认知级算法。目前,此类算法通过传统符号人工智能方法易于实现,但通过现有的可编程神经网络方法实现则困难得多。重要的是,NVM的建模知识和认知过程是通过学习过程获得的,并由底层神经基质上的分布式活动模式表示。从用户角度看,使用NVM对认知过程进行建模时,需为NVM模拟的虚拟机编写汇编语言级程序。实际上,NVM会将给定程序转换为循环连接的神经网络的区域和路径系统,基于网络动态和突触权重变化,对表示符号的分布式活动模式执行指定计算。简而言之,NVM可视为缩小计算解释差距的一步,与混合系统不同,它是纯粹的神经计算。

我们如何利用这些工作记忆模型更好地理解意识呢?过去许多关于人工意识(AC)计算关联的研究,通常从某个潜在机制是意识关键方面(如全局处理、注意力、自我建模等)的前提开始,然后通过计算建模探索该前提的含义。相比之下,我们近期采取了相反的方法:从工作记忆模型出发,询问实现该模型需要哪些核心、独特的神经计算机制。我们认为,这些独特机制能为意识的计算关联提供新的候选因素,因为工作记忆与意识思维紧密相关,这些关联可能对人工智能系统有用。基于此方法,我们提出了三个新的关联因素,均被纳入NVM对工作记忆的实现中:
- 学习的巡回吸引子序列 :即底层递归神经网络活动的学习吸引子状态序列,每个序列元素代表工作记忆的一个认知状态。每个学习的吸引子状态对应于执行任务时工作记忆中当前活跃的一个动作或“指令”。与之前认为单个吸引子状态或一般活动轨迹可能是意识计算关联的提议不同,我们特指:(i)轨迹由吸引子序列组成;(ii)该序列有助于控制代理行为和工作记忆过程;(iii)它涉及学习状态,而非预先设定的基因决定电路;(iv)它涉及用于高级问题解决和推理的认知状态。这样的序列不仅能表示任意程序,还能表示一般的任意数据结构,如列表或树。此计算关联支持过去关于意识功能包括符号处理(每个吸引子可视为工作记忆中表示一个符号)和错误检测/纠正(工作记忆状态之间的转换只需近似,因为系统动态会通过收敛到最近的吸引子状态来纠正错误)的建议。
- 工作记忆的自上而下门控 :通过这种方式,高级认知过程控制工作记忆中存储、操作和学习的内容。例如,如图1(b)中的门控单元所示,NVM用于实现给定算法的底层神经网络大量使用乘法门控来打开/关闭网络路径中的信息流,并启用/禁用网络连接上的学习。程序吸引子序列中的每个动作/指令通过多个协调的门控操作执行。我们假设,由工作记忆模型执行组件中的吸引子状态序列驱动的这些门控操作,代表了工作记忆中可有意识报告的认知活动,因此我们认为它们可能是意识的计算关联,有助于产生代理感和心理因果关系。此计算关联支持过去关于意识功能包括自上而下的执行过程、注意力机制以及动作的唤起/控制的建议。
- 非常快速的权重变化 :它能在工作记忆中实现即时、同步的一步学习和遗忘。人类短期工作记忆的显著能力在于,仅通过一次信息呈现就能可靠地立即学习新信息。例如,当口头被告知“将16加到17”时,涉及的数字会在计算时立即保留在工作记忆中,通常无需多次听取问题陈述就能理解问题。这种学习与许多神经网络学习系统(包括基于梯度下降方法的系统,这些系统需要多次迭代呈现待学习材料)有很大不同。我们近期使用NVM的建模工作通过突触权重变化实现了对工作记忆内容的非常快速添加/删除,同时使用(1)一步Hebbian学习将新信息保留在工作记忆中,以及(2)一步反Hebbian遗忘主动移除工作记忆中不再需要的旧信息。NVM中引入的这种快速存储 - 擦除学习规则使NVM能够在解决问题时动态控制工作记忆中保留和移除的内容。此外,它在表示待解决问题的状态信息(时间对称的权重变化)和控制问题解决的行为动作序列信息(时间不对称的权重变化)方面都被证明是有效的。据我们所知,这一计算关联首次表明,工作记忆中信息的非常快速学习/遗忘可能是意识的重要功能。

3. 提高工作记忆能力的相关研究

我们对工作记忆以及上一节描述的意识潜在计算关联的重视,自然引发了进一步的问题。例如,如何从计算角度更好地理解工作记忆,以及如何提高其有效性?为解决这些问题,我们最近使用计算机模拟研究了三个问题:

3.1 工作记忆与灾难性遗忘

灾难性遗忘已成为许多进行持续或终身学习的神经网络长期记忆模型中的一个主要问题。随着学习信息量随时间增加,神经网络最终会经历“记忆过载”。在不损害网络准确回忆早期存储项目能力的情况下,无法将新项目依次添加到记忆中。这个问题在短期工作记忆的神经模型中更为关键,因为其记忆容量非常有限,且信息的短暂保留不仅需要存储项目的机制,还需要移除/擦除项目以为新信息腾出空间的机制。工作记忆模型中的灾难性遗忘尤其严重,因为它不仅会消除旧的存储项目,还会破坏存储新项目的能力,可能导致学习完全崩溃。关键问题是在无限时间范围内选择性地最大化持久记忆容量(可正确检索的最近存储项目数量),同时选择性地遗忘工作记忆中存储的较旧记忆模式。

在开发神经虚拟机(NVM)时,我们为工作记忆引入了一种新的存储 - 擦除学习规则。在单个时间步中,该学习规则使用Hebbian学习存储新的关联记忆模式,同时使用反Hebbian学习擦除先前存储的关联信息。然而,这项工作仅针对单个连续激活函数使用了存储 - 擦除学习规则,且未明确考虑灾难性遗忘问题。因此,我们最近扩展了这项工作,系统地研究了在使用离散值激活函数的短期工作记忆模型中,存储 - 擦除学习规则在长时间范围内缓解灾难性遗忘的程度。

例如,在一个计算实验中,一个具有100个输入单元和100个输出单元的线性阈值单元单层神经网络被训练将M个输入模式与相应的输出模式关联起来。当仅使用基本Hebbian学习时(图2,上半部分),出现了灾难性遗忘:随着存储的关联数量M增加,网络的持久记忆容量降至零。相比之下,当使用存储 - 擦除学习规则时,随着M随时间增加,实现了约12个模式的持久记忆容量(图2,下半部分)。一般来说,我们发现存储 - 擦除学习,尤其是与权重衰减结合使用时,能在选择性保留最近存储记忆的同时,提供避免灾难性遗忘的最佳方法。

这一结果虽然仅针对短期记忆情况获得,但可能对神经人工智能系统有更广泛的影响。权重衰减在当代深度卷积网络中广泛用作正则化技术以提高泛化能力,但它是一种对旧信息的盲目遗忘。基于我们最近的计算实验经验,我们推测,如果能确定何时不再需要旧存储信息的适当标准,存储 - 擦除规则中使用的反Hebbian学习,通过提供比权重衰减更有针对性的权重擦除,可能有助于防止此类神经网络系统在学习过程中出现灾难性遗忘。

3.2 工作记忆与组合性

组合性指智能系统利用可重用部分构建表征的能力。大量证据表明,工作记忆具有组合结构,其组织与学习到的认知过程密切相关。组合推理在语言理解、行为规划和模仿、视觉感知以及概念学习等不同领域都被认为至关重要。因此,了解大脑如何在工作记忆中操纵组合结构,可能会为一般认知的神经基础提供重要线索。

组合性在符号人工智能系统中容易实现,但对于诸如人工神经网络之类的亚符号系统则更具挑战性。机器学习的最新进展,特别是自然语言处理领域的进展,重新引发了关于神经网络是否能够表示组合结构的长期争议。然而,实证研究表明,最先进的神经网络在学习组合推理的系统规则方面存在困难,限制了它们在训练数据之外的泛化能力。

人工神经网络中的工作记忆通常基于活动模式的持续维持,通常在通过神经注意力访问的专门记忆阵列中。从生物学角度来看,这种记忆阵列极不合理。此外,大量证据表明,诸如快速突触可塑性(即非常快速的权重变化)等活动静默机制在工作记忆中起着关键作用。我们能否基于所确定的三个关联因素,通过神经工作记忆系统来提高人工神经网络的组合性呢?

为回答这个问题,我们最近开发了吸引子图网络,它将组合数据结构表示为通过学习转换(边)链接的吸引子状态(吸引子图的顶点)系统。与吸引子序列中的状态只有一个后继状态不同,吸引子图中的状态可能有多个指向其他状态的输出转换,每个转换都有一个独特的标签。在遍历吸引子图时,转换由表示边标签的乘法输入模式序列选择。每个输入模式是一个自上而下的门控信号,选择神经网络群体的一个子集参与转换动态和学习。因此,来自同一状态的不同转换存储在异联想权重矩阵的不同但重叠的子集中。我们将此称为功能分支,因为吸引子图中的分支取决于活动模式,而不是存储在不同的权重矩阵中。

我们假设组合数据结构可以表示为吸引子图,并且可以通过随时间控制自上而下门控的算法程序有效地构建和访问。我们通过几个计算实验验证了这些假设。我们发现,吸引子图网络可以使用快速存储 - 擦除学习规则可靠地学习具有大量转换(边)和非常高分支因子(节点出度)的图。此外,存储 - 擦除学习规则允许吸引子图的快速重组,使网络成为可重用工作记忆的有效模型。我们表明,诸如列表、树和关联数组之类的数据结构可以通过对其组织施加约束(例如,列表是由具有共享列表特定标签的边组成的状态链)编码为吸引子图。这些数据结构可以通过程序化的自上而下控制进行构建、操作和访问。为了证明这一点,我们设计了一个以吸引子图网络为记忆模块的可编程神经网络,并训练它执行分层规划任务。在这个任务中,网络需要根据学习到的分解规则和环境条件,将一系列抽象行为转换为一系列具体动作。为此,网络在工作记忆中构建了一个表示行为计划的树,通过递归分解抽象动作,然后遍历该树以检索表示具体动作的叶节点。我们发现,具有足够大小的吸引子图网络的网络可以可靠地完成任务。

综上所述,对工作记忆的研究在理解意识和提高人工智能系统性能方面具有重要意义。通过对工作记忆的计算模型、计算关联以及相关问题(如灾难性遗忘和组合性)的研究,我们有望为人工意识智能的发展提供新的思路和方法。

人工意识智能中的工作记忆研究

4. 研究总结与未来展望

上述研究从多个角度深入探讨了工作记忆在人工意识智能领域的重要性及相关机制,下面对这些研究进行总结,并对未来的研究方向进行展望。

4.1 研究成果总结
  • 工作记忆与意识关联 :工作记忆是认知的基本要素,与意识思维紧密相关。通过工作记忆模型研究,提出了三个新的意识计算关联因素,即学习的巡回吸引子序列、工作记忆的自上而下门控和非常快速的权重变化,为理解意识和增强人工智能系统提供了新视角。
  • 应对灾难性遗忘 :引入的存储 - 擦除学习规则,特别是与权重衰减结合使用时,能有效缓解短期工作记忆模型中的灾难性遗忘问题,为神经人工智能系统避免此类问题提供了潜在方法。
  • 提升组合性 :开发的吸引子图网络,基于快速存储 - 擦除学习规则,能够可靠地学习具有大量转换和高分支因子的图,实现了组合数据结构的有效表示和操作,提高了人工神经网络的组合性。

以下是对研究成果的简单总结表格:
|研究方面|成果|
| ---- | ---- |
|工作记忆与意识关联|提出三个新的意识计算关联因素|
|应对灾难性遗忘|存储 - 擦除学习规则结合权重衰减可缓解问题|
|提升组合性|吸引子图网络提高人工神经网络组合性|

4.2 未来研究方向

尽管取得了一定的研究成果,但仍有许多问题有待进一步探索。未来的研究可以从以下几个方面展开:
- 深入理解工作记忆机制 :虽然已经确定了一些意识的计算关联因素,但对于工作记忆中这些机制的具体工作原理和相互作用还需要更深入的研究。例如,学习的巡回吸引子序列如何在不同任务中动态调整,自上而下门控如何精确控制工作记忆的内容等。
- 拓展应用场景 :目前的研究主要集中在理论模型和计算实验上,未来可以将这些成果应用到更广泛的实际场景中,如智能机器人、自动驾驶等领域,验证其在实际应用中的有效性和可靠性。
- 跨学科研究 :意识和工作记忆是复杂的研究领域,涉及神经科学、计算机科学、心理学等多个学科。未来可以加强跨学科合作,整合不同学科的知识和方法,推动该领域的研究取得更大的突破。

5. 研究方法与实验流程回顾

为了更好地理解上述研究,下面回顾一下研究过程中采用的主要方法和实验流程。

5.1 研究方法
  • 计算建模 :通过构建工作记忆的计算模型,如神经虚拟机(NVM)和吸引子图网络,模拟工作记忆的功能和机制,探索意识的计算关联。
  • 计算机模拟 :使用计算机模拟实验,对不同的学习规则和模型进行测试和验证,比较它们在应对灾难性遗忘和提升组合性方面的性能。
5.2 实验流程

以下是研究中主要实验的流程说明:
1. 工作记忆模型构建 :根据研究目的,构建相应的工作记忆模型,如基于标准心理测试的特定应用模型、NVM模型和吸引子图网络模型。
2. 实验设计 :设计具体的实验任务和条件,如在灾难性遗忘实验中,设置不同的学习规则和存储关联数量;在组合性实验中,设计不同的组合数据结构和任务要求。
3. 数据收集与分析 :在实验过程中,收集模型的性能数据,如持久记忆容量、学习准确率等,并对数据进行分析和比较,评估不同模型和方法的效果。
4. 结果验证与优化 :根据实验结果,验证研究假设,对模型和方法进行优化和改进,进一步提高工作记忆的性能和意识的计算关联的准确性。

下面是实验流程的mermaid流程图:

graph LR
    A[工作记忆模型构建] --> B[实验设计]
    B --> C[数据收集与分析]
    C --> D[结果验证与优化]
6. 结论

通过对工作记忆在人工意识智能领域的研究,我们发现工作记忆不仅是认知的基础要素,还与意识思维密切相关。通过提出新的意识计算关联因素、解决灾难性遗忘问题和提升组合性,为人工意识智能的发展提供了新的思路和方法。未来的研究需要进一步深入理解工作记忆机制,拓展应用场景,并加强跨学科合作,推动该领域的研究取得更大的进展。相信随着研究的不断深入,我们将能够更好地理解意识的本质,并开发出更智能、更具意识的人工智能系统。

【电能质量扰动】基于ML和DWT的电能质量扰动分类方法研究(Matlab实现)内容概要:本文研究了一种基于机器学习(ML)和离散小波变换(DWT)的电能质量扰动分类方法,并提供了Matlab实现方案。首先利用DWT对电能质量信号进行多尺度分解,提取信号的时频域特征,有效捕捉电压暂降、暂升、中断、谐波、闪变等常见扰动的关键信息;随后结合机器学习分类器(如SVM、BP神经网络等)对提取的特征进行训练与分类,实现对不同类型扰动的自动识别与准确区分。该方法充分发挥DWT在信号去噪与特征提取方面的优势,结合ML强大的模式识别能力,提升了分类精度与鲁棒性,具有较强的实用价值。; 适合人群:电气工程、自动化、电力系统及其自动化等相关专业的研究生、科研人员及从事电能质量监测与分析的工程技术人员;具备一定的信号处理基础和Matlab编程能力者更佳。; 使用场景及目标:①应用于智能电网中的电能质量在线监测系统,实现扰动类型的自动识别;②作为高校或科研机构在信号处理、模式识别、电力系统分析等课程的教学案例或科研实验平台;③目标是提高电能质量扰动分类的准确性与效率,为后续的电能治理与设备保护提供决策依据。; 阅读建议:建议读者结合Matlab代码深入理解DWT的实现过程与特征提取步骤,重点关注小波基选择、分解层数设定及特征向量构造对分类性能的影响,并尝试对比不同机器学习模型的分类效果,以全面掌握该方法的核心技术要点。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值