具有基于模型的‘类自闭症’行为的交互式机器人
1 引言
1.1 背景与范围
自闭症谱系障碍(ASD)是一种发育性状况,会影响个体的沟通与社交能力,以及可能影响运动和认知技能。患有自闭症谱系障碍的个体的行为特征涵盖极为多样的范围,导致其行为特征表现出高度的差异性和个体差异 [1]。尽管自闭症谱系障碍正从发育、神经生理学[2],和遗传学[3, 4],等非常不同的角度被研究,但其诊断主要依赖于在受控环境中对行为的观察。
因此,治疗师用于自闭症谱系障碍的现有诊断工具为我们提供了自闭症谱系障碍的行为模型。更具体地说,这些工具将通常观察到的行为分类法与一组已被确定为在不同形式下描述该状况相关的特征值联系起来。特别是,自闭症诊断观察量表(ADOS‐2)[5]是一种通过在半控制环境中与儿童互动和观察其行为来进行诊断的先进诊断工具。治疗师使用标准化物品和程序与儿童完成一系列10项任务,然后将他们在整个会话过程中观察到的行为编码为多个行为维度上的一组特征的离散值。一次典型的ADOS‐2会话需要40至60分钟来实施。根据儿童的年龄或语言能力,提供不同的模块。在本研究中,我们关注适用于具有短语语言能力儿童的模块2,相比其他现有模块,它为我们提供了更丰富的一组行为。
这项工作在我们先前研究的基础上进行构建和扩展 [6],,旨在应用ADOS‐2模型来控制人形NAO机器人的行为,使其能够表现出与不同程度自闭症谱系障碍儿童相似的行为。
在某些文献中,机器人或智能体常被非正式地描述为 “自闭症”[7, 8](指其缺乏社交智能)。然而,认为自闭症谱系障碍个体的行为只是正常发育个体行为的简化版本这一观点并不总是正确的。事实上,自闭症谱系障碍可能会引入一些有趣而丰富的细微差别、独特特征以及正常发育个体中未见的主动行为。从更广泛的角度来看,将机器人或智能体称为“自闭症”可能是危险的,因为它强化了关于自闭症大脑功能的错误假设[9]。在本研究中,我们使用“类自闭症”这一术语仅指机器人自身的行为。这些行为在视觉上类似于在患有自闭症谱系障碍儿童中通常观察到的人类行为。它们仅在行为层面进行建模,并未考虑对自闭症谱系障碍个体可能具有的低层次认知过程的任何模拟。
由于机器人上可能存在的行为特征具有极大的多样性,我们引入了一种用户可自定义模型参数的方法,以允许在4个言语和非言语行为特征上呈现不同程度的自闭症谱系障碍严重程度。我们首先基于ADOS‐2模型,在 NAO机器人上设计沿这些特征表现的不同严重程度的类自闭症行为。这些行为对应于对三类不同刺激类别的可能反应范围,灵感来源于ADOS‐2任务。第二步,我们将这些行为整合到运行在机器人上的自主代理中。结果是一个具备类自闭症行为的可定制互动机器人,能够针对一组预定义刺激持续与人类进行互动。通过指定用户可控制特征,该机器人可被定制为256种独特方式之一。我们通过与认证的自闭症治疗师开展的基于视频和现场研究,评估了所生成互动的有效性。
总之,本工作的主要贡献如下:
- 一种基于ADOS‐2诊断工具控制具有类自闭症行为特征的 NAO人形机器人行为反应的方法
- 一组涵盖不同ADOS‐2特征和不同程度的16种机器人行为,包括语音、注视和手势,在响应言语、声音和触觉刺激时的表现。
- 一种用于在机器人上运行的可定制交互式代理中集成这些行为的架构,以及
- 通过基于视频和实地研究,评估我们方法在补充治疗师培训以及帮助完成新的自闭症谱系障碍任务方面的有效性和潜在益处。
在下一小节中,我们将更详细地讨论这些不同贡献的相关性和潜在影响
1.2 为什么使用具有“类自闭症”行为的机器人?
大多数关于将机器人用于自闭症的研究主要集中在直接辅助自闭症谱系障碍个体,尤其是在治疗环境中[10, 11]。其基本原理在于,机器人社交技能的可预测性、可控性和简单性能够通过让这些个体参与简化的社交互动,从而使其有望泛化到现实世界中的互动。在本研究中,我们提出了一种与自闭症谱系障碍相关的使用机器人的替代方法,即让机器人自身模拟典型的自闭症行为。我们预见了几种推动具有“类自闭症”行为的机器人在现实世界中的应用,包括补充治疗师培训以及实现新型的自闭症治疗任务。接下来我们将分别阐述这些应用的动机。
1.2.1 治疗师培训
目前针对自闭症谱系障碍诊断程序的治疗师培训在很大程度上依赖于视频和理论材料,以及观察由受过培训的专家进行的真实诊断会话。尽管这种培训方式使受训治疗师能够接触到各种行为实例,并强调编码方案和任务流程的严谨性,
它在很大程度上忽略了成功实施该工具所需的互动与具身组件。事实上,这一组件是实施过程中的关键部分。由于治疗师需要遵循非常具体的指令集(例如图1),同时关注行为、做记录,并可能实时调整任务顺序,若对这些互动技能掌握不足,则可能导致任务实施以及特征编码上的错误。可靠性降低,特别是对于一些本身一致性评分就较低的特征[5],这会违背使用标准化工具的初衷。另一方面,利用能够表现出“类自闭症”行为方式的机器人,或许有助于通过为治疗师提供一个互动模拟环境来弥补现有培训的不足,使其在进入真实场景前进行训练。
使用模拟环境或互动进行专家培训的范式[12, 13]已应用于众多领域,包括航空[14],、医学与医疗保健 [15, 16],、军事[17],、应急响应[18],和教育[19, 20],等, 在大多数情况下均显示出受训者表现的提升。模拟环境也已被应用于社交场景和互动[21–23],以及程序性任务 [24]。这些解决方案绝大多数依赖于计算机模拟和虚拟/混合现实,而在这些模拟环境中引入具身代理的研究却非常少。我们发现仅有少数研究在焊接[25]和外科手术 [15]中使用了某种形式的物理反馈或具身交流。据我们所知,社交机器人在专业治疗师培训中的应用尚未被研究。
一种能够模拟“类自闭症”行为的互动机器人具有以下优势:
- 互动性 :与现有的治疗师培训不同,机器人能够在一定程度上模拟ADOS‐2会话中的结构化互动。
- 可定制性 :在真实世界中,治疗师所获得的经验取决于他们接诊的患者,而这是不可控的。我们机器人的可定制特性能够生成任意的行为特征,从而大大增加治疗师所能接触到的特征组合的数量和多样性。
- 可重复性 :现实生活中的互动仅发生一次,如果我们尝试重复它们,总会存在一些不可避免的差异。尽管展示行为或互动的视频可以被重复播放以便更好地研究,但使用交互式机器人可以在一个连续的过程中重复互动本身。以受控方式操作,并允许在出现操作错误或观察注意力不足时重新执行之前的步骤。
此外,关于人类感知的研究表明,人们倾向于将类人特征赋予技术制品,包括机器人,并将其视为社会性存在 [26]。我们认知的这一特点促使人们使用人形机器人,而这些机器人并不需要高度逼真地复制儿童的外貌特征或体型。事实上,本研究中使用的NAO机器人比人类小得多,但具备一些基本特征,使其富有表现力并能够表现出吸引人的社交行为。
1.2.2 自闭症治疗
当治疗师培训是本研究中所呈现工作的主要焦点时,我们相信自闭症谱系障碍治疗也可能受益于一种能够表现出“类自闭症”行为的机器人。具体而言,这些机器人可能会在涉及模仿的机器人辅助治疗任务以及通过教学学习的情境中开启新的可能性,如下文所述。
模仿任务在自闭症谱系障碍治疗[27],中具有特殊地位,因为自闭症儿童[28]的模仿能力通常受损。因此,我们认为,一个能够自主、可定制且自适应的机器人,能够将其行为与儿童的行为相匹配,向儿童示范期望的行为,或在长期互动的背景下随着儿童一起逐步向较轻程度的行为发展,在自闭症谱系障碍治疗方面可能具有前景。
另一方面,这种机器人也可用于通过教学学习的情境[29],中,儿童通过教授机器人已经掌握的技能来完善自身技能。例如,机器人可以被编程为技能略低于儿童(即在某一特征上严重程度更高),在这种情况下,儿童会教机器人融入其原本不具备的模态。例如,如果儿童知道如何有效使用指物,他/她就可以教一个仅使用视线的机器人也将指物纳入其行为中。然而需要注意的是,对于处于自闭症谱系较高水平的一些儿童来说,通过教学学习的方法可能会具有挑战性,需要进行实证研究。
本节的动机性思考并未提供这些应用在相关背景下有用性的实证证据,而只是为了为未来自闭症领域机器人辅助场景的构想提供依据。
在现有文献中,可定制的社交机器人主要被开发用于考虑用户差异和偏好[31–33],,但针对自闭症个体的个性化[34]尚未得到充分研究。关于机器人模仿典型自闭症行为的研究,已有一些工作涉及对自闭症儿童的实时动作模仿[35]。此外,部分研究探讨了利用机器人作为平台,检验与自闭症相关的低层次认知和感觉运动过程的理论,涉及的具体行为方面包括感觉统合与运动[36]或联合注意[37]。然而,据我们所知,基于标准化行为模型(如ADOS‐2),使人形机器人根据严重程度量表表现出“类自闭症”行为,此前从未被研究过。
本文其余部分组织如下。第2节描述了我们设计具有 “类自闭症”行为的可定制和自主机器人的方式,以及我们开展的基于视频和“现场”评估研究。第3节展示并讨论了我们的两项研究结果,第4节进行总结并提出一些未来工作的方向。
2 方法
我们首先描述了设计一种具有“类自闭症”行为的交互式、自主且可定制机器人的方法。然后,我们介绍了两项研究(基于视频和“现场”研究),以验证我们的行为设计,评估交互性,并探讨该方案在现实世界中的潜在益处。
2.1 设计一种具有类自闭症行为的可定制交互式机器人
基于ADOS‐2模型,我们在NAO机器人上设计了16种行为,并将其集成到一个自主代理架构中,该架构可根据用户指定的特征值进行定制。该机器人能够自动检测一些互动参数,例如言语和非言语刺激以及声源定位,从而实现更自然的互动。
2.1.1 基于ADOS‐2模型的机器人行为
我们从ADOS‐2第二模块中选取了4个特征来指导机器人行为的设计,以模拟不同自闭症严重程度儿童的行为。这些特征包括:‘对名字的反应’、‘对共同注意的反应’、‘非仿说性言语的整体水平’以及‘指物’。与儿童类似,这些特征可以表征我们的机器人对不同刺激的响应。我们考虑了三个层级式的刺激类别,即:通过呼叫名称引起注意(N)、引导注意至物体(JA)以及询问零食偏好(S),每一类都包含一组具有相同意图或目的的刺激。这些受ADOS‐2任务中层级式‘操作步骤’启发的刺激在
中进行了总结。
我们选择的4个特征各自可以取0到3之间的离散值,对应于相应特征上的自闭症谱系障碍严重程度(换句话说,更高的数值与更严重的自闭症行为相关)。ADOS‐2手册详细描述了与每个特征严重程度相对应的行为集合,我们利用这些描述设计了16种机器人行为,针对每个单独的特征严重程度,选择了一种可在机器人上轻松复现的行为。一个机器人行为包括机器人的关节动画以及可能的语音,并由我们定义的刺激子集触发。我们的某些行为是参数化的(例如,注视行为以一个三维位置作为参数来注视)。
总结了我们针对N、JA和S三种刺激类别的响应所设计的行为。当某个刺激类别存在多个相关特征时(例如S),行为会被混合,即同时执行。
2.1.2 集成到自主代理架构中
我们设计的行为被集成到一个自主代理中,该代理能够根据预定义的识别刺激与一个或多个人类进行持续交互。更重要的是,可以通过为每个特征指定任意严重程度来自定义该代理,从而实现256种独特定制。
总结了该自主代理的架构,包括具有语音识别、触觉识别和声源定位的感知模块,以调节机器人行为。我们实现了这一架构。
通过Choregraphe套件使用NAOqiPythonAPI在 NAO机器人上实现。
由于机器人的感知能力有限,某些参数需要被硬编码或进行简单估计,而其他参数则更容易完全自主地检测。以下是针对每种行为自动估计与硬编码参数的一些详细信息,遵循表1中的缩写:
- rN0到rN3 :使用NAO的麦克风阵列估计声音位置,并用于调节机器人的视线。‘熟悉’和‘不熟悉’的用户区分方式较为简单,仅基于声音位置。假设‘熟悉’的人始终位于机器人的一侧(例如左侧),而‘不熟悉’的人始终位于另一侧(例如右侧)。NAO头部的触摸传感器用于rN3。
- rJA0到rJA3 :由于机器人的感知能力有限,在rJA0和 rJA1中,用于引发联合注意的物体位置是硬编码的。对于rJA2和rJA3,由于激活的物体会发出声音,因此通过声源定位来估计其位置。出于运动稳定性考虑(机器人有时会失去平衡),在联合注意任务中人类的位置是硬编码的。
- rpS0到rpS3 :将两份零食放在桌子上,其位置是硬编码的。首选零食位置用于参数化机器人的视线和指向方向。
- rlS0到rlS3 :这些行为仅包含语音,且未进行参数化。
请注意,对于所有行为,语音识别器用于检测所有言语刺激,并在适用时触发相应的反应。当处于空闲状态时,机器人通过一种微妙的“呼吸”行为进行动画处理,即机器人会轻微地将重心从一只脚转移到另一只脚。一段展示人类与我们的自主NAO机器人在“低严重程度”与“高严重程度”模式下交互样本的视频可供在线观看。
2.2 评估设计的行为(基于视频的研究)
为了评估我们设计的互动行为相对于ADOS‐2形式体系的有效性,我们与经过培训的自闭症谱系障碍治疗师开展了一项初步的基于视频的评估研究。该研究旨在探讨:(1)治疗师是否会为表征所设计行为的特征赋予与其设计依据相同的数值,以及(2)治疗师在评估中是否彼此一致,这种一致性在机器人不同的行为反应之间会如何不同。
2.2.1 调查结构
该研究包含一项基于视频的调查,展示了在与人类互动(或需要多人参与的行为则为两人)情境下孤立设计行为的短片。根据视频中所看到的内容,参与者依据 ADOS‐2手册中对每个严重程度等级的描述,为每段视频中的相关特征提供一个0到3之间的严重程度值。研究提供了关于特征编码、机器人能力背景以及简化假设的详细说明。特别是,参与者被指示以他们通常对儿童进行诊断的方式对机器人进行“诊断”,即通过编码他们认为最能表征视频中观察到的反应的特征值。他们有以下可能性可以反复观看视频。同时,他们被指示仅使用当前视频中的信息,并在第一个刺激开始后立即进行判断(尽管某些特征通常需要多个样本才能做出准确判断)。最后,要求他们忽略与动作或语音无关的任何表达,包括用于提示语音检测的非言语线索,即NAO眼睛的蜂鸣声和颜色变化。这些线索是语音识别器默认行为的一部分,我们在互动中保留了它们,因为它们旨在促进语音同步,并在识别失败时便于调试机器人状态。
视频被分为三项任务(N、JA和S),对应第2.1节中讨论的刺激类别。由于任务S中的行为是混合的,并且为了避免参与者面对过多视频而感到负担过重,我们选择在该任务的所有视频中将语言和指物特征的特征值设置为相同(即rlS0,rpS0‐rlS1,rpS1‐…)。因此,视频总数为12个,每项任务各四个。调查中三个任务的顺序是随机的,每个任务内视频的顺序也是随机的。在适用的情况下,刺激的呈现按照ADOS‐2手册中使用的层次顺序进行,直到在机器人上观察到响应为止。调查还包括了相应ADOS‐2手册的截图,以帮助经过培训的专家根据他们的观察对每项特征的严重程度进行编码。
2.2.2 方法论
我们首先与一名受训治疗师进行了一次小规模试点,以了解预期结果,并收集关于调查清晰度以及可能改进点的反馈。在调查最终确定后,我们收集了来自葡萄牙阿尔马达加西亚·奥尔塔医院儿童发展中心的另外三名治疗师的在线回复。参与本研究的治疗师均为女性,均接受过ADOS‐2施测培训。在调查开始时,已获得知情同意和使用媒体的许可。
2.3 评估治疗师‐机器人互动及潜在益处( ‘现场’研究)
第二项研究的目的是在与自闭症治疗师的真实互动环境中测试我们的机器人在不同配置下的表现,以及评估这种交互式机器人工具的潜在益处。本研究旨在首先依赖于根据 ADOS‐2 规范对机器人行为进行编码,其次填写我们设计的问卷,以评估我们的机器人在现实世界应用中的潜在益处。该研究在基于视频的研究过去 11 个月后,使用相同的三名参与者进行。
2.3.1 方法论
在本研究的主要部分,参与者通过我们定义的一组刺激类别与机器人进行互动,观察并随后根据ADOS‐2的规范对机器人的反应进行编码,方法与之前的研究(见第 2.2节)相同。机器人配置也类似(在语言和指物特征上匹配严重程度),并且我们向参与者展示了相同的12个机器人反应。然而,与基于视频的研究相比,存在一些差异:
在基于视频的研究中,我们连续展示了相同刺激下的不同机器人反应,以便更好地比较行为,因为重点仅在于验证行为本身。在这项研究中,我们希望对整体互动进行更自然的评估,而不仅仅是孤立的行为。因此,我们让参与者每项任务完成一次,然后重复该过程,期间4种不同的机器人定制以随机排列的方式呈现,同时确保每种机器人行为只出现一次。通过这种方式,参与者能够体验与4个“不同”机器人进行完整互动的感受,并需要对它们进行诊断,类似于真实的ADOS‐2会话。
由于在之前的研究中允许参与者重播视频,因此在本研究中,参与者可以根据编码行为的需要重复任务多次。在我们机器人所限定的约束条件下,我们尽可能地复制了治疗师们习惯的物理环境。例如,我们使用了来自 ADOS‐2工具包中的物体,如一个可激活的ADOS‐2玩具、一种咸味零食和一种甜味零食,这些零食与视频中使用的略有不同。
除了编码行为外,我们还要求参与者回答一份问卷,该问卷分为两部分。该问卷的目的是将现有培训方案的评分与我们提出的方案进行比较,并评估潜在的好处。
在我们预见的 应用 中,具有‘类自闭症’ 行为 的 机器人的契合度。
问卷的第一部分在与机器人互动之前呈现,首先收集了参与者关于诊断培训的背景信息。然后要求参与者从三个维度对其培训进行评估,即:
1. 行为准确性,即比较在培训中遇到的行为与在真实会话中遇到的行为;
2. 互动性,即在多大程度上涉及在真实或虚拟场景中的互动;
3. 行为特征的多样性,即 ADOS‐2特征上严重程度组合的多样性。
最后,调查询问了受访者认为具有“类自闭症”行为的机器人能在多大程度上促进我们预见到的应用,即:补充现有的ADOS‐2 治疗师培训,以及为自闭症治疗(例如,模仿任务)实现新型场景。此外,我们还将第三种潜在应用纳入其中,即教育和提高普通人群对自闭症儿童行为差异的认识(例如,在教室、博物馆、工作场所等环境中)。
问卷的第二部分在与机器人互动后呈现,问题与第一部分相同,但此次专门用于评估我们的机器人工具。问卷结构总结于
。除了“培训背景”部分为多项选择题外,所有反应均采用5点李克特量表形式。问卷使用参与者的母语(葡萄牙语)。
2.3.2 实验步骤
签署知情同意书后,参与者填写了问卷的第一部分。随后,考官将他们带入机器人实验房间,并向他们说明即将在机器人上进行的任务以及后续研究的结构。考官为他们提供了包含所有必要信息的资料表,包括每个任务的有效刺激列表、ADOS‐2的相关截图以及用于编码的空白区域。除了基于视频的研究中提到的注意事项外,考官还特别强调,参与者必须清晰且大声地讲话,机器人仅响应声音和触觉提示,而不响应注视方向或指物等视觉线索。与基于视频的调查一样,考官提醒参与者在编码时仅考虑第一个刺激之后机器人的行为。
一项给定的任务已开始。我们还要求他们忽略任何与移动或语音无关的机器人表达。
一旦他们心中的疑问得到澄清,考官便让其通过依次执行三项任务 N‐JA‐S(任务序列)对机器人进行“诊断”,观察机器人的反应,并在表格上记录相应的代码。完成三项任务后,考官宣布将对机器人进行重新编程,并要求参与者将其视为一个“新机器人”。此过程重复进行,直到展示完全部4种预随机化的机器人定制。
展示了一些这些互动的截图。
由于机器人的技术限制,有时考官不得不短暂介入,比如说“机器人没有理解你说的话,请重复一遍”。尽管在参与者有疑问时考官会在场,但为了保持互动的自然性,考官尽量做到不干扰。
具有基于模型的‘类自闭症’行为的交互式机器人
3 结果与讨论
我们首先在两项研究中分析了回应的准确性以及参与者之间的一致性,结果总结于
和
。在准确性分析中,我们仅区分了正确和错误分类的反应(相对于预期回应)。在一致性分析中,我们在其中一个指标中也将变量视为有序变量,并将部分结果与真实ADOS‐2场景中的参考值进行了比较。我们还进一步调查了反应中的顺序效应。最后,我们分析了问卷的结果并整理了额外的定性观察。
3.1 准确性结果
参与者在两项研究中的总体准确率为76.04%。基于视频的研究准确率明显更高(83.33%),相比之下,“现场”研究的准确率为68.75%,使用麦克尼马尔中p检验对整体二元分类数据进行分析,接近统计显著性(p= 0.057),且仅对专家1达到实际统计显著性(p= 0.031)。同一检验显示,无论互动类型如何(视频/真实),所有评分者之间的准确率均无统计学显著差异(p ≥ 0.125,所有组合)。此外,参与者的经验水平与准确率之间似乎存在关系。准确率结果汇总于
及左侧。
查看各个特征时,联合注意特征(rJA)的准确性最高(91.67%),并且指向特征(rpS)的准确率最低(54.17%),这是预料之中的,因为该特征是编码最复杂的项目,并且在同一任务中与语音行为配对,可能导致了一些交互效应。然而,将原本假设为独立特征的行为混合可能涉及个体特征编码中的交互效应这一假设,还需要在更大样本中进行更仔细的研究。此外,我们原本预期语言特征(rlS)具有最高的准确性,因为它是主观性最低的编码特征,但事实并非如此。我们推测这可能也受到了上述交互效应的影响,同时也因为它是ADOS‐2中模块2与模块1之间差异较大的唯一特征,而参与者在其专业实践中最熟悉的是模块1。
为了更好地理解误分类的来源,我们在中报告了每种机器人行为的更细粒度的准确率结果。我们可以看到,在16种行为中,有11种的总体准确率高于80%。需要注意的是,共同注意特征(rJA)在所有行为中均表现出相对较高的准确性。另一方面,准确率最低的两种行为是rpS1和rpS2。在某些情况下,参与者似乎认为将注视行为归入指物行为是合适的,但鉴于视线通常应在单独的特征中编码(未包含在这些研究中),这种情况本不应发生。在其他情况下,相反,参与者似乎完全否定了视线对于指物特征的重要性,这是可以理解的。包含明显指物动作的行为rpS1,尽管其视线不协调,但有 83.33%的时间被误分类为rpS0,这可能表明该特定行为需要重新设计并使其更加清晰。对于rpS2,结果分布更为分散,我们假设误分类的来源是参与者方面缺乏严谨性以及机器人方面目光可辨识度低的共同作用。
rN0 的误分类来自同一位专家,这可能表明在这种情况下,混淆的来源并非机器人,而是她较低的 ADOS‐2 经验水平。rN2 准确性低最有可能是由于难以评估机器人的注视方向,因为 rN2 似乎很容易与 rN1 混淆,而两者的主要区别在于注视的方向和持续时间。对于语言特征(rlS),似乎只有 rlS3(仿说,易于识别)是免于误分类的唯一行为,而其他三种行为似乎在某种程度上受到了上述因素的影响。
3.2 一致性结果
作为我们的评分者间一致性指标,我们同时使用了平均斯皮尔曼相关系数来考虑数据的有序性质,以及百分比一致性,以便与针对儿童进行的研究中的参考值[5, 38]进行比较。
从平均Spearman相关系数开始,我们得到了两者相对较高的一致性值。组合的准确性为(ρ= 0.83)。我们使用精确置换分布计算了每对评分者与备择假设(相关性大于零)的p值,所有评分者对的p ≤ 1.09e−7,表明专家之间普遍存在高度一致,符合预期。与准确性结果类似,两项研究中的一致性结果差异较大(“视频”为ρ= 0.92,而“真实”为 ρ= 0.76)。对于准确性和一致性结果而言,尚不清楚这些差异主要是由于具身因素所致,还是由于行为分组方式不同(相同任务的区块 versus 相同机器人定制的区块)所导致。从个体特征来看,一致性最高的特征是语言特征(rlS)(ρ= 0.92),鉴于其高客观性编码方案,这一结果符合预期。一致性最低的是指向特征(rpS)( ρ= 0.76),该特征在视频与真实场景之间也表现出显著差异。我们将此差异归因于可能影响准确性的相同原因。
百分比一致性产生的值低于或等于之前的指标,这是预期的结果,因为它认为所有不匹配情况的权重相同,最终得到的整体值为72.75%。在的最后两列中,为了进行比较,我们报告了来自ADOS‐2文献中儿童数据的另外两个不同来源的相同指标值。最后一列报告了这些值洛德等人编写的ADOS‐2第二模块手册[5],,数据来自理想条件下具备“研究可信”资质的ADOS‐2治疗师。倒数第二列报告了赞德等人在更自然的情境下获得的数值,数据来源于13个不同临床机构的临床培训过的ADOS‐2用户[38]。我们所达到的一致性水平与赞德等人报告的自然情境案例相似(PA= 73% 对比 PA= 74%),而理想情境案例[5]显示出更高的数值(PA= 90%)。该结果表明,我们方案中产生分歧的来源可能主要归因于非研究可信的ADOS‐2用户普遍存在的评分者主观性问题,从而进一步支持了ADOS‐2工具在评估机器人行为方面的客观性。
3.3 顺序效应
关于误分类的另一个假设是,参与者可能随着研究的进行而变得疲劳。如果情况如此,考虑到采用了平衡设计,我们预期错误的出现与行为在研究中出现的顺序索引之间存在正相关关系。为了检验这一假设,我们计算了这两个变量之间的斯皮尔曼相关系数,并通过单尾t检验评估其统计显著性。我们发现,在基于视频的研究中存在具有统计显著性的正相关(ρ= 0.33,p= 0.011),这表明随着调查的进行,参与者逐渐疲劳,导致判断不够敏锐。然而有趣的是,在真实机器人条件下并未观察到这一效应(ρ= 0.06,p= 0.336),这可能归因于与填写在线调查相比,与真实机器人的互动更具吸引力。此外,主试者的在场以及学习效应也可能促成了这一差异。
3.4 问卷结果
我们现在报告问卷中李克特量表反应的结果,总结见。由于每个项目仅有三个反应,因此在分析中不会使用统计检验,但比较不同项目的平均反应可能反映出专家意见,并有助于指导未来在此领域的研究工作。
总体而言,参与者对我们建议的三个应用都给出了高评分。有趣的是,尽管他们之前已经看过我们应用的视频在第一项研究中,他们在与我们的机器人实际互动后,对机器人用于治疗师培训以及治疗的适宜性评分有所提高。
在治疗师培训的特定应用中,我们的解决方案在所调查的各个维度上平均评分均高于现有的治疗师培训方法。正如预期,我们的解决方案被认为比现有方案更具互动性。在特征多样性方面,其评分相似;而在行为多样性方面评分较低,这是预料之中的,因为当前原型仅考虑了三项任务以及每种特征严重程度下的单一行为,而在真实情况下,许多不同的行为可能属于同一类别。
3.5 定性观察
尽管起初我们的参与者对“模拟自闭症儿童”这一想法持一些怀疑态度,但在两项研究之后,他们似乎对我们这个机器人工具的实用性感到惊喜,并强调了机器人的一些他们未曾预料到的特征。他们理解到,我们试图复制的并非科学家们仍未能充分理解的自闭症儿童复杂的潜在认知机制,而是那些在现有诊断工具中明确列出并分类的高级行为。
基于视频的调查结束后,专家2表示,她惊讶地发现视频中展示的互动“就像与真实孩子进行ADOS‐2任务一样”。在‘现场’研究之后,她强调,她认为非常有趣且有用的是,她可以重复相同的刺激,并多次观察相同的反应。她认为这使得该系统对接受培训的治疗师特别有用。
专家1提到她在跟上互动方面存在困难,尤其是在评估机器人的注视方向时。这种困难或许可以解释为什么她在“现场”研究中的准确性最低,但尚不清楚这是因为机器人本身,还是因为她的经验水平较低(她实际上从未进行过一次完整的与儿童的真实会话)。这一观察结果凸显了培训中所需互动组件的重要性,而我们的解决方案正试图解决这一问题。
3.6 补充说明
或许我们方法论最显著的局限性在于样本量较小,以及缺乏经过ADOS‐2研究认证(而非临床认证)的参与者,而我们预计这本可以提高结果的可靠性。遗憾的是, ADOS‐2研究认证的专业人员十分稀缺,找到这些个体与我们的机器人进行实际互动构成了重大挑战。此外,从技术角度来看,由于我们的机器人是自主的,在某些行为上表现出一定变异性,这可能为我们的数据引入了额外的噪声。根据预期用途,可能需要根据其提供的优势来调整自主水平。最后,在真实世界场景中,可能希望对特征严重程度的组合进行采样,以匹配真实ADOS‐2数据的统计分布。在我们之前的工作[39],中,我们设计了一种数据驱动方法来采样此类特征,该方法可与本文提出的机器人解决方案相结合。
4 结论
我们展示了如何使一个人形机器人表现出不同程度的基于模型的‘类自闭症’行为。我们根据ADOS‐2(自闭症诊断的金标准)的标准化分类,为NAO机器人设计了16种行为。这些行为覆盖了ADOS‐2模型中4个选定特征的不同严重程度级别。我们将这些行为集成到一个在机器人上运行的自主代理中,从而实现与人类的灵活和连续交互。最后,我们通过视频研究和现场研究,邀请了三名受训的自闭症谱系障碍治疗师对所设计的行为进行了评估。
我们的结果总体上显示出大多数行为在准确性和一致性方面达到了令人满意的水平,尽管某些行为可能需要重新设计,以降低对一些机器人动作和姿态编码时的主观性。特别是,估计机器人的注视方向似乎是其行为中一个具有挑战性的部分。尽管ADOS‐2具有系统化的编码结构,但我们观察到在某些特征的编码中仍存在较明显的主观性。这种主观性是基于行为的诊断程序中普遍存在的已知问题[40]。此外,与基于视频的研究相比,即使机器人的行为基本相同,在真实互动中准确性和一致性均有所下降。这似乎表明具身互动的认知负荷影响了治疗师的表现。因此,这些观察结果促使我们提出该解决方案可潜在用于补充当前主要依赖观看视频的治疗师培训。由于当前的机器人仅能以肤浅、夸张且简化的形式模仿人类行为,因此能够模拟简化版真实ADOS‐2互动的交互式机器人可特别专注于程序性培训,而非编码训练——后者使用视频更为合适。
我们的问卷结果表明,自闭症专家愿意在其专业领域中使用机器人工具,并且机器人有望协助他们进行培训和实践。我们预见并在本研究中探讨的应用包括:辅助治疗师培训、开发涉及机器人的新型自闭症任务,以及提供交互式工具来教育和提高普通人群对自闭症谱系障碍行为特征多样性的认识。
表现出不同程度“类自闭症”行为的交互式机器人,为训练、治疗或教育大量应对自闭症谱系障碍的个体开辟了许多令人兴奋的应用前景。在未来的工作中,我们计划扩展现有的原型,并为我们的机器人工具的预期用途收集更多证据。我们还计划将相同的方法论应用于自闭症以外的领域,其中系统化程序和人类行为模型被用于表征患者、用户、客户或学生。我们相信,能够模拟人类行为特征程度的机器人,可能解锁许多可能性,以创建模拟环境,作为关键现实世界任务的准备。

33

被折叠的 条评论
为什么被折叠?



