自适应训练系统设计的经验教训
情感绑定与伦理考量
使用情感敏感/交互式训练系统会让用户与系统建立亲密的情感联系,甚至产生情感依赖。这种情感绑定需要专业指导,同时要避免情感依赖的产生。基于算法的情感敏感/交互式系统有望在用户和系统之间建立亲密的情感纽带,而且训练的成功可能与这种情感绑定的程度相关。在训练过程中,必须向用户说明可能出现的情感绑定情况,并且要明确告知用户训练伙伴是机器而非人类,防止用户产生被欺骗的感觉。
伦理准则虽然重要,但不能被视为自动导致可接受行为的法律规范,它们自身存在一些矛盾,需要根据具体情况逐一解决。例如,“自我决定”和“公正”这两条准则可能会直接产生冲突。如果像EVA这样的应用程序在应用商店中免费提供,就可能出现一些非预期的使用方式,比如母亲用它为孩子进行神经心理异常的自我诊断,或者雇主用它筛选有(疑似)神经心理特点的求职者,这与“自我决定”准则相矛盾。
组织决策与应用现状
目前,基于伦理反思,我们做出了一些组织决策:
- 暂不将应用程序以开源格式发布,以防止开发的算法被滥用,直到我们以符合伦理的方式改进它们,或者建立额外的保护机制。
- 暂不将应用程序在应用商店中提供,以防止在非预期的使用场景(特别是诊断目的)中被滥用,这些场景不符合既定的科学程序。
不过,EVA应用程序仍可用于实证研究。主要包括针对不同临床目标群体的临床试验,以进一步研究该应用程序的功能适用性,包括其对社会认知(短期和中期)和社会行为(中期和长期)的有效性。其次,EVA也可用于相邻领域的实践研究,例如考察其在学校或职业培训中的适用性。我们相信情感敏感的交互式训练系统能够提高个人的学习表现,因此EVA仍在进一步开发中。
超级会员免费看
订阅专栏 解锁全文
349

被折叠的 条评论
为什么被折叠?



