论文主要内容总结
本文聚焦大型语言模型(LLM)聊天机器人的道歉类型与用户偏好,通过预注册实验(162名参与者)研究了三种道歉类型(机械道歉、共情道歉、解释性道歉)在三种常见LLM错误情境(事实错误、无根据编造/幻觉、偏见错误)中的用户接受度,核心结论如下:
- 总体偏好:解释性道歉(说明错误原因)总体最受用户青睐,机械道歉(程式化表达)最不受欢迎。
- 情境差异:在偏见错误情境中,共情道歉(强调对用户的伤害与情感认同)更受偏爱;而对于无根据编造(幻觉)错误,用户对道歉类型的偏好不明确,反映出对这类新型错误的认知不确定性。
- 个体差异:用户的拟人化倾向、AI熟悉度、社交倾向等特征影响道歉偏好(如社交倾向高的用户更偏好共情道歉,控制欲强的用户更偏好解释性道歉)。
创新点
- 系统性实证研究:首次系统对比三种道歉类型在LLM特有的三种错误情境中的用户偏好,结合哲学中的道歉理论(如Smith的“categorical apology”)与人机交互(HCI)领域的实证方法,为AI道歉设计提供理论与数据支撑。
- 深入分析偏好动因:通过开放式问答和编码分析,揭示用户选择或拒绝某类道歉的具体原因(如解释性道歉因“透明性”受青睐,共情道歉因“情感认同”在偏见情境中更有效)。
- 个体差异与情境适配:强调AI道歉设计需考虑错误类型与用户特征的交互作用,指出
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



