Who’s Sorry Now: User Preferences Among Rote, Empathic, and Explanatory Apologies from LLM Chatbots

论文主要内容总结

本文聚焦大型语言模型(LLM)聊天机器人的道歉类型与用户偏好,通过预注册实验(162名参与者)研究了三种道歉类型(机械道歉、共情道歉、解释性道歉)在三种常见LLM错误情境(事实错误、无根据编造/幻觉、偏见错误)中的用户接受度,核心结论如下:

  1. 总体偏好:解释性道歉(说明错误原因)总体最受用户青睐,机械道歉(程式化表达)最不受欢迎。
  2. 情境差异:在偏见错误情境中,共情道歉(强调对用户的伤害与情感认同)更受偏爱;而对于无根据编造(幻觉)错误,用户对道歉类型的偏好不明确,反映出对这类新型错误的认知不确定性。
  3. 个体差异:用户的拟人化倾向、AI熟悉度、社交倾向等特征影响道歉偏好(如社交倾向高的用户更偏好共情道歉,控制欲强的用户更偏好解释性道歉)。

创新点

  1. 系统性实证研究:首次系统对比三种道歉类型在LLM特有的三种错误情境中的用户偏好,结合哲学中的道歉理论(如Smith的“categorical apology”)与人机交互(HCI)领域的实证方法,为AI道歉设计提供理论与数据支撑。
  2. 深入分析偏好动因:通过开放式问答和编码分析,揭示用户选择或拒绝某类道歉的具体原因(如解释性道歉因“透明性”受青睐,共情道歉因“情感认同”在偏见情境中更有效)。
  3. 个体差异与情境适配:强调AI道歉设计需考虑错误类型与用户特征的交互作用,指出
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值