How Much Content Do LLMs Generate That Induces Cognitive Bias in Users?

文章主要内容总结

本文聚焦大型语言模型(LLMs)在生成内容时对用户认知偏差的影响,通过摘要生成和新闻事实核查任务,评估了三个LLM家族的表现,核心内容如下:

  1. LLMs引发认知偏差的表现

    • 在21.86%的案例中,LLMs生成的摘要改变了原始文本的情感倾向(框架偏差);
    • 在57.33%的案例中,LLMs对知识截止日期后的信息产生幻觉(生成虚假内容),导致权威偏差或确认偏差;
    • 在5.94%的案例中,LLMs过度聚焦原始文本的开头部分(首因偏差),引发用户的暴露偏差。
  2. 评估方法与指标

    • 提出框架偏差分数(φ_frame),衡量摘要与原始文本的情感差异;
    • 提出首因偏差分数(ψ_pri),通过余弦相似度评估摘要对文本开头的过度聚焦;
    • 提出严格准确率(s_H^T)和差异度(δ_H),衡量LLMs对知识截止前后信息的幻觉程度。
  3. 缓解方法效果

    • 评估了18种缓解策略,发现针对性干预有效:例如,加权摘要(Weighted Summaries)和Mirostat解码能减少框架偏差和位置偏差;认知标签(Epistemic Tagging)能提升知识截止后信息的事实可靠性。

创新点

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值