本文是LLM系列文章,针对《How do Large Language Models Navigate Conflicts between Honesty and Helpfulness?》的翻译。
大型语言模型如何处理诚实和乐于助人之间的冲突?
摘要
在日常沟通中,人们经常接近真相——例如,四舍五入或省略细节——以最大限度地帮助听众。大型语言模型(LLM)是如何处理这种微妙的权衡的?为了解决这个问题,我们使用旨在表征人类行为的心理模型和实验来分析LLM。我们测试了一系列LLM,并探讨了人类偏好或推理时间推理的优化如何影响这些权衡。我们发现,从人类反馈中强化学习可以提高诚实和乐于助人的能力,而思维提示链使LLM倾向于帮助而非诚实。最后,GPT-4 Turbo演示了类人响应模式,包括对会话框架和听众决策上下文的敏感性。我们的研究结果揭示了LLM内部化的对话价值观,并表明即使是这些抽象价值观也可以在一定程度上受到零样本提示的引导。
1 引言
诚实和乐于助人是会话代理的两个关键需求,以确保安全和有用的现实世界部署。诚实或真实性是LLM长期关注的问题,因为它们的数据范围有限,容易产生幻觉。提高真实性的方法包括增加LLM对信息库的访问,并鼓励他们从这些来源检索和引用信息。同时,有用性被宽泛地定义为LLM满足用户查询的能力。大多数方法不是将这一概念形式化,而是通过从人类反馈中强化学习(RLHF)直接根据人类偏好优化模型。
通过将这些目标视为单独的目标,标准方法隐含地假设诚实和乐于助人是可以共同实现的。然而,在日常对话中,他们可能会处于紧张状态。人们经常对时间、距离和货币值等数值进行舍入,或者在他们认为这些近似值会帮助听众时,支持错误的概括。人们也经常用字面上的诚实来换取其他交际目标,这些目标隐含在比喻、夸张和讽刺等修辞手法中。
当LLM产生语言时,他们如何进行这种权衡?鉴于其中一些会话规范可能隐含在互联网训练数据中,LLM可能已经部分编码并与我们的会话价值观保持一致。
订阅专栏 解锁全文
177

被折叠的 条评论
为什么被折叠?



