Argument Quality Assessment in the Age of Instruction-Following Large Language Models

本文探讨了大型语言模型(LLM)在评价有争议问题论点质量中的潜力,强调LLM的指令跟随能力能促进更可靠的评估。论文提出,通过系统指导LLM学习论证理论和方法,可以克服质量评估的主观性和多样性问题,同时指出由此引发的伦理挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Argument Quality Assessment in the Age of Instruction-Following Large Language Models》的翻译。

指令跟随大型语言模型时代的论证质量评估

摘要

由于其对意见形成、决策、写作教育等的预期影响,对有争议问题的论点的计算处理一直受到NLP的广泛研究。在任何此类应用程序中,一项关键任务是评估论点的质量,但这也特别具有挑战性。在这篇立场文件中,我们从论点质量研究的简要调查开始,在调查中,我们确定质量概念的多样性及其感知的主观性是论点质量评估取得实质性进展的主要障碍。我们认为,遵循大型语言模型(LLM)的指令能力能够跨上下文利用知识,从而实现更可靠的评估。与其只是对LLM进行微调,使其在评估任务中排名靠前,不如系统地指导他们论证理论和场景,以及解决与论证相关问题的方法。我们讨论了现实世界的机遇和由此产生的伦理问题。

1 引言

2 近期研究综述

3 论证质量的LLM

4 真实世界的机遇

5 结论

论证质量评估已成为计算论证NLP研究的核心任务,因为它在各种应用中具有重要意义,从辩论技术和论证搜索到讨论节

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值