Controllable Text Generation with Language Constraints

828 篇文章

已下架不支持订阅

本文介绍了一种名为COGNACGEN的方法,用于在自然语言约束下进行文本生成。通过对GPT-3等先进模型的评估,展示了即使强大模型也难以满足知识密集型约束。COGNACGEN利用语言模型的内部知识生成指导术语,有效改善了生成的合规性。尽管存在知识库限制和潜在偏见问题,但该方法提高了指令一致性并降低了约束违规。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Controllable Text Generation with Language Constraints》的翻译。

摘要

我们考虑在具有自然语言中指定的约束的语言模型中的文本生成任务。为此,我们首先创建了一个具有挑战性的基准COGNAC,它为模型提供了一个带有示例文本的主题,以及要避免的文本约束。与之前的工作不同,我们的基准测试包含来自Wordnet和Wikidata等数据库的知识密集型约束,这允许直接评估,同时在广泛的属性级别和狭窄的词汇级别控件之间取得平衡。我们发现,即使是像GPT-3这样的最先进的语言模型也经常在这项任务中失败,并提出了一种利用语言模型自身内部知识来指导生成的解决方案。我们的方法称为COGNACGEN,首先查询语言模型以生成指定主题或约束的指导术语,并使用该指导来修改模型的token生成概率。我们提出了三种形式的指导(二进制验证器、top-k token、文本示例),并使用前缀调整方法来提取指导,以解决不同的自然语言约束。通过广泛的实证评估,我们证明了COGNACGEN可以成功地推广到看不见的指令,并在生成符合约束的文本方面优于竞争基线。

1 引言

2 COGNAC基准

3 方法

4 实验设置

5 结果

6 相关工作

7 结论</

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值