QA专栏
文章平均质量分 76
gbchen99
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ACL2022:C-MORE: Pretraining to Answer Open-Domain Questions byConsulting Millions of References
文章链接:https://arxiv.org/abs/2203.08928v2提出问题:是如何在没有特定任务注释的情况下构建大量高质量的问答上下文三元组。具体来说,三元组应该通过以下方式与下游任务很好地保持一致:(i)覆盖广泛的领域(用于开放领域应用程序),(ii)将问题与其语义相关的上下文与支持证据联系起来(用于训练检索器),以及 (iii) 在上下文中识别正确答案(用于训练读者)。解决问题:通过查阅维基百科中引用的数百万个参考文献,自动构建满足所有三个标准的大型语料库。对齐良好的预训练信号对检索器和读者原创 2022-06-24 09:57:01 · 261 阅读 · 0 评论 -
FID(Fusion-in-Decoder models)
开放领域问答的生成模型已被证明具有竞争力,无需借助外部知识。虽然很有希望,但这种方法需要使用具有数十亿参数的模型,这对于训练和查询来说是昂贵的。原创 2022-06-12 20:45:29 · 3291 阅读 · 0 评论 -
ACL2022 用于开放域问答的复制增强生成模型 A Copy-Augmented Generative Model for Open-Domain QuestionAnswering
ACL2022 用于开放域问答的复制增强生成模型 A Copy-Augmented Generative Model for Open-Domain QuestionAnswering原创 2022-06-12 17:14:43 · 1090 阅读 · 5 评论 -
Hugging Face——QA
问答模型翻译 2022-06-07 11:32:54 · 1398 阅读 · 0 评论
分享