代码: https://github.com/THUDM/LongCite\
数据:
- HF:https://huggingface.co/datasets/THUDM/LongCite-45k
- 魔搭:https://modelscope.cn/datasets/AI-ModelScope/LongCite-45k
模型:
- HF:https://huggingface.co/THUDM
- 魔搭:https://modelscope.cn/organization/ZhipuAI
Demo :https://huggingface.co/spaces/THUDM/LongCite
论文: https://arxiv.org/abs/2409.02897
视频: https://www.bilibili.com/video/BV1QD4zexEU2/
写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!
写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!
写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!
超长的上下文窗口已经成为最新一代语言模型的标配,例如GLM-4-9B-1M,Gemini 1.5等,这种模型常常被广泛应用于长文档问答场景。
然而,当前的长文本模型并没有在其回答中标注出每句话在原文中的依据,而由于文档过长,用户很难去验证模型提供的信息。此外,模型的输出也常常会出现幻觉,并不忠于原文,这严重影响了模型的可信性。
针对这一问题,通常