
大模型长文本
文章平均质量分 95
seetimee
这个作者很懒,什么都没留下…
展开
-
使用Qwen-Agent将上下文记忆扩展到百万量级 Qwen
我们在本文中介绍了利用智能体扩展模型上下文记忆的关键思路。一旦智能体准备就绪,如何合成数据便显而易见。例如,我们可以招募志愿者与智能体互动,并记录结果来构建微调数据集。此外,我们还可以利用智能体对其他方法生成的数据进行交叉验证,以确保数据质量。此外,用智能体的结果去微调模型,这个思路也适用于其他领域,比如提升模型解决大规模任务的能力。原创 2024-08-19 14:25:51 · 1236 阅读 · 0 评论 -
LLM - 长文本总结处理方案_当文档的长度过长时,llm怎样处理
URL:三国演义读后感- 初始化自己的 LLM可以选择开源的 LLM,使用 HuggingFace 的 Auto API 直接加载。- 选择自己的长文进行切分虽然 OpenAI 不能用,但是 TextSplitter 可以用。基于不同的处理方式总结根据上面 Stuff、MR、Refine 和 Map Rerank 的逻辑图实现自己的总结逻辑查看总结效果。不过由于我们本地机器的限制,Mapper 能否并行就看我们能起几个服务了。长文总结是很典型常见的问题,大家有更多想法和意见也欢迎在评论区交流讨论~原创 2024-08-15 16:52:02 · 1799 阅读 · 0 评论