auto-coder.RAG: Order-Keep 优化

> auto-coder==0.1.176 可用

背景

在上一篇,我们提供了文档长度自适应相关度的功能:llm-native RAG:auto-coder.rag 日拱一卒 

对于特别大的文档,我们会自动做切分,一般单个segment  77k(窗口大小128K的情况),通常切分会带来效果上的掉点:

  1. 信息被切割,导致信息完整性缺失

  2. 召回是通过相关度排序的,如果同一篇内容的不同segment 被召回,那他们和原本在文章中的顺序而言,大概率乱序的。

这些都会导致回答的过程中强化大模型的幻觉甚至直接导致无法回答问题。

其中第一点,有一些其他的解决方案,我们后续会说明。这次我们重点关注乱序的问题。

方案

解决乱序目前有两个方案:

a) 方案一(保留位置):召回过程中,如果同一个文档有不同segement 都在召回列表中,那么可以根据文章中顺序来置换位置。

b) 方案二(当前实现):遍历文档,发现某文档的segment A,立即在召回列表中查找该文档的所有其他segments,对它们按原文顺序做重排序,并将重新排序后的多个segments插入到当前的segment A 位置中。

我们这以后选择了方案2, 因为方案一虽然解决了顺序问题,但是相当于人为的在一篇文章中裁剪掉一部分,然后插入了其他内容,也会极大的影响大模型的理解和判断。所以方案二不仅解决了顺序问题,还解决信息被其他内容胡乱插入的问题。

如何使用

该功能在新版本中默认开启,用户无感知。如果用户不希望开启这项优化,可以通过 --disable_segment_reorder 参数关闭。

pip install -U auto-coder


auto-coder.rag serve \
--tokenizer_path /Users/allwefantasy/Downloads/tokenizer.json \
--doc_dir  /Users/allwefantasy/projects/ray/doc/source \
--rag_doc_filter_relevance 2

tokenizer 可以在这里下载:https://cdn.deepseek.com/api-docs/deepseek_v2_tokenizer.zip

然后通过 --doc_dir 指定文档目录即可。此时就可以使用兼容 openai 的客户端或者使用 openai sdk 使用了。

支持的文档类型:word,excel,ppt, pdf 以及任何文本文档

已经博主授权,源码转载自 https://pan.quark.cn/s/a4b39357ea24 常见问题解答 网页打开速度慢或者打不开网页? 受到多种因素的影响,对于非会员用户我们无法提供最优质的服务。 如果您希望得到最棒的体验,请至大会员页面("右上角菜单 → 大会员")根据说明操作。 请注意:受制于国际网络的诸多不确定性,我们无法对任何服务的可靠性做出任何保证。 如果出现了网络连接相关的问题,我们建议您先等待一段时间,之后再重试。 如果您在重试后发现问题仍然存在,请联系我们,并说明网络问题持续的时间。 图片下载后无法找到? 打开"右上角菜单 → 更多 → 修改下载路径",在弹出的对话框中可以看到当前图片的保存路径。 此外,由于网络因素,在保存图片之后,等待屏幕下方出现"已保存到..."后,才能在本地找到图片。 如何更改图片保存的目录? 请参见"右上角菜单 → 更多 → 修改下载路径"。 翻页不方便? 在点进某个图片后,通过在图片上向左或向右滑动,即可翻页查看下一个作品。 如何保存原图/导出动图? 长按图片/动图,在弹出的菜单中选择保存/导出即可。 输入账号密码后出现"进行人机身份验证"? 此为pixiv登陆时的验证码,请按照要求点击方框或图片。 在pxvr中注册pixiv账号后,收到验证邮件,无法访问邮件中的验证链接? 请复制邮件中的链接,打开pxvr中的"右上角菜单 → 输入地址"进行访问。 能否自动将页面内容翻译为汉语? 很抱歉,pxvr暂不提供语言翻译服务。 图片下载类型是否可以选择? 能否批量下载/批量管理下载? 已支持批量下载多图作品中的所有原图:找到一个多图作品,进入详情页面后,点击图片进入多图浏览模式,长按任意一张图片即可看到批量下载选项。 关于上述其他功能,我们...
执行 `start-dfs.sh` 命令后输出 `Starting namenodes on [localhost]...` 等内容并不一定代表 Hadoop DFS 开启成功。这些输出仅仅表明启动脚本开始尝试启动 Hadoop DFS 相关的服务进程,如 NameNode、DataNode 和 SecondaryNameNode 等。 要判断 Hadoop DFS 是否真正开启成功,需要关注后续输出是否有错误信息。若输出中包含类似引用[1]中的错误信息,如 `ERROR: Attempting to operate on hdfs namenode as root ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.`,则说明启动过程中出现问题,Hadoop DFS 并未成功开启。 可以通过以下几种方式进一步确认 Hadoop DFS 是否成功开启: 1. **查看进程**:使用 `jps` 命令查看是否有 `NameNode`、`DataNode` 和 `SecondaryNameNode` 进程正在运行。示例命令如下: ```bash jps ``` 若输出中包含 `NameNode`、`DataNode` 和 `SecondaryNameNode`,则表明这些服务进程已成功启动。 2. **查看日志文件**:检查 Hadoop 的日志文件,通常位于 `$HADOOP_HOME/logs` 目录下。查看 `hadoop-<user>-namenode-<hostname>.log`、`hadoop-<user>-datanode-<hostname>.log` 和 `hadoop-<user>-secondarynamenode-<hostname>.log` 文件,确认是否有错误信息。示例命令如下: ```bash tail -n 50 $HADOOP_HOME/logs/hadoop-<user>-namenode-<hostname>.log ``` 3. **访问 Web 界面**:NameNode 通常提供一个 Web 界面,默认端口为 50070。可以通过浏览器访问 `http://<hostname>:50070` 查看 NameNode 的状态信息。若能正常访问且显示正常的状态信息,则说明 Hadoop DFS 已成功开启。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值