原文:https://zhuanlan.zhihu.com/p/7783443583
在使用多模态大模型(Visual Language Model, VLM)做视觉信息抽取时,常常出现错字的问题。为了解决这一问题,本文提出了一种名为Guidance OCR的方法。该方法在不额外训练模型的情况下,先利用OCR算法获取图片中的文字内容,再利用OCR识别出的文字对VLM的生成过程进行约束,从而一定程度上减少VLM做视觉信息抽取任务时出现错字的情况。

图1:一张医疗发票,其中的敏感信息已被抹去
使用Qwen2-VL-2B模型抽取图1中的信息时,模型原生回答和使用GuidanceOCR后的回答见下表

项目链接:
https://github.com/hzauzxb/guidance-ocr
一、项目背景
视觉信息抽取任务是给定一张单证图片,并从图片中抽取对应的关键字段,如从图1所示的医疗发票中抽取金额合计,住院时间和医保类型。传统的信息抽取模型先利用OCR算法获取图中的文字位置和文字内容,再利用规则引擎或模板匹配获取关键字段。VLM则可以将图片先输入给模型,再用提问题的方式要求模型给出需要抽取的字段。在开放场景的信息抽取中,由于单证板式太多,规则引擎难以维系,因此常常使用基于

最低0.47元/天 解锁文章
3857

被折叠的 条评论
为什么被折叠?



