[paddocr]印章文本检测模块使用教程

印章文本检测模块使用教程

一、概述

印章文本检测模块通常会输出文本区域的多点边界框(Bounding Boxes),这些边界框将作为输入传递给弯曲矫正和文本检测模块进行后续处理,识别出印章的文字内容。印章文本的识别是文档处理的一部分,在很多场景都有用途,例如合同比对,出入库审核以及发票报销审核等场景。印章文本检测模块是OCR(光学字符识别)中的子任务,负责在图像中定位和标记出包含印章文本的区域。该模块的性能直接影响到整个印章文本OCR系统的准确性和效率。

二、支持模型列表

模型模型下载链接检测Hmean(%)GPU推理耗时(ms)
[常规模式 / 高性能模式]
CPU推理耗时(ms)
[常规模式 / 高性能模式]
模型存储大小(M)介绍
PP-OCRv4_server_seal_det推理模型/训练模型98.4074.75 / 67.72382.55 / 382.55109PP-OCRv4的服务端印章文本检测模型,精度更高,适合在较好的服务器上部署
PP-OCRv4_mobile_seal_det推理模型/训练模型96.367.82 / 3.0948.28 / 23.974.6PP-OCRv4的移动端印章文本检测模型,效率更高,适合在端侧部署

测试环境说明:

  • 性能测试环境
    • 测试数据集:自建的内部数据集,包含500张圆形印章图像。
    • 硬件配置:
      • GPU:NVIDIA Tesla T4
      • CPU:Intel Xeon Gold 6271C @ 2.60GHz
      • 其他环境:Ubuntu 20.04 / cuDNN 8.6 / TensorRT 8.5.2.2
  • 推理模式说明
模式GPU配置CPU配置加速技术组合
常规模式FP32精度 / 无TRT加速FP32精度 / 8线程PaddleInference
高性能模式选择先验精度类型和加速策略的最优组合FP32精度 / 8线程选择先验最优后端(Paddle/OpenVINO/TRT等)

三、快速开始

❗ 在快速开始前,请先安装 PaddleOCR 的 wheel 包,详细请参考 安装教程

使用一行命令即可快速体验:

paddleocr seal_text_detection -i https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/seal_text_det.png

您也可以将印章文本检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。

from paddleocr import SealTextDetection
model = SealTextDetection(model_name="PP-OCRv4_server_seal_det")
output = model.predict("seal_text_det.png", batch_size=1)
for res in output:
    res.print()
    res.save_to_img(save_path="./output/")
    res.save_to_json(save_path="./output/res.json")

运行后,得到的结果为:

{'res': {'input_path': 'seal_text_det.png', 'page_index': None, 'dt_polys': [array([[463, 477],
       ...,
       [428, 505]]), array([[297, 444],
       ...,
       [230, 443]]), array([[457, 346],
       ...,
       [267, 345]]), array([[325,  38],
       ...,
       [322,  37]])], 'dt_scores': [0.9912680344777314, 0.9906849624837963, 0.9847219455533163, 0.9914791724153904]}}

运行结果参数含义如下: - input_path:表示输入待预测图像的路径 - dt_polys:表示预测的文本检测框,其中每个文本检测框包含一个多边形的多个顶点。其中每个顶点都是一个列表,分别表示该顶点的x坐标和y坐标 - dt_scores:表示预测的文本检测框的置信度

可视化图片如下:

相关方法、参数等说明如下:

  • SealTextDetection实例化文本检测模型(此处以PP-OCRv4_server_seal_det为例),具体说明如下:
参数参数说明参数类型可选项默认值
model_name模型名称str所有支持的印章文本检测模型名称
model_dir模型存储路径str
device模型推理设备str支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。gpu:0
limit_side_len检测的图像边长限制int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将使用默认值:736
None
limit_type检测的图像边长限制,检测的边长限制类型str/None
  • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
  • None: 如果设置为None, 将使用默认值:“min”
None
thresh输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将使用默认值:0.2
None
box_thresh检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将使用默认值:0.6
None
max_candidates输出的最大文本框数量int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将使用默认值:1000
None
unclip_ratioVatti clipping算法的扩张系数,使用该方法对文字区域进行扩张float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将使用默认值:0.5
None
use_dilation是否对分割结果进行膨胀bool/NoneTrue/False/NoneNone
use_hpip是否启用高性能推理插件boolFalse
hpi_config高性能推理配置dict | NoneNone
  • 其中,model_name 必须指定,指定 model_name 后,默认使用内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。

  • 调用印章文本检测模型的 predict() 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 predict_iter() 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 predict_iter() 返回的是一个 generator,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。predict() 方法参数有 input、 batch_size、 limit_side_len、 limit_type、 thresh、 box_thresh、 max_candidatesunclip_ratiouse_dilation,具体说明如下:

参数参数说明参数类型可选项默认值
input待预测数据,支持多种输入类型Python Var/str/dict/list
  • Python变量,如numpy.ndarray表示的图像数据
  • 文件路径,如图像文件的本地路径:/root/data/img.jpg
  • URL链接,如图像文件的网络URL:示例
  • 本地目录,该目录下需包含待预测数据文件,如本地路径:/root/data/
  • 列表,列表元素需为上述类型数据,如[numpy.ndarray, numpy.ndarray]["/root/data/img1.jpg", "/root/data/img2.jpg"]["/root/data1", "/root/data2"]
batch_size批大小int大于0的任意整数1
limit_side_len检测的图像边长限制int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
limit_type检测的图像边长限制,检测的边长限制类型str/None
  • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
thresh输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
box_thresh检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
max_candidates输出的最大文本框数量int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
unclip_ratioVatti clipping算法的扩张系数,使用该方法对文字区域进行扩张float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
use_dilation是否对分割结果进行膨胀bool/NoneTrue/False/NoneNone
  • 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为json文件的操作:
方法方法说明参数参数类型参数说明默认值
print()打印结果到终端format_jsonbool是否对输出内容进行使用 JSON 缩进格式化True
indentint指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效4
ensure_asciibool控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效False
save_to_json()将结果保存为json格式的文件save_pathstr保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
indentint指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效4
ensure_asciibool控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效False
save_to_img()将结果保存为图像格式的文件save_pathstr保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
  • 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
属性属性说明
json获取预测的json格式的结果
img获取格式为dict的可视化图像

四、二次开发

如果以上模型在您的场景上效果仍然不理想,您可以尝试以下步骤进行二次开发,此处以训练 PP-OCRv4_server_seal_det 举例,其他模型替换对应配置文件即可。首先,您需要准备文本检测的数据集,可以参考印章文本检测 Demo 数据的格式准备,准备好后,即可按照以下步骤进行模型训练和导出,导出后,可以将模型快速集成到上述 API 中。此处以印章文本检测 Demo 数据示例。在训练模型之前,请确保已经按照安装文档安装了 PaddleOCR 所需要的依赖。

4.1 数据集、预训练模型准备

4.1.1 准备数据集
# 下载示例数据集
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ocr_curve_det_dataset_examples.tar -P ./dataset
tar -xf ./dataset/ocr_curve_det_dataset_examples.tar -C ./dataset/
4.1.2 下载预训练模型
# 下载 PP-OCRv4_server_seal_det 预训练模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_pretrained_model/PP-OCRv4_server_seal_det_pretrained.pdparams

4.2 模型训练

PaddleOCR 对代码进行了模块化,训练 PP-OCRv4_server_seal_det 模型时需要使用 PP-OCRv4_server_seal_det 的配置文件

训练命令如下:

#单卡训练 (默认训练方式)
python3 tools/train.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml \
   -o Global.pretrained_model=./PP-OCRv4_server_seal_det_pretrained.pdparams

#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3'  tools/train.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml \
        -o Global.pretrained_model=./PP-OCRv4_server_seal_det_pretrained.pdparams

4.3 模型评估

您可以评估已经训练好的权重,如,output/xxx/xxx.pdparams,使用如下命令进行评估:

# 注意将pretrained_model的路径设置为本地路径。若使用自行训练保存的模型,请注意修改路径和文件名为{path/to/weights}/{model_name}。
 # demo 测试集评估
 python3 tools/eval.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml -o \
 Global.pretrained_model=output/xxx/xxx.pdparams

4.4 模型导出

 python3 tools/export_model.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml -o \
 Global.pretrained_model=output/xxx/xxx.pdparams \
 save_inference_dir="./PP-OCRv4_server_seal_det_infer/"

导出模型后,静态图模型会存放于当前目录的./PP-OCRv4_server_seal_det_infer/中,在该目录下,您将看到如下文件:

./PP-OCRv4_server_seal_det_infer/
├── inference.json
├── inference.pdiparams
├── inference.yml

至此,二次开发完成,该静态图模型可以直接集成到 PaddleOCR 的 API 中。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值