如何生成FSNS数据集结构的tfrecord数据

本文介绍如何使用AttentionOCR进行光学字符识别,并详细解释了如何将自定义数据集转换为符合AttentionOCR要求的TFRecord格式。文章还提供了一段关键代码示例,帮助读者理解图像数据和标签数据的编码过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

想要用一下attention ocr,github如下:
https://github.com/tensorflow/models/tree/master/research/attention_ocr

发现这里面并没有生成数据的样例代码,只能用fsns的格式,如果想要用自己的数据集要生成一个和FSNS一样结构的tfrecord数据,但是这部分没有仔细说,只给了一个stackoverflow的链接,更坑的是,这个链接里说的也不清楚,而且还有些错误:
https://stackoverflow.com/a/44461910/743658

FSNS的具体结构在这篇论文里有说:
https://arxiv.org/pdf/1702.03970.pdf

不过我们只需要关心这个图就行了。
这里写图片描述

image/format : 表示图像数据的格式,官方使用的png格式
image/encoded : 表示图像数据转码后的字符串数据
image/class : 长度为37的label list(37是label最长的长度),其实就是真实label的每个字符的id的list,后面长度不足37就添上null
image/unpadded_class : 没有填null的原始label list
image/width : 图像的宽度
image/orig-width : 切分图像的宽度。因为fsns数据集有4个视角,所以是图像宽度除4,如果只有一个视角,和上面宽度一样就行了
image/height : 图像高度,实际使用的时候高度数据没有使用,所以这个也可以不填
image/text : 原始的label字符串

下面贴一下关键代码:

def encode_utf8_string(text, length, charset, null_char_id=133):
    char_ids_padded = [null_char_id]*length
    char_ids_unpadded = [null_char_id]*len(text)
    for i in range(len(text)):
        hash_id = charset[text[i]]
        char_ids_padded[i] = hash_id
        char_ids_unpadded[i] = hash_id
    return char_ids_padded, char_ids_unpadded

def _bytes_feature(value):  
    return tf.train.Feature(bytes_list=tf.train.BytesList(value=[value]))

def _int64_feature(value):  
    return tf.train.Feature(int64_list=tf.train.Int64List(value=value))

'''生成tfrecord'''
img_data = img_data.resize((IMAGE_SIZE,IMAGE_SIZE),Image.ANTIALIAS)
np_data = np.array(img_data)
image = tf.image.convert_image_dtype(np_data, dtype=tf.uint8)  
image = tf.image.encode_png(image)
image_data = sess.run(image)
char_ids_padded, char_ids_unpadded = encode_utf8_string(
    text=text,
    charset = charset,
    length=MAX_LABEL_LENGTH,
    null_char_id=38
)
example = tf.train.Example(features=tf.train.Features(
  feature={
    'image/encoded': _bytes_feature(image_data),
    'image/format': _bytes_feature("PNG"),
    'image/width': _int64_feature([np_data.shape[1]]),
    'image/orig_width': _int64_feature([np_data.shape[1]]),
    'image/class': _int64_feature(char_ids_padded),
    'image/unpadded_class': _int64_feature(char_ids_unpadded),
    'image/text': _bytes_feature(str(text)),
    # 'height': _int64_feature([crop_data.shape[0]]),
  }
))
tfrecord_writer.write(example.SerializeToString())

大概就是这样了,因为中间要把numpy的矩阵转为tensorflow的png格式,还要再跑个session,之前按照stackoverflow里的写法,直接用numpy的格式,一直数据读取错误……我看了下源码,其实是可以不用png格式的:
这里写图片描述
只需要把’image/format’的值改成’raw’就行了。

### 文本检测数据集概述 文本检测是指从图像中定位并提取文字区域的任务,在多个领域有着广泛应用,比如自动驾驶汽车读取交通标志、文档分析以及增强现实应用中的交互功能。为了训练和评估这些模型,研究者们创建了一系列公开可用的数据集。 #### 常见的文本检测数据集及其特点 - **ICDAR 数据集** ICDAR 是国际字符识别会议组织举办的比赛之一,提供了多种版本的文字检测与识别评测基准。该系列数据集中包含了来自真实世界的图片,涵盖了不同的语言和地区特色[^1]。对于希望测试算法泛化能力的研究人员来说尤其有价值,因为其强调处理跨语种场景下的文本实例的能力[^2]。 - **CTW (City Text in the Wild) 数据集** CTW 收集自城市街景环境的照片素材,特点是具有复杂的背景干扰因素及多样化的字体样式。这类资源有助于提升模型应对实际环境中遇到的各种挑战的表现水平。 - **ICPR MWI 多语种书写系统(Multilingual Written Instances) 数据集** 此数据集专注于多脚本文档图像的理解任务,不仅限于拉丁字母表内的字符集合;它还收录了阿拉伯文、中文等多种非罗马化系统的例子。这使得 ICPR MWI 成为探索如何有效表示异构符号序列的理想平台[^3]。 - **Total-Text 和 Google FSNS(FastSigns Number Signboard Dataset)** Total-Text 主要关注弯曲形状的文字串,而 Google FSNS 则聚焦于招牌上的大尺寸数字标识。两者都旨在促进特定形态特征下高效准确地完成目标检索工作。 - **COCO-Text 及 SynthText 合成数据源** COCO-Text 继承了 MS-COCO 的高质量标注风格,增加了对其中所含有的可辨识字符串部分的精细描述。另一方面,SynthText 提供了一套程序来合成含有任意给定文本内容的人造图样,允许使用者灵活调整参数以适应具体需求[^4]。 #### 获取方式与使用建议 大多数上述提到的数据集都可以通过官方网站或者学术论文附带链接免费获取。例如,ICDAR 系列通常会在每次竞赛结束后公布参赛队伍使用的全部资料库地址;而对于像 SynthText 这样的工具型项目,则可以直接克隆 GitHub 上托管的相关仓库,并按照README.md 中给出的操作指南来进行本地部署运行。 当考虑选用哪一个数据集时,应当依据自身的应用场景做出决定。如果目的是构建一个通用性强、能适用于全球范围内部署的产品级解决方案,那么优先选择那些覆盖广泛地域文化特色的大型综合类合辑会更加合适一些。反之,针对某些特殊行业或细分市场定制开发的话,则可以适当缩小考察范围至更贴切的小众专题数据库上。 ```bash # 克隆 SynthText 项目仓库 git clone https://github.com/ankush-me/SynthText.git cd SynthText/ ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值