HWDB-1.1 手写汉字CNN识别模型训练

本文介绍了一个基于CASIA-HWDB1.1的手写字符识别项目,详细记录了使用GoogLeNet预训练模型进行fine-tuning的过程,并进一步开发了一个更轻量级的HWDB-CNN-9Layer模型。该模型在保持高精度的同时显著减少了资源消耗。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

数据集

使用CASIA-HWDB1.1进行训练和测试,训练集和测试集按照4:1划分,测试集235200张,训练集940800张,

共计1,176,000张图像。该数据集由300个人手写而成,其中包含171个阿拉伯数字和特殊符号,3755类GB2312-80 level-1汉字。

http://www.nlpr.ia.ac.cn/databases/handwriting/Download.html

  • 样例图


模型训练
  • Finetuning from a pretrained model

    以googlenet为基础模型,进行finetuning。直接训练全部类别无法收敛时,尝试分阶段训练。

    训练后的测试结果为loss-1和loss-2分支准确率为95%,loss-3分支为97%。收敛很快,以0.01为基础学习率,32的batch size,不到10000次迭代就收敛了。

  • Train 'HWDB-CNN-9Layer' model

    虽然googlenet效果尚可,但是由于网络设计的历史原因,全连接层没有用avg_pooling,所以输入时需要强行把图像放大到224*224,且输入是3通道,对于字符来说有点浪费资源。决定按照论文https://arxiv.org/abs/1702.07975重头撸一个轻量点的模型。

    这个论文里的模型比较简单,就是很基本的结构(模型图太长,不贴了)。加了BN(注意BN以及一些特殊层训练和deploy的区别),训练过程收敛也很快,过程图如下:

  • 训练过程准确率

  • 训练过程损失

  • 前传时间及模型大小对比

    googlenet: 0.46ms/张,89.5MB

    HWDB-CNN-9Layer: 0.205ms / 张, 44.2MB

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值