基于深度学习CNN算法的手写汉字识别系统01--带数据集-pyqt5UI界面-全套源码

部署运行你感兴趣的模型镜像

各位同学大家好,本次给大家分享的项目为:

基于深度学习算法的手写汉字识别系统01

项目文件获取地址:

百度网盘链接:https://pan.baidu.com/s/113O8cGN3hfpkKkik6WQfhQ?pwd=ij5e 
提取码: ij5e

一、项目摘要

本研究设计并实现了一个基于深度学习的手写汉字识别系统,旨在通过优化模型结构和训练策略,提高对手写汉字的识别精度。系统采用了MobileNet卷积神经网络结构,并使用PyTorch框架进行模型搭建和训练。实验数据来自中科院手写汉字数据集,包含200类汉字,总计59699张图像。数据预处理过程中,使用图像裁剪、翻转和归一化等操作,以提升模型的泛化能力。训练过程中,设定Epoch数为60,采用AdamW优化器和交叉熵损失函数,并以验证集损失值最低点作为模型参数的最佳选择标准。实验结果显示,该模型在验证集上的最高准确率达到了96%,平均准确率为98%,证明了系统的有效性。此外,本文利用PyQt5库开发了用户交互界面,实现了手写汉字图像的选择与识别功能,提升了系统的实用性。整体而言,本系统展示了基于深度学习的手写汉字识别技术在实际应用中的潜力与优势。

二、项目运行效果

运行效果视频:
https://www.bilibili.com/video/BV15TUpYEEwL

运行效果截图:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

三、项目文件介绍

在这里插入图片描述在这里插入图片描述

四、项目环境配置

1、项目环境库

python=3.8 pytorch pyqt5 opencv matplotlib 等

2、环境配置视频教程

1)anaconda下载安装教程
2)pycharm下载安装教程
3)项目环境库安装步骤教程

五、项目系统架构

在这里插入图片描述

整个系统由数据上传模块、模型加载模块、图像处理模块、识别模块和用户界面模块五个主要部分组成,各模块功能如下

  • 数据上传模块:负责接收用户输入的手写汉字图像。
  • 模型加载模块:在系统启动时加载MobileNet模型及其预训练的最佳权重,以确保系统在初始化后可以直接调用模型进行识别。
  • 图像处理模块:负责对用户输入的手写汉字图像进行预处理,包括图像的缩放、归一化等操作,以符合模型的输入要求(224×224大小,标准化参数)。
  • 识别模块:将处理后的图像输入模型,获取模型预测的汉字类别,并将结果返回给界面模块进行显示。
  • 用户界面模块:基于PyQt5库设计的交互界面,允许用户选择汉字图像并查看识别结果。**

六、项目构建流程

1、数据集

数据集文件夹:all_data

在这里插入图片描述

概述:

本研究使用了中国科学院提供的手写汉字数据集,选取其中200类汉字,总计59699张图像,具有较高的类别丰富度和样本数量,适合对汉字识别系统进行有效训练和评估。
在这里插入图片描述

为了增强数据的多样性并提升模型的鲁棒性,数据预处理过程包括对图像的裁剪、翻转和归一化处理。这些操作不仅能够增加样本的多样性,还能减少因图像尺寸和方向变化对模型带来的识别干扰。/

数据集格式及命令统一代码:to_rgb.py
(对数据集中的图像统一成rgb格式并进行统一规范命名)

在这里插入图片描述

2、算法网络Mobilenet

概述:
MobileNet的核心是深度可分离卷积操作,它将传统的卷积操作分解为两个步骤:深度卷积和逐点卷积。这一分解方式可以极大减少卷积操作的参数量和计算量。

  • 深度卷积(Depthwise Convolution):对输入的每一个通道独立地进行卷积操作,这一操作仅对空间信息进行提取,并不改变通道数量。

  • 逐点卷积(Pointwise Convolution):使用1×1的卷积核对深度卷积的输出进行通道整合,将不同通道的信息融合在一起,以生成更具代表性的特征。
    在这里插入图片描述
    这种卷积方式相比传统卷积操作减少了大量的计算开销,使得MobileNet在保持较高精度的同时显著降低了运算需求,适合在实时性要求较高的场景中应用。

算法代码为:models文件夹下的mobilenet.py

在这里插入图片描述

"""mobilenet in pytorch



[1] Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam

    MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
    https://arxiv.org/abs/1704.04861
"""

import torch
import torch.nn as nn


class DepthSeperabelConv2d(nn.Module):

    def __init__(self, input_channels, output_channels, kernel_size, **kwargs):
        super().__init__()
        self.depthwise = nn.Sequential(
            nn.Conv2d(
                input_channels,
                input_channels,
                kernel_size,
                groups=input_channels,
                **kwargs),
            nn.BatchNorm2d(input_channels),
            nn.ReLU(inplace=True)
        )

        self.pointwise = nn.Sequential(
            nn.Conv2d(input_channels, output_channels, 1),
            nn.BatchNorm2d(output_channels),
            nn.ReLU(inplace=True)
        )

    def forward(self, x):
        x = self.depthwise(x)
        x = self.pointwise(x)

        return x


class BasicConv2d(nn.Module):

    def __init__(self, input_channels, output_channels, kernel_size, **kwargs):

        super().__init__()
        self.conv = nn.Conv2d(
            input_channels, output_channels, kernel_size, **kwargs)
        self.bn = nn.BatchNorm2d(output_channels)
        self.relu = nn.ReLU(inplace=True)

    def forward(self, x):
        x = self.conv(x)
        x = self.bn(x)
        x = self.relu(x)

        return x


class MobileNet(nn.Module):

    """
    Args:
        width multipler: The role of the width multiplier α is to thin
                         a network uniformly at each layer. For a given
                         layer and width multiplier α, the number of
                         input channels M becomes αM and the number of
                         output channels N becomes αN.
    """

    def __init__(self, width_multiplier=1, class_num=100):
       super().__init__()

       alpha = width_multiplier
       self.stem = nn.Sequential(
           BasicConv2d(3, int(32 * alpha), 3, padding=1, bias=False),
           DepthSeperabelConv2d(
               int(32 * alpha),
               int(64 * alpha),
               3,
               padding=1,
               bias=False
           )
       )

       #downsample
       self.conv1 = nn.Sequential(
           DepthSeperabelConv2d(
               int(64 * alpha),
               int(128 * alpha),
               3,
               stride=2,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(128 * alpha),
               int(128 * alpha),
               3,
               padding=1,
               bias=False
           )
       )

       #downsample
       self.conv2 = nn.Sequential(
           DepthSeperabelConv2d(
               int(128 * alpha),
               int(256 * alpha),
               3,
               stride=2,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(256 * alpha),
               int(256 * alpha),
               3,
               padding=1,
               bias=False
           )
       )

       #downsample
       self.conv3 = nn.Sequential(
           DepthSeperabelConv2d(
               int(256 * alpha),
               int(512 * alpha),
               3,
               stride=2,
               padding=1,
               bias=False
           ),

           DepthSeperabelConv2d(
               int(512 * alpha),
               int(512 * alpha),
               3,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(512 * alpha),
               int(512 * alpha),
               3,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(512 * alpha),
               int(512 * alpha),
               3,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(512 * alpha),
               int(512 * alpha),
               3,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(512 * alpha),
               int(512 * alpha),
               3,
               padding=1,
               bias=False
           )
       )

       #downsample
       self.conv4 = nn.Sequential(
           DepthSeperabelConv2d(
               int(512 * alpha),
               int(1024 * alpha),
               3,
               stride=2,
               padding=1,
               bias=False
           ),
           DepthSeperabelConv2d(
               int(1024 * alpha),
               int(1024 * alpha),
               3,
               padding=1,
               bias=False
           )
       )

       self.fc = nn.Linear(int(1024 * alpha), class_num)
       self.avg = nn.AdaptiveAvgPool2d(1)

    def forward(self, x):
        x = self.stem(x)

        x = self.conv1(x)
        x = self.conv2(x)
        x = self.conv3(x)
        x = self.conv4(x)

        x = self.avg(x)
        x = x.view(x.size(0), -1)
        x = self.fc(x)
        return x


def mobilenet(alpha=1, class_num=200):
    return MobileNet(alpha, class_num)


3、网络模型训练

在模型训练中,本研究设定的关键参数如下:

  • 输入图像尺寸:224×224。

  • 训练轮次(Epochs):60次。

  • 批次大小(Batch-size):16。

  • 优化器:使用AdamW优化器,其学习率为0.0001,并设置权重衰减参数为5E-2,以防止过拟合。

  • 损失函数:采用交叉熵损失函数(Cross Entropy Loss),这是分类问题中常用的损失函数,能够有效衡量模型的预测与真实标签之间的差距。

  • 学习率调整:在训练过程中使用学习率调节策略,以在训练后期收敛至最优状态。

在这里插入图片描述

import os
import argparse

import torch
import torch.optim as optim
import matplotlib.pyplot as plt
from torch.utils.tensorboard import SummaryWriter
from torchvision import transforms

from my_dataset import MyDataSet
from models.mobilenet import mobilenet as create_model
from utils import read_split_data, train_one_epoch, evaluate


def draw(train, val, ca):
    plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']
    plt.rcParams['axes.unicode_minus'] = False
    plt.cla() # 清空之前绘图数据
    plt.title('精确度曲线图' if ca == "acc" else '损失值曲线图')
    plt.plot(train, label='train_{}'.format(ca))
    plt.plot(val, label='val_{}'.format(ca))
    plt.legend()
    plt.grid()
    plt.savefig('精确度曲线图' if ca == "acc" else '损失值曲线图')
    # plt.show()



def main(args):
    device = torch.device(args.device if torch.cuda.is_available() else "cpu")

    if os.path.exists("./weights") is False:
        os.makedirs("./weights")

    tb_writer = SummaryWriter()

    train_images_path, train_images_label, val_images_path, val_images_label = read_split_data(args.data_path)

    img_size = 224
    data_transform = {
        "train": transforms.Compose([transforms.RandomResizedCrop(img_size),
                                     transforms.RandomHorizontalFlip(),
                                     transforms.ToTensor(),
                                     transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])]),
        "val": transforms.Compose([transforms.Resize(int(img_size * 1.143)),
                                   transforms.CenterCrop(img_size),
                                   transforms.ToTensor(),
                                   transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])}

    # 实例化训练数据集
    train_dataset = MyDataSet(images_path=train_images_path,
                              images_class=train_images_label,
                              transform=data_transform["train"])

    # 实例化验证数据集
    val_dataset = MyDataSet(images_path=val_images_path,
                            images_class=val_images_label,
                            transform=data_transform["val"])

    batch_size = args.batch_size
    nw = min([os.cpu_count(), batch_size if batch_size > 1 else 0, 8])  # number of workers
    print('Using {} dataloader workers every process'.format(nw))
    train_loader = torch.utils.data.DataLoader(train_dataset,
                                               batch_size=batch_size,
                                               shuffle=True,
                                               pin_memory=True,
                                               num_workers=nw,
                                               collate_fn=train_dataset.collate_fn)

    val_loader = torch.utils.data.DataLoader(val_dataset,
                                             batch_size=batch_size,
                                             shuffle=False,
                                             pin_memory=True,
                                             num_workers=nw,
                                             collate_fn=val_dataset.collate_fn)

    model = create_model(class_num=200).to(device)

    if args.weights != "":
        assert os.path.exists(args.weights), "weights file: '{}' not exist.".format(args.weights)

        model.load_state_dict(torch.load(args.weights, map_location=device))


    if args.freeze_layers:
        for name, para in model.named_parameters():
            # 除head外,其他权重全部冻结
            if "head" not in name:
                para.requires_grad_(False)
            else:
                print("training {}".format(name))

    pg = [p for p in model.parameters() if p.requires_grad]
    optimizer = optim.AdamW(pg, lr=args.lr, weight_decay=5E-2)

    for epoch in range(args.epochs):
        # train
        train_loss, train_acc = train_one_epoch(model=model,
                                                optimizer=optimizer,
                                                data_loader=train_loader,
                                                device=device,
                                                epoch=epoch)

        # validate
        val_loss, val_acc = evaluate(model=model,
                                     data_loader=val_loader,
                                     device=device,
                                     epoch=epoch)

        train_acc_list.append(train_acc)
        train_loss_list.append(train_loss)

        val_acc_list.append(val_acc)
        val_loss_list.append(val_loss)


        tags = ["train_loss", "train_acc", "val_loss", "val_acc", "learning_rate"]
        tb_writer.add_scalar(tags[0], train_loss, epoch)
        tb_writer.add_scalar(tags[1], train_acc, epoch)
        tb_writer.add_scalar(tags[2], val_loss, epoch)
        tb_writer.add_scalar(tags[3], val_acc, epoch)
        tb_writer.add_scalar(tags[4], optimizer.param_groups[0]["lr"], epoch)

        if val_loss == min(val_loss_list):
            print('save-best-epoch:{}'.format(epoch))
            with open('loss.txt', 'w') as fb:
                fb.write(str(train_loss) + ',' + str(train_acc) + ',' + str(val_loss) + ',' + str(val_acc))
            torch.save(model.state_dict(), "./weights/best-epoch.pth")




if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    parser.add_argument('--num_classes', type=int, default=200)
    parser.add_argument('--epochs', type=int, default=60)
    parser.add_argument('--batch-size', type=int, default=16)
    parser.add_argument('--lr', type=float, default=0.0001)

    # 数据集所在根目录
    parser.add_argument('--data-path', type=str,
                        default="all_data")

    # 预训练权重路径,如果不想载入就设置为空字符
    parser.add_argument('--weights', type=str, default='',
                        help='initial weights path')
    # 是否冻结权重
    parser.add_argument('--freeze-layers', type=bool, default=False)
    parser.add_argument('--device', default='cuda:0', help='device id (i.e. 0 or 0,1 or cpu)')

    opt = parser.parse_args()

    train_loss_list = []
    train_acc_list = []
    val_loss_list = []
    val_acc_list = []

    main(opt)

    draw(train_acc_list, val_acc_list, 'acc')
    draw(train_loss_list, val_loss_list, 'loss')


开始训练

在all_data中准备好数据集,并设置好超参数后,即可开始运行train.py

成功运行效果展示

1)会生成dataset.png数据集分布柱状图

2)pycharm下方实时显示相关训练日志

在这里插入图片描述

等待所有epoch训练完成后代码会自动停止,并在weights文件夹下生成训练好的模型pth文件,并生成准确率和损失值曲线图。

在这里插入图片描述

在这里插入图片描述

4、训练好的模型预测

无界面预测代码为:predict.py

在这里插入图片描述

import os
import json

import torch
from PIL import Image
from torchvision import transforms
import matplotlib.pyplot as plt

from models.mobilenet import mobilenet  as create_model


def main(img_path):
    import os
    os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

    device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

    img_size = 224
    data_transform = transforms.Compose(
        [transforms.Resize(int(img_size * 1.143)),
         transforms.CenterCrop(img_size),
         transforms.ToTensor(),
         transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])

    # load image
    # img_path = "./tulip.jpg"
    assert os.path.exists(img_path), "file: '{}' dose not exist.".format(img_path)
    img = Image.open(img_path)
    plt.imshow(img)
    # [N, C, H, W]
    img = data_transform(img)
    # expand batch dimension
    img = torch.unsqueeze(img, dim=0)

    # read class_indict
    json_path = './class_indices.json'
    assert os.path.exists(json_path), "file: '{}' dose not exist.".format(json_path)

    json_file = open(json_path, "r")
    class_indict = json.load(json_file)

    # create model  创建模型网络
    model = create_model(class_num=200).to(device)
    # load model weights  加载模型
    model_weight_path = "weights/best-epoch.pth"
    model.load_state_dict(torch.load(model_weight_path, map_location=device))
    model.eval()
    #调用模型进行检测
    with torch.no_grad():
        # predict class
        output = torch.squeeze(model(img.to(device))).cpu()
        predict = torch.softmax(output, dim=0)
        predict_cla = torch.argmax(predict).numpy()


    for i in range(len(predict)):
        print("class: {:10}   prob: {:.3}".format(class_indict[str(i)],
                                                  predict[i].numpy()))
    # 返回检测结果和准确率
    res = class_indict[str(list(predict.numpy()).index(max(predict.numpy())))]
    num= "%.2f" % (max(predict.numpy()) * 100) + "%"

    with open('data_name.txt','r',encoding='utf-8')as fb:
        name_data=fb.readlines()
    name_dict={}
    for i in name_data:
        name_dict[i.strip().split('+')[0]]=i.strip().split('+')[1]
    print(name_dict[res],num)
    return name_dict[res],num



if __name__ == '__main__':
    img_path = r"all_data\00002\16342.png"
    main(img_path)

使用方法
1)设置好训练好的模型权重路径
2)设置好要预测的图像的路径
直接右键运行即可,成功运行后会在pycharm下方生成预测结果数据

在这里插入图片描述

5、UI界面设计-pyqt5

两款UI样式界面,自由选择

样式1纯色背景界面,可自由更改界面背景颜色

在这里插入图片描述

样式2:背景图像界面

在这里插入图片描述

对应代码文件
1)ui.py 和 ui2.py
用于设置界面中控件的属性样式和显示的文本内容,可自行修改界面背景色及界面文本内容

在这里插入图片描述

在这里插入图片描述

2)主界面.py 和 主界面2.py
用于设置界面中的相关按钮及动态的交互功能

在这里插入图片描述

6、项目相关评价指标

1、准确率曲线图(训练后自动生成)
在这里插入图片描述

2、损失值曲线图(训练后自动生成)
在这里插入图片描述

3、混淆矩阵图
在这里插入图片描述

生成方式:训练完模型后,运行confusion_matrix.py文件,设置好使用的模型权重文件后,直接右键运行即可,等待模型进行预测生成

在这里插入图片描述

以上为本项目完整的构建实现流程步骤,更加详细的项目讲解视频如下
https://www.bilibili.com/video/BV1JRUHYxEJk
(对程序使用,项目中各个文件作用,算法网络结构,所有程序代码等进行的细致讲解,时长1小时)

七、项目论文报告

本项目有配套的论文报告(1w字左右),部分截图如下
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

PyTorch 2.7

PyTorch 2.7

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值