- 博客(10)
- 收藏
- 关注
原创 打卡第十周-pytorch识别车牌
在MyDataset中,读取图片和对应的标签文件,将标签字符串转换为索引序列。在MyDataset中,返回图像和对应的标签序列。定义字符集合(包括数字、字母和可能的中文字符)加载车牌数据集并完成车牌识别,
2025-10-17 11:19:33
1693
原创 打卡第九周-yolov5
通过 FPN+PAN 这个强大的“通信网络”,让这些特征“互通有无”,最终产生了“1+1>2”的效果。这为后续的Neck(FPN+PAN)提供了不同尺度的特征图,分别用于检测小、中、大物体。Backbone的作用不仅仅是提取特征,更是。
2025-10-03 13:54:13
788
原创 打卡第四周-猴痘病识别
1.大概了解了一些处理措施,比如过拟合的话就数据增强,正则化,dropout,全局池化减少特征数,调整学习率等等。其中,通过上一次和这一次发现学习率对模型的学习能力影响很大,动态学习率的设置也是门学问,不同情况不一样。(好吧,也是不明白,原本设置了动态学习率,模型的准确率一直卡在68-70左右,无论是继续添加层数调整网络的纵深还是权重衰减调整都作用不大,反而是固定学习率后上来了,可能是哪里没设计好)。注:注意windows和linux系统的区别,拆分路径的时候会不同。
2025-08-22 12:40:01
362
原创 打卡第三周-Pytorch实现天气识别
1.可能算是初步体会到了调参数的感觉。一开始看提升要求要达到95%,就想着说把卷积核调小一点,结果数据结果很差,测试准确率振荡的厉害,也存在严重的过拟合。好吧,以为是K老师的卷积核大小是特别合适的,又老老实实调回去了,结果发现结果还是一样的,好吧,那可能是硬件设备区别太大了,只好老实求助ai。2.后续调用模型识别本地图片也是自己重跑了一遍模型保存好了.pth文件,再让copilot写了一段识别程序就ok了。运行结果:(好吧,调整了很多参数,满心欢喜以为到95%了,结果又跑了一遍又回来了)
2025-08-06 12:02:24
399
原创 打卡第二周-CIFAR10彩色图片识别
例:假设有一个张量 `x` 的形状为 (2, 3, 4, 5),执行 `torch.flatten(x, start_dim=1)` 会得到形状为 (2, 3*4*5) 即 (2, 60) 的二维张量。1.对整个流程更为熟悉,从导入库下载数据集,再加载数据集后表示出来,之后就是构建网络模型并打印,再编写训练和测试函数以返回准确率和损失值,最后正式训练并将结果可视化。(语言环境:Python3.9.23,编译器:jupyter notebook,深度学习环境:Pytorch)1.导入需要的库和选择设备。
2025-07-31 12:54:34
1618
原创 打卡第一周-MNIST识别
是Pytorch自带的一个数据加载器,结合了数据集和取样器,DataLoader`的主要功能是将一个`Dataset`对象(例如`torchvision.datasets`返回的对象)包装成一个可迭代对象,以便在训练循环中方便地访问数据。1.编写完整程序流程:引入库➡下载数据加载数据➡搭建网络➡编写训练和测试函数确定指标➡开始训练返回指标➡画图表示。2.CNN模型:输入➡卷积1➡激活➡池化1➡卷积2➡激活➡池化2➡展平➡连接1➡连接2。6. 开始设置超参数,训练和测试函数,计算loss和acc。
2025-07-21 21:21:49
552
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅