- 博客(5)
- 收藏
- 关注
原创 非刚性数据增强———自由变形(Free Form Deformation, FFD)
本文提出FFDAugmentor方法,针对甲骨文识别中的少样本学习问题,采用基于B样条的自由变形(FFD)进行数据增强。相比传统刚性变换,FFD通过控制点网格实现非刚性形变,能更好保留甲骨文整体特征。算法核心是将图像划分为n₁×n₂块,通过随机偏移控制点产生形变,并使用双线性插值填充空白区域。实验表明,当块数为5、偏移量为11时效果最佳。该方法为小样本甲骨文识别提供了有效的增强方案,但需针对不同背景噪声调整参数。
2025-12-31 10:45:17
373
原创 图像数据增强方法
摘要:本文对比了深度学习图像处理中两种主流数据增强工具Albumentations和torchvision.transforms。Albumentations专为高效处理设计,特别适合目标检测、图像分割等同步处理任务,提供丰富先进的增强技术。torchvision.transforms则作为PyTorch原生工具,以易用性和无缝集成为优势,适合图像分类和快速原型开发。文章详细列举了两种工具常用的增强方法,包括几何变换(平移、旋转、翻转)、颜色调整(亮度、对比度、色调)、噪声添加(高斯、ISO)、模糊效果以及
2025-11-23 20:23:56
153
原创 yolov10的注意力机制改进:小波域注意力(WaveletDomainAttention)WDA
摘要:文章提出了一种基于小波域注意力(WaveletDomainAttention)的YOLOv10改进方法。该模块采用离散小波变换将特征图分解为四个频带,通过频带注意力机制动态学习各子带权重,再经逆变换重建特征。在YOLOv10中实现了两种改进方案:1) 在骨干网络的C2fCIB和SPPF模块之间插入WDA模块;2) 用新设计的PSA_WDA模块替换原有PSA模块,结合注意力机制降低计算量。详细介绍了模块实现代码、注册方法和配置文件修改步骤,并展示了成功集成后的网络结构验证结果,该方法能有效增强模型对多尺
2025-11-13 22:02:57
611
原创 yolov10的注意力机制改进:坐标注意力(CoordinateAttention)
摘要:本文介绍了CVPR2021提出的CoordinateAttention机制,该机制通过分解通道注意力为水平和垂直方向的1D编码,有效解决了传统方法丢失位置信息的问题。文章详细展示了Python实现代码,并说明如何在YOLOv10中进行改进:在backbone的C2fCIB和SPPF模块间嵌入该模块。具体修改包括创建新模块目录、修改tasks.py解析函数以及调整yaml配置文件。最终通过模型打印验证模块添加成功,该改进能提升目标定位精度且计算成本低。
2025-11-05 18:09:33
885
原创 yolov10的注意力机制改进:高效多头自注意力(EfficientMultiheadAttention)
本文提出了一种结合小波变换与注意力机制的新型模块WaveletDomainAttention(WDA),通过离散小波变换将输入特征分解为多频带分量,利用注意力机制自适应加权各频带信息后重建特征。该模块具有频域局部化和动态加权的优势,能有效增强纹理特征提取。研究详细介绍了在YOLOv10中的两种改进方案:一是在骨干网络中直接嵌入WDA模块,二是构建PSA_WDA模块替代原有PSA结构以控制计算量。实现过程包括模块代码编写、参数设置、注册导入及yaml文件修改等步骤,最终通过打印网络结构验证了模块的成功集成。该
2025-10-30 23:20:12
707
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅