
深度学习
文章平均质量分 67
一个菜鸟的奋斗
这个作者很懒,什么都没留下…
展开
-
python深度学习调参,多GPU并行运行shell脚本
在不同数据集上需要不同的超参以达到最优性能,以下通过暴力搜索的方式,对不同超参进行排列组合,用循环的方式找到最优组合。原创 2022-10-08 11:26:55 · 1759 阅读 · 1 评论 -
手把手教你通过PaddleHub快速实现输入中/英文本生成图像(Stable Diffusion)
近来,基于Diffusion的文图生成模型比较火,用户输入一句话,模型就可以生成一副对应的图像,还是很有意思的。本文记录了通过PaddleHub快速实现上述任务的过程,以供参考。PaddleHub底层依赖于百度自研的开源框架PaddlePaddle,可以根据官方提供的方式来快速安装,目前文档还是挺全面的。PaddleHub开源了较为丰富的预训练模型,涵盖大模型、CV、NLP、Audio、Video、工业应用主流六大品类的 360+ 预训练模型。原创 2022-09-15 16:43:13 · 4866 阅读 · 8 评论 -
pytorch transforms将图像padding成正方形
我的目标是在不要改变原图中物体的长宽比例的前提下,将图像变成一个正方形。SquarePad可以将图像短的一边padding到与长边一致,再将该正方形做一个resize,就可以保证内部物体比例不会发生改变了。原创 2022-08-25 11:24:02 · 3160 阅读 · 0 评论 -
手把手教你用pytorch实现k折交叉验证,解决类别不平衡
在用深度学习做分类的时候,常常需要进行交叉验证,目前pytorch没有通用的一套代码来实现这个功能。可以借助 sklearn中的 StratifiedKFold,KFold来实现,其中StratifiedKFold可以根据类别的样本量,进行数据划分。以上示例是将所有imgs列表与对应的labels列表进行split,得到train_idx代表训练集的下标,val_idx代表验证集的下标。以上就是实现的基本代码,之所以在代码层面实现k折而不是在数据层面做,比如预先把数据等分为5份。...原创 2022-08-25 09:31:10 · 11814 阅读 · 17 评论 -
Pytorch遇到的坑:为什么模型训练时,L1loss损失无法下降?
最近在用L1loss做一个回归模型的训练,发现模型训练过程中loss及其不稳定,且训练效果很差,终于找到原因了!以上代码问题出在:我输入的batchsize是4,因此output的size是[4,1],也就是一个二维的数据;target的size是[4]。loss输出的结果是一个正确的数值。这也是我没发现问题的原因!我们看一下pytorch库里l1_loss的代码:代码里的warning,要求input和target的size必须一致,不然会出现不对的结果。我自己代码里把warnin...原创 2022-06-17 15:02:00 · 4293 阅读 · 5 评论 -
文本OCR相关资料收集
文本相关的图像处理是目前应用比较多的一个方向,平时看了一些资料,整理收集链接如下,以备后用。整体感觉,百度的PaddleOCR算是国内OCR开源方面做的比较好的了。论文方面,每年顶会有一些文章出来,可以查看以把握前沿的技术。Search for document image | Papers With CodePaddleOCR: Awesome multilingual OCR toolkits based on PaddlePaddle (practical ultra lightweight OCR原创 2022-06-13 17:59:11 · 485 阅读 · 0 评论 -
目标检测工程化实践中的一些技巧与思考
目标检测可以说是当今深度学习在产业界应用中最重要的技术了,没有之一。陆续看了很多目标检测工程化实践的文章,感觉还是有不小收货的。以下收录了一些仔细阅读过的文章链接,可以作为目标检测实践的参考。CNN调优总结深度神经网络模型训练中的 tricks(原理与代码汇总)目标检测比赛中的tricks集锦【目标检测实战】检测器至少需要多少图像?目标检测实用中可以改进的方向 - 知乎【水文3】一些改进模型速度/精度的工程方法 - 知乎模型训练中的新反思 - 知乎提升小目标检测的思路盘点目标检测中的特征融合技巧(根据YOL原创 2022-06-06 10:27:43 · 462 阅读 · 1 评论 -
数据增强实测之GridMask
GridMask是2020年arXiv上的一篇论文,可以认为是直接对标Hide_and_Seek方法。与之不同的是,GridMask采用了等间隔擦除patch的方式,有点类似空洞卷积,或许可以取名叫空洞擦除?原创 2022-02-07 09:28:49 · 6392 阅读 · 0 评论 -
数据增强实测之Hide-and-Seek
Hide-and-Seek是2017年发表在ICCV上的一种数据增强方法,主要思想是将图像划分成若干个patch,然后对每个patch执行随机擦除操作。会议扩充版看格式有可能是投到TPAMI上了,从时间上分析,被拒的可能性比较大。原创 2022-02-07 09:28:35 · 4186 阅读 · 8 评论 -
数据增强实测之RICAP
RICAP是2019年发表在TCSVT期刊上的一种数据增强方法,看论文发现RICAP在目标检测中的用法和YOLOv4中的mosaic增强几乎是完全一样的。从时间上来看,YOLOv4是2020年出来的,比RICAP晚了一年,不确定作者是否看过RICAP这篇论文。原创 2022-01-26 13:56:05 · 3454 阅读 · 0 评论 -
数据增强实测之mixup
mixup是2018年发表在ICLR上的一种数据增强方法,核心思想是从每个batch中随机选择两张图像,并以一定比例混合生成新的图像。需要注意的是,全部训练过程都只采用混合的新图像训练,原始图像不参与训练过程。原创 2022-01-26 12:27:17 · 23781 阅读 · 11 评论 -
数据增强实测之Random Erasing
Random Erasing是2017年与cutout同时期提出的一种数据增强方法,想法比较简单,即在训练时随机裁剪掉图像的一部分,也可以看作是一种类似dropout的正则化方法。Random Erasing Data Augmentationpaper (arXiv):https://arxiv.org/pdf/1708.04896v2.pdfpaper (AAAI20):https://ojs.aaai.org/index.php/AAAI/article/view/7000/6854..原创 2022-01-19 10:04:38 · 6527 阅读 · 5 评论 -
数据增强实测之cutout
cutout是2017年提出的一种数据增强方法,想法比较简单,即在训练时随机裁剪掉图像的一部分,也可以看作是一种类似dropout的正则化方法。Improved Regularization of Convolutional Neural Networks with Cutoutpaper:https://arxiv.org/pdf/1708.04552.pdfcode:https://github.com/uoguelph-mlrg/Cutoutcutout采用的操作是随机裁剪掉图像中..原创 2022-01-19 09:44:01 · 13339 阅读 · 10 评论