
深度学习
俭任G
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
分类器评价指标
混淆矩阵实际样本 预测结果 正例 反例 正例 TP(正预测为正,真正) FN(正预测为负,假负) 负例 FP(负预测为正,假正) TN(负预测为负,真负) 1.准确率TP和TN:表示预测正确的2.1. 查准率:(精确率),预测为真占预测为真的百分比,表示对正样本的预测准确程度(预测为正/所有为正的预测)。2.2. 查全率:(召回率),实际样本为正中预测为正的比例,(预测为正/所有为正的样本)2.3 F1, 兼顾精确率和召原创 2022-03-21 16:12:26 · 1530 阅读 · 0 评论 -
【优化策略】解决过拟合——正则化和权重衰减
相比mxnet1.5.0:多了GroupNorm;Deconvolution有变化;UpSampling,增添了最近邻方式,仅支持2D,NCHW原创 2022-03-13 15:53:21 · 2645 阅读 · 0 评论 -
归一化方法:BN LayerNorm(LN)InstanceNorm(IN)GroupNorm(GN) SwitchableNorm(SN)
原文:https://blog.youkuaiyun.com/liuxiao214/article/details/81037416本篇博客总结几种归一化办法,并给出相应计算公式和代码。1、综述1.1 论文链接1、Batch Normalizationhttps://arxiv.org/pdf/1502.03167.pdf2、Layer Normalizaitonhttps://ar...原创 2019-02-28 20:01:32 · 2417 阅读 · 1 评论 -
训练nnUNet CUDA error: device-side assert triggered 报错
在使用pytorch训练网络时,有可能会出现这个错误。看了网上一些解决方案,确实是因为数据标签问题导致的。我的情况是使用nnUNet时报错的,比如我在标签描述中写了三个类,可是输入的数据标签可能有四类或者五类,这样很明显输入数据与类别不一致。解决方法:在输入数据中确定标签类别,保持一致。...原创 2021-07-06 10:32:15 · 587 阅读 · 0 评论 -
【显存不足解决方法】梯度累积
梯度累积:参考数据并行的方式,梯度累积简单理解是把并行的数据替换成串行的数据传入,可以在显卡数量有限的情况下使用,还没有了解是否影响收敛速度。具体实现:正常训练过程:outputs = model(data_batch)loss = loss_function(outputs, labels)optimizer.zero_grad()loss.backward()optimizer.step()梯度累积:accumulation_steps = 4outputs =原创 2022-02-07 13:18:28 · 2315 阅读 · 0 评论 -
image处理
通过transform.resize()可以处理3D图像,但是图像值变化,具体原因还没有详细查找,cv2.resize貌似只能处理2D图像原创 2020-08-04 14:52:15 · 213 阅读 · 0 评论 -
训练集收敛,验证集评价指标远低于训练集评价指标
1.图像没有/255.0当图像没有除以255时,会导致在模型的训练损失下降,且收敛效果很好的情况下,验证集的泛化性较差,具体表现是评价指标几乎没有提升,也不是回落的过程。(自己写的读取数据,一定不要忘了/255.0)...原创 2020-06-23 09:00:05 · 2090 阅读 · 0 评论