- 博客(8)
- 收藏
- 关注
原创 scikit-learn混淆矩阵报错
print(type_of_target(y_test))#很有用!如果是unknow说明识别不了,pd/arr一顿操作改变维度。
2024-05-21 22:45:23
353
1
原创 mmdetection+solov2
看下loss:python tools/analysis_tools/analyze_logs.py plot_curve work_dirs/solov2_r50_fpn_1x_coco/20230211_210212.log.json --keys loss lr --out loss.pdf。pip install 啥的都没用啊。学习率改为2.5e-3:2/16。改了ghostnet网络。不要再计算bbox啦!
2023-02-16 22:25:43
276
原创 cnn指标
比如对于二分类的前背景分割,那么IoU=(真实前景像素面积∩预测前景像素面积)/(真实前景像素面积∪预测前景像素面积),这一个指标,通常比直接计算每一个像素的分类正确概率要低,也对错误分类更加敏感。随机挑选一个正样本以及一个负样本,AUC表征的就是有多大的概率,分类器会对正样本给出的预测值高于负样本,当然前提是正样本的预测值的确应该高于负样本。类别之间相互误分的情况,其中第i行第j列,表示第i类目标被分类为第j类的概率,可以知道,越好的分类器对角线上的值更大,其他地方应该越小。5.roc AUC指标。
2023-02-16 20:33:43
1139
原创 mmdetection+yolact
和maskrcnn不同的是 这里是具体地config,而mask-rcnn是config的文件地址指向,所以不用再去特别的修改_base_里面的东西。预训练我猜还是resnet的pth,这个下载到哪里了捏 记得好像是c盘cache。该文件包含dataset、model等等的config。batch_size试试8 OOM了 改成1X4。改annotations文件夹路径x3。添加val pipeline。改num_classes。
2023-02-16 17:22:38
319
原创 一些以为懂了其实没懂的深度学习东东
具体过程是测试图片输入后通过selective search生成2000个proposal区域,各通过训练好的模型获得分类置信度,然后NMS会根据置信度筛掉图里每个物品上多余的proposal box,剩下的proposal再通过对应类别的回归器得到四个平移缩放量来计算出最终的预测box。给小白简单解释下epoch和iter的差别,比如训练数据是1000张图片,Mini-batch是10,那么训练1个epoch就是训练100次,也就是100个iter。有用的githhub合集。NMS、bbox回归。
2023-02-16 17:20:24
102
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人