- 博客(27)
- 收藏
- 关注
原创 yolov3_spp项目中的各种配置文件读取
后缀名 .ymal .txt .json.cfg .data .names .shapes 可以自定义后缀名??pyhon文件操作大全。
2023-05-29 15:54:27
358
原创 02 DeepLab系列总结
对 Input Feature Map 以不同采样率的空洞卷积并行采样;将得到的结果 concat ,扩大通道数;最后通过 1 × 1 卷积将通道数降低到预期的数值。相当于以多个比例捕捉图像的上下文。BP解决了网络训练的软件问题(权重更新),pooling解决训练的硬件问题(对计算资源的需求),对像素的位置很敏感,pooling是一个不断丢失位置信息的过程。池化层缩小特征层的尺寸,可以快速扩大感受野。这东西不够好,V3舍弃了CRF,不用管。可以在不增加计算量的情况下。验证时:损失计算,打印。
2023-05-22 13:31:51
352
原创 01 FCN(2015)
预测图中通道数==类别数+1,将每个通道的左下角元素做softmax回归;概率最大的通道数就是该像素的预测类别索引,相当于。Constant Warmup:学习率从非常小的数值。刚开始模型对数据完全不了解,此时需要使用小学习率。Linner Warmup:学习率从非常小的数值。Cosine Warmup:学习率先从很小的数值。对数据了解了一段时间之后,可以使用大学习率。指的是下采样32倍,然后还原到原图尺寸。求每个像素的分类问题类别损失,然后求平均。增加到预设学习率,然后按照。时,使用小学习率进行。
2023-05-18 13:08:42
446
原创 00 语义分割
在背景处的像素值为0,目标边缘处用的像素值为255(训练时一般会忽略像素值为255的区域),目标区域内根据目标的类别索引信息进行填充,例如人对应的目标索引是15,所以目标区域的像素值用15填充。简单来讲就是重复所给定的一组系数,如r=[1,2,3,1,2,3],r=[1,2,5,1,2,5]类似这种格式。k表示转置卷积的kernel_size大小,s表示转置卷积的步距,p为转置卷积的padding。假设都使用K*K的卷积核,连续多次卷积,膨胀系数应满足如下。ri表示第i个卷积的膨胀系数。
2023-05-17 18:45:48
82
原创 07 Swin-Transformer
目录一、 理论知识1. 整体架构2. stage中的Patch Merging3. W-MSA和SW-MSA3.1 W-MSA3.2 SW-MSA 4. Relative Position Bias5. 参数配置二、 网络复现1. 网络搭建2. train个人学习笔记资料来源: 12.1 Swin-Transformer网络结构详解_哔哩哔哩_bilibilib图2个区别在于 W-MSA和SW-MSAstage1之前的 Pach Parition +++++ stage1的 Linear Embedding
2023-05-09 12:52:22
558
原创 Confusion Matri 混淆矩阵
所有真实positive中,模型预测正确的positive比例。所有真实negative中,模型预测正确的negative比例。模型预测的所有positive中,预测正确的比例。模型正确分类样本数占总样本数比例(所有类别)预测对了还是预测错了。预测的是猫还是不是猫。
2023-05-08 20:01:29
188
1
原创 01 AlexNet(2012)
net = AlexNet(num_classes=5, init_weights=True) #自己搭建或调用torch自带。
2023-05-04 13:01:35
251
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人