今天学习卷积神经网络:
收获:
- 对图像进行随机裁剪,可以增加数据多样性,随机裁剪相当于对原始图像生成多个 “变体”,扩展了训练数据集的规模(变相增加样本量);增强模型泛化能力:模型在训练中接触到图像的不同局部区域,减少对固定区域的依赖,从而更好地适应测试集中的新图像;抑制过拟合:通过引入随机性,降低模型对训练数据细节的过度学习,提高模型的稳健性。
- 熟悉并掌握了nn.conv卷积工具,认识了其能力并了解了其工作方法。
- 带步长的卷积在一定程度上可起到降采样的作用,这与最大池化法类似,二者都能缩小特征图尺寸,减少计算量和参数数量。但最大池化法是通过取局部区域内的最大值来进行下采样,更侧重于保留局部区域的显著特征,能突出图像中的关键信息,在特征提取和增强模型鲁棒性方面有较好效果。而带步长的卷积主要是通过间隔采样来降低维度,更侧重于快速缩小特征图尺寸,其在特征提取的针对性和对模型性能的提升效果上,不如最大池化法明显。
- 明白了感受野的概念及其计算方法。
- 学会自主构建nn子模块。
1万+

被折叠的 条评论
为什么被折叠?



