- 博客(17)
- 收藏
- 关注
原创 第J7周:对于ResNeXt-50算法的思考
在深度学习框架(如TensorFlow/Keras)中,张量操作(如加法)要求输入张量的形状(shape)必须一致。如果形状不一致,通常会报错。时,快捷连接直接使用输入张量 x,而主路径的输出张量可能与输入张量的通道数不一致。这段代码定义了一个残差单元(Residual Block),是深度学习中常见的结构,通常用于构建残差网络(ResNet)。”语句时,通道数不一致的,为什么不会报错呢?通过这种方式,可以确保在任何情况下,快捷连接的通道数与主路径输出的通道数一致,从而避免潜在的错误。
2025-02-14 18:17:55
710
原创 第J6周:ResNeXt-50实战解析
ResNeXt 是由何凯明团队在 2017 年提出的一种新型图像分类网络,是 ResNet 的升级版。其核心思想是引入了 cardinality(基数) 的概念,即通过增加转换集合的大小来提升网络性能,而不是单纯地增加网络深度或宽度。
2025-01-24 11:10:46
514
原创 第J5周:Dense+SE-Net实战
此外,DenseNet的这种连接方式还减少了网络参数的数量,使得模型在保持高性能的同时,具有更高的计算效率和更小的内存占用,这对于实际应用中的模型部署具有重要意义。SE模块作为一种轻量级的注意力机制,其核心思想是通过学习通道间的权重关系,对特征图的通道进行加权,从而增强重要特征的表达,抑制不重要特征的影响。在DenseNet的每个DenseBlock之后添加SE模块,需要确保SE模块的输入和输出特征图的尺寸和通道数与DenseBlock相匹配,这涉及到对特征图尺寸和通道数的精确计算和调整。
2025-01-17 15:29:00
579
原创 第J3周:DenseNet 算法实战与解析
DenseNet的核心思想: 在每一层,都从前N层接收特征图(feature maps),并将自己的输出作为后续N层的输入。这种连接方式使得每一层都可以直接访问前面所有层的特征,从而增强了特征传递,减少了参数数量。DenseNet由多个Dense Block组成,每个Dense Block内部包含多个卷积层,每个卷积层的输出会直接连接到后续所有层的输入。在每个Dense Block之后,通常会有一个Transition Layer,用于降低特征图的维度和空间大小,以便控制参数数量和计算复杂度。
2025-01-03 16:54:26
791
原创 第J2周:ResNet50V2 算法实战与解析
ResNet50V2是何恺明等人在ResNet基础上提出的改进版本,主要改进点在于残差结构和激活函数的使用。ResNetV2结构与原始ResNet结构的主要差别在于,原始ResNet结构先进行卷积操作,然后进行BN和激活函数计算,最后执行加法操作后再进行ReLU计算;而ResNetV2结构则是先进行BN和激活函数计算后卷积,把加法操作后的ReLU计算放到了残差结构内部。v2:采用 “BN层 -> ReLU -> 卷积层” 的顺序(预激活设计)v1:采用 “卷积层 -> BN层 -> ReLU” 的顺序。
2024-12-26 20:48:54
505
原创 第J1周:ResNet-50算法实战与解析
ResNet的核心思想是引入“残差学习”,即网络的每个层学习的是输入与输出之间的残差(差异),而不是直接学习输出。在Convolutional Block中,由于输入和输出的维度可能不同,因此需要一个额外的1x1卷积层来调整shortcut connection的维度,以便可以将输入添加到输出上。在残差块中,如果输入和输出的维度相同,输入可以直接通过捷径连接添加到输出上,即 F(x)+x 这种结构使得网络即使在增加深度时也能保持性能不会下降,解决了退化问题。
2024-12-20 17:14:53
4794
原创 第P7周:马铃薯病害识别(VGG-16复现)
是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。● 13个卷积层(Convolutional Layer),分别用blockX_convX表示;● 3个全连接层(Fully connected Layer),用classifier表示;在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在。图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。● 5个池化层(Pool layer)。
2024-11-22 18:04:34
877
原创 第P6周:VGG-16算法-Pytorch实现人脸识别
是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。● 13个卷积层(Convolutional Layer),分别用blockX_convX表示;● 3个全连接层(Fully connected Layer),用classifier表示;在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在。图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。测试集准确率达到60%
2024-11-15 14:36:49
892
原创 第P5周:Pytorch实现运动鞋识别
调整代码使测试集accuracy到达84%。调整代码使测试集accuracy到达86%。保存训练过程中的最佳模型权重。调整优化器为Adam。
2024-11-02 15:48:09
1098
原创 第P3周:Pytorch实现天气识别
它允许你以小批次的方式迭代你的数据集,这对于训练神经网络和其他机器学习任务非常有用。层的行为与训练时不同,以反映模型在实际部署时的预期行为。这对于获得准确的性能指标至关重要。表示训练集大小,通过将总体数据长度的80%转换为整数得到;层则不会丢弃任何神经元,即它们会保持所有连接的激活状态。层,这意味着它们会计算并更新均值和方差的估计值;时,模型中的所有层都会知道模型处于训练模式。表示测试集大小,是总体数据长度减去训练集大小。库中的函数,对数据集中的图片进行预处理。文件夹下的文件夹名称,即数据集的分类。
2024-10-25 13:30:28
1111
原创 第P2周:CIFAR10彩色图片识别
特征数需要根据卷积层和池化层之后的输出特征图大小来确定。可以简化数据的批量处理,使得数据能够以批次的形式被神经网络处理,这是训练深度学习模型的标准做法。这个模型首先通过三个卷积层和池化层来提取图像的特征,然后将特征图展平,并通过两层全连接层进行分类。层的行为与训练时不同,以反映模型在实际部署时的预期行为。这对于获得准确的性能指标至关重要。层则不会丢弃任何神经元,即它们会保持所有连接的激活状态。开始时将数据随机打乱,这有助于模型学习时的泛化能力。时,模型中的所有层都会知道模型处于训练模式。
2024-10-14 15:03:20
1134
原创 第P1周:Pytorch实现mnist手写数字识别
将其转换为浮点数,这样就可以进行求和操作,得到正确预测的数量。最后,将正确预测的数量除以数据集的总大小,得到平均准确率。将其转换为浮点数,这样就可以进行求和操作,得到正确预测的数量。最后,将正确预测的数量除以数据集的总大小,得到平均准确率。首先通过两个卷积层和池化层来提取图像的特征,然后将特征图展平,并通过两层全连接层进行分类。计算的是预测类别是否与真实类别一致,结果是一个布尔类型的Tensor,当预测正确时为。计算的是预测类别是否与真实类别一致,结果是一个布尔类型的Tensor,当预测正确时为。
2024-09-29 11:57:44
2180
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人