自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 第J7周:对于ResNeXt-50算法的思考

在深度学习框架(如TensorFlow/Keras)中,张量操作(如加法)要求输入张量的形状(shape)必须一致。如果形状不一致,通常会报错。时,快捷连接直接使用输入张量 x,而主路径的输出张量可能与输入张量的通道数不一致。这段代码定义了一个残差单元(Residual Block),是深度学习中常见的结构,通常用于构建残差网络(ResNet)。”语句时,通道数不一致的,为什么不会报错呢?通过这种方式,可以确保在任何情况下,快捷连接的通道数与主路径输出的通道数一致,从而避免潜在的错误。

2025-02-14 18:17:55 710

原创 第J6周:ResNeXt-50实战解析

ResNeXt 是由何凯明团队在 2017 年提出的一种新型图像分类网络,是 ResNet 的升级版。其核心思想是引入了 cardinality(基数) 的概念,即通过增加转换集合的大小来提升网络性能,而不是单纯地增加网络深度或宽度。

2025-01-24 11:10:46 514

原创 第J5周:Dense+SE-Net实战

此外,DenseNet的这种连接方式还减少了网络参数的数量,使得模型在保持高性能的同时,具有更高的计算效率和更小的内存占用,这对于实际应用中的模型部署具有重要意义。SE模块作为一种轻量级的注意力机制,其核心思想是通过学习通道间的权重关系,对特征图的通道进行加权,从而增强重要特征的表达,抑制不重要特征的影响。在DenseNet的每个DenseBlock之后添加SE模块,需要确保SE模块的输入和输出特征图的尺寸和通道数与DenseBlock相匹配,这涉及到对特征图尺寸和通道数的精确计算和调整。

2025-01-17 15:29:00 579

原创 第J4周:ResNet与DenseNet结合探索

【代码】第J4周:ResNet与DenseNet结合探索。

2025-01-04 17:08:44 419

原创 第J3周:DenseNet 算法实战与解析

DenseNet的核心思想: 在每一层,都从前N层接收特征图(feature maps),并将自己的输出作为后续N层的输入。这种连接方式使得每一层都可以直接访问前面所有层的特征,从而增强了特征传递,减少了参数数量。DenseNet由多个Dense Block组成,每个Dense Block内部包含多个卷积层,每个卷积层的输出会直接连接到后续所有层的输入。在每个Dense Block之后,通常会有一个Transition Layer,用于降低特征图的维度和空间大小,以便控制参数数量和计算复杂度。

2025-01-03 16:54:26 791

原创 第J2周:ResNet50V2 算法实战与解析

ResNet50V2是何恺明等人在ResNet基础上提出的改进版本,主要改进点在于残差结构和激活函数的使用。ResNetV2结构与原始ResNet结构的主要差别在于,原始ResNet结构先进行卷积操作,然后进行BN和激活函数计算,最后执行加法操作后再进行ReLU计算;而ResNetV2结构则是先进行BN和激活函数计算后卷积,把加法操作后的ReLU计算放到了残差结构内部。v2:采用 “BN层 -> ReLU -> 卷积层” 的顺序(预激活设计)v1:采用 “卷积层 -> BN层 -> ReLU” 的顺序。

2024-12-26 20:48:54 505

原创 第J1周:ResNet-50算法实战与解析

ResNet的核心思想是引入“残差学习”,即网络的每个层学习的是输入与输出之间的残差(差异),而不是直接学习输出。在Convolutional Block中,由于输入和输出的维度可能不同,因此需要一个额外的1x1卷积层来调整shortcut connection的维度,以便可以将输入添加到输出上。在残差块中,如果输入和输出的维度相同,输入可以直接通过捷径连接添加到输出上,即 F(x)+x 这种结构使得网络即使在增加深度时也能保持性能不会下降,解决了退化问题。

2024-12-20 17:14:53 4794

原创 第P10周:Pytorch实现车牌识别

【代码】第P10周:Pytorch实现车牌识别。

2024-12-13 22:02:34 533 1

原创 第P9周:YOLOv5-Backbone模块实现

【代码】第P9周:YOLOv5-Backbone模块实现。

2024-12-06 11:19:09 1027

原创 第P8周:YOLOv5-C3模块实现

【代码】第P8周:YOLOv5-C3模块实现。

2024-11-25 09:54:03 904

原创 第P7周:马铃薯病害识别(VGG-16复现)

是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。● 13个卷积层(Convolutional Layer),分别用blockX_convX表示;● 3个全连接层(Fully connected Layer),用classifier表示;在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在。图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。● 5个池化层(Pool layer)。

2024-11-22 18:04:34 877

原创 第P6周:VGG-16算法-Pytorch实现人脸识别

是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。● 13个卷积层(Convolutional Layer),分别用blockX_convX表示;● 3个全连接层(Fully connected Layer),用classifier表示;在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在。图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。测试集准确率达到60%

2024-11-15 14:36:49 892

原创 第P5周:Pytorch实现运动鞋识别

调整代码使测试集accuracy到达84%。调整代码使测试集accuracy到达86%。保存训练过程中的最佳模型权重。调整优化器为Adam。

2024-11-02 15:48:09 1098

原创 第P4周:猴痘病识别

卷积神经网络(CNN)是一种深度学习模型,广泛应用于图像识别、分类和分割等任务。

2024-11-01 18:14:57 2065

原创 第P3周:Pytorch实现天气识别

它允许你以小批次的方式迭代你的数据集,这对于训练神经网络和其他机器学习任务非常有用。层的行为与训练时不同,以反映模型在实际部署时的预期行为。这对于获得准确的性能指标至关重要。表示训练集大小,通过将总体数据长度的80%转换为整数得到;层则不会丢弃任何神经元,即它们会保持所有连接的激活状态。层,这意味着它们会计算并更新均值和方差的估计值;时,模型中的所有层都会知道模型处于训练模式。表示测试集大小,是总体数据长度减去训练集大小。库中的函数,对数据集中的图片进行预处理。文件夹下的文件夹名称,即数据集的分类。

2024-10-25 13:30:28 1111

原创 第P2周:CIFAR10彩色图片识别

特征数需要根据卷积层和池化层之后的输出特征图大小来确定。可以简化数据的批量处理,使得数据能够以批次的形式被神经网络处理,这是训练深度学习模型的标准做法。这个模型首先通过三个卷积层和池化层来提取图像的特征,然后将特征图展平,并通过两层全连接层进行分类。层的行为与训练时不同,以反映模型在实际部署时的预期行为。这对于获得准确的性能指标至关重要。层则不会丢弃任何神经元,即它们会保持所有连接的激活状态。开始时将数据随机打乱,这有助于模型学习时的泛化能力。时,模型中的所有层都会知道模型处于训练模式。

2024-10-14 15:03:20 1134

原创 第P1周:Pytorch实现mnist手写数字识别

将其转换为浮点数,这样就可以进行求和操作,得到正确预测的数量。最后,将正确预测的数量除以数据集的总大小,得到平均准确率。将其转换为浮点数,这样就可以进行求和操作,得到正确预测的数量。最后,将正确预测的数量除以数据集的总大小,得到平均准确率。首先通过两个卷积层和池化层来提取图像的特征,然后将特征图展平,并通过两层全连接层进行分类。计算的是预测类别是否与真实类别一致,结果是一个布尔类型的Tensor,当预测正确时为。计算的是预测类别是否与真实类别一致,结果是一个布尔类型的Tensor,当预测正确时为。

2024-09-29 11:57:44 2180 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除