- 博客(4)
- 收藏
- 关注
原创 第四章MobileNet_ShuffleNet
伪装物体与背景之间存在高度的内在相似性,同时物体在尺度上多样、外观模糊,甚至可能被严重遮挡。ZoomNet通过设计的尺度集成单元和层次混合尺度单元采用缩放策略,学习候选物体与背景环境之间的可察觉线索,获取具有判别性的混合尺度语义。在四个公开数据集上测试超越了现有的23种先进方法,证明了在任务上的高度适应性和有效性。主要原因是随机性带来的影响,包括参数初始化、mini-batch 的随机采样顺序、dropout 等正则化操作都会导致不同的收敛路径。使用RELU作为激活函数。
2025-08-18 12:55:56
630
原创 第三章ResNet+ResNeXt
论文提出了一种新的网络架构,能够同时处理目标的定位、分割和排名任务,从而提高检测的准确性和效率。Batch Normalization的核心操作是在训练过程中对每个特征通道进行动态标准化:在每个批次的数据上实时计算均值和方差,将特征分布调整为均值为0、方差为1的稳定状态,最后通过可训练参数恢复特征表达能力。论文创新点在于该方法将目标的定位、分割和排名三个任务联合处理,通过统一的网络架构实现,避免了传统方法中多阶段处理的冗余,并且通过逐步细化目标的定位和分割结果,提高了检测的准确性。
2025-08-11 13:35:15
1280
原创 第二章卷积神经网络
这种双重结构相似性的评估方式使得该方法能够更准确地反映前景图的结构质量,而不仅仅是像素级别的匹配程度,为前景图的评估提供了新的视角和工具。残差学习提升准确率的核心原理是通过结构化跨层连接解决深度网络的退化问题。而残差结构引入的跨层跳跃连接 将输入与卷积层输出相加,使网络能够直接学习输入到输出的残差映射,而非完整变换。LeNet使用的是平均池化和Sigmoid激活函数,平均池化易丢失关键细节,Sigmoid使得梯度易消失、训练速度慢。调整网络深度与结构;
2025-07-27 19:40:55
1248
原创 第一章深度学习基础
梯度消失是指在深度神经网络训练过程中,反向传播算法计算的梯度随着网络层数的增加而减小,最终导致靠近输入层的权重几乎不会更新的现象。1.AlexNet有8层(5个卷积层和三个全连接层),比LeNet(3个卷积层和2个全连接层)深。SGD缺点:在复杂损失面上,收敛速度较慢,容易陷入局部最优;2.AlexNet首次大规模使用使用ReLU激活函数,解决了梯度消失问题,加速了训练过程。2.解决梯度问题,合适的激活函数能使梯度更稳定,加快网络训练速度。5.增强模型的稀疏性,有时会将部分神经元输出置零。
2025-07-21 20:31:34
245
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅