- 博客(6)
- 收藏
- 关注
原创 不同的路径输出的特征图H、W尺寸是如何匹配的?
揭秘Inception网络特征图融合魔法:尺寸调整与通道匹配技术解析!本文深入探讨了在Inception模块中,如何利用SAME padding、额外池化层和卷积层调整策略精确控制特征图尺寸,以及如何通过1×1卷积实现通道数统一,最终实现多路径特征图在通道维度上的完美拼接,为你的深度学习模型带来前所未有的融合效果和性能提升!
2024-12-31 15:25:59
583
原创 揭秘Inception网络核心:“1×1卷积”的作用
揭秘Inception网络核心:1×1卷积的三大神奇作用——维度降低、参数削减、跨通道信息融合!本文深入剖析了1×1卷积在深度学习中的应用,通过实例解析,展示了它如何高效降低计算成本、实现特征整合,并引入非线性提升网络表现力。掌握这一关键技术,让你的神经网络模型更加强大、高效!
2024-12-31 15:01:39
1488
原创 为什么通常要在1*1卷积之后引入ReLU等激活函数,而不是在其他的地方引入?
在1*1卷积之后引入ReLU等激活函数的作用:1、参数效率 2、防止梯度消失 3、参数效率 4、更鲁棒的特征表示~~~
2024-12-31 12:18:13
492
原创 通过例子理解概念——>01_CNN卷积神经网络(通俗易懂)
卷积神经网络(CNN)——图像识别的神奇“鉴赏家”!它犹如艺术鉴赏家般,用“放大镜”细致观察图像的每一个角落,通过卷积操作捕捉局部特征,池化操作提炼精华,激活函数筛选关键信息。全连接层则像策展人,将特征巧妙组合,最终决定图像的“身份”。本文深入浅出,带你领略CNN的魅力,揭示它如何从千万图片中识别出那只萌萌的猫咪。一探究竟,开启AI视觉之旅!
2024-11-24 19:28:39
1169
原创 VGG神经网络结构的设计中,计算全连接层输入通道数,为什么要去除张量的第一维度?
去除张量的第一个维度(批量维度--batch_size)是因为这个维度在处理模型的特征时通常不需要参与总元素数量的计算,。在深度学习和机器学习中,输入数据通常会以一个 batch(批次)的形式进行处理,数据的形状通常是batch_sizeheightwidthchannels。
2024-11-24 18:52:32
560
原创 浅述深、浅层卷积核如何区分以及他们的区别?
在卷积神经网络(CNN)中,卷积核的“浅层”和“深层”是指卷积核在网络的层次结构中的位置。随着网络层数的增加,卷积核捕捉的特征从低级到高级逐渐变化。
2024-11-20 16:55:26
318
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅