深度学习
文章平均质量分 91
empti_
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
NumPy:避免使用for循环
特性Python for循环NumPy向量化操作执行层面Python解释器预编译的C代码性能非常慢极快(数十到数百倍提升)代码风格冗长简洁、优雅、易读可读性低(需要跟踪循环变量)高(声明式,表达“做什么”而非“怎么做”)推荐度避免使用强烈推荐将问题转化为数组或矩阵运算,并利用NumPy的向量化函数和广播机制来替代显式的for循环。这不仅能极大提升代码运行速度,也会使你的代码更加简洁和“Pythonic”。原创 2025-08-27 16:55:53 · 857 阅读 · 0 评论 -
对卷积层的简单理解
你可以把CNN的工作过程想象成用一组滤镜(卷积核)去观察一幅画第一组粗糙滤镜:只能看出画的大致轮廓和色块(边缘、颜色)。第二组精细滤镜:在轮廓的基础上,能看出眼睛、鼻子等部件(模式组合)。第三组更抽象的滤镜:通过这些部件,最终判断出“这是一张人脸”(高级语义信息)。而池化层的作用,则像是在每次用滤镜观察后,缩小一下画的尺寸,只保留最关键的信息,从而减少后续处理的工作量。因此,卷积层是CNN之所以能高效处理图像类数据的基石。原创 2025-08-27 16:39:36 · 955 阅读 · 0 评论 -
对池化层的简单理解
核心目的具体作用类比降维减参减少特征图尺寸,降低计算量和内存消耗,防止过拟合。就像看一张高清地图,池化帮你换成了一张分辨率更低但关键信息(城市、河流)仍在的概要地图。平移不变性使网络不关心特征的确切位置,只关心特征是否存在,提升模型鲁棒性。无论猫的脸在图片左边还是右边,只要检测到“猫眼”、“猫胡子”等特征,就认为它是猫。增大感受野让后续层能看到输入图像中更广阔的区域,从而学习更复杂的模式。从看清一个个像素点,到看清边缘,再到看清纹理,最后看清整个物体。池化加速了这个“看清全局”的过程。原创 2025-08-27 16:37:47 · 815 阅读 · 0 评论 -
im2col详解
(image to column)是一种在卷积神经网络(CNN)中高效实现卷积操作的算法。它通过将输入图像中的局部区域展开成列向量,将卷积运算转化为矩阵乘法,从而利用高度优化的线性代数库(如BLAS)加速计算。是卷积神经网络中的关键技术,通过将局部感受野数据重组为列向量,将卷积转化为矩阵乘法,大幅提升计算效率。尽管有内存开销高的缺点,但在现代深度学习框架(如PyTorch的。)中仍是基础优化手段。理解其原理有助于深入CNN实现细节及性能优化。:对批次中每个样本重复上述步骤,结果按列拼接(总列数。原创 2025-08-19 17:47:51 · 578 阅读 · 0 评论 -
Affine层 (全连接层) 的反向传播公式
梯度类型公式输入维度输出维度输入梯度∂L∂X∂L∂YW⊤∂X∂L∂Y∂LW⊤∂L∂YBM∂Y∂LBMBN(B, N)BN权重梯度∂L∂WX⊤∂L∂Y∂W∂LX⊤∂Y∂LXBNXBNNM(N, M)NM偏置梯度∂L∂b1B⊤∂L∂Y∂b∂L1B⊤∂Y∂L∂L∂YBM∂Y∂LB。原创 2025-08-15 11:11:59 · 1046 阅读 · 0 评论 -
He初始化(Kaiming初始化):原理与推导
层类型ninninnoutnout全连接层输入神经元数量输出神经元数量卷积层kernel_w×kernel_h×kernel_w×kernel_h×kernel_w×kernel_h×kernel_w×kernel_h×核心创新:通过方差放大(2nn2)补偿ReLU的方差减半效应数学本质:保持前向激活值/反向梯度方差跨层稳定实践建议ReLU网络默认使用He初始化全连接/卷积层统一用配合BatchNorm效果更佳代码实现参考。原创 2025-08-14 15:01:51 · 1146 阅读 · 0 评论 -
解析 Xavier 初始化:原理、推导与实践
机制效果方差一致性原则前向传播信号强度保持稳定双向约束调和反向传播梯度强度保持稳定零均值分布避免交叉项干扰方差计算按层自适应缩放适应不同网络结构的尺寸差异实践意义Xavier 初始化使深层网络在训练初期就能保持信号和梯度的稳定性,显著缓解梯度消失/爆炸问题,为优化器提供良好的起点。尽管现代网络多使用 ReLU 族激活函数(需 He 初始化),但 Xavier 仍是理解权重初始化理论的基石,其思想被后续多种优化算法继承发展。原创 2025-08-14 12:17:31 · 1417 阅读 · 0 评论
分享