人工智能_2.2深度学习_常见算子

一、线性算子(torch.nn.Linear)

f:Y=W\cdot X+B

        其中X\in R^{n\times m}为输入,W\in R^{m\times p}为权重,B\in R^{1\times p}为偏置,Y\in R^{n\times p}为输出,n通常为batch_size, m为输入特征的维度,p为输出特征的维度。在几何上,可视f为将一个决策变量从m维空间到p维空间的连续线性投影。注意:WB是可学习参数;若W为满秩方正,则YX同胚。

二、卷积(torch.nn.Conv2d)

f:Y=f(X,C,B,k,s)

        其中X\in R^{n\times W\times H}为输入,C\in R^{n\times m\times k\times k}为卷积核,B\in R^{n\times m}为偏置,Y\in R^{m\times W'\times H'}为输出,k为卷积核大小,s为卷积步长,n(m)为输入(出)通道数,WHW'H'为输入宽、输入高、输出宽、输出高。Y_{i,j,k}=avg(X_{:,j*s:j*s+k,k*s:k*s+k}\cdot C_{:,i,:,:}+B_{:,i})n*k*k维空间到1维空间的连续线性映射。k越大,卷积视野越大,提取的特征越趋近于全局,计算量也越大。s越大,不同局部上的特征融合越小,计算量越小。

三、池化

        池化源自滤波器,如中值滤波、最大值滤波、最小值滤波。最值池化侧重提取边缘纹理信息,而中值池化侧重提取背景信息。此外,池化可用于下采样操作,如空间金字塔池化模型( SPP)可将不同尺寸的输入图像映射到相同尺寸的特征。

        最值池化中,局部中总是非最大的不会前向传播,反向传播时是不经过该神经元。

四、激活函数

4.1 ReLU

        ReLU(x)=\left\{\begin{matrix} x, x\geq 0 \\ 0, x<0 \end{matrix}\right.        Leaky \, ReLU(x)=\left\{\begin{matrix} \; x, \; x\geq 0 \\ \alpha x,x<0 \end{matrix}\right.

        ReLU在x<0的部分中,其反函数不是一一对应的,因此其输入和输出空间不同胚;而Leaky ReLU是同胚的。

4.2 Sigmoid

Sigmoid(x)=\frac{1}{1+e^{-x}}

        Sigmoid输出空间为区间[0,1]。

4.3 Tanh

Tanh(x)=\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}}

        Tanh输出空间为区间[-1,1],在对抗攻击中常使用该损失函数以控制对抗噪声的尺度。

4.4 softmax

Tanh(x)=\frac{e^{x_i}}{\sum_{j=1}^{n}e^{x_j}}

        softmax常作为分类头的最后一个激活函数,在迫使标注类别置信度增大的同时,降低非标注类别的置信度。

五、其他操作

5.1 Dropout

        以一定的概率使输入特征变为0,即禁止被选中特征向后传播。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值