文章目录
深度学习基础
卷积
计算卷积后的图片size
s i z e = [ l + 2 ∗ p − k s + 1 size=[\frac{l+2*p-k}{s}+1 size=[sl+2∗p−k+1]
其中:
l = 图 片 原 尺 寸 l = 图片原尺寸 l=图片原尺寸
p = p a d d i n g 大 笑 p = padding大笑 p=padding大笑
k = 卷 积 核 大 小 k = 卷积核大小 k=卷积核大小
s = 步 长 s = 步长 s=步长
卷积参数个数
假设输入为388,输出为655,卷积核大小为333
那么因为输出有6个channel,所以需要6个333的卷积核
对于Pytorch可以用下面代码查看参数:
for name,parameters in net.named_parameters():
print(name,':',paramaters.size())
卷积层激活函数
激活函数一般是在每次卷积后就使用
池化
计算池化后的图片size
方法同卷积操作
优化算法
梯度下降法
batch梯度下降法(batch_size=样本大小)当样本数小于2000
mini_batch梯度下降法(batch_size介于之间)样本数大于2000,一般batch_size设为64~512(2的倍数)
随机梯度下降法(batch_size=1)
W : = W − α ∗ d W W:=W-\alpha*dW W:=W−α∗dW
动量梯度下降 Momentum梯度下降
首先理解加权指数平均
V 0 = 0 V_0=0 V0=0
V 1 = β ∗ V 0 + ( 1 − β ) ∗ θ 1 V_1=\beta*V_0+(1-\beta)*\theta_1 V1=β∗V0+(1−β)∗θ1
V 2 = β ∗ V 1 + ( 1 − β ) ∗ θ 2 V_2=\beta*V_1+(1-\beta)*\theta_2 V2=β∗V1+(1−β)∗θ2
. . . ... ...
V n = β ∗ V n − 1 + ( 1 − β ) ∗ θ n V_n=\beta*V_{n-1}+(1-\beta)*\theta_n Vn=β∗Vn−1+(1−β)

本文介绍了深度学习的基础,包括卷积、池化、优化算法如梯度下降法和Adam,以及Pytorch框架的使用,如损失函数、非线性层、torchvision模块和模型的保存与加载。此外,还涵盖了激活函数和数学运算的应用。
最低0.47元/天 解锁文章
6983

被折叠的 条评论
为什么被折叠?



