深度学习基础要点和Pytorch常用命令汇总

本文介绍了深度学习的基础,包括卷积、池化、优化算法如梯度下降法和Adam,以及Pytorch框架的使用,如损失函数、非线性层、torchvision模块和模型的保存与加载。此外,还涵盖了激活函数和数学运算的应用。

深度学习基础

卷积

计算卷积后的图片size
s i z e = [ l + 2 ∗ p − k s + 1 size=[\frac{l+2*p-k}{s}+1 size=[sl+2pk+1]
其中:
l = 图 片 原 尺 寸 l = 图片原尺寸 l=
p = p a d d i n g 大 笑 p = padding大笑 p=padding
k = 卷 积 核 大 小 k = 卷积核大小 k=
s = 步 长 s = 步长 s=

卷积参数个数
假设输入为388,输出为655,卷积核大小为333
那么因为输出有6个channel,所以需要6个333的卷积核

对于Pytorch可以用下面代码查看参数:

for name,parameters in net.named_parameters():
	print(name,':',paramaters.size())

卷积层激活函数
激活函数一般是在每次卷积后就使用

池化

计算池化后的图片size
方法同卷积操作


优化算法

梯度下降法

batch梯度下降法(batch_size=样本大小)当样本数小于2000
mini_batch梯度下降法(batch_size介于之间)样本数大于2000,一般batch_size设为64~512(2的倍数)
随机梯度下降法(batch_size=1)

W : = W − α ∗ d W W:=W-\alpha*dW W:=WαdW

动量梯度下降 Momentum梯度下降

首先理解加权指数平均

V 0 = 0 V_0=0 V0=0
V 1 = β ∗ V 0 + ( 1 − β ) ∗ θ 1 V_1=\beta*V_0+(1-\beta)*\theta_1 V1=βV0+(1β)θ1
V 2 = β ∗ V 1 + ( 1 − β ) ∗ θ 2 V_2=\beta*V_1+(1-\beta)*\theta_2 V2=βV1+(1β)θ2
. . . ... ...
V n = β ∗ V n − 1 + ( 1 − β ) ∗ θ n V_n=\beta*V_{n-1}+(1-\beta)*\theta_n Vn=βVn1+(1β)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值