- 博客(4)
- 收藏
- 关注
转载 小白学GAN系列4——torch.optim
torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。 为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。 要构建一个优化器optimizer,你必须给它一个可进行迭代优化的包含了所有参数(所有的参数必须是变量s)的列表。 然后,您可以指定程序优化特定的选项,例如学习速率,权重衰减等。g_optimizer = optim.Adam(
2020-11-04 11:12:41
265
转载 小白学GAN系列3——torch.device
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") 这段代码一般写在读取数据之前,torch.device代表将torch.Tensor分配到的设备的对象。torch.device包含一个设备类型(‘cpu’或‘cuda’)和可选的设备序号。如果设备序号不存在,则为当前设备。如:torch.Tensor用设备构建‘cuda’的结果等同于‘cuda:X’,其中X是torch.cuda.current_device
2020-11-04 10:53:02
2360
原创 小白学GAN系列2——nn.ReLU与nn.LeakyReLU的区别
nn.ReLU与nn.LeakyReLU的区别因为之前从未接触过这方面,直接接手GAN,有点吃力,如有明显漏洞,请指正,我会感激不尽。昨晚查阅了ReLU的含义,结果今天发现高老师给的代码中又有一个LeakyReLU,所以今天这个小白贴来对比下两者:下图是ReLU、Leaky ReLU、PReLU和RReLU的比较:ReLU是将所有的负值都设为零,相反,Leaky ReLU是给所有负值赋予一个非零斜率。可以看到,ReLU函数即小于0的就等于0,大于0的就等于原函数.=max(0,x)=Leaky
2020-11-04 10:38:41
8749
原创 无聊的开篇,不看也罢
人生第一次使用博客,希望能坚持下来分享自己的小白学习经历吧。 没有灿烂的文笔,高考刚刚过百的语文成绩,充分展示了本人没有什么华丽的文采,就用直男的语言来分享吧。
2020-11-04 09:58:07
134
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人