
GAN
崔可爱的胖肉肉
人工智能小白,分享自己的碰壁之旅
展开
-
小白学GAN系列4——torch.optim
torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。 为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。 要构建一个优化器optimizer,你必须给它一个可进行迭代优化的包含了所有参数(所有的参数必须是变量s)的列表。 然后,您可以指定程序优化特定的选项,例如学习速率,权重衰减等。g_optimizer = optim.Adam(转载 2020-11-04 11:12:41 · 268 阅读 · 0 评论 -
小白学GAN系列3——torch.device
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") 这段代码一般写在读取数据之前,torch.device代表将torch.Tensor分配到的设备的对象。torch.device包含一个设备类型(‘cpu’或‘cuda’)和可选的设备序号。如果设备序号不存在,则为当前设备。如:torch.Tensor用设备构建‘cuda’的结果等同于‘cuda:X’,其中X是torch.cuda.current_device转载 2020-11-04 10:53:02 · 2360 阅读 · 0 评论 -
小白学GAN系列2——nn.ReLU与nn.LeakyReLU的区别
nn.ReLU与nn.LeakyReLU的区别因为之前从未接触过这方面,直接接手GAN,有点吃力,如有明显漏洞,请指正,我会感激不尽。昨晚查阅了ReLU的含义,结果今天发现高老师给的代码中又有一个LeakyReLU,所以今天这个小白贴来对比下两者:下图是ReLU、Leaky ReLU、PReLU和RReLU的比较:ReLU是将所有的负值都设为零,相反,Leaky ReLU是给所有负值赋予一个非零斜率。可以看到,ReLU函数即小于0的就等于0,大于0的就等于原函数.=max(0,x)=Leaky原创 2020-11-04 10:38:41 · 8750 阅读 · 0 评论