自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

转载 小白学GAN系列4——torch.optim

  torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。  为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。  要构建一个优化器optimizer,你必须给它一个可进行迭代优化的包含了所有参数(所有的参数必须是变量s)的列表。 然后,您可以指定程序优化特定的选项,例如学习速率,权重衰减等。g_optimizer = optim.Adam(

2020-11-04 11:12:41 265

转载 小白学GAN系列3——torch.device

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")  这段代码一般写在读取数据之前,torch.device代表将torch.Tensor分配到的设备的对象。torch.device包含一个设备类型(‘cpu’或‘cuda’)和可选的设备序号。如果设备序号不存在,则为当前设备。如:torch.Tensor用设备构建‘cuda’的结果等同于‘cuda:X’,其中X是torch.cuda.current_device

2020-11-04 10:53:02 2360

原创 小白学GAN系列2——nn.ReLU与nn.LeakyReLU的区别

nn.ReLU与nn.LeakyReLU的区别因为之前从未接触过这方面,直接接手GAN,有点吃力,如有明显漏洞,请指正,我会感激不尽。昨晚查阅了ReLU的含义,结果今天发现高老师给的代码中又有一个LeakyReLU,所以今天这个小白贴来对比下两者:下图是ReLU、Leaky ReLU、PReLU和RReLU的比较:ReLU是将所有的负值都设为零,相反,Leaky ReLU是给所有负值赋予一个非零斜率。可以看到,ReLU函数即小于0的就等于0,大于0的就等于原函数.=max(0,x)=Leaky

2020-11-04 10:38:41 8749

原创 无聊的开篇,不看也罢

  人生第一次使用博客,希望能坚持下来分享自己的小白学习经历吧。  没有灿烂的文笔,高考刚刚过百的语文成绩,充分展示了本人没有什么华丽的文采,就用直男的语言来分享吧。

2020-11-04 09:58:07 134

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除